Tag Archives: energia

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La bomba più potente mai creata!

20 Ott

Eccoci di nuovo qui. Scusate, come al solito, la mia latitanza ma, in questi giorni, sono un po’ lontano dall’Italia e con qualche problema di fuso orario, oltre ai sempre presenti impegni lavorativi.

Detto questo, dopo questi due post:

Il suono del vinile

Il suono più forte mai udito

c’è un’ultima domanda che mi è stata rivolta via mail e che vorrei condividere con tutti perchè, a mio avviso, potrebbe essere molto interessante. La domanda fatta è, se vogliamo, molto semplice: qual è la bomba atomica più potente mai creata dall’uomo?

Premetto subito che il mio post non vuole urtare il pensiero di nessuno. Non è questa la sede per discutere tra chi è a favore dell’energia atomica e chi no, chi pensa una cosa e chi un’altra, ecc.. Lo scopo di questo post vuole essere puramente scientifico o, lasciatemi dire, nonostante l’argomento, di curiosità.

Bene, la bomba atomica più potente, e vedremo cosa significa, mai realizzata dall’uomo è la Bomba Zar, nome in codice Big Ivan, sviluppata in unione sovietica. Premetto subito che non si è trattato di un ordigno di offesa ma solo di un test militare. Anzi, come molti storici sotengono, più che un test militare, la costruzione e il seguente utilizzo della bomba è stato più che altro un messaggio di propaganda dell’ex-URSS per dimostrare ai suoi cittadini, e al mondo intero, cosa la nazione fosse in grado di realizzare.

Dal punto di vista tecnico, la bomba Zar, nella sua concezione iniziale, era una bomba a 3 stadi. Nel nucleo più interno il processo di fissione veniva fatto partire per fornire energia al secondo stadio in cui si aveva un’amplificazione grazie alla fusione di atomi di idrogeno, energia che serviva a sua volta per innescare una seconda fusione nel terzo e più esterno strato della bomba.

A livello progettuale, la bomba Zar era in grado di sviluppare una potenza di 100 Mt, cioè 100 milioni di tonnellate di TNT equivalente. A quanto equivale questa energia? Per farvi un esempio noto a tutti, l’atomica sganciata dagli USA su Hiroshima, Little Boy, aveva una potenza 3125 volte inferiore. Se potessimo far esplodere simultaneamente tutti gli esplosivi convenzionali utilizzati nella seconda guerra mondiale, l’esplosione sarebbe ancora 10 volte inferiore a quella della Bomba Zar.

Questo potentissimo ordigno venne sviluppato dall’Unione Sovietica da un team di fisici capeggiati da Andrej Sacharov, una delle menti più brillanti del XX secolo. Dopo aver contribuito in modo fondamentale allo sviluppo della bomba a idrogeno, Sacharov iniziò una lunga battaglia a favore dei diritti civili e contro l’uso dell’energia nucleare negli armamenti. Proprio questa sua attività gli valse il premio nobel per la pace.

Tornando a parlare dell’ordigno, per motivi di sicurezza, nell’unico test condotto, venne realizzata una versione depotenziata della Bomba Zar. A differenza del progetto iniziale, il terzo stadio venne sostituito da piombo, materiale in grado di rallentare e schermare le radiazioni prodotte dalla bomba. Questa versione poteva però raggiungere la sempre impressionante energia di 50 Mt. Il test venne poi eseguito il 30 Ottobre 1961, sull’isola di Novaja Zemlja, una località sperduta a nord del Circolo Polare.

Nonostante l’enorme potenza, la sostituzione del terzo stadio con piombo diminuì notevolmente la radiazione emessa attraverso il fallout successivo alla detonazione. Proprio per questo motivo, considerando il rapporto potenza/radiazione, la bomba Zar è anche stata l’ordigno nucleare più “pulito”.

Quali sono gli effetti di una detonazione del genere? Prima di tutto, consideriamo che la bomba venne fatta esplodere a 4000 metri dal suolo. Nonostante questo, la successiva onda sismica provocata dalla deflagrazione fece 3 volte il giro del pianeta. Testimoni a 1000 Km di distanza dal punto, poterono vedere chiaramente il lampo anche se il cielo era notevolmente nuvoloso. Altri testimoni riportarono di aver percepito il calore dell’onda sulla pelle fino a 270 Km di distanza. Praticamente tutto quello che era presente fino a 35 Km dal centro venne completamente spazzato via. Se ancora non vi basta, a 900 Km di distanza, in Finlandia, alcune case riportarono danni a porte e finestre provocati dall’onda d’urto dell’esplosione.

Ripeto, questa era la versione depotenziata di un un fattore 2 rispetto al reale progetto.

Spero che quanto raccontato sia sufficiente a far capire le potenzialità di questi ordigni. Ripeto, non voglio discutere se è giusto o meno costruire, o saper realizzare, bombe di questo tipo. Permettetemi però di dire, senza offesa per nessuno, che dal punto di vista tecnico è straordinario pensare a quanta energia possa essere sviluppata da un sistema di questo tipo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Automobili stampate in 3D!

2 Ott

Solo qualche tempo fa, avevamo parlato in dettaglio delle stampanti 3D:

Due parole sulla stampa in 3D

Come visto, questi strumenti, che possono esssere considerati ancora in fase prototipale, offrono delle soluzioni uniche con margini di applicazione possibili nei settori più disparati. Dal mio punto di vista, considero questi oggetti ancora in fase di prototipo non per le applicazioni già in corso ma perchè, molto spesso, la loro esistenza è poco conosciuta e perchè ancora non abbiamo sfruttato al massimo le loro potenzialità.

Proprio per questo motivo, oggi vorrei commentare con voi un articolo davvero molto interessante. Solo qualche giorno fa, i giornali hanno riportato qualcosa di impensabile fino ad ora, un’applicazione davvero entusiasmente della stampa 3D con cui è stato realizzato un prototipo di automobile che tra poco, con buona probabilità, verrà messo in commercio.

Attenzione però, al solito, alcune testate hanno riportato la notizia in modo errato definendo questa applicazione come la “prima” automobile stampata in 3D. Per comprendere meglio, diamo qualche dettaglio aggiuntivo.

Già nel 2010, negli Stati Uniti era stata realizzata quella che possiamo definire la prima automobile dotata di carrozzeria stampata in 3D. Il prototipo in questione, perché di questo si tratta, si chiamava Urbee. A riprova, vi riporto un articolo del Sole 24 ore del 3 Novembre 2010:

Sole 24 ore, Urbee

Questa è la foto della Urbee:

Urbee, la prima vettura in assoluto stampata in 3D

Urbee, la prima vettura in assoluto stampata in 3D

Bene, perchè allora a distanza di 4 anni la stessa applicazione fa ancora notizia? Il primo motivo è nazionalista. La notizia di questi giorni è, ripeto, di un’automobile stampata in 3D e presentata a Chicago su progetto di un designer italiano che si chiama Michele Anoè. Senza indugio, vi mostro subito le foto di questa automobile che si chiama invece STRATI:

La Strati

La Strati

Detto questo, capite subito perché, giustamente in parte, i giornali italiani hanno dato molto risalto alla notizia. C’è anche da dire che il progetto ha partecipato ad una selezione a livelo mondiale in cui il nostro designer è arrivato primo tra oltre 200 contendenti e per questo motivo la Strati è stata realizzata e presentanta. Ma, oltre a questo, esistono anche delle particolarità tecnico-commerciali che rendono la notizia importante. Al contrario della Urbee, la carrozzeria della Strati è stata stampata tutta in un volta. Il risultato ottenuto è simile a quello dei modellini che si acquistano nei negozi di giocattoli in cui i singoli pezzi sono uniti da piccole giunzioni di plastica. Ecco una foto della lavorazione della Strati:

Lavorazione della Strati

Lavorazione della Strati

Dopo il processo di stampa, i pezzi vengono fresati per rimuovere le parti di supporto necessarie durante la stampa e il tutto può essere assemblato molto rapidamente. Ecco l’ulteriore deffirenza tra le due automobili, per realizzare una Strati occorrono solo 44 ore di lavorazione. Un tempo record per ottenere un oggetto pronto e realmente funzionante.

Oltre a questo, come anticipato, la Strati verrà ora prodotta e, lentamente, realizzata in serie dalla Local Motor. Inutile dire che questa utomobile è dotata di un motore elettrico tra l’altro assolutamnete commerciale. Il propulsore utilizzato è infatti lo stesso della Renault Twizy. I consumi dichiarati per questo primo prototipo sono assolutamente degni di nota, 65 Km/h come velocità di picco con un’autonomia di 200 Km a ricarica.

Il prezzo?

Considerando che parliamo sempre di una macchina elettrica, il prezzo è più o meno in linea con le altre auto del settore, tra i 18000 e i 34000 dollari. Certo, considerando che tutto il processo di lavorazione delle parti esterne avviene mediante una stampante 3D in 44 ore, permettemi di dire che il costo, forse, è un po’ eccessivo. Molto probabilmente però, ci saranno margini di manovra dal punto di vista commerciale. Parliamo di un reale prototipo su cui non è ancora partita la produzione in serie e sul quale sono montati pezzi provenienti da diversi fornitori.

Concludendo, la Strati, oltre ad essere disegnata da un italiano, rappresenta un notevole salto avanti per la stampa 3D che lascia il mondo dei prototipi con grandi dimensioni per approdare, forse, a livello commerciale. Ripeto quello che ho scritto anche nel precedente articolo, la stampa 3D ci riserverà ancora molte sorprese per il futuro e, grazie ad un incremento dell’utilizzo e della ricerca, potrà realizzare oggetti a basso costo e larga diffusione.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Hawking e la fine del mondo

11 Set

Visto che me lo state chiedendo in tantissimi, vorrei aprire una parentesi sulle affermazioni fatte dal celebre astrofisico Stephen Hawking riguardanti il bosone di Higgs. Per chi non lo avesse seguito, abbiamo già discusso di questo tema nella apposita sezione:

Hai domande o dubbi?

Dove un nostro caro lettore, già qualche giorno fa, ci aveva chiesto lumi a riguardo.

Di cosa stiamo parlando?

Come tutti avrete letto, nell’introduzione del suo ultimo libro “Starmus, 50 years of man in space” il celebre astrofisico avrebbe scritto che il bosone di Higgs avrebbe le potenzialità per poter distruggere l’intero universo. In pratica, ad energie elevate, così si legge, la particella potrebbe divenire improvvisamente instabile e provocare il collasso dello stato di vuoto, con conseguente distruzione dell’universo.

Cosa? Collaso del vuoto? Distruzione dell’universo?

Ci risiamo, qualcuno ha ripreso qualche spezzone in giro per la rete e ne ha fatto un caso mondiale semplicemente mescolando le carte in tavola. In realtà, a differenza anche di quanto io stesso ho affermato nella discussione linkata, la cosa è leggermente più sottile.

E’ possibile che il bosone di Higgs diventi instabile e bla bla bla?

No! Il bosone di Higgs non diviene instabile ad alte energie o perchè ne ha voglia. Stiamo entrando in un settore della fisica molto particolare e su cui la ricerca è ancora in corso.

Facciamo un piccolo excursus. Del bosone di Higgs ne abbiamo parlato in questo articolo:

Bosone di Higgs … ma che sarebbe?

dove abbiamo cercato di spiegare il ruolo chiave di questa particelle nella fisica e, soprattutto, la sua scoperta.

Inoltre, in questo articolo:

L’universo è stabile, instabile o metastabile?

Abbiamo visto come la misura della massa di questa particella abbia implicazioni profonde che esulano dalla mera fisica delle particelle. In particolare, la massa di questa particella, combinata con quella del quark top, determinerebbe la condizione di stabilità del nostro universo.

Bene, come visto nell’ultimo articolo citato, i valori attuali dei parametri che conosciamo, ci pongono nella strettissima zona di metastabilità del nostro universo. Detto in parole semplici, non siamo completamente stabili e, ad un certo punto, il sistema potrebbe collassare in un valore stabile modificando le proprietà del vuoto quantomeccanico.

Riprendiamo il ragionamento fatto nell’articolo. Siamo in pericolo? Assolutamente no. Se anche fossimo in una condizione di metastabilità, il sistema non collasserebbe da un momento all’altro e, per dirla tutta, capire cosa significhi in realtà metastabilità del vuoto quantomeccanico non è assolutamente certo. Premesso questo, come già discusso, i valori delle masse delle due particelle in questione, vista la ristretta zona in esame, non sono sufficienti a determinare la reale zona in cui siamo. Cosa significa? Come detto, ogni misura in fisica viene sempre accompagnata da incertezze, cioè un valore non è univoco ma è contenuto in un intervallo. Più è stretto questo intervallo, minore è l’incertezza, meglio conosciamo il valore in esame. Ad oggi, ripeto, vista la stretta banda mostrata nel grafico, le nostre incertezze sono compatibili sia con la metastabilità che con l’instabilità.

Dunque, pericolo scampato. Resta però da capire il perchè delle affermazioni di Hawking.

Su questo, vi dirò la mia senza fronzoli. Hawking conosce benissimo l’attuale livello di cui abbiamo discusso. Molto probabilmente, non avendolo letto non ne posso essere sicuro, nel libro ne parla in modo dettagliato spiegando tutto per filo e per segno. Nell’introduzione invece, appunto in quanto tale, si lascia andare ad affermazioni quantomeno naive.

Perchè fa questo? Le ipotesi sono due e sono molto semplici. La prima è che è in buona fede e la colpa è solo dei giornali che hanno ripreso questa “introduzione al discorso” proprio per creare il caso mediatico sfruttando il nome dell’astrofisico. La seconda, più cattiva, è che d’accordo con l’editore, si sia deciso di creare questo caso appunto per dare una spinta notevole alle vendite del libro.

Personalmente, una o l’altra non conta, l’importante è capire che non c’è nessun collasso dell’universo alle porte.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il metodo made in Italy per produrre Idrogeno

26 Lug

Da molti anni, ormai, sentiamo parlare di un futuro energetico incentrato sull’idrogeno. Molti, parlano di questo possibile combustibile addirittura speculando su un passaggio dall’era del petrolio a quella dell’idrogeno. Come tutti sappiamo, questa soluzione potrebbe essere utilizzata in tantissimi settori. Anche se il più noto, e lasciatemi dire su cui tante leggende sono state create, è quello delle macchine alimentate a idrogeno, questo elemento potrebbe servire per produrre corrente elettrica ed energia nei più svariati settori industriali, consentendo, finalmente, di mettere da parte i fortemente inquinanti idrocarburi ma, soprattutto, l’economia basata su questi oli che non ha fatto altro che creare centri di potere, in primis, e guerre per l’appropriazione e lo sfruttamento dei giacimenti sparsi per il mondo.

Perché, ancora oggi, visto che molti parlano di una panacea di tutti i mali, non utilizziamo l’idrogeno?

Come sapete, molti parlano di poteri forti in grado di bloccare lo sviluppo di queste tecnologie per puri fini economici. Da un lato, queste affermazioni sono corrette. Non voglio nascondermi dietro un dito e dire che viviamo in un mondo ideale. Come tutti sanno, i soldi fanno andare l’acqua in salita ma, soprattutto, decidono dove l’acqua deve passare e dove no. Questo lato economico-oscuro non è però materia del nostro blog. Quello su cui invece vorrei spingere tutti a ragionare è il discorso prettamente energetico e ambientale dell’idrogeno.

Anche molti tra i cosiddetti esperti dell’energia, un po’ per secondi fini ma, mi dispiace dirlo, a volte anche per ignoranza, quando parlano di fonti alternative, dunque non solo idrogeno, dimenticano sempre di prendere in considerazione l’intera filiera del settore che non comprende solo l’utilizzo della risorsa ma anche la sua estrazione o eventuale produzione, stoccaggio, distribuzione, ecc.

Che cosa intendo con questo?

Facciamo un esempio pratico ma inventato. Immaginate di trovare una nuova fonte energetica che possa essere utilizzata per alimentare le automobili. Questa risorsa rende la vostra macchina assolutamente non inquinante e costa 1/10 della benzina. Bene, annunciate la vostra scoperta su internet e immediatamente si formerà un esercito di internauti pronti a parlare della vostra genialata e del fatto che la ricerca, insieme con qualche burocrate in giacca, cravatta e occhiali scuri, vi sta ostacolando. Scommetto che questa storiella ve ne ricorda tante altre sentite in questi anni. Dov’è il problema? Semplice, anche se il nostro carburante costa poco e non inquina, come si produce? Dove si estrae? Se per produrre questo carburante dovete utilizzare carbone, oli o elementi chimici che produrrebbero un effetto sull’atmosfera peggiore di quella dell’uso del petrolio, la vostra invenzione sarebbe ancora molto conveniente? Direi proprio di no.

Bene, questo è quello che vorrei far capire. Ogni qual volta si parla di qualcosa legato all’energia e all’inquinamento, dovete sempre mettere in conto tutti gli aspetti legati a quella determinata risorsa. Esempio pratico? I pannelli solari producono energia dalla fonte rinnovabile per eccellenza, il Sole. Nessuno però vi racconta mai dei costi di produzione dei pannelli o, soprattutto, di quelli di smaltimento dei pannelli ormai esausti. Tenendo conto di questi fattori, si deve ridimensionare molto il vantaggio ottenuto con l’uso di pannelli commerciali. Per carità, non voglio dire che questa soluzione debba essere scartata. Il mio pensiero vuole solo mostrare gli altri aspetti che spesso, soprattutto tra i sostenitori di una tecnologia, vengono completamente taciuti.

Perdonate questa mia lunga introduzione, ma quanto detto è, a mio avviso, importante per inquadrare al meglio la situazione.

Tornando ora al discorso idrogeno, come forse avrete letto, un team di ricercatori del CNR, per essere precisi della sezione di Firenze, ha trovato un nuovo processo di produzione dell’idrogeno che riesce a sfruttare i cosiddetti oli rinnovabili.

Perché è così interessante questa notizia? Alla luce di quanto detto sopra, ad oggi, esistono due modi principali di produzione dell’idrogeno, entrambi con criticità molto importanti. Il primo metodo di produzione consiste nell’estrazione dell’idrogeno dal metano. Per poter avviare il processo è però necessario ossigenare l’ambiente. In questo caso, la produzione di idrogeno è accompagnata da quella di anidride carbonica. Risultato? La produzione di CO2, come è noto, è da evitare per le conseguenze sull’ambiente. Vedete come le considerazioni iniziali ci consentono di fare ora un’analisi critica dell’intero processo?

Il secondo metodo possibile per la produzione dell’idrogeno è semplicemente basato sull’elettrolisi dell’acqua, cioè nella scomposizione di questa fonte nota e ampiamente disponibile in idrogeno e ossigeno. Quale sarebbe ora il rovescio della medaglia? Per fare l’elettrolisi dell’acqua occorre fornire molta energia, energia che deve ovviamente essere messa in conto quando si calcola il rendimento della risorsa. Esempio pratico, se per innescare l’elettrolisi utilizzate energia prodotta da fonti rinnovabili, questo contributo inquinante deve essere contabilizzato e l’idrogeno non è più così pulito. Oltre al problema del costo energetico di produzione, nel caso dell’elettrolisi si deve considerare anche il fattore sicurezza. Idrogeno e ossigeno vengono prodotti ad alte pressioni. Se, per puro caso, i due elementi vengono in contatto tra loro, si crea una miscela fortemente esplosiva.

Alla luce di quanto detto, credo che ora sia più chiaro a tutti il perché, escluso il discorso economico legato al petrolio, ancora oggi la futuribile economia dell’idrogeno ancora stenta a decollare.

Bene, quale sarebbe allora questo metodo made in Italy che i ricercatori del CNR hanno inventato? Come anticipato, questo sistema di produzione sfrutta gli alcoli rinnovabili. Credo che tutti abbiamo bene in mente cosa sia un alcol, perché però parliamo di rinnovabili? Detto molto semplicemente, si tratta degli alcoli, glicerolo, metanolo, ecc., prodotti dalle biomasse, quindi sfruttabili, rinnovabili e anche assolutamente diffuse.

Come funziona questo metodo?

Come noto alla chimica, rompere la molecola d’acqua in presenza di alcoli richiede molta meno energia rispetto a quella necessaria in presenza di sola acqua. Nessuno però, fino ad oggi, aveva pensato di sfruttare questa evidenza per la produzione di idrogeno. La vera innovazione di questo processo è nell’aggiunta di elettrodi nanostrutturati ricoperti di palladio che fungono da catalizzatori per il processo e raccolgono l’idrogeno prodotto nella reazione. A questo punto, immergendo gli elettrodi in una soluzione acquosa di alcoli è possibile rompere la molecola di acqua producendo idrogeno, evitando la formazione di ossigeno libero e, soprattutto, risparmiando il 60% dell’energia rispetto all’elettrolisi.

Come annunciato anche dagli stessi ricercatori, questo sistema potrà servire in un primo momento per la produzione di batterie portatili in grado di fornire energia in luoghi isolati e, a seguito di ulteriori ricerche e perfezionamenti, potrà essere sfruttato anche per la realizzazione di generatori da qualche KWh fino a potenze più alte.

Apro e chiudo parentesi, non per essere polemico ma per mostrare l’ambito nel quale molto spesso le ricerche si svolgono. Il gruppo di ricerca è riuscito a trovare i finanziamenti per i suoi studi perché al progetto hanno partecipato alcuni enti privati finanziatori, tra cui il credito cooperativo di Firenze.

Solo per concludere, e giusto per ricalcare nuovamente il fatto che la ricerca non si è dimenticata dell’idrogeno, anche a livello governativo, nelle direttive per l’obiettivo 2020 è stato imposto un target di 45KWh per la produzione di 1 Kg di idrogeno. Obiettivo considerato futuribile fino ad oggi ma che richiedeva ricerca aggiuntiva sui sistemi di produzione. Bene, il metodo inventato dal CNR richiede soltanto 18.5KWh per produrre 1 Kg di idrogeno. Direi che questo rende sicuramente il processo economicamente vantaggioso e apre finalmente le porte a un utilizzo, che sarà sempre e comunque graduale, di questa risorsa nella vita di tutti i giorni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tempesta solare e problemi ai telefoni?

21 Giu

Nella sezione:

Hai domande o dubbi?

e attraverso varie mail che mi sono arrivate, mi è stato chiesto di fare un po’ di chiarezza sui problemi telefonici che si sono avuti nei giorni scorsi soprattutto in virtù di quanto raccontato su vari siti e giornali. Come forse avrete letto, diverse fonti hanno infatti puntato il dito contro la forte attività solare per spiegare i guasti alla rete mobile, soprattutto per i clienti wind, che hanno visto un picco di malfunzionamenti intorno al 13 Giugno.

Diverse volte su questo blog ci siamo occupati di attività solare e dell’alternanza di massimi e minimi che la nostra stella presenta nel corso del tempo:

– Evidenze dal Sole?

– Le macchie solari AR1504

– Gli effetti di AR1504

– Sole: quanta confusione!

– Inversione dei poli terrestri

– Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

– Curiosita’ sui cicli solari

Possiamo scegliere tra era glaciale o desertificazione

Come visto, il nostro Sole non è affatto un corpo con un’attività costante nel tempo ma passa attraverso periodi di massimo e minimo in un tempo di circa 11 anni. Non c’è assolutamente nulla di strano o di anomalo in questo comportamento, ma il tutto fa parte del normale e corretto funzionamento di stelle di questo tipo. Nonostante la buona conoscenza astronomica del Sole, molto spesso l’attività di questa stella, soprattutto a causa della sua connessione con la Terra e con la vita, viene chiamata in causa per annunciare catastrofi o per spiegare, come nel caso in questione, problematiche che in realtà non sono assolutamente correlate.

Cerchiamo dunque di andare con ordine e capire prima di tutto cosa è successo qualche giorno fa.

Come detto all’inizio, la scorsa settimana si sono avuti problemi per molti clienti di telefonia fissa e mobile principalmente per l’operatore Wind. Moltissime persone sono rimaste per qualche ora completamente isolate ed impossibilitate sia a ricevere chiamate che a collegarsi alla rete.

Normali problemi? In realtà no, dal momento che blackout così estesi rappresentano eventi eccezionali e, molto spesso, legati a problematiche uniche e per cui la rete non è protetta. Normalmente, quando avvengono problemi di questo tipo i guasti vengono risolti e realizzate soluzioni specifiche che possano impedire nel futuro il riproporsi di anomalie simili.

Nonostante questo, diverse fonti sulla rete hanno parlato di questi guasti parlando di eventi dovuti alla forte attività del Sole. Come forse avrete letto, nei giorni precedenti il guasto si sono registrati alcuni flare solari molto potenti che, stando a quanto riportato, avrebbero rilasciato particelle molto energetiche che una volta arrivate sulla Terra avrebbe messo fuori gioco i satelliti delle comunicazioni.

Aspettate un attimo. Guasto alla rete fissa e mobile per i clienti Wind. Se proprio vogliamo essere precisi, alcune interruzioni sporadiche e di minore entità per un numero ristretto di clienti Fastweb. Spiegazione? I flare solari. C’è qualcosa che non mi torna in tuta questa storia. Secondo voi, il Sole emette particelle energetiche verso la Terra. Queste arrivano e decidono di colpire solo le infrastrutture di un operatore lasciando intatte le altre? Capite l’assurdità di quello che vi stanno dicendo?

Torniamo seri e cerchiamo di capire meglio l’intera storia. Come visto negli articoli precedenti, durante i periodi di massima attività solare ci possono essere emissioni di flare di particelle verso l’esterno. Queste potenti emissioni possono ovviamente arrivare sulla Terra. Normalmente, i bersagli più a rischio sono i satelliti in orbita perché esposti al flusso di particelle. La superficie terrestre è invece protetta e schermata dallo scudo magnetico offerto dal campo geomagnetico. Questa naturale protezione riesce a deviare la maggior parte delle radiazioni dannose provenienti dal Sole impedendo a queste di raggiungere la superficie.

Solo per maggiore informazione e per completezza, vi riporto anche il link della pagina che Wind ha pubblicato per spiegare il motivo del guasto e, soprattutto, per scusarsi con i propri clienti:

Wind guasto 13 Giugno

Premesso dunque il discorso sull’assurdità del solo operatore telefonico, credo sia interessante capire meglio, approfittando della bufala, come funziona la rete mobile che ci consente di telefonare, inviare messaggi e collegarci alla rete con i nostri dispositivi senza fili.

Oggi come oggi, siamo talmente abituati alla possibilità di collegamento che abbiamo a disposizione che molti di noi ignorano completamente come funzioni questa tipologia di comunicazione. Quando effettuiamo una chiamata, il nostro cellulare emette onde radio con una frequenza specifica. Ad oggi, la maggior parte dei telefonini che abbiamo hanno la possibilità di emettere onde in tre bande, di cui la terza utilizzata solo in alcuni paesi come, ad esempio, gli Stati Uniti.

Bene, le onde radio prodotte dal nostro cellulare, contengono le informazioni relative alla chiamata che stiamo facendo. Detto in parole povere, la nostra voce captata dal microfono del cellulare mette in vibrazione una membrana che genera un segnale successivamente digitalizzato e trasmesso attraverso onde radio. Queste onde vengono poi captate da quella che viene chiamata “stazione base”. Questa altro non è che una struttura munita di antenne riceventi che captano le onde radio e le trasmettono attraverso una rete cablata. Come potete capire, il vantaggio della rete mobile è rappresentato dalla possibilità di poter comunicare senza fili. Le onde radio che si propagano in aria rappresentano il filo invisibile che connette il nostro dispositivo mobile con la stazione base.

Le stazioni base possono essere di diverse dimensioni e potenze. Esistono anche stazioni “camuffate” per potersi integrare al meglio con l’ambiente circostante (finti alberi, integrate in strutture preesistenti o, anche, installate su carrelli mobili che possono essere spostati da un punto all’altro). La stazione base con cui il nostro telefono è connesso rappresenta quella che viene definita “cella”. Il numero di stazioni base presenti nel territorio è determinato ovviamente dalla copertura che il sistema utilizzato riesce ad offrire e alla potenza massima installabile in base alla zona specifica. Per spiegarmi meglio, la copertura offerta da una singola stazione non è calcolabile a priori ma dipende anche dalla morfologia del territorio in questione e alla presenza di case, edifici o altre strutture in grado di limitare la copertura a causa della riflessione e dispersione dei segnali radio inviati dai cellulari.

Oltre alla comunicazione voce e messaggistica, a partire dalla seconda generazione di comunicazione (2G), i nostri cellulari sono in grado di inviare e ricevere anche pacchetti di dati che sono quelli che ci consentono di collegarci ad internet senza un cablaggio fisico.

Capite dunque come è possibile chiamare dai nostri cellulari? La connessione tra le stazioni base avviene invece via normali cavi coassiali o, sempre più spesso, attraverso fibre ottiche. In particolare, l’utilizzo delle fibre ha consentito di migliorare la trasmissione dei segnali con minori perdite nel percorso e di aumentare il numero di collegamenti gestibili a parità di sezione del filo.

E se non sono presenti stazioni base nelle vicinanze? Semplice, questo è il caso di un cellulare che, come si dice, “non ha campo”. In regioni isolate del pianeta si ricorre ad una tecnologia diversa che è invece quella dei telefoni satellitari. In questo caso, i dispositivi si connettono direttamente con satelliti in orbita geostazionaria che hanno il compito di ritrasmettere i segnali digitali a Terra e di consentire in questo modo la comunicazione da qualsiasi parte del pianeta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.