Tag Archives: ricerca

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Automobili stampate in 3D!

2 Ott

Solo qualche tempo fa, avevamo parlato in dettaglio delle stampanti 3D:

Due parole sulla stampa in 3D

Come visto, questi strumenti, che possono esssere considerati ancora in fase prototipale, offrono delle soluzioni uniche con margini di applicazione possibili nei settori più disparati. Dal mio punto di vista, considero questi oggetti ancora in fase di prototipo non per le applicazioni già in corso ma perchè, molto spesso, la loro esistenza è poco conosciuta e perchè ancora non abbiamo sfruttato al massimo le loro potenzialità.

Proprio per questo motivo, oggi vorrei commentare con voi un articolo davvero molto interessante. Solo qualche giorno fa, i giornali hanno riportato qualcosa di impensabile fino ad ora, un’applicazione davvero entusiasmente della stampa 3D con cui è stato realizzato un prototipo di automobile che tra poco, con buona probabilità, verrà messo in commercio.

Attenzione però, al solito, alcune testate hanno riportato la notizia in modo errato definendo questa applicazione come la “prima” automobile stampata in 3D. Per comprendere meglio, diamo qualche dettaglio aggiuntivo.

Già nel 2010, negli Stati Uniti era stata realizzata quella che possiamo definire la prima automobile dotata di carrozzeria stampata in 3D. Il prototipo in questione, perché di questo si tratta, si chiamava Urbee. A riprova, vi riporto un articolo del Sole 24 ore del 3 Novembre 2010:

Sole 24 ore, Urbee

Questa è la foto della Urbee:

Urbee, la prima vettura in assoluto stampata in 3D

Urbee, la prima vettura in assoluto stampata in 3D

Bene, perchè allora a distanza di 4 anni la stessa applicazione fa ancora notizia? Il primo motivo è nazionalista. La notizia di questi giorni è, ripeto, di un’automobile stampata in 3D e presentata a Chicago su progetto di un designer italiano che si chiama Michele Anoè. Senza indugio, vi mostro subito le foto di questa automobile che si chiama invece STRATI:

La Strati

La Strati

Detto questo, capite subito perché, giustamente in parte, i giornali italiani hanno dato molto risalto alla notizia. C’è anche da dire che il progetto ha partecipato ad una selezione a livelo mondiale in cui il nostro designer è arrivato primo tra oltre 200 contendenti e per questo motivo la Strati è stata realizzata e presentanta. Ma, oltre a questo, esistono anche delle particolarità tecnico-commerciali che rendono la notizia importante. Al contrario della Urbee, la carrozzeria della Strati è stata stampata tutta in un volta. Il risultato ottenuto è simile a quello dei modellini che si acquistano nei negozi di giocattoli in cui i singoli pezzi sono uniti da piccole giunzioni di plastica. Ecco una foto della lavorazione della Strati:

Lavorazione della Strati

Lavorazione della Strati

Dopo il processo di stampa, i pezzi vengono fresati per rimuovere le parti di supporto necessarie durante la stampa e il tutto può essere assemblato molto rapidamente. Ecco l’ulteriore deffirenza tra le due automobili, per realizzare una Strati occorrono solo 44 ore di lavorazione. Un tempo record per ottenere un oggetto pronto e realmente funzionante.

Oltre a questo, come anticipato, la Strati verrà ora prodotta e, lentamente, realizzata in serie dalla Local Motor. Inutile dire che questa utomobile è dotata di un motore elettrico tra l’altro assolutamnete commerciale. Il propulsore utilizzato è infatti lo stesso della Renault Twizy. I consumi dichiarati per questo primo prototipo sono assolutamente degni di nota, 65 Km/h come velocità di picco con un’autonomia di 200 Km a ricarica.

Il prezzo?

Considerando che parliamo sempre di una macchina elettrica, il prezzo è più o meno in linea con le altre auto del settore, tra i 18000 e i 34000 dollari. Certo, considerando che tutto il processo di lavorazione delle parti esterne avviene mediante una stampante 3D in 44 ore, permettemi di dire che il costo, forse, è un po’ eccessivo. Molto probabilmente però, ci saranno margini di manovra dal punto di vista commerciale. Parliamo di un reale prototipo su cui non è ancora partita la produzione in serie e sul quale sono montati pezzi provenienti da diversi fornitori.

Concludendo, la Strati, oltre ad essere disegnata da un italiano, rappresenta un notevole salto avanti per la stampa 3D che lascia il mondo dei prototipi con grandi dimensioni per approdare, forse, a livello commerciale. Ripeto quello che ho scritto anche nel precedente articolo, la stampa 3D ci riserverà ancora molte sorprese per il futuro e, grazie ad un incremento dell’utilizzo e della ricerca, potrà realizzare oggetti a basso costo e larga diffusione.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

52Hz: la balena più sola al mondo

15 Set

Oggi voglio raccontarvi una storia molto interessante e che, personalmente, mi ha molto colpito.

Nel 1989, un gruppo di ricercatori del Woods Hole Oceanographic Institute americano intercetta un segnale dall’oceano molto interessante. Si tratta di un segnale molto chiaro ad una frequenza molto prossima ai 52 Hz. La tipologia di segnale e, soprattutto, i movimenti nell’acqua della sorgente di questo suono sono assolutamente compatibili con quelli di una balena. Cosa aveva allora di speciale questo segnale? Semplice, sia la balenottera azzurra che quella comune, entrambe ben conosciute e presenti nei nostro oceani, “parlano” emettendo suoni con frequenze al massimo fino a 20 Hz.

La scoperta di questa sorgente a 52 Hz è stata possibile utilizzando il sistema SOSUS, un insieme di stazioni di ascolto oceaniche che venivano utilizzate dagli Stati Uniti per tenere sotto controllo i sommergibili russi durante la guerra fredda. Vista la situazione mondiale assolutamente delicata e il primario compito del sistema di ascolto, le registrazioni, comprese quelle della balena 52 Hz, rimasero classificate fino alla fine della guerra fredda.

Nei primi anni ’90, parte delle registrazioni vennero rese pubbliche e la comunità scientifica venne a conoscenza di questa apparente balena diversa dalle altre.

52 Hz venne così ascoltata per diverso tempo e regolarmente di anno in anno. Come potete facilmente capire, si tratta di un segnale unico nella sua specie. Normalmente, quando si intercetta una balena nell’oceano, è possibile seguire il suo segnale al massimo per qualche ora, dopo di che il segnale scompare perchè disturbato da altre fonti, tra cui, ovviamente, quelle delle altre balene.

52 Hz rappresenta una specificità dal punto di vista scientifico. fino ad oggi, è stato possibile seguire di anno in anno i suoi spostamenti per l’oceano analizzando i percorsi migratori, le distanze percorse, le abitudini, ecc. Tutto grazie a questa speciale balena.

Perchè, oltre che dal punto di vista scientifico, questa storia ha colpito tante persone nel mondo? Semplice, per tutti questi anni, la balena 52 Hz è sempre stata osservata da sola, senza nessun’altra balena al suo fianco. Perchè questo? Prima di tutto, molti ricercatori pensano che emettendo un segnale a frequenza così alta rispetto alle altre balene, il segnale di 52 Hz non possa essere ascoltato dagli altri animali.

Proprio per questo motivo, 52 Hz è anche nota come “la balena più sola al mondo”.

Perchè questo animale dovrebbe emettere un segnale diverso dalle altre? Qui le ipotesi sono molte anche perchè, ad oggi, nessuno è mai riuscito a vedere o intercettare 52 Hz. Di lei si conosce solo la sua particolare “voce”. Secondo alcuni, questa balena sarebbe l’ultima sopravvissuta di una specie ormai in via di estinzione. Ipotesi questa non accettata dalla comunità scientifica proprio perchè non ci sono stati, nel tempo, altri segnali simili.

L’ipotesi più plausibile, ed oggi più accettata, è che 52 Hz sia una balena malformata oppure un ibrido tra una balena azzurra e una balenottera comune. In questi casi, il particolare suono sarebbe dovuto appunto alla malformazione che però la renderebbe muta agli altri animali della stessa specie. Proprio per questo suo handicap, 52 Hz nuoterebbe da sola perchè allontanata dalle altre o perchè la sua voce non potrebbe essere ascoltata.

La cosa certa è che, malformazione o meno, niente ha impedito alla balena di crescere e maturare negli anni. Cosa confermata dalla lunga osservazione e dal cambio di timbro vocale osservato qualche anno fa, sinonimo di maturazione sessuale dell’animale.

Come anticipato prima, la storia di 52 Hz ha molto colpito l’opinione pubblica e, nel corso degli anni, molte persone hanno scritto agli esperti che seguono la balena per esprimere la loro solidarietà a questo animale solitario o anche per dire quanto si immedesimassero in 52 Hz.

Nei prossimi mesi, dovrebbe partire una spedizione nell’oceano per cercare di intercettare 52 Hz e cercare di filmare l’animale. Lo scopo della missione è soprattutto quello di realizzare un documentario su questo animale che tanto ha colpito l’immaginario collettivo ma questo, dal punto di vista scientifico, potrebbe finalmente togliere l’alone di mistero sull’animale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Hawking e la fine del mondo

11 Set

Visto che me lo state chiedendo in tantissimi, vorrei aprire una parentesi sulle affermazioni fatte dal celebre astrofisico Stephen Hawking riguardanti il bosone di Higgs. Per chi non lo avesse seguito, abbiamo già discusso di questo tema nella apposita sezione:

Hai domande o dubbi?

Dove un nostro caro lettore, già qualche giorno fa, ci aveva chiesto lumi a riguardo.

Di cosa stiamo parlando?

Come tutti avrete letto, nell’introduzione del suo ultimo libro “Starmus, 50 years of man in space” il celebre astrofisico avrebbe scritto che il bosone di Higgs avrebbe le potenzialità per poter distruggere l’intero universo. In pratica, ad energie elevate, così si legge, la particella potrebbe divenire improvvisamente instabile e provocare il collasso dello stato di vuoto, con conseguente distruzione dell’universo.

Cosa? Collaso del vuoto? Distruzione dell’universo?

Ci risiamo, qualcuno ha ripreso qualche spezzone in giro per la rete e ne ha fatto un caso mondiale semplicemente mescolando le carte in tavola. In realtà, a differenza anche di quanto io stesso ho affermato nella discussione linkata, la cosa è leggermente più sottile.

E’ possibile che il bosone di Higgs diventi instabile e bla bla bla?

No! Il bosone di Higgs non diviene instabile ad alte energie o perchè ne ha voglia. Stiamo entrando in un settore della fisica molto particolare e su cui la ricerca è ancora in corso.

Facciamo un piccolo excursus. Del bosone di Higgs ne abbiamo parlato in questo articolo:

Bosone di Higgs … ma che sarebbe?

dove abbiamo cercato di spiegare il ruolo chiave di questa particelle nella fisica e, soprattutto, la sua scoperta.

Inoltre, in questo articolo:

L’universo è stabile, instabile o metastabile?

Abbiamo visto come la misura della massa di questa particella abbia implicazioni profonde che esulano dalla mera fisica delle particelle. In particolare, la massa di questa particella, combinata con quella del quark top, determinerebbe la condizione di stabilità del nostro universo.

Bene, come visto nell’ultimo articolo citato, i valori attuali dei parametri che conosciamo, ci pongono nella strettissima zona di metastabilità del nostro universo. Detto in parole semplici, non siamo completamente stabili e, ad un certo punto, il sistema potrebbe collassare in un valore stabile modificando le proprietà del vuoto quantomeccanico.

Riprendiamo il ragionamento fatto nell’articolo. Siamo in pericolo? Assolutamente no. Se anche fossimo in una condizione di metastabilità, il sistema non collasserebbe da un momento all’altro e, per dirla tutta, capire cosa significhi in realtà metastabilità del vuoto quantomeccanico non è assolutamente certo. Premesso questo, come già discusso, i valori delle masse delle due particelle in questione, vista la ristretta zona in esame, non sono sufficienti a determinare la reale zona in cui siamo. Cosa significa? Come detto, ogni misura in fisica viene sempre accompagnata da incertezze, cioè un valore non è univoco ma è contenuto in un intervallo. Più è stretto questo intervallo, minore è l’incertezza, meglio conosciamo il valore in esame. Ad oggi, ripeto, vista la stretta banda mostrata nel grafico, le nostre incertezze sono compatibili sia con la metastabilità che con l’instabilità.

Dunque, pericolo scampato. Resta però da capire il perchè delle affermazioni di Hawking.

Su questo, vi dirò la mia senza fronzoli. Hawking conosce benissimo l’attuale livello di cui abbiamo discusso. Molto probabilmente, non avendolo letto non ne posso essere sicuro, nel libro ne parla in modo dettagliato spiegando tutto per filo e per segno. Nell’introduzione invece, appunto in quanto tale, si lascia andare ad affermazioni quantomeno naive.

Perchè fa questo? Le ipotesi sono due e sono molto semplici. La prima è che è in buona fede e la colpa è solo dei giornali che hanno ripreso questa “introduzione al discorso” proprio per creare il caso mediatico sfruttando il nome dell’astrofisico. La seconda, più cattiva, è che d’accordo con l’editore, si sia deciso di creare questo caso appunto per dare una spinta notevole alle vendite del libro.

Personalmente, una o l’altra non conta, l’importante è capire che non c’è nessun collasso dell’universo alle porte.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il prestigioso Wyoming Institute of Technology

16 Lug

Leggendo i tanti siti complottisti che ci sono in rete, e credetemi spuntano come funghi, c’è sempre qualcosa di nuovo e interessante da imparare. Stamattina ne apro un paio in particolare e trovo una notizia, ovviamente copia incolla da siti americani con eccellente traduzione fatta con Google Translator, che riguarda gli RFiD. Se state pensando: che bello una notizia di tecnologia, di integrazione di dispositivi con funzioni particolari, miniaturizzazione dell’elettronica, ecc., siete completamente fuori strada.

Quando su questi siti si parla di chip in che contesto vengono inseriti? Ovviamente, controllo della popolazione, Nuovo Ordine Mondiale che vuole rendere tutti schiavi o, peggio ancora, ucciderci tutti, database della popolazione, selezione umana conto terzi e tante altre cose più o meno truci a cui ormai siamo abituati.

Per chi lo avesse perso, in passato abbiamo già parlato di queste tematiche con un articolo specifico:

23 marzo: microchip obbligatorio negli USA

Ora, perché torniamo su questo argomento? Stando a quanto riportato dai soliti siti, in questi giorni sarebbero stati pubblicati i risultati di una ricerca condotta negli Stati Uniti e che, senza esagerare, avrebbero finalmente aperto il vaso di Pandora. La ricerca in questione è stata condotta da un gruppo di ricercatori del Wyoming Institute of Technology, WIT, che avrebbero scansionato 3 gruppi di volontari provenienti da 3 diverse aree degli Stati Uniti: centro, costa orientale e costa occidentale. La scansione è stata fatta per evidenziare o meno la presenza di chip sottocutanei nelle persone.

Cosa hanno mostrato questi dati?

Partendo da un campione statisticamente significativo di circa 3000 persone, i ricercatori del WIT hanno trovato RFiD in circa 1/3 dei volontari che si sono sottoposto allo scan. La cosa più “preoccupante” è che quasi la totalità delle persone ignorava di avere un chip impiantato nel proprio corpo.

Cosa significa questo?

La ricerca non si è limitata a rivelare la presenza di circuiti nel corpo, ma ha studiato anche la zona in cui tali chip sono impiantati. Anche se molti pensano a questi dispositivi come sistemi impiantati sotto la cute, i ricercatori del WIT hanno mostrato come nel 90% dei casi i chip fossero presenti, ripeto ad insaputa delle persone, all’interno dei denti.

Come può un chip finire nei denti all’insaputa della persona?

Sempre nell’articolo si parla di “lavori odontoiatrici” tramite i quali i chip sarebbero stati amalgamati con le resine utilizzate. Ecco aperto il vaso di Pandora. Avete capito cosa fanno questi birbanti? Voi andate dal dentista, lui vi mette una capsula ma all’interno c’è la sorpresa: un bel chip RFiD che comunica, non si sa quali dati, con qualcuno che non si sa chi è.

Accidenti che coraggioso gruppo di ricercatori! Con questa ricerca si sono messi contro i più perfidi gruppi di potere del mondo solo per farci sapere la verità. Che eroi!

Aspettate un attimo però, non che io sia un guru, ma lavorando nella ricerca mi sembra strano che non abbia mai sentito parlare di questo Wyoming Institute of Technology. Proviamo a colmare questa nostra ignoranza cercando su internet le pagine di questo laboratorio di ricerca.

Tramite quella complessa operazione che i nostri amici complottisti non riescono mai a fare, cioè una ricerca su Google, si arriva al sito web del laboratorio:

WIT website

Qui trovate anche la versione originale dell’articolo tradotto malissimo da cui siamo partiti:

Articolo WIT RFID

A parte questo, chiunque, leggendo queste pagine, avrebbe capito che si tratta di un sito umoristico. Perché? Leggiamo la storia del laboratorio: fondato nel 1943 per studi sulle bombe atomiche, qui venne creato il primo virus per computer e la tradizione continua ancora oggi visto che i ricercatori del WIT programmano la maggior parte dei virus informatici che circolano su internet. Nel corso della sua storia, il laboratorio ha collaborato con case farmaceutiche e con la Monsanto per la realizzazione di vegetali OGM in grado di avvelenare la popolazione mondiale. Dimenticavo, nel Dicembre del 1999 il WIT ha salvato il mondo perché è riuscito a risolvere il problema del Millenium bug che altrimenti, sempre leggendo dal sito, avrebbe fatto cadere gli aerei in volo, fermare le auto per le strade, crollare la borsa e fatto chiamare numeri esteri ai cellulari. Per queste scoperte “diversi” ricercatori del WIT sono stati insigniti del premio Nobel.

Vi siete convinti della finalità di queste pagine? Non ancora?

Leggiamo le offerte di lavoro, magari posso rivendermi in questo settore ed emigrare negli USA. Tra quelle presenti ne trovate una molto interessante: la cavia umana per una “eccitante” nuova droga che salverebbe vite umane eliminando gli effetti collaterali dei cibi OGM. Un lavoretto semplice, dovete solo assumere 9 pillole al giorno per un mese facendovi visitare una volta a settimana in uno dei centri dislocati in tutti gli Stati Uniti. Salario: 50 dollari a visita e 100 dollari alla fine della sperimentazione. Come secondo lavoro si può anche fare. Se invece volete un lavoro a tempo pieno, ci sono posizioni aperte come guardiano. Tra le mansioni: fare la guardia (ovviamente), pulire i bagni e, ogni tanto, trasportare valigie lunghe fino a 2 metri pesanti 180 Kg. Dimenticavo, queste valigie potrebbero trovarsi al centro di qualche fiume perché utilizzate per ricerche su ecosistemi marini.

A questo punto, credo che il quadro sia chiaro. Prima di chiudere però vorrei mostrarvi, se proprio ancora non siete convinti, un’ultima chicca del WIT, il fiore all’occhiello delle ricerche attualmente in corso: l’E-Condom, cioè il “preservativo elettronico”. Si tratta di un dispositivo da impiantare dove potete immaginare ed in grado, attraverso un sistema di impulsi elettrici, di rallentare la mobilità degli spermatozoi. Trovate il filone di ricerca in questa pagina:

WIT, ricerche in corso

La cosa più bella, a parte le motivazioni che hanno spinto i ricercatori a spingersi in questo campo, sono i possibili effetti collaterali, “minimi”, che il dispositivo potrebbe portare: nausea, vomito, diarrea, perdita di memoria, violente erezioni, aerofagia, follia omicida, morte e tanti altri ancora.

Detto questo, solo i siti complottisti potevano credere a questa notizia burla proveniente dagli Stati Uniti e far passare questa ricerca come la verità svelata. Signori, non fate copia/incolla senza ragionare. La vostra credibilità è ai minimi storici dunque, prima di scrivere, pensate almeno a qualcosa che possa essere creduto o che, almeno, richieda più di 2 minuti per essere smontato.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Farmaci branded o equivalenti?

12 Lug

Stamattina entro in farmacia e mi metto in una delle due file che si erano create al banco. Mentre ero li, ascolto per due volte al stessa domanda rivolta dal farmacista al cliente di turno che aveva chiesto un medicinale: vuole l’originale o il generico? Due domande, due risposte diverse. Una signora ha detto: mi dia il generico tanto è la stessa cosa e costa di meno, mentre l’altra ha risposto: no grazie, mi dia quello originale perché l’altro non funziona.

Sentendo queste due risposte completamente agli antipodi per la stessa domanda, mi è tornata in mente la discussione che diverse volte ho ascoltato, anche da famigliari, sull’efficacia o meno dei farmaci generici. Poiché mi sembra che ci sia ancora tanta confusione a riguardo, credo sia interessante e importante sviscerare con un po’ più di dettaglio questo argomento.

Per prima cosa, il termine “farmaco generico” non è in realtà corretto ma deriva solo da una traduzione letterale del termine inglese “generic drugs”. Per essere precisi, il nome corretto da usare per questa tipologia di farmaci è “equivalenti”.

Bene, cosa sono i farmaci equivalenti?

Per rispondere a questa domanda, dovremmo partire dall’altra sponda del fiume, cioè dai farmaci “originali”, “branded” o come volete chiamarli. Insomma, quelli originali prodotti da qualche casa farmaceutica e che hanno, molto spesso, nomi di fantasia. Ora, come sapete, questi farmaci hanno normalmente un singolo principio attivo che caratterizza il prodotto e la sua efficacia curativa. Per la legge, la formazione del principio attivo è brevettabile per un periodo di 20 anni a partire dall’inizio della sperimentazione sull’uomo. Allo scadere di questo tempo, il principio attivo non è più “sotto licenza” e, come stabilito per legge, può essere prodotto da qualunque casa farmaceutica senza violare nessun diritto d’autore.

Capito come nascono i medicinali equivalenti? Una casa farmaceutica studia un nuovo principio attivo e inizia la lunga fase della sperimentazione. Come sappiamo bene, prima ancora di poter provare il medicinale su un campione umano di controllo sono necessari diversi stadi di sperimentazione in cui il farmaco può essere scartato per problematiche varie legate al suo utilizzo. Testata, in buona parte, la non pericolosità del farmaco e il suo potere curativo, inizia la sperimentazione sull’uomo, sempre sotto stretto controllo. Da qui inizia anche il periodo di brevetto, cioè i 20 anni di cui parlavamo prima. Se la fase di sperimentazione sull’uomo va a buon fine, il farmaco arriva, prodotto dalla casa farmaceutica, al banco della farmacia. Tenendo conto che la fase di sperimentazione sull’uomo normalmente dura dai 5 ai 10 anni, il reale periodo di vendita del medicinale sotto brevetto va dai 10 ai 15 anni.

Cosa succede quando il brevetto arriva a scadenza? Come anticipato, da questo momento in poi chiunque può produrre e commercializzare il principio attivo come base di farmaci diversi non “brandizzati”, appunto gli equivalenti.

Come vengono fatti questi farmaci? Ovviamente partendo dal principio attivo del farmaco di marca. Per fare un esempio concreto, proviamo a prendere un medicinale noto a tutti, l’Aulin, prima prodotto dalla Roche e poi dalla Angelini. Aulin è ovviamente il nome commerciale di fantasia del farmaco. In questa sede, non voglio discutere di funziona, non funziona, fa male allo stomaco, non fa male, le case farmaceutiche sono così, no sono così, ecc.. Ho preso un esempio pratico per parlare con nomi che sono noti a tutti.

Dunque, il principio attivo dell’Aulin è il Nimesulide, utile per tantissimi dolori come noto a chi ha assunto l’Aulin. Bene, il brevetto dell’Aulin è scaduto dunque, così come avviene, è possibile produrre un medicinale equivalente che non avrà un nome commerciale bensì il cui nome sarà solo il principio attivo, quindi Nimesulide.

Perché si dovrebbe comprare un generico piuttosto che un farmaco di marca? Il primo motivo è il prezzo. Per la legge, il generico deve costare almeno il 20% in meno dell’originale. In realtà, come tutti sanno, lo sconto tra il generico e l’equivalente arriva molto tranquillamente anche al 50%. Oltre a questo, ma su questo punto torneremo a breve, i due farmaci hanno esattamente lo stesso principio attivo, con le stesse quantità e con la stessa assunzione.

Prima domanda: perché il generico costa meno di quello di marca? Questa domanda ha portato negli anni molte risposte fantasiose che hanno creato tantissima confusione. Alcuni pensano addirittura che il generico costi meno perché prodotto in scantinati senza controlli, perché non testato secondo tutti i criteri di legge o perché sia prodotto con materie prime di qualità inferiore. Signori, sono medicinali, non scarpe da ginnastica!

Cosa significa? Poiché parliamo di medicinali, tutti i farmaci vengono controllati prima di poter essere immessi sul mercato, così come viene controllata la loro qualità farmaceutica e le condizioni in cui vengono prodotti. Perché allora costano di meno? Come scritto sopra, prima di poter arrivare in farmacia, un farmaco ha una fase di sperimentazione moto lunga, così come la fase precedente di ricerca vera e propria, che ha un costo notevole per le aziende farmaceutiche. Un farmaco generico, poiché contiene appunto lo stesso principio attivo “copiato” da quello di marca, non ha fase di ricerca, non deve essere sperimentato ma deve solo essere valutata la sua “bio-equivalenza”.

Bene, siamo arrivati al punto cardine della discussione, la bio-equivalenza tra i due farmaci, quello di marca e quello equivalente. Per prima cosa, continuando con il nostro esempio, se compro Aulin in granulato, dentro ci sono 100 mg di Nimesulide che vanno sciolti in acqua e bevuti. Bene, se comprate il generico Nimesulide granulato, ci trovate, ripeto per legge, la stessa quantità di principio attivo e da assumere esattamente con le stesse modalità.

Aspettate un attimo, stesso principio attivo, stessa quantità, stessa assunzione, perché si parla di bio-equivalenza? Semplice, per prima cosa, la legge impone la stessa quantità di principio attivo più o meno il 5%. In altre parole, potreste aver un farmaco equivalente con un 5% in più o in meno di principio attivo. Inoltre, la modalità di sintesi e produzione del principio attivo non deve essere identiche e, soprattutto, gli eccipienti dei medicinali possono essere completamente diversi.

Prima di tornare su questi punti, cerchiamo di capire come si determina la bio-equivalenza di due farmaci. Per prima cosa, si deve misurare la bio-disponibilità di un farmaco dopo l’assunzione. Esempio, prendo una bustina di Aulin, misuro la concentrazione nell’organismo del principio attivo e da queste misure determino il tempo necessario al farmaco per agire, cioè per arrivare la bersaglio, e il tempo in cui il principio attivo resta in circolo, cioè quanto tempo “dura l’effetto”. Bene, affinché due farmaci siano equivalenti, la legge impone che la loro bio-equivalenza non sia diversa di più del 20%.

Ecco un altro parametro che potrebbe dunque distinguere un generico dal farmaco di marca. L’equivalente potrebbe dunque contenere una quantità diversa al più di 5% di principio attivo e avere una equivalenza diversa al massimo del 20% da quello originale.

In tutto questo, c’è poi il discorso sugli eccipienti. Utilizziamo sempre il nostro esempio pratico per capire meglio la differenza di composizione tra due farmaci. Se leggete la composizione di un qualsiasi medicinale, oltre al principio attivo trovate altre sostanze, i cosiddetti eccipienti, che servono per rendere maggiormente assimilabile il principio attivo, dare un sapore al medicinale o anche solo agglomerare meglio il farmaco stesso. Guardando ad esempio alla composizione dell’Aulin:

Aulin composizione

trovate che una compressa contiene: Docusato sodico, idrossipropilcellulosa, lattosio monoidrato, carbossimetilamido sodico A, cellulosa microcristallina, olio vegetale idrogenato, magnesio sterrato. Se invece prendiamo un medicinale Nimesulide equivalente:

Nimesulide Equivalente

Troviamo come eccipienti: Dioctil  sodio  solfosuccinato, idrossipropilcellulosa,  lattosio,  sodio  amido  glicolato,  cellulosa  microcristallina,  olio  di  ricino  idrogenato, magnesio stearato. Dunque, eccipienti simili ma non esattamente gli stessi.

Ora, sulla carta, gli eccipienti sono sostanze inerti che non non incidono sull’azione del principio attivo e per questo la legge impone solo il controllo sulla molecola attiva. In realtà, gli eccipienti possono avere effetti minori che però sono completamente soggettivi. In alcuni casi, eccipienti diversi possono determinare: differenza di disponibilità nell’organismo, aver effetti soggettivi più o meno sinergici con il principio attivo e, soprattutto, possono causare disturbi a chi assume il farmaco. Perché questo? Semplice, come sappiamo prima di assumere un qualsiasi farmaco è buona norma leggere il bugiardino. Per un paziente diabetico, ad esempio, è importante verificare che nel medicinale non sia presente il saccarosio come eccipiente. Allo stesso modo, un soggetto intollerante al lattosio non può assumere farmaci contenenti questo eccipiente. In altre parole, è possibile che un soggetto non possa assumere un farmaco di marca ma possa invece assumere il generico o viceversa.

A questo punto, dal punto di vista chimico abbiamo capito che i farmaci di marca e gli equivalenti contengono lo stesso principio attivo in quantità al massimo diverse del 5%, la bio-equivalenza dei due farmaci viene verificata entro un 20% per legge e gli eccipienti contenuti nei farmaci possono invece essere diversi. Detto questo, normalmente i farmaci equivalenti sono del tutto identici a quelli di marca, in altri casi possono risultare meno efficaci ma ci sono anche casi in cui i consumatori preferiscono un equivalente all’originale (ripensate al discorso delle intolleranze e degli eccipienti). Detto questo, occorre di volta in volta provare i due farmaci senza volersi incaponire sull’originale o sul generico a tutti i costi. Ricordatevi però che per legge il farmacista dovrebbe sempre chiedervi se volete il farmaco equivalente.

Solo per concludere, il risparmio portato alle casse dello stato utilizzando gli equivalenti è assolutamente notevole (parliamo di centinaia di milioni di euro all’anno risparmiati) e questo gettito extra può essere utilizzato (almeno dovrebbe) per migliorare il servizio sanitario e le strutture ospedaliere. In Italia, purtroppo, solo il 15% del mercato dei farmaci è occupato dai generici, indice del fatto che gli italiani si fidano ancora poco di questi medicinali. Solo per darvi un’idea, negli Stati Uniti i generici rappresentano il 75% del mercato mentre in Gran Bretagna, primato assoluto, arriviamo addirittura all’85% del totale dei farmaci venduti rappresentati da medicinali equivalenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Arrivata la spiegazione per il geyser di Fiumicino

23 Giu

Qualche tempo fa ci siamo occupati di uno strano fenomeno apparso a Fiumicino:

– Geyser di 5 metri a Fiumicino

Nuovo geyser a Fiumicino

Come ricorderete, dapprima in una strada confinante con l’aeroporto e poi in mare, erano apparsi due geyser che per diverso tempo hanno fatto fuoriuscire tonnellate di gas, principalmente anidride carbonica.

Come al solito, e come già detto, anche su questo fenomeno non erano mancate sviolinate catastrofiche legate all’inquinamento della zona o, peggio ancora, a particolari fenomeni improvvisi legati a malesseri del nostro pianeta e della zona in particolare.

Solo pochi giorni fa, un gruppo di ricercatori italiani del CNR, dell’università Roma Tre e dell’INGV sono riusciti a vederci chiaro e ad identificare l’origine di questi gas. In un articolo pubblicato sulla rivista “Journal of Volcanology and Geothermal Research”, il gruppo di ricerca ha pubblicato i suoi risultati basati su mesi di studi intensivi e analisi del terreno fino ad elevate profondità.

Per chi volesse, l’abstract dell’articolo in questione è disponibile sul sito stesso della rivista:

Abstract articolo spiegazione geyser Fiumicino

Come potete leggere, la spiegazione del fenomeno, per quanto possa apparire “strana” agli occhi dei non esperti, è del tutto naturale. Per prima cosa, studiando gli archivi storici, come accennato anche negli articoli precedenti, è emerso come fenomeni di questo tipo non sono affatto nuovi nella zona di Fiumicino e nei terreni limitrofi. Diverse volte infatti, sempre in occasione di operazioni di scavo per costruzioni edili o marine, in prossimità dei lavori erano emersi geyser e vulcanetti con fuoriuscita di gas e fango dal sottosuolo.

Come è ovvio pensare, la spiegazione del fenomeno è da ricercare nei depositi di gas contenuti ad alta pressione nel terreno. A seguito di analisi specifiche e tomografie del terreno, gli studi hanno evidenziato, nel caso del primo fenomeno osservato, che depositi di anidride carbonica sono presenti a circa 40-50 metri di profondità all’interno di uno strato di ghiaia spesso tra 5 e 10 m. La ghiaia comprende una falda acquifera compresa tra due strati di argilla, uno superiore ed uno inferiore, geologicamente molto diversi tra loro. Lo strato inferiore è molto permeabile e lascia filtrare i gas provenienti da profondità maggiori e generati dall’attività vulcanica propria dei Castelli Romani, e ancora oggi attiva. Lo strato superiore invece appare molto meno permeabile e funge da tappo per intrappolare i gas impedendo così la loro risalita in superficie.

A questo punto cosa succede?

Semplice, il gas è intrappolato dallo strato superiore fino a che una perturbazione esterna, come una trivella o uno scavo per costruzioni edili, non “smuove” il terreno e libera il gas. L’anidride carbonica in pressione a questo punto è libera di salite in superficie portando con se anche il fango che incontra durante il suo percorso. Ecco spiegato il meccanismo di formazione dei geyser della zona.

Cosa c’è di anomalo in tutto questo? Assolutamente nulla. Questa spiegazione, supportata da dati e analisi scientifiche, mostra anche il perché di eventi simili in passato e non esclude ovviamente nuovi fenomeni per il futuro. Ovviamente, vista la quantità di gas contenuto nel sottosuolo sarà sempre necessario valutare a priori lo scavo da realizzare e porre rimedio qualora si liberassero grossi volumi in superficie. Pericolo ovviamente amplificato qualora le emissioni avvenissero in prossimità della zona abitata, vista anche la tossicità dei gas in questione.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.