Tag Archives: sviluppo

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il prestigioso Wyoming Institute of Technology

16 Lug

Leggendo i tanti siti complottisti che ci sono in rete, e credetemi spuntano come funghi, c’è sempre qualcosa di nuovo e interessante da imparare. Stamattina ne apro un paio in particolare e trovo una notizia, ovviamente copia incolla da siti americani con eccellente traduzione fatta con Google Translator, che riguarda gli RFiD. Se state pensando: che bello una notizia di tecnologia, di integrazione di dispositivi con funzioni particolari, miniaturizzazione dell’elettronica, ecc., siete completamente fuori strada.

Quando su questi siti si parla di chip in che contesto vengono inseriti? Ovviamente, controllo della popolazione, Nuovo Ordine Mondiale che vuole rendere tutti schiavi o, peggio ancora, ucciderci tutti, database della popolazione, selezione umana conto terzi e tante altre cose più o meno truci a cui ormai siamo abituati.

Per chi lo avesse perso, in passato abbiamo già parlato di queste tematiche con un articolo specifico:

23 marzo: microchip obbligatorio negli USA

Ora, perché torniamo su questo argomento? Stando a quanto riportato dai soliti siti, in questi giorni sarebbero stati pubblicati i risultati di una ricerca condotta negli Stati Uniti e che, senza esagerare, avrebbero finalmente aperto il vaso di Pandora. La ricerca in questione è stata condotta da un gruppo di ricercatori del Wyoming Institute of Technology, WIT, che avrebbero scansionato 3 gruppi di volontari provenienti da 3 diverse aree degli Stati Uniti: centro, costa orientale e costa occidentale. La scansione è stata fatta per evidenziare o meno la presenza di chip sottocutanei nelle persone.

Cosa hanno mostrato questi dati?

Partendo da un campione statisticamente significativo di circa 3000 persone, i ricercatori del WIT hanno trovato RFiD in circa 1/3 dei volontari che si sono sottoposto allo scan. La cosa più “preoccupante” è che quasi la totalità delle persone ignorava di avere un chip impiantato nel proprio corpo.

Cosa significa questo?

La ricerca non si è limitata a rivelare la presenza di circuiti nel corpo, ma ha studiato anche la zona in cui tali chip sono impiantati. Anche se molti pensano a questi dispositivi come sistemi impiantati sotto la cute, i ricercatori del WIT hanno mostrato come nel 90% dei casi i chip fossero presenti, ripeto ad insaputa delle persone, all’interno dei denti.

Come può un chip finire nei denti all’insaputa della persona?

Sempre nell’articolo si parla di “lavori odontoiatrici” tramite i quali i chip sarebbero stati amalgamati con le resine utilizzate. Ecco aperto il vaso di Pandora. Avete capito cosa fanno questi birbanti? Voi andate dal dentista, lui vi mette una capsula ma all’interno c’è la sorpresa: un bel chip RFiD che comunica, non si sa quali dati, con qualcuno che non si sa chi è.

Accidenti che coraggioso gruppo di ricercatori! Con questa ricerca si sono messi contro i più perfidi gruppi di potere del mondo solo per farci sapere la verità. Che eroi!

Aspettate un attimo però, non che io sia un guru, ma lavorando nella ricerca mi sembra strano che non abbia mai sentito parlare di questo Wyoming Institute of Technology. Proviamo a colmare questa nostra ignoranza cercando su internet le pagine di questo laboratorio di ricerca.

Tramite quella complessa operazione che i nostri amici complottisti non riescono mai a fare, cioè una ricerca su Google, si arriva al sito web del laboratorio:

WIT website

Qui trovate anche la versione originale dell’articolo tradotto malissimo da cui siamo partiti:

Articolo WIT RFID

A parte questo, chiunque, leggendo queste pagine, avrebbe capito che si tratta di un sito umoristico. Perché? Leggiamo la storia del laboratorio: fondato nel 1943 per studi sulle bombe atomiche, qui venne creato il primo virus per computer e la tradizione continua ancora oggi visto che i ricercatori del WIT programmano la maggior parte dei virus informatici che circolano su internet. Nel corso della sua storia, il laboratorio ha collaborato con case farmaceutiche e con la Monsanto per la realizzazione di vegetali OGM in grado di avvelenare la popolazione mondiale. Dimenticavo, nel Dicembre del 1999 il WIT ha salvato il mondo perché è riuscito a risolvere il problema del Millenium bug che altrimenti, sempre leggendo dal sito, avrebbe fatto cadere gli aerei in volo, fermare le auto per le strade, crollare la borsa e fatto chiamare numeri esteri ai cellulari. Per queste scoperte “diversi” ricercatori del WIT sono stati insigniti del premio Nobel.

Vi siete convinti della finalità di queste pagine? Non ancora?

Leggiamo le offerte di lavoro, magari posso rivendermi in questo settore ed emigrare negli USA. Tra quelle presenti ne trovate una molto interessante: la cavia umana per una “eccitante” nuova droga che salverebbe vite umane eliminando gli effetti collaterali dei cibi OGM. Un lavoretto semplice, dovete solo assumere 9 pillole al giorno per un mese facendovi visitare una volta a settimana in uno dei centri dislocati in tutti gli Stati Uniti. Salario: 50 dollari a visita e 100 dollari alla fine della sperimentazione. Come secondo lavoro si può anche fare. Se invece volete un lavoro a tempo pieno, ci sono posizioni aperte come guardiano. Tra le mansioni: fare la guardia (ovviamente), pulire i bagni e, ogni tanto, trasportare valigie lunghe fino a 2 metri pesanti 180 Kg. Dimenticavo, queste valigie potrebbero trovarsi al centro di qualche fiume perché utilizzate per ricerche su ecosistemi marini.

A questo punto, credo che il quadro sia chiaro. Prima di chiudere però vorrei mostrarvi, se proprio ancora non siete convinti, un’ultima chicca del WIT, il fiore all’occhiello delle ricerche attualmente in corso: l’E-Condom, cioè il “preservativo elettronico”. Si tratta di un dispositivo da impiantare dove potete immaginare ed in grado, attraverso un sistema di impulsi elettrici, di rallentare la mobilità degli spermatozoi. Trovate il filone di ricerca in questa pagina:

WIT, ricerche in corso

La cosa più bella, a parte le motivazioni che hanno spinto i ricercatori a spingersi in questo campo, sono i possibili effetti collaterali, “minimi”, che il dispositivo potrebbe portare: nausea, vomito, diarrea, perdita di memoria, violente erezioni, aerofagia, follia omicida, morte e tanti altri ancora.

Detto questo, solo i siti complottisti potevano credere a questa notizia burla proveniente dagli Stati Uniti e far passare questa ricerca come la verità svelata. Signori, non fate copia/incolla senza ragionare. La vostra credibilità è ai minimi storici dunque, prima di scrivere, pensate almeno a qualcosa che possa essere creduto o che, almeno, richieda più di 2 minuti per essere smontato.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Farmaci branded o equivalenti?

12 Lug

Stamattina entro in farmacia e mi metto in una delle due file che si erano create al banco. Mentre ero li, ascolto per due volte al stessa domanda rivolta dal farmacista al cliente di turno che aveva chiesto un medicinale: vuole l’originale o il generico? Due domande, due risposte diverse. Una signora ha detto: mi dia il generico tanto è la stessa cosa e costa di meno, mentre l’altra ha risposto: no grazie, mi dia quello originale perché l’altro non funziona.

Sentendo queste due risposte completamente agli antipodi per la stessa domanda, mi è tornata in mente la discussione che diverse volte ho ascoltato, anche da famigliari, sull’efficacia o meno dei farmaci generici. Poiché mi sembra che ci sia ancora tanta confusione a riguardo, credo sia interessante e importante sviscerare con un po’ più di dettaglio questo argomento.

Per prima cosa, il termine “farmaco generico” non è in realtà corretto ma deriva solo da una traduzione letterale del termine inglese “generic drugs”. Per essere precisi, il nome corretto da usare per questa tipologia di farmaci è “equivalenti”.

Bene, cosa sono i farmaci equivalenti?

Per rispondere a questa domanda, dovremmo partire dall’altra sponda del fiume, cioè dai farmaci “originali”, “branded” o come volete chiamarli. Insomma, quelli originali prodotti da qualche casa farmaceutica e che hanno, molto spesso, nomi di fantasia. Ora, come sapete, questi farmaci hanno normalmente un singolo principio attivo che caratterizza il prodotto e la sua efficacia curativa. Per la legge, la formazione del principio attivo è brevettabile per un periodo di 20 anni a partire dall’inizio della sperimentazione sull’uomo. Allo scadere di questo tempo, il principio attivo non è più “sotto licenza” e, come stabilito per legge, può essere prodotto da qualunque casa farmaceutica senza violare nessun diritto d’autore.

Capito come nascono i medicinali equivalenti? Una casa farmaceutica studia un nuovo principio attivo e inizia la lunga fase della sperimentazione. Come sappiamo bene, prima ancora di poter provare il medicinale su un campione umano di controllo sono necessari diversi stadi di sperimentazione in cui il farmaco può essere scartato per problematiche varie legate al suo utilizzo. Testata, in buona parte, la non pericolosità del farmaco e il suo potere curativo, inizia la sperimentazione sull’uomo, sempre sotto stretto controllo. Da qui inizia anche il periodo di brevetto, cioè i 20 anni di cui parlavamo prima. Se la fase di sperimentazione sull’uomo va a buon fine, il farmaco arriva, prodotto dalla casa farmaceutica, al banco della farmacia. Tenendo conto che la fase di sperimentazione sull’uomo normalmente dura dai 5 ai 10 anni, il reale periodo di vendita del medicinale sotto brevetto va dai 10 ai 15 anni.

Cosa succede quando il brevetto arriva a scadenza? Come anticipato, da questo momento in poi chiunque può produrre e commercializzare il principio attivo come base di farmaci diversi non “brandizzati”, appunto gli equivalenti.

Come vengono fatti questi farmaci? Ovviamente partendo dal principio attivo del farmaco di marca. Per fare un esempio concreto, proviamo a prendere un medicinale noto a tutti, l’Aulin, prima prodotto dalla Roche e poi dalla Angelini. Aulin è ovviamente il nome commerciale di fantasia del farmaco. In questa sede, non voglio discutere di funziona, non funziona, fa male allo stomaco, non fa male, le case farmaceutiche sono così, no sono così, ecc.. Ho preso un esempio pratico per parlare con nomi che sono noti a tutti.

Dunque, il principio attivo dell’Aulin è il Nimesulide, utile per tantissimi dolori come noto a chi ha assunto l’Aulin. Bene, il brevetto dell’Aulin è scaduto dunque, così come avviene, è possibile produrre un medicinale equivalente che non avrà un nome commerciale bensì il cui nome sarà solo il principio attivo, quindi Nimesulide.

Perché si dovrebbe comprare un generico piuttosto che un farmaco di marca? Il primo motivo è il prezzo. Per la legge, il generico deve costare almeno il 20% in meno dell’originale. In realtà, come tutti sanno, lo sconto tra il generico e l’equivalente arriva molto tranquillamente anche al 50%. Oltre a questo, ma su questo punto torneremo a breve, i due farmaci hanno esattamente lo stesso principio attivo, con le stesse quantità e con la stessa assunzione.

Prima domanda: perché il generico costa meno di quello di marca? Questa domanda ha portato negli anni molte risposte fantasiose che hanno creato tantissima confusione. Alcuni pensano addirittura che il generico costi meno perché prodotto in scantinati senza controlli, perché non testato secondo tutti i criteri di legge o perché sia prodotto con materie prime di qualità inferiore. Signori, sono medicinali, non scarpe da ginnastica!

Cosa significa? Poiché parliamo di medicinali, tutti i farmaci vengono controllati prima di poter essere immessi sul mercato, così come viene controllata la loro qualità farmaceutica e le condizioni in cui vengono prodotti. Perché allora costano di meno? Come scritto sopra, prima di poter arrivare in farmacia, un farmaco ha una fase di sperimentazione moto lunga, così come la fase precedente di ricerca vera e propria, che ha un costo notevole per le aziende farmaceutiche. Un farmaco generico, poiché contiene appunto lo stesso principio attivo “copiato” da quello di marca, non ha fase di ricerca, non deve essere sperimentato ma deve solo essere valutata la sua “bio-equivalenza”.

Bene, siamo arrivati al punto cardine della discussione, la bio-equivalenza tra i due farmaci, quello di marca e quello equivalente. Per prima cosa, continuando con il nostro esempio, se compro Aulin in granulato, dentro ci sono 100 mg di Nimesulide che vanno sciolti in acqua e bevuti. Bene, se comprate il generico Nimesulide granulato, ci trovate, ripeto per legge, la stessa quantità di principio attivo e da assumere esattamente con le stesse modalità.

Aspettate un attimo, stesso principio attivo, stessa quantità, stessa assunzione, perché si parla di bio-equivalenza? Semplice, per prima cosa, la legge impone la stessa quantità di principio attivo più o meno il 5%. In altre parole, potreste aver un farmaco equivalente con un 5% in più o in meno di principio attivo. Inoltre, la modalità di sintesi e produzione del principio attivo non deve essere identiche e, soprattutto, gli eccipienti dei medicinali possono essere completamente diversi.

Prima di tornare su questi punti, cerchiamo di capire come si determina la bio-equivalenza di due farmaci. Per prima cosa, si deve misurare la bio-disponibilità di un farmaco dopo l’assunzione. Esempio, prendo una bustina di Aulin, misuro la concentrazione nell’organismo del principio attivo e da queste misure determino il tempo necessario al farmaco per agire, cioè per arrivare la bersaglio, e il tempo in cui il principio attivo resta in circolo, cioè quanto tempo “dura l’effetto”. Bene, affinché due farmaci siano equivalenti, la legge impone che la loro bio-equivalenza non sia diversa di più del 20%.

Ecco un altro parametro che potrebbe dunque distinguere un generico dal farmaco di marca. L’equivalente potrebbe dunque contenere una quantità diversa al più di 5% di principio attivo e avere una equivalenza diversa al massimo del 20% da quello originale.

In tutto questo, c’è poi il discorso sugli eccipienti. Utilizziamo sempre il nostro esempio pratico per capire meglio la differenza di composizione tra due farmaci. Se leggete la composizione di un qualsiasi medicinale, oltre al principio attivo trovate altre sostanze, i cosiddetti eccipienti, che servono per rendere maggiormente assimilabile il principio attivo, dare un sapore al medicinale o anche solo agglomerare meglio il farmaco stesso. Guardando ad esempio alla composizione dell’Aulin:

Aulin composizione

trovate che una compressa contiene: Docusato sodico, idrossipropilcellulosa, lattosio monoidrato, carbossimetilamido sodico A, cellulosa microcristallina, olio vegetale idrogenato, magnesio sterrato. Se invece prendiamo un medicinale Nimesulide equivalente:

Nimesulide Equivalente

Troviamo come eccipienti: Dioctil  sodio  solfosuccinato, idrossipropilcellulosa,  lattosio,  sodio  amido  glicolato,  cellulosa  microcristallina,  olio  di  ricino  idrogenato, magnesio stearato. Dunque, eccipienti simili ma non esattamente gli stessi.

Ora, sulla carta, gli eccipienti sono sostanze inerti che non non incidono sull’azione del principio attivo e per questo la legge impone solo il controllo sulla molecola attiva. In realtà, gli eccipienti possono avere effetti minori che però sono completamente soggettivi. In alcuni casi, eccipienti diversi possono determinare: differenza di disponibilità nell’organismo, aver effetti soggettivi più o meno sinergici con il principio attivo e, soprattutto, possono causare disturbi a chi assume il farmaco. Perché questo? Semplice, come sappiamo prima di assumere un qualsiasi farmaco è buona norma leggere il bugiardino. Per un paziente diabetico, ad esempio, è importante verificare che nel medicinale non sia presente il saccarosio come eccipiente. Allo stesso modo, un soggetto intollerante al lattosio non può assumere farmaci contenenti questo eccipiente. In altre parole, è possibile che un soggetto non possa assumere un farmaco di marca ma possa invece assumere il generico o viceversa.

A questo punto, dal punto di vista chimico abbiamo capito che i farmaci di marca e gli equivalenti contengono lo stesso principio attivo in quantità al massimo diverse del 5%, la bio-equivalenza dei due farmaci viene verificata entro un 20% per legge e gli eccipienti contenuti nei farmaci possono invece essere diversi. Detto questo, normalmente i farmaci equivalenti sono del tutto identici a quelli di marca, in altri casi possono risultare meno efficaci ma ci sono anche casi in cui i consumatori preferiscono un equivalente all’originale (ripensate al discorso delle intolleranze e degli eccipienti). Detto questo, occorre di volta in volta provare i due farmaci senza volersi incaponire sull’originale o sul generico a tutti i costi. Ricordatevi però che per legge il farmacista dovrebbe sempre chiedervi se volete il farmaco equivalente.

Solo per concludere, il risparmio portato alle casse dello stato utilizzando gli equivalenti è assolutamente notevole (parliamo di centinaia di milioni di euro all’anno risparmiati) e questo gettito extra può essere utilizzato (almeno dovrebbe) per migliorare il servizio sanitario e le strutture ospedaliere. In Italia, purtroppo, solo il 15% del mercato dei farmaci è occupato dai generici, indice del fatto che gli italiani si fidano ancora poco di questi medicinali. Solo per darvi un’idea, negli Stati Uniti i generici rappresentano il 75% del mercato mentre in Gran Bretagna, primato assoluto, arriviamo addirittura all’85% del totale dei farmaci venduti rappresentati da medicinali equivalenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Chi e’ Eugene Goostman?

10 Giu

Oggi, moltissimi giornali hanno riportato una notizia molto interessante anche se, come spesso accade, alcuni giornalisti si sono limitati a fare copia/incolla o, peggio ancora, non documentandosi bene prima di scrivere, hanno arricchito i loro articoli di cosa alquanto fantasiose.

Visto che sicuramente avrete letto la notizia a cui mi riferisco, mi limito ad un breve riassunto: il 7 giugno, in occasione del 60esimo anniversario della morte di Alan Turing, un software e’ riuscito a superare il cosiddetto Test di Turing.

In cosa consiste questo test?

Immaginiamo di avere 3 persone: A, B e C. A e B, non necessariamente in ordine giusto, sono un uomo e una donna. C, che si trova in un’altra stanza, deve indovinare mediante una serie di domande dattiloscritte, chi e’ l’uomo e chi la donna. Su questa base, Turing sviluppo’ il suo test per verificare la bonta’ di un’intelligenza artificiale. Se uno dei due tra A e B e’ una macchina, cioe’ un software, C deve indovinare chi e’ l’umano e chi il programma informatico.

Cosa significa tutto questo?

Molto semplice, se il software riesce a farsi passare per un umano, cioe’ e’ in grado di ragionare come una persona in carne e ossa, allora siamo di fronte ad una vera e propria intelligenza artificiale in grado di cammufarsi tra gli umani.

Leggendo queste righe, sicuramente vi saranno venuti in mente moltissimi scenari, o film, di fantascienza in cui le macchine si confondono tra gli esseri umani e sono in grado di ragionare e provare emozioni. Lo scopo del test di Turing e’ proprio quello di verificare quanto una macchina sia in grado di ragionare, dunque elaborare pensieri complessi e non solo rispondere ad una serie di istruzioni gia’ scritte.

Del genio di Alan Turing abbiamo gia’ parlato in un articolo specifico:

Un perdono atteso 70 anni

In particolare, in questo articolo abbiamo parlato di Turing in relazione al suo lavoro durante la seconda guerra mondiale e il suo ruolo di primo piano nella decriptazione dei messaggi della macchina Enigma. Turing fu un vero e proprio genio dei suoi tempi e uno dei padri della moderna informatica. Come visto nell’articolo precedente pero’, la sua omosessualita’, contestualizzata al momento storico in cui visse, gli costo’ molto cara e questo “reato” lo spinse al suicidio esattamente il 7 Giugno 1954.

Proprio nell’ambito dei suoi studi sull’intelligenza artificiale, Turing formulo’ il test di cui abbiamo parlato, prendendo spunto dal “Discorso sul metodo” di Cartesio. Nel corso degli anni, diversi software hanno provato a superare il test sempre fallendo.

Come funziona il test?

Da quanto detto in precedenza, un giudice deve riconoscere, mediante un numero limitato di domande o comunque in un tempo prefissato, un programma informatico da una persona in carne e ossa. Ovviamente, non abbiamo un singolo giudice ma una vera e propria giuria. Nel regolamente ufficiale, ogni giudice ha a disposizione 5 minuti di domande e il test si ritiene superato se almeno il 30% dei giudici confonde il software per un umano.

Dunque? E’ stato superato o no questo test?

Dal regolamento riportato, il test e’ stato effettivamemte superato dal momento che, nella prova del 7 giugno di quest’anno, il 33% dei giudici, cioe’ un terzo della giuria, ha scambiato la macchina per un essere umano.

Che tipo di software e’ stato utilizzato?

Come sicuramente avrete letto, il software si chiama Eugene Goostman, che poi e’ il nome completo di un ragazzo ucraino di 13 anni, che e’ il personaggio simulato dal programma. Questo portentoso software e’ stato sviluppato da tre programmatori e’ gia’ nel 2006 era andato molto vicino a superare il test con il 29% dei giudici ingannati.

computer supera il test di Turing

Per chi avesse dubbi sulla regolarita’ della prova, il test e’ stato condotto adirittura alla Royal Society di Londra nel corso, appunto, delle celebrazioni per i 60 anni della morte di Turing.

Cosa dire su questo risultato?

Sicuramente si tratta di un passo molto importante per lo sviluppo dell’intelligenza artificiale ma cerchiamo di non scadere anche nei nel sensazinalismo. Per prima cosa, il software, come richiesto dal test, ha superato la soglia del 30%, ma siamo ben lontani dall’aver ingannato tutti i giudici. Alcuni scettici puntano il dito sul fatto che il personaggio simulato fosse un ragazzino di soli 13 anni e non madrelingua inglese. Questo particolare potrebbe aver tratto in inganno alcuni giudici che potrebbero aver pensato ad informazioni non note per la giovane eta’ o a problemi di comprensione dovuti alla diversita’ linguistica.

A parte questo, il test e’ stato comunque superato. Sicuramente, la pubblicita’, assolutamente giusta dal mio punto di vista visto il risultato storico, contribuira’ a far crescere gli investimenti nella ricerca per l’intelligenza artificiale che, test a parte, potrebbe trovare applicazione in moltissimi settori. Per darvi un’idea, la stessa Google ha da poco investito ingenti capitali in questo settore, circa 400 milioni di dollari, per acquisire societa’ piu’ piccole ed incentivare lo sviluppo di software sempre piu’ pensanti. Per chi volesse provare un sistema di questo tipo, anche se molto meno raffinato di Eugene Goostman, ci sono due possibilita’: i sistemi di assistenza vocale dei moderni cellulari (Siri per fare un esempio) o programmi online apprendenti:

Tobby chat bot

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scenario Energetico 2050

22 Mag

La scorsa settimana ho partecipato come relatore ad un interessantissimo convegno organizzato da ISES Italia e Eidos dal titolo: “2050: l’energia del futuro”.

Scrivo questo post assolutamente non per autocelebrazione, chi ha imparato a conoscermi sa che e’ cosi’, ma perche’ diverse volte su questo blog ci siamo interessati di energia e scenari futuri. Come sapete, ad oggi possiamo disporre di diverse tecnologie per lo sfruttamento delle rinnovabili anche se, e questo e’ il mio parere, dobbiamo continuare a fare ricerca per poter arrivare a soluzioni future in grado di dare contributi significativi. Il punto raggiunto oggi e’ solo uno step intermedio che pero’ necessita’ di idee nuove e soluzioni su vasta scala per poter contrastare la continua crescita demografica di una societa’ che diviene sempre piu’ energivora.

Come potete facilmente immaginare, il mio intervento al convegno e’ stato sull’energia nucleare. Purtroppo, ancora oggi, viene fatto un atto di terrorismo psicologico nei confronti del nucleare chiamando appunto con questo termine “fenomeni fisici completamente diversi”. Come abbiamo visto in altri post, e ripeto e’ un mio personale pensiero, soprattutto in Italia, quella del nucleare e’ divenuta una questione politica piu’ che scientifica. Diversi schieramenti si sono contrapposti non sul piano dei contenuti ma solo tra favorevoli e contrari per mero scopo elettorale.

Vi riporto alcuni link interessanti per farvi capire, nuovamente, il mio pensiero, ma anche per farvi vedere le altre tecnologie discusse nel convegno e sicuramente interessanti nell’ottica di un futuro non cosi’ lontano.

Articolo del quotidiano “Avvenire” sul convegno

Intervista per il sito Canale Energia

Articolo su e7

Articolo di Canale Energia sul nucleare futuro

Link al sito ISES con le presentazioni mostrate al convegno

Questo e’ invece il video dell’intervista rilasciata per Canale Energia al termine del Convegno:

Ripeto, questo non vuole essere un articolo autocelebrativo, ma vorrei aprire una riflessione sui possibili scenari energetici al 2050, nuovo punto di svolta imposto dalla Commissione Europea.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Triangolo delle Bermuda, risolto il “mistero”?

14 Mar

Un nostro caro lettore mi ha contatto privatamente per chiedere lumi circa una teoria in grado di spiegare gli incidenti avvenuti nel cosiddetto “Triangolo delle Bermuda”. Vi premetto subito che non si tratta di una di quelle teorie pseudoscientifiche che compaiono nei vari siti spazzatura di cui di sovente dobbiamo occuparci, ma di una teoria assolutamente scientifica e molto interessante.

Mappa del Triangolo delle Bermuda

Mappa del Triangolo delle Bermuda

Dal momento che non ne abbiamo mai parlato, credo sia necessario, prima di passare alla possibile spiegazione, dire qualcosa in piu’ di questo misterioso e molto citato fazzoletto di mare. Come sapete, il triangolo delle Bermuda e’ una zona di mare molto estesa, circa 1100000 Km^2, che si trova nell’Atlantico Settentrionale a largo delle coste di Porto Rico.

Cosa ha di famoso questo punto dell’oceano?

Non vi diro’ certo qualcosa di nuovo raccontando di come, negli anni, il Triangolo delle Bermude e’ divenuto famoso a causa della sparizione improvvisa di molte navi e aerei che, improvvisamente, mentre sorvolavano o si trovavano a passare sulla zona, sono misteriosamente scomparsi senza lasciare alcuna traccia. Di storie e racconti di questo tipo, tutti ne abbiamo sentito parlare, creando un’aura di mistero intorno a questo tratto di mare.

Le spiegazioni date per giustificare in qualche modo queste sparizioni sono davvero molto diversificate e, ovviamente, non possono mancare le ipotesi fantascientifiche. Per fare qualche esempio, si parla di area di volo per gli extraterrestri che non gradirebbero la presenza di esseri umani, di costruzioni risalenti ad Atlantide sul fondo dell’oceano ed in grado di creare forze sconosciute e invisibili, di fenomeno fisico naturale non compreso in grado di attirare qualsiasi cosa passi sopra la zona, di anomalie dello spazio tempo che creerebbero tunnel quantistici in grado di collegare diverse parti dell’universo e cosi’ via con una lunga serie di ipotesi piu’ o meno assurde che di volta in volta vengono riproposte da giornali, siti e, soprattutto, trasmissioni televisive che andrebbero lasciate in onda solo sovrapponendo, come si faceva una volta per i telefilm americani, le risate delle persone quando vengono mandati servizi del genere.

Ora pero’, prima di parlare di ipotesi concrete di spiegazione, credo sia utile fare il punto della situazione su questa storia per capire fino in fondo l’entita’ e il numero di questi incidenti.

Cercando in rete, trovate molto facilmente la lista degli incidenti misteriosi che sono avvenuti nel Triangolo nel corso degli anni. Quello che pero’ molti dimenticano di dire e’ che questa lista non e’ stata redatta da nessun organo ufficiale per il controllo dei mari. Cosa significa? Il mito del Triangolo delle Bermuda inizia intorno al 1950 con un articolo in cui si parlava della prima volta di misteriose sparizioni in questa zona di mare. Il boom mediatico arrivo’ poi nel 1974 con l’uscita di quello che diventera’ poi un bestseller della letteratura pseudo-scientifica, il libro “Bermuda, il triangolo maledetto”, scritto da Charles Berlitz. Per chi non lo conoscesse, Berlitz e’ proprio il fondatore della famosa scuola di lingue diffusa in tutto il mondo ed e’ autore di diversi libri sul tema della archeologia misteriosa e del complottismo piu’ spinto. Bene, l’uscita del libro di Berlitz segna l’inizio del vero e proprio mito del Triangolo delle Bermuda, libro che ha dato poi inizio a tutta una sequela di opere piu’ o meno romanzate che sono arrivate fino ai giorni nostri.

Cosa dire sul libro di Berlitz? Semplice, quella che doveva essere un’inchiesta storica con il resoconto dettagliato di tutti gli incidenti registrarti nel corso degli anni, si e’ rivelata un’enorme montatura gonfiata veramente a dismisura. Come dimostrato per la prima volta da Lawrence Kusche con il suo libro “The Bermuda Triangle Mystery: Solved” del 1975, molti degli episodi riportati nel libro di Berlitz sono inventati, gonfiati o riguardano incidenti non avvenuti nel triangolo. In particolare, Kusche che era un aviatore e istruttore di volo, parti’ con le sue ricerche dalla scomparsa di un volo commerciale ripreso da Berlitz come caso inspiegabile. Come spesso sentiamo dire, tutti gli incidenti accaduti nel Triangolo sono avvenuti in condizioni meteo perfette e senza lasciare traccia. Bene, i dati mostrati da Kusche dimostrano invece il contrario, potendo imputare la maggior parte degli incidenti, tra quelli realmente avvenuti nel Triangolo, alle avverse condizioni meteo e alle tempeste tropicali che di certo non mancano in quella zona.

Cosa significa questo?

Come potete capire, l’alone di mistero che da sempre circonda questo tratto di mare e’ solo frutto di una montatura, principalmente letteraria, avvenuta nel corso degli anni. Facendo una scrematura molto profonda, di tutti gli incidenti che trovate nei racconti, solo 3 o 4 non trovano una spiegazione immediata perche’ veramente avvenuti nella zona, in condizioni di meteo ottime ma, ovviamente, potrebbero essere dovuti a guasti improvvisi.

E’ possibile questo?

Assolutamente si. Per darvi un’idea, dalle statistiche elaborate sia dalla guardia costiera americana che dalla societa’ Lloyd’s di Londra, il numero di incidenti registrati nella zona e’ perfettamente in linea con le statistiche mondiali rapportando i numeri all’alto traffico aereo e navale che avviene nella zona. Ecco il link della USGC americana che ne parla:

USGC, Bermuda

mentre, per quanto riguarda i Lloyd’s, dal momento che questa e’ la compagnia che si occupa proprio del calcolo dei rischi assicurativi, se ci fosse un reale e misterioso pericolo nella zona, secondo voi continuerebbe a far assicurare i mezzi che transitano nel Triangolo?

Altra considerazione, anche se gli incidenti sono dovuti a guasti o avverse condizioni meteo, e’ vero che in moltissimi casi non sono stati rinvenuti i resti dei mezzi incidentati?

Questo e’ assolutamente vero, ma anche qui possiamo dare una spiegazione razionale senza doverci nascondere. Il fondale del Triangolo delle Bermuda e’ caratterizzato dalla presenza di fosse oceaniche molto profonde ed e’ interessato da correnti molto forti. La combinazione di questi due fattori fa si che, in caso di incidente, il mezzo possa essere risucchiato a fondo molto velocemente, e magari trasportato altrove, nel giro di pochissimi minuti.

Detto questo, esiste un mistero sul Triangolo delle Bermuda? Da quanto detto, possiamo escludere questa ipotesi dal momento che il tutto e’ frutto di una montatura prettamente letteraria basata su argomentazioni esagerate, falsificate e, ovviamente, atte solo a creare un business per chi le mette in piedi. Prima pero’ di chiudere, vorrei fare qualche altra considerazione. Come detto, ci sono ancora 3 o 4 incidenti la cui spiegazione non e’ nota e che possono essere imputati ad improvvisi guasti dei mezzi interessati.

E se non fossero guasti dovuti al mezzo?

Perche’ dico questo?

Semplice, non limitandoci al caso del Triangolo, nel corso della storia si sono verificati incidenti in mare apparentemente non spiegabili e che hanno fatto scomparire improvvisamente mezzi dai radar non lasciando assolutamente traccia. Una possibile spiegazione di questi incidenti, che e’ poi l’argomento della domanda iniziale da cui siamo partiti, potrebbe essere imputata ai cosiddetti “idrati di metano”. Fate attenzione, ora stiamo passando dallo smascherare storie fantascientifiche ad ipotesi scientifiche.

Cosa sono gli idrati di metano?

Si tratta di una struttura cristallina solida formata da acqua ghiacciata e metano. Per poter formare strutture di questo tipo e’ necessaria una combinazione di basse temperature e pressioni molto elevate. Queste condizioni sono ovviamente possibili sui profondi fondali oceanici dove l’acqua scende facilmente ad una temperatura prossima allo zero e la colonna di liquido sovrastante produce un’elevata pressione. Strutture di questo tipo sono molto frequenti a profondita’ tra i 500 e i 4000 metri e possono estendersi anche su superfici molto vaste.

Ora, immaginate la seguente situazione: qualcosa, ad esempio una scossa sismica, rompe lo strato di ghiaccio e metano. In queste condizioni, una grossa bolla di gas puo’ fuoriuscire e risalire verso la superficie. Se una nave si trova a passare sopra il punto in cui la bolla esce verso l’atmosfera, cosa succede? Semplice, le navi galleggiano grazie alla spinta di Archimede, dipendente dalla densita’ dell’acqua, che bilancia il peso stesso della nave. Poiche’ il metano ha una densita’ minore dell’acqua, nel momento della fuoriuscita, il peso della nave non sarebbe piu’ bilanciato e il mezzo verrebbe risucchiato verso il basso. E’ possibile questo? Assolutamente si e proprio nel corso degli ultimi anni, esempi di questo tipo sono stati anche documentati. Dal momento che, come anticipato, il Triangolo delle Bermuda presenta fondali molto profondi, correnti fredde e giacimenti di combustibili fossili, e’ assolutamente lecito pensare che la zona possa essere interessata da fenomeni di questo tipo. Ovviamente, in caso di un incidente del genere, la sparizione sarebbe improvvisa e senza lasciare traccia alcuna del mezzo.

Dal mio punto di vista, e’ assolutamente lecito pensare che, forse, alcuni degli incidenti rimasti senza spiegazione, il cui numero ripeto e’ perfettamente compatibile con le statistiche di ogni altra zona, potrebbero essere stati causati dalla rottura di strati di idrati di metano.

Eventi di questo tipo potrebbero anche spiegare, non solo per il Triangolo, incidenti aerei avvenuti a bassa quota sopra gli oceani. La bolla di metano uscita in atmosfera infatti, potrebbe rimanere densa e arrivare agli ugelli ad alta temperatura degli aerei. In questo caso, si svilupperebbe immediatamente un incendio che interesserebbe l’intero apparecchio facendolo precipitare.

Se credete che la spiegazione sia esagerata, pensate che da un metro cubo di idrati di metano ad alta pressione si formano, a pressione e temperatura normali, ben 168 metri cubi di gas e solo 0,87 metri cubi di acqua.

Attenzione, 168 metri cubi di gas da un solo metro cubo di idrati dal fondo dell’oceano. Perche’ allora non sfruttare questa enorme risorsa per estrarre gas? Questa idea e’ ovviamente venuta anche alle maggiori compagnie di estrazione e al momento ci sono diversi gruppi di ricerca, soprattutto americani e giapponesi, che stanno studiando il modo migliore, se possibile, di mettere le mani su questa enorme risorsa. Dalle stime fatte, la quantita’ di gas contenuta negli idrati sarebbe molto maggiore di quella contenuta in tutti i giacimenti tradizionali conosciuti al mondo. Al momento pero’, l’estrazione di questo gas sarebbe ancora troppo rischiosa e con efficienza troppo bassa. Come sapete, il metano e’ uno dei piu’ pericolosi gas serra, con effetti 30 volte maggiori di quelli dell’anidride carbonica. Una fuoriuscita incontrollata di questo gas provocherebbe effetti disastrosi per la nostra atmosfera. Inoltre, sulla base della spiegazione degli idrati per gli incidenti in mare, un’operazione di questo tipo sarebbe molto rischiosa per le piattaforme e le navi che si troverebbero in prossimita’ del punto di raccolta.

Concludendo, per quanto riguarda il Triangolo delle Bermuda, abbiamo visto come il mito creato nel corso degli anni sulla pericolosita’ della zona sia solo una montatura ad hoc. Molti degli incidenti considerati misteriosi sono in realta’ perfettamente spiegabili o avvenuti in zone diverse. Ci sono ancora un numero esiguo di casi non spiegabili in modo certo ma che comunque rientrano nelle statistiche calcolate su scala mondiale. Non pensando al semplice guasto, alcuni di questi avvenimenti potrebbero essere stati causati dalla liberazione di metano da idrati sul fondale. Queste strutture solide, conosciute e presenti sui freddi fondali di alcuni oceani, racchiudono enormi quantita’ di metano che puo’ essere liberato da fratture naturali o indotte dello strato solido. La quantita’ di metano liberata in questi casi e’ notevole al punto che diversi studi sono in corso per cercare di sfruttare questa risorsa.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lenti a contatto smart!

20 Gen

Diversi giornali in questi ultimi giorni hanno pubblicato una notizia veramente interessante e che merita di essere analizzata meglio. Come forse avrete letto, Google ha reso noto uno dei suoi progetti per il futuro. Si tratta di una lente a contatto intelligente dotata di sensori per la rivelazione del glucosio.

A cosa serve?

Misurazioni di questo tipo divengono dei veri e propri salva-vita per le persone affette di diabete. Questa e’ ormai una patologia diffusissima a livello mondiale, con un numero di persone diabetiche che sfiora i 20 milioni. Come saprete, nei casi piu’ gravi e’ richiesto un continuo monitoraggio degli zuccheri nel sangue necessari per impedire conseguenze che possono essere anche molto gravi.

Prima osservazione, chi ha sviluppato questa speciale lente? Come avrete letto, il progetto viene direttamente dai laboratori chiamati Google-X. Si tratta di una divisione ricerca di Google strettamente top secret e di cui non si conosce neanche l’esatta ubicazione. I progetti curati da questo laboratorio, molti sulla robotica, sono gestiti direttamente dai fondtori di Google. Nei nostri precedenti articoli, abbiamo gia’ parlato di alcune invenzioni provenienti da questi laboratori. Esempio noto a tutti sono i Google Glass:

Realta’ aumentata. Quella virtuale e’ gia’ preistoria!

cosi’ come il progetto per portare la connessione internet nei luoghi piu’ isolati del pianeta mediante palloni sonda:

Internet dalla stratosfera

Cosa possiamo dire invece per queste lenti?

Prima di tutto, vi segnalo la pagina ufficiale di Google in cui viene anunciata l’invenzione:

Google, smart lens

Come vedete, si tratta di una speciale lente composta da un doppio strato. All’interno di questo sandwich viene alloggiato uno speciale circuito dotato di sensori per la misura del glucosio nella pellicola lacrimale. Nello strato interno viene infatti previsto uno speciale forellino per permettere il passaggio del liquido all’interno dove viene analizzato. Sempre nel circuito sono presenti sensori wireless per il collegamento ad un dispositivo remoto di lettura e dei led che possono essere utilizzati per inviare un segnale di allarme direttamente nell’occhio del paziente. Quest’ultimo sistema non e’ affatto non rilevante. Molto spesso infatti le persone possono dimenticarsi di controllare il livello di glucosio rischiando di avere conseguenze. Avere un led di pericolo sicuramente visibile non puo’ che aumentare la sicurezza del monitoraggio.

Ecco il circuito contenuto all’interno delle speciali lenti:

Le lenti a contatto realizzate da Google per la misura del glucosio

Le lenti a contatto realizzate da Google per la misura del glucosio

Per quanto riguarda i vantaggi di questa invenzione, non credo che sia necessario spendere molte parole poiche’ sono evidenti a tutti, in special modo a coloro che soffrono di diabete. Inoltre, tenete conto che oggi, i dispositivi di controllo maggiormente utilizzati prevedono un’analisi del sangue compiuta con continui e fastidiosissimi buchetti ai polpastrelli.

Come dichiarato anche da Google pero’, questo dispositivo e’ ancora in fase molto prototipale. Per prima cosa c’e’ da dire che non e’ assolutamente certo che la misurazione del glucosio mediante lo strato lacrimale sia affidabile e precisa. Ovviamente, le lecrime hanno un notevole contenuto di zucchero. Quello che ancora deve essere valutato, soprattutto perche’ dal punto di vista medico ci sono risultati in contrapposizione, e’ la correlazione tra le percentuali nelle lacrime e quelli nel sangue. Inoltre, deve essere studiata molto bene l’efficacia della misura sullo strato lacrimale. Sistemi alternativi prevedono un incremento della lacrimazione in modo artificiale, ma questo comporterebbe a sua volta una diluizione delle concentrazioni ricercate.

Concludendo, quello delle lenti intelligenti per diabetici e’ un progetto molto interessante ma ancora in fase prototipale. La stessa Google cerca collaborazioni con soggetti esperti del campo per verificare la bonta’ di questa intuizione. Dal punto di vista medico, la societa’ lavora anche a stretto contatto con la FDA americana e, gia’ oggi, e’ partita una sperimentazione su un uomo per valutare alcuni di questi punti oscuri ancora prsenti nel progetto. A questo punto, non resta che attendere gli sviluppianche perche’ Google prevede di poter mettere sul mercato questo prodotto entro 5 anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.