Tag Archives: consiglio

Ebola, la nuova goduria complottista ….. attenzione però!

17 Ago

Tante volte lo abbiamo detto, i nostri amici complottisti negli ultimi tempi erano giù di morale. E’ vero che c’è ancora chi la spara grossa su Nibiru, comete varie, asteroidi, Maya, ecc., ma ormai non sono tanti quelli che ancora ci credono. Questo apparente “medioevo complottista” era però un periodo transitorio, un’incubatrice dove le idee erano in attesa di venire fuori attendendo la prossima occasione ghiotta. Purtroppo, per tanti buoni motivi che ora vedremo, questa occasione è arrivata e si chiama “ebola”.

Non credo di dire nula di nuovo dicendo che, in questi giorni più che mai, la nuova psicosi è rappresentata da un’epidemia di questo temibile virus che molti temono possa arrivare in Italia.

Prima affermazione importante che è doveroso fare e che più avanti contestualizzeremo in modo opportuno: non c’è nessun caso di Ebola in Italia. Ripeto: “nessuno” in nessun luogo del nostro paese.

Ma cerchiamo, come nostra abitudine, di andare con ordine e capire in dettaglio l’origine, la situazione e gli ipotetici sviluppi futuri di quella che potrebbe rappresentare una bomba sanitaria mondiale.

Come noto, diversi paesi dell’Africa, tra cui Guinea, Sierra Leone e Liberia, sono da diversi mesi alla prese con l’epidemia di Ebola che ha già fatto registrare decine di vittime e un numero sempre crescente di contagiati.

Come è nata questa epidemia?

Solo in questi giorni si è riusciti ad identificare quello che, in gergo medico, viene definito caso zero. Il primo ad aver contratto questo virus è stato un bambino di 2 anni nella Guinea, deceduto il 6 dicembre 2013. L’infezione di ebola è molto devastante a livello fisico perchè si presenta con febbre alta, diarrea, vomito e, nel 90% dei casi, 100% se non gestita adeguatamente, porta alla morte nel giro di pochi giorni. Come è ovvio, anche perchè si tratta del primo caso, i componenti della famiglia del bambino in questione si ammalarono molto velocemente. Piccola parentesi, il contagio di ebola avviene solo ed esclusivamente attraverso il contatto dei fluidi corporei. Nel giro di una settimana, sono morte la mamma, la sorella e la nonna del bambino in questione. Proprio al funerale della nonna, erano presenti due persone che vennero contagiate e portarono il virus nei loro rispettivi villaggi. Qui, un infermiere che era venuto a contatto con il malato, venne a sua volta contagiato. In un paese come la Guinea in cui il sistema nazionale molto spesso si riduce ad un solo infermiere che si occupa di diverse comunità di persone, potete capire cosa sia accaduto.

Nel giro di pochi mesi, quando finalmente l’epidemia venne riconosciuta e compresa, si registravano già decine di casi in diversi villaggi della Guinea e primi casi erano già presenti in Liberia e Sierra Leone. Da qui in poi, potete capire come questo fenomeno sia cresciuto praticamente in modo esponenziale.

Ad oggi, vengono registrati anche alcuni sporadici casi in Nigeria ma non ci sono ulteriori conferme di persone contagiate dall’ebola in nessun altro paese. Come noto, tutte le voci riguardanti casi in USA, Canada, Hong Kong, Arabia Saudita e, come anticipato, Italia e Germania, si sono rivelati dei falsi perchè bufale o perchè smentiti da analisi di laboratorio prontamente eseguite.

Capita l’origine, l’evoluzione e lo stato attuale della situazione ebola, torniamo ai nostri amici complottisti. Come anticipato, non potevano certo farsi sfuggire questa occasione d’oro. Se avate avuto modo di leggere gli articoli pubblicati da queste “testate”, spero vivamente vi siate fatti quattro risate senza lasciarvi prendere dal panico.

Andiamo con ordine. Di certo, non poteva mancare chi ha attribuito l’epidemia di ebola al volere del solito Nuovo Ordine Mondiale per sterminare metà della popolazione mondiale. Al solito, non fraintendete, non è mia intenzione prendere spunto da una situazione globale drammatica che sta mietendo vittime. Questa è l’intenzione di coloro di cui stiamo parlando e sui quali la gente deve sapere la verità. Oltre al motivo del contagio, c’è invece chi ricama sulla tipologia di malattia. Quella in corso non sarebbe assolutamnete un’epidemia di ebola, ma di Morgellons. Esatto, avete capito proprio bene. Secondo alcuni siti, l’epidemia in corso sarebbe di questa inventata malattia di cui abbiamo parlato in questo apposito post:

Il morbo di Morgellons

Perchè? Anche questo è molto prevedibile. Loro sono anni che accusano i governi di spargere veleni attraverso le scie chimiche e ora sono arrivate le conseguenze. Le persone sarebbero state “avvelenate” a seguito del contagio con gli inquinanti sparsi mediante aerosol atmosferico. Piccola parentesi riflessiva: non mi sembra che fino ad oggi qualcuno abbia mai parlato di scie chimiche in Africa, eppure il contagio è iniziato li. Va bene, non facciamo i precisini, si sa, le scie chimiche vanno un pò ovunque.

Detto questo, esiste un problema reale per l’Italia? Purtroppo, anche se ripeto ad oggi non ci sono stati casi nel nostro paese, come tutti sanno, esiste il problema reale e e conosciuto dei continui sbarchi nel nostro paese di parte di migranti provenienti dai paesi africani. Ora, non è questa la sede per affrontare un discorso relativo agli sbarchi, è giusto, è sbagliato, vanno fermati, Renzi, Alfano, Mare Nostrum, ecc.. Nonostante questo, dati i continui flussi migratori, è ovviamente richiesta, ed è ovviamente stata attuata, una politica sanitaria di emergenza per scongiurare che l’epidemia si estenda anche all’Europa.

A questo punto vi chiederete: perchè nel titolo del post ho scritto “attenzione però?” Molto semplice, come forse avrete avuto modo di leggere, e come discusso poche righe fa, i complottisti non si sono lasciati sfuggire la ghiotta occasione dell’ebola. A volte, però, si esagera.

Cosa intendo?

Sui social network è circolata nei giorni scorsi la notizia secondo la quale a Lampedusa ci sarebbero diversi casi, chi parla di unità chi di decine, di ebola. Neanche a dirlo, i contagiati sarebbero immigrati sbarcati sulle coste della nostra isola e il contagio si sarebbe già esteso al personale dei centri di prima accoglienza. In tutta questa favola, non poteva certo mancare il carico: il governo, in accordo con l’Europa, è a conoscenza del problema, ma non vuole informare la popolazione. Il motivo? Sempre perchè il tutto fa parte del progetto di sterminio della popolazione oppure per non creare panico o, ancora, perchè si sta sottovalutando il problema.

Cosa c’è di vero in tutto questo? Assolutamente nulla.

Il particolare che però rende diversa questa bufala lanciata sui social network dalle altre è che questa volta siamo di fronte ad un caso di sicurezza nazionale. Questo “dettaglio” ha comportato la rapida risposta da parte delle autorità che, mediante la polizia postale, hanno già identificato l’autore della falsa notizia. Il tizio in questione è stato ovviamente denunciato con accuse molto gravi e di mezzo c’è anche l’associazione degli albergatori di Lampedusa che si è costituita parte civile nel processo. Perchè? Molto semplice. La notizia circolata sulla rete è divenuta subito virale e, dopo averla letta, molti turisiti hanno disdetto la loro pronatazione sull’isola per paura del contagio. Come potete facilmente capire, l’economia di Lampedusa, da sempre basata sul turismo, si trova in una fase estremamente delicata proprio a causa dei continui sbarchi di migranti. La falsa notizia fatta circolare ha dato il colpo di grazia al turismo atteso per questa stagione. Risultato? L’associazione degli albergatori ha chiesto al simpatico bufalaro un risarcimento di dieci milioni di euro! Ovviamente ci sarà da attendere il processo per vedere come la cosa andrà a finire ma, per il momento, questa richiesta segna una svolta molto importante per le continue bufale che circolano in rete.

Cari amici complottisti, pensate bene a quello che scrivete e dite. Oltre a creare psicosi collettive, molto spesso le vostre pseudo-notizie creano danni incalcolabili e che, prima o poi, come in questo caso, qualcuno vi chiederà di pagare!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Il metodo made in Italy per produrre Idrogeno

26 Lug

Da molti anni, ormai, sentiamo parlare di un futuro energetico incentrato sull’idrogeno. Molti, parlano di questo possibile combustibile addirittura speculando su un passaggio dall’era del petrolio a quella dell’idrogeno. Come tutti sappiamo, questa soluzione potrebbe essere utilizzata in tantissimi settori. Anche se il più noto, e lasciatemi dire su cui tante leggende sono state create, è quello delle macchine alimentate a idrogeno, questo elemento potrebbe servire per produrre corrente elettrica ed energia nei più svariati settori industriali, consentendo, finalmente, di mettere da parte i fortemente inquinanti idrocarburi ma, soprattutto, l’economia basata su questi oli che non ha fatto altro che creare centri di potere, in primis, e guerre per l’appropriazione e lo sfruttamento dei giacimenti sparsi per il mondo.

Perché, ancora oggi, visto che molti parlano di una panacea di tutti i mali, non utilizziamo l’idrogeno?

Come sapete, molti parlano di poteri forti in grado di bloccare lo sviluppo di queste tecnologie per puri fini economici. Da un lato, queste affermazioni sono corrette. Non voglio nascondermi dietro un dito e dire che viviamo in un mondo ideale. Come tutti sanno, i soldi fanno andare l’acqua in salita ma, soprattutto, decidono dove l’acqua deve passare e dove no. Questo lato economico-oscuro non è però materia del nostro blog. Quello su cui invece vorrei spingere tutti a ragionare è il discorso prettamente energetico e ambientale dell’idrogeno.

Anche molti tra i cosiddetti esperti dell’energia, un po’ per secondi fini ma, mi dispiace dirlo, a volte anche per ignoranza, quando parlano di fonti alternative, dunque non solo idrogeno, dimenticano sempre di prendere in considerazione l’intera filiera del settore che non comprende solo l’utilizzo della risorsa ma anche la sua estrazione o eventuale produzione, stoccaggio, distribuzione, ecc.

Che cosa intendo con questo?

Facciamo un esempio pratico ma inventato. Immaginate di trovare una nuova fonte energetica che possa essere utilizzata per alimentare le automobili. Questa risorsa rende la vostra macchina assolutamente non inquinante e costa 1/10 della benzina. Bene, annunciate la vostra scoperta su internet e immediatamente si formerà un esercito di internauti pronti a parlare della vostra genialata e del fatto che la ricerca, insieme con qualche burocrate in giacca, cravatta e occhiali scuri, vi sta ostacolando. Scommetto che questa storiella ve ne ricorda tante altre sentite in questi anni. Dov’è il problema? Semplice, anche se il nostro carburante costa poco e non inquina, come si produce? Dove si estrae? Se per produrre questo carburante dovete utilizzare carbone, oli o elementi chimici che produrrebbero un effetto sull’atmosfera peggiore di quella dell’uso del petrolio, la vostra invenzione sarebbe ancora molto conveniente? Direi proprio di no.

Bene, questo è quello che vorrei far capire. Ogni qual volta si parla di qualcosa legato all’energia e all’inquinamento, dovete sempre mettere in conto tutti gli aspetti legati a quella determinata risorsa. Esempio pratico? I pannelli solari producono energia dalla fonte rinnovabile per eccellenza, il Sole. Nessuno però vi racconta mai dei costi di produzione dei pannelli o, soprattutto, di quelli di smaltimento dei pannelli ormai esausti. Tenendo conto di questi fattori, si deve ridimensionare molto il vantaggio ottenuto con l’uso di pannelli commerciali. Per carità, non voglio dire che questa soluzione debba essere scartata. Il mio pensiero vuole solo mostrare gli altri aspetti che spesso, soprattutto tra i sostenitori di una tecnologia, vengono completamente taciuti.

Perdonate questa mia lunga introduzione, ma quanto detto è, a mio avviso, importante per inquadrare al meglio la situazione.

Tornando ora al discorso idrogeno, come forse avrete letto, un team di ricercatori del CNR, per essere precisi della sezione di Firenze, ha trovato un nuovo processo di produzione dell’idrogeno che riesce a sfruttare i cosiddetti oli rinnovabili.

Perché è così interessante questa notizia? Alla luce di quanto detto sopra, ad oggi, esistono due modi principali di produzione dell’idrogeno, entrambi con criticità molto importanti. Il primo metodo di produzione consiste nell’estrazione dell’idrogeno dal metano. Per poter avviare il processo è però necessario ossigenare l’ambiente. In questo caso, la produzione di idrogeno è accompagnata da quella di anidride carbonica. Risultato? La produzione di CO2, come è noto, è da evitare per le conseguenze sull’ambiente. Vedete come le considerazioni iniziali ci consentono di fare ora un’analisi critica dell’intero processo?

Il secondo metodo possibile per la produzione dell’idrogeno è semplicemente basato sull’elettrolisi dell’acqua, cioè nella scomposizione di questa fonte nota e ampiamente disponibile in idrogeno e ossigeno. Quale sarebbe ora il rovescio della medaglia? Per fare l’elettrolisi dell’acqua occorre fornire molta energia, energia che deve ovviamente essere messa in conto quando si calcola il rendimento della risorsa. Esempio pratico, se per innescare l’elettrolisi utilizzate energia prodotta da fonti rinnovabili, questo contributo inquinante deve essere contabilizzato e l’idrogeno non è più così pulito. Oltre al problema del costo energetico di produzione, nel caso dell’elettrolisi si deve considerare anche il fattore sicurezza. Idrogeno e ossigeno vengono prodotti ad alte pressioni. Se, per puro caso, i due elementi vengono in contatto tra loro, si crea una miscela fortemente esplosiva.

Alla luce di quanto detto, credo che ora sia più chiaro a tutti il perché, escluso il discorso economico legato al petrolio, ancora oggi la futuribile economia dell’idrogeno ancora stenta a decollare.

Bene, quale sarebbe allora questo metodo made in Italy che i ricercatori del CNR hanno inventato? Come anticipato, questo sistema di produzione sfrutta gli alcoli rinnovabili. Credo che tutti abbiamo bene in mente cosa sia un alcol, perché però parliamo di rinnovabili? Detto molto semplicemente, si tratta degli alcoli, glicerolo, metanolo, ecc., prodotti dalle biomasse, quindi sfruttabili, rinnovabili e anche assolutamente diffuse.

Come funziona questo metodo?

Come noto alla chimica, rompere la molecola d’acqua in presenza di alcoli richiede molta meno energia rispetto a quella necessaria in presenza di sola acqua. Nessuno però, fino ad oggi, aveva pensato di sfruttare questa evidenza per la produzione di idrogeno. La vera innovazione di questo processo è nell’aggiunta di elettrodi nanostrutturati ricoperti di palladio che fungono da catalizzatori per il processo e raccolgono l’idrogeno prodotto nella reazione. A questo punto, immergendo gli elettrodi in una soluzione acquosa di alcoli è possibile rompere la molecola di acqua producendo idrogeno, evitando la formazione di ossigeno libero e, soprattutto, risparmiando il 60% dell’energia rispetto all’elettrolisi.

Come annunciato anche dagli stessi ricercatori, questo sistema potrà servire in un primo momento per la produzione di batterie portatili in grado di fornire energia in luoghi isolati e, a seguito di ulteriori ricerche e perfezionamenti, potrà essere sfruttato anche per la realizzazione di generatori da qualche KWh fino a potenze più alte.

Apro e chiudo parentesi, non per essere polemico ma per mostrare l’ambito nel quale molto spesso le ricerche si svolgono. Il gruppo di ricerca è riuscito a trovare i finanziamenti per i suoi studi perché al progetto hanno partecipato alcuni enti privati finanziatori, tra cui il credito cooperativo di Firenze.

Solo per concludere, e giusto per ricalcare nuovamente il fatto che la ricerca non si è dimenticata dell’idrogeno, anche a livello governativo, nelle direttive per l’obiettivo 2020 è stato imposto un target di 45KWh per la produzione di 1 Kg di idrogeno. Obiettivo considerato futuribile fino ad oggi ma che richiedeva ricerca aggiuntiva sui sistemi di produzione. Bene, il metodo inventato dal CNR richiede soltanto 18.5KWh per produrre 1 Kg di idrogeno. Direi che questo rende sicuramente il processo economicamente vantaggioso e apre finalmente le porte a un utilizzo, che sarà sempre e comunque graduale, di questa risorsa nella vita di tutti i giorni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Farmaci branded o equivalenti?

12 Lug

Stamattina entro in farmacia e mi metto in una delle due file che si erano create al banco. Mentre ero li, ascolto per due volte al stessa domanda rivolta dal farmacista al cliente di turno che aveva chiesto un medicinale: vuole l’originale o il generico? Due domande, due risposte diverse. Una signora ha detto: mi dia il generico tanto è la stessa cosa e costa di meno, mentre l’altra ha risposto: no grazie, mi dia quello originale perché l’altro non funziona.

Sentendo queste due risposte completamente agli antipodi per la stessa domanda, mi è tornata in mente la discussione che diverse volte ho ascoltato, anche da famigliari, sull’efficacia o meno dei farmaci generici. Poiché mi sembra che ci sia ancora tanta confusione a riguardo, credo sia interessante e importante sviscerare con un po’ più di dettaglio questo argomento.

Per prima cosa, il termine “farmaco generico” non è in realtà corretto ma deriva solo da una traduzione letterale del termine inglese “generic drugs”. Per essere precisi, il nome corretto da usare per questa tipologia di farmaci è “equivalenti”.

Bene, cosa sono i farmaci equivalenti?

Per rispondere a questa domanda, dovremmo partire dall’altra sponda del fiume, cioè dai farmaci “originali”, “branded” o come volete chiamarli. Insomma, quelli originali prodotti da qualche casa farmaceutica e che hanno, molto spesso, nomi di fantasia. Ora, come sapete, questi farmaci hanno normalmente un singolo principio attivo che caratterizza il prodotto e la sua efficacia curativa. Per la legge, la formazione del principio attivo è brevettabile per un periodo di 20 anni a partire dall’inizio della sperimentazione sull’uomo. Allo scadere di questo tempo, il principio attivo non è più “sotto licenza” e, come stabilito per legge, può essere prodotto da qualunque casa farmaceutica senza violare nessun diritto d’autore.

Capito come nascono i medicinali equivalenti? Una casa farmaceutica studia un nuovo principio attivo e inizia la lunga fase della sperimentazione. Come sappiamo bene, prima ancora di poter provare il medicinale su un campione umano di controllo sono necessari diversi stadi di sperimentazione in cui il farmaco può essere scartato per problematiche varie legate al suo utilizzo. Testata, in buona parte, la non pericolosità del farmaco e il suo potere curativo, inizia la sperimentazione sull’uomo, sempre sotto stretto controllo. Da qui inizia anche il periodo di brevetto, cioè i 20 anni di cui parlavamo prima. Se la fase di sperimentazione sull’uomo va a buon fine, il farmaco arriva, prodotto dalla casa farmaceutica, al banco della farmacia. Tenendo conto che la fase di sperimentazione sull’uomo normalmente dura dai 5 ai 10 anni, il reale periodo di vendita del medicinale sotto brevetto va dai 10 ai 15 anni.

Cosa succede quando il brevetto arriva a scadenza? Come anticipato, da questo momento in poi chiunque può produrre e commercializzare il principio attivo come base di farmaci diversi non “brandizzati”, appunto gli equivalenti.

Come vengono fatti questi farmaci? Ovviamente partendo dal principio attivo del farmaco di marca. Per fare un esempio concreto, proviamo a prendere un medicinale noto a tutti, l’Aulin, prima prodotto dalla Roche e poi dalla Angelini. Aulin è ovviamente il nome commerciale di fantasia del farmaco. In questa sede, non voglio discutere di funziona, non funziona, fa male allo stomaco, non fa male, le case farmaceutiche sono così, no sono così, ecc.. Ho preso un esempio pratico per parlare con nomi che sono noti a tutti.

Dunque, il principio attivo dell’Aulin è il Nimesulide, utile per tantissimi dolori come noto a chi ha assunto l’Aulin. Bene, il brevetto dell’Aulin è scaduto dunque, così come avviene, è possibile produrre un medicinale equivalente che non avrà un nome commerciale bensì il cui nome sarà solo il principio attivo, quindi Nimesulide.

Perché si dovrebbe comprare un generico piuttosto che un farmaco di marca? Il primo motivo è il prezzo. Per la legge, il generico deve costare almeno il 20% in meno dell’originale. In realtà, come tutti sanno, lo sconto tra il generico e l’equivalente arriva molto tranquillamente anche al 50%. Oltre a questo, ma su questo punto torneremo a breve, i due farmaci hanno esattamente lo stesso principio attivo, con le stesse quantità e con la stessa assunzione.

Prima domanda: perché il generico costa meno di quello di marca? Questa domanda ha portato negli anni molte risposte fantasiose che hanno creato tantissima confusione. Alcuni pensano addirittura che il generico costi meno perché prodotto in scantinati senza controlli, perché non testato secondo tutti i criteri di legge o perché sia prodotto con materie prime di qualità inferiore. Signori, sono medicinali, non scarpe da ginnastica!

Cosa significa? Poiché parliamo di medicinali, tutti i farmaci vengono controllati prima di poter essere immessi sul mercato, così come viene controllata la loro qualità farmaceutica e le condizioni in cui vengono prodotti. Perché allora costano di meno? Come scritto sopra, prima di poter arrivare in farmacia, un farmaco ha una fase di sperimentazione moto lunga, così come la fase precedente di ricerca vera e propria, che ha un costo notevole per le aziende farmaceutiche. Un farmaco generico, poiché contiene appunto lo stesso principio attivo “copiato” da quello di marca, non ha fase di ricerca, non deve essere sperimentato ma deve solo essere valutata la sua “bio-equivalenza”.

Bene, siamo arrivati al punto cardine della discussione, la bio-equivalenza tra i due farmaci, quello di marca e quello equivalente. Per prima cosa, continuando con il nostro esempio, se compro Aulin in granulato, dentro ci sono 100 mg di Nimesulide che vanno sciolti in acqua e bevuti. Bene, se comprate il generico Nimesulide granulato, ci trovate, ripeto per legge, la stessa quantità di principio attivo e da assumere esattamente con le stesse modalità.

Aspettate un attimo, stesso principio attivo, stessa quantità, stessa assunzione, perché si parla di bio-equivalenza? Semplice, per prima cosa, la legge impone la stessa quantità di principio attivo più o meno il 5%. In altre parole, potreste aver un farmaco equivalente con un 5% in più o in meno di principio attivo. Inoltre, la modalità di sintesi e produzione del principio attivo non deve essere identiche e, soprattutto, gli eccipienti dei medicinali possono essere completamente diversi.

Prima di tornare su questi punti, cerchiamo di capire come si determina la bio-equivalenza di due farmaci. Per prima cosa, si deve misurare la bio-disponibilità di un farmaco dopo l’assunzione. Esempio, prendo una bustina di Aulin, misuro la concentrazione nell’organismo del principio attivo e da queste misure determino il tempo necessario al farmaco per agire, cioè per arrivare la bersaglio, e il tempo in cui il principio attivo resta in circolo, cioè quanto tempo “dura l’effetto”. Bene, affinché due farmaci siano equivalenti, la legge impone che la loro bio-equivalenza non sia diversa di più del 20%.

Ecco un altro parametro che potrebbe dunque distinguere un generico dal farmaco di marca. L’equivalente potrebbe dunque contenere una quantità diversa al più di 5% di principio attivo e avere una equivalenza diversa al massimo del 20% da quello originale.

In tutto questo, c’è poi il discorso sugli eccipienti. Utilizziamo sempre il nostro esempio pratico per capire meglio la differenza di composizione tra due farmaci. Se leggete la composizione di un qualsiasi medicinale, oltre al principio attivo trovate altre sostanze, i cosiddetti eccipienti, che servono per rendere maggiormente assimilabile il principio attivo, dare un sapore al medicinale o anche solo agglomerare meglio il farmaco stesso. Guardando ad esempio alla composizione dell’Aulin:

Aulin composizione

trovate che una compressa contiene: Docusato sodico, idrossipropilcellulosa, lattosio monoidrato, carbossimetilamido sodico A, cellulosa microcristallina, olio vegetale idrogenato, magnesio sterrato. Se invece prendiamo un medicinale Nimesulide equivalente:

Nimesulide Equivalente

Troviamo come eccipienti: Dioctil  sodio  solfosuccinato, idrossipropilcellulosa,  lattosio,  sodio  amido  glicolato,  cellulosa  microcristallina,  olio  di  ricino  idrogenato, magnesio stearato. Dunque, eccipienti simili ma non esattamente gli stessi.

Ora, sulla carta, gli eccipienti sono sostanze inerti che non non incidono sull’azione del principio attivo e per questo la legge impone solo il controllo sulla molecola attiva. In realtà, gli eccipienti possono avere effetti minori che però sono completamente soggettivi. In alcuni casi, eccipienti diversi possono determinare: differenza di disponibilità nell’organismo, aver effetti soggettivi più o meno sinergici con il principio attivo e, soprattutto, possono causare disturbi a chi assume il farmaco. Perché questo? Semplice, come sappiamo prima di assumere un qualsiasi farmaco è buona norma leggere il bugiardino. Per un paziente diabetico, ad esempio, è importante verificare che nel medicinale non sia presente il saccarosio come eccipiente. Allo stesso modo, un soggetto intollerante al lattosio non può assumere farmaci contenenti questo eccipiente. In altre parole, è possibile che un soggetto non possa assumere un farmaco di marca ma possa invece assumere il generico o viceversa.

A questo punto, dal punto di vista chimico abbiamo capito che i farmaci di marca e gli equivalenti contengono lo stesso principio attivo in quantità al massimo diverse del 5%, la bio-equivalenza dei due farmaci viene verificata entro un 20% per legge e gli eccipienti contenuti nei farmaci possono invece essere diversi. Detto questo, normalmente i farmaci equivalenti sono del tutto identici a quelli di marca, in altri casi possono risultare meno efficaci ma ci sono anche casi in cui i consumatori preferiscono un equivalente all’originale (ripensate al discorso delle intolleranze e degli eccipienti). Detto questo, occorre di volta in volta provare i due farmaci senza volersi incaponire sull’originale o sul generico a tutti i costi. Ricordatevi però che per legge il farmacista dovrebbe sempre chiedervi se volete il farmaco equivalente.

Solo per concludere, il risparmio portato alle casse dello stato utilizzando gli equivalenti è assolutamente notevole (parliamo di centinaia di milioni di euro all’anno risparmiati) e questo gettito extra può essere utilizzato (almeno dovrebbe) per migliorare il servizio sanitario e le strutture ospedaliere. In Italia, purtroppo, solo il 15% del mercato dei farmaci è occupato dai generici, indice del fatto che gli italiani si fidano ancora poco di questi medicinali. Solo per darvi un’idea, negli Stati Uniti i generici rappresentano il 75% del mercato mentre in Gran Bretagna, primato assoluto, arriviamo addirittura all’85% del totale dei farmaci venduti rappresentati da medicinali equivalenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Studiare le stelle da casa

4 Feb

Dopo qualche giorno di assenza, purtroppo, al contrario di quello che pensano i catastrofisti, il mio lavoro non e’ solo fare disinformazione attraverso questo blog, eccoci di nuovo qui con un articolo di scienza pura.

Come avrete sentito, solo qualche giorno fa, e’ stato inaugurata a Padova la macchina acceleratrice “Prima”. Per dirla semplicemente, si tratta di una macchina in grado di accelerare atomi fino ad energie di 16 milioni di Watt. Questa importante infrastruttura nasce da una collaborazione tra l’Istituto di Fisica Nucleare, il CNR, l’ENEA, l’Universita’ di Padova e le Acciaierie Venete.

Ovviamente parliamo di un grande successo per la ricerca italiana. Pensandoci bene, mi rendo pero’ conto di come un successo di questo tipo, possa risultare abbastanza difficile da capire per un non addetto ai lavori. Detto in altri termini: a cosa serve questa macchina?

Molto semplice, come spesso avviene, ricerche di questo tipo sono assolutamente multidisciplinari e possono servire per condurre studi su tantissimi settori. Tra questi, quello che sicuramente interessa di piu’ e’ senza dubbio lo studio della fusione nucleare controllata.

Di fusione abbiamo parlato in diversi articoli:

Sole: quanta confusione!

La stella in laboratorio

mostrando come questo sia il processo attraverso il quale le stelle, e ovviamente il nostro Sole,  producono energia.  Purtroppo, ad oggi, non siamo ancora stati capaci di sfruttare la fusione per produrre energia per noi. Per essere piu’ precisi, ancora non siamo riusciti a realizzare un processo in cui l’energia necessaria per attivare la fusione sia maggiore di quella che poi viene data all’esterno. Detto in parole povere, ad oggi abbiamo ancora un processo “in cui ci rimettiamo”, cioe’ diamo piu’ energia rispetto a quella che otteniamo in uscita.

Una delle chimere della fusione nucleare, e’ senza dubbio il discorso della fusione fredda e di tutti quei processi che gli ruotano intorno. Anche di questi processi abbiamo parlato diverse volte in articoli come questi:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come sapete bene, e come potete verificare leggendo gli articoli citati, la nostra posizione non e’ mai stata di chiusura totale verso queste ipotesi solo che, e su questo non ho mai trovato una smentita reale e credibile, ad oggi non ci sono le prove necessarie per dimostrare scientificamente che queste soluzioni, ed in particolare l’E-Cat, siano in grado di funzionare.

Fatta questa doverosa premessa, torniamo a parlare di PRIMA.

Come visto negli articoli specifici sulla fusione, la ricerca ufficiale sta investendo molte risorse in alcuni progetti europei e mondiali di notevole portata. Tra questi, ruolo d’eccezione spetta sicurametne ad ITER. Come sapete bene, si tratta di un primo prototipio su grande scala di un reattore a fusione per ricerca. Tra alti e bassi, la costruzione di questa importante pietra miliare nella storia della fusione sta procedendo in Francia e speriamo possa portare i risultati sperati ed in grado di aprire le porte alla produzione di energia mediante la fusione mnucleare.

La macchina PRIMA studiera’ proprio la parte di, definiamola cosi’, iniezione di ITER, cioe’ il fascio neutro che servira’ per riscaldare il plasma fino alle temperature richieste per far partire la fusione. Oltre ad ITER, la macchina servira’ anche per studiare i materiali piu’ adatti per contenere la fusione e che saranno un punto molto importante anche nella costruzione del primo reattore, chiamato IFMIF, che sara’ costruito in Giappone.

Prima di chiudere, vorrei invitarvi ad una riflessione. Permettemi di riprendere quanto detto un po’ di tempo fa in questi articoli:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

Prima di tutto, gli studi condotti per la costruzione dei magneti di LHC sono stati fondamentali per la costruzione dei magneti da utilizzare su PRIMA. Questo solo per dire come la ricerca non e’ mai fine a se stessa ma consente di farci applicare studi condotti su un particolare settore a qualcosa di diverso, non dovendo ogni volta ripartire da zero. Oltre a questo, per parlare invece di economia, la costruzione di macchine di questo tipo mettono sempre in moto un’economia assolutamente non trascurabile. Cosi’ come e’ avvenuto per LHC, anche per PRIMA ci sono state importanti commesse per le aziende italiane non solo legate alla costruzione di magneti. Questo solo per ribadire come i soldi dati alla ricerca rappresentino sempre un investimento. Purtroppo, il tasso di interesse o i tempi per poter maturare questo tasso non sono sempre scritti o sicuri anzi, lasciatemi dire, possono maturare in settori completamente diversi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La sequenza sismica del Matese

22 Gen

Dopo il primo articolo comparso qualche settimana fa:

Cos’e’ successo in Sardegna?

la nostra cara amica Patrizia ha deciso di concederci il bis, con un nuovo post sulla sismologia della nostra penisola. Questa volta ci spostiamo nel matese per capire cosa sta succedendo nella zona, se veramente e’ in corso uno sciame sismico come qualcuno sostiene e, soprattutto, per far capire alle popolazioni del posto come comportarsi. Chi meglio di una geologa puo’ raccontarci queste notizie?

Da Patrizia: La sequenza del Matese

 

Il 29 dicembre 2013, alle 18.08, si è verificato un terremoto di magnitudo 4.9 nella zona del Matese, in Campania, tra le province di Caserta e Benevento (figura 1), con  una profondità ipocentrale di 10,5 km. Pochi minuti prima la RSN (Rete Sismica Nazionale) ha registrato nella stessa area un evento di magnitudo 2.7.  Numerose sono state le scosse di assestamento successive, con magnitudo inferiore.

Oggi, 20 gennaio 2014, alle 08.12 , nella zona in esame si è avuto un nuovo evento importante di magnitudo 4.2, ad una profondità di 11,1 km.

A sinistra: Fig.1, Epicentro del terremoto del 29/12/13. A destra: Fig.2, Sequenza sismica del Matese.

A sinistra: Fig.1, Epicentro del terremoto del 29/12/13. A destra: Fig.2, Sequenza sismica del Matese.

 

Nel Matese è dunque palesemente in atto una sequenza sismica (figura 2).

Ormai siamo abituati a sentir parlare di sequenza sismica e spesso ci chiediamo se c’è un collegamento tra le diverse sequenze in atto sul territorio nazionale. Per sapere se c’è davvero un nesso geologico tra i terremoti registrati in Italia dalla RSN dobbiamo capire la geodinamica dell’area italiana. Quando parliamo di geodinamica prendiamo in considerazione  il movimento delle placche tettoniche. Il territorio italiano si trova nella zona di incontro/scontro tra la placca euroasiatica e la placca africana. In particolare, nell’Italia meridionale, l’interazione tra le due placche è accompagnata da un processo di subduzione testimoniato proprio dall’attività sismica intermedia e profonda. Detto in altri termini, la placca africana si infila sotto quella euroasiatica, dando luogo ai terremoti che si registrano lungo l’Appennino centro-meridionale.

fig3

Alla base delle sequenze sismiche degli ultimi tempi (Pollino, Gubbio, Matese) c’è quindi lo stesso meccanismo genetico. Nella figura 3 è indicato il meccanismo focale del terremoto del 29/12/13. Il meccanismo focale di un terremoto è dato dall’individuazione del piano di faglia e del movimento relativo delle rocce lungo tale piano ed è  rappresentato graficamente da un “pallone”. Nel caso specifico, il meccanismo focale ci indica che si è attivata una faglia distensiva con andamento NW-SE, detta faglia appenninica, come si vede dalla forma riportata nella figura.

Per capire come si muovono le rocce lungo il piano di faglia, consideriamo due fogli di carta in formato A4 e incolliamoli in corrispondenza del lato lungo con 3 o 4 punti di colla. Per scollarli esercitiamo una certa pressione dall’alto verso il basso in corrispondenza dei punti di colla. Progressivamente la colla cederà e i fogli si staccheranno. Analogamente, lungo un piano di faglia le rocce si frattureranno quando l’energia accumulata supererà il loro punto di rottura e libereranno questa energia come onde sismiche. La fatturazione può avvenire lungo uno o più punti (come il distacco dei due fogli di carta lungo i punti di colla).  In particolare la faglia sismogenetica del Matese che ha dato luogo al terremoto di fine anno risulta segmentata da una serie di faglie perpendicolari. Se il movimento delle rocce è avvenuto lungo un segmento di faglia, la “turbolenza” è stata trasmessa agli altri segmenti cioè la rottura in un punto ha alterato lo stato di sforzo delle porzioni di roccia adiacenti. In questo caso, siamo in presenza di un sottosuolo tettonicamente instabile e questo significa che nella stessa zona si possono verificare altri terremoti.

Fig.4: Terremoti storici nell’area del terremoto del 29/12/2013

Fig.4: Terremoti storici nell’area del terremoto del 29/12/2013

I dati della sismicità storica evidenziano tre eventi catastrofici nella zona in esame (figura 4):

1)    5/12/1456  (magnitudo intorno a 7)

2)    5/6/1688   (magnitudo intorno a 7)

3)    26/7/1805 (magnitudo 6.6)

Sempre nel distretto sismico del Matese, ma con altri epicentri, ricordiamo due eventi analogamente violenti nel XX secolo:

1)    21/8/1962  fra Sannio e Irpinia (magnitudo 6.1)

2)    23/11/1980 Irpinia (magnitudo 6.9)

Nonostante i dati storici a disposizione sul reale rischio sismico, la zona in esame fino al 1984 non era nemmeno classificata come sismica. Dal 1984 al 2002 è stata considerata a media sismicità. Solo dopo il 2002 è stata classificata come zona ad alta sismicità (figura 5):

Fig.5: Mappa di pericolosità sismica

Fig.5: Mappa di pericolosità sismica

Allo stato attuale delle conoscenze, non si è in grado di stabilire quanta energia sismica entri in gioco nel movimento delle placche dal momento che non è possibile investigare il sottosuolo oltre i 10 km di profondità e non è possibile riprodurre in laboratorio gli stati di sforzo cui sono sottoposte le rocce in queste condizioni. Questo significa che non si può prevedere il trend evolutivo della sequenza sismica che stiamo esaminando. Nessuno può indicare con esattezza dove, quando e se si verificherà un nuovo evento catastrofico. E’ probabile che l’energia accumulata si scaricherà attraverso una serie di eventi come quelli finora registrati. Siamo comunque nel campo delle ipotesi.

Senza alcuna intenzione polemica, mi dissocio da chi ha suggerito alla gente di dormire in auto per qualche notte. Piuttosto inviterei le persone interessate a verificare lo stato di agibilità delle proprie abitazioni e di ricorrere, se necessario, all’ospitalità di parenti/amici/conoscenti residenti in zone non a rischio. Logicamente, deve restare alto il livello di guardia per le autorità competenti affinché si mettano in sicurezza gli edifici non a norma.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tanti auguri WWW

2 Mag

Dell’utilita’ della ricerca scientifica abbiamo parlato tante volte. In particolar modo, si e’ cercato di mettere in evidenza non solo le scoperte scientifiche, che spesso lasciano indifferenti molti non addetti ai lavori, ma soprattutto, le innovazioni in campo tecnologico e anche l’indotto economico che la ricerca puo’ apportare nella nostra societa’:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

Parlando di invenzioni e innovazioni sviluppate nell’ambito della ricerca e poi entrate di diritto nella vita di tutti i giorni, sicuramente il WEB, o meglio il World Wide Web, e’ quella piu’ conosciuta sia per origine che per attuale utilizzo.

Come sicuramente avrete letto su moltissimi giornali e siti internet, il 30 Aprile il WWW ha festeggiato i suoi primi 20 anni di vita. Per essere pignoli, non si parla di 20 anni di vita, ma di 20 anni di utilizzo pubblico.

Come e’ noto, il WWW venne sviluppato al CERN di Ginevra per facilitare lo scambio di file tra i ricercatori che operavano nei vari progetti. Dal momento che ho letto molte cose inesatte in giro per la rete, credo sia il caso di capire meglio alcuni concetti chiave ma soprattutto di ripercorrere le tappe che hanno portato all’utilizzo mondiale della “grande ragnatela”.

Spesso, si considerano come sinonimi “internet” e “www”, ovviamente sbagliando. Mentre internet e’ la grande rete che mette in connessione i computer di tutto il mondo, il WWW e’ un servizio della rete che consente di accedere a moltissimi contenuti attraverso pagine e navigando tramite i link presenti. Si parla di ragnatela perche’ i nodi che compongono il web sono collegati tra loro attraverso i collegamenti, formando un enorme ipertesto navigabile. Tutti questi servizi sono resi disponibili attraverso dei server che ospitano le pagine e a cui l’utente accede visitando i vari collegamenti.

Il primo server WEB della storia

Il primo server WEB della storia

Il web venne pensato da Tim Berners-Lee, un ricercatore del CERN, gia’ nel 1989. Lo stesso ricercatore racconta di aver avuto l’idea del web osservando il modo in cui un gruppo di ricercatori italiani scambiavano dati attraverso la linea telefonica e visualizzando le informazioni su terminali. Proprio da questo primitivo modo di scambio dei dati, Berners-Lee ebbe la sua idea, creare una ragnatela di connessioni per fare in modo che le informazioni fossero facilmente raggiungibili da tutti.

Proprio nel 1989, Berners-Lee presento’ il suo progetto e inizio’ a scrivere il codice necessario per realizzare la sua idea. Il 6 Agosto 1991 e’ il vero giorno della nascita del web. Proprio in questa data venne messo online il primo server web, chiamato NEXT, attraverso cui i ricercatori potevano scambiare informazioni.

Non pensate al web come lo conoscete adesso, si trattava di pagine statiche visualizzabili con il programma Conkeror, il primo browser della storia. Ecco un’immagine della prima pagina web in assoluto:

La prima pagina WWW della storia

La prima pagina WWW della storia

Attraverso i collegamenti ipertestuali era possibile navigare nelle pagine e anche capire come funzionava questa novita’ assoluta.

Nel giro di poco tempo, vennero create diverse pagine web caricate sul server, creando proprio la prima ragnatela tutta interna al CERN:

Uno screenshot delle pagine web del CERN

Uno screenshot delle pagine web del CERN

Dunque? Perche’ si parla di 30 Aprile 1993? Come detto, la data di collegamento del primo server e’ del 1991 e nei due anni successivi vennero create diverse pagine dal momento che i ricercatori cominciarono subito a sfruttare questo potente mezzo che semplificava notevolmente lo scambio di dati.

Proprio il successo del web, porto’ il CERN ad una decisione storica: il 30 Aprile 1993 il CERN decise di rendere pubblico l’utilizzo del web rinunciando a tutti i diritti d’autore. Questo e’ un esempio sublime di innovazione apportata dalla ricerca e donata al mondo intero. Oggi, ogni qual volta navigate in rete, attraverso pagine che divengono sempre piu’ complesse e interattive, state utilizzando proprio l’evoluzione di questa prima invenzione fatta al CERN. Come detto, rinunciando a qualsiasi diritto d’autore.

In un mondo come il nostro, in cui le grandi aziende di prodotti di alta tecnologia e di sviluppo software passano la maggior parte del tempo facendosi causa per la paternita’ di questo o quest’altro pezzo, forse si dovrebbe ricordare quanto avvenuto solo 20 anni fa.

Per festeggiare i 20 anni del WEB, il CERN ha deciso di ricaricare le prime storiche pagine sul suo sito in modo da mostrare a tutti cosa significasse navigare a quel tempo. Vi consiglio vivamente di visitare questo link e di fare un tuffo nei primi anni ’90:

CERN, WEB 1993

Oltre che per gli ovvi motivi di festeggiamento, il CERN ha deciso di creare un apposito progetto proprio per fare in modo che la storia di questa importante invenzione non vada persa. Come potete vedere, le pagine sono perfettamente navigabili e sono proprio costruite utilizzando i primi algoritmi implementati nel 1993.

Visto che proprio grazie a questa invenzione, oggi noi siamo qui a leggere questi articoli, non possiamo che fare gli auguri al web per i suoi primi 20 anni, o meglio 22 se partiamo dal 1991.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La fine del mondo e’ vicina, parola della CG

21 Lug

Lo scopo principale di questo blog, come ormai sapete, non e’ solo quello di aggiornarvi sugli eventi e sulle profezie per il 21 Dicembre 2012, bensi’ e’ quello di mostrare come la maggior parte di questi presunti eventi possano essere smentiti semplicemente ragionando.

Il ragionamento sui dati “veri” e’ alla base dell’approccio scientifico. Troppo spesso vengono profetizzate catastrofi sulla base di nulla. Partendo da qualcosa che ha una probabilita’, seppur minima, di accadere, ci si ricama sopra in maniera esagerata fino a voler convincere che questo evento sta per accadere.

In diversi post abbiamo parlato del tema alieni:

Salviamo i nostri amici

I documenti inglesi sugli UFO ora disponibili

come sapete ampio spazio alla discussione scientifica sull’esistenza e su un’invasione extraterrestre e’ stato dato nel libro Psicosi 2012. Le risposte della scienza.

Vogliamo ora tornare su questo argomento parlando della cosiddetta “Confederazione Galattica di Luce”, abbreviato in CG.

La Confederazione Galattica, a volte indicata anche come “di Luce” o “della Via Lattea”, sarebbe stata fondata 4.5 milioni di anni fa, con il compito di impedire la dominazione di pianeti liberi ad opera di razze particolarmente aggressive. La CG sarebbe divisa in diversi concili: il concilio di Nibiru, il concilio Siriano, il concilio Lyrano e quello di Orione. La Terra sarebbe entrata nella confederazione il 5 marzo 1993 e farebbe parte del concilio Siriano. Al momento non sarebbe ancora di fatto nella CG, ma sarebbe considerata una zona di frontiera che entrera’ nel futuro come membro a tutti gli effetti del “Consiglio Stellare”.

Lo stemma della Confederazione Galattica

Il “vantaggio” di essere un membro in prova della CG sarebbe che le razze superiori alla nostra possono preparare nella legalita’ la missione di salvataggio della Terra. Per fare questo, alcune persone tra gli essere umani sarebbero state scelte per far parte del gruppo di contatto, cioe’ persone in grado di ricevere i messaggi della Confederazione e preparare in questo modo la missione di sbarco sul nostro pianeta.

Fin qui ovviamente non c’e’ neanche lontanamente l’ombra di un dato o di una prova di quanto affermato. Mi sembra evidente che la fantasia di alcune persone superi veramente ogni limite. Attenzione, non stiamo facendo il San Tommaso della situazione, ma sapete bene che per dimostrare scientificamente e oggettivamente una qualsiasi teoria e’ necessario mostrare i dati, cioe’ le prove di quanto detto.

Perche’ siamo andati a pescare queste “informazioni”?

Proprio in questi giorni, e’ apparso in rete un video della Confederazione Galattica che ci avverte dell’imminente fine del mondo. Secondo il video, i membri della CG avrebbero avvertito il gruppo di contatto di ingenti catastrofi che si scateneranno in questi giorni sulla Terra.

Trovate il video a questo indirizzo:

Video CG

Il video dura piu’ di un’ora, ma ascoltate almeno i primi 5 minuti, sono sufficienti per capire di cosa stiamo parlando.

Razze insettoidi a cui sono state strappate le zampe, imminenti catastrofi, odore di zolfo che non si sa da dove proviene, come detto, la fantasia a volte non ha proprio limiti.

Non  mi sembra che ci sia da discutere oltre su questo argomento. E’ inutile parlare di dati, visti gli argomenti del video. Mi sono limitato a portarvi la notizia e a ragionare su questa, solo perche’ siamo di fronte all’ennesima profezia per la fine del mondo nel 2012. In questo caso, non mi sembra ci sia molto da discutere, il video si smentisce da solo.

In un mare di fandonie sul 2012, ci sono in realta’ una serie di profezie che meritano un approfondimento dal punto di vista scientifico. Molte di queste sono state analizzate anche su questo blog e di altre parleremo nei prossimi giorni. Per un’analisi specifica dei principali eventi ipotizzati per il 2012, non perdete in libreria Psicosi 2012. Le risposte della scienza.