Tag Archives: uomo

A proposito di campo geomagnetico

31 Ott

di Patrizia Esposito

————————————-

Ipotizziamo di dover misurare la temperatura del nostro corpo: fa differenza se mettiamo il termometro direttamente a contatto con la pelle o se lo appoggiamo sopra i vestiti? Lasciamo per un momento la domanda in sospeso e parliamo di una particolare categoria di inquinanti organici, i cosiddetti POPs (Persistent Organic Pollutants).

Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l'uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Fig.1: Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l’uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Si tratta di pesticidi (aldrin, DDT, eptacloro), prodotti industriali (PCB) e sottoprodotti non desiderati di certi processi (diossine e furani), regolamentati (poco efficacemente?) nel loro utilizzo e smaltimento dalla Convenzione di Stoccolma del 2001 e sul banco degli imputati con l’accusa di essere sostanze altamente tossiche per l’ambiente e per l’uomo (figura 1) e responsabili del cambiamento climatico. Le peculiari caratteristiche chimico-fisiche dei POPs li rendono, infatti, persistenti (figura 2) ,bioaccumulabili e trasportabili su lunghe distanze.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

La proprietà per la quale questi composti si legano ai tessuti adiposi dei vertebrati si chiama lipofilicità e fa sì che questi inquinanti entrino nelle catene alimentari. Mentre è nota come effetto grass-hopper (figura 3) la modalità di trasporto su lunghe distanze, dovuta a determinati valori della tensione di vapore, della costante della legge di Henry e del coefficiente di partizione ottanolo-aria, e che consiste nell’evaporazione di questi composti dall’acqua e dal suolo, nel trasporto in atmosfera e nella loro deposizione su superfici acquatiche e terrestri. In pratica i POPs, nelle zone tropicali e temperate evaporano, subiscono un trasporto atmosferico che segue l’andamento dei meridiani terrestri, condensano nelle zone fredde come i poli e le grandi catene montuose e si accumulano nei vari compartimenti ambientali. Ecco perché si ritrovano in alte concentrazioni in zone lontane da quelle di produzione.

Fig.3: Effetto Grass-Hopper

Fig.3: Effetto Grass-Hopper

Sic stantibus rebus, i POPs rivestono il nostro pianeta come una pellicola e sono riconosciuti come una concausa dell’effetto serra. E se, oltre ad avere un’influenza sul clima globale, avessero una qualche interazione con il campo magnetico terrestre? Di preciso: le misurazioni del campo geomagnetico avrebbero gli stessi valori se non ci fossero i POPs? La risposta alla domanda iniziale è abbastanza palese: non è lo stesso appoggiare il termometro sui vestiti o direttamente sulla pelle. La risoluzione del quesito finale invece non è altrettanto immediata. Ma è lecito pensare che le misurazioni del campo magnetico possano essere alterate dalla presenza ubiquitaria di questi composti e che l’indebolimento del campo stesso (del quale si continua a parlare e sparlare) sia solo apparente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il suono più forte mai udito!

12 Ott

Dopo questo articolo:

Il suono del vinile

vi riporto la seconda domanda che mi è stata posta in questi giorni via mail da alcuni nostri lettori. La domanda in realtà è una richiesta di conferma circa un articolo pubblicato da Pianeta Blu News, che cito senza problemi e che, come già detto, vi consiglio di visitare, che in questo pezzo:

Pianeta Blu, Krakatoa

afferma che il suono più forte mai udito in epoca moderna dall’uomo è quello che si è generato in occasione dell’eruzione del vulcano Krakatoa il 27 agosto 1883.

Vi premetto subito che quanto affermato nell’articolo è assolutamente corretto. In occasione di questa eruzione esplosiva, venne generato un boato che oggi possiamo stimare di 172 decibel fino a 160 Km di distanza.

Per darvi una stima di quanto potente sia un rumore di 172 decibel proviamo a fare degli esempi pratici utili per confrontare questi valori espressi in una scala poco familiare ai più.

Per prima cosa, se vogliamo essere formali dal punto di vista scientifico, in acustica si utilizzano i dB_SPL per indicare il livello di pressione acustica. Questa definizione è alquanto intuitiva se pensiamo che i suoni che noi udiamo sono semplicemente prodotti dalla pressione dell’aria che giuge ai nostri timpani mettendoli in vibrazione. Utilizzando questa unità di misura, wikipedia riporta una tabella molto istruttiva con diverse fonti sonore accompagnate con il corrispondente suono in dB_SPL:

dBSPL Sorgente
300 Eruzione del Krakatoa nel 1883
250 All’interno di un tornado
180 Razzo al decollo
140 Colpo di pistola a 1 m, auto di Formula 1
130 Soglia del dolore
125 Aereo al decollo a 50 m
120 Sirena,
110 Motosega a 1 m
100 Discoteca, concerto rock
90 Urlo, fischietto
80 Camion pesante a 1 m
70 Aspirapolvere a 1 m; radio ad alto volume
60 Ufficio rumoroso, radio, conversazione
50 Ambiente domestico; teatro a 10 m
40 Quartiere abitato, di notte
30 Sussurri a 1 m
20 Respiro umano
0 Soglia dell’udibile
-9 Camera anecoica

Considerando che la scala in dB è una scala logaritmica, c’è una notevole differenza, ad esempio, tra l’eruzione del Krakatoa e il rumore prodotto da un razzo al decollo, facilmente identificabile come un suono di notevole intensità.

Detto questo, sempre per farvi capire il livello del suono prodotto dall’esplosione del Krakatoa, pensate che il boato venne udito chiaramente fino a 5000 km di distanza. Chiunque si fosse trovato ad una distanza inferiore ai 100Km, come accaduto ad alcuni occupanti di una nava di passaggio nei pressi dell’isola, avrebbe avuto danneggiamenti permanenti ai timpani.

Anche se l’eruzione del vulcano non causò morti direttamente, le conseguenze dell’esplosione furono devastanti. Ad oggi, si stimano circa 36000 morti dovuti in larga parte al successivo Tsunami, di 45 metri, che si creò.

Esistono anche delle curiosità molti interessanti sull’eruzione del Krakatoa. Durante l’esplosione, vennero riversati in atmosfera 21 kilometri cubi di roccia e fumi. Queste emissioni, modificarono a lungo non solo la zona dell’eruzione, ma portarono conseguenze all’intero pianeta. Per farvi un esempio, l’illustratore britannico William Ashcroft notò in quel periodo che i colori dei tramonti visibili dalla sua cittadina, vicina a Londra, erano cambiati. Il motivo di questo è oggi molto comprensibile. L’enorme quantità di sedimenti rilasciati in atmosfera, provocarono effetti ottici alla luce solare, visibili chiaramente durante il tramonto che prese colori più accesi verso il rosso. Ashcroft dipinse diversi quadri dei tramonti dell’epoca e, ancora oggi, queste illustrazioni sono studiate dai climatologi per ottenere informazioni circa l’eruzione del vulcano Krakatoa.

Ecco una delle illustrazioni di William Ashcroft:

Opera di William Ashcroft

Opera di William Ashcroft

Solo per concludere, secondo alcuni esperti, anche un altro famoso dipinto riporterebbe colorazioni molto accese non per enfatizzare il tema trattato ma solo perchè quelli erano i colori visibili al momento della realizzazione. Sapete quale? Questo:

Munch, L'Urlo

Munch, L’Urlo

L’urlo di Munch, realizzato nel 1893, 10 anni dopo l’eruzione, sarebbe una “fotografia” dei reali colori del tramonto norvegese, resi più brillanti dall’eruzione del Krakatoa.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il metodo made in Italy per produrre Idrogeno

26 Lug

Da molti anni, ormai, sentiamo parlare di un futuro energetico incentrato sull’idrogeno. Molti, parlano di questo possibile combustibile addirittura speculando su un passaggio dall’era del petrolio a quella dell’idrogeno. Come tutti sappiamo, questa soluzione potrebbe essere utilizzata in tantissimi settori. Anche se il più noto, e lasciatemi dire su cui tante leggende sono state create, è quello delle macchine alimentate a idrogeno, questo elemento potrebbe servire per produrre corrente elettrica ed energia nei più svariati settori industriali, consentendo, finalmente, di mettere da parte i fortemente inquinanti idrocarburi ma, soprattutto, l’economia basata su questi oli che non ha fatto altro che creare centri di potere, in primis, e guerre per l’appropriazione e lo sfruttamento dei giacimenti sparsi per il mondo.

Perché, ancora oggi, visto che molti parlano di una panacea di tutti i mali, non utilizziamo l’idrogeno?

Come sapete, molti parlano di poteri forti in grado di bloccare lo sviluppo di queste tecnologie per puri fini economici. Da un lato, queste affermazioni sono corrette. Non voglio nascondermi dietro un dito e dire che viviamo in un mondo ideale. Come tutti sanno, i soldi fanno andare l’acqua in salita ma, soprattutto, decidono dove l’acqua deve passare e dove no. Questo lato economico-oscuro non è però materia del nostro blog. Quello su cui invece vorrei spingere tutti a ragionare è il discorso prettamente energetico e ambientale dell’idrogeno.

Anche molti tra i cosiddetti esperti dell’energia, un po’ per secondi fini ma, mi dispiace dirlo, a volte anche per ignoranza, quando parlano di fonti alternative, dunque non solo idrogeno, dimenticano sempre di prendere in considerazione l’intera filiera del settore che non comprende solo l’utilizzo della risorsa ma anche la sua estrazione o eventuale produzione, stoccaggio, distribuzione, ecc.

Che cosa intendo con questo?

Facciamo un esempio pratico ma inventato. Immaginate di trovare una nuova fonte energetica che possa essere utilizzata per alimentare le automobili. Questa risorsa rende la vostra macchina assolutamente non inquinante e costa 1/10 della benzina. Bene, annunciate la vostra scoperta su internet e immediatamente si formerà un esercito di internauti pronti a parlare della vostra genialata e del fatto che la ricerca, insieme con qualche burocrate in giacca, cravatta e occhiali scuri, vi sta ostacolando. Scommetto che questa storiella ve ne ricorda tante altre sentite in questi anni. Dov’è il problema? Semplice, anche se il nostro carburante costa poco e non inquina, come si produce? Dove si estrae? Se per produrre questo carburante dovete utilizzare carbone, oli o elementi chimici che produrrebbero un effetto sull’atmosfera peggiore di quella dell’uso del petrolio, la vostra invenzione sarebbe ancora molto conveniente? Direi proprio di no.

Bene, questo è quello che vorrei far capire. Ogni qual volta si parla di qualcosa legato all’energia e all’inquinamento, dovete sempre mettere in conto tutti gli aspetti legati a quella determinata risorsa. Esempio pratico? I pannelli solari producono energia dalla fonte rinnovabile per eccellenza, il Sole. Nessuno però vi racconta mai dei costi di produzione dei pannelli o, soprattutto, di quelli di smaltimento dei pannelli ormai esausti. Tenendo conto di questi fattori, si deve ridimensionare molto il vantaggio ottenuto con l’uso di pannelli commerciali. Per carità, non voglio dire che questa soluzione debba essere scartata. Il mio pensiero vuole solo mostrare gli altri aspetti che spesso, soprattutto tra i sostenitori di una tecnologia, vengono completamente taciuti.

Perdonate questa mia lunga introduzione, ma quanto detto è, a mio avviso, importante per inquadrare al meglio la situazione.

Tornando ora al discorso idrogeno, come forse avrete letto, un team di ricercatori del CNR, per essere precisi della sezione di Firenze, ha trovato un nuovo processo di produzione dell’idrogeno che riesce a sfruttare i cosiddetti oli rinnovabili.

Perché è così interessante questa notizia? Alla luce di quanto detto sopra, ad oggi, esistono due modi principali di produzione dell’idrogeno, entrambi con criticità molto importanti. Il primo metodo di produzione consiste nell’estrazione dell’idrogeno dal metano. Per poter avviare il processo è però necessario ossigenare l’ambiente. In questo caso, la produzione di idrogeno è accompagnata da quella di anidride carbonica. Risultato? La produzione di CO2, come è noto, è da evitare per le conseguenze sull’ambiente. Vedete come le considerazioni iniziali ci consentono di fare ora un’analisi critica dell’intero processo?

Il secondo metodo possibile per la produzione dell’idrogeno è semplicemente basato sull’elettrolisi dell’acqua, cioè nella scomposizione di questa fonte nota e ampiamente disponibile in idrogeno e ossigeno. Quale sarebbe ora il rovescio della medaglia? Per fare l’elettrolisi dell’acqua occorre fornire molta energia, energia che deve ovviamente essere messa in conto quando si calcola il rendimento della risorsa. Esempio pratico, se per innescare l’elettrolisi utilizzate energia prodotta da fonti rinnovabili, questo contributo inquinante deve essere contabilizzato e l’idrogeno non è più così pulito. Oltre al problema del costo energetico di produzione, nel caso dell’elettrolisi si deve considerare anche il fattore sicurezza. Idrogeno e ossigeno vengono prodotti ad alte pressioni. Se, per puro caso, i due elementi vengono in contatto tra loro, si crea una miscela fortemente esplosiva.

Alla luce di quanto detto, credo che ora sia più chiaro a tutti il perché, escluso il discorso economico legato al petrolio, ancora oggi la futuribile economia dell’idrogeno ancora stenta a decollare.

Bene, quale sarebbe allora questo metodo made in Italy che i ricercatori del CNR hanno inventato? Come anticipato, questo sistema di produzione sfrutta gli alcoli rinnovabili. Credo che tutti abbiamo bene in mente cosa sia un alcol, perché però parliamo di rinnovabili? Detto molto semplicemente, si tratta degli alcoli, glicerolo, metanolo, ecc., prodotti dalle biomasse, quindi sfruttabili, rinnovabili e anche assolutamente diffuse.

Come funziona questo metodo?

Come noto alla chimica, rompere la molecola d’acqua in presenza di alcoli richiede molta meno energia rispetto a quella necessaria in presenza di sola acqua. Nessuno però, fino ad oggi, aveva pensato di sfruttare questa evidenza per la produzione di idrogeno. La vera innovazione di questo processo è nell’aggiunta di elettrodi nanostrutturati ricoperti di palladio che fungono da catalizzatori per il processo e raccolgono l’idrogeno prodotto nella reazione. A questo punto, immergendo gli elettrodi in una soluzione acquosa di alcoli è possibile rompere la molecola di acqua producendo idrogeno, evitando la formazione di ossigeno libero e, soprattutto, risparmiando il 60% dell’energia rispetto all’elettrolisi.

Come annunciato anche dagli stessi ricercatori, questo sistema potrà servire in un primo momento per la produzione di batterie portatili in grado di fornire energia in luoghi isolati e, a seguito di ulteriori ricerche e perfezionamenti, potrà essere sfruttato anche per la realizzazione di generatori da qualche KWh fino a potenze più alte.

Apro e chiudo parentesi, non per essere polemico ma per mostrare l’ambito nel quale molto spesso le ricerche si svolgono. Il gruppo di ricerca è riuscito a trovare i finanziamenti per i suoi studi perché al progetto hanno partecipato alcuni enti privati finanziatori, tra cui il credito cooperativo di Firenze.

Solo per concludere, e giusto per ricalcare nuovamente il fatto che la ricerca non si è dimenticata dell’idrogeno, anche a livello governativo, nelle direttive per l’obiettivo 2020 è stato imposto un target di 45KWh per la produzione di 1 Kg di idrogeno. Obiettivo considerato futuribile fino ad oggi ma che richiedeva ricerca aggiuntiva sui sistemi di produzione. Bene, il metodo inventato dal CNR richiede soltanto 18.5KWh per produrre 1 Kg di idrogeno. Direi che questo rende sicuramente il processo economicamente vantaggioso e apre finalmente le porte a un utilizzo, che sarà sempre e comunque graduale, di questa risorsa nella vita di tutti i giorni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Farmaci branded o equivalenti?

12 Lug

Stamattina entro in farmacia e mi metto in una delle due file che si erano create al banco. Mentre ero li, ascolto per due volte al stessa domanda rivolta dal farmacista al cliente di turno che aveva chiesto un medicinale: vuole l’originale o il generico? Due domande, due risposte diverse. Una signora ha detto: mi dia il generico tanto è la stessa cosa e costa di meno, mentre l’altra ha risposto: no grazie, mi dia quello originale perché l’altro non funziona.

Sentendo queste due risposte completamente agli antipodi per la stessa domanda, mi è tornata in mente la discussione che diverse volte ho ascoltato, anche da famigliari, sull’efficacia o meno dei farmaci generici. Poiché mi sembra che ci sia ancora tanta confusione a riguardo, credo sia interessante e importante sviscerare con un po’ più di dettaglio questo argomento.

Per prima cosa, il termine “farmaco generico” non è in realtà corretto ma deriva solo da una traduzione letterale del termine inglese “generic drugs”. Per essere precisi, il nome corretto da usare per questa tipologia di farmaci è “equivalenti”.

Bene, cosa sono i farmaci equivalenti?

Per rispondere a questa domanda, dovremmo partire dall’altra sponda del fiume, cioè dai farmaci “originali”, “branded” o come volete chiamarli. Insomma, quelli originali prodotti da qualche casa farmaceutica e che hanno, molto spesso, nomi di fantasia. Ora, come sapete, questi farmaci hanno normalmente un singolo principio attivo che caratterizza il prodotto e la sua efficacia curativa. Per la legge, la formazione del principio attivo è brevettabile per un periodo di 20 anni a partire dall’inizio della sperimentazione sull’uomo. Allo scadere di questo tempo, il principio attivo non è più “sotto licenza” e, come stabilito per legge, può essere prodotto da qualunque casa farmaceutica senza violare nessun diritto d’autore.

Capito come nascono i medicinali equivalenti? Una casa farmaceutica studia un nuovo principio attivo e inizia la lunga fase della sperimentazione. Come sappiamo bene, prima ancora di poter provare il medicinale su un campione umano di controllo sono necessari diversi stadi di sperimentazione in cui il farmaco può essere scartato per problematiche varie legate al suo utilizzo. Testata, in buona parte, la non pericolosità del farmaco e il suo potere curativo, inizia la sperimentazione sull’uomo, sempre sotto stretto controllo. Da qui inizia anche il periodo di brevetto, cioè i 20 anni di cui parlavamo prima. Se la fase di sperimentazione sull’uomo va a buon fine, il farmaco arriva, prodotto dalla casa farmaceutica, al banco della farmacia. Tenendo conto che la fase di sperimentazione sull’uomo normalmente dura dai 5 ai 10 anni, il reale periodo di vendita del medicinale sotto brevetto va dai 10 ai 15 anni.

Cosa succede quando il brevetto arriva a scadenza? Come anticipato, da questo momento in poi chiunque può produrre e commercializzare il principio attivo come base di farmaci diversi non “brandizzati”, appunto gli equivalenti.

Come vengono fatti questi farmaci? Ovviamente partendo dal principio attivo del farmaco di marca. Per fare un esempio concreto, proviamo a prendere un medicinale noto a tutti, l’Aulin, prima prodotto dalla Roche e poi dalla Angelini. Aulin è ovviamente il nome commerciale di fantasia del farmaco. In questa sede, non voglio discutere di funziona, non funziona, fa male allo stomaco, non fa male, le case farmaceutiche sono così, no sono così, ecc.. Ho preso un esempio pratico per parlare con nomi che sono noti a tutti.

Dunque, il principio attivo dell’Aulin è il Nimesulide, utile per tantissimi dolori come noto a chi ha assunto l’Aulin. Bene, il brevetto dell’Aulin è scaduto dunque, così come avviene, è possibile produrre un medicinale equivalente che non avrà un nome commerciale bensì il cui nome sarà solo il principio attivo, quindi Nimesulide.

Perché si dovrebbe comprare un generico piuttosto che un farmaco di marca? Il primo motivo è il prezzo. Per la legge, il generico deve costare almeno il 20% in meno dell’originale. In realtà, come tutti sanno, lo sconto tra il generico e l’equivalente arriva molto tranquillamente anche al 50%. Oltre a questo, ma su questo punto torneremo a breve, i due farmaci hanno esattamente lo stesso principio attivo, con le stesse quantità e con la stessa assunzione.

Prima domanda: perché il generico costa meno di quello di marca? Questa domanda ha portato negli anni molte risposte fantasiose che hanno creato tantissima confusione. Alcuni pensano addirittura che il generico costi meno perché prodotto in scantinati senza controlli, perché non testato secondo tutti i criteri di legge o perché sia prodotto con materie prime di qualità inferiore. Signori, sono medicinali, non scarpe da ginnastica!

Cosa significa? Poiché parliamo di medicinali, tutti i farmaci vengono controllati prima di poter essere immessi sul mercato, così come viene controllata la loro qualità farmaceutica e le condizioni in cui vengono prodotti. Perché allora costano di meno? Come scritto sopra, prima di poter arrivare in farmacia, un farmaco ha una fase di sperimentazione moto lunga, così come la fase precedente di ricerca vera e propria, che ha un costo notevole per le aziende farmaceutiche. Un farmaco generico, poiché contiene appunto lo stesso principio attivo “copiato” da quello di marca, non ha fase di ricerca, non deve essere sperimentato ma deve solo essere valutata la sua “bio-equivalenza”.

Bene, siamo arrivati al punto cardine della discussione, la bio-equivalenza tra i due farmaci, quello di marca e quello equivalente. Per prima cosa, continuando con il nostro esempio, se compro Aulin in granulato, dentro ci sono 100 mg di Nimesulide che vanno sciolti in acqua e bevuti. Bene, se comprate il generico Nimesulide granulato, ci trovate, ripeto per legge, la stessa quantità di principio attivo e da assumere esattamente con le stesse modalità.

Aspettate un attimo, stesso principio attivo, stessa quantità, stessa assunzione, perché si parla di bio-equivalenza? Semplice, per prima cosa, la legge impone la stessa quantità di principio attivo più o meno il 5%. In altre parole, potreste aver un farmaco equivalente con un 5% in più o in meno di principio attivo. Inoltre, la modalità di sintesi e produzione del principio attivo non deve essere identiche e, soprattutto, gli eccipienti dei medicinali possono essere completamente diversi.

Prima di tornare su questi punti, cerchiamo di capire come si determina la bio-equivalenza di due farmaci. Per prima cosa, si deve misurare la bio-disponibilità di un farmaco dopo l’assunzione. Esempio, prendo una bustina di Aulin, misuro la concentrazione nell’organismo del principio attivo e da queste misure determino il tempo necessario al farmaco per agire, cioè per arrivare la bersaglio, e il tempo in cui il principio attivo resta in circolo, cioè quanto tempo “dura l’effetto”. Bene, affinché due farmaci siano equivalenti, la legge impone che la loro bio-equivalenza non sia diversa di più del 20%.

Ecco un altro parametro che potrebbe dunque distinguere un generico dal farmaco di marca. L’equivalente potrebbe dunque contenere una quantità diversa al più di 5% di principio attivo e avere una equivalenza diversa al massimo del 20% da quello originale.

In tutto questo, c’è poi il discorso sugli eccipienti. Utilizziamo sempre il nostro esempio pratico per capire meglio la differenza di composizione tra due farmaci. Se leggete la composizione di un qualsiasi medicinale, oltre al principio attivo trovate altre sostanze, i cosiddetti eccipienti, che servono per rendere maggiormente assimilabile il principio attivo, dare un sapore al medicinale o anche solo agglomerare meglio il farmaco stesso. Guardando ad esempio alla composizione dell’Aulin:

Aulin composizione

trovate che una compressa contiene: Docusato sodico, idrossipropilcellulosa, lattosio monoidrato, carbossimetilamido sodico A, cellulosa microcristallina, olio vegetale idrogenato, magnesio sterrato. Se invece prendiamo un medicinale Nimesulide equivalente:

Nimesulide Equivalente

Troviamo come eccipienti: Dioctil  sodio  solfosuccinato, idrossipropilcellulosa,  lattosio,  sodio  amido  glicolato,  cellulosa  microcristallina,  olio  di  ricino  idrogenato, magnesio stearato. Dunque, eccipienti simili ma non esattamente gli stessi.

Ora, sulla carta, gli eccipienti sono sostanze inerti che non non incidono sull’azione del principio attivo e per questo la legge impone solo il controllo sulla molecola attiva. In realtà, gli eccipienti possono avere effetti minori che però sono completamente soggettivi. In alcuni casi, eccipienti diversi possono determinare: differenza di disponibilità nell’organismo, aver effetti soggettivi più o meno sinergici con il principio attivo e, soprattutto, possono causare disturbi a chi assume il farmaco. Perché questo? Semplice, come sappiamo prima di assumere un qualsiasi farmaco è buona norma leggere il bugiardino. Per un paziente diabetico, ad esempio, è importante verificare che nel medicinale non sia presente il saccarosio come eccipiente. Allo stesso modo, un soggetto intollerante al lattosio non può assumere farmaci contenenti questo eccipiente. In altre parole, è possibile che un soggetto non possa assumere un farmaco di marca ma possa invece assumere il generico o viceversa.

A questo punto, dal punto di vista chimico abbiamo capito che i farmaci di marca e gli equivalenti contengono lo stesso principio attivo in quantità al massimo diverse del 5%, la bio-equivalenza dei due farmaci viene verificata entro un 20% per legge e gli eccipienti contenuti nei farmaci possono invece essere diversi. Detto questo, normalmente i farmaci equivalenti sono del tutto identici a quelli di marca, in altri casi possono risultare meno efficaci ma ci sono anche casi in cui i consumatori preferiscono un equivalente all’originale (ripensate al discorso delle intolleranze e degli eccipienti). Detto questo, occorre di volta in volta provare i due farmaci senza volersi incaponire sull’originale o sul generico a tutti i costi. Ricordatevi però che per legge il farmacista dovrebbe sempre chiedervi se volete il farmaco equivalente.

Solo per concludere, il risparmio portato alle casse dello stato utilizzando gli equivalenti è assolutamente notevole (parliamo di centinaia di milioni di euro all’anno risparmiati) e questo gettito extra può essere utilizzato (almeno dovrebbe) per migliorare il servizio sanitario e le strutture ospedaliere. In Italia, purtroppo, solo il 15% del mercato dei farmaci è occupato dai generici, indice del fatto che gli italiani si fidano ancora poco di questi medicinali. Solo per darvi un’idea, negli Stati Uniti i generici rappresentano il 75% del mercato mentre in Gran Bretagna, primato assoluto, arriviamo addirittura all’85% del totale dei farmaci venduti rappresentati da medicinali equivalenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un futuro … robotico

13 Mar

Nell’immaginario collettivo dettato dai film e racconti di fantascienza, il nostro futuro dovrebbe essere popolato da robot umanoidi dotati di intelligenza propria ed in grado di comunicare, interagire e, perche’ no, contrapporsi agli stessi esseri umani che li hanno creati. Da decenni questi scenari futuristici vengono richiamati e su tematiche del genere si sono inventate tantissime storie e racconti. Il nostro livello tecnologico, per quanto, punto di vista personale, debba sempre essere migliorato ed e’ sempre un passo indietro a quello che vorremmo fare, non e’ assolutamente scarso eppure questi tanto citati scenari non si sono ancora visti.

Nonostante questo, e anche se molti lo ignorano, la tecnologia robotica ha fatto enormi passi avanti negli ultimi anni e molte operazioni, sia di routine che di elevata complessita’, sono gia’ eseguite dagli uomini coadiuvati da sistemi elettromeccanici. Spesso, questa simbiosi tecnologica e’ necessaria e utile per migliorare la precisione di determinate operazioni, altre volte invece e’ una vera e propria necessita’ fondamentale per supplire all’impossibilita’ di un intervento diretto dell’uomo.

Proprio da questo ultimo scenario vorrei partire per commentare una notizia apparsa sui giornali qualche giorno fa. Provate ad immaginare uno scenario di questo tipo: siamo su un’astronave lontana migliaia di kilometri da Terra. Un membro del nostro equipaggio ha un problema di salute importante che impone un intervento chirurgico di urgenza. Per quanto gli altri membri dell’equipaggio possono essere addestrati a situazioni di questo tipo, non e’ assolutamente possibile immaginare che tutti siano in grado di fare tutto in modo eccellente. Cosa fare per salvare la vita dell’uomo? In casi come questo, potrebbe intervenire un robot in grado di compiere operazioni chirurgiche anche delicate perche’ programmato ed istruito per farle oppure perche’ telecontrollato da un esperto sulla Terra o su un’altra navicella nello spazio.

Pensate sia fantascienza?

Proviamo a sostituire qualche soggetto della nostra storia. La navicella lontana dalla Terra e’ la Stazione Spaziale Internazionale, i membri dell’equipaggio sono gli astronauti provenienti da diversi paesi e che devono restare in orbita anche per periodi relativamente lunghi. Come vengono gestiti casi come quello raccontato sulla ISS? Per il momento, non c’e’ stato mai bisogno di operare d’urgenza un membro della stazione spaziale ma, come potete capire, e’ necessario predisporre piani di emergenza anche per far fronte a problemi come questo. Dal punto di vista medico, gli astronauti della stazione hanno in dotazione strumentazione di monitoraggio e controllo che possono usare autonomamente o aiutandosi in coppie.

Sicuramente un robot appositamente creato per questi scopi potrebbe coadiuvare gli astronauti sia nelle operazioni di routine che in casi di emergenza.

Questo e’ il pensiero che i tecnici NASA hanno avuto quando, qualche anno fa, hanno mandato sulla Stazione Spaziale il Robonaut 2, un robot umanoide che ancora oggi e’ in orbita intorno alla Terra. Inizialmente, il robot e’ stato inviato per aiutare gli astronauti nelle operazioni piu’ difficili ma anche per sostituirli in quelle piu’ banali e ripetitive che sottraggono inutilmente tempo al lavoro del team.

Il Robonaut 2 all'interno della Stazione Spaziale Internazionale

Il Robonaut 2 all’interno della Stazione Spaziale Internazionale

La storia del progetto inizia gia’ dal 1997 quando venne sviluppato un primo prototipo di Robonaut. Questo sistema era pensato per aiutare gli astronauti o sostituirli durante le attivita’ extraveicolari piu’ pericolose. Inoltre, poteva essere montato su un piccolo carro a 6 ruote trasformandolo in un piccolo rover intelligente per l’esplorazione in superficie della Luna o di altri corpi celesti.

Il progetto, come potete immaginare, risulto’ valido e dal 2006 e’ iniziata una stretta collaborazione tra la NASA e la General Motors per la costruzione di un sistema piu’ affidabile e da testare in orbita, appunto il Robonaut 2. Una volta arrivato sulla stazione, il robot venne lasciato imballato per diversi mesi a causa dell’elevato carico di lavoro degli astronauti, fino a quando venne messo in funzione quando nella stazione era presente anche il nostro Paolo Nespoli.

Ecco un video delle prime fasi di collaudo del Robonaut-2:

Come detto, il Robonaut 2 e’ un robot umanoide dotato di due braccia a 5 dita per un peso complessivo di 150Kg, escluse le gambe non previste in questa versione. Il costo di produzione e’ stato di circa 2.5 milioni di dollari per produrre un vero e proprio gioiello di elettronica. Il robot e’ dotato di 350 sensori, una telecamera 3D ad alta definizione, il tutto comandato da 38 processori Power PC. Il complesso sistema di snodi consente di avere 42 gradi di movimento indipendenti.

Addestramento del Robonaut 2 con un manichino

Addestramento del Robonaut 2 con un manichino

La notizia di questi giorni e’ relativa allo speciale addestramento che il Robonaut 2 sta seguendo per diventare un vero e proprio medico di bordo pronto a far fronte, autonomamente o su controllo da Terra, ad ogni intervento medico richiesto, da quelli di routine a, eventualmente, vere e proprie operazioni. Questo addestramento e’ seguito passo passo sia da medici che da tecnici NASA esperti di telecontrollo, dal momento che tutto verra’ poi seguito da Terra verso la Stazione Spaziale. Stando a quanto riportato anche dalla NASA, il Robonaut sarebbe gia’ in grado di eseguire piccoli interventi di routine e di fare prelievi e punture ad esseri umani. Ovviamente, per il momento la sperimentazione e’ fatta su manichini anche se il robot ha mostrato una straordinaria capacita’ di apprendimento e, ovviamente, una precisione e ripetivita’, difficilmente raggiungibili da una mano umana.

Come vedete, forse gli scenari fantascientifici da cui siamo partiti non sono poi cosi’ lontani. In questo caso, l’utilizzo di tecnologia robotica e’ necessario proprio per supplire all’impossibilita’ di intervento diretto da parte dell’uomo e sicuramente potrebbe essere in grado in un futuro molto prossimo di far fronte a situazioni altrimenti non gestibili.

Prima di chiudere vorrei pero’ aprire un ulteriore parentesi robotica. Se pensate che l’utilizzo di un sistema elettromeccanico in medicina sia una novita’ assoluta o se credete che sistemi di questo tipo siano appannaggio soltanto della Stazione Spaziale o di centri di ricerca futuristici, state sbagliando di grosso.

Vi mostro una foto di un altro robot, assolutamente non umanoide, ma con funzioni molto interessanti:

Il sistema robotico Da Vinci

Il sistema robotico Da Vinci

Questo e’ il Robot Da Vinci, proprio in onore del nostro Leonardo, utilizzato in moltissime sale operatorie di tutto il mondo.

Da Vinci e’ prodotto dalla ditta americana Intuitive Surgical e gia’ nel 2000 e’ stato approvato per l’uso in sala operatoria dalla Food and Drugs Administration. Questo sistema e’ dotato di diversi bracci elettromeccanici che consentono una liberta’ di movimento molto maggiore, e assai piu’ precisa, di quella di un polso umano. Il sistema e’ teleguidato da un medico lontano dalla sala operatoria al cui interno ci sono solo infermieri che di volta in volta posizionano lo strumento giusto nelle pinze del robot. Stando a quanto dichiarato, questo robot consente ovviamente di avere una affidabilita’ di ripetizione e precisione molto maggiore di quelle di un normale medico riuscendo ad operare limitando fino ad 1/3 il normale sangiunamento degli interventi piu’ complicati.

Dal sito della Intuitive Surgical si legge che ad oggi sono stati venduti piu’ di 700 di questi robot e pensate che in Italia quasi 70 sale operatorie sono attrezzate con questo sistema. Il numero di operazioni effettuate con questo robot e’ dell’ordine delle decine di migliaia.

E’ tutto oro quello che luccica?

Per completezza, e come siamo abituati a procedere, vi mostro anche il rovescio della medaglia. Rimanendo nel caso Da Vinci, anche in Italia, si sono formati tra i medici due schieramenti: quelli favorevoli al suo uso e quelli fortemente contrari. Perche’ questo? Se parliamo dei vantaggi del sistema, sicuramente una mano robotica consente di effetturare operazioni di routine con una precisione assoluta, d’altro canto pero’, ci sono molti medici che mettono in discussione il rapporto investimento/beneficio di un sistema del genere. Come potete facilmente immaginare, l’investimento richiesto per l’acquisto del robot e’ molto elevato con grossi guadagni dell’azienda e, soprattutto, delle banche che offrono finanziamenti agli ospedali. Inizialmente, il Da Vinci e’ stato sviluppato per le operazioni piu’ complesse o in cui il medico non riuscirebbe a lavorare facilmente. Si tratta ovviamente di operazioni in laparoscopia che tradizionalmente potrebbero essere eseguite con un investimento molto inferiore. Inoltre, visto lo sforzo economico per l’acquisto, molti degli ospedali che dispongono del robot tendono ad utilizzarlo anche per gli interventi piu’ facili al fine di sfruttare a pieno l’investimento fatto. Altro aspetto non da poco, il Da Vinci e’, ovviamente, coperto da decine di brevetti che creano un monopolio per la ditta costruttrice. Questo non fa altro che bloccare eventuali piccole startup che potrebbero migliorare notevolmente un sistema che, come detto, risale al 2000. Come discusso all’inizio dell’articolo, anno per anno la tecnologia cresce notevolmente ed un apparato del genere, per quanto complesso, potrebbe sempre essere migliorato con l’aggiunta di nuovi sistemi. Come vedete, al solito, le discussioni sono piu’ di natura economica che di utilizzo. Nonostante questo, il Da Vinci e’ un ottimo esempio di chirurgia robotica gia’ disponibile alla societa’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Quando la notizia e’ troppo pompata

19 Feb

A volte, chi scrive una notizia, giornalisti, persone comuni, curatori di blog, ecc, invece di riportare pedissequamente i fatti informando i lettori, si lascia andare a considerazioni esagerate. Per carita’, non facciamo i finti tonti, questo avviene piu’ spesso di quanto immaginiamo. Quello che pero’ dico e’: cercate di stare attenti, altrimenti rischiate di fare una figuraccia.

Con chi me la sto prendendo questa volta?

Qualche giorno fa e’ stata fatta circolare una notizia a mio avviso molto interessante. Prima di tutto vi riporto i fatti.

In Cina, precisamente nella contea di Chun’an, si trova un lago molto affascinante dal punto di vista paesaggistico. Sulla sua superificie sono infatti presenti diversi isolotti, alcuni solo di alcuni metri quadri, con una visuale mozzafiato incastonata tra alte e verdi motagne.

Guardate voi stessi che spettacolo naturale:

Lago Quindao in Cina

Lago Quindao in Cina

Ora, la notizia riguarda la presenza di una citta’ sommersa sotto la superificie del lago. Come e’ possibile? Semplice, il Quindao non e’ un lago naturale ma e’ stato realizzato artificialmente dall’uomo deviando le acque del fiume Xin’an. Il motivo e’ presto detto, creare un bacino per la vicina centrale idroelettrica. Oltre a questo, le acque del lago sono assolutamente potabili e vengono utilizzate per la produzione di una famosa acqua naturale venduta in Cina.

Quando e’ avvenuto tutto questo? Nel 1959.

Quando le acque hanno invaso la valle hanno sommerso tutto quello che c’era, compresa una citta’ imperiale nota con il nome di Lion City, cioe’ citta’ dei leoni. Si tratta di un antico insediamento urbano costruito tra il 25 e il 200 d.C. estremamente ricco di edifici storici con fregi di assoluta bellezza.

Possibile che si sia deciso di sommergere un capolavoro del genere per realizzare un bacino per una centrale?

La cosa non deve assolutamente sorprendere. Se siete mai andati in Cina, vi sarete resi conto del ritmo di costruzione del paese e soprattutto dell’immenso lavoro lasciato alle societa’ di costruzione edilizia. Normalmente, se c’e’ un edificio che presenta segni del tempo, piuttosto che ristrutturarlo e lavorarci, i cinesi preferiscono buttare giu’ e rifare da capo. Questo avviene anche per edifici storici. Nella visione economica, in questo modo si crea occupazione e si da lavoro. Giusto o sbagliato che sia, le regole del mercato economico cinese sono queste.

Purtroppo, un destino simile e’ stato riservato alla citta’ dei leoni.

Solo per curiosita’, vi mostro un’immagine, ovviamente sottomarina, della citta’:

Uno degli edifici di Lion City

Uno degli edifici di Lion City

Per completezza vi dico che la citta’ si trova ad una profondita’ tra 25 e 40 metri rispetto alla superificie e quando la valle e’ stata innondata, ripeto 1959, i quasi 300000 abitanti della zona sono stati trasferiti in altro luogo.

Notizia senza dubbio interessante, ma perche’ darla ora? Semplice, in questi ultimi giorni, una societa’ privata di diving ha iniziato ad organizzare escursioni subacquee guidate nella Lion City. Chiunque puo’ dunque visitare la citta’ sommersa della Cina ammirando i suoi spendidi palazzi che per oltre 50 anni sono rimasti indisturbati sotto le acque del lago Quindao.

La notizia e’ questa. Molti l’hanno riportata in modo corretto, ma tanti altri si sono lasciati andare ad esternazioni che rasentano la follia.

Perche’?

Il titolo che generalmente trovate per questa notizia e’: “L’Atlantide Cinese”. Appositamente creato per attirare l’attenzione dei lettori. Ma questo ci puo’ ancora stare.

Quello che pero’ lascia basiti e’ l’informazione che molti cercano di dare sul fatto che la citta’ e’ stata “scoperta” solo in questi giorni.

Scoperta in questi giorni? Stiamo scherzando? Ma non e’ stata sommersa nel 1959?

Vi riporto un estratto della notizia presa da uno dei tanti siti che conosciamo:

La ricerca di questa città perduta è iniziata nel 2002 e ci sono voluti diversi anni per trovarla, nascosta sotto l’acqua e la terra utilizzata per creare la base del lago.

Vi rendete conto? Secondo questi geni, nessuno sapeva dove fosse la citta’ e ci sono voluti 12 anni per ritrovarla. Poi, se capisco bene, una volta trovata cosa avrebbero fatto? Hanno scavato sott’acqua per riportare alla luce gli edifici?

Come capite bene, si tratta di una notizia interessante, ma che pompata in questo modo diviene veramente ridicola! Purtroppo questo avviene quando si cerca di fare giornalismo d’assalto. Le notizie sono affascinanti perche’ riportano la realta’ che puo’ capitare a tutti noi, evitate di costruire mondi immaginari e smettetela di fare a gara a chi la spara piu’ grossa!

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lenti a contatto smart!

20 Gen

Diversi giornali in questi ultimi giorni hanno pubblicato una notizia veramente interessante e che merita di essere analizzata meglio. Come forse avrete letto, Google ha reso noto uno dei suoi progetti per il futuro. Si tratta di una lente a contatto intelligente dotata di sensori per la rivelazione del glucosio.

A cosa serve?

Misurazioni di questo tipo divengono dei veri e propri salva-vita per le persone affette di diabete. Questa e’ ormai una patologia diffusissima a livello mondiale, con un numero di persone diabetiche che sfiora i 20 milioni. Come saprete, nei casi piu’ gravi e’ richiesto un continuo monitoraggio degli zuccheri nel sangue necessari per impedire conseguenze che possono essere anche molto gravi.

Prima osservazione, chi ha sviluppato questa speciale lente? Come avrete letto, il progetto viene direttamente dai laboratori chiamati Google-X. Si tratta di una divisione ricerca di Google strettamente top secret e di cui non si conosce neanche l’esatta ubicazione. I progetti curati da questo laboratorio, molti sulla robotica, sono gestiti direttamente dai fondtori di Google. Nei nostri precedenti articoli, abbiamo gia’ parlato di alcune invenzioni provenienti da questi laboratori. Esempio noto a tutti sono i Google Glass:

Realta’ aumentata. Quella virtuale e’ gia’ preistoria!

cosi’ come il progetto per portare la connessione internet nei luoghi piu’ isolati del pianeta mediante palloni sonda:

Internet dalla stratosfera

Cosa possiamo dire invece per queste lenti?

Prima di tutto, vi segnalo la pagina ufficiale di Google in cui viene anunciata l’invenzione:

Google, smart lens

Come vedete, si tratta di una speciale lente composta da un doppio strato. All’interno di questo sandwich viene alloggiato uno speciale circuito dotato di sensori per la misura del glucosio nella pellicola lacrimale. Nello strato interno viene infatti previsto uno speciale forellino per permettere il passaggio del liquido all’interno dove viene analizzato. Sempre nel circuito sono presenti sensori wireless per il collegamento ad un dispositivo remoto di lettura e dei led che possono essere utilizzati per inviare un segnale di allarme direttamente nell’occhio del paziente. Quest’ultimo sistema non e’ affatto non rilevante. Molto spesso infatti le persone possono dimenticarsi di controllare il livello di glucosio rischiando di avere conseguenze. Avere un led di pericolo sicuramente visibile non puo’ che aumentare la sicurezza del monitoraggio.

Ecco il circuito contenuto all’interno delle speciali lenti:

Le lenti a contatto realizzate da Google per la misura del glucosio

Le lenti a contatto realizzate da Google per la misura del glucosio

Per quanto riguarda i vantaggi di questa invenzione, non credo che sia necessario spendere molte parole poiche’ sono evidenti a tutti, in special modo a coloro che soffrono di diabete. Inoltre, tenete conto che oggi, i dispositivi di controllo maggiormente utilizzati prevedono un’analisi del sangue compiuta con continui e fastidiosissimi buchetti ai polpastrelli.

Come dichiarato anche da Google pero’, questo dispositivo e’ ancora in fase molto prototipale. Per prima cosa c’e’ da dire che non e’ assolutamente certo che la misurazione del glucosio mediante lo strato lacrimale sia affidabile e precisa. Ovviamente, le lecrime hanno un notevole contenuto di zucchero. Quello che ancora deve essere valutato, soprattutto perche’ dal punto di vista medico ci sono risultati in contrapposizione, e’ la correlazione tra le percentuali nelle lacrime e quelli nel sangue. Inoltre, deve essere studiata molto bene l’efficacia della misura sullo strato lacrimale. Sistemi alternativi prevedono un incremento della lacrimazione in modo artificiale, ma questo comporterebbe a sua volta una diluizione delle concentrazioni ricercate.

Concludendo, quello delle lenti intelligenti per diabetici e’ un progetto molto interessante ma ancora in fase prototipale. La stessa Google cerca collaborazioni con soggetti esperti del campo per verificare la bonta’ di questa intuizione. Dal punto di vista medico, la societa’ lavora anche a stretto contatto con la FDA americana e, gia’ oggi, e’ partita una sperimentazione su un uomo per valutare alcuni di questi punti oscuri ancora prsenti nel progetto. A questo punto, non resta che attendere gli sviluppianche perche’ Google prevede di poter mettere sul mercato questo prodotto entro 5 anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Piranha e clima impazzito in Argentina?

29 Dic

Notizia proprio di questi giorni e’ quella relativa agli attacchi da parte di Piranha impazziti nel tratto di fiume Parana’ vicino alla citta’ Argentina di Rosario. Sicuramente, avrete letto questa notizia su molti giornali a diffusione nazionale. Gli attacchi cominciano ad essere molto frequenti e, ad oggi, circa 60 persone sono state portate in ospedale per ferite varie da morso di questi pesci. Tra i feriti, purtroppo, c’e’ anche una bambina di 7 anni che ha perso gran parte di un dito per colpa di un morso.

Perche’ sto riportando questa notizia?

Semplice, al solito, per mostrare come una notizia di questo tipo possa essere ripresa, stravolta e utilizzata dai complottisti per portare avanti le loro tesi.

Come avrete letto sui giornali, i piranha vivono abitualmente nelle acque del fiume Paranha e gli abitanti del luogo hanno imparato a convivere con questa presenza.

Perche’ ci sono stati tutti questi attacchi negli ultimi giorni?

piranha-300x211

I giornali riportano, testuali parole, per l’eccessivo caldo e per le scarse precipitazioni che hanno abbassato molto il livello delle acque del fiume. Bene, come viene interpretata questa informazione da molti siti internet? C’e’ un caldo eccessivo, temperature oltre i 30 gradi “sotto Natale”. Vi rendete conto? Siamo a pochi giorni dal Natale e gli abitanti di Rosario stanno facendo il bagno nel fiume per combattere un’afa che non da tregua con temperature oltre i 30 gradi! Perche’ avviene questo? Semplice, e’ un altro evidente segnale di come l’uomo stia modificando il clima a suo piacimento. Non e’ assolutamente concepibile che a Natale ci siano 30 gradi e che la gente sia costretta a fare il bagno per combattere l’eccessivo caldo.

Davvero?

Forse, e dico forse, prima di scrivere certe cose si dovrebbe ragionare o forse, in alcuni casi, studiare alcune cose che sembrerebbero ovvie a chi ha un minimo di cultura elementare. Sapete dove si trova l’Argentina? Esatto, sotto l’equatore. Per questi paesi le stagioni sono invertite rispetto alle nostre. In Argentina, a dicembre e’ “Estate”. Sapete, quella stagione in cui fa generalmente caldo e, magari, la gente si fa un bagno anche nel fiume. Forse, questo piccolo particolare e’ sfuggito ai tanti cospiratori sensazionalisti in cerca di notizie da pubblicare per sostenere tesi assurde e senza la minima prova scientifica.

Detto questo, cosa possiamo dire circa la notizia? Prima di tutto, una temperatura superiore ai 30 gradi, in questi giorni si sono registrati fino a 35 gradi, e’ del tutto normale per la zona di Rosario. Cosa pero’ ha scatenato gli attacchi dei Piranha? Come anticipato prima, oltre al caldo, contributo determinante e’ stato dato dalle scarse piogge nel periodo invernale che hanno diminuito la profondita’ delle acque del fiume.

Per aggiungere qualche particolare, i piranha non sono quei micidiali killer che riempiono l’immaginario collettivo. In realta’, questi pesci possono trascorrere periodi della loro vita con una dieta essenzialmente erbivora. Ovviamente, la carne e’ uno degli alimenti preferiti dai piranha ma, in condizioni di carestia, questi pesci possono adattare la loro dieta nutrendosi esclusivamente di vegetali.

Nel caso specifico dell’Argentina, l’abbassamento del fiume, incrementato dalla calura estiva, ha diminuito molto la disponibilita’ di cibo per cui i piranha si sono ritrovati in uno stato di carestia. In questi casi particolari, possono registrarsi, come in questo caso, numerosi attacchi agli esseri umani. Per essere precisi, questi pesci, anche durante la fase esclusivamente carnivora, prediligono prede piccole piu’ facilmente gestibili piuttosto che esseri umani.

Esistono ovviamente sulla terra tratti di fiume popolati da specie molto pericolose di piranha, e’ questo, ad esempio, il caso del fiume Paraguay. Al contrario, nel resto del Sud America attacchi da parte di piranha verso l’uomo non sono cosi’ frequenti anche se non rappresentano assolutamente una novita’. Se provate a fare una ricerca su google, vedrete come sono documentati diversi casi, anche molto recenti, di attacchi in Bolivia, Argentina, Brasile e soprattutto in diversi fiumi o tratti specifici.

Concludendo, al solito la smania complottista di cercare notizie sensazionali fa si che si trovino in rete vere e proprie chicche di ignoranza. Come visto nell’articolo, attacchi in Argentina, cosi’ come in altri paesi del Sud America, di piranha verso l’uomo sono possibili anche se non cosi’ frequenti. Nel caso specifico della notizia vista, i numerosi attacchi sono dovuti ad una commistione tra il caldo “estivo”, ripeto dicembre vuole dire estate da queste parti, e le scarse piogge invernali. Condizioni che hanno creato l’ambiente ideale per attacchi di questi pesci.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Interpretazioni libere della Bibbia

26 Dic

Nella sezione:

Hai domande o dubbi?

una nostra cara amica ci ha richiesto maggiori informazioni su Mauro Biglino. Per chi non lo conoscesse, si tratta di uno studioso di storia delle religioni che sta facendo molto discutere dopo l’uscita dei suoi libri in cui mostra una interpretazione “diversa” della Bibbia.

Come risposto allo stesso commento iniziale, la teoria di Biglino e’ molto vasta e, provando a cercare sulla rete, vi accorgerete di quanto e’ stato scritto a sostegno o a smentita delle sue teorie. Anche considerando solo la rete, ci sono decine di siti di esperti di antiche scritture o di ebraismo che hanno dedicato moltissimi articoli a queste interpretazioni.

Dal nostro punto di vista, senza peccare di presunzione, ci limiteremo ad analizzare i punti salienti di questa discussione arrivando poi a formulare un nostro pensiero sulla base di quanto appreso. Nel nostro caso, non siamo assolutamente esperti di lingua ebraica per cui ci limiteremo solo ad analizzare senza preconcetti la discussione.

In soldoni, i libri di Biglino partono dall’analisi dei testi sacri originali, cercando un’interpretazione diversa rispetto a quella “canonica”. Nei suoi scritti l’autore si concentra in particolare su molti passaggi in ebraico mostrando come la traduzione ufficiale riconosciuta dalla CEI non sia corretta.

Quali sono le conclusioni a cui arriva Biglino? Per prima cosa, secondo questa nuova visione, la Bibbia non parlerebbe assolutamente del Dio che conosciamo bensi’ narrerebbe la creazione dell’universo e dell’uomo per opera di entita’ aliene superiori. Secondo l’autore, nel testo sarebbe contenuta la chiave di lettura per vedere Dio non come un singolo ma come un gruppo di esseri extraterrestri con grandi poteri. Biglino ha pubblicato diverse opere negli ultimi anni, concentrandosi su passaggi salienti o mostrando come le traduzioni universalmente riconosciute fino ad ora sono in realta’ frutto di incomprensioni o, peggio ancora, derivate da un’opera di offuscamento della verita’ da parte della Chiesa.

I due libri principali pubblicati da Biglino ci fanno capire molto bene, gia’ dal testo, le basi della sua teoria:

– Il libro che cambierà per sempre le nostre idee sulla Bibbia – Gli dèi che giunsero dallo spazio?

– Il Dio alieno della Bibbia

Nei testi si affrontano i temi salienti del pensiero Cristiano: la creazione, l’essere superiore, l’Eden. Inoltre, vengono messi in discussione aspetti comunemente accettati dalla Chiesa come: l’esistenza degli Angeli, l’esistenza del Demonio e via dicendo.

Detto in altri termini, Biglino ci propone, attraverso i suoi scritti, una visione completamente stravolta della religione e dei dogmi del cristianesimo rivisitando il tutto sulla base di un universo creato da esseri extraterrestri e che avrebbero affidato alla Bibbia la loro storia.

Quali sono i punti di forza di questa interpretazione? Leggendo in rete, trovate scritto che Biglino e’ un esperto di storia delle religioni e profondo conosciutore della lingua ebraica. Avrebbe lavorato per diversi anni con le “Edizioni San Paolo” occupandosi, tra l’altro, anche della traduzione ufficiale, quella accettata anche dalla CEI per intenderci, della Bibbia. Dopo l’uscita dei suoi libri sarebbe poi stato licenziato dalla casa editrice interrompendo la sua collaborazione. Questo solo a riprova della scomoda verita’ contenuta nei suoi scritti.

Piu’ o meno, senza scendere troppo nei dettagli, questi sono i punti salienti della vicenda Biglino. Certo, se ragioniamo su quanto trovato in rete abbiamo: un esperto di storia delle religioni e di lingua ebraica che ha lavorato per anni con una delle piu’ importanti case editrici legate al Vaticano, una interpretazione diversa della Bibbia frutto di studi profondi, decine di siti che lo osannano come nuovo messia. Insomma, una storia credibile e che potrebbe stare in piedi.

Ora pero’, proviamo a ragionare per conto nostro e cerchiamo di capire meglio questa vicenda.

Come anticipato, soprattutto in rete, trovate molti siti di reali esperti di ebraismo che controbattono a queste interpretazioni dei testi sacri mostrando diversi errori “grammaticali” nelle traduzioni di Biglino. Solo per darvi un esempio, molto si e’ discusso riguardo al fatto che il Dio della Bibbia viene chiamato in diversi modi ma con nomi plurali accompagnati da verbi al singolare. Biglino interpeta questo come una chiara evidenza che la Bibbia si stia riferendo ad un gruppo di esseri e non ad un singolo. Secondo gli esperti di ebraico invece, cosi’ come avviene nel Corano, Dio viene sempre indicato con nomi diversi, in realta’ aggettivi, per indicare la sua grandezza e perche’ l’uomo non conosce l’esatto nome di un essere che non saprebbe comprendere in pieno.

A parte questo, che comunque ha un peso rilevante se ragioniamo su interpretazioni letterali dell’ebraico, cerchiamo di analizzare la cosa sotto un’ottica diversa. Prima di tutto, non e’ esattamente vero quanto scritto in rete sul ruolo di Biglino presso le edizioni San Paolo. I siti sostenitori parlano di ruolo chiave nella scrittura della versione ufficiale della Bibbia. Biglino si e’ in realta’ occupato di scrivere piccoli, ma frequenti, spezzoni di traduzione per opere curate da altri. Anche se il suo contributo e’ presente, la versione ufficiale della Bibbia e’ stata gestita e curata da altre personalita’ molto esperte di ebraismo. Questo non per denigrare il curriculum dell’autore, ma solo per essere sicuri di quanto affermato.

Dal punto di vista dell’ebraico, come sappiamo bene, questa lingua, ma soprattutto i testi sacri, vanno ben oltre la semplice traduzione letterale. Anche la Bibbia che conosciamo e’ derivata da una serie di interpretazioni fatte nel corso dei secoli da studiosi. Non per niente, ancora oggi, ci sono ricercatori che passano la loro vita lavorativa leggendo e cercando di interpretare le Sacre Scritture. In quest’ottica, Biglino ha proposto una sua interpretazione cosi’ come fatto da molti altri che invece vengono riconosciuti dalla Chiesa.

Cosa dire dunque su queste interpretazioni?

Ragioniamo, Biglino propone una interpretazione della Bibbia basata su traduzioni fatte da lui. E’ sbagliato denigrare in tutto e per tutto la figura di questo scrittore dal momento che, indipendentemente da dove proviene, e’ un conoscitore, forse non esperto e sicuramente non madre lingua, dell’ebraico. Ovviamente, come accennato in precedenza, ci sono diversi punti in cui le traduzioni letterali, non le interpretazioni, presentano errori grammaticali. Nonostante questo, quanto ottenuto da Biglino e’ un’interpretazione della Bibbia cosi’ come quella che conosciamo ufficialmente.

E’ dunque possibile che quella di Biglino sia l’interpretazione corretta?

Su questo sono molto scettico, ma, come detto in precedenza, si tratta di un mio pensiero personale. Premessi gli errori grammaticali, e’ vero che ognuno puo’ interpretare quello che legge a modo proprio, ma non vi sono assolutamente prove ne tantomeno certezze per affermare che la Bibbia sia una cronaca extraterrestre di creazione dell’universo. Come spesso accade, non esiste un senso univoco di un’opera ma ognuno che legge puo’ dare il suo anche molto diverso da quello degli altri. Nonostante questo, passare dagli angeli alle astronavi e da un Essere Superiore ad una banda di alieni intenti a creare l’universo mi sembra quanto meno azzardato. Parlare di interpretazione possibile della Bibbia sarebbe come pensare che il Codice da Vinci corrisponda a realta’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Classifica delle specie piu’ longeve

24 Nov

Mentre sfogliavo alcuni siti, mi sono imbattuto in una notizia che mi ha fatto riflettere: come forse saprete, nel 2006 un team di biologi che stava facendo ricerche nel nord dell’Atlantico pesco’ un esemplare di Arctica islandica che divenne famosa per un motivo ben preciso. Questa particolare vongola passo’ infatti alla cronaca come l’animale piu’ longevo mai osservato.

Ecco una foto di quella che e’ stata poi ribattezzata “Ming” in ricordo della lunga dinastia cinese:

Ming, la Vongola Artica di 507 anni

Ming, la Vongola Artica di 507 anni

Per questi animali l’eta’ puo’ essere stimata come per le piante contando gli anelli sul guscio. Conoscendo infatti il ritmo di crescita si puo’ risalire all’eta’ della vongola semplicemente contando le zigrinature presenti. Quando venne pescata nel 2006, si stimo’ un’eta’ compresa tra 405 e 410 anni. Gia’ questo rappresentava un record assoluto dal momento che l’esemplare piu’ longevo della stessa specie pescato in precedenza aveva solo 220 anni.

Solo pochi giorni fa, l’eta’ di Ming e’ stata ricorretta verso l’alto dopo un’analisi piu’ accurata del guscio. Come potete leggere su diversi siti, la vongola pescata nel 2006 avrebbe un’eta’ addirittura di 507 anni.

Molto interessante. Ora pero’, proprio leggendo questa notizia ho pensato: ma quali sono le specie viventi piu’ longeve in assoluto?

Generalmente, come e’ noto, quando pensiamo ad organismi in grado di vivere per secoli, il nostro pensiero va subito verso specie vegetali.

Quali sono gli alberi piu’ vecchi del pianeta?

Se vogliamo stilare una classifica, al terzo posto troviamo un tasso del Galles di ben 4000 anni. Al secondo posto Matusalemme, un pino dai coni setolosi che si trova in California la cui eta’ stimata e’ di ben 4700 anni. Al primo posto, sicuramente indiscusso, troviamo Pando, il cosiddetto Gigante Tremante, un pioppo dello Utah con un’eta’ stimata di circa 80000 anni. Pando non ha la forma classica di un albero dal momento che si tratta di un genet di pioppi, cioe’ un insieme di ramificazioni, o moduli, cha fanno parte di un unico organismo vivente con ramificazioni sotterranee.

Genet di pioppi nel parco di Fish Lake nello Utah

Genet di pioppi nel parco di Fish Lake nello Utah

Numeri veramente impressionanti. Ma se volessimo pensare invece a specie animali?

Nella cultura popolare, ad esempio, le tartarughe sono animali molto longevi. In questo caso pero’, l’eta’ difficilmente supera i 200 anni. Sicuramente numeri di tutto rispetto, ma che niente hanno a che vedere con quelli visti per gli alberi.

In natura esistono pero’ altri animali che possono vivere piu’ a lungo delle tartarughe.

Come visto prima, le vongole della specie Arctica islandica, che sono senza dubbio animali, battono di gran lunga le tartarughe.

Se non bastasse, abbiamo poi una tipologia di spugna artica nota per il suo ritmo di crescita estremamente basso:

Spugna Antartica

Spugna Antartica

Queste spugne sono profondamente differenti dalle parenti che vivono ai tropici. Trattandosi di spugne, possiamo vederle come animali e non come vegetali. Questa tipologia di spugna artica e’ in grado di vivere a lungo anche perche’ e’ dotata di un guscio protettivo che la protegge dai predatori. L’eta massima registrata per questi animali, determinata da osservazioni dirette, e’ di ben 1500 anni.

Se ci fermassimo qui, le piante batterebbero di gran lunga le specie animali per quanto riguarda la longevita’. In realta’, manca da giocare la carta segreta, cioe’ questa:

Turritopsis nutricula

Turritopsis nutricula

Cosa sarebbe?

Ovviamente si tratta di una medusa, anche se molto particolare. Questo particolare animale e’ noto come Turritopsis nutricula, anche detto “medusa immortale”.

Cosa ha di tanto speciale? Perche’ immortale?

Questo animale ha una caratteristica unica: in caso di difficolta’, quando si trova nello stato sessualmente sviluppato, puo’ regredire allo stato originario di polipo da cui e’ nata. Attenzione, parliamo di polipo non di polpo. A questa tipologia appartengono gli anemoni, i coralli e altre specie che nulla hanno a che vedere con i molluschi.

La medusa immortale e’ originaria dei Caraibi ma oggi e’ diffusa un po’ in tutto il mondo. Le sue dimensioni non superano mai i 4-5 mm come diametro della campana superiore. La particolare caratteristica di cui abbiamo parlato, e che puo’ essere ripetuta all’infinito, rende questo animali praticamente immortale.

Attenzione pero’, non e’ stato, ovviamente, possibile stimare l’eta’ di questi naimali anche se il processo descritto renderebbero la capacita’ di rigenerazione e ringiovanimento perpetui. Inoltre, appartenendo alle specie che formano il plancton questi animali, potenzialmente immortali, hanno vite medie molto basse dettate dai numerosi predatori.

Detto questo, il record indiscusso per quanto riguarda la longevita’ spetta senza dubbio alla medusa immortale. Anche le specie vegetali si difendono molto bene raggiungendo, come visto, le decine di migliaia di anni. Ovviamente si tratta di valori lontanissimi dalla vita media di un essere umano che comunque, come valore medio, ha subito un rapido incremento negli ultimi decenni grazie al miglioramento della qualita’ della vita e ai progressi medici.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.