Tag Archives: differenza

Il premio “nobel” per la matematica

16 Ago

In questi giorni, come forse avrete letto sui giornali, sono state assegnate le Medaglie Fields, forse il più importante riconoscimento che viene dato per la matematica. Questo premio, assegnato ogni 4 anni a partire dal 1936, viene consegnato in occasione del Congresso Internazionale dei Matematici.

Anche questa volta, così come avviene ogni anno per i Nobel, si riaccende la solita discussione sul perchè non esista un premio Nobel per la matematica e se la medaglia Fields può o meno essere considerata come l’equivalente per la matematica del prestigioso premio.

Detto questo, vorrei fare un pò di chiarezza su questa questione, almeno per cercare di capire insieme quali affermazioni sono vere e quali invece appertengono solo ed esclusivamente alla leggenda storica.

Per prima cosa, perchè non esiste un Nobel per la matematica?

Credo che sia inutile parlare di chi era Nobel e perchè costui abbia deciso di devolvere un ingente capitale nell’assegnazione di premi a suo nome. Come sapete, in punto di morte, Nobel ha lasciato scritto nel suo testamento di istituire un premio per chi avesse contribuito al bene dell’umanità nelle discipline: Fisica, medicina, chimica, letteratura e, come noto, per la pace.

Prima osservazione importante: spesso le persone si chiedono, ma quanti soldi ha lasciato Nobel visto che da più di 100 anni viene assegnato questo premio ed ogni premiato riceve circa un milione di dollari? In realtà, Nobel lasciò un capitale in grado di coprire i primi 5 anni del premio. Successivamente, vista l’importanza che da subito ricorprì il premio, l’accademia di Svezia decise di lasciare questo premio.

Leggendo la lista delle discipline premiate, avrete sicuramente notato la mancanza dell’economia. Forse non tutti sanno che il premio nobel in questa disciplina venne istituito solo nel 1969, sempre in memoria di Nobel, ma finanziato dalla Banca di Svezia.

Dunque, perchè non c’è la matematica?

Le prime ipotesi, che poi sono quelle che riscuotono più successo nel mondo del gossip a cui siamo abituati, sono relative a questioni amorose. Per prima cosa, secondo alcuni, Nobel venne lasciato dalla moglie che si fidanzò con Mittang-Leffler, uno dei più importanti matematici svedesi dell’epoca. Secondo questa ipotesi, se Nobel avesse voluto istituire il premio in matematica, con buona probabilità questo sarebbe andato proprio al rivale in amore.

Questa ipotesi è verosimile? In realtà no, perchè Nobel non si sarebbe mai sposato! Non preoccupatevi, il mondo del gossip non si arrende di fronte a questo dettaglio e propone la storia secondo la quale invece che la moglie, la donna sarebbe stata una compagna di letto di Nobel, mantenendo la storia del matematico svedese.

Ad oggi, però, l’ipotesi più accreditata dalla comunità scientifica è un’altra. Quale sarebbe dunque la motivazione? Semplice, ripensando al testamento di Nobel, se dobbiamo pensare alle discipline che “apportano progresso all’umanità” allora la matematica non è considerata una disciplina “esatta”. Per carità, non fraintendetemi. A mio avviso, così come per qualsiasi persona di scienza, la matematica è uno strumento indispensabile senza il quale, ad esempio, la fisica non potrebbe esistere. La comprensione dei fenomeni fisici avviene formulando modelli matematici che descrivono il comportamento della natura. Al tempo di nobel però, la matematica stava vivendo un periodo considerato buio prima di ripartire con la formulazione di quella che oggi viene definita la matematica moderna.

Detto questo, come anticipato, secondo molti la medaglia Fields può essere considerata l’equivalente per la matematica del premio Nobel. Personalmente, non sono d’accordo su questa affermazione.

Vediamo il perchè.

Per prima cosa, c’è da dire che, anche senza premio Nobel, esistono circa 45 premi internazionali che vengono attribuiti per la matematica. A parte questo, al contrario del premio Nobel, la medaglia Fields viene attribuita ai matematici che abbiano meno di 40 anni e che si siano contraddistinti nei loro settori. Questo premio, più che per scoperte o per la carriera, viene attribuito come auspicio di altrettanti e maggiori successi nell’età matura. Altra differenza importante è che il nobel viene assegnato ogni anno, la medaglia Fields ogni quattro.

E dal punto di vista economico?

E’ vero che i soldi non sono tutto nella vita e che chi impegna la sua vita nella scienza non pensa ai soldi, però valutiamo anche i premi dal punto di vista economico. Chi vince il premio Nobel, riceve una somma di circa un milione di dollari. Per la medaglia Fields invece, il premio è di “soli” 16000 dollari canadesi, cioè poco più di 10000 euro.

Ripeto, i soldi non sono tutto, però buttiamoci un occhio.

A mio avviso, ad oggi, l’equivalente per la matematica del premio Nobel è invece la Medaglia Abel, premio istituito dall’accademia di Svezia a partire dal 2003. In realtà, questo premio era stato fortemente voluto dal matematico Lie già nei primi anni del 1900. Per varie vicissitudini politiche, la cosa passò in cavalleria fino, appunto, al 2003, quando il re di Svezia decise di istituire questo premio.

Così come il Nobel, il premio Abel viene assegnato ogni anno in Svezia, senza limiti di età e, oltre alla gloria, si riceve un premio in denaro paragonabile a quello del Nobel, poco più di 800000 dollari.

Concludendo, speriamo di aver capito finalmente quali e quante sono le leggende che circolano intorno al nobel e quali sono gli equivalenti per la matematica. Ultimissima cosa, negli albi dei premi per matematici, figura un solo italiano per la medaglia Fields, Bombieri nel 1974, mentre nessun nostro connazionale ha mai vinto il premio Abel.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Farmaci branded o equivalenti?

12 Lug

Stamattina entro in farmacia e mi metto in una delle due file che si erano create al banco. Mentre ero li, ascolto per due volte al stessa domanda rivolta dal farmacista al cliente di turno che aveva chiesto un medicinale: vuole l’originale o il generico? Due domande, due risposte diverse. Una signora ha detto: mi dia il generico tanto è la stessa cosa e costa di meno, mentre l’altra ha risposto: no grazie, mi dia quello originale perché l’altro non funziona.

Sentendo queste due risposte completamente agli antipodi per la stessa domanda, mi è tornata in mente la discussione che diverse volte ho ascoltato, anche da famigliari, sull’efficacia o meno dei farmaci generici. Poiché mi sembra che ci sia ancora tanta confusione a riguardo, credo sia interessante e importante sviscerare con un po’ più di dettaglio questo argomento.

Per prima cosa, il termine “farmaco generico” non è in realtà corretto ma deriva solo da una traduzione letterale del termine inglese “generic drugs”. Per essere precisi, il nome corretto da usare per questa tipologia di farmaci è “equivalenti”.

Bene, cosa sono i farmaci equivalenti?

Per rispondere a questa domanda, dovremmo partire dall’altra sponda del fiume, cioè dai farmaci “originali”, “branded” o come volete chiamarli. Insomma, quelli originali prodotti da qualche casa farmaceutica e che hanno, molto spesso, nomi di fantasia. Ora, come sapete, questi farmaci hanno normalmente un singolo principio attivo che caratterizza il prodotto e la sua efficacia curativa. Per la legge, la formazione del principio attivo è brevettabile per un periodo di 20 anni a partire dall’inizio della sperimentazione sull’uomo. Allo scadere di questo tempo, il principio attivo non è più “sotto licenza” e, come stabilito per legge, può essere prodotto da qualunque casa farmaceutica senza violare nessun diritto d’autore.

Capito come nascono i medicinali equivalenti? Una casa farmaceutica studia un nuovo principio attivo e inizia la lunga fase della sperimentazione. Come sappiamo bene, prima ancora di poter provare il medicinale su un campione umano di controllo sono necessari diversi stadi di sperimentazione in cui il farmaco può essere scartato per problematiche varie legate al suo utilizzo. Testata, in buona parte, la non pericolosità del farmaco e il suo potere curativo, inizia la sperimentazione sull’uomo, sempre sotto stretto controllo. Da qui inizia anche il periodo di brevetto, cioè i 20 anni di cui parlavamo prima. Se la fase di sperimentazione sull’uomo va a buon fine, il farmaco arriva, prodotto dalla casa farmaceutica, al banco della farmacia. Tenendo conto che la fase di sperimentazione sull’uomo normalmente dura dai 5 ai 10 anni, il reale periodo di vendita del medicinale sotto brevetto va dai 10 ai 15 anni.

Cosa succede quando il brevetto arriva a scadenza? Come anticipato, da questo momento in poi chiunque può produrre e commercializzare il principio attivo come base di farmaci diversi non “brandizzati”, appunto gli equivalenti.

Come vengono fatti questi farmaci? Ovviamente partendo dal principio attivo del farmaco di marca. Per fare un esempio concreto, proviamo a prendere un medicinale noto a tutti, l’Aulin, prima prodotto dalla Roche e poi dalla Angelini. Aulin è ovviamente il nome commerciale di fantasia del farmaco. In questa sede, non voglio discutere di funziona, non funziona, fa male allo stomaco, non fa male, le case farmaceutiche sono così, no sono così, ecc.. Ho preso un esempio pratico per parlare con nomi che sono noti a tutti.

Dunque, il principio attivo dell’Aulin è il Nimesulide, utile per tantissimi dolori come noto a chi ha assunto l’Aulin. Bene, il brevetto dell’Aulin è scaduto dunque, così come avviene, è possibile produrre un medicinale equivalente che non avrà un nome commerciale bensì il cui nome sarà solo il principio attivo, quindi Nimesulide.

Perché si dovrebbe comprare un generico piuttosto che un farmaco di marca? Il primo motivo è il prezzo. Per la legge, il generico deve costare almeno il 20% in meno dell’originale. In realtà, come tutti sanno, lo sconto tra il generico e l’equivalente arriva molto tranquillamente anche al 50%. Oltre a questo, ma su questo punto torneremo a breve, i due farmaci hanno esattamente lo stesso principio attivo, con le stesse quantità e con la stessa assunzione.

Prima domanda: perché il generico costa meno di quello di marca? Questa domanda ha portato negli anni molte risposte fantasiose che hanno creato tantissima confusione. Alcuni pensano addirittura che il generico costi meno perché prodotto in scantinati senza controlli, perché non testato secondo tutti i criteri di legge o perché sia prodotto con materie prime di qualità inferiore. Signori, sono medicinali, non scarpe da ginnastica!

Cosa significa? Poiché parliamo di medicinali, tutti i farmaci vengono controllati prima di poter essere immessi sul mercato, così come viene controllata la loro qualità farmaceutica e le condizioni in cui vengono prodotti. Perché allora costano di meno? Come scritto sopra, prima di poter arrivare in farmacia, un farmaco ha una fase di sperimentazione moto lunga, così come la fase precedente di ricerca vera e propria, che ha un costo notevole per le aziende farmaceutiche. Un farmaco generico, poiché contiene appunto lo stesso principio attivo “copiato” da quello di marca, non ha fase di ricerca, non deve essere sperimentato ma deve solo essere valutata la sua “bio-equivalenza”.

Bene, siamo arrivati al punto cardine della discussione, la bio-equivalenza tra i due farmaci, quello di marca e quello equivalente. Per prima cosa, continuando con il nostro esempio, se compro Aulin in granulato, dentro ci sono 100 mg di Nimesulide che vanno sciolti in acqua e bevuti. Bene, se comprate il generico Nimesulide granulato, ci trovate, ripeto per legge, la stessa quantità di principio attivo e da assumere esattamente con le stesse modalità.

Aspettate un attimo, stesso principio attivo, stessa quantità, stessa assunzione, perché si parla di bio-equivalenza? Semplice, per prima cosa, la legge impone la stessa quantità di principio attivo più o meno il 5%. In altre parole, potreste aver un farmaco equivalente con un 5% in più o in meno di principio attivo. Inoltre, la modalità di sintesi e produzione del principio attivo non deve essere identiche e, soprattutto, gli eccipienti dei medicinali possono essere completamente diversi.

Prima di tornare su questi punti, cerchiamo di capire come si determina la bio-equivalenza di due farmaci. Per prima cosa, si deve misurare la bio-disponibilità di un farmaco dopo l’assunzione. Esempio, prendo una bustina di Aulin, misuro la concentrazione nell’organismo del principio attivo e da queste misure determino il tempo necessario al farmaco per agire, cioè per arrivare la bersaglio, e il tempo in cui il principio attivo resta in circolo, cioè quanto tempo “dura l’effetto”. Bene, affinché due farmaci siano equivalenti, la legge impone che la loro bio-equivalenza non sia diversa di più del 20%.

Ecco un altro parametro che potrebbe dunque distinguere un generico dal farmaco di marca. L’equivalente potrebbe dunque contenere una quantità diversa al più di 5% di principio attivo e avere una equivalenza diversa al massimo del 20% da quello originale.

In tutto questo, c’è poi il discorso sugli eccipienti. Utilizziamo sempre il nostro esempio pratico per capire meglio la differenza di composizione tra due farmaci. Se leggete la composizione di un qualsiasi medicinale, oltre al principio attivo trovate altre sostanze, i cosiddetti eccipienti, che servono per rendere maggiormente assimilabile il principio attivo, dare un sapore al medicinale o anche solo agglomerare meglio il farmaco stesso. Guardando ad esempio alla composizione dell’Aulin:

Aulin composizione

trovate che una compressa contiene: Docusato sodico, idrossipropilcellulosa, lattosio monoidrato, carbossimetilamido sodico A, cellulosa microcristallina, olio vegetale idrogenato, magnesio sterrato. Se invece prendiamo un medicinale Nimesulide equivalente:

Nimesulide Equivalente

Troviamo come eccipienti: Dioctil  sodio  solfosuccinato, idrossipropilcellulosa,  lattosio,  sodio  amido  glicolato,  cellulosa  microcristallina,  olio  di  ricino  idrogenato, magnesio stearato. Dunque, eccipienti simili ma non esattamente gli stessi.

Ora, sulla carta, gli eccipienti sono sostanze inerti che non non incidono sull’azione del principio attivo e per questo la legge impone solo il controllo sulla molecola attiva. In realtà, gli eccipienti possono avere effetti minori che però sono completamente soggettivi. In alcuni casi, eccipienti diversi possono determinare: differenza di disponibilità nell’organismo, aver effetti soggettivi più o meno sinergici con il principio attivo e, soprattutto, possono causare disturbi a chi assume il farmaco. Perché questo? Semplice, come sappiamo prima di assumere un qualsiasi farmaco è buona norma leggere il bugiardino. Per un paziente diabetico, ad esempio, è importante verificare che nel medicinale non sia presente il saccarosio come eccipiente. Allo stesso modo, un soggetto intollerante al lattosio non può assumere farmaci contenenti questo eccipiente. In altre parole, è possibile che un soggetto non possa assumere un farmaco di marca ma possa invece assumere il generico o viceversa.

A questo punto, dal punto di vista chimico abbiamo capito che i farmaci di marca e gli equivalenti contengono lo stesso principio attivo in quantità al massimo diverse del 5%, la bio-equivalenza dei due farmaci viene verificata entro un 20% per legge e gli eccipienti contenuti nei farmaci possono invece essere diversi. Detto questo, normalmente i farmaci equivalenti sono del tutto identici a quelli di marca, in altri casi possono risultare meno efficaci ma ci sono anche casi in cui i consumatori preferiscono un equivalente all’originale (ripensate al discorso delle intolleranze e degli eccipienti). Detto questo, occorre di volta in volta provare i due farmaci senza volersi incaponire sull’originale o sul generico a tutti i costi. Ricordatevi però che per legge il farmacista dovrebbe sempre chiedervi se volete il farmaco equivalente.

Solo per concludere, il risparmio portato alle casse dello stato utilizzando gli equivalenti è assolutamente notevole (parliamo di centinaia di milioni di euro all’anno risparmiati) e questo gettito extra può essere utilizzato (almeno dovrebbe) per migliorare il servizio sanitario e le strutture ospedaliere. In Italia, purtroppo, solo il 15% del mercato dei farmaci è occupato dai generici, indice del fatto che gli italiani si fidano ancora poco di questi medicinali. Solo per darvi un’idea, negli Stati Uniti i generici rappresentano il 75% del mercato mentre in Gran Bretagna, primato assoluto, arriviamo addirittura all’85% del totale dei farmaci venduti rappresentati da medicinali equivalenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Neologismi catastrofisti

22 Nov

Leggendo i giornali c’e’ sempre qualcosa di nuovo da imparare. Come sapete bene, ogni tanto i giornalisti si lasciano prendere un po’ la mano, gonfiando le notizie o, anche, cercando di rendere ad effetto notizie che altrimenti passerebbero in secondo piano.

Di queste cose, diverse volte abbiamo parlato in questo blog. Alcune volte, ci siamo trovati a dover proprio smentire notizie apparse sui giornali nazionale perche’ frutto di incomprensioni o, e questo e’ un problema piu’ frequente di quanto si immagini, per la mancanza di controllo delle fonti da cui le notizie vengono prese.

Questa volta vorrei parlare di pioggia. Lungi da me speculare su quanto accaduto in Sardegna dove la forza della natura ha causato morti e notevoli danni, ma proprio quanto accaduto sull’isola rappresenta l’ultimo esempio di un cattivo costume per la ricerca di titoli ad affetto.

Negli ultimi anni, sempre piu’ spesso sentiamo parlare di forti piogge. Ora, il piu’ delle volte, anche di fronte a gravi problemi per le popolazioni, i giornali tendono a far apparire fenomeni stagionali comuni come eventi rari e inaspettati. Piogge torenziali, soprattutto in periodo autunnale o primaverile ci sono sempre state e sempre ci saranno. Nonostante questo, sempre piu’ spesso sentiamo parlare di “bombe d’acqua”, cioe’ violenti acquazzoni che interessano varie parti dell’Italia e di cui non avevamo mai sentito parlare.

Cosa sarebbero queste bombe d’acqua?

Se proviamo a consultare libri o siti specializzati, non troviamo una definizione di bombe d’acqua. Questo non ci deve sorprendere perche’, come anticipato, le bombe d’acqua in realta’ non esistono.

Ora, potrei far saltare dalla sedia molte persone preoccupate di quanto e’ accaduto in Sardegna o di altri fenomeni meno recenti. La mia considerazione e’ prettamente linguistica e metereologica. Fino a qualche anno fa, nessuno aveva mai sentito parlare di pioggia in questo senso, eppure, nell’ultimo periodo, sembrerebbe quasi che siano comparse queste bombe d’acqua come un fenomeno nuovo casuato da chissa’ quali diavolerie scientifiche o  da modificazioni climatiche naturali o indotte.

Onde evitare fraintendimenti, mi spiego meglio.

Le cosiddette “bombe d’acqua”, altro non sono che i violenti acquazzoni di cui abbiamo sempre sentito parlare. Perche’ allora si usa questo termine? L’origine, e come potrebbe essere diversamente, e’ giornalistica. Questo termine compare la prima volta in un articolo della Nazione di Firenze dopo il violento temporale del 2012. Ecco a voi l’articolo in questione:

La Nazione Firenze

Il termine e’ frutto di una cattiva traduzione dall’inglese dell’espressione “Cloud Burst”. Letteralmente suonerebbe come “Esplosione di Nuvola”. Con Cloud Burst, come potete leggere su wikipedia:

Cloud Burst

si indica un violento temporale con una durata limitata nel tempo ma con una quantita’ di precipitazioni in grado di provocare innondazioni. In molti di questi casi, si possono formare piu’ temporali in breve tempo che provocano appunto la grande quantia’ di precipitazione in uno spazio ristretto. Bene, il termine “bomba d’acqua” e’ dunque mutuato dall’inglese.

Ora pero’, provando a ragionare, si tratta di un termine qualitativo appicicato ad una scienza quantitativa come le meteorologia. Cosa significa tanta pioggia in poco tempo? Tanta quanta? Poco tempo quanto? Capite che, cosi’ come viene dato, questo termine non ha alcun significato se non quello soggettivo.

Operativamente, anche a seguito del diffondersi del termine, si e’ cercato di dare una definizione numerica al termine bomba d’acqua definendo in questo modo precipitazioni in grado di scaricare quantita’ maggiori di 30 mm di pioggia nell’arco di un’ora. Non si tratta di una definizione nel senso stretto del termine dal momento che autori diversi possono utilizzare numeri diversi. C’e’ chi parla di 50 mm in un’ora, chi di 20, chi parla di precipitazioni nell’arco di due ore, ecc.

Detto questo, capite bene come il termine sia in realta’ una forzatura di quello che, fino a pochi anni fa, eravamo soliti chiamare aquazzone ed inoltre non presenta una definizione univoca.

Prima di chiudere, ragioniamo ancora su un particolare: alla luce di quanto osserviamo, sembrerebbe che gli acquazzoni, o le bombe d’acqua, siano aumentati notevolmente negli ultimi anni. E’ una sensazione o l’aumento e’ tangibile? Su alcuni siti trovate numeri veramente sparati a caso. Su piu’ di una fonte ho trovato che prima si poteva parlare di una bomba d’acqua ogni 10 anni mentre ora questo fenomeno si presenta, nel solo territorio italiano, fino a 3-4 volte all’anno. Questo non e’ assolutamente vero.

Negli ultmi anni, il numero di acquazzoni e’ sensibilmente aumentato e questo e’ dovuto all’effetto serra e all’aumento della temperatura media dei mari. Perche’? Quando parliamo di aumento di temperatura delle acqua, al solito, ci si riferisce ad incrementi inferiori al grado, ma che possono avere effetti importanti sulle dinamiche atmosferiche. Durante la formazione delle nuvole temporalesche, la maggior differenza di temperatura tra terra e quota provoca un aumento dell’energia e delle precipitazioni potenziali del fronte. Proprio l’aumento di temperatura dei mari causa una maggior quantita’ di precipitazioni che, nella definizione data prima, provoca un aumento del numero di acquazzoni.

Concludendo, il termine bomba d’acqua non e’ una definizione metereologica ne tantomeno una quantita’ di piogge univocamente accettatata. Come visto, l’origine del termine e’ da ricercarsi nei giornali sempre troppo impegnati a trovare neologismi o parole ad effetto per attrarre maggiormente l’interesse dei lettori. Le bombe d’acqua di cui tanto si parla in questi ultimi tempi, altro non sono che gli acquazzoni violenti di cui abbiamo sempre sentito parlare. Come visto, il numero di fenomeni temporaleschi violenti e’ in sensibile aumento non a causa di strane attivita’ fatte dall’uomo sull’atmosfera ma a causa dell’effetto serra che provoca un aumento minimo della temperatura dei mari.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le forze di marea

13 Ago

Nella sezione:

Hai domande o dubbi?

E’ stata posta una nuova domanda molto interessante e che credo sia il caso di discutere subito. Prima di cominciare, vi ricordo che questa sezione e’ stata appositamente creata per far si che chiunque possa richiedere argomenti specifici che, qualora non ancora trattati, verranno poi affrontati negli articoli al fine di stimolare una discussione costruttiva tra tutti i lettori.

Premesso questo, la domanda riguarda le cosiddette “forze mareali” o “di marea”.

Di cosa si tratta?

Partiamo, al solito, da quello che e’ noto a tutti: i pianeti dell’universo ruotano intorno al Sole grazie alla forza di gravita’ che li tiene uniti. Allo stesso modo, a distanze minori, molti pianeti del sistema solare presentano dei satelliti orbitanti intorno a loro. Ovviamente, anche questi sono tenuti insieme dalla forza di gravita’.

Ecco un primo risultato interessante e che spesso passa inosservato. Lo studio e la formulazione matematica della forza di gravita’, fatta per la prima volta da Newton, prende il nome di “teorie della gravitazione universale”. L’aggettivo “universale” non e’ assolutamente messo li per caso, ma sta ad indicare come la validita’ di questa legge sia vera a scale estremamente diverse tra loro. Se noi rimaniamo attaccati alla Terra e perche’ c’e’ la forza di gravita’. Se la Terra ruota intorno al Sole e’ perche’ c’e’ la forza di gravita’. Allo stesso modo, la rotazione del sistema solare intorno al centro della Galassia, cosi’ come il moto della Galassia stessa e’ possibile grazie alla forza di gravita’. Detto questo, capite bene perche’ viene attribuito l’aggettivo universale a questa legge.

Dal punto di vista fisico, due qualsiasi masse poste ad una certa distanza si attraggono secondo una forza direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza. Come anticipato questo e’ vero per due qualsiasi masse estese nello spazio.

Per andare avanti, concentriamoci pero’ sulla domanda fatta e dunque parliamo di forze di marea. Come e’ noto, l’innalzamento e l’abbassamento del livello delle acque sulla Terra e’ dovuto alla Luna, anche se, come vedremo, anche il Sole ha il suo contributo.

Alla luce di quanto detto prima, se la Terra attrae la Luna, ed e’ vero il viceversa, come mai i due corpi non vanno uno verso l’altro finendo per scontrarsi?

Il segreto della stabilita’ delle orbite e’ appunto nel moto di rotazione della Luna intorno alla Terra. Questo movimento genera una forza centrifuga diretta verso l’esterno che stabilizza il moto. Questo e’ lo stesso effetto che trovate per qualsiasi corpo in rotazione nell’universo. Per essere precisi, due corpi in rotazione tra loro, ruotano intorno al centro di massa del sistema. Nel caso di Terra e Luna, la differenza tra le masse e’ cosi’ grande che il centro di massa cade molto vicino al centro della Terra.

Detto questo, abbiamo capito perche’ il sistema puo’ ruotare stabilmente, ma ancora non abbiamo capito da dove si originano le maree.

Come anticipato, l’intensita’ della forza di attrazione gravitazionale e’ inversamente proporzionale al quadrato della distanza. Bene, rimaniamo nell’esempio Terra-Luna. L’attrazione subita dal nostro satellite per opera della Terra, non sara’ identica in ogni punto della Luna. Mi spiego meglio, provate a guardare questo disegno:

Forze di marea subite per attrazione gravitazionale

Forze di marea subite per attrazione gravitazionale

Il lato piu’ vicino all’altro pianeta subira’ un’attrazione maggiore dal momento che la distanza tra i due corpi e’ piu’ piccola. Questo e’ vero ogni qual volta siamo in presenza di corpi grandi. Analogamente, prendendo in esame il contributo centrifugo, la forza risultante tendera’ a spingere il lato vicino verso l’altro pianeta e allontare il lato lontano.

Ragioniamo su quanto detto senza perderci. Abbiamo un corpo esteso ad una certa distanza da qualcosa che lo attrae. Questa attrazione dipende dalla distanza tra i due corpi. Dal momento che abbiamo un corpo esteso, il lato che guarda il centro di attrazione sara’ necessariamente piu’ vicino subendo una forza maggiore rispetto al lato lontano.

Bene, questa differenza tra le interazioni tende ad allungare il corpo cioe’ a farlo passare da una sfera ad un elissoide. Queste sono appunto le forze di marea.

Quali effetti possiamo avere?

Nell’immagine riportata prima, si vedevano proprio le forze di marea esercitata dalla Luna sulla Terra. Come vedete, il lato verso la Luna e quello diametralmente opposto tendono ad allungarsi, provocando dunque un innalzamento delle acque. Negli punti perpendicolari al sistema invece, si avra’ uno schiacciamento e dunque un abbassamento del livello delle acque. Ecco spiegato come avvengono le maree. Ovviamente, poiche’ tutto il sistema e’ in movimento, i punti con alta e bassa marea cambieranno nel corso della giornata, presentando due cicli completi nell’arco del giorno.

Domanda lecita: perche’ nel calcolo delle maree consideriamo solo gli effetti della Luna trascurando completamente il Sole? Come sappiamo, la massa del Sole e’ notevolmente maggiore di quella della Luna quindi ci si aspetterebbe un contributo dominante. Come visto, le forze mareali si generano perche’ ci sono differenze significative tra l’attrazione subita da un lato del pianeta rispetto all’altro. Dal momento che la distanza tra la Terra e il Sole e’ molto piu’ elevata di quella Terra-Luna, la differenza di intensita’ dovuta all’attrazione solare e’ molto meno marcata. Detto in altri termini, a distanze maggiori un corpo esteso puo’ essere approssimato come un punto e dunque e’ molto piccola la forza di marea che si genera.

Effetti misurabili si possono avere quando Sole, Terra e Luna sono allineati, come avviene nel novilunio, dal momento che i contributi si sommano. In questo caso si possono dunque avere livelli di marea massimi, anche noti come maree sigiziali, cioe’ in cui la differenza di altezza tra alta e bassa marea raggiunge il picco.

Analogamente a quanto visto, anche la Luna subisce una forza di marea da parte della Terra. Dal momento pero’ che la Luna non e’ ricoperta da oceani, la resistenza meccanica alla distorsione e’ molto maggiore. In questo caso, l’effetto misurabile e’ una differenza di qualche kilometro tra l’asse rivolto verso la Terra e quello perpendicolare, tale da far apparire il nostro satellite come un elissoide.

Altro effetto delle forze di marea tra corpi estesi vicini e’ la sincronizzazione della rotazione. Come tutti sanno, la Luna rivolge sempre la stessa faccia verso la Terra. Detto in altri termini, a meno di “oscillazioni” che si registrano, un osservatore sulla Terra riesce a vedere sempre la stessa porzione di Luna o meglio, un lato della stessa rimane sempre invisibile al nostro sguardo, il cosiddetto “lato oscuro della Luna”.

Perche’ si ha questo comportamento?

Come anticipato, questo e’ dovuto alla rotazione sincrona della Luna intorno alla Terra. Detto molto semplicemente, il periodo di rotazione e di rivoluzione della Luna coincidono tra loro. Se volete, in parole povere, mentre la Luna si sta spostando sulla sua orbita, ruota su se stessa in modo tale da compensare  lo spostamento e mostrare sempre la stessa faccia a Terra. La figura puo’ aiutare meglio a comprendere questo risultato:

Rotazione sincrona tra satellite e pianeta. Fonte: wikipedia.

Rotazione sincrona tra satellite e pianeta. Fonte: wikipedia.

Ovviamente, parlare di stesso periodo di rivoluzione e rotazione non puo’ certo essere un caso. Rotazioni sincrone si hanno come conseguenza delle forze mareali potendo dimostrare che per corpi vicini tra loro, il moto tende ad essere sincrono in tempi astronomicamente brevi.

Parlando di forze di marea, ci siamo limitati a studiare il caso del sistema Terra-Luna. Seguendo la spiegazione data, capite bene come questi effetti possano essere estesi a due qualsiasi corpi in rotazione vicina tra loro. In tal senso, effetti di marea si possono avere in prossimita’ di buchi neri, di stelle di neutroni o anche di galassie, cioe’ corpi in grado di generare un elevato campo gravitazionale. In particolare, nel caso delle galassie le forze di marea tendono, in alcuni casi, ad allungare la forma spostando la posizione di corpi celesti che si allontanano a causa della differenza di attrazione.

Concludendo, abbiamo visto come la Luna possa generare sulla Terra le maree. L’effetto del Sole e’ in realta’ inferiore perche’ molto maggiore e’ la distanza che ci separa dalla nostra stella. Effetti di questo tipo vengono generati a causa della differenza di attrazione gravitazionale che si registra nei diversi punti di un corpo esteso. Queste differenze, generano appunto una forza risultante, detta di marea, che tende ad allungare il corpo. Effetti analoghi si possono avere per corpi piu’ estesi e comunque ogni qual volta si hanno due masse posizionate ad una distanza non troppo maggiore del diametro dei corpi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Risparmiare con la lavatrice

15 Lug

Diverse volte ci siamo occupati di risparmio energetico domestico, analizzando prima di tutto i consumi dei nostri elettrodomestici quando vengono lasciati in standby:

Il led rosso dello stadby …

ma soprattutto spiegando e valutando il contributo ai consumi dei singoli elettrodomestici che abbiamo in casa:

Elettrodomestici e bolletta

In questo post, su suggerimento di una nostra lettrice, vorrei tornare a parlare della lavatrice. In particolare, mi e’ stato chiesto di spiegare come funzionano i cosiddetti “foglietti acchiappacolore”.

Sapete a cosa mi riferisco?

Chiunque abbia mai fatto una lavatrice sa bene che la prima cosa da fare e’ separare i panni bianchi da quelli colorati che potrebbero potenzialmente stingere. Come sappiamo bene, in caso contrario potremmo tirare fuori dall’oblo’ dei panni che prima erano bianchi ed ora sono di un bel rosato.

Fare questa distinzione, comporta pero’ un maggior tempo per accumulare un carico in grado di riempire la lavatrice. Molto spesso, per esigenze di lavaggio, si tende dunque a far partire la lavatrice non proprio a pieno carico. Torneremo successivamente su questo punto.

Detto questo, avere la possibilita’ di mescolare tutti i panni insieme comporta sicuramente una facilita’ di lavaggio. A tal proposito, sono stati appunto proposti questi foglietti acchiappacolore.

Come funzionano?

Anche se i costituenti fondamentali sono segreti e brevettati da una ditta irlandese, il meccanismo alla base sfrutta la differenza di carica tra colore e foglietto. Mi spiego meglio. I coloranti tessili piu’ utilizzati hanno carica negativa. Inserendo nella lavatrice un foglietto carico positivo, la differenza di carica elettrica fa attaccare il colore solo al foglietto come se fosse una calamita.

A differenza di quanto si legge su alcuni siti, il foglietto e’ del tutto riciclabile e puo’ essere tranquillamente buttato insieme ai rifiuti cartacei nella raccolta differenziata.

Funzionano davvero questo foglietti?

Su questo punto, le opinioni in rete non sono molto concordi. C’e’ chi dichiara l’assoluta inutilita’ del metodo e chi ne elogia le caratteristiche. Quello che purtroppo sfugge a molti e’ che la lavatrice va comunque caricata con un certo criterio. Qualora fossero presenti capi che stingono molto, puo’ essere necessario inserire piu’ di un foglietto.

Sicuramente, il punto a sfavore di questa soluzione e’ la non economicita’ dei foglietti. Qualche tempo fa, avevamo pero’ affrontato il discorso dei detersivi biologici fatti in casa:

Detersivi Ecologici

Bene, esiste gia’ un metodo per preparare ache i foglietti in casa. Per fare questo, basta prendere dei panni di cotone, un barattolo di vetro e della soda per bucato. Mettete nel vasetto un po’ di acqua calda e sciogliete all’interno la soda. A questo punto, immergete il panno di cotone per alcuni minuti fino a quando non sara’ pregno d’acqua. Fate asciugare all’aria il quadrato di stoffa e il vostro foglietto domestico e’ pronto. Essendo basato su prodotti naturali, l’efficacia di questa soluzione a parita’ di superficie e’ leggermente inferiore a quella dei foglietti commerciali. Visto il risparmio pero’, potete anche pensare di mettere piu’ di un foglietto nel bucato.

Ora pero’, onde pensare che questo sia divenuto un blog di soluzioni domestiche, torniamo al discorso sui consumi energetici. Come detto, il problema di dover accumulare la quantita’ corretta di abiti da lavare, spinge in alcuni casi a far partire la lavatrice non a pieno carico.

Nei modelli non troppo vecchi, e’ presente il tasto mezzo carico, che ci consente di far partire la lavatrice in modo ottimale anche con la meta’ del carico massimo. Quello che non tutti sanno, e’ che questa soluzione non consente assolutamente di spendere meta’ dell’energia ne tantomeno dell’acqua.

Mi spiego meglio.

Per capire il discorso, vi riporto il link di una nota casa produttrice, in cui trovate i dati di consumo di un modello specifico:

Dati lavatrice

Notate in particolare queste righe:

Consumo energetico 60° pieno carico (kWh): 0.76
Consumo energetico 60° mezzo carico (kWh): 0.66

Cosa dicono?

Lavando a 60 gradi, il consumo a pieno carico e’ di 0.76 KWh. Lavando alla stessa temperatura, ma con meta’ del carico, il consumo e’ di 0.66 KWh. Mettendo il 50% del carico, risparmiate solo il 13% di energia.

Capite dunque perche’, ogni qual volta si parla di soluzioni per il risparmio energetico, si dice di far andare la lavatrice a pieno carico.

Valori un po’ piu’ convenienti si hanno, ad esempio, per l’asciugatrice. Se guardiamo ai dati di un modello specifico:

Dati Asciugatrice

Vediamo che:

Consumo di energia del programma cotone standard a pieno carico: 2.03 kWh

Consumo di energia del programma cotone standard a mezzo carico: 1.24 kWh

In questo caso si ha un risparmio maggiore, ma comunuqe sempre lontano dal 50% di energia che si potrebbe erroneamente pensare.

I nuovi modelli di lavatrice hanno invece dei sensori nel cestello in grado di pesare il carico e ottimizzare il consumo di acqua e elettricita’. In questo caso, il risparmio e’ sicuramente migliore, anche se il riscalo in base al carico non e’ assolutamente proporzionale. Con cio’ si intende che il consumo non sara’ mai proporzionale al peso in Kg di bucato, anche se migliore dei vecchi modelli.

Concludendo, la lavatrice e’ sicuramente uno degli elettrodomestici piu’ utilizzati e che maggiormente contribuisce ai nostri consumi domestici. I foglietti acchiappacolore consentono, almeno in linea di principio, e se usati correttamente, di ottimizzare il carico mescolando abiti diversi. Far funzionare una lavatrice non a pieno carico, o al limite nella funzione mezzo carico, consente un risparmio irrisorio rispetto al pieno carico. Condizione migliore si ha con i nuovi elettrodomestici sensibili al reale peso del bucato. Nonostante questo, la cosa migliore per risparmiare energia e’ sicuramente quella di far girare la lavatrice a pieno carico sempre.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa c’e’ sotto i nostri piedi?

28 Apr

In questi giorni, molti giornali e siti internet hanno pubblicato la notizia di una nuova misura rigurdante la temperatura al centro della Terra. Come avrete letto, il nuovo risultato stabilisce una temperatura del centro della Terra a 6000 gradi centigradi, ben 1000 gradi maggiore rispetto al valore precedentemente conosciuto e misurato circa 20 anni fa. Tra l’altro, moltissime fonti enfatizzano il fatto che questi 6000 gradi, misurati al centro del nostro pianeta, sono paragonabili alla temperatura esterna del Sole.

Temperature della Terra dalla superficie al centro

Temperature della Terra dalla superficie al centro

E dunque? Purtroppo, come spesso accade, molti siti sono sempre pronti a pubblicare notizie di carattere scientifico, ma un po’ meno a dare spiegazioni. In realta’, questa misura e’ estremamente complessa ed e’ stata possibile solo grazie alla collaborazione di diversi centri di ricerca. Inoltre, la nuova determinazione della temperatura interna del pianeta, consente di verificare molti modelli riguardanti diversi settori della scienza.

Da quanto detto, credo che questa notizia meriti un piccolo approfondimento, anche solo per capire meglio questi concetti, che sempre affascinano le persone.

Per prima cosa: come e’ stata fatta questa misura?

Ad oggi, sappiamo che, scendendo verso il centro della Terra, ci sono zone ad alta pressione occupate da ferro e zolfo liquidi. Pian piano che ci avvicianiamo al centro pero’, e le pressioni continuano ad aumentare, si trova un blocco di ferro solido, che occupa la parte piu’ interna del nostro pianeta. Come sappiamo questo? L’evidenza di questa composizione, ma anche il volume occupato dalla parte solida e da quella liquida, vengono determinati studiando le onde sismiche dei terremoti di intensita’ maggiore. Cosa significa? Le onde emesse durante un forte sisma, si propagano all’interno della Terra e interagiscono in modo diverso incontrando un volume solido o liquido. Bene, misurando queste interferenze, se volete ascoltando il loro eco, e’ possibile determinare lo spessore del nucleo solido del nostro pianeta. Purtroppo, questi studi non ci danno nessuna informazione sulla temperatura interna della Terra. Per ricavare questi valori e’ necessario procedere in modo diverso.

Arriviamo dunque alla misura in questione. Come potete immaginare, sapendo che nel nucleo e’ presente sia ferro solido che liquido, basta determinare i punti di fusione di questo metallo per arrivare all’informazione cercata. Purtroppo, il discorso non e’ cosi’ semplice. In questo caso, oltre alla temperatura, gioca un ruolo essenziale anche la pressione a cui il ferro e’ sottoposto. Pressione e temepratura sono due variabili indipendenti di cui tenere conto per determinare il punto di fusione del ferro.

Per capire questo importante concetto, vi faccio un esempio noto a tutti. Quando si dice che la temperatura di ebollizione dell’acqua e’ 100 gradi, ci si riferisce alla pressione atmosferica. Come sicuramente avrete sentito dire, esistono delle differenze per questo valore a seconda che vi troviate al mare o in montagna. Questo e’ comprensibile proprio considerando i diversi valori di pressione. In questo caso, possiamo vedere la pressione come il peso della colonna d’aria sopra le nostre teste. Variando il valore della pressione, cambia dunque la temperatura di ebollizione dell’acqua. La stessa cosa avviene per il ferro al centro della terra, ma per valori di temperatura e pressioni molto diversi da quelli a cui siamo abituati.

Quando parliamo di pressioni al centro della Terra, stiamo pensando a valori che si aggirano intorno a qualche milione di atmosfere. Per poter studiare le traformazioni di fase del ferro con questi valori di pressione e temperatura, i ricercatori francesi hanno costruito uno strumento ad hoc, di cui vi mostro uno schema:

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Come vedete, una lamina di ferro viene messa tra due diamanti, in modo tale che la punta tocchi la superficie. Spingendo i due diamanti su un punto molto piccolo, si riescono a creare le pressioni richieste per la misura. Per scaldare invece il ferro alle temperature richieste, vengono utilizzati potenti fasci laser in grado di far salire la temperatura fino a diverse migliaia di gradi.

A questo punto, appare evidente che tutto il sistema debba essere isolato termicamente e chimicamente dall’ambiente esterno per impedire perdite di calore ma anche che il ferro reagisca con l’ambiente viziando il risultato. In questo caso, per poter determinare lo stato solido o liquido del campione, si sono utilizzate le emissioni a raggi X del materiale, in modo da poter determinare lo stato fisico, senza perturbare in nessun modo la misura.

Dai modelli sismici utilizzati, nello strato in cui il ferro e’ liquido, si ha una temperatura di 4800 gradi con una pressione di 2.2 milioni di atmosfere, risultato confermato dalla misura. Se pero’ aumentiamo ancora la pressione, analogamente a quanto accade mentre scendiamo vicino la centro della Terra, e la portiamo ad un valore di 3.3 milioni di atmosfere, ci si accorge che per far solidificare il ferro, come osservato dallo studio delle onde sismiche, e’ necessaria una temperatura di 6000 gradi.

Cosa significa questo? Riassumendo, sappiamo dai modelli sismici che il centro della terra e’ di ferro solido circondato da ferro liquido. Con il dispositivo visto, e’ stato possibile determinare che alle pressioni del centro della Terra, affinche’ il ferro sia solido, e’ necessaria una temperatura di 6000 gradi. Bene, questo e’ proprio il valore della temperatura al centro del nostro pianeta e che e’ stato possibile misurare con precisione, solo 500 gradi di incertezza sperimentale, con questa importantissima ricerca.

Come vi avevo anticipato, queto nuovo valore e’ circa 1000 gradi superiore a quello precedente ottenuto 20 anni fa. Perche’ questa differenza? Il sistema usato in precedenza per ottenere le alte pressioni richieste era molto simile a quello odierno. La caratteristica che ha permesso di misurare con precisione la temperatura, e’ lo studio delle transizioni del ferro osservando il tutto ai raggi X. Nella precedente misura, venivano utilizzate onde visibili. Come evidenziato in questa nuova misura, arrivati a circa 5000 gradi, si presentano fenomeni di cristallizzazione superficiale del ferro, che molto probabilemnte sono stati interpretati in passato come l’inizio della transizione nella fase solida, mentre, come visto in questa misura, per arrivare in questo stato, e’ necessario aumentare ancora di 1000 gradi la temperatura.

Ultima importante considerazione: come visto, la temperatura del mantello intorno al nucleo e’ di circa 4800 gradi, cioe’ 1200 gradi inferiore a quella del blocco di ferro solido. Bene, questa differenza di temperatura e’ fondamentale per capire un altro importante parametro del nostro pianeta e di cui spesso abbiamo parlato, il campo magnetico. Come sapete, spesso abbiamo parlato di geomagnetismo per sfatare tutte quelle voci catastrofische che vorrebbero un’inversione dei poli in corso:

Inversione dei poli terrestri

L’anomalia del Sud Atlantico

Il battito naturale …. della Terra

Bene, la differenza di temperatura tra gli strati interni, insieme anche alla rotazione della terra intorno al suo asse, sono proprio i responsabili della generazione del nostro campo magnetico. Per dirlo in parole semplici, l’interno della Terra si comporta come una dinamo in cui le correnti sono correnti termiche spinte dalla differenza di temperatura.

Come vedete, alla luce di quanto detto, e’ abbastanza riduttivo quanto si puo’ leggere sui giornali. Questa misura e’ estremamente interessante dal punto di vista tecnico, ma soprattutto i risultati ottenuti sono di prim’ordine. Come anticipato, i nuovi valori trovati consentiranno di migliorare notevolmente i modelli anche dal punto di vista geologico, utili anche per studiare la propagazione dei terremoti sul nostro pianeta. Detto questo, la misura apre il campo anche a possibili studi per cercare di riprodurre in laboratorio le condizioni di pressione e temperatura presenti in ogni strato del nostro pianeta. Avere una mappa di questo tipo, potrebbe fornire dati estremamente importanti per capire al meglio anche l’origine e l’evoluzione della nostra Terra.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Gamberi, balene e delfini. Cosa succede?

21 Mar

In diversi post, ci siamo occupati delle strane morie di massa di specie animali che avvengono nel mondo:

Moria di uccelli nel mondo

Moria di delfini nel Tirreno

Altra moria, questa volta di mante

Episodi di questo tipo, vengono costantemente pubblicizzati su moltissimi siti solo per cercare di convincere le persone che qualcosa di misterioso e molto pericoloso stia accadendo nel mondo. Al solito, ci troviamo di fronte ad una speculazione a senso unico. Attenzione, per “speculazione” non intendo affatto che le morie siano inventate, anzi sono perfettamente documentate, quello che voglio dire e’ che piuttosto che preoccuparsi del perche’ avvengono questi fenomeni, ci si preoccupa soltanto di spingere il pensiero comune a senso unico.

Come visto, per quanto riguarda gli uccelli, questi fenomeni avvengono quasi sempre a cavallo della fine dell’anno e sono infatti causati dall’utilizzo dei fuochi artificiali, che provocano un stress talmente alto negli animali da condurli anche alla morte.

Al contrario, nel caso delle mante, non si trattava affato di uno spiaggiamento collettivo senza spiegazione, bensi’ della pesca indiscriminata di pesci da parte dei pescatori di Gaza.

Dunque, in questi casi particolari, il fenomeno era sempre, volontariamente o meno, provocato dagli uomini e dall’utilizzo indiscriminato che a volte viene fatto dell’ambiente.

Perche’ torniamo su questo argomento?

In primis per un aggiornamento sul caso dei delfini trovati morti sulle spiagge del Tirreno e poi anche per parlare di un nuovo episodio avvenuto in Cile.

Cominciamo proprio da questo.

In questo caso, si parla di gamberetti, milioni di piccoli animali arrivati morti sulla spiaggia cilena di Coronel Town:

Gamberetti morti sulla spiaggia di Coronel Town in Cile

Gamberetti morti sulla spiaggia di Coronel Town in Cile

Al solito, scene di questo tipo possono risultare “crude” per i piu’ sensibili, ma vengono riportate solo per mostrare l’accaduto e far capire la gravita’ ed i numeri coinvolti in casi come questo.

Anche in questo caso, invece di cercare spiegazioni fantascientifiche o catastrofiste, basta porre l’attenzione sull’attivita’ dell’uomo.

Proprio in prossimita’ del punto del ritrovamento sono in funzione due centrali termoelettriche di una compagnia elettrica cilena. Per poter raffreddare gli impianti, vengono risucchiate grosse quantita’ di acqua con la conseguente moria di pesci ed altre specie che restano bloccate. Successivamente a questa prima mattanza, le acque vengono poi rilasciate in mare. Ora, anche se molti lo ignorano, il calore e’ una forte fonte inquinante. Per rispettare gli standard ambientali, le acque devono essere reimmesse in mare con una differenza di temperatura non troppo diversa da quella pre-esistente. In questo caso, molto probabilmente, il trattamento finale non e’ avvenuto, o non e’ stato fatto completamente, causando un brusco innalzamento della temperatura del mare vicino alla costa. Diciamo “molto probabilmente” perche’ le indagini sono ancora in corso, ma tutti gli indizi fanno pensare a questa causa. La temperatura delle acque troppo alta ha causato la morte dei gamberetti che poi sono stati trascinati a riva dalla corrente. A riprova di questo, la concentrazione di gamberi sulla spiaggia era molto maggiore in prossimita’ degli scarichi delle centrali.

Dunque, anche in questo caso la causa e’ da ricercarsi nell’uomo ed in particolare nell’inquinamento provocato da attivita’ antropiche.

Cosa dire invece sul delfini del Tirreno? Come visto nell’articolo precedente, dall’inizio dell’anno sono stati ritrovati sulle coste del Tirreno decine di corpi di delfini senza vita. Questi numeri sono molto piu’ alti dei normali ritrovamenti che ogni anno vengono fatti e che sono imputabili a cause naturali. In questo caso, si parlo’ da subito di un probabile batterio in grado di infettare i delfini provocandone la morte. Ovviamente, le indagini sono partite immediatamente, anche con autopsie sui corpi, appunto per capire l’origine ma anche per scongiurare eventuali sostanze inquinanti rilasciate in modo barbaro nelle nostre acque.

A distanza di settimane, i biologi sono giunti alla probabile conclusione che la causa della morte dei delfini debba essere ricercata nel “morbillo”. I delfini prendono il morbillo? Forse vi sembrera’ strano, ma si tratta proprio di una variante del virus che puo’ colpire anche l’uomo. I morbillivirus sono virus a singolo ceppo di RNA e fino al 1988 erano state trovate quattro varianti in grado di colpire, oltre all’uomo, diverse specie di mammiferi terrestri. In seguito proprio ad eventi di spiaggiamento, si sono potute identificare altre varianti in grado di colpire anche specie marine, tra cui delfini, balene e foche.

Dalle analisi condotte, molto probabilmente l’elevata moria di delfini sulle coste del Tirreno e’ proprio da ricercarsi in un’epidemia di “Morbillo dei Cetacei”. Ovviamente le analisi sono ancora in corso, ma l’idea che sta mettendo d’accordo i biologi e’ proprio dell’infezione degli animali. Solo per completezza, vi dico che negli ultimi giorni sono state rinvenute altre carcasse questa volta sul litorale toscano.

La balena rinvenuta sulle coste in provincia di Livorno

La balena rinvenuta sulle coste in provincia di Livorno

Ora, dopo l’aggiornamento delfini, andiamo invece a parlare di balene. Proprio lo spiaggiamento di un esemplare di questa specie ha fatto riaccendere l’interesse sui ritrovamenti di delfini nel Tirreno. Pochi giorni fa infatti e’ stata rinvenuta sulle coste di fronte Rosignano in provincia di Livorno la carcassa di una balenottera di 17 metri, purtroppo ormai morta.

Capite bene che il ritrovamento di un animale di queste dimensioni suscita sempre un interesse molto alto, soprattutto se sommato al caso dei delfini che sta facendo discutere ormai da mesi.

Anche in questo caso pero’, molto probabilmente la causa della morte dell’animale e’ da ricercarsi nel morbillo dei cetacei. Poiche’ la notizia e’ solo di un paio di giorni, capite bene che al momento sono ancora in corso tutti gli esami del caso per cercare di individuare le reali cause della morte. Partendo pero’ proprio dal caso dei delfini, la comunita’ scientifica ha subito puntato il dito contro l’infezione di morbillo.

A riprova di questo, gia’ un paio di anni fa, sempre sulle coste toscane ma vicino Pisa, un’altra balena era stata trovata morta. A seguito degli esami autoptici si comprese che la causa della morte era un’infezione di morbillo dei cetacei.

Concludendo, molto spesso le morie di animali sono da imputarsi ad attivita’ umane condotte non rispettando l’ambiente. In altri casi, come quello dei cetacei, la causa e’ del tutto naturale e provocata da infezioni che si propagano tra gli animali o anche, molto spesso, ad alghe con fioriture molto estese, variazioni naturali delle correnti, o predominanza di una specie rispetto ad un altra. In tutto questo pero’, e’ assolutamente non utile cercare cause diverse e catastrofiste. Questo non fa altro che spostare l’attenzione dai reali problemi ambientali al solo scopo di far guadagnare siti pseudoscientifici.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il sistema di posizionamento Galileo

21 Mar

Notizia fresca di questi giorni, che forse avrete letto anche sui  giornali, e’ stato lanciato il quarto satellite del sistema di navigazione e localizzazione Galileo. L’insieme dei quattro satelliti ha dato ufficialmente il via alla ricezione di questo sistema di localizzazione europeo.

Il principio di funzionamento, cosi’ potete leggere, e’ come quello del GPS americano, ma in questo caso si tratta di un sistema tutto europeo. Al momento sono in orbita 4 dei 30 satelliti previsiti che formerano la costellazione appunto del sistema Galileo.

Bello direte voi, ma questa notizia dovrebbe suscitare un po’ di curiosita’ e soprattutto una serie di domande lecite che vorrei condividere con voi: come funziona il GPS? Perche’ se c’era quello americano ne dobbiamo fare uno europeo? Che vantaggi comporta?

Tutte domande lecite a cui proveremo a dare una risposta semplice e accessibile a tutti.

Al solito, provate a fare un esperimento-intervista. Chiedete, anzi chiedetevi, come funziona il GPS che avete in macchina, sul cellulare, sul portatile, ecc. Molto spesso la risposta data e’ la seguente: semplice, si accende un antenna, questa comunica con un satellite che ci localizza e il gioco e’ fatto, otteniamo un puntino su una mappa che indica la nostra posizione “esatta”. Una risposta del genere e’ completamente sbagliata in diversi punti. Se questa e’ stata la vostra risposta, forse e’ il caso di continuare la lettura.

Partiamo dall’inizio. Abbiamo il problema di localizzare la nostra posizione in un punto qualsiasi della Terra. Come facciamo? Semplice, utilizziamo dei satelliti. Se non altro, l’utilizzo di satelliti ci permette, in linea di principio, di essere sempre localizzabili indipendentemente dalla posizione. In Europa, in Asia, nell’oceano, se alzate la testa vedete il cielo e quindi potenzialmente il satellite.

Satelliti visibili dal ricevitore nel tempo

Satelliti visibili dal ricevitore nel tempo

In realta’, non e’ proprio esattamente cosi’. Un solo satellite che gira intorno alla Terra non sarebbe sempre visibile. Per dirla tutta, un solo satellite non consentirebbe neanche di localizzarci, ma ne servono ben quattro visibili da dove siamo. Su questo torneremo tra poco. Dunque, un solo satellite non basta ne servono 4. Per questo motivo, la costellazione di satelliti GPS e’ formata da un numero grande di oggetti in orbita in modo da poter garantire sempre ed in ogni punto la visibilita’ di almeno 4 satelliti. L’immagine riportata permette di chiarire molto bene questo concetto. Come vedete, mentre i satelliti girano intorno alla Terra, viene riportato in ogni istante il numero di satelliti visibili. Affinche’ la vostra rete sia funzionale, questo numero non deve mai essere minore di quattro.

Fin qui ci siamo. Abbiamo bisogno di 4 satelliti. Non abbiamo ancora risposto alle domande iniziali, anzi ne abbiamo aggiunta un’altra: perche’ 4 satelliti?

Cerchiamo ora di capire come funziona il GPS. In realta’, l’antenna del vostro sistema non comunica affatto con i satelliti, ma e’ solo un “ricevitore” di segnali. In ogni istante, i satelliti inviano verso la terra dei segnali che l’antenna e’ in grado di ricevere. Questi segnali sono di tipo orario, cioe’ contengono l’informazione sull’ora del loro invio. Il metodo di localizzazione si basa appunto sulla differenza di tempo tra l’invio del segnale da parte del satellite e la sua ricezione dall’antenna. Conoscendo la velocita’di propagazione del segnale, dalla differenza di tempo possiamo ricavare la distanza del ricevitore dal satellite.

Ora, dovendo posizionare un punto sulla mappa corrispondente al ricevitore, avete bisogno di 3 informazioni: latitudine, longitudine e altitudine. Avete cioe’ 3 incognite da calcolare. Come ricorderete dalla matematica, per risolvere un sistema di 3 incognite c’e’ bisogno di 3 equazioni indipendenti. 3 equazioni significa dunque avere l’informazione contemporaneamente da 3 satelliti. Proprio per questo motivo si parla di “triangolazione” della posizione.

Ricapitoliamo: 3 incognite per la posizione esatta, 3 equazioni che sono i 3 satelliti, e fin qui ci siamo. Perche’ prima parlavamo di 4 satelliti?

Abbiamo detto che tutto il gioco si basa sulla misura del tempo impiegato dal segnale per andare dal satellite al ricevitore. Detto proprio semplicemente, il satellite manda un segnale dicendo sono le 12.00 il ricevitore ascolta il segnale, vede che sono le 12.01 e quindi capisce che e’ passato un minuto (in realta’ la differenza temporale e’ tipicamente dell’ordine dei millisecondi). Facile a dirsi ma non a farsi. Affinche’ questo gioco funzioni, i satelliti ed il ricevitore devono essere perfettamente sincronizzati.

I satelliti del GPS utilizzano degli orologi atomici al Cesio o al Rubidio, estremamente precisi, ma che costano piu’ o meno 200000 euro l’uno. Il nostro piccolo e economico ricevitore certamente non dispone di un sistema del genere. Dunque, per localizzare il punto non servono piu’ 3 incognite bensi’ 4, compreso il tempo. Il quarto satellite serve appunto per determinare anche l’informazione temporale.

images

Solo per completezza di informazione, la localizzazione GPS sarebbe impossibile senza le dovute correzioni date dalla relativita’ di Einstein. Il tempo sul satellite scorre ad un ritmo leggermente piu’ veloce rispetto alla Terra (dilatazione dei tempi). Se questo effetto non fosse incluso, le misure dei tempi di percorrenza sarebbero sistematicamente sbagliate. La funzionalita’ del GPS e’, se vogliamo, anche una conferma pratica dell’esistenza della relativita’.

Dunque, abbiamo capito come avviene la localizzazione. Torniamo ora al discorso satelliti. In ogni istante ed in ogni punto della Terra devo dunque poter vedere almeno 4 satelliti. Quello che oggi chiamiamo GPS sfrutta, come detto all’inizio, la costellazione di satelliti americani chiamata NAVSTAR GPS costituita in tutto da 31 satelliti. Questi sono disposti su sei piani orbitali con un’inclinazione di 55 gradi sul piano equatoriale. Maggiore e’ il numero di satelliti utilizzati simultaneamente, minore e’ l’incertezza con cui si possono ricavare le incognite, e dunque la posizione del ricevitore.

La precisione attuale del NAVSTAR e’ dell’ordine di qualche metro. Fino a prima del 2000, la qualita’ del sistema per uso civile era dell’ordine dei 200 metri a causa dela distorsione fatta appositamente sui segnali per uso civile, mentre per gli usi militari veniva data qualita’ massima. Questa distinzione, detta anche “disponibilita’ selettiva” e’ stata eliminata su volere del presidente Clinton e, di fatto, ha aperto la strada ai sistemi GPS portatili per scopi civili.

Abbiamo risposto gia’ a 2 domande su 3. Sappiamo ora come avviene la localizzazione e perche’ servono 4 satelliti. Torniamo ora a Galileo.

Galileo prevede una costellazione di 30 satelliti che diverra’ pienamente operativa a partire dal 2014. Ad oggi, e sappiamo ora anche il perche’, sono stati lanciati 4 satelliti e dunque e’ possibile fare i primi studi sui segnali e cominciare a testare la qualita’ del sistema.

Perche’ fare un nuovo sistema se c’e’ gia’ quello americano? In realta’, in orbita ci sono due sistemi di navigazioni indipendenti, il NAVSTAR americano e il GLONASS russo, quest’ultimo pero’ scarsamente manutenuto negli ultimi tempi. La motivazione del Galileo e’ piu’ politica che scientifica. Il NAVSTAR e il GLONASS per uso civile sono sempre subordinati all’effettivo utilizzo militare dei due paesi. In qualsiasi momento, uno dei due paesi potrebbe decidere di chiudere il servizio civile per un qualsiasi motivo. Non pensate soltanto al navigatore della vostra automobile, il GPS e’ utilizzato in tutti i sistemi di navigazione civili come aerei, navi, antifurti satellitari, ecc. Una, seppur improbabile (forse), decisione del genere causerebbe un danno irreparabile. La necessita’ dunque di interrompere un monopolio di localizzazione ha spinto i paesi europei ha dotarsi di un proprio sistema satellitare.

Inoltre, a differenza di quello made in USA, il Galileo gode dei finanziamenti di diversi paesi attraverso la comunita’ europea e non solo. Diversi paesi extraeuropei, come Israele, Cina e Russia (come integrazione del GLONASS), stanno contribuendo a Galileo appunto per assicurare un servizio civile costante.

Solo per completezza, esistono anche dei sistemi minori di tipo regionale attualmente in fase di studio. Sia l’India che la Cina stanno infatti portando avanti gli studi per dotarsi di sistemi proprietari esclusivi non globali. In questo caso, ma si tratta di una mia considerazione personale, programmi di questo tipo servono soltanto per prendere confidenza e dimostrare agli altri la possibilita’ di accedere allo spazio mediante satelliti. Come sappiamo, si tratta di economie definite “emergenti”, anche se ormai emerse del tutto, e proprio per questo interessate alla corsa allo spazio su tutti i fronti.

Concludendo, i primi 4 satelliti di Galileo sono in orbita. Nel giro di qualche anno la costellazione di satelliti dovrebbe essere completata e funzionante. Questo sistema, parallelo al NAVSTAR, consentira’ la localizzazione sulla Terra garantendo la funzionalita’ civile sempre e indipendentemente dalla situazione politica. Dal punto di vista economico, ci saranno vantaggi anche per le aziende europee che potranno produrre e commercializzare ricevitori per Galileo mentre prima con il NAVSTAR questo settore era riservato ad aziende americane.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.