Tag Archives: principio

EMdrive: il motore che va contro i principi della fisica

11 Set

Dopo qualche giorno di pausa, purtroppo non per svago, eccoci di nuovo qui. Per iniziare alla grande, torniamo a parlare di scienza, o almeno di qualcosa che gli somiglia. Come ci ha segnalato un nostro lettore nella sezione:

Hai domande o dubbi?

in questi giorni si è molto parlato di un’invenzione davvero particolare. Di cosa si tratta? Detto “poco chiaramente”, stiamo parlando del “motore quantistico”.

Cosa sarebbe questo motore quantistico?

Cerchiamo di andare con ordine, capendo l’origine di questa storia. Partendo da parole più semplici , il motore quantistico è, appunto, un motore che produrrebbe una spinta senza propellente ma solo usando elettricità.

Una soluzione del genere, potrebbe essere utilizzata come thruster nello spazio, cioè come sistema per far muovere i satelliti o altri veivoli spaziali. Cosa c’è di strano in tutto questo? La risposta è semplice, sapete perchè ci vuole così tanto tempo per girovagare nello spazio? Perchè i velivoli che mandiamo si muovono per inerzia. Praticamente, vengono messi in moto tramite propulsori, poi questi vengono spenti e il mezzo continua a procedere lungo la sua direzione. Tutto questo è frutto di una delle leggi fondamentali della meccanica, cioè il principio di inerzia.

Perchè questo motore quantistico sarebbe così rivoluzionario? Detto semplicemente, per far andare qualcosa nello spazio, abbiamo bisogno di avere una spinta in senso contrario. Questo è noto come principio di conservazione della quantità di moto.

Facciamo un esempio per capire meglio.

Supponete di essere al centro di un lago ghiacciato. La superficie del lago è talmente liscia che, idealmente, non c’è nessun attrito tra voi e il ghiaccio. In questa condizione limite, non potete camminare. Sapete perchè? Il semplice camminare è possibile proprio grazie all’attrito tra i nostri piedi, o le nostre scarpe, e il terreno. Praticamente, camminando, il vostro piede è fermo grazie all’attrito statico tra voi e il terreno.

Se ora vi trovate al centro di questo lago, non potete quindi riuscire a camminare. Come fate a mettervi in salvo e raggiungere la riva?

Una buona soluzione potrebbe essere quella di togliervi un indumento e lanciarlo in una direzione. Come per magia, ma in realtà è fisica, voi vi muovete per reazione nella direzione opposta a quella del lancio.

Bene, nello spazio succede esattamente la stessa cosa. Questo è noto, appunto, come principio di conservazione della quantità di moto. Altra legge fondamentale della fisica. Dunque, se questo motore non spinge nulla, per la fisica non può andare avanti.

Come è possibile?

Per provare a rispondere a questa domanda, vediamo prima di tutto come è fatto questo motore. Ecco a voi una foto di quello che viene chiamato EMdrive:

EM drive

EM drive

Questo motore è stato inventato dallo scienziato inglese Roger Shawyer alcuni anni fa. Come funziona? Il principio di funzionamento, secondo il suo inventore, sarebbe il seguente: si tratta di una cavità asimettrica in cui la radiazione a microonde viene fatta rimbalzare sulle pareti producendo effetti di risonanza. A causa di effetti relativistici, si creerebbe una differenza di pressione tra i due estremi del motore con una conseguente spinta, appunto quella di cui parlavamo per far andare i razzi nello spazio.

A distanza di qualche anno, alcuni ricercatori cinesi decidono di costruire un loro proprio motore quantistico per verificare che quanto detto da Roger Shawyer fosse vero. Cosa riescono ad ottenere? Un motore che funziona secondo lo stesso principio e conferma quanto scoperto anni prima.

Di che spinte parliamo? Più o meno 720 milli Newton secondo i cinesi.

Cosa significa 720 milli Newton? Immaginate di prendere in mano un peso da 1 Kg e di tenerlo fermo. Come sapete questo oggetto è dotato di massa ed esercita una spinta sulla nostra mano, chiamata forza peso, risultato dell’attrazione della Terra verso l’oggetto (e mutuamente dell’oggetto verso la Terra). Con un peso da 1 Kg, la spinta è di circa 10 Newton. Dunque, qui abbiamo una spinta di 720 mN, cioè equivalente a quella che produrrebbe un oggetto da 72 grammi tenuto in mano.

Interessa a qualcuno il valore della spinta? L’importante è che questa ci sia e sia in grado di far andare i nostri satelliti.

In realtà, come vedremo, il valore della spinta non è trascurabile.

A questo punto, potremmo essere di fronte alla solita teoria rivoluzionaria che la scienza cerca di insabbiare perché mette in crisi le basi su cui abbiamo costruito tutti i nostri castelli di carte. Attenzione però, questa storia è leggermente diversa dalle solite. Sapete perché? Vista la possibile applicazione di questo motore, la NASA ha deciso di analizzarlo e di provare a verificare se i risultati sono corretti.

Cosa accade a questo punto?

La NASA fa le sue prove e ottiene un risultato in cui si ha una spinta che per la fisica non dovrebbe esserci! Dunque funziona tutto? Aspettiamo prima di dirlo.

Come visto, la spinta misurata era di 720 mN. I tecnici della NASA hanno ottenuto una spinta tra 30 e 50 micro Newton, dunque, circa un fattore 10000 in meno.

Come detto prima, ma chi se ne frega, l’importante è che la spinta ci sia!

Come potete immaginare, molti giornali internazionali hanno dato ampio risalto alla notizia, salvo però non dire tutto fino in fondo.

Cosa significa?

La NASA, dopo aver effettuato questi test, ha pubblicato un conference paper sulla questione. Ecco a voi il link dove leggere il lavoro:

NASA, EMdrive test

Come potete vedere, l’articolo sembra confermare quanto affermato. Attenzione però, leggete tutto fino in fondo. Verso la fine, gli autori scrivono una frase che tanti hanno fatto finta di non leggere. Questa:

Thrust was observed on both test articles, even though one of the test articles was designed with the expectation that it would not produce thrust. Specifically, one test article contained internal physical modifications that were designed to produce thrust, while the other did not (with the latter being referred to as the “null” test article).
Cosa significa? Nel test i tecnici hanno utilizzato anche un motore di controllo realizzato per non avere nessuna spinta. Durante il test però, quando hanno utilizzato questo motore, hanno osservato nuovamente questa spinta. Cioè? Dovete fare un test che porterà valori misurati molto piccoli. Come normale, costruite qualcosa che non dovrebbe invece funzionare. Poi ottenete che tutti e due misurano qualcosa paragonabile. Come concludere? E’ sbagliata la misura su quello buono o su quello che non dovrebbe funzionare?
Personalmente, come mia natura, voglio essere propositivo e, come si dice, “open mind”. Ad oggi, i risultati mostrano valori discordanti. Molto probabilmene, i valori della spinta che si vuole misurare sono troppo bassi per le incertezze derivanti dal metodo di misura stesso. Detto in modo statistico, il risultato ottenuto è compatibile con zero Newton di spinta ma anche con qualcosa diverso da zero.
Ovviamente, non voglio precludere nulla ma, allo stato attuale, questo motore non ha dato risultati che confermano quanto affermato. Visto l’interesse sulla cosa, sono sicuro che ci saranno ulteriori sviluppi nei prossimi mesi. Se così fosse, torneremo sull’argomento proprio per vedere se quanto affermato corrisponde al vero e, in tal caso, ragioneremo su effetti non considerati dalla fisica.
Annunci

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Farmaci branded o equivalenti?

12 Lug

Stamattina entro in farmacia e mi metto in una delle due file che si erano create al banco. Mentre ero li, ascolto per due volte al stessa domanda rivolta dal farmacista al cliente di turno che aveva chiesto un medicinale: vuole l’originale o il generico? Due domande, due risposte diverse. Una signora ha detto: mi dia il generico tanto è la stessa cosa e costa di meno, mentre l’altra ha risposto: no grazie, mi dia quello originale perché l’altro non funziona.

Sentendo queste due risposte completamente agli antipodi per la stessa domanda, mi è tornata in mente la discussione che diverse volte ho ascoltato, anche da famigliari, sull’efficacia o meno dei farmaci generici. Poiché mi sembra che ci sia ancora tanta confusione a riguardo, credo sia interessante e importante sviscerare con un po’ più di dettaglio questo argomento.

Per prima cosa, il termine “farmaco generico” non è in realtà corretto ma deriva solo da una traduzione letterale del termine inglese “generic drugs”. Per essere precisi, il nome corretto da usare per questa tipologia di farmaci è “equivalenti”.

Bene, cosa sono i farmaci equivalenti?

Per rispondere a questa domanda, dovremmo partire dall’altra sponda del fiume, cioè dai farmaci “originali”, “branded” o come volete chiamarli. Insomma, quelli originali prodotti da qualche casa farmaceutica e che hanno, molto spesso, nomi di fantasia. Ora, come sapete, questi farmaci hanno normalmente un singolo principio attivo che caratterizza il prodotto e la sua efficacia curativa. Per la legge, la formazione del principio attivo è brevettabile per un periodo di 20 anni a partire dall’inizio della sperimentazione sull’uomo. Allo scadere di questo tempo, il principio attivo non è più “sotto licenza” e, come stabilito per legge, può essere prodotto da qualunque casa farmaceutica senza violare nessun diritto d’autore.

Capito come nascono i medicinali equivalenti? Una casa farmaceutica studia un nuovo principio attivo e inizia la lunga fase della sperimentazione. Come sappiamo bene, prima ancora di poter provare il medicinale su un campione umano di controllo sono necessari diversi stadi di sperimentazione in cui il farmaco può essere scartato per problematiche varie legate al suo utilizzo. Testata, in buona parte, la non pericolosità del farmaco e il suo potere curativo, inizia la sperimentazione sull’uomo, sempre sotto stretto controllo. Da qui inizia anche il periodo di brevetto, cioè i 20 anni di cui parlavamo prima. Se la fase di sperimentazione sull’uomo va a buon fine, il farmaco arriva, prodotto dalla casa farmaceutica, al banco della farmacia. Tenendo conto che la fase di sperimentazione sull’uomo normalmente dura dai 5 ai 10 anni, il reale periodo di vendita del medicinale sotto brevetto va dai 10 ai 15 anni.

Cosa succede quando il brevetto arriva a scadenza? Come anticipato, da questo momento in poi chiunque può produrre e commercializzare il principio attivo come base di farmaci diversi non “brandizzati”, appunto gli equivalenti.

Come vengono fatti questi farmaci? Ovviamente partendo dal principio attivo del farmaco di marca. Per fare un esempio concreto, proviamo a prendere un medicinale noto a tutti, l’Aulin, prima prodotto dalla Roche e poi dalla Angelini. Aulin è ovviamente il nome commerciale di fantasia del farmaco. In questa sede, non voglio discutere di funziona, non funziona, fa male allo stomaco, non fa male, le case farmaceutiche sono così, no sono così, ecc.. Ho preso un esempio pratico per parlare con nomi che sono noti a tutti.

Dunque, il principio attivo dell’Aulin è il Nimesulide, utile per tantissimi dolori come noto a chi ha assunto l’Aulin. Bene, il brevetto dell’Aulin è scaduto dunque, così come avviene, è possibile produrre un medicinale equivalente che non avrà un nome commerciale bensì il cui nome sarà solo il principio attivo, quindi Nimesulide.

Perché si dovrebbe comprare un generico piuttosto che un farmaco di marca? Il primo motivo è il prezzo. Per la legge, il generico deve costare almeno il 20% in meno dell’originale. In realtà, come tutti sanno, lo sconto tra il generico e l’equivalente arriva molto tranquillamente anche al 50%. Oltre a questo, ma su questo punto torneremo a breve, i due farmaci hanno esattamente lo stesso principio attivo, con le stesse quantità e con la stessa assunzione.

Prima domanda: perché il generico costa meno di quello di marca? Questa domanda ha portato negli anni molte risposte fantasiose che hanno creato tantissima confusione. Alcuni pensano addirittura che il generico costi meno perché prodotto in scantinati senza controlli, perché non testato secondo tutti i criteri di legge o perché sia prodotto con materie prime di qualità inferiore. Signori, sono medicinali, non scarpe da ginnastica!

Cosa significa? Poiché parliamo di medicinali, tutti i farmaci vengono controllati prima di poter essere immessi sul mercato, così come viene controllata la loro qualità farmaceutica e le condizioni in cui vengono prodotti. Perché allora costano di meno? Come scritto sopra, prima di poter arrivare in farmacia, un farmaco ha una fase di sperimentazione moto lunga, così come la fase precedente di ricerca vera e propria, che ha un costo notevole per le aziende farmaceutiche. Un farmaco generico, poiché contiene appunto lo stesso principio attivo “copiato” da quello di marca, non ha fase di ricerca, non deve essere sperimentato ma deve solo essere valutata la sua “bio-equivalenza”.

Bene, siamo arrivati al punto cardine della discussione, la bio-equivalenza tra i due farmaci, quello di marca e quello equivalente. Per prima cosa, continuando con il nostro esempio, se compro Aulin in granulato, dentro ci sono 100 mg di Nimesulide che vanno sciolti in acqua e bevuti. Bene, se comprate il generico Nimesulide granulato, ci trovate, ripeto per legge, la stessa quantità di principio attivo e da assumere esattamente con le stesse modalità.

Aspettate un attimo, stesso principio attivo, stessa quantità, stessa assunzione, perché si parla di bio-equivalenza? Semplice, per prima cosa, la legge impone la stessa quantità di principio attivo più o meno il 5%. In altre parole, potreste aver un farmaco equivalente con un 5% in più o in meno di principio attivo. Inoltre, la modalità di sintesi e produzione del principio attivo non deve essere identiche e, soprattutto, gli eccipienti dei medicinali possono essere completamente diversi.

Prima di tornare su questi punti, cerchiamo di capire come si determina la bio-equivalenza di due farmaci. Per prima cosa, si deve misurare la bio-disponibilità di un farmaco dopo l’assunzione. Esempio, prendo una bustina di Aulin, misuro la concentrazione nell’organismo del principio attivo e da queste misure determino il tempo necessario al farmaco per agire, cioè per arrivare la bersaglio, e il tempo in cui il principio attivo resta in circolo, cioè quanto tempo “dura l’effetto”. Bene, affinché due farmaci siano equivalenti, la legge impone che la loro bio-equivalenza non sia diversa di più del 20%.

Ecco un altro parametro che potrebbe dunque distinguere un generico dal farmaco di marca. L’equivalente potrebbe dunque contenere una quantità diversa al più di 5% di principio attivo e avere una equivalenza diversa al massimo del 20% da quello originale.

In tutto questo, c’è poi il discorso sugli eccipienti. Utilizziamo sempre il nostro esempio pratico per capire meglio la differenza di composizione tra due farmaci. Se leggete la composizione di un qualsiasi medicinale, oltre al principio attivo trovate altre sostanze, i cosiddetti eccipienti, che servono per rendere maggiormente assimilabile il principio attivo, dare un sapore al medicinale o anche solo agglomerare meglio il farmaco stesso. Guardando ad esempio alla composizione dell’Aulin:

Aulin composizione

trovate che una compressa contiene: Docusato sodico, idrossipropilcellulosa, lattosio monoidrato, carbossimetilamido sodico A, cellulosa microcristallina, olio vegetale idrogenato, magnesio sterrato. Se invece prendiamo un medicinale Nimesulide equivalente:

Nimesulide Equivalente

Troviamo come eccipienti: Dioctil  sodio  solfosuccinato, idrossipropilcellulosa,  lattosio,  sodio  amido  glicolato,  cellulosa  microcristallina,  olio  di  ricino  idrogenato, magnesio stearato. Dunque, eccipienti simili ma non esattamente gli stessi.

Ora, sulla carta, gli eccipienti sono sostanze inerti che non non incidono sull’azione del principio attivo e per questo la legge impone solo il controllo sulla molecola attiva. In realtà, gli eccipienti possono avere effetti minori che però sono completamente soggettivi. In alcuni casi, eccipienti diversi possono determinare: differenza di disponibilità nell’organismo, aver effetti soggettivi più o meno sinergici con il principio attivo e, soprattutto, possono causare disturbi a chi assume il farmaco. Perché questo? Semplice, come sappiamo prima di assumere un qualsiasi farmaco è buona norma leggere il bugiardino. Per un paziente diabetico, ad esempio, è importante verificare che nel medicinale non sia presente il saccarosio come eccipiente. Allo stesso modo, un soggetto intollerante al lattosio non può assumere farmaci contenenti questo eccipiente. In altre parole, è possibile che un soggetto non possa assumere un farmaco di marca ma possa invece assumere il generico o viceversa.

A questo punto, dal punto di vista chimico abbiamo capito che i farmaci di marca e gli equivalenti contengono lo stesso principio attivo in quantità al massimo diverse del 5%, la bio-equivalenza dei due farmaci viene verificata entro un 20% per legge e gli eccipienti contenuti nei farmaci possono invece essere diversi. Detto questo, normalmente i farmaci equivalenti sono del tutto identici a quelli di marca, in altri casi possono risultare meno efficaci ma ci sono anche casi in cui i consumatori preferiscono un equivalente all’originale (ripensate al discorso delle intolleranze e degli eccipienti). Detto questo, occorre di volta in volta provare i due farmaci senza volersi incaponire sull’originale o sul generico a tutti i costi. Ricordatevi però che per legge il farmacista dovrebbe sempre chiedervi se volete il farmaco equivalente.

Solo per concludere, il risparmio portato alle casse dello stato utilizzando gli equivalenti è assolutamente notevole (parliamo di centinaia di milioni di euro all’anno risparmiati) e questo gettito extra può essere utilizzato (almeno dovrebbe) per migliorare il servizio sanitario e le strutture ospedaliere. In Italia, purtroppo, solo il 15% del mercato dei farmaci è occupato dai generici, indice del fatto che gli italiani si fidano ancora poco di questi medicinali. Solo per darvi un’idea, negli Stati Uniti i generici rappresentano il 75% del mercato mentre in Gran Bretagna, primato assoluto, arriviamo addirittura all’85% del totale dei farmaci venduti rappresentati da medicinali equivalenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Flusso oscuro e grandi attrattori

28 Feb

Nella ormai celebre sezione:

Hai domande o dubbi?

in cui sono usciti fuori davvero gli argomenti piu’ disparati ma sempre contraddistinti da curiosita’ e voglia di discutere, una nostra cara lettrice ci ha chiesto maggiori lumi sul cosiddetto “dark flow” o flusso oscuro. Una richiesta del genere non puo’ che farci piacere, dal momento che ci permette di parlare nuovamente di scienza e, in particolare, di universo.

Prima di poterci addentrare in questo argomento scientifico ma, anche a livello di ricerca, poco conosciuto, e’ necessario fare una piccolissima premessa iniziale che serve per riprendere in mano concetti sicuramente conosciuti ma su cui spesso non si riflette abbastanza.

Per iniziare la discussione, voglio mostrarvi una foto:

sir-isaac-newtons-philosophic3a6-naturalis-principia-mathematica

Quello che vedete non e’ un semplice libro, ma uno dei tre volumi che compongono il Philosophiae Naturalis Principia Mathematica o, tradotto in italiano, “I principi naturali della filosofia naturale”. Quest’opera e’ stata pubblicata il 5 luglio 1687 da Isaac Newton.

Perche’ e’ cosi’ importante questa opera?

Questi tre volumi sono considerati l trattato piu’ importante del pensiero scientifico. Prima di tutto, contengono la dinamica formulata da Newton che per primo ha posto le basi per lo studio delle cause del moto ma, soprattutto, perche’ contengono quella che oggi e’ nota come “Teoria della Gravitazione Universale”.

Sicuramente, tutti avrete sentito parlare della gravitazione di Newton riferita al famoso episodio della mela che si stacco’ dall’albero e cadde sulla testa del celebre scienziato. Come racconta la leggenda, da questo insignificante episodio, Newton capi’ l’esistenza della forza di gravita’ e da qui la sua estensione all’universo. Se vogliamo pero’ essere precisi, Newton non venne folgorato sulla via di Damasco dalla mela che cadeva, ma questo episodio fu quello che fece scattare la molla nella testa di un Newton che gia’ da tempo studiava questo tipo di interazioni.

Volendo essere brevi, la teoria della gravitazione di Newton afferma che nello spazio ogni punto materiale attrae ogni altro punto materiale con una forza che e’ proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza. In soldoni, esiste una forza solo attrattiva che si esercita tra ogni coppia di corpi dotati di massa e questa interazione e’ tanto maggiore quanto piu’ grandi sono le masse e diminuisce con il quadrato della loro distanza.

Semplice? Direi proprio di si, sia dal punto di vista fisico che matematico. Perche’ allora chiamare questa legge addirittura con l’aggettivo “universale”?

Se prendete la male di Newton che cade dall’albero, la Luna che ruota intorno alla Terra, la Terra che ruota intorno al Sole, il sistema solare che ruota intorno al centro della Galassia, tutti questi fenomeni, che avvengono su scale completamente diverse, avvengono proprio grazie unicamente alla forza di gravita’. Credo che questo assunto sia sufficiente a far capire l’universalita’ di questa legge.

Bene, sulla base di questo, l’interazione che regola l’equilibrio delle masse nell’universo e’ dunque la forza di gravita’. Tutto quello che vediamo e’ solo una conseguenza della sovrapposizione delle singole forze che avvengono su ciascuna coppia di masse.

Detto questo, torniamo all’argomento principale del post. Cosa sarebbe il “flusso oscuro”? Detto molto semplicemente, si tratta del movimento a grande velocita’ di alcune galassie in una direzione ben precisa, situata tra le costellazioni del Centauro e della Vela. Questo movimento direzionale avviene con velocita’ dell’ordine di 900 Km al secondo e sembrerebbe tirare le galassie in un punto ben preciso al di fuori di quello che definiamo universo osservabile.

Aspettate, che significa che qualcosa tira le galassie fuori dall’universo osservabile?

Per prima cosa, dobbiamo definire cosa significa “universo osservabile”. Come sappiamo, l’universo si sta espandendo e se lo osserviamo da Terra siamo in grado di vedere le immagini che arrivano a noi grazie al moto dei fotoni che, anche se si muovono alla velocita’ della luce, si spostano impiegando un certo tempo per percorrere delle distanze precise. Se sommiamo questi due effetti, dalla nostra posizione di osservazione, cioe’ la Terra, possiamo vedere solo quello che e’ contenuto entro una sfera con un raggio di 93 miliardi anni luce. Come potete capire, l’effetto dell’espansione provoca un aumento di quello che possiamo osservare. Se l’universo ha 14.7 miliardi di anni, ci si potrebbe aspettare di poter vedere dalla terra la luce partita 14.7 miliardi di anni fa, cioe’ fino ad una distanza di 14.7 miliardi di anni luce. In realta’, come detto, il fatto che l’universo sia in continua espansione fa si che quello che vediamo oggi non si trova piu’ in quella posizione, ma si e’ spostato a causa dell’espansione. Altro aspetto importante, la definizione di sfera osservabile e’ vera per ogni punto dell’universo, non solo per quella sfera centrata sulla Terra che rappresenta cquello che noi possiamo vedere.

Bene, dunque si sarebbe osservato un flusso di alcune galassie verso un punto preciso fuori dall’universo osservabile. Proprio dal fatto che questo flusso e’ all’esterno del nostro universo osservabile, si e’ chiamato questo movimento con l’aggettivo oscuro.

Aspettate un attimo pero’, se le galassie sono tirate verso un punto ben preciso, cos’e’ che provoca questo movimento? Riprendendo l’introduzione sulla forza di gravitazione, se le galassie, che sono oggetti massivi, sono tirate verso un punto, significa che c’e’ una massa che sta esercitando una forza. Poiche’ la forza di gravitazione si esercita mutuamente tra i corpi, questo qualcosa deve anche essere molto massivo.

Prima di capire di cosa potrebbe trattarsi, e’ importante spiegare come questo flusso oscuro e’ stato individuato.

Secondo le teorie cosmologiche riconosciute, e come spesso si dice, l’universo sarebbe omogeneo e isotropo cioe’ sarebbe uguale in media in qualsiasi direzione lo guardiamo. Detto in altri termini, non esiste una direzione privilegiata, almeno su grandi scale, in cui ci sarebbero effetti diversi. Sempre su grandi scale, non esisterebbe neanche un movimento preciso verso una direzione ma l’isotropia produrrebbe moti casuali in tutte le direzioni.

Gia’ nel 1973 pero’, si osservo’ un movimento particolare di alcune galassie in una direzione precisa. In altri termini, un’anomalia nell’espansione uniforme dell’universo. In questo caso, il punto di attrazione e’ all’interno del nostro universo osservabile e localizzato in prossimita’ del cosiddetto “ammasso del Regolo”, una zona di spazio dominata da un’alta concentrazione di galassie vecchie e massive. Questa prima anomalia gravitazionale viene chiamata “Grande Attrattore”. In questa immagine si vede appunto una porzione di universo osservabile da Terra ed in basso a destra trovate l’indicazione del Grande Attrattore:

800px-2MASS_LSS_chart-NEW_Nasa

Questa prima anomalia dell’espansione venne osservata tramite quello che e’ definito lo spostamento verso il rosso. Cosa significa? Se osservate un oggetto che e’ in movimento, o meglio se esiste un movimento relativo tra l’osservatore e il bersaglio, la luce che arriva subisce uno spostamento della lunghezza d’onda dovuto al movimento stesso. Questo e’ dovuto all’effetto Doppler valido, ad esempio, anche per le onde sonore e di cui ci accorgiamo facilmente ascoltando il diverso suono di una sirena quando questa si avvicina o si allontana da noi.

220px-Redshift_blueshift.svg

Bene, tornando alle onde luminose, se la sorgente si allontana, si osserva uno spostamento verso lunghezze d’onda piu’ alte, redshift, se si avvicina la lunghezza d’onda diminuisce, blueshift. Mediate questo semplice effetto, si sono potuti osservare molti aspetti del nostro universo e soprattutto i movimenti che avvengono.

Tornando al grnde attrattore, questa zona massiva verso cui si osserva un moto coerente delle galassie del gruppo e’ localizzato a circa 250 milioni di anni luce da noi nella direzione delle costellazioni dell’Hydra e del Centauro e avrebbe una massa di circa 5×10^15 masse solari, cioe’ 5 milioni di miliardi di volte il nostro Sole. Questa, come anticipato, e’ soltanto una anomalia dell’espansione dell’universo che ha creato una zona piu’ massiva in cui c’e’ una concentrazione di galassie che, sempre grazie alla gravita’, attraggono quello che hanno intorno.

Discorso diverso e’ invece quello del Dark Flow. Perche’? Prima di tutto, come detto, questo centro di massa si trova talmente lontano da essere al di fuori del nostro universo osservabile. Visto da Terra poi, la zona di spazio che crea il flusso oscuro si trova piu’ o meno nella stessa direzione del Grande Attrattore, ma molto piu’ lontana. Se per il Grande Attrattore possiamo ipotizzare, detto in modo improprio, un grumo di massa nell’universo omogeneo, il flusso oscuro sembrerebbe generato da una massa molto piu’ grande ed in grado anche di attrarre a se lo stesso Grande Attrattore.

Il flusso oscuro venne osservato per la prima volta nel 2000 e descritto poi a partire dal 2008 mediante misure di precisione su galassie lontane. In questo caso, l’identificazione del flusso e’ stata possibile sfruttando il cosiddetto effetto Sunyaev-Zel’dovich cioe’ la modificazione della temperatura dei fotoni della radiazione cosmica di fondo provocata dai raggi X emessi dalle galassie che si spostano. Sembra complicato, ma non lo e’.

Di radiazione di fondo, o CMB, abbiamo parlato in questi articoli:

Il primo vagito dell’universo

E parliamo di questo Big Bang

Come visto, si tratta di una radiazione presente in tutto l’universo residuo del Big Bang iniziale. Bene, lo spostamento coerente delle galassie produce raggi X, questi raggi X disturbano i fotoni della radiazione di fondo e noi da terra osservando queste variazioni ricostruiamo mappe dei movimenti delle Galassie. Proprio grazie a queste misure, a partire dal 2000, e’ stato osservato per la prima volta questo movimento coerente verso un punto al di fuori dell’universo osservabile.

Cosa potrebbe provocare il Flusso Oscuro? Bella domanda, la risposta non la sappiamo proprio perche’ questo punto, se esiste, come discuteremo tra un po’, e’ al di fuori del nostro universo osservabile. Di ipotesi a riguardo ne sono ovviamente state fatte una miriade a partire gia’ dalle prime osservazioni.

Inizialmente si era ipotizzato che il movimento potrebbe essere causato da un ammasso di materia oscura o energia oscura. Concetti di cui abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Se il vuoto non e’ vuoto

Universo: foto da piccolo

Queste ipotesi sono pero’ state rigettate perche’ non si osserva la presenza di materia oscura nella direzione del Dark Flow e, come gia’ discusso, per l’energia oscura il modello prevede una distribuzione uniforme in tutto l’universo.

Cosi’ come per il Grande Attrattore, si potrebbe trattare di un qualche ammasso molto massivo in una zona non osservabile da Terra. Sulla base di questo, qualcuno, non tra gli scienziati, aveva ipotizzato che questo effetto fosse dovuto ad un altro universo confinante con il nostro e che provoca l’attrazione. Questa ipotesi non e’ realistica perche’ prima di tutto, la gravitazione e’ frutto dello spazio tempo proprio del nostro universo. Se anche prendessimo in considerazione la teoria dei Multiversi, cioe’ universi confinanti, l’evoluzione di questi sarebbe completamente diversa. Il flusso oscuro provoca effetti gravitazionali propri del nostro universo e dovuti all’attrazione gravitazionale. Il fatto che sia fuori dalla nostra sfera osservabile e’ solo dovuto ai concetti citati in precedenza figli dell’accelerazione dell’espansione.

Prima di tutto pero’, siamo cosi’ sicuri che questo Flusso Oscuro esista veramente?

Come anticipato, non c’e’ assolutamente la certezza e gli scienziati sono ancora fortemente divisi non solo sulle ipotesi, ma sull’esistenza stessa del Flusso Oscuro.

Per farvi capire la diatriba in corso, questo e’ il link all’articolo originale con cui si ipotizzava l’esistenza del Flusso Oscuro:

Dark Flow

Subito dopo pero’, e’ stato pubblicato un altro articolo che criticava questo sostenendo che i metodi di misura applicati non erano corretti:

Wright risposta al Dark Flow

Dopo di che, una lunga serie di articoli, conferme e smentite, sono stati pubblicati da tantissimi cosmologi. Questo per mostrare quanto controversa sia l’esistenza o meno di questo flusso oscuro di Galassie verso un determinato punto dell’universo.

Venendo ai giorni nostri, nel 2013 e’ stato pubblicato un articolo di analisi degli ultimi dati raccolti dal telescopio Planck. In questo paper viene nuovamente smentita l’esistenza del dark flow sulla base delle misure delle velocita’ effettuate nella regione di spazio in esame:

Planck, 2013

Dunque? Dark Flow definitivamente archiviato? Neanche per sogno. Un altro gruppo di cosmologi ha pubblicato questo ulteriore articolo:

Smentita alla smentita

in cui attacca i metodi statistici utilizzati nel primo articolo e propone un’analisi diversa dei dati da cui si mostra l’assoluta compatibilita’ di questi dati con quelli di un altro satellite, WMAP, da cui venne evidenziata l’esistenza del dark flow.

Credo che a questo punto, sia chiaro a tutti la forte discussione ancora in corso sull’esistenza o meno di questo Dark Flow. Come potete capire, e’ importante prima di tutto continuare le analisi dei dati e determinare se questo flusso sia o meno una realta’ del nostro universo. Fatto questo, e se il movimento venisse confermato, allora potremmo fare delle ipotesi sulla natura di questo punto di attrazione molto massivo e cercare di capire di cosa potrebbe trattarsi. Ovviamente, sempre che venisse confermata la sua esistenza, stiamo ragionando su qualcosa talmente lontano da noi da essere al di fuori della nostra sfera osservabile. Trattare questo argomento ci ha permesso prima di tutto di aprire una finestra scientifica su un argomento di forte e continua attualita’ per la comunita’ scientifica. Come sappiamo, trattando argomenti di questo tipo, non troviamo risposte certe perche’ gli studi sono ancora in corso e, cosi’ come deve avvenire, ci sono discussioni tra gli scienziati che propongono ipotesi, le smentiscono, ne discutono, ecc, come la vera scienza deve essere. Qualora ci fossero ulteriori novita’ a riguardo, ne parleremo in un futuro articolo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Riscaldamento economico con le candele

2 Dic

Qualche giorno fa, un nostro caro lettore ci scrive nella sezione:

Hai domande o dubbi?

Per avere lumi circa un video che iniziava a girare sulla rete.

Di cosa si trattava?

Semplice, un tizio di lingua americana proponeva un innovativo quanto rudimentale sistema di riscaldamento costituito da 4 candeline e due vasi di terracotta, esattamente quelli che si utilizzano per i fiori.

Senza troppi giri di parole, vi mostro il video per farvi capire come funzionerebbe il tutto:

Capito? Si dispongono le quattro candele su uno strato metallico, si mettono i due vasi di dimensione crescente ed il gioco e’ fatto. Lo spazio tra i due vasi funzionerebbe come una camera di accumulo del calore grazie all’aria calda che esce dall’interno. In questo modo, si ottiene un eonomico riscaldatore che, grazie alla terracotta, riesce ad accumulare calore. Secondo quanto sostenuto dall’autore del video, con questo sistema si potrebbe riscaldare una camera di 20 metri quadri. Spesa richiesta: 10 centesimi al giorno per le candeline e l’investimento iniziale di pochi euro per prendere i vasi.

Fermi un attimo, ma questa e’ una rivoluzione! Noi che perdiamo tempo a discutere di centrali nucleari, fusione vs fissione vs combustibili fossili, a spendere articoli su energie rinnovabili di nuova concezione per cercare di risparmiare qualche KWh per aiutare l’ambiente, non ci siamo accorti di questa soluzione? Lasciamo stare ragazzi, andate subito in qualche negozio a comprare candele e vasi perche’ quando la voce si spargera’ veramente aumenterenno anche i prezzi.

Prima pero’ di correre ai negozi e buttare quei pochi euro, proviamo a ragionare.

Quando il nostro lettore ci parlo’ di questo video, parlammo della soluzione mostrando l’assurdita’ di quanto proposto. Personalmente, ma ancora mi sorprendo di molte cose, pensavo che la cosa finisse li senza consegueze. Invece stamattina apro il sito di un noto giornale online a diffusione nazionale e cosa vedo?

Questo:

articolo_candele

Ma soprattutto, leggete la didascalia a destra che accompagna il video. Pensate sia tutto? Decine di siti di esperti di energie rinnovabili e nuove soluzioni stanno discutendo di questa soluzione proponendola come rivoluzione del secolo in ambito energetico. Se provate a fare una ricerca su internet rimarrete senza parole nel vedere quanti e quali siti stanno discutendo di questa cosa.

Purtroppo, non c’e’ mai limite all’indecenza.

Commentare un video del genere e’ buttare all’aria i principi basilari della fisica e soprattutto della termodinamica. Devo dire che il video e’ fatto molto bene, al punto da sembrare reale. Qualche considerazione? Avete visto dei termometri? Sapete quanto e’ aumentata la temperatura dell’aria della stanza? Assolutamente no.

Il motore di questo sistema sono ovviamente le candele. Durante la combustione, viene ovviamente sprigionato del calore ma il potere calorifico, cioe’ la quantita’ di calore, detto in modo improprio, prodotto dalle candele e’ estremamente basso. Questo proprio perche’ e’ caratteristica della cera che le costituisce. I nostri nonni, utilizzavano le candele per fare luce la sera, non certo per scaldarsi. Per questo, utilizzavano camini e stufe a legna, sostanza con potere calorifico molto piu’ alto. Ma allora a cosa servono i vasi intorno? A parte per fare scena, sicuramente la terracotta si riscalda accumulando calore e cedendola lentamente all’esterno. Questo e’ ovvio. Si formano moti convettivi nello spazio libero? Anche questo e’ probabile, ma la sorgente primaria sono sempre e solo le candele. Potete inventare tutti i modi possibili per sfruttare, trattenere e non disperdere calore, ma quello che avete a disposizione non potete certo amplificarlo.

Facciamo un esempio un po’ tirato per il collo. Se avete a disposizione un motore di una certa potenza, potete allegerire la macchina, migliorare la trasmissione, ridurre gli attriti meccanici, ecc ma la fonte iniziale e’ sempre e solo il vostro motore. La stessa cosa avviene per le candele.

Detto questo, non credo ci sia da discutere ancora di questa soluzione se non riflettere su quanto i sedicenti giornalisti professionisti si lascino trasportare dalla rete e dalle mode del momento.

Prima di chiudere, vorrei pero’ aprire un’altra parentesi. Oltre ad essere assurda, questa soluzione non e’ assolutamente innovativa. Ogni tot anni, qualche simpatico burlone la tira fuori dal cassetto facendo sempre abboccare molti creduloni. Non ci credete?

Dal 2010 questo sito americano:

Stufe a candele

propone questa soluzione anche con una sola candela:

Sistema di riscaldamento a candele venduto negli USA

Sistema di riscaldamento a candele venduto negli USA

Se poi volete proprio essere sicuri di quello che dico, provata a fare una ricerca su internet impostando, ad esempio, le date comprese tra il 2000 e il 2010, quindi ben due anni fa. Ecco quello che ottenete:

Google, heating with candles

Visto quanti risultati?

Concludendo, l’idea iniziale e’ assurda. Non potete pensare di amplificare il potere calorifico di un qualcosa costruendo sistemi intorno. Questo smentisce gia ‘completamente la soluzione a candele vista nel video. Inoltre, questa bufala gira in rete gia’ da diversi anni e, come sempre, negli USA c’e’ addirittura chi propone in vendita sistemi gia’ fatti alla ricerca di qualcuno che ci caschi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Levitazione acustica

7 Set

Qualche giorno fa, sono stati pubblicati i risultati di una ricerca davvero interessante. Credo sia il caso di analizzarli prima di tutto per la curiosita’ che possono innescare, ma soprattutto per le importanti applicazioni future che questi studi potrebbero avere.

Come forse avrete letto su diversi giornali, un gruppo dell’universita’ di Zurigo, guidato da un ricercatore italiano, e’ riuscito a creare il primo sistema di levitazione e movimentazione acustica.

Di cosa si tratta?

Detto in parole molto semplici, il suono altro non e’ che una successione di compressione e rarefazioni del mezzo in cui si muove, nel caso piu’ comune l’aria. Cioe’? Le onde sonore si propagano spostando l’aria e sono proprio queste vibrazioni quelle che noi udiamo e che fanno vibrare il nostro apparato uditivo. Infatti, come sapete, il suono non si propaga in un ambiente dove e’ stato fatto il vuoto proprio perche’ manca il mezzo per poterlo far camminare.

Il sistema di levitazione e movimentazione basato su onde sonore

Il sistema di levitazione e movimentazione basato su onde sonore

Molte fonti fanno un po’ di confusione nella descrizione dell’apparato sperimentale realizzato a Zurigo, fornendo informazioni poco chiare o in alcuni casi sbagliate. Pensateci bene, se il suono crea uno spostamento dell’aria, allora un’onda sonora potrebbe essere utilizzata per far muovere un oggetto molto leggero. Bene, questo e’ il principio di base.

Al contrario di quello che trovate su molti giornali, la levitazione sonora e’ una cosa conosciuta gia’ da molti anni, dunque non e’ stata affatto “inventata” a Zurigo. Come funziona? Se ci pensate, se mettiamo un suono a spingere un oggetto, questo riuscirebbe a farlo muovere in una direzione. Per poterlo far levitare, e’ necessario avere due superfici, una emettitrice del suono e una in cui viene riflesso. Poiche’ l’onda sonora e’ come una sinusoide che si muove, calibrando opportunamente i nodi dell’onda, ottenuta dalla sovrapposizione dell’onda emessa e di quella riflessa, possiamo tenere l’oggetto fermo in questo punto. Sembra complicato ma non lo e’. Il “nodo” e’ quel punto in cui l’onda si annulla. Rimanendo nell’esempio della sinusoide, e’ quel punto in cui la funzione attraversa lo zero.

Bene, se mettiamo l’oggetto esattamente nel nodo, questo rimarra’ sospeso in questo punto, cioe’ l’onda sonora riuscira’ esattamente a bilanciare il peso dell’oggetto. Questo e’ il concetto della levitazione acustica che si conosce gia’ da diversi anni.

Dunque, cosa e’ stato studiato a Zurigo?

La levitazione acustica di cui stiamo parlando e’ un qualcosa di statico. Si mette l’oggetto nel nodo e questo resta in equilibrio. Lo studio pubblicato in questi giorni riguarda invece un apparato sperimentale realizzato ponendo diversi emettitori in linea con altrettanti riflettori in alto. Modulando la frequenza delle onde sonore e la loro intensita’, e’ possibile spostare orizzontalmente i nodi. Come potete facilmente capire, se l’oggetto e’ fisso nel nodo, punto di equilibrio, spostando il punto riusciamo a far muovere anche l’oggetto dal momento che questo e’ vincolato nel nodo.

Come potete capire facilmente, le limitazioni principali del sistema sono sul peso dell’oggetto posizionato, oltre che ovviamente nel suo volume. Il sistema realizzato consente di far levitare e  spostare, ad esempio, gocce di liquido o piccole quantita’ di solido.

Bellissimo, ma a cosa serve?

Pensateci bene, potete posizionare qualcosa nel sistema e farlo muovere senza toccarlo. Non vi viene in mente nulla? Nel settore farmaceutico, la manipolazione tra sostsnze e’ spesso inficiata dal contatto, seppur minimo, manuale. Il poter mescolare due sostanze facendole scontrare senza forze esterne rappresenta un vantaggio importantissimo in questo settore.

Inoltre, questo sistema potrebbe essere utilizzato nella manipolazione genetica delle cellule. Frammenti di DNA possono essere inseriti nelle cellule evitando tutta una serie di problematiche legate al metodo tradizionale, manipolazione manuale, contaminazione, ecc.

Altra applicazione importante potrebbe, ad esempio, essere nella manipolazione senza mani di sostanze tossiche e radioattive. Anche in questo caso, il contatto con l’umo potrebbe causare danni alla salute evitabili con l’utilizzo di questo sistema.

Concludendo, la levitazione acustica e’ un processo noto gia’ da tempo. Solo in questi giorni pero’, si e’ riusciti a realizzare un sistema in grado anche di spostare oggetti. Le applicazioni di questo sistema potrebbero essere molteplici. Il dispositivo consente infatti di poter mescolare o trattare piccole parti di liquido o solido senza il minimo contatto con l’essere umano, con evidenti vantaggi sia nel settore farmaceutico che in quello biologico.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.