Tag Archives: confronto

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Il suono più forte mai udito!

12 Ott

Dopo questo articolo:

Il suono del vinile

vi riporto la seconda domanda che mi è stata posta in questi giorni via mail da alcuni nostri lettori. La domanda in realtà è una richiesta di conferma circa un articolo pubblicato da Pianeta Blu News, che cito senza problemi e che, come già detto, vi consiglio di visitare, che in questo pezzo:

Pianeta Blu, Krakatoa

afferma che il suono più forte mai udito in epoca moderna dall’uomo è quello che si è generato in occasione dell’eruzione del vulcano Krakatoa il 27 agosto 1883.

Vi premetto subito che quanto affermato nell’articolo è assolutamente corretto. In occasione di questa eruzione esplosiva, venne generato un boato che oggi possiamo stimare di 172 decibel fino a 160 Km di distanza.

Per darvi una stima di quanto potente sia un rumore di 172 decibel proviamo a fare degli esempi pratici utili per confrontare questi valori espressi in una scala poco familiare ai più.

Per prima cosa, se vogliamo essere formali dal punto di vista scientifico, in acustica si utilizzano i dB_SPL per indicare il livello di pressione acustica. Questa definizione è alquanto intuitiva se pensiamo che i suoni che noi udiamo sono semplicemente prodotti dalla pressione dell’aria che giuge ai nostri timpani mettendoli in vibrazione. Utilizzando questa unità di misura, wikipedia riporta una tabella molto istruttiva con diverse fonti sonore accompagnate con il corrispondente suono in dB_SPL:

dBSPL Sorgente
300 Eruzione del Krakatoa nel 1883
250 All’interno di un tornado
180 Razzo al decollo
140 Colpo di pistola a 1 m, auto di Formula 1
130 Soglia del dolore
125 Aereo al decollo a 50 m
120 Sirena,
110 Motosega a 1 m
100 Discoteca, concerto rock
90 Urlo, fischietto
80 Camion pesante a 1 m
70 Aspirapolvere a 1 m; radio ad alto volume
60 Ufficio rumoroso, radio, conversazione
50 Ambiente domestico; teatro a 10 m
40 Quartiere abitato, di notte
30 Sussurri a 1 m
20 Respiro umano
0 Soglia dell’udibile
-9 Camera anecoica

Considerando che la scala in dB è una scala logaritmica, c’è una notevole differenza, ad esempio, tra l’eruzione del Krakatoa e il rumore prodotto da un razzo al decollo, facilmente identificabile come un suono di notevole intensità.

Detto questo, sempre per farvi capire il livello del suono prodotto dall’esplosione del Krakatoa, pensate che il boato venne udito chiaramente fino a 5000 km di distanza. Chiunque si fosse trovato ad una distanza inferiore ai 100Km, come accaduto ad alcuni occupanti di una nava di passaggio nei pressi dell’isola, avrebbe avuto danneggiamenti permanenti ai timpani.

Anche se l’eruzione del vulcano non causò morti direttamente, le conseguenze dell’esplosione furono devastanti. Ad oggi, si stimano circa 36000 morti dovuti in larga parte al successivo Tsunami, di 45 metri, che si creò.

Esistono anche delle curiosità molti interessanti sull’eruzione del Krakatoa. Durante l’esplosione, vennero riversati in atmosfera 21 kilometri cubi di roccia e fumi. Queste emissioni, modificarono a lungo non solo la zona dell’eruzione, ma portarono conseguenze all’intero pianeta. Per farvi un esempio, l’illustratore britannico William Ashcroft notò in quel periodo che i colori dei tramonti visibili dalla sua cittadina, vicina a Londra, erano cambiati. Il motivo di questo è oggi molto comprensibile. L’enorme quantità di sedimenti rilasciati in atmosfera, provocarono effetti ottici alla luce solare, visibili chiaramente durante il tramonto che prese colori più accesi verso il rosso. Ashcroft dipinse diversi quadri dei tramonti dell’epoca e, ancora oggi, queste illustrazioni sono studiate dai climatologi per ottenere informazioni circa l’eruzione del vulcano Krakatoa.

Ecco una delle illustrazioni di William Ashcroft:

Opera di William Ashcroft

Opera di William Ashcroft

Solo per concludere, secondo alcuni esperti, anche un altro famoso dipinto riporterebbe colorazioni molto accese non per enfatizzare il tema trattato ma solo perchè quelli erano i colori visibili al momento della realizzazione. Sapete quale? Questo:

Munch, L'Urlo

Munch, L’Urlo

L’urlo di Munch, realizzato nel 1893, 10 anni dopo l’eruzione, sarebbe una “fotografia” dei reali colori del tramonto norvegese, resi più brillanti dall’eruzione del Krakatoa.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scherzi … marziani

27 Gen

Si sa, nell’immaginario collettivo costruito da tantissimi film di fantascienza, gli alieni sono da sempre identificati come marziani, cioe’ provenienti dal pianeta Marte. Ora, come dovrebbero essere questi esseri che abitano un pianeta tanto inospitale? Alta, bassi, brutti, belli, con le antenne? Ovviamente, non siamo in grado di dare questa risposta. Una caratteristica pero’ possiamo darla, almeno stando alle fantasiose storie che girano sulla rete in questi giorni, sono dei simpatici burloni!

Pensate mi sia impazzito?

Forse, non per la notizia che sto per darvi.

Come sapete, Marte e’ uno dei pianeti maggiormente esplorati da missioni sulla superficie. Oltre a Curiosity, di cui abbiamo parlato in tantissimi articoli:

Ecco perche’ Curiosity non trova gli alieni!

Curiosity: scoperta sensazionale?

Ecco la scoperta di Curiosity

c’e’ anche il rover Opportunity che ancora oggi gironzola sul pianeta rosso. Questa missione era inizialmente pensata per durare 90 giorni nel 2004. Oggi, stiamo festeggiando i 10 anni del rover su Marte e, a parte qualche inevitabile problema, Opportunity continua ad inviare dati molto importanti a terra.

Cosa e’ successo dunque?

Dal momento che ora e’ inverno su Marte, le avverse condizioni meteo hanno costretto il rover ad un periodo di pausa. Prima di chiudere pero’, ha inviato alcune immagini dalla sua postazione. Dopo 12 giorni marziani, che durano poco di piu’ di quelli terrestri, il rover ha scattato nuovamente delle immagini. Proprio facendo il confronto tra prima e dopo, e’ saltato fuori un particolare davvero interessante.

Dal momento che un’immagine vale piu’ di 100 parole, e che il tutto e’ nato proprio da una foto, vi mostro subito la prova che sta facendo tanto discutere:

Confronto delle foto scattate da Opportunity a distanza di 12 giorni marziani

Confronto delle foto scattate da Opportunity a distanza di 12 giorni marziani

Questo e’ il confronto tra la foto scattata prima e quella dopo 12 giorni di inattivita’. Come vedete, e’ presente una roccia che prima non c’era.

Il misterioso sassolino, dalle dimensioni approssimative di un pugno, ha la forma che ricorda una ciambella ed e’ stata battezzata Pinnacle Island.

Come detto, Opportunity si trova su Marte da ben 10 anni e, praticamente, non ha visto niente cambiare intorno a se. Come e’ possibile che ora sia comparsa una roccia?

Come potete facilmente immaginare, questo curioso fatto ha accesso la fantasia di tutti quelli che vorrebbero il pianeta rosso abitato da forme di vita intelligenti. Senza troppi giri di parole, la spiegazione di moda e’ semplice: la NASA e’ perfettamente a conoscenza di essere su un pianeta abitato e fa un lavoro enorme per cancellare di volta in volta le prove che troverebbe grazie alle sue missioni. Il motivo di questo oscuramento non e’ univoco, ma passa per i piu’ svariati complotti. Purtroppo, questa volta i tecnici hanno fatto un errore, si sono dimenticati di eliminare questa prova oggettiva che qualcosa intorno al rover cambia nel tempo proprio a causa del’attivita’ degli abitanti del posto.

E’ possibile tutto questo?

Assolutamente no. Vi premetto subito che, ad oggi, non e’ ancora chiara l’origine di questa roccia e come sia potuta capitare in quel punto in un lasso di tempo cosi’ breve. Nonostante questo, ci sono delle spiegazioni razionali, e sicuramente piu’ credibili dell’ipotesi marziani-burloni, che vanno considerate.

In un primo momento, si e’ pensato che Pinnacle Island fosse un piccolo meteorite arrivato su Marte proprio vicino al rover. In alternativa, il piccolo sasso potrebbe essere stato lanciato veso il rover dalla caduta di un frammento piu’ grande a distanza dal punto considerato. Questa ipotesi e’ stata poi scartata per la scarsa probabilita’ associata ad un evento di questo tipo.

Come anticipato, anche se la spiegazione reale ancora non e’ stata accettata, la NASA e’ sempre piu’ convinta che si tratti di un frammento rimasto incastrato su una delle sei ruote di Opportunity.

E’ possibile questo?

Assolutamente si. Vediamo il perche’. Come anticipato, il rover si trova su Marte da ben 10 anni e qualche “acciacco” dell’eta’ cominca a sentirlo. In particolare, un attuatore che governa il movimento del rover ha smesso di funzionare da qualche settimana. Conseguenza di questo guasto e’ che una delle sei ruote ha smesso di girare. Praticamente, questa e’ bloccata e trascinata sulla superficie dal movimento delle restanti cinque. In queste condizioni, e’ molto probabile che piccoli frammenti di materiale si incastrino sotto al rover. A riprova di questa spiegazione, durante i 12 giorni di stop, il rover ha ruotato su se stesso. Alla riaccensione, riportandolo in posizione, il frammento potrebbe essersi staccato ed essere finito nel punto in cui lo abbiamo visto nella seconda foto. Altra alternativa, personalmente meno probabile di questa, e’ che Pinnacle Island sia caduta da una roccia piu’ grande vicino a Opportunity urtata proprio dal rover durante la manovra di riallineamento.

Anche se, ad ora, non c’e’ ancora una spiegazione ufficiale all’accaduto, sicuramente ci sono ipotesi razionali assolutamente accettabili e, almeno a mio parere, assolutamente condivisibili. La cosa interessante e’ che a distanza di 10 anni, Opportunity ancora riesce a stupirci con fenomeni non attesi e ssolutamente interessanti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il “nuovo” vulcano sottomarino in Sicilia

16 Dic

Come sappiamo bene, parlando di vulcani italiani, la nostra attenzione non puo’ che andare su i due piu’ noti, cioe’ il Vesuvio e l’Etna. Vulcani profondamente differenti, se non altro per la loro diversa attivita’ negli anni sia passati che futuri. Come visto in diversi articoli, questi due “mostri” vengono superati di gran lunga da quello che e’ considerato uno dei piu’ grandi vulcani al mondo, ma che non si trova in superficie bensi’ sotto il mare, il Marsili. Di questo vulcano, soprattutto in risposta alle tante tesi catastrofiste degli ultimi mesi, abbiamo parlato in tanti post:

Marsili e terremoto siciliano

– Il vulcano Marsili

– Immagine ricostruita del Marsili

– Il risveglio del Marsili

Marsili: una fonte di energia enorme!

Perche’ ora torniamo a parlare di questo argomento?

In questi giorni, diversi siti catastrofisti si sono lanciati nella notizia sensazionale di un nuovo pericoloso vulcano sottomarino scoperto in Sicilia, precisamente al largo di Riposto, nel tratto di mare nei pressi di Aci Castello.

Di cosa si tratta?

Stando a quanto si legge in rete, si parla di un vulcano scoperto solo in questi giorni, grande, alla base, tre volte l’Etna ed estremamente pericoloso per la sua fervente attivita’ e per il rischio concreto di una prossima violenta eruzione.

Ecco, ci mancava anche questo problema in Italia, che, in quanto a vulcani, almeno leggendo in rete, rischia davvero tutti i giorni di essere devastata da qualche potente eruzione.

Cosa c’e’ di vero in questa notizia?

Fate attenzione, per poter rispondere a questa domanda, e’ necesario analizzarne tutti i diversi aspetti. Andiamo con ordine. Esiste questo vulcano? Assolutamente si, e la posizione e’ veramente quella che abbiamo citato in precedenza. Per essere precisi, vi mostro una mappa con indicata la posizione del vulcano in questione:

La costa Siciliana con l'Etna e il tratto di mare di fronte a Riposto

La costa Siciliana con l’Etna e il tratto di mare di fronte a Riposto

Quanto e’ grande questo vulcano? Se parliamo di base del monte, come anticipato in precedenza, parliamo di qualcosa piu’ o meno 3 volte l’Etna. Riguardo all’altezza, la cima del vulcano si trova a circa 500 metri dal pelo dell’acqua, mentre la base giace sul piano abissale a circa 2500 metri di profondita’.

Bene, fino a questo punto, le notizie che ci giungono dalla rete sono veritiere. Ora passiamo invece a quanto di “non vero” viene riportato o volutamente omesso.

Il vulcano e’ stato scoperto in questi ultimi giorni? In questo caso, la risposta e’ “assolutamente no”. Se provate a fare uan ricerca sul web, vi accorgete che gia’ nel 2009 si parlava di questa scoperta. Perche’ pero’ i siti catastrofisti ne parlano solo ora? Anche in questo caso, la risposta e’ abbastanza semplice. Cerchiamo di capire. Quando il vulcano venne scoperto nel 2009, molti, tra cui lo stesso INGV, erano scettici nel consdierare il vulcano come un’unita’ indipendente. Rigurdiamo la mappa riportata in precedenza. Parliamo di qualcosa molto vicino all’Etna. Detto questo, il primo pensiero fatto fu che questo vulcano era in realta’ non indipendente, ma un qualcosa direttamente connesso all’Etna e dunque alimentato dalla stessa linea magmatica. Proprio in queste ultime settimane, dopo anni di studi partiti proprio nel 2009 con la sua scoperta, si e’ arrivati alla conclusione che questo vulcano non sia assolutamente connesso con l’Etna, bensi’ qualcosa di indipendente, anche se molto vicino. Per poter arrivare a questa conclusione, e’ stato necessario condurre ricerche molto precise sulla morfologia della zona e sulla storia sismica della costa siciliana.

Ora, la parte piu’ interessante: questo vulcano presenta un’attivita’ sismica elevata e una alta possibilita’ di una eruzione in tempi brevi? Ragioniamo un attimo insieme. Come detto in precedenza, stiamo parlando di un qualcosa che si trova a “soli” 500 metri di profondita’, molto vicino alla costa e grande tre volte l’Etna. Se ci fosse una intensa attivita’ in corso, sia dal punto di vista sismico che vulcanico, ce ne saremmo accorti? Personalmente, credo proprio di si. Come potete facilmente immaginare, non vi e’ nessuna traccia di attivita’ in corso al momento. Questo, preclude ovviamente la possibilita’ anche di una prossima eruzione in tempi brevi.

Questo vulcano e’ attivo? Qui la risposta non e’ semplice. A parte che molto spesso, anche in vulcani che possiamo considerare spenti resta in profondita’ una camera magmatica sempre viva. In questo caso, si sospetta che ci siano delle risalite dagli strati bassi di magma, ma al momento non si puo’ affermare nulla con certezza su questo aspetto.

Concludendo, nel 2009 e’ stato scoperto un ulteriore vulcano sottomarino in Sicilia, di dimensioni assolutamente non trascurabili. In questi giorni, la notizia e’ ribalzata agli onori della cronaca, perche’, come pubblicato nei vari articoli scientifici, si e’ potuti arrivare alla conclusione che il vulcano sia un’unita’ indipendente e non una qualcosa direttamente legato all’Etna come si sopettava all’inizio. Questo vulcano non presenta al momento nessun segno di attivita’ in corso e questo preclude anche la possibilita’ di un’eruzione in tempi molto ravvicinati.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Buco dell’ozono: neanche sanno leggere!

27 Ott

Come ricorderete, qualche tempo fa avevamo dedicato un articolo specifico su uno dei problemi di cui tanto si era parlato negli anni precedenti e che oggi, apparentemente, non fa piu’ notizia: il buco dello strato di ozono:

Che fine ha fatto il buco dell’ozono?

Purtroppo, anche per quanto riguarda le notizie, assistiamo ad un fenomeno di moda. Notizie che tirano di piu’ in un determinato momento o che, e’ brutto dirlo ma e’ la verita’, possono essere utilizzate per inculcare nella teste delle persone qualche idea piu’ o meno giusta, riempiono per lunghi periodi le pagine dei giornali per poi scomparire d’improvviso. Questa e’ la sorte che e’ toccata al buco dell’ozono, non come fenomeno fisico, bensi’ come importanza e seguito dell’informazione.

Come visto nel nostro precedente articolo, la messa al bando dei CFC insieme ad una politica saggia, anche se osteggiata da diversi paesi industrializzati, ha permesso di ottenere una significativa riduzione del buco dell’ozono. Questo ovviamente non e’ un punto di arrivo, ma solo un buon passaggio intermedio. Come sapete, nonostante i numerosi sforzi, per ritornare nelle condizioni di qualche anno fa, sara’ necessario mantenere ed intensificare una buona politica.

Questi aspetti ci fanno capire quanto vivo sia il nostro pianeta ma soprattutto quali e quanti danni possiamo arrecare con uno sfruttamento non razionale delle risorse che abbiamo a disposizione.

Detto questo, perche’ torno sull’argomento?

Ve lo racconto come l’ho vissuto. Come sapete, molto spesso, anche per pescare notizie fresche e per valutare il trend del momento, mi ritrovo a leggere siti complottisti e catastrofisti. Proprio ieri mi sono imbattutto in una notizia riguardante il buco dell’ozono. In una diversa pagina del browser avevo pero’ aperto un giornale nazionale da cui leggevo notizie.

Bene questo confronto mi ha mostrato una situazione davvero grottesca.

Per farvela vedere cosi’ come l’ho vissuta io, vi riporto prima uno screenshot del sito catastrofista:

Screenshot del sito catastrofista

Screenshot del sito catastrofista

e poi la pagine del giornale nazionale:

Screenshot del giornale online

Screenshot del giornale online

Notato niente di strano?

Nel sito catastrofista si legge: “Il buco dell’ozono sopra l’Antartide ha raggiunto la dimensione massima”, mentre nel giornale si legge “NASA, si riduce il buco dell’ozono in Antartide”. Scusate, ma leggendo queste cose non possiamo fare altro che ridere e constatare ancora una volta quanto assurdi siano certi siti.

Ma il buco dell’ozono si e’ ridotto o no?

Ovviamente si. Il nostro precedente articolo era datato 8 aprile 2013. Dalle nuove misurazioni condotto a settembre di quest’anno, si e’ evidenziato come il buco dell’ozono si sia ridotto ulteriormente. Ovviamente e’ una buona notizia e per dimsotrarvi quanto affermato, vi metto a confronto la misurazione del precedente articolo con quella di settembre:

Confronto tra la misura presentata nell'articolo di Aprile e quella di Settembre

Confronto tra la misura presentata nell’articolo di Aprile e quella di Settembre

Come anticipato, questo ottimo risultato e’ una misura del trend di riduzione del buco, che ovviamente deve continuare in questo modo con la giusta politica di gestione delle immissioni in atmosfera.

Prima di chiudere, vorrei aggiungere altro. Ovviamente, ho letto con interesse l’articolo del sito catastrofista. Come al solito, a parte una serie interminabile di cavolate scientifiche, l’articolo si chiude con una frase davvero ambigua. Ecco quanto potete leggere:

Tuttavia, quest’anno il buco dell’ozono risulta leggermente più stretto rispetto agli anni passati, e la densità di ozono nell’atmosfera sopra il polo non cade ad un livello critico. Nel 2013, alla fine di Settembre 2013, i livelli di ozono sopra l’Antartide sono scesi a circa 25 unità Dobson, mentre negli anni precedenti hanno visto una riduzione critica inferiore a 10 unità. Probabilmente, la lotta contro le sostanze dannose per l’ozono sta finalmente cominciando a dare risultati.

Quindi, questo buco aumenta o diminuisce? Ovviamente, come detto in questa ultima frase, diminuisce e anche notevolmente. Capite dunque quanto assurdi siano questi articoli ma soprattutto quanto sia importante leggere con attenzione quello che trovate. Molto spesso, ed e’ successo anche a me, tendiamo a leggere velocemente una notizia o a non leggere fino in fondo gli articoli. In alcuni casi, si rischia di capire fischi per fiaschi e di farsi un’idea sbagliata. Questo ovviamente non vale per l’articolo catastrofista che ovviamente puntava solo a seminare idee sbagliate consapevole che molti non si sarebbero accorti delle incongruenze o delle assurdita’ sparate.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.