Tag Archives: fisica

La bomba più potente mai creata!

20 Ott

Eccoci di nuovo qui. Scusate, come al solito, la mia latitanza ma, in questi giorni, sono un po’ lontano dall’Italia e con qualche problema di fuso orario, oltre ai sempre presenti impegni lavorativi.

Detto questo, dopo questi due post:

Il suono del vinile

Il suono più forte mai udito

c’è un’ultima domanda che mi è stata rivolta via mail e che vorrei condividere con tutti perchè, a mio avviso, potrebbe essere molto interessante. La domanda fatta è, se vogliamo, molto semplice: qual è la bomba atomica più potente mai creata dall’uomo?

Premetto subito che il mio post non vuole urtare il pensiero di nessuno. Non è questa la sede per discutere tra chi è a favore dell’energia atomica e chi no, chi pensa una cosa e chi un’altra, ecc.. Lo scopo di questo post vuole essere puramente scientifico o, lasciatemi dire, nonostante l’argomento, di curiosità.

Bene, la bomba atomica più potente, e vedremo cosa significa, mai realizzata dall’uomo è la Bomba Zar, nome in codice Big Ivan, sviluppata in unione sovietica. Premetto subito che non si è trattato di un ordigno di offesa ma solo di un test militare. Anzi, come molti storici sotengono, più che un test militare, la costruzione e il seguente utilizzo della bomba è stato più che altro un messaggio di propaganda dell’ex-URSS per dimostrare ai suoi cittadini, e al mondo intero, cosa la nazione fosse in grado di realizzare.

Dal punto di vista tecnico, la bomba Zar, nella sua concezione iniziale, era una bomba a 3 stadi. Nel nucleo più interno il processo di fissione veniva fatto partire per fornire energia al secondo stadio in cui si aveva un’amplificazione grazie alla fusione di atomi di idrogeno, energia che serviva a sua volta per innescare una seconda fusione nel terzo e più esterno strato della bomba.

A livello progettuale, la bomba Zar era in grado di sviluppare una potenza di 100 Mt, cioè 100 milioni di tonnellate di TNT equivalente. A quanto equivale questa energia? Per farvi un esempio noto a tutti, l’atomica sganciata dagli USA su Hiroshima, Little Boy, aveva una potenza 3125 volte inferiore. Se potessimo far esplodere simultaneamente tutti gli esplosivi convenzionali utilizzati nella seconda guerra mondiale, l’esplosione sarebbe ancora 10 volte inferiore a quella della Bomba Zar.

Questo potentissimo ordigno venne sviluppato dall’Unione Sovietica da un team di fisici capeggiati da Andrej Sacharov, una delle menti più brillanti del XX secolo. Dopo aver contribuito in modo fondamentale allo sviluppo della bomba a idrogeno, Sacharov iniziò una lunga battaglia a favore dei diritti civili e contro l’uso dell’energia nucleare negli armamenti. Proprio questa sua attività gli valse il premio nobel per la pace.

Tornando a parlare dell’ordigno, per motivi di sicurezza, nell’unico test condotto, venne realizzata una versione depotenziata della Bomba Zar. A differenza del progetto iniziale, il terzo stadio venne sostituito da piombo, materiale in grado di rallentare e schermare le radiazioni prodotte dalla bomba. Questa versione poteva però raggiungere la sempre impressionante energia di 50 Mt. Il test venne poi eseguito il 30 Ottobre 1961, sull’isola di Novaja Zemlja, una località sperduta a nord del Circolo Polare.

Nonostante l’enorme potenza, la sostituzione del terzo stadio con piombo diminuì notevolmente la radiazione emessa attraverso il fallout successivo alla detonazione. Proprio per questo motivo, considerando il rapporto potenza/radiazione, la bomba Zar è anche stata l’ordigno nucleare più “pulito”.

Quali sono gli effetti di una detonazione del genere? Prima di tutto, consideriamo che la bomba venne fatta esplodere a 4000 metri dal suolo. Nonostante questo, la successiva onda sismica provocata dalla deflagrazione fece 3 volte il giro del pianeta. Testimoni a 1000 Km di distanza dal punto, poterono vedere chiaramente il lampo anche se il cielo era notevolmente nuvoloso. Altri testimoni riportarono di aver percepito il calore dell’onda sulla pelle fino a 270 Km di distanza. Praticamente tutto quello che era presente fino a 35 Km dal centro venne completamente spazzato via. Se ancora non vi basta, a 900 Km di distanza, in Finlandia, alcune case riportarono danni a porte e finestre provocati dall’onda d’urto dell’esplosione.

Ripeto, questa era la versione depotenziata di un un fattore 2 rispetto al reale progetto.

Spero che quanto raccontato sia sufficiente a far capire le potenzialità di questi ordigni. Ripeto, non voglio discutere se è giusto o meno costruire, o saper realizzare, bombe di questo tipo. Permettetemi però di dire, senza offesa per nessuno, che dal punto di vista tecnico è straordinario pensare a quanta energia possa essere sviluppata da un sistema di questo tipo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Hawking e la fine del mondo

11 Set

Visto che me lo state chiedendo in tantissimi, vorrei aprire una parentesi sulle affermazioni fatte dal celebre astrofisico Stephen Hawking riguardanti il bosone di Higgs. Per chi non lo avesse seguito, abbiamo già discusso di questo tema nella apposita sezione:

Hai domande o dubbi?

Dove un nostro caro lettore, già qualche giorno fa, ci aveva chiesto lumi a riguardo.

Di cosa stiamo parlando?

Come tutti avrete letto, nell’introduzione del suo ultimo libro “Starmus, 50 years of man in space” il celebre astrofisico avrebbe scritto che il bosone di Higgs avrebbe le potenzialità per poter distruggere l’intero universo. In pratica, ad energie elevate, così si legge, la particella potrebbe divenire improvvisamente instabile e provocare il collasso dello stato di vuoto, con conseguente distruzione dell’universo.

Cosa? Collaso del vuoto? Distruzione dell’universo?

Ci risiamo, qualcuno ha ripreso qualche spezzone in giro per la rete e ne ha fatto un caso mondiale semplicemente mescolando le carte in tavola. In realtà, a differenza anche di quanto io stesso ho affermato nella discussione linkata, la cosa è leggermente più sottile.

E’ possibile che il bosone di Higgs diventi instabile e bla bla bla?

No! Il bosone di Higgs non diviene instabile ad alte energie o perchè ne ha voglia. Stiamo entrando in un settore della fisica molto particolare e su cui la ricerca è ancora in corso.

Facciamo un piccolo excursus. Del bosone di Higgs ne abbiamo parlato in questo articolo:

Bosone di Higgs … ma che sarebbe?

dove abbiamo cercato di spiegare il ruolo chiave di questa particelle nella fisica e, soprattutto, la sua scoperta.

Inoltre, in questo articolo:

L’universo è stabile, instabile o metastabile?

Abbiamo visto come la misura della massa di questa particella abbia implicazioni profonde che esulano dalla mera fisica delle particelle. In particolare, la massa di questa particella, combinata con quella del quark top, determinerebbe la condizione di stabilità del nostro universo.

Bene, come visto nell’ultimo articolo citato, i valori attuali dei parametri che conosciamo, ci pongono nella strettissima zona di metastabilità del nostro universo. Detto in parole semplici, non siamo completamente stabili e, ad un certo punto, il sistema potrebbe collassare in un valore stabile modificando le proprietà del vuoto quantomeccanico.

Riprendiamo il ragionamento fatto nell’articolo. Siamo in pericolo? Assolutamente no. Se anche fossimo in una condizione di metastabilità, il sistema non collasserebbe da un momento all’altro e, per dirla tutta, capire cosa significhi in realtà metastabilità del vuoto quantomeccanico non è assolutamente certo. Premesso questo, come già discusso, i valori delle masse delle due particelle in questione, vista la ristretta zona in esame, non sono sufficienti a determinare la reale zona in cui siamo. Cosa significa? Come detto, ogni misura in fisica viene sempre accompagnata da incertezze, cioè un valore non è univoco ma è contenuto in un intervallo. Più è stretto questo intervallo, minore è l’incertezza, meglio conosciamo il valore in esame. Ad oggi, ripeto, vista la stretta banda mostrata nel grafico, le nostre incertezze sono compatibili sia con la metastabilità che con l’instabilità.

Dunque, pericolo scampato. Resta però da capire il perchè delle affermazioni di Hawking.

Su questo, vi dirò la mia senza fronzoli. Hawking conosce benissimo l’attuale livello di cui abbiamo discusso. Molto probabilmente, non avendolo letto non ne posso essere sicuro, nel libro ne parla in modo dettagliato spiegando tutto per filo e per segno. Nell’introduzione invece, appunto in quanto tale, si lascia andare ad affermazioni quantomeno naive.

Perchè fa questo? Le ipotesi sono due e sono molto semplici. La prima è che è in buona fede e la colpa è solo dei giornali che hanno ripreso questa “introduzione al discorso” proprio per creare il caso mediatico sfruttando il nome dell’astrofisico. La seconda, più cattiva, è che d’accordo con l’editore, si sia deciso di creare questo caso appunto per dare una spinta notevole alle vendite del libro.

Personalmente, una o l’altra non conta, l’importante è capire che non c’è nessun collasso dell’universo alle porte.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

EMdrive: il motore che va contro i principi della fisica

11 Set

Dopo qualche giorno di pausa, purtroppo non per svago, eccoci di nuovo qui. Per iniziare alla grande, torniamo a parlare di scienza, o almeno di qualcosa che gli somiglia. Come ci ha segnalato un nostro lettore nella sezione:

Hai domande o dubbi?

in questi giorni si è molto parlato di un’invenzione davvero particolare. Di cosa si tratta? Detto “poco chiaramente”, stiamo parlando del “motore quantistico”.

Cosa sarebbe questo motore quantistico?

Cerchiamo di andare con ordine, capendo l’origine di questa storia. Partendo da parole più semplici , il motore quantistico è, appunto, un motore che produrrebbe una spinta senza propellente ma solo usando elettricità.

Una soluzione del genere, potrebbe essere utilizzata come thruster nello spazio, cioè come sistema per far muovere i satelliti o altri veivoli spaziali. Cosa c’è di strano in tutto questo? La risposta è semplice, sapete perchè ci vuole così tanto tempo per girovagare nello spazio? Perchè i velivoli che mandiamo si muovono per inerzia. Praticamente, vengono messi in moto tramite propulsori, poi questi vengono spenti e il mezzo continua a procedere lungo la sua direzione. Tutto questo è frutto di una delle leggi fondamentali della meccanica, cioè il principio di inerzia.

Perchè questo motore quantistico sarebbe così rivoluzionario? Detto semplicemente, per far andare qualcosa nello spazio, abbiamo bisogno di avere una spinta in senso contrario. Questo è noto come principio di conservazione della quantità di moto.

Facciamo un esempio per capire meglio.

Supponete di essere al centro di un lago ghiacciato. La superficie del lago è talmente liscia che, idealmente, non c’è nessun attrito tra voi e il ghiaccio. In questa condizione limite, non potete camminare. Sapete perchè? Il semplice camminare è possibile proprio grazie all’attrito tra i nostri piedi, o le nostre scarpe, e il terreno. Praticamente, camminando, il vostro piede è fermo grazie all’attrito statico tra voi e il terreno.

Se ora vi trovate al centro di questo lago, non potete quindi riuscire a camminare. Come fate a mettervi in salvo e raggiungere la riva?

Una buona soluzione potrebbe essere quella di togliervi un indumento e lanciarlo in una direzione. Come per magia, ma in realtà è fisica, voi vi muovete per reazione nella direzione opposta a quella del lancio.

Bene, nello spazio succede esattamente la stessa cosa. Questo è noto, appunto, come principio di conservazione della quantità di moto. Altra legge fondamentale della fisica. Dunque, se questo motore non spinge nulla, per la fisica non può andare avanti.

Come è possibile?

Per provare a rispondere a questa domanda, vediamo prima di tutto come è fatto questo motore. Ecco a voi una foto di quello che viene chiamato EMdrive:

EM drive

EM drive

Questo motore è stato inventato dallo scienziato inglese Roger Shawyer alcuni anni fa. Come funziona? Il principio di funzionamento, secondo il suo inventore, sarebbe il seguente: si tratta di una cavità asimettrica in cui la radiazione a microonde viene fatta rimbalzare sulle pareti producendo effetti di risonanza. A causa di effetti relativistici, si creerebbe una differenza di pressione tra i due estremi del motore con una conseguente spinta, appunto quella di cui parlavamo per far andare i razzi nello spazio.

A distanza di qualche anno, alcuni ricercatori cinesi decidono di costruire un loro proprio motore quantistico per verificare che quanto detto da Roger Shawyer fosse vero. Cosa riescono ad ottenere? Un motore che funziona secondo lo stesso principio e conferma quanto scoperto anni prima.

Di che spinte parliamo? Più o meno 720 milli Newton secondo i cinesi.

Cosa significa 720 milli Newton? Immaginate di prendere in mano un peso da 1 Kg e di tenerlo fermo. Come sapete questo oggetto è dotato di massa ed esercita una spinta sulla nostra mano, chiamata forza peso, risultato dell’attrazione della Terra verso l’oggetto (e mutuamente dell’oggetto verso la Terra). Con un peso da 1 Kg, la spinta è di circa 10 Newton. Dunque, qui abbiamo una spinta di 720 mN, cioè equivalente a quella che produrrebbe un oggetto da 72 grammi tenuto in mano.

Interessa a qualcuno il valore della spinta? L’importante è che questa ci sia e sia in grado di far andare i nostri satelliti.

In realtà, come vedremo, il valore della spinta non è trascurabile.

A questo punto, potremmo essere di fronte alla solita teoria rivoluzionaria che la scienza cerca di insabbiare perché mette in crisi le basi su cui abbiamo costruito tutti i nostri castelli di carte. Attenzione però, questa storia è leggermente diversa dalle solite. Sapete perché? Vista la possibile applicazione di questo motore, la NASA ha deciso di analizzarlo e di provare a verificare se i risultati sono corretti.

Cosa accade a questo punto?

La NASA fa le sue prove e ottiene un risultato in cui si ha una spinta che per la fisica non dovrebbe esserci! Dunque funziona tutto? Aspettiamo prima di dirlo.

Come visto, la spinta misurata era di 720 mN. I tecnici della NASA hanno ottenuto una spinta tra 30 e 50 micro Newton, dunque, circa un fattore 10000 in meno.

Come detto prima, ma chi se ne frega, l’importante è che la spinta ci sia!

Come potete immaginare, molti giornali internazionali hanno dato ampio risalto alla notizia, salvo però non dire tutto fino in fondo.

Cosa significa?

La NASA, dopo aver effettuato questi test, ha pubblicato un conference paper sulla questione. Ecco a voi il link dove leggere il lavoro:

NASA, EMdrive test

Come potete vedere, l’articolo sembra confermare quanto affermato. Attenzione però, leggete tutto fino in fondo. Verso la fine, gli autori scrivono una frase che tanti hanno fatto finta di non leggere. Questa:

Thrust was observed on both test articles, even though one of the test articles was designed with the expectation that it would not produce thrust. Specifically, one test article contained internal physical modifications that were designed to produce thrust, while the other did not (with the latter being referred to as the “null” test article).
Cosa significa? Nel test i tecnici hanno utilizzato anche un motore di controllo realizzato per non avere nessuna spinta. Durante il test però, quando hanno utilizzato questo motore, hanno osservato nuovamente questa spinta. Cioè? Dovete fare un test che porterà valori misurati molto piccoli. Come normale, costruite qualcosa che non dovrebbe invece funzionare. Poi ottenete che tutti e due misurano qualcosa paragonabile. Come concludere? E’ sbagliata la misura su quello buono o su quello che non dovrebbe funzionare?
Personalmente, come mia natura, voglio essere propositivo e, come si dice, “open mind”. Ad oggi, i risultati mostrano valori discordanti. Molto probabilmene, i valori della spinta che si vuole misurare sono troppo bassi per le incertezze derivanti dal metodo di misura stesso. Detto in modo statistico, il risultato ottenuto è compatibile con zero Newton di spinta ma anche con qualcosa diverso da zero.
Ovviamente, non voglio precludere nulla ma, allo stato attuale, questo motore non ha dato risultati che confermano quanto affermato. Visto l’interesse sulla cosa, sono sicuro che ci saranno ulteriori sviluppi nei prossimi mesi. Se così fosse, torneremo sull’argomento proprio per vedere se quanto affermato corrisponde al vero e, in tal caso, ragioneremo su effetti non considerati dalla fisica.

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Altra prova a sostegno delle scie chimiche

20 Ago

Putroppo, ad intervalli regolari, si alza forte la voce del popolo complottista che grida alla geoingegneria e all’avvelenamento globale perpetrato ad opera di governi deviati per lo sterminio di buona parte della popolazione mondiale. Non voglio essere ironico, questa è la verità. Di tanto in tanto, i nostri amici complottisti tornano con forza su questo argomento portando nuove analisi e nuove prove a sostegno.

Piccolo excursus, proprio per non ripeterci, di scie chimiche abbiamo abbondantemente, forse anche troppo, parlato in diversi post:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come difendersi dalle scie chimiche

Il Dibromoetano e le scie chimiche

A-380 modificato per spargere scie chimiche

L’accordo Italia-USA per spargere scie chimiche

Scie chimiche, la prova storica!

Scie chimiche con la scusa dei vaccini!

Scie chimiche: il silenzio non può durare oltre!

Leggendo queste informazioni potete reperire tutte le considerazioni fatte. Quindi, per carità, prima di commentare dicendo che non prendiamo in considerazione le notizie e le analisi reali, ma solo quelle che ci fanno comodo, leggete questi articoli, poi ne parliamo.

Oltre a questi articoli, ne abbiamo un altro molto interessante:

Scie chimiche, ora abbiamo la prova

in cui avevamo discusso quella che secondo molti complottisti è la prova regina per eccellenza, il prelievo in quota degli scarichi degli aerei. Come visto però, anche in questo caso si trattava di una bufala mal organizzata. Il prelievo in quota era un campione raccolto con un fazzoletto di carta nello spazio in mezzo ai sedili di un volo commerciale. Per intenderci, proprio quella zona dove nessuno mette mai le mani, nessuno la pulisce e, molto probabilmente, nessuno ha mai pulito da quando quell’aereo è stato realizzato. Come visto, questa prova regina era stata subito scartata per evidenti motivi tra cui, soprattutto, il prelievo fatto in modo assolutamente non attendibile ne affidabile.

Bene, ora ci risiamo. Negli ultimi giorni su diversi siti è apparsa una nuova analisi in grado di dimostrare in modo schiacciante l’esistenza delle scie chimiche. Anche questa volta, nessuno si è preso la briga, ma soprattutto l’onere economico, di analizzare una scia di condensa ma questo poco conta: il prelievo questa volta è di importanza indiscutibile.

Di cosa si tratta?

Come forse avrete letto, un gruppo, al solito, di ricercatori indipendenti, ha prelevato un campione di neve a 1200 metri di quota, nella zona di Piancavallo. Avete capito bene, 1200 metri di quota. Questa volta poi, avendo imparato dalla critiche, il campione è stato raccolto con provette sterili, immediatamente chiuso e portato, evitando ogni possibile contaminazione, in un affidabile laboratorio per analisi chimiche.

Cosa è emerso da questa analisi?

Metalli pesanti tra cui: piombo, alluminio, cadmio oltre a tanti altri inquinanti.

Ora come la mettiamo? Il prelievo è indiscutibile, l’analisi pure e i risultati sono chiari. Inoltre, ripeto, parliamo di un campione preso a 1200 metri di quota. Qui non ci sono industrie, automobili e altre diavolerie inquinanti. Quei metalli possono solo provenire dalle scie chimiche lasciate dagli aerei che passano in quella zona. Qualcuno offre anche la spiegazione del perchè ci siano quei metalli: le multinazionali OGM hanno sviluppato sementi in grado di resistere ai metalli pesanti mentre quelle tradizionali muoiono. A questo punto, grazie alle scie chimiche, dovremmo comprare i semi solo da queste industrie se non vogliamo morire di fame.

Bene, fino a questo punto abbiamo giocato, ora torniamo seri. Secondo voi questa analisi è attendibile? La risposta è NO e cerchiamo di capire il perchè. Ovviamente, almeno da quanto riportato, ma poco importa, non è attaccabile il prelievo in se ne tantomeno l’analisi condotta, quelle che sono sbagliate sono proprio le supposizioni iniziali.

Un ambiente a 1200 metri di quota è isolato dal resto del mondo al punto di non risentire della civiltà? Assolutamente no.

Quelli rivelati sono inquinanti provenienti, in larga parte, dai gas di scarico delle macchine che circolano in elevato numero lungo l’arco alpino con contributi che possono arrivare fino alla pianura padana. Cosa significa? Se leggete i dati del transito di veicoli attraverso le alpi, rimarrete sorpresi dalle decine di milioni di automobili che ogni anno vengono registrate. Ora, gli inquinanti prodotti dai gas di scarico restano in atmosfera e salgono verso l’alto. 1200 metri di quota non sono assolutamente tanti. Quando la neve cade, cattura queste particelle che restano intrappolate nei fiocchi e riscendono a terra. Risultato: anche ad alta, relativamente, quota, possiamo trovare metalli pesanti prodotti dall’uomo.

Se non siete convinti di quello che diciamo, facciamo qualche altro esempio. Rimanendo nell’ambito delle Alpi, vi riporto un articolo del Corriere del 1999, quando ancora pochi parlavano di scie chimiche:

Corriere, 1999

Come vedete, anche qui si parlava di metalli pesanti sull’arco alpino ed in particolare di Platino, Rodio, ecc.. Come se non bastasse, a riprova dell’altitudine relativa, gli stessi inquinanti, come riportato nell’articolo, sono stati rinvenuti nei ghiacci di Antartide e Groenlandia, quindi ecosistemi ancora più isolati. Da dove vengono questi e quelli oggi registrati nel campione di neve? Molto probabilmente dai gas emessi dalle marmitte catalitiche. Come noto, questi sistemi riescono a ridurre notevolmente il quantitativo di piombo emesso, ma presentano una concentrazione non nulla dei metalli pesanti utilizzati per la costruzione della marmitta stessa. Per completezza, l’alluminio è usato per il corpo della catalitica.

Se ancora non vi basta, qualora i metalli pesanti non siano sufficienti, vi riporto un’altra fonte, questa volta del 2003, autore addirittura Greenpeace:

Greenpeace 2003

Visto quanti inquinanti venivano trovati in un lago alpino ad alta quota? Al solito, queste sostanze sono prodotte da attività umane a distanza e trasportate fino a quel punto. La neve, cadendo, riporta gli inquinanti a terra alimentando anche i laghi e dunque avvelenando le specie ittiche.

Concludendo, anche questa volta un nulla di fatto. Ritenta, sarai più fortunato.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Non puoi andare un attimo in vacanza che ….

14 Ago

Eccoci tornati, freschi, riposati, con tanto lavoro arretrato da finire …. insomma pronti per iniziare un nuovo anno anche qui su Psicosi 2012.

Cosa è successo in mia assenza?

Dopo qualche giorno dalla mia partenza, mi scrive un caro amico dicendomi che esiste il rischio che io debba tornare urgentemente dalle ferie perchè un nuovo imminente pericolo sta minacciando la Terra?

Di cosa si tratta? Scie chimiche? Comete impazzite? Nibiru? No, niente di tutto questo.

Ecco il vero motivo:

10592131_10204670615949665_1047143004_n

Credo che l’immagine parli da se e sia anche inutile commentare oltre.

A parte questo, notizia rilevante degli ultimi giorni è quella del ritrovamente di un delfino “speciale” sulle coste turche. Sicuramente avrete letto questa notizia visto che è stata pubblicata anche da moltissimi giornali nazionali e, come sempre, l’occasione non è sfuggita neanche ai tanti siti bufala che ormai popolano la rete.

Vi mostro subito una foto di questo delfino:

Il delfino bicefalo rinvenuto in Turchia

Il delfino bicefalo rinvenuto in Turchia

Come vedete, l’animale presenta due teste ben separate ma un solo corpo. Come è stata accolta questa notizia? Moltissimi siti hanno etichettato il ritrovamento come misterioso e non spiegabile. I nostri amici catastrofisti, invece, hanno evidenziato come questo animale potrebbe essere il risultato di mutazioni genetiche indotte, neanche a dirlo, da geoingegneria, inquinamento dei mari, fluidi radioattivi della centrale di Fukushima (in Turchia?) o altre diavolerie che i soliti scienziati pagati dai governi mettono a punto contro i poveri esseri umani inermi.

Senza perdere troppo tempo su questo caso, il ritrovamento è assolutamente interessante ma, anche se molto raro, non è assolutamente qualcosa di straordinario.

Di cosa si tratta?

Sperando di non urtare la sensibilità di nessuno, premetto che non voglio mercificare nulla, vi mostro una foto liberamente scaricabile dalla rete:

Foto di gemelle siamesi

Foto di gemelle siamesi

Quelle che vedete sono due gemelle siamesi con un solo corpo e due teste perfettamente separate. Vi ricorda qualcosa?

Così come negli esseri umani, la nascita di gemelli siamesi è possibile anche nel regno animale. Ovviamente, ripeto, così come negli umani, questo tipo di nascite sono molto rare. Per di più, mentre gli umani nascono negli ospedali e la notizia di una nascita del genere è nota e monitorata, nel regno animale è molto raro trovare esemplari di questo tipo.

A riprova di quanto detto, basta fare una rapida ricerca su internet per trovare casi analoghi di animali siamesi rinvenuti in giro per il pianeta. Questa è una notizia di gennaio sul ritrovamento di una balena siamese in California:

Balene siamesi, California

Questa invece la foto di un feto di squalo martello bicefalo:

Feto di squalo martello bicefalo

Feto di squalo martello bicefalo

Quella dello squalo è una notizia dell’anno scorso e, neanche a dirlo, il feto è stato venduto all’asta a circa 5000 dollari dal momento che era il primo caso in assoluto di squalo bicefalo rinvenuto.

Come vedete, solo tra 2013 e 2014 abbiamo due notizie di animali siamesi rinvenuti. Basta fare una ricerca andando più indietro con gli anni, per trovare molti altri casi analoghi.

A questo punto, non credo sia necessario aggiungere altro sul caso del delfino.

Ah, quasi dimenticavo! Prima di chiudere, non posso che augurarvi un felice ferragosto a voi e ai vostri cari!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La fisica ha detto che Dio esiste!

16 Giu

Un nostro lettore mi ha contattato via mail per chiedermi maggiori normazioni, o meglio l’eventuale conferma o smentita, di un articolo apparso in questi giorni su alcuni siti, inutili che io vi dica nuovamente quale tipologia di siti. Al solito, e lo premetto subito, è vero che l’articolo in questione è apparso su diversi siti ma, come al solito, la “propagazione mediatica” attraverso internet, soprattutto in casi come questi, passa sempre per il becero copia/incolla che tanti hanno abitudine di fare, senza nemmeno degnarsi, non dico di verificare le fonti, ma almeno di riscrivere l’articolo con parole proprie.

Di cosa si tratta?

Questa volta si parla niente poco di meno che di Dio e del fatto che la sua esistenza sarebbe stata provata scientificamente attraverso deduzioni teoriche ed esperimenti. Davvero? La solita bufala? Chi è l’autore di queste misure? E qui il discorso si complica non poco. Lo scienziato che avrebbe fatto queste osservazioni non è un fisico qualunque ma il fisico teorica americano (di origini giapponesi) Michio Kaku.

Chi è Michio Kaku?

Avete mai sentito parlare della teoria delle stringhe? Bene, questo signore è uno dei due co-autori che per primi hanno proposto la teoria delle stringhe e la hanno formalizzata matematicamente.

Il fisico teorico Michio Kaku

Il fisico teorico Michio Kaku

Cavolo! Data la fonte, forse è il caso di capire meglio questo articolo e cercare di capire cosa avrebbe spinto, qualora l’articolo fosse vero, il famoso fisico ha fare queste affermazioni.

A questo punto però, se provate a leggere l’articolo vi rendete conto che … non si capisce nulla. Perché? Vi riporto qualche spezzone:

Uno degli scienziati più famosi e rispettati,  dichiara di aver trovato la prova dell’azione di una forza che “governa tutto”. Il noto Fisico teorico Michio Kaku ha affermato di aver creato una teoria che potrebbe comprovare l’esistenza di Dio.

Per raggiungere le sue conclusioni , il fisico ha utilizzato un “semi–radio primitivo di tachioni” (particelle teoriche che sono in grado di “decollare” la materia dell’universo o il contatto di vuoto con lei, lasciando tutto libero dalle influenze dell’universo intorno a loro), nuova tecnologia creata nel 2005 . Anche se la tecnologia per raggiungere le vere particelle di tachioni è ben lontano dall’essere una realtà , il semi-radio ha alcune proprietà di queste particelle teoriche, che sono in grado di creare l’effetto del reale tachyon in una scala subatomica .

E, ovviamente, non poteva mancare la frase ad effetto:

L’informazione ha creato molto scalpore nella comunità scientifica perché Michio Kaku è considerato uno degli scienziati più importanti dei nostri tempi, uno dei creatori e degli sviluppatori della rivoluzionaria teoria delle stringhe ed è quindi molto rispettato in tutto il mondo.

Avete capito la tipologia di articolo che stiamo prendendo in considerazione? Soltanto leggendo queste poche righe estratte dal testo dell’articolo, potete capire come il tutto sia orchestrato per non far capire nulla, sia stato copiato e tradotto malamente da un’altra lingua ma, soprattutto, la presenza di frasi ad effetto servono solo a creare enfasi atta a coprire la bufala che vi stanno facendo passare.

Andiamo con ordine.

Nella comunità scientifica non si parla d’altro. Falso, vi giuro che nella comunità scientifica si parla di “tutt’altro”! Nell’articolo si parla di tachioni come particelle teoriche ma di un semi-radio, che vi giuro non ho idea di cosa potrebbe essere secondo queste menti malate, che avrebbe le proprietà dei tachioni.

Apro e chiudo parentesi. I tachioni sono appunti particelle “pensate teoricamente” ma che non sono mai state osservate per via sperimentale. Per dirla tutta, dopo il primo entusiasmo nella formulazione dei tachioni, ormai la loro esistenza è stata messa da parte nella comunità scientifica. Come detto, si tratta di particelle immaginate solo a livello teorico, che avrebbero massa immaginaria e si muoverebbero a velocità maggiore di quella della luce. A livello teorico, non sono fantasie ma risultati possibili di equazioni.

Dunque questi tachioni, che non esistono, a contatto con la materia sarebbero in grado di “decollare la materia dell’universo”. Ma che significa? Senza che vi sforziate a cercare di capire, si tratta di frasi senza senso messe li giusto per fare scena. Leggendo questo articolo mi è tornato alla mente il film “amici miei° e la “supercazzola”. La valenza di questa frase è del tutto equivalente a quella della supercazzola appunto.

Perché questo articolo è stato tirato fuori ora?

Anche qui, come al solito, niente di speciale. Come detto diverse volte, la mancanza di spunti catastrofisti dell’ultimo periodo porta tanti siti a ritirare fuori dai loro archivi articoli datati giusto per riempire le loro homepage. Se provate a fare una ricerca su google, utilizzando come termini di ricerca proprio “Michio Kaku Dio”, trovate risultati anche molto datati, scritti esattamente allo stesso modo. Con buon probabilità, almeno da quello che ho visto, l’articolo originale da cui è partito lo storico copia/incolla è di un sito portoghese che ha pubblicato queste cavolate per primo nel 2011:

Articolo originale

Ultima domanda prima di chiudere: perché si cita nell’articolo proprio Kaku? E’ vero che si tratta di un fisico molto conosciuto ma, in fondo, tutti conoscono la teoria delle stringhe, o almeno ne hanno sentito parlare, ma non tutti ne conoscono gli autori. Parlare però di Kaku su argomenti di questo tipo è, in realtà, molto semplice. Oltre ad essere famoso per la teoria delle stringhe, Kaku è anche un noto divulgatore scientifico. Il luminare non è nuovo a teorie, diciamo, di confine e ad affermazioni che hanno fatto discutere sugli alieni, su Dio e sulla sua visione matematico/religiosa dell’universo. Per chi lo segue, Kaku è molto amato proprio per queste affermazioni perché si dedica a parlare di tutto, senza sfuggire ad argomenti fantascientifici e senza limitarsi in affermazioni poco “scientifiche”.

Detto questo, capite dunque l’assurdità dell’articolo di cui stiamo discutendo. Non credo sia necessario aggiungere altro per capire che si tratta di una bufala, tra l’altro anche datata e riciclata. Al solito, fate molta attenzione a quello che leggete e cercate sempre di fare delle verifiche autonome su siti “attendibili”. Solo in questo modo potrete evitare di credere ad articoli furbescamente realizzati con lo scopo di confondere le acque citando nomi ed argomenti ad effetto.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.