Tag Archives: innesco

La bomba più potente mai creata!

20 Ott

Eccoci di nuovo qui. Scusate, come al solito, la mia latitanza ma, in questi giorni, sono un po’ lontano dall’Italia e con qualche problema di fuso orario, oltre ai sempre presenti impegni lavorativi.

Detto questo, dopo questi due post:

Il suono del vinile

Il suono più forte mai udito

c’è un’ultima domanda che mi è stata rivolta via mail e che vorrei condividere con tutti perchè, a mio avviso, potrebbe essere molto interessante. La domanda fatta è, se vogliamo, molto semplice: qual è la bomba atomica più potente mai creata dall’uomo?

Premetto subito che il mio post non vuole urtare il pensiero di nessuno. Non è questa la sede per discutere tra chi è a favore dell’energia atomica e chi no, chi pensa una cosa e chi un’altra, ecc.. Lo scopo di questo post vuole essere puramente scientifico o, lasciatemi dire, nonostante l’argomento, di curiosità.

Bene, la bomba atomica più potente, e vedremo cosa significa, mai realizzata dall’uomo è la Bomba Zar, nome in codice Big Ivan, sviluppata in unione sovietica. Premetto subito che non si è trattato di un ordigno di offesa ma solo di un test militare. Anzi, come molti storici sotengono, più che un test militare, la costruzione e il seguente utilizzo della bomba è stato più che altro un messaggio di propaganda dell’ex-URSS per dimostrare ai suoi cittadini, e al mondo intero, cosa la nazione fosse in grado di realizzare.

Dal punto di vista tecnico, la bomba Zar, nella sua concezione iniziale, era una bomba a 3 stadi. Nel nucleo più interno il processo di fissione veniva fatto partire per fornire energia al secondo stadio in cui si aveva un’amplificazione grazie alla fusione di atomi di idrogeno, energia che serviva a sua volta per innescare una seconda fusione nel terzo e più esterno strato della bomba.

A livello progettuale, la bomba Zar era in grado di sviluppare una potenza di 100 Mt, cioè 100 milioni di tonnellate di TNT equivalente. A quanto equivale questa energia? Per farvi un esempio noto a tutti, l’atomica sganciata dagli USA su Hiroshima, Little Boy, aveva una potenza 3125 volte inferiore. Se potessimo far esplodere simultaneamente tutti gli esplosivi convenzionali utilizzati nella seconda guerra mondiale, l’esplosione sarebbe ancora 10 volte inferiore a quella della Bomba Zar.

Questo potentissimo ordigno venne sviluppato dall’Unione Sovietica da un team di fisici capeggiati da Andrej Sacharov, una delle menti più brillanti del XX secolo. Dopo aver contribuito in modo fondamentale allo sviluppo della bomba a idrogeno, Sacharov iniziò una lunga battaglia a favore dei diritti civili e contro l’uso dell’energia nucleare negli armamenti. Proprio questa sua attività gli valse il premio nobel per la pace.

Tornando a parlare dell’ordigno, per motivi di sicurezza, nell’unico test condotto, venne realizzata una versione depotenziata della Bomba Zar. A differenza del progetto iniziale, il terzo stadio venne sostituito da piombo, materiale in grado di rallentare e schermare le radiazioni prodotte dalla bomba. Questa versione poteva però raggiungere la sempre impressionante energia di 50 Mt. Il test venne poi eseguito il 30 Ottobre 1961, sull’isola di Novaja Zemlja, una località sperduta a nord del Circolo Polare.

Nonostante l’enorme potenza, la sostituzione del terzo stadio con piombo diminuì notevolmente la radiazione emessa attraverso il fallout successivo alla detonazione. Proprio per questo motivo, considerando il rapporto potenza/radiazione, la bomba Zar è anche stata l’ordigno nucleare più “pulito”.

Quali sono gli effetti di una detonazione del genere? Prima di tutto, consideriamo che la bomba venne fatta esplodere a 4000 metri dal suolo. Nonostante questo, la successiva onda sismica provocata dalla deflagrazione fece 3 volte il giro del pianeta. Testimoni a 1000 Km di distanza dal punto, poterono vedere chiaramente il lampo anche se il cielo era notevolmente nuvoloso. Altri testimoni riportarono di aver percepito il calore dell’onda sulla pelle fino a 270 Km di distanza. Praticamente tutto quello che era presente fino a 35 Km dal centro venne completamente spazzato via. Se ancora non vi basta, a 900 Km di distanza, in Finlandia, alcune case riportarono danni a porte e finestre provocati dall’onda d’urto dell’esplosione.

Ripeto, questa era la versione depotenziata di un un fattore 2 rispetto al reale progetto.

Spero che quanto raccontato sia sufficiente a far capire le potenzialità di questi ordigni. Ripeto, non voglio discutere se è giusto o meno costruire, o saper realizzare, bombe di questo tipo. Permettetemi però di dire, senza offesa per nessuno, che dal punto di vista tecnico è straordinario pensare a quanta energia possa essere sviluppata da un sistema di questo tipo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La stella in laboratorio

3 Ott

Attraverso le pagine del forum di Psicosi 2012:

Psicosi 2012, forum

mi e’ stato segnalato un articolo molto interessante. Perche’ lo definisco in questo modo? Semplice, l’articolo e’ talmente assurdo che merita di essere presentato qui sul blog.

Come diceva un proverbio: “Dagli amici mi guardi Dio perche’ da nemici mi guardo io”. Cosa significa? Mentre siamo guardinghi nei confronti dei nostri nemici,  ci sentiamo tranquilli verso gli amici. A volte questo puo’ creare la condizione per poter essere, come si dice, accoltellati alle spalle.

Cosa voglio dire con queste parole? Mentre ormai abbiamo capito bene quali sono i siti complottisti e catastrofisti e, almeno spero, abbiamo imparato a leggerli con occhio attento e guardingo, a volte quelli che dovrebbero essere siti seri e scientifici si lasciano prendere un po’ troppo la mano.

Questo e’ purtroppo il caso di una notiizia apparsa su ben due noti giornali online nazionali che, copiandosi spudoratamente tra di loro, hanno finito per sparare cavolate veramente fuori dalla grazia del Signore.

Prima di tuttto, vi segnalo gli articoli in questione:

Articolo 1

Articolo 2

Potete anche leggerne uno solo, tanto le parole utilizzate sono le stesse, ergo, non so chi dei due, ha fatto copia/incolla.

Avete letto bene? I ricercatori dell’istituto americano NIF, stanno per accendere una stella in laboratorio. Una stella? Proprio cosi’ dicono gli articoli. Si tratta di un esperimento di fusione in cui sono stati utilizzati laser con una potenza di 500 Tera Watt, 500 mila miliardi di watt di potenza. Come recita l’articolo, questa potenza e’ pari a 1000 volte quella che gli Stati Uniti stanno consumando in quel momento.

Signori, scusate le sfogo, ma questa e’ disinformazione scientifica sulle pagine di giornali nazionali che pretendono di avere una sezione di scienze! Poi, non ci sorprendiamo quando le persone pensano che al CERN si creeranno buchi neri che distruggeranno la Terra. Dall’altra parte dell’oceano stanno creando una stella in laboratorio.

Finito il mio piccolo sfogo personale, vorrei passare a commentare questa notizia. Al contrario di quanto fatto sui giornali citati, per poter capire questa notizia, e’ necessario capire bene il campo in cui ci andiamo a muovere, cioe’ la fusione nucleare.

Cercando di mantenere un approccio semplice e divulgativo, tutti conoscono le centrali nucleari per la produzione di energia elettrica. Questi reattori funzionano attraverso la fissione nucleare, cioe’ la scissione di un nucleo pesante, il combustibile, in nuclei piu’ leggeri. Questo processo, oltre ai due nuclei figli, produce un eccesso di energia. Il processo si dice dunque esoenergetico perche’ rilascia energia.

Detto in modo molto improprio, il processo inverso a quello di fissione nucleare e’ quello di fusione. In questo caso, si prendono due nuclei leggeri per fonderli insieme e formare un nucleo piu’ pesante. Questo processo e’ conveniente solo per nuclei molto leggeri, in linea di principio fino al ferro. Come viene fatto il processo? Quelli che dovete avvicinare sono degli atomi. Come sapete, nel nucleo sono presenti protoni con carica positiva. Avvicinando tra loro due cariche di segno uguale, queste si respingono tra loro con una forza che aumenta al diminuire della distanza. Sotto una certa distanza pero’, la forza coulombiana repulsiva, cioe’ quella tra cariche elettriche, diviene piu’ piccola della cosiddetta forza nucleare forte. Questa interazione e’ molto intensa, ma solo a distanze molto piccole. Detto in altri termini, dovete comprimere molto i nuclei tra loro, fino ad arrivare al punto in cui questi si attirano grazie alla forza forte.

Questa caratteristica rende il processo di fusione nucleare molto difficile da realizzare o meglio, molto difficile da sfruttare. Come anticipato, si tratta di un processo che rilascia energia. Per poter comprimere i nuclei tra loro dovete pero’ spendere un certo quantitativo di energia in qualche forma. Bene, per poter sfruttare questo processo, o meglio per guadagnarci, dovete fare in modo che l’energia spesa per attivare il processo, quella di compressione, sia minore di quella che poi viene rilasciata dai nuclei che si fondono.

Una delle possibili e piu’ studiate reazioni di fusione nucleare e’ quella del deuterio con il trizio:

D + T → 4He (3,5 MeV) + n (14,1 MeV)

In questa reazione i due reagenti, che altro non sono che isotopi piu’ pesanti dell’idrogeno, vengono fusi per formare un nucleo di elio, detto anche particella alfa, liberando anche un neutrone di una certa energia.

Vedete bene il processo. Indipendentemente da quello che ognuno di noi pensa delle centrali nucleari a fissione, il processo di fusione risolve automaticamente il problema delle scorie. In questo caso, non abbiamo sottoprodotti radioattivi a lunga vita media. Proprio per questo motivo, la costruzione di centrali di questo tipo e’ vista come la chimera della fisica nucleare e da diversi anni sono in corso ricerche per cercare di rendere il processo di fusione conveniente dal punto di vista energetico.

Il punto cruciale di questi studi e’ ovviamente come innescare il processo, cioe’ come far avvicinare tra loro i nuclei per far partire la fusione. Il caso visto negli articoli da cui siamo partiti e’ il cosiddetto confinamento inerziale ad ignizione laser. Detto in parole semplici, si utilizzano fasci laser per riscaldare e comprimere i nuclei e far partire la fusione.

Bene, a questo punto siamo in grado di rileggere gli articoli e di capire veramente quello che e’ successo nei laboratori del NIF.

Il laboratorio in questione utilizza 192 fasci laser per riscaldare e comprimere un sferetta di deuterio-trizio. Il numero elevato di laser serve prima di tutto per avere l’energia necessaria ma anche per poter riscaldare uniformemente la sfera di combustibile. Ovviamente, non serve irradiare continuamente il composto, ma e’ necessario che in un tempo molto breve l’energia arrivi tutta insieme sul campione. Quindi, proprio per questo si utilizzano fasci impulsati, cioe’ raggi molto intensi ma molto brevi nel tempo. Questo spiega l’enorme potenza in gioco. Data un’energia del fascio, tanto piu’ corto e’ il raggio, maggiore sara’ la potenza in gioco. Esattamente come in fisica definite la potenza come il rapporto tra lavoro e tempo per compierlo. Capite dunque da dove viene fuori quel valore enorme di 500 terawatt di potenza. Secondo voi, se fosse necessario avere 1000 volte la potenza che gli USA stanno consumando in quell’istante, chi sarebbe in grado di alimentare i laser? Nella migliore delle ipotesi, acceso il sistema salterebbe la corrente a tutti gli Stati Uniti. Direi che quanto affermato e’ quantomeno azzardato e dimostra la totale non conoscenza di quello che si sta raccontando.

Poi, cosa dice l’articolo? A questo punto, il sistema implode e si accende una stella.

Capiamo bene, perche’ implode? Lo schema semplificato del processo di fusione che avviene e’ questo:

Il meccanismo di ignizione laser per la fusione nucleare

Il meccanismo di ignizione laser per la fusione nucleare

Per compressione interna, si ha un implosione cioe’ un collassamento dei nuclei verso l’interno. Da come viene raccontato nell’articolo, sembra che ci sia una deflagrazione in laboratorio.

Poi si accende una stella ….

Perche’? Anche qui, si tratta di un’assurdita’ letta scopiazzando in giro. Il processo di fusione e’ quello grazie alla quale, ad esempio, le stelle producono la loro energia. Il nostro sole “funziona” grazie alla fusione degli atomi di idrogeno in elio. Quando si parla di processo vitale del sole e di passaggio allo stadio successivo, ci si riferisce proprio al momento in cui il combustibile finira’. Inoltre, se si vede la pagina Wikipedia dedicata al NIF:

Wikipedia, NIF

si legge una frase molto importante:

Oltre allo studio della fusione nucleare in campo energetico, al NIF si studieranno anche i segreti delle stelle; infatti quello che si sta tentando di fare è riprodurre il fenomeno della fusione dell’idrogeno che avviene sul Sole e su tutte le altre stelle.

Ecco da dove e’ nata l’idea che in laboratorio venga “accesa una stella”. Come vedete, l’autore dell’articolo ha provato a documentarsi sulla rete, ma non ha capito proprio il senso della frase riportata.

A questo punto, credo che l’assurdita’ di tali articoli sia evidente a tutti.

Tornando di nuovo a cose serie, perche’ e’ stata data questa notizia? Il motivo principale, e molto importante, e’ che, per la prima volta, e’ stato raggiunto il pareggio energetico. Cosa significa? Per la prima volta, si e’ riusciti ad ottenere la stessa quantita’ di energia che e’ stata necessaria per attivare il processo. Se prima l’energia per accendere la reazione era molto maggiore di quella che poi veniva prodotta, ora siamo in pareggio. Si tratta di un risultato molto importante, che dimostra i notevoli passi avanti fatti in questo campo. Certo, e’ vero che al momento non stiamo guadagnando nulla, ma prima, con lo stesso processo, ci rimettevamo tantissimo. Diciamo che il trend e’ dunque molto positivo.

Ovviamente, allo stato attuale, siamo ancora in un campo pioneristico. Magari, andando avanti, ci potremmo accorgere che si sono dei limiti alla produzione di energia che non siamo in grado di superare. Speriamo questo non avvenga e si riesca, in tempi rapidi, a spostare il bilancio energetico a nostro favore. Come detto prima, questa e’ la condizione per poter sperare nella realizzazione di centrali nucleari a fusione per la produzione di energia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Autocombustione umana, non solo al cinema

14 Ago

Su tutti i maggiori quotidiani e siti internet, in questi giorni  si parla incessantemente della storia di un bambino indiano probabilmente affetto da una rarissima malattia. Senza dilungarci troppo in dettagli che sicuramente avete gia’ letto, questa e’ la storia del piccolo Rahul, un bimbo indiano di soi 2 mesi e mezzo, che sarebbe gia’ stato ricoverato quattro volte per presunti casi di autocombustione. Come riportato dai medici, in tutte le occasioni il bimbo ha subito ustioni su diverse parti del corpo e i medici non risceono ad individuare la causa degli accaduti.

Come spesso avviene, molti giornali si dilungano in inutili chiacchiere cercando principalmente la spettacolarizzazione della notizia, soprattutto durante l’estate in cui le notizie di politica, gossip ed economia scarseggiano.

Nel nostro caso, senza voler speculare sulla notizia, quanto accaduto ci permette di parlare proprio della presunta “autocombustione umana”, che spesso trovate indicata anche come SHC, cioe’ “spontaneus human combustion”. Molti pensano che casi del genere siano solo delle leggende metropolitane o casi fantastici raccontati al cinema. Al contrario invece, negli ultimi 300 anni si sono registrati circa 200 presunti casi di SHC nel mondo.

Qual e’ l’origine di questa malattia? Esistono prove mediche a sostegno della sua esistenza?

Per rispondere a queste domande, e’ necessario fare delle considerazioni un po’ piu’ ampie. Prima di tutto, quando si parla di autocombustione, questo termine e’ leggermente fuorviante. Non dovete pensare ad un essere umano che da un momento all’altro prende fuoco senza un’apparente causa. In casi di questo tipo, e’ sempre presente un innesco esterno. Quello che deve essere compreso e’ invece il combustibile in grado di alimentare la fiamma. Come riportato in letteratura, nei casi di SHC documentati, molto spesso rimangono solo piccole parti intatte del corpo della persona. In alcuni casi, si racconta invece di arti o interi pezzi del corpo rimasti misteriosamente interi, mentre il resto del corpo e’ ormai ridotto in cenere.

Altro aspetto che ha contribuito a creare molte leggende sull’autocombustione umana e’ il fatto che in casi di questo tipo, magari avvenuti all’interno di abitazioni, gli oggetti della stanza non vengono bruciati, mentre il corpo e’ stato completamente arso. In alcune testimonianze, si parla di moquette bruciata in corrispondenza del corpo o di oggetti in plastica ammorbiditi dalle alte temperature.

Proprio questi aspetti sono quelli che creano maggior curiosita’. Nei forni per la cremazione, si utilizzano temperature prossime ai 1000 gradi per ridurre il corpo in cenere. Questi valori sono necessari affinche’ il processo sia molto rapido. Se anche volessimo ottenere lo stesso risultato in tempi piu’ lunghi, non potremmo comunque scendere sotto valori intorno ai 500-600 gradi. Con temperature del genere, appare dunque del tutto strano come gli oggetti della stanza non siano bruciati durante la combustione.

Ovviamente, salteremo tutta la parte relative alle cause paranormali della SHC. Come potete facilmente immaginare, non manca chi parla di possessioni demoniache, strani fenomeni elettromagnetici che innescherebbero la combustione o anche castigo divino per punire i peccatori. La cosa incredibile e’ che c’e’ chi, ancora oggi, pensa che queste potrebbero essere le cause dall’autocombustione.

Detto questo, cerchiamo di fare un po’ di chiarezza. Vi dico subito che esistono alcuni studi scientifici su questo argomento, ma una risposta chiara ed univoca non e’ ancora stata data.

Secondo molte fonti, l’autocombustione umana non sarebbe assolutamente possibile. I casi documentati sarebbero invece spiegabili con la cosiddetta teoria della “candela inversa”. Come trovate in letteratura, molti dei casi riportati riguardano persone sovrappeso e fumatrici. Secondo questa interpretazione, l’innesco potrebbe essere avvenuto per cause, diciamo, di routine a causa della sigaretta accesa, mentre la combustione sarebbe stata alimentata dal grasso corporeo. Mi spiego meglio, i vestiti possono impregnarsi di grasso comportandosi come uno stoppino che avvolge il corpo. Una volta accesa la fiamma, le temperature sviluppate sciolgono il grasso corporeo alimentando ancora di piu’ la combustione. Possibile che nessuno si sia accorto che stava prendendo fuoco? Secondo questa interpretazione, in molti casi si parlerebbe di persone che hanno assunto sonniferi prima di bruciare.

Personalmente, trovo questa interpretazione un po’ forzata e un abbastanza riduttiva.

Allo stesso modo, si parla anche di persone affette da alcolismo che avrebbero subito l’autocombustione. Secondo questa interpretazione, i tessuti del corpo sarebbero intrisi di alcool a tal punto da far sviluppare la combustione, poi a sua volta alimentata dal grasso come visto in precedenza.

Possibile tutto questo?

Anche in questo caso, mi sento di dire di no. Per prima cosa, partiamo dalla notizia iniziale. Non credo che si possa parlare di alcolismo o di obesita’ in un bimbo di due mesi e mezzo. Capite dunque che, se vogliamo, quest’ultima notizia smentisce questa interpretazione.

A sostegno dell’obiezione ci sono anche degli studi di laboratorio condotti con carne di maiale in cui si vede come la carne non sostenga affatto la combustione anche dopo essere stata diverse ore a bagno di alcool puro. Premesso poi che per avere una concentrazione talmente alta nei tessuti, la quantita’ di alcol avrebbe gia’ ucciso il soggetto.

Quale potrebbe essere allora la spiegazione?

Secondo alcune fonti, la spiegazione sarebbe da cercare nella chetosi, cioe’ nell’errato metabolismo degli acidi grassi. In questo caso, il corpo produce un eccesso di corpi chetonici che non potendo essere smaltiti viaggiano con il sangue. Alcuni corpi chetonici molto volatili, come ad esempio l’acetone, si liberano a livello degli alveoli. Proprio per questo motivo, le persone affette da chetosi hanno un caratteristico odore dell’alito.

La chetosi si presenta in molti casi a livello infantile, con intensita’ piu’ o meno alta. Oltre ai bambini, persone affette da chetosi possono essere i malati di diabete, gli alcolisti, soggetti con diete troppo povere di carboidrati o che presentano pancreatite o problemi gastrointestinali.

E’ possibile che l’acetone produca l’autocombustione?

Analoghi studi a quelli riportati con l’alcool sono stati fatti utilizzando l’acetone. In questo caso, si parla di una sostanza con punto di ebollizione molto basso, 56 gradi centigradi, e che, come dimostrato dagli studi sulle carni animali, sarebbe in grado di provocare l’effetto riportato nei casi di autocombustione. Per quanto riguarda l’innesco, anche in questo caso si parla di sorgenti esterne o di effetto candela inverso in grado di accelerare o aumentare il processo. Sicuramente, l’alta volatilita’ dell’acetone, sarebbe compatibile con un fenomeno di bruciamento dovuto a sorgenti esterne normalmente disponibili.

L’ipotesi acetone, almeno a mio avviso, sarebbe compatibile con molti dei casi riportati in letteratura ed e’ anche sostenuta da studi medici che documentano il disturbo in grado di generarlo.

Come anticipato, ad oggi non esiste ancora una spiegazione chiara della SHC anche se l’ipotesi chetosi e’ quella maggiormente citata. Purtroppo, o per fortuna, casi del genere non sono cosi’ frequenti e proprio per questo motivo gli studi si basano su poche testimonianze, molto spesso distorte dal racconto dei presenti.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Manchester: la statuetta che si muove da sola

28 Giu

In questi giorni, su internet si sta parlando incessantemente di una statuetta del museo di Manchester che, apparentemente, sembra muoversi da sola. Dal momento che di questa storia hanno parlato anche i principali giornali online, sarete gia’ perfettamente informati dei fatti.

Solo per riassumere, in una teca del suddetto museo, e’ contenuta una statuetta alta circa 25 cm, risalente al 1600 a.C. e ritrovata in una tomba egizia. Stando a quanto riportato sui principali giornali, la statuetta sarebbe in possesso del museo da circa 80 anni. Ora, solo pochi giorni fa, uno dei curatori della mostra, ha notato per la prima volta la statua girata al contrario rispetto alla solita posizione. Per farvi capire meglio, come se la statuetta avesse ruotato intorno al suo asse. Non sospettando nulla, l’addetto si e’ limitato a rimettere in posizione il reperto e chiudere la teca. Dopo qualche giorno pero’, lo stesso addetto ha nuovamente notato la statua girata. Da quanto riportato, questo sarebbe l’unico possessore delle chiavi di questa vetrina. Incuriosito dal fatto, si e’ deciso di montare una fotocamera all’interno del museo per verificare questi movimenti. Con grande stupore, gli addetti hanno visto con i loro occhi la statuina ruotare da sola.

Ecco un video che mostra quanto ripreso:

 

Come vedete, sembra proprio che la statua abbia ruotato rispetto al suo asse senza che nessuno la toccasse.

Ora, questo video e’ diventato il nuovo tormentone del web. Come potete immaginare, le ipotesi fatte per spiegare l’accaduto sono tantissime e molte delle quali chiamano in causa fenomeni paranormali. Anche lo stesso curatore della mostra, ha parlato di maledizione del faraone. Secondo quanto riportato, qualora il corpo del faraone fosse andato distrutto, l’anima del defunto re rimarrebbe imprigionata nelle sue raffigurazioni come, ad esempio, la statuina. Questo potrebbe causare il movimento del reperto. Non pensate che questa ipotesi sia arrivata da chissa’ quale sito, si tratta della spiegazione data proprio dal curatore della mostra.

Come riportato da molti giornali, gli addetti del museo hanno anche chiesto un parere esterno a tale Brian Cox, docente di fisica dell’universita’ di Manchester. Secondo lo scienziato, il movimento sarebbe perfettamente compatibile con un effetto dell’attrito tra la superficie in vetro e la base della statuina. In particolare, il fondo irregolare del reperto, potrebbe innescare, grazie alle vibrazioni del terreno, una rotazione intorno all’asse.

La risposta dei curatori del museo e’ stata categorica: la statuina e’ in quel posto da 80 anni e non si sono mai verificati fenomeni del genere.

Secondo alcuni mal pensanti, si tratterebbe solo di una trovata pubblicitaria creata dal museo per attirare piu’ visitatori. La spiegazione del video sarebbe molto semplice: come avete visto, si tratta di un documento composto in realta’ da una sequenza di fotografie scattate ad intervalli regolari. Secondo questa interpretazione, ci sarebbe qualcuno che nell’intervallo di tempo tra uno scatto e l’altro avrebbe girato la statua simulando la rotazione spontanea.

A questo punto, cerchiamo di fare qualche considerazione su quello che vediamo nel video.

A mio avviso, l’ipotesi di Cox e’ veritiera. Quali vibrazioni innescherebbero il fenomeno? Come potete vedere dal video, il movimento della statua avviene soltanto durante il giorno, in presenza di visitatori. In questa situazione, sarebbe proprio il movimento del pubblico che causerebbe le vibrazioni in grado di mettere in moto la statuina.

Come anticipato, le vibrazioni riuscirebbero a mettere in rotazione il reperto grazie alle superfici irregolari tra i due corpi. A riprova di questo, notate che quando la statuina e’ arrivata quasi di spalle, il movimento cessa anche in presenza di visitatori. Perche’ questo? In presenza di due corpi irregolari, ci possono essere posizioni che presentano attriti molto diversi. In punti particolari, le asperita’ tra i due corpi possono creare dei veri e propri freni in grado di fissare corpo e piano. Dalla spiegazione e da quanto osservato, possiamo capire sia l’innesco che l’arresto del movimento. In tal senso, e’ anche comprensibile perche’ l’addetto avrebbe dichiarato di aver trovato per due volte consecutive la statuina esattamente nella stessa posizione.

Ora pero’, c’e’ un punto che rimane incompreso. Come visto nella risposta dei curatori della mostra a Cox, la statuina sarebbe nel museo da quasi 80 anni e solo negli ultimi giorni sarebbe stato notato questo movimento.

Come e’ possibile questo?

In realta’, la mostra in questione e’ iniziata solo pochi giorni fa. Ora, anche se la statua e’ da 80 anni nel museo, sicuramente il reperto e’ stato spostato per allestire la mostra. Come visto in precedenza, il gioco degli attriti e’ dato sia dall’irregolarita’ della base della statua, ma sicuramente anche da quella della superficie del vetro. Inoltre, e’ possibile che la statuetta sia stata spostata da una teca ad un’altra o che tutta la vetrinetta sia stata mossa. In questo caso, magari, la nuova posizione presenta delle condizioni diverse. Solo per dare un esempio, se sotto il pavimento passano egli impianti o ci sono delle aperture, il pavimento puo’ amplificare le vibrazioni dei passi dei visitatori piu’ che in precedenza.

Detto questo, e’ del tutto comprensibile anche perche’ il movimento sia iniziato solo da pochi giorni.

Alla luce di questa spiegazione, sarebbe veramente molto semplice confermare o smentire le ipotesi. Prima di tutto, basterebbe spostare la statuina in un’altra teca o, in alternativa, disporla su una superficie diversa rispetto a quella attuale. In questo caso, la diversa configurazione tra corpo e piano, creerebbe condizioni di attrito diverso. Se il movimento e’ dato dallo spirito del faraone, allora potremmo anche incollare la statua, ma la rotazione avverrebbe lo stesso.

Vista l’enorme pubblicita’ in corso sulla rete, non credo che i curatori del museo abbiano intenzione di smentire sperimentalmente la storia del faraone. Con questo non intendo certo dire che tutta la cosa sia stata architettata a tavolino. Avendo visto personalmente il museo diversi anni fa, non ci sarebbe bisogno di trucchetti del genere per attirare visitatori. Ora pero’, visto che e’ uscita fuori la storia della statuina … tanto vale sfruttarla.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fertilizzanti ed esplosivi

19 Apr

Molti utenti del forum mi hanno chiesto di scrivere un post su quanto accaduto l’altro giorno in Texas. Anche se questo argomento non rientra propriamente nella tematica del blog, e’ interessante parlarne cercando di spiegare gli aspetti piu’ tecnici e scientifici del terribile incidente avvenuto nella fabbrica di fertilizzanti della citta’ e che, giustamente, ha lasciato interdetti molti di noi.

Come tutti sanno, il 18, poco dopo le 20 ora locale, nella cittadina di West vicino Waco e’ scoppiato un incendio molto esteso nella fabbrica di fertilizzanti “West fertilizer Co.”. A seguito dell’incendio, e’ poi avvenuta una fortissima esplosione che ha praticamente distrutto la fabbrica ed i palazzi intorno ad essa. Come raccontano i testimoni, l’esplosione e’ stata talmente tanto forte da assomigliare a quella di un piccolo ordigno nucleare. Inoltre, dalla fabbrica si e’ alzata una nube tossica con un forte odore di ammoniaca che ha intossicato molti residenti della zona non che alcuni vigili del fuoco accorsi inizialmente sul posto per spegnere l’incendio.

In queste ore, ancora non e’ del tutto noto il numero di morti causati dall’incidente. Sui diversi giornali, trovate numeri completamente in disaccordo, si va dai 5 accertati fino a stime di 60-70 morti rimasti colpiti dalla potente deflagrazione avvenuta. A causa della nube tossica e dall’incendio ancora in corso, che potrebbe causare ulteriori esplosioni, tutti i 2800 residenti di West sono stati fatti evacuare e portati in luoghi piu’ sicuri.

Cosa e’ successo precisamente?

Prima di tutto, per darvi un’idea della potenza dell’esplosione avvenuta, a seguito di questa, i sismografi della zona hanno registrato un terremoto di magnitudo 2.1 causato interamente dalla deflagrazione. Vi mostro una foto presa dal database dell’USGS che mostra proprio il sisma registrato nella zona:

Terremoto registrato a causa dell'esplosione. Fonte: USGS

Terremoto registrato a causa dell’esplosione. Fonte: USGS

Come detto in precedenza, l’origine del disastro e’ nell’incendio che e’ divampato all’interno della fabbrica. Ad oggi, ancora non si conosco le cause di questo incendio e spettera’ alle autorita’ investigative capire meglio se questo era di origine dolosa o causato da altri eventi particolari.

La West Fertilizer era una grande industria produttrice di fertilizzanti azotati e che aveva diversi contenitori di queste sostanze. Quello che non tutti sanno e’ che i fertilizzanti azotati possono essere utilizzati proprio come base per la fabbricazione di esplosivi. Il piu’ adatto a questo scopo, e che la fabbrica texana produceva in grandi quantita’, e’ il “Nitrato di Ammonio”. Questo sale, ottenuto dalla combinazione di ammoniaca con acido nitrico, NH4NO3, e’ molto utilizzato in agricoltura per la sua notevole percentuale di azoto. Il suo alto bilancio di ossigeno pero’, lo rende estremamente adatto anche per la fabbricazione di esplosivo.

Il Nitrato di Ammonio, anche se di libera vendita per scopi agricoli, viene venduto fortemente diluito proprio per impedire utilizzi diversi di questa sostanza. La regolamentazione europea e americana ne impone la percentuale di diluizione ed in caso di richieste elevate per scopi agricoli, i nominativi degli acquirenti vengono registrati e resi disponibili per le autorita’.

Questo sale viene utilizzato anche in maniera “ufficiale” per produrre esplosivi adatti a scopi specifici. In particolare, dato il bilancio positivo di ossigeno e la reazione poco esotermica che si ottiene, gli esplosivi a nitrato di ammonio vengono spesso utilizzati nelle miniere dove il calore prodotto sarebbe pericoloso a causa dell’eventuale emissione di gas. Esplosivi di questo tipo sono l’Ammonal e l’ANFO. Quest’ultimo ottenuto semplicemente mescolando nelle giuste quantita’ nitrato di ammonio e gasolio.

Sempre il nitrato di ammonio, viene utilizzato per la fabbricazione del ghiaccio istantaneo molto utile in ambito sportivo. Per intenderci, quelle tavolette che una volta rotte divengono molto fredde e che vengono utilizzate a seguito di traumi al posto del normale ghiaccio. In questo ambito, la reazione endotermica che si genera diminuisce la temperatura della tavoletta.

Nel caso della West Fertilizer, come e’ normale che sia, erano presenti diversi contenitori di questo sale, oltre ad altri fertilizzanti sempre a base di azoto, puri e non ancora diluiti per la vendita. L’incendio che si e’ sviluppato ha dunque innescato l’esplosione dei fertilizzanti che, date le notevoli quantita’ presenti, ha dato luogo ad una deflagrazione di enorme potenza.

A cuasa dell’alta reperibilita’ in agricoltura e del basso prezzo di vendita, il nitrato di ammonio e’ uno degli ingredienti preferiti da cellule terroristiche per la fabbricazione di bombe. Ovviamente, non diro’ nulla su come utilizzare il nitrato per questo scopo o quali sono le giuste percentuali da utilizzare, ma la preparazione di questi esplosivi non richiede assolutamente un laboratorio attrezzato.

Diversi attentati da parte dell’Eta, dell’Ira e di cellule Quediste  sono stati condotti utilizzando ordigni a base di  nitrato di ammonio. Molto spesso, per ottenere queste bombe e’ sufficiente mescolare il sale con oli combustibili o con nitrato di potassio e poi realizzare l’innesco nei modi piu’ diversi utilizzando schede sim, perette elettriche, siringhe senza ago, ecc. Come potete capire, l’alta reperibilita’ e la semplicita’ di realizzazione di esplosivi di questo tipo, rendono il nitrato di ammonio uno degli ingredienti piu’ ricercati sul mercato.

L’unica cosa che, giustamente regolata, rende piu’ difficoltoso l’utilizzo di questo fertilizzante per scopi terroristici e’ dunque il fattore di diluizione nella vendita. Ora, a seguito di quanto detto, immaginate dei serbatoi pieni di nitrato d’ammonio puro nella fabbrica texana coinvolta in un incendio. Come potete capire, incidenti di questo tipo sono estremamente pericolosi proprio per questo motivo.

Gia’ in passato e sempre in Texas ci fu un altro grave incidente causato dal nitrato di ammonio. Il 16 Aprile del 1947, nel porto di Texas City, si incendio’ la nave francese Grandcamp che trasportava una notevole quantita’ di questo sale puro. L’esplosione che si verifico’ fu udita nel raggio di 150 miglia e causo’ circa 600 morti. Proprio come nel caso di questi giorni, l’esplosione fu equivalente a quella di 3,2 KTon di TNT, cioe’ paragonabile a quella di un piccolo ordigno nucleare. Detto questo, capite che non c’e’ assolutamente esagerazione nei racconti dei testimoni di West.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Elezioni, promesse verdi e protocollo di Kyoto

6 Feb

Come tutti sanno, qui in Italia, siamo nel pieno della campagna elettorale per le elezioni politiche. Non passa un giorno senza che i nostri candidati premier promettano questo o quest’altro, facendo a gara tra loro a chi riesce a fare la “sparata”, perche’ in genere solo di questo si parla, piu’ grossa in TV o sui giornali.

Ovviamente, lungi da me fare un discorso politico su questo blog. La premessa fatta, e su questo credo che nessuno possa dire il contrario, e’ indipendente da destra, sinistra, centro, sopra e sotto.

Oggi pero’, leggendo il giornale, vedo una serie di notizie che mi hanno fatto riflettere. Tutti hanno cominciato a parlare di ambiente e si sono resi conto che nei programmi elettorali non poteva certo mancare anche la promessa su queste tematiche. In particolare, proprio oggi, ci sono state una serie di dichiarazioni riguardanti proprio la politica delle rinnovabili e lo sfruttamento o meno di determinate risorse italiane.

A cosa mi riferisco?

7252Cominciamo proprio dal discorso sfruttamento. Nel canale di Sicilia sta facendo molto discutere la scelta di installare piattaforme per l’estrazione petrolifera. Prima di tutto, su molte fonti si e’ iniziato a parlare di tecniche di fracking, di pericolo terremoti o anche della possibilita’ che attivita’ di questo tipo possano creare tsunami nei nostri mari.

Di fracking abbiamo parlato piu’ volte, ad esempio, in questi post:

Fratturazione idraulica

Una prova del fracking in Emilia?

Innalzamento dei pozzi in Emilia prima del sisma

Come sappiamo, queste tecniche sfruttano l’inserimento nel terreno di fluidi ad alta pressione i quali, mediante un azione corrosiva, riescono a facilitare l’estrazione di idrocarburi, ma principalmente di gas. Come visto nei post precedenti, questo genere di attivita’ ha veramente mostrato la possibilita’ di innescare terremoti di intensita’ molto lieve anche a distanza di alcni giorni dall’immisione dei fluidi nel sottosuolo. Ci tengo a sottolineare che stiamo parlando di lievi scosse, non esiste nessun caso al mondo, documentato, in cui il fracking abbia creato terremoti di magnitudo elevata.

Dell’utilizzo del fracking ne abbiamo parlato nel caso del terremoto dell’Emilia del 2012. Come visto, questa relazione era in realta’ completamente campata in aria e questa attivita’ assolutamente non documentata prima ancora che connessa con il terremoto.

Tornando al caso dello stretto di Sicilia, i timori principali vengono dal fatto che questa e’ una zona da sempre considerata a rischio terremoti, vista anche la presenza di strutture del terreno molto diversificate, in grado di provocare l’amplificazione delle onde sismiche, ma anche grazie alla presenza di linee di faglia proprio nello stretto.

Diciamo subito che l’estrazione del petrolio nello stretto non prevede assolutamente l’utilizzo del fracking e non c’e’ assolutamente nessun pericolo terremoto in queste attivita’.

Queste considerazioni rispondono da sole alle accuse mosse in questa direzione, anche se la cosa principale da valutare e’ in realta’ l’utilita’ di queste trivellazioni. La nostra penisola, e ovviamente i mari che la circondano, sono molto poveri di giacimenti di idrocarburi e lo stretto di Sicilia non e’ assolutamente da meno. Il problema principale non e’ nemmeno l’utilizzo del fracking o delle trivellazioni, ma semplicemente la poverta’ dei giacimenti che sarebbero in grado di fornire una quantita’ di petrolio assolutamente non elevata. Per darvi un’idea, se anche si estraesse di colpo tutto il petrolio presente nel giacimento, questo sarebbe sufficiente alla nostra nazione solo per 2-3 mesi. Dunque? Forse la spesa non vale l’impresa, come si dice dalle mie parti.

Parlando invece di rinnovabili, il discorso sarebbe leggermente piu’ complesso, se non altro per la grande diversificazione delle fonti sfruttabili, ognuna con le proprie caratteristiche e i propri limiti. Rimanendo sul punto di vista elettorale, oggi tutti si dicono convinti nel sostenere l’utilizzo delle rinnovabili , dimenticando pero’ di fare un discorso a lungo termine.

Le rinnovabili, quali Sole e vento in primis, sono ampiamente disponibili in Italia e, ad oggi, ancora poco sfruttate. Quello che pero’ i nostri politicanti dimenticano di considerare, come sempre avviene non solo su questo tema, e’ la prospettiva ad ampio respiro. Di anno in anno, gli incentivi per l’installazione, ad esempio, di un impianto fotovoltaico sono diminuiti e hanno raggiunto un minimo con il quinto conto energia del 2012. Ovviamente ancora oggi conviene installare un impianto domestico per l’autosostentamento, ma questo principalmente grazie alla riduzione del costo dei pannelli e al leggero incremento in termini di rendimento dell’impianto stesso.

Ho preso come esempio il caso solare perche’ e’ quello piu’ noto e piu’ comune nei discorsi abitativi privati. Questo esempio e’ importante per capire la prospettiva futura. Lo sfruttamento delle rinnovabili ora non potra’ essere lo stesso tra 20 o 30 anni. Se pensiamo che anno dopo anno, il consumo medio di energia elettrica aumenta nel mondo vertiginosamente, e’ impensabile dare corrente a tutti questi paesi semplicemente con dei pannelli sopra il tetto o con qualche pala nel mare. Quello che i nostri politicanti dovrebbero capire e’ che investire nelle rinnovabili significa investire nella ricerca in questo settore. Per darvi qualche esempio, in campo solare vi sono molte soluzioni futuribili su cui si sta lavorando: solare termodinamico, ricerca su nuovi materiali, specchi, nanopraticelle, ecc. Tutte soluzioni che potrebbero incrementare la produzione di corrente elettrica per superficie occupata.

Abbandonando un attimo il discorso rinnovabili, si dovrebbe investire, ad esempio, nel campo della fusione nucleare. Questo settore e’ assolutamente appetibile e riesce a mettere d’accordo praticamente tutti: pro e contro nucleare, ambientalisti e imprenditori. La fusione nucleare consentirebbe di ottenere energia molto facilmente, con impianti puliti, senza emissioni e senza scorie radioattive. Cosa si potrebbe desiderare di meglio? Ovviamente siamo ancora lontani, ad oggi, dal pensare una centrale civile per la produzione di corrente che funzioni a fusione, ma per poter arrivare a questo e’ necessario investire in questo settore.

Concludendo questa parte, e’ inutile parlare di green economy se non si parla di investire nella ricerca, sia essa scientifica o tecnologica. Quando sentiamo dire che la scienza puo’ aiutarci a vivere meglio, stiamo parlando di questo, cioe’ di soluzioni in grado di farci vivere meglio, in un ambiente meno inquinato e non sfruttando come virus le risorse del nostro pianeta attaccandole fino all’ultima goccia.

Prima di chiudere, vorrei uscire un secondo dai nostri confini ma sempre rimanendo in tema ambientale. Proprio di questi giorni e’ la notizia che gli Stati Uniti hanno finalmente deciso di sottoscrivere il protocollo di Kyoto. Come sapete, in questo trattato gli stati si sono ripromessi di ridurre notevolmente l’emissione di gas serra nell’ambiente mediante una migliore politica ambientale ed industriale. Pensate che gli USA per anni hanno rifiutato di sottoscrivere il trattato anche se da soli producono circa il 36% dei gas serra a livello mondiale. Questo potrebbe forse essere un primo vero passo in avanti nelle politiche green degli Stati Uniti.

In questa breve discussione, abbiamo dunque cercato di analizzare il punto di vista scientifico nella produzione di energia da fonti rinnovabili. Anche in questo settore, la vera prospettiva futura e’ quella di un investimento reale nella ricerca al fine di poter migliorare la tipologia e la qualita’ delle fonti rinnovabili (e non) utilizzate. Questo messaggio e’ estremamente importante ed e’ quello che i futuri governanti, di qualsiasi colore, dovrebbero sempre tenere a mente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

Due parole sull’antimateria

24 Dic

A pochissime ore dal tanto atteso 21/12, ci siamo divertiti a passare in rassegna le ultimissime catastrofi annunciate, mostrando la completa assurdita’ dal punto di vista scientifico.

In particolare, in questo post:

Lotteria profetica 2012

abbiamo parlato del racconto del presunto Maya circa la possibilita’ che in un collisore di particelle venissero formate particelle in grado di innescare terremoti.

Questo racconto ci offre lo spunto per parlare di due aspetti della scienza molto importanti e spesso poco conosciuti dal grande pubblico: l’antimateria e gli acceleratori di particelle. In questo primo post, vorrei parlarvi appunto delle antiparticelle e dell’antimateria, argomenti che spesso offrono importanti spunti per scenari complottisti e per film di fantascienza, rimandando ad un successivo post la trattazione degli acceleratori di particelle.

Ovviamente cercheremo di dare un’infarinatura di base comprensibile a tutti, senza scendere in particolari troppo avanzati che rischierebbero di annoiarvi.

In questo post:

Piccolo approfondimento sulla materia strana

abbiamo gia’ parlato di Modello Standard, mostrando come le particelle fondamentali, che altro non sono che i costituenti di tutto quello che vediamo o anche i responsabili delle interazioni, sono in realta’ in numero molto ridotto. Abbiamo in particolare diviso queste particelle in famiglie, parlando di leptoni, quark, neutrini e bosoni messaggeri.

Ora, come entrano in questo discorso le antiparticelle?

Particelle e antiparticelle: quarks e leptoni

Particelle e antiparticelle: quarks e leptoni

Cerchiamo di prendere il discorso alla larga. Le particelle elementari, opportunamente combiate tra loro, formano la materia. Questo ci dovrebbe mettere sulla strada giusta. L’antimateria dunque sara’ ottenuta combinando in modo opportuno antiparticelle. Di nuovo, cosa sono le antiparticelle?

Nel modello standard, per ogni particella esiste una sua antiparticella. Quali sono le differenze tra una particella e la sua antiparticella?

Ciascuna particella e’ caratterizzata da quelli che vengono detti numeri quantici. Sicuramente tutti conoscono la carica elettrica. Bene, questo e’ il primo numero quantico, ma non il solo. Immaginate l’insieme dei numeri quantici come la carta d’identita’ delle particelle. Se volete descrivere una persona a qualcuno che non la conosce, cosa gli dite? E’ alto cosi’, ha i capelli di questo colore, carnagione cosi’, corporatura, ecc. Per descrivere una particella, si utilizzano i numeri quantici. Il set di numeri quantici utilizzato descrive completamente una particella.

Bene, senza scomodare tutti i numeri quantici, particella e corrispondente antiparticella hanno la stessa massa ma carica elettrica opposta. In alcuni casi, particella e antiparticella possono essere la stessa cosa, come nel caso del fotone in cui fotone e antifotone sono la stessa particella, molte volte invece si tratta di due entita’ distinte.

Se siamo giunti fino a questo punto, ormai la strada e’ in discesa.

Esistono le antiparticelle? Sono pericolose? Sono mai state osservate?

La antiparticelle sono una realta’ fisica. La prima osservazione avvenne nel 1932 quando Anderson trovo’ nei raggi cosmici gli antielettroni, anche detti positroni. Da li in avanti, molte altre particelle vennero osservate. Pensate che al giorno d’oggi le antiparticelle vengono prodotte tranquillamente nei nostri laboratori. Molti degli acceleratori nel mondo, fanno scontrare fasci di particelle con le corrispondenti antiparticelle. In questo senso, potete trovare collisori elettrone-positrone, protone-antiprotone, ecc.

Capito il discorso antiparticelle, torniamo a parlare di antimateria. Come detto sopra, se la materia e’ composta da particelle, l’antimateria sara’ composta da antiparticelle.

Facciamo un esempio molto semplice. Immaginate di voler realizzare un atomo di elio. In questo caso, basta prendere due neutroni e due protoni per fare il nucleo e due elettroni da mettere in rotazione. Se ora volessimo realizzare un atomo di antielio? Dobbiamo prendere due antiprotoni, due antineutroni e due positroni (come detto, antielettroni). In questo caso, invece di un atomo di materia ne avreste uno di antimateria.

Esiste l’antimateria?

Le antiparticelle possono essere osservate in natura come prodotti di decadimento di particelle o anche essere prodotte in laboratorio. Sempre in laboratorio, negli acceleratori, e’ stato possibile produrre antiatomi molto leggeri. La domanda dunque e’: in natura dove si trova l’antimateria?

La risposta in questo caso non e’ semplice. Secondo la teoria scientificamente piu’ probabile, nel big bang, l’antimateria e’ scomparsa lasciando il posto solo alla materia. Quest’ultima poi, secondo vari meccanismi, durante l’espansione ha poi formato le stelle, le galassie, i pianeti, ecc. Esistono teorie secondo le quali tracce di antimateria sarebbero ancora presenti da qualche parte. Nella nostra galassia non si e’ osservata antimateria.

Il perche’ di questo punto e’ facilmente comprensibile. Entrando in contatto, materia e antimateria danno luogo alla cosiddetta “annichilazione”, processo in cui particella e antiparticelle scompaiono producendo fotoni ed energia.

Ora, questo ragionamento vi fa capire varie cose. Tornando al discorso “lotteria profetica”, capite subito l’impossibilita’ di avere un pianeta di antimateria in rotta di collisione con le Terra.

Inoltre, capite bene anche un’altra cosa, cioe’ l’assurdita’ scientifica proposta dal film “Angeli e Demoni” in cui al CERN di Ginevra si producevano provette con dentro “antimateria”.

Concludendo, abbiamo finalmente capito cosa si intende parlando di antiparticelle e antimateria. Non c’e’ assolutamente nulla di sconvolgente nel parlare di questi argomenti. Capite bene come le ipotesi complottiste e catastrofiste create intorno a questi argomenti sono soltanto frutto di fantasie dettate da scenari fantascientifici o da qualcuno dotato di troppa fantasia.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

2012, fine del mondo e LHC

16 Nov

Dopo aver parlato di pianeti erranti, fenomeni atmosferici, asteroidi, rifugi sotterranei e chi piu’ ne ha, piu’ ne metta, in questo post vorrei tornare a qualcosa piu’ vicino alla Fisica in senso stretto.

Tutti avranno sentito parlare di LHC, cioe’ l’acceleratore di particelle lungo 27 Km costruito sottoterra tra Francia e Svizzera. Stiamo parlando del pu’ grande e potente acceleratore di particelle mai costruito e dove solo pochi mesi fa e’ stata annunciata la scoperta del bosone di Higgs.

In questo post, non voglio entrare nel merito dei parametri dell’acceleratore, ne tantomeno parlare di fisica. Voglio parlare di LHC solo in relazione al 2012 e a tutte le voci che vorrebbero questo acceleratore come una potentissima arma in grado di mettere in pericolo l’intera razza umana.

Gia’ prima dell’accensione di LHC, numerose critiche erano state mosse a questo acceleratore e molte di queste sono anche arrivate in tribunale. Proprio di questi giorni e’ l’ultimo rigetto da parte della corte europea per una richiesta di spegnimento proposta da una cittadina tedesca.

In questo post, vorrei cercare di ragionare sulle critiche mosse nei confronti di LHC e capire quali sono i concetti sui quali si basano queste richieste di spegnimento.

Una delle piu’ seguite teorie catastrofiste su LHC e’ stata proposta da Steve Alten nel suo libro: “2012. La fine del mondo”. Secondo Alten, l’aumento di terremoti a livello mondiale, che stiamo viviendo in questi ultimi mesi, sarebbe proprio connessa con LHC.

Prima di tutto, facciamo una premessa importante. In numerosi articoli abbiamo gia’ parlato di terremoti dal momento che questi fenomeni vengono anche messi in relazione con l’influenza gravitazionale del decimo pianeta. Consultando i vari database sparsi in rete, e’ stato possibile analizzare statisticamente il numero dei terremoti, smentendo assolutamente un aumento sia nel numero che nell’intensita’ delle scosse:

Riassunto sui terremoti

Analisi statistica dei terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

Fatta questa premessa, e’ comunque interessante capire perche’ LHC verrebbe imputato come una causa dell’insorgenza di terremoti.

Sempre secondo Alten, all’interno di LHC verrebbero prodotte delle particolari strutture potenzialmente pericolose: mini buchi neri e perticelle “strangelet”. Vediamo singolarmente di cosa si tratta capendo anche se la loro esistenza e’ veramente possibile.

Una tratto dell’acceleratore LHC

Per quanto riguarda i mini buchi neri, l’ipotesi di produzione non e’ formalmente corretta. In molti siti, anche a carattere scientifico, si parla di produzione di mini buchi neri, ma assolutamente non pericolosi. Per capire l’affermazione fatta, cerchiamo di ragionare insieme. Come si forma un buco nero? Affinche’ questo venga prodotto, e’ necessario che la natura concentri una quantita’ molto elevata di massa in uno spazio ristretto. In questo modo si ottiene una regione ad altissima densita’ di energia, da cui potrebbe formarsi un buco nero. Ora, per quanto potente sia LHC, l’energia dei fasci utilizzati non e’ neanche lontanamente vicina a quelle che troviamo in natura nei raggi cosmici. Esiste pero’ una teoria scientifica, secondo la quale all’interno di acceleratori di particelle si potrebbero formare precursori di mini buchi neri, cioe’ particelle potenzialmente in grado di accrescere un buco nero risucchiando la materia circostante. Ad oggi, queste particelle non sono mai state osservate.

Dunque, siamo nel campo delle ipotesi, la formazione di questi che possiamo chiamare pre-buchi-neri non e’ neanche certa. Nonostante questo, per analizzare e scongiurare ogni possibile scenario, possiamo studiare l’evoluzione nel tempo nel caso in cui queste particelle venissero formate.

Come anticipato, per far accrescere un buco nero e’ necessario che questo assorba materia dall’ambiete circostante. Proprio questo meccanismo ha contribuito all’ipotesi secondo la quale i buchi neri all’interno di LHC avrebbero risucchiato, nel giro di pochi minuti, l’intera Terra. Premettiamo subito che questo effetto non e’ possibile! Prima di tutto, i tubi in cui vengono fatti circolare i fasci sono tenuti ad un vuoto molto spinto. Questo riduce da subito la quantita’ di materia in prossimita’ dell’eventuale buco nero e che dunque potrebbe essere utilizzata per l’accrescimento.

Se ancora non foste convinti della non pericolosita’ dell’ipotesi fatta, possiamo ragionare anche sull’eventuale esistenza del buco nero. Una delle maggiori teorie formulate dal fisico Stephen Hawking e’ la cosidetta teoria dell’evaporazione dei buchi neri. Secondo questa ipotesi, il buco nero emette radiazione, nota come di Hawking, e l’effetto di questa emissione e’ la perdita di particelle dal buco nero verso l’esterno. La continua emissione di radiazione di Hawking e’ artefice, in un tempo piu’ o meno lungo, della completa evaporazione di un buco nero. Per un buco nero di media massa, il tempo necessario all’evaporazione e’ di qualche miliardo di anni.

Per media dimensione intendiamo qualcosa con una massa dell’ordine di 10^12 Kg. Se ora pensiamo ad un buco nero formato al limite di una sola leggerissima particella, capite bene che l’evaporazione del pre-buco nero sarebbe istantanea, scongiurando definitivamente ogni possibilita’ di accrescimento.

Risolto il problema dei buchi neri, resta da chiarire il discorso strangelet. Uno strangelet e’ una particella, del tutto ipotetica, pensata come uno stato legato di quark strange. Per completezza di informazioni, mentre i protoni ed i neutroni sono stati legati formati da quark “up” e “down”, gli strangelet sarebbero composti da quark “strange”, cioe’ un’altra tipologia di quark, e proprio per questo parliamo di materia “strana”. In questo contesto, la cosa importante da capire e’ il perche’ queste particelle, ripeto per il momento solo teorizzate, potrebbe essere pericolose.

Date le proprieta’ di uno strangelet, se un acceleratore riuscisse a produrre una di queste particelle a carica negativa, questa potrebbe interagire immediatamente con le particelle ordinarie,e trasformare anche queste in materia strana. Il risultato sarebbe un effetto a catena di conversioni che, nel giro di pochissimo tempo, trasformerebbero l’intera Terra in un blocco di materia strana.

Cme abbiamo anticipato, la probabilita’ di formazione di materia strana e’ abbastanza remota anche alle potenze di LHC. Teniamo sempre conto del fatto che, se anche venisse formata, dato il vuoto all’interno del’acceleratore, la probabilita’ di interazione tra materia strana e ordinaria sarebbe del tutto impossibile.

Come vi anticipavo, gia’ prima dell’accensione di LHC molti avevano puntato il dito contro l’acceleratore e il CERN. Proprio per l’insistenza di queste voci, il laboratorio svizzero ha anche messo online una pagina molto completa con le risposte scientifiche a tutte queste ipotesi catastrofiche:

CERN LHC Safety

Il concetto della sicurezza di LHC in relazione al 2012 e alla fine del mondo e’ stato anche ribadito dal Dott. Sergio Bertolucci, direttore di divisione ricerca e calcolo del CERN di Ginevra, nella sua prefazione scritta proprio per il libro “Psicosi 2012. Le risposte della scienza”.

Vi riporto qui un brevissimo estratto interessante per capire la posizione del CERN nei confronti delle tante richieste di chiarimento che ogni giorno riceve:

(Di annunci sulla fine del mondo) Ne sono stato testimone privilegiato alla partenza di LHC, il grande collisionatore di protoni entrato in funzione alla fine del 2008 nel laboratorio del CERN di Ginevra: uno sparuto gruppo di «colleghi», ogniqualvolta un nuovo acceleratore di particelle entra in operazione, si affretta a rispolverare un vecchio e indifendibile modello teorico, prevedendo che la nuova macchina produrrà dei piccoli buchi neri, che incominceranno a risucchiare le cose attorno a loro, divorandosi il laboratorio, Ginevra, la Svizzera, la Terra e così via…

LHC è in funzione dal 2009 e ovviamente non ha causato nessuna fine del mondo. Malgrado ciò, riceviamo almeno una lettera al mese dai quattro angoli del globo, che presenta la prossima teoria sulla fine del mondo: rispondiamo a tutte.

Come potete leggere, e come abbiamo visto in precedenza, si tratta di teorie vecchie e rispolverate alla partenza di ogni nuovo acceleratore di particelle.

Concludendo, non c’e’ assolutamente nessun pericolo che macchine di questo tipo possano causare la fine del mondo.

Per analizzare scientificamente ogni possibile profezia sul 2012, sfruttando queste teorie per parlare di scienza e divulgare concetti molto spesso poco compresi e sempre attuali, non perdete in libreria “Psicosi 2012. Le risposte della scienza”

 

Scie chimiche e cloud seeding

29 Ott

Nei post precedenti:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Abbiamo parlato in dettaglio dell’origine della teoria delle scie chimiche, mostrando come le diverse tipologie di scie di condensa, imputabili a sostanze chimiche secondo i complottisti, possano in realta’ essere spiegate appellandoci alla termodinamica. Inoltre, abbiamo visto come non esiste ad oggi nessun prelievo fatto in quota sulla scia degli aerei e come ci siano dei notevoli errori di concetto nella presunta misura fatta su un volo Ryanair.

In questo post, vi vorrei invece parlare del “cloud seeding”, cioe’ della tecnica utilizzata per causare in qualche modo le precipitazioni.

Nei post precedenti, abbiamo visto come i complottisti parlino di scie chimiche anche come metodo di controllo del clima. In particolare, spesso si fa riferimento appunto al cloud seeding come esempio di manipolazione con le chemtrails.

Vediamo prima di tutto cosa si intende per “cloud seeding” o tradotto “inseminazione delle nuvole”.

Questa tecnica, scoperta intorno al 1950, consiste nell’innescare o cambiare il tipo di precipitazioni mediante la dispersione in atmosfera di sostanza chimiche. Queste ultime servono per creare nuclei di condensazione, ovvero microparticelle igroscopiche in grado di far condensare in forma liquida il vapore acqueo, provocando dunque le precipitazioni. In base alla sostanza chimica utilizzata e alle condizioni termodinamiche, e’ possibile creare agglomerati liquidi o cristalli di ghiaccio.

Puntualizziamo subito un aspetto importante. Anche creando nuclei di condensazione, per poter innescare piogge e’ necessario che sia presente vapore acqueo nelle nuvole. Questo significa che la tecnica non e’ in grado, formalmente, di modificare il clima facendo piovere, ma solo di accelerare o innescare le precipitazioni. Questo per smentire subito le teorie sulle scie chimiche che puntano il dito contro il cloud seeding come esempio di modificazione del clima.

Un Cesna attrezzato per diffondere ioduro di argento. Autore Christian Jansky

Tornando alle tecniche, le sostanze chimiche possono essere sparate dal suolo, e portate in quota sfruttando le correnti d’aria, oppure rilasciate sulle nubi mediante aerei. Questo secondo caso e’ proprio quello preso in esame con le scie chimiche.

La sostanza chimica maggiormente utilizzata per il cloud seeding e’ lo Ioduro di Argento, ma a volte possono essere utilizzati anche il Ghiaccio Secco (anidride carbonica congelata), il sale o il propano liquido.

Per rispondere subito ai complottisti delle scie chimiche, cerchiamo di capire la pericolosita’ dello ioduro di argento. Come e’ facile capire, questo sale verra’ poi riportato a terra durante le precipitazioni. Su questo aspetto, esistono molti studi, non solo governativi ma anche di associazioni ecologiste, che dimostrano la non pericolosita’ di questa sostanza. Per capire meglio, la concentrazione di ioduro di argento dispersa e’ molto inferiore a quella emessa dagli scarichi industriali. Dal punto di vista della popolazione, anche usando intensivamente questa tecnica, ma come vedremo in seguito non e’ questo il caso, l’esposizione all’argento sarebbe molto inferiore a quella che si ha con una otturazione dentaria. Anche dal punto di vista della vegetazione, esistono diversi studi che dimostrano la non pericolosita’ delle sostanza usate per inseminare.

Assunta la non pericolosita’ della tecnica, resta da discutere l’effettiva efficacia del cloud seeding. Su questo punto il discorso e’ leggermente diverso e non definitivamente accettato. Molte critiche sono state mosse sull’efficacia dell’inseminazione. Secondo molti ricercatori non esiste la certezza che sia l’inseminazione a causare le piogge. Detto in altri termini, non possiamo sapere se le precipitazioni sarebbero avvenute anche senza spargere ioduro di argento. In contrasto pero’, alcuni studi condotti in Australia dimostrano un incremento delle precipitazioni del 30% nelle zone aride centrali utilizzando il seeding. Alcune compagnie private, soprattutto americane, offrono servizi di inseminazione per impedire la caduta delle grandine e salvaguardare cosi’ i raccolti.

La tecnica del seeding puo’ essere utilizzata anche con scopi di salvaguardia. Nel 1986, ad esempio, venne utilizzata anche in prossimita’ della centrale di Cernobyl per causare precipitazioni e dunque far ricadere i radionuclidi provenienti dalla centrale nucleare prima che raggiungessero la citta’ di Mosca.

In tempi piu’ recenti, ci sono stati anche casi “divertenti”. Il 2 Novembre 2009 il governo cinese ha utilizzato il cloud seeding su Pechino per inseminare un sistema nuvoloso in avvicinamento e combattere in questo modo la lunga siccita’ che affliggeva la regione. Come risultato, a causa di un abbassamento improvviso di temperatura, la citta’ su bloccata per 3 giorni per colpa di una abbondante nevicata.

Riassumendo, secondo le teorie complottiste, la tecnica del cloud seeding sarebbe un chiaro esempio di utilizzo di scie chimiche e di modificazione del clima. Come abbiamo visto, questa tecnica scientifica e’ nota gia’ da tempo e assolutamente non tenuta nascosta. L’utilizzo di ioduro di argento o di ghiaccio secco non e’, nelle quantita’ utilizzate, assolutamente dannoso ne’ per l’uomo ne’ per la vegetazione. Da quanto affermato, si tratta di una metodologia ancora contestata dal punto di vista dell’efficacia e utilizzata nel mondo solo per alcuni casi specifici.

Prima di credere a qualsiasi teoria, cercate sempre di prendere informazioni anche da altre fonti. Confrontare voci diverse, ragionare con la propria testa e non lasciarsi convincere da ipotesi prive di riscontro e’ l’unico modo per non cadere nel convincimento mediatico. Per analizzare le profezie sul 2012, ma soprattutto per ragionare su argomenti scientifici sempre attuali, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.