Tag Archives: forza

A proposito di campo geomagnetico

31 Ott

di Patrizia Esposito

————————————-

Ipotizziamo di dover misurare la temperatura del nostro corpo: fa differenza se mettiamo il termometro direttamente a contatto con la pelle o se lo appoggiamo sopra i vestiti? Lasciamo per un momento la domanda in sospeso e parliamo di una particolare categoria di inquinanti organici, i cosiddetti POPs (Persistent Organic Pollutants).

Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l'uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Fig.1: Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l’uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Si tratta di pesticidi (aldrin, DDT, eptacloro), prodotti industriali (PCB) e sottoprodotti non desiderati di certi processi (diossine e furani), regolamentati (poco efficacemente?) nel loro utilizzo e smaltimento dalla Convenzione di Stoccolma del 2001 e sul banco degli imputati con l’accusa di essere sostanze altamente tossiche per l’ambiente e per l’uomo (figura 1) e responsabili del cambiamento climatico. Le peculiari caratteristiche chimico-fisiche dei POPs li rendono, infatti, persistenti (figura 2) ,bioaccumulabili e trasportabili su lunghe distanze.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

La proprietà per la quale questi composti si legano ai tessuti adiposi dei vertebrati si chiama lipofilicità e fa sì che questi inquinanti entrino nelle catene alimentari. Mentre è nota come effetto grass-hopper (figura 3) la modalità di trasporto su lunghe distanze, dovuta a determinati valori della tensione di vapore, della costante della legge di Henry e del coefficiente di partizione ottanolo-aria, e che consiste nell’evaporazione di questi composti dall’acqua e dal suolo, nel trasporto in atmosfera e nella loro deposizione su superfici acquatiche e terrestri. In pratica i POPs, nelle zone tropicali e temperate evaporano, subiscono un trasporto atmosferico che segue l’andamento dei meridiani terrestri, condensano nelle zone fredde come i poli e le grandi catene montuose e si accumulano nei vari compartimenti ambientali. Ecco perché si ritrovano in alte concentrazioni in zone lontane da quelle di produzione.

Fig.3: Effetto Grass-Hopper

Fig.3: Effetto Grass-Hopper

Sic stantibus rebus, i POPs rivestono il nostro pianeta come una pellicola e sono riconosciuti come una concausa dell’effetto serra. E se, oltre ad avere un’influenza sul clima globale, avessero una qualche interazione con il campo magnetico terrestre? Di preciso: le misurazioni del campo geomagnetico avrebbero gli stessi valori se non ci fossero i POPs? La risposta alla domanda iniziale è abbastanza palese: non è lo stesso appoggiare il termometro sui vestiti o direttamente sulla pelle. La risoluzione del quesito finale invece non è altrettanto immediata. Ma è lecito pensare che le misurazioni del campo magnetico possano essere alterate dalla presenza ubiquitaria di questi composti e che l’indebolimento del campo stesso (del quale si continua a parlare e sparlare) sia solo apparente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Buon appetito Sagitarius A*

5 Mag

Un nostro caro lettore, nella sezione:

Hai domande o dubbi?

ci ha segnalato delle pagine davvero molto interessanti, dal nostro punto di vista, riguardanti un evento cosmico molto affascinante che sta iniziando proprio in questi mesi e durera’ per almeno una decina di anni.

Di cosa si tratta?

Molto probabilmente, se siete appassionati di astronomia e eventi cosmici, avrete sentito parlare di G2, una nube di gas che si sta avvicinando verso il centro della nostra galassia. Cosa c’e’ di speciale in questo movimento? In alcuni articoli abbiamo gia’ parlato del centro della Galassia e soprattutto di Sagitarius A*, il buco nero super massivo che si trova in questo punto:

Nube assassina dallo spazio

Meteorite anche a Cuba e dark rift

Nuova sconvolgente Teoria

Come visto, non c’e’ assolutamente nulla di anormale nella presenza di questo buco nella nostra galassia anzi, per dirla tutta, si pensa che oggetti di questo tipo siano presenti nel centro di molte galassie.

Ora, cosa sarebbe G2? Anche in questo caso, dietro questo nome misterioso, non c’e’ nulla di sorprendente. Si tratta di una nube di gas con una massa circa 3 volte quella della Terra che pero’ si trova molto vicina a Sagitarius. Come e’ ormai noto, parlando cosmologicamente di “molto vicino”, intendiamo comunque dimensioni molto elevate. Nel caso di G2, la sua orbita prevede un passaggio ravvicinato con una minima distanza dal buco nero di circa 260 unita’ astronomiche. Come visto in questo articolo:

I buchi neri che … evaporano

questa distanza corrisponde pero’ a circa 3000 volte il raggio dell’orizzonte degli eventi del buco nero. Come potete facilmente immaginare, ad una distanza cosi’ “piccola”, la nube sara’ attratta dalla gravita’ del buco nero per cui gli effetti di questa forza saranno molto intensi per il gas.

G2 e’ stata scoperta nel 2002, ma solo nel 2012 si e’ iniziato a studiarla in dettaglio proprio quando si e’ ricostruita con maggiore precisione la sua orbita. Il passaggio ravvicinato con Sagitarius A*, rappresenta un evento cosmico molto importante dal punto di vista dell’astrofisica. Durante questo incontro, sara’ infatti possibile studiare in dettaglio diverse caratteristiche dei buchi neri, ancora poco noti, come, ad esempio, il processo di accrescimento, la gravita’, l’orizzonte degli eventi, ecc..

Perche’ questo evento viene richiamato da alcuni siti catastrofisti? La motivazione e’ sempre, purtroppo, la stessa: speculare su eventi assolutamente non pericolosi pur di aumentare le visite ai propri siti. Come visto negli articoli precedenti, la Terra si trova a circa 26000 anni luce dal centro della Galassia. Questo significa che, anche volendo, qualunque cosa, radiazione o materia, sparata da Sagitarius A verso la Terra impieghera’ al minimo 26000 anni per raggiungerci. Detto questo, non credo sia il caso di preoccuparci ne’ di questo incontro, ne’ di qualunque altro evento cosmico che possa interessare il centro della nostra galassia.

Oltre a questa speculazione “scontata”, come sottolineato nel commento iniziale da cui siamo partiti, ci sono alcuni siti, apparentemente camuffati da siti scientifici, che propongono teorie “alternative” per G2 e per il suo passaggio ravvicinato. La prima ipotesi che salta agli occhi e’ che si vorrebbe far credere che G2 non sia in realta’ una nube di gas ma una stella. E’ possibile questo? In realta’ si, ma questa ipotesi, prima che su questi siti, e’ stata discussa a livello scientifico. Esistono infatti diverse ipotesi sull’origine e sulla struttura di G2. Come detto all’inizio, si pensa con maggiore probabilita’ che questa sia una nube di gas. Da dove proviene? Ipotesi possibili potrebbero essere che si tratti di una nube di gas cosmico isolata oppure che si tratti dell’atmosfera di una qualche stella strappata da eventi cosmici. Un’idea alternativa prevede invece, da studi sull’orbita, che non si tratti esclusivamente di gas, ma che, all’interno della nube osservata, ci sia un corpo massivo come una stella nelle fasi finali della propria esistenza. Altre ipotesi alternative prevedono che G2 sia un proto-pianeta, cioe’ quello che rappresentava un disco di accrescimento di un corpo massivo che pero’ non e’ riuscito a formarsi a causa della temperatura troppo alta dei gas. Tutte ipotesi possibili scientifiche e su cui ancora oggi si dibatte.

Dal punto di vista del passaggio ravvicinato, cosa comporterebbe una struttura diversa di G2?

Ovviamente, la reale natura della nube, continuiamo a chiamarla cosi’, determinera’ uno “spettacolo” diverso durante il passaggio. Per essere precisi, e per smentire alcuni siti e giornali che hanno usato titoli pomposi, questo passaggio non rappresentera’ un lauto pasto per Sagitarius A*, ma piu’ che altro uno spuntino. La minima distanza di passaggio sara’ tale da far avvertire l’attrazione gravitazionale da parte del buco nero ma, molto probabilmente, G2 sopravvivera’ all’incontro perche’ troppo distante dall’orizzonte degli eventi.

Diverse simulazioni condotte in questi mesi hanno mostrato scenari possibili in cui G2 sopravvivera’ anche se la sua orbita e la sua struttura saranno fortemente modificati. In particolare, dopo l’incontro, la nube di gas potrebbe essere talmente diffusa da non apparire piu’ come compatta. Inoltre, se G2 fosse composta solo ed esclusivamente di gas, durante l’assorbimento da parte di Sagitarius A*, verranno emessi brillamenti di radiazione soprattutto nei raggi X. Al contrario, se all’interno fosse presente un corpo massivo, questo effetto sarebbe notevolmente ridimensionato. Come potete capire molto bene, dall’emissione di radiazione nel passaggio, sara’ dunque possibile capire anche la struttura intima di G2.

Vi mostro anche una simulazione di uno degli scenari possibili dell’attrazione di G2 da parte del buco nero:

Simulazione dell'attrazione di G2 da parte di Sagitarius A*

Simulazione dell’attrazione di G2 da parte di Sagitarius A*

Come vedete, l’orbita seguita dalla nube viene deviata verso la parte centrale a causa dell’attrazione gravitazionale esercitata da Sagitarius A*.

Concludendo, a partire dal 2013 e’ iniziato il passaggio ravvicinato di una nube di gas, G2, in prossimita’ del buco nero che occupa il centro della nostra galassia, Sagitarius A*. Questo evento cosmico durera’ uan decina di anni che rappresentano comunque un intervallo molto breve sulle scale del nostro universo. A parte le speculazioni sempre presenti per eventi di questo tipo, si tratta di un evento assolutamente non pericoloso, ma estremamente affascinante dal punto di vista scientifico. Come visto nell’articolo, osservando questo passaggio, sara’ possibile ottenere informazioni molto importanti sulla nube di gas, sulla sua struttura interna ma, soprattutto, sara’ possibile carpire informazioni molto importanti per comprendere meglio i buchi neri e i processi che ne regolano il loro accrescimento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’esperimento di Ferlini e la barriera magnetica

4 Mag

Solo qualche giorno fa abbiamo pubblicato un articolo specifico sul cosiddetto “effetto Hutchinson”:

Effetto Hutchinson: realta’ o bufala?

Come visto, i fenomeni descritti in questa esperienza, che spaziano dalla levitazione alla fusione di oggetti con rilascio di energia, sarebbero provocati dalla sovrapposizione di onde elettromagnetiche in zone precise dello spazio. Nel descrivere queste esperienze, abbiamo mostrato un notevole scetticismo dettato dalla particolarita’ dei fenomeni descritti ma, soprattutto, dal fatto che l’autore stesso di questi esperimenti abbia piu’ volte dichiarato di non essere piu’ in grado di ripetere tali effetti. Ci tengo a sottolineare che la mia posizione di scettico non e’ affatto per partito preso. Come sapete, e come detto molte volte, tutti dobbiamo essere aperti a fenomeni sconosciuti e anche apparentemente assurdi purche’, come la scienza insegna, questi possano essere ripetuti da chiunque, in qualsiasi parte sotto le condizioni descritte. Solo se questo avviene possiamo considerare il metodo scientifico soddisfatto e vedere a tali nuovi fenomeni con gli occhi della scienza.

Riprendo quanto detto in questo articolo, perche’ ora vorrei raccontarvi un altro presunto esperimento che solo qualche giorno fa e’ stato richiamato da alcuni siti complottisti, sempre con il solito scopo di denigrare la scienza ufficiale e tacciarla di non voler approfondire cio’ che e’ fuori dai suoi dettami. Parlaimo questa volta del cosiddetto esperimento di Ferlini sulla barriera magnetica.

Chi e’ costui? In cosa consiste l’esperimento?

Se provate ad informarvi in rete, troverete solo una moltitudine di articoli che riprendono pari pari quanto descritto da Ferlini in un libro da lui stesso pubblicato e intitolato appunto “La barriera Magnetica”. In questo libro Ferlini descrive una serie di esperimenti che avrebbe condotto, dapprima in solitudine e poi con un gruppo di collaboratori, studiando i campi magnetici.

Prima di raccontarvi gli esperimenti, e’ importante, come vedremo dopo, dire che Ferlini inizio’ la sua carriera studiando l’antico Egitto e la costruzione delle Piramidi. In particolare, cio’ che interessava Ferlini era la possibilita’ che strani fenomeni fisici potessero accadere dentro o in prossimita’ delle piramidi a causa di soluzioni appositamente inserite durante la costruzione di questi imponenti monumenti.

Premesso questo, Ferlini racconta che un giorno giocherellando con due calamite si accorse che avvicinando i poli opposti, poco prima che questi entrassero in contatto, la zona di spazio appariva leggermente offuscata come se qualcosa di particolare accadesse al volume d’aria tra i poli stessi. Incuriosito da questo fenomeno che non riusciva a spiegare, Ferlini decise di costruire un esperimento piu’ in grande in modo da accentuare l’effetto. L’esperienza da lui realizzata, e sempre raccontata nel suo libro, prevedeva la disposizione di 4 grandi magneti di diverse tonnellate disposti con i poli opposti vicini. Ecco uno schema dell’apparato:

Disposizione dei 4 magneti nell'esperimento di Ferlini

Disposizione dei 4 magneti nell’esperimento di Ferlini

Come vedete ci sono 4 magneti a ferro di cavallo disposti con i poli Nord-Sud alternati tra loro. Dalle prime osservazioni con i piccoli magneti, Ferlini racconta di aver osservato questa deformazione dello spazio solo poco prima che i poli entrassero in contatto a causa dell’attrazione magnetica. Per poter osservare questo effetto nell’esperimento piu’ grande, Ferlini monto’ le calamite su appositi sostegni che permettevano un movimento a passi molto sottili. In questo modo era possibile avvicinare molto lentamente i poli grazie a dei fermi studiati per opporsi all’attrazione.

Bene, cosa accadde con questo esperimento?

Leggendo sempre dal libro di Ferlini, quando i magneti arrivarono nel punto preciso in cui si innescava il fenomeno, accadde qualcosa di incredibile. Nella stanza si diffuse una nebbiolina azzurra con un odore acre. Da queste proprieta’ organolettiche, i presenti capirono che si trattava di ozono. Ma non accade solo questo, la zona di spazio compresa tra i magneti, che questa volta al contrario del primo caso era molto estesa, venne deformata da questo effetto sconosciuto mai osservato prima. Ferlini, che indossava una maschera antigas per non respirare l’ozono, incuriosito da questo fenomeno, si avvicino’ al contrario dei suoi collaboratori che rimasero a distanza di sicurezza. Quando si trovo’ in prossimita’ del punto, i collaboratori videro Ferlini scomparire dalla stanza. La nebbiolina presente inizio’ lentamente a diradarsi assumendo diversi colori e solo dopo che scomparve le persone presenti videro Ferlini riapparire sprovvisto della maschera che portava prima di avvicinarsi.

Dove era finito Ferlini?

Come raccontato nel suo libro, Ferlini si ritrovo’ in Egitto, ma non nel momento dell’esperimento bensi’ al tempo in cui le piramidi erano in costruzione. Vide gli schiavi che alzavano i grandi blocchi e le piramidi cosi’ come erano quando vennero realizzate. Perche’ proprio in quel preciso punto ed in quell’epoca? Ferlini penso’ che questo strano effetto, da subito ribattezzato “barriera magnetica”, fosse un portale creato dalla forza magnetica in grado di interagire con le onde cerebrali. Come anticipato, la carriera di Ferlini inizio’ con lo studio delle piramidi e quindi la barriera magnetica era in grado di interagire con gli impulsi creati dal cervello umano realizzando viaggi nel tempo in zone ed epoche dove il soggetto voleva, anche solo inconsciamente, viaggiare.

Bene, questo e’ l’esperimento di Ferlini e questa sarebbe la barriera magnetica che lui descrive nel suo libro.

Ora posso dire la mia? Premetto, come anticipato all’inizio dell’articolo, che non voglio essere scettico di principio ma analizzando quanto viene raccontato capite bene come una verifica di queste affermazioni sarebbe, ed e’, facilmente attuabille ma, soprattutto, facilmente smentibile. Ovviamente, sui soliti siti complottisti trovate scritto che mai nessuno ha mai voluto realizzare l’esperimento di Ferlini o anche che in realta’ e’ utilizzato normalmente in alcuni grandi centri di ricerca anche se alle persone comuni non ne viene data notizia.

Prima di tutto, vi ricordo che non stiamo parlando di esperimenti impossibili da realizzare ne che richiedono strumentazione particolare. Come detto, nella prima esperienza, Ferlini si sarebbe accorto di questo fenomeno semplicmente osservando due calamite che si attraevano. Avete mai visto due calamite? Ci avete mai giocherellato? Avete mai notato una distorsione dello spazio prima che queste si attacchino a causa della forza di attrazione? Ovviamente credo che la risposta a queste domande sia quanto meno scontata.

Vi faccio notare anche un altro particolare. Prendiamo un sito qualsiasi:

Sito vendita magneti

15 euro al pezzo, ne servono 4, quattro viti senza fine per realizzare un movimento a piccoli passi, qualche bullone di supporto, con meno di 100 euro avete realizzato l’esperimento di Ferlini. Non avrete magneti da tonnellate per poter fare un viaggio nel tempo, ma sicuramente dovreste essere in grado di osservare una bella distorsione dello spazio e, se siete fortunati, anche una bella nebbiolina di ozono nella stanza. Cercando informazioni sulla rete, ho trovato diversi forum in cui gruppi di persone, anche se sconsigliate da altre, si sono dichiarate pronte a mettere in piedi l’esperimento per dimostrarne la corretteza. La cosa simpatica e’ che dopo una lunga discussione “lo faccio”, “non lo fare perdi tempo”, “no lo faccio, chi mi aiuta?”, ecc., nessuno, e dico nessuno, ha il coraggio di tornare e dire che il suo esperimento e’ stato un flop. Nonostante questo, di tanto in tanto, qualche simpatico sito ritira fuori questa storia come se fosse una novita’ assoluta. Che ci volete fare, in tempo di magra di catastrofi e complotti, ogni cosa e’ buona per cercare di accaparrarsi qualche visita sul sito.

Giusto per concludere, e per togliere ogni dubbio, il magnetismo e’ noto da tantissimo tempo. Gia’ ai tempi del greco Talete, che descrive il fenomeno, era noto che un materiale, la magnetite, era in grado di attirare limatura di ferro. Oggi, possiamo disporre di campi magnetici molto elevati per applicazioni di ricerca. Per farvi qualche esempio, il campo magnetico all’interno dell’esperimento ATLAS del CERN, si proprio quello della scoperta dell’Higgs insieme a CMS, e che viene utilizzato per curvare le particelle cariche, ha un’intensita’ di 2 Tesla, cioe’ circa 100000 volte il campo magnetico terrestre. Pensate sia tanto? Ci sono laboratori al mondo che si occupano proprio di studiare i campi magnetici cercando, per ricerca e applicazioni, di trovare materiali nuovi da poter essere utilizzati per creare campi magnetici sempre piu’ intensi. Un esempio? Nel “High Field Magnet Laboratory” in Olanda, si e’ raggiunto il valore di 38 Tesla con un sistema “economico” da soli 1.5 milioni di dollari. Questo pero’ non e’ ancora il record assoluto, anche se il laboratorio detiene il record come rapporto intensita’/prezzo, dal momento che il guiness dei primati per il campo magnetico piu’ intenso e’ del Magnet Lab della California:

Magnet Lab

dove si e’ raggiunto il valore di 45 Tesla con un sistema molto complesso da ben 15 milioni di dollari.

Ora, ragioniamo insieme, secondo voi se esistesse questo effetto “barriera magnetica” dovuto all’attrazione dei poli, nessun altro se ne sarebbe accorto, magari con un sistema in grado di generare un campo ben piu’ intenso rispetto a quello di una semplice calamita a ferro di cavallo?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Presunte previsioni di Terremoti

22 Apr

Di Patrizia Esposito

———————————————————————————————————————–

Torno ad “approfittare” dello spazio che Matteo mi ha concesso sul blog per parlare nuovamente di terremoti. Il titolo dell’articolo che vi presento oggi è il nome di una sezione del forum Psicosi 2012, dedicata alle previsioni “ad capocchiam” dei terremoti, cioè quelle che indicano il giorno e il luogo esatti di un sisma (preferibilmente catastrofico) sulla base dei parametri più bislacchi (apparizioni, profezie, ecc.). L’ultimissima della serie- segnalata da un nostro caro utente- è quella di un tizio che aveva previsto per il 17 aprile scorso niente poco di meno che il Big One in California. Ma magari bastasse la lettura dei tarocchi per prevedere eventi catastrofici e salvare vite umane! La previsione dei terremoti è una materia spinosa e complessa alla quale si dedicano anima e corpo ricercatori scientifici seri. A tal proposito, vorrei illustrarvi qui di seguito uno studio tutto italiano che, a mio avviso, aggiunge un tassello interessante al mosaico della comprensione dei meccanismi che generano i terremoti. Buona lettura a tutti.

———————————————————————————————————————–

Sul numero di marzo di Le Scienze è stato pubblicato un sunto dello studio condotto da Carlo Doglioni, Salvatore Barba, Eugenio Carminati e Federica Riguzzi. (1) Gli autori hanno analizzato la relazione tra la sismicità e il tasso di deformazione, evidenziando come le aree con terremoti più intensi siano quelle in cui la velocità di deformazione delle rocce è più bassa rispetto alle aree circostanti. Sono partiti dal considerare la crosta terrestre suddivisa in due porzioni: crosta superiore e crosta inferiore. La prima, spessa mediamente 15 km, ha un comportamento fragile ed è influenzata dalla pressione: il carico litostatico, che aumenta con la profondità, esercita una forza di contenimento sulle rocce, rendendole più stabili e aumentandone la resistenza. La crosta inferiore, invece, ha un comportamento duttile ed è influenzata dalla temperatura: il gradiente termico, che diminuisce con la profondità, indebolisce i legami dei reticoli cristallini rendendo le rocce meno stabili. Che cosa significa questo? Significa che le rocce crostali non si deformano tutte allo stesso modo. Infatti, quelle della crosta superiore si deformano “a scatti” attraverso l’attivazione delle faglie, quelle della crosta inferiore, invece, si deformano costantemente nel tempo, senza perdita di coesione, attraverso la distorsione dei reticoli cristallini:

Diverso comportamento meccanico della crosta superiore e della crosta inferiore.

Diverso comportamento meccanico della crosta superiore e della crosta inferiore.

I terremoti sono associati alle deformazione fragili. La transizione tra le due porzioni crostali con diverso comportamento meccanico, detta “transizione fragile-duttile”, corrisponde alla massima resistenza delle rocce, cioè la profondità a cui è necessaria l’energia massima per romperle. Più è profonda questa transizione e più lunga è una faglia, maggiore è il volume di rocce coinvolte nel sisma, quindi maggiore sarà la magnitudo. Per descrivere un evento sismico si utilizzano diversi valori numerici, come la magnitudo momento, la magnitudo locale e l’intensità macrosismica (il fatto stesso che per descrivere un sisma si prendano in considerazione diversi parametri sta ad indicare la complessità del fenomeno).

La legge di Gutenberg-Richter è l’espressione analitica della forza che agisce contemporaneamente sul guscio terrestre e che è responsabile della distribuzione sismica sul pianeta. L’origine di questa forza è ancora nel campo delle ipotesi, tra le quali sono contemplati i moti convettivi nel mantello e gli effetti della rotazione terrestre che spiegherebbero l’attuale deriva verso ovest delle placche litosferiche. La diversa velocità di queste ultime dipende dal grado di disaccoppiamento mantello-litosfera che è funzione della variazione di viscosità nel mantello: maggiore è la viscosità, minore è la velocità della placca.

Funzionamento delle faglie in funzione della transizione “fragile-duttile”.

Funzionamento delle faglie in funzione della transizione “fragile-duttile”.

In figura è illustrato il funzionamento delle faglie in relazione alla transizione fragile-duttile. Nel caso di faglia distensiva la transizione si configura come una zona dilatata in cui si formano delle fratture e dei vuoti che si riempiono di fluidi, in conseguenza all’accomodamento della crosta inferiore in lento ma costante movimento rispetto alla crosta superiore bloccata. Questa zona si espanderà fino a quando non sarà più in grado di sorreggere la parte alta (“tetto” della faglia), a quel punto le rocce si romperanno, il blocco cadrà sotto il suo stesso peso e l’energia potenziale gravitazionale accumulata sarà liberata attraverso le onde sismiche del terremoto. I fluidi presenti saranno espulsi come quando si strizza una spugna e migreranno verso l’alto: ecco perché un evento sismico è accompagnato da una risalita delle falde e da un aumento della portata delle sorgenti. Dopo la scossa principale, il tetto della faglia deve raggiungere una nuova condizione di equilibrio e questo avviene mediante le scosse di assestamento. Nel caso di faglia inversa, invece, la transizione si configura come una fascia in sovrapressione . Le rocce accumulano energia elastica fino al punto di rottura, quando le forze di deformazione superano la resistenza delle rocce e il tetto della faglia viene scagliato verso l’alto, originando il terremoto (possiamo assimilare questo meccanismo ad una molla prima totalmente compressa e poi espansa). Generalmente i terremoti associati a faglie compressive sono più violenti perché occorre più energia per vincere le forze di compressione e perché in questo contesto geodinamico occorre vincere anche la forza di gravità.

Relazione tra tasso di deformazione e magnitudo dei terremoti.

Relazione tra tasso di deformazione e magnitudo dei terremoti.

In figura sono riportati i risultati di osservazioni effettuate sulla sismicità in Italia in un intervallo temporale che va dal 1° gennaio 2007 al 31 dicembre 2011.

In particolare, sono stati messi in relazione i terremoti di magnitudo superiore a 3 con i tassi di deformazione ottenuti in corrispondenza di ciascuno degli epicentri. Il dato più importante è rappresentato dal fatto che i terremoti di magnitudo superiore a 4 sono avvenuti tutti in aree in cui il tasso di deformazione è inferiore a 40 nanostrain per anno (1 nanostrain= 1 mm ogni 1000 chilometri). Cosa significa questo? Significa che le aree che si deformano più lentamente rispetto alle aree circostanti sono le aree crostali “bloccate” che stanno accumulando energia . Anche se l’intervallo di osservazione ha dei limiti temporali, il valore stabilito può essere preso in considerazione come un parametro utile ad individuare aree a sismicità significativa. Sulla mappa della velocità di deformazione si possono sovrapporre le faglie attive note. E’ interessante notare come il terremoto de L’Aquila (2009) e quello in Emilia (2012) siano avvenuti in aree a basso tasso di deformazione. Lo studio condotto si è basato sui dati forniti dalla rete GPS e su modelli numerici. In conclusione: questa nuova idea sui terremoti non serve a sapere con esattezza quando e dove si registrerà un sisma ma può indirizzare gli studi verso aree con maggiore “urgenza” sismica, in cui fare prevenzione attraverso l’adeguamento antisismico degli edifici non a norma e l’educazione al rischio sismico. Vorrei sottolineare ancora una volta come lo studio dei terremoti sia reso complicato dall’impossibilità di investigare il sottosuolo alle profondità di interesse e quella di riprodurre perfettamente in laboratorio le condizioni di stress a cui sono sottoposte le rocce in profondità. Di certo un approccio multidisciplinare può migliorare i metodi di previsione.

Ad ogni modo, diffidate da tutte le previsioni “ad capocchiam” di cui è piena la rete!!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fusione, ci siamo quasi?

17 Feb

La chimera della produzione di energia attraverso processi nucleari e’ senza ombra di dubbio la fusione. Come sappiamo, detto in modo improprio, possiamo pensare a questo processo come qualcosa di inverso alla Fissione. Se in quest’ultimo caso, un nucleo atomico viene spezzato in due nuclei piu’ piccoli liberando energia, nella fusione abbiamo due elementi piu’ leggeri che vengono uniti in uno piu’ grande. Anche in questo caso, nel processo c’e’ un eccesso di energia che viene liberato verso l’esterno. Non si tratta di magia ma del bilancio energetico delle reazioni, facilmente calcolabile utilizzando i principi base della fisica nucleare.

Per la fissione, il processo e’ relativamente semplice ed in grado di autosostenersi. Quest’ultimo aspetto e’ fondamentale quando si considerano processi di questo tipo. Detto in altri termini, basta dare il “la” alla reazione per avere qualcosa in grado di autosostenersi autonomamente e continuare cosi’ a produrre energia. Come noto, siamo in grado di utilizzare questo processo molto bene sia con reazioni controllate nei reattori a fissione sia in modo non controllato attraverso la bomba atomica.

E per la fusione?

Qui il discorso e’ diverso. A partire dagli anni ’50, abbiamo iniziato a studiare queste reazioni per cercare di ottenere un bilancio positivo. Cosa significa? Prendete due nuclei leggeri. Per far avvenire la fusione dovete avvicinarli tra loro fino a formare qualcosa di piu’ grande. Semplice ma non scontato. Prendiamo il discorso in modo improprio ma comprensibile. Nei nuclei avete protoni e neutroni. Come ci hanno insegnato a scuola, se proviamo ad avvicinare cariche di uguale segno queste si respingono attraverso la forza coulombiana. Ma allora, perche’ nel nucleo i protoni sono fermi e tutti vicini tra loro? Avvicinando due particelle come i protoni, inizialmente avete la repulsione coulombiana dovuta alle cariche elettriche che tende ad allontanarle. Se resistete opponendovi a questa forza, vi accorgete che sotto una certa distanza interviene un’altra forza, questa volta attrattiva e molto piu’ intesa di quella dovuta alle cariche elettriche, la forza nucleare forte. Si tratta solo di un’altra interazione che pero’ agisce a distanze molto corte tra i nucleoni. La presenza dei neutroni nel nucleo serve proprio a tenere unito il nucleo stesso. Poiche’ i neutroni non hanno carica elettrica, non subiscono repulsione coulombiana mentre esercitano e subiscono l’interazione forte. Detto in altri termini, i neutroni fanno da collante per far si che la forza forte, attrattiva, vinca su quella coulombiana, repulsiva.

Bene, lo scopo del gioco della fusione e’ proprio questo. In qualche modo dobbiamo avvicinare i nuclei spingendoli fino a che la forza forte non diventi piu’ intensa di quella coulombiana. Sotto questo limite, ci sara’ un’attrazione spontanea che portera’ alla formazione di un nucleo piu’ pensate, rilasciando energia.

Qual e’ il limite nella produzione di energia da fusione? Ovviamente, dovete fare in modo che l’energia spesa per avvicinare i nuclei sia minore di quella che viene ceduta dopo la fusione. Questo e’ il famoso bilancio positivo di cui tanti parlano ma, lasciatemi dire, in pochi hanno veramente capito.

Di questi processi abbiamo parlato in diversi articoli mostrando le diverse tecniche che si stanno sperimentando nel mondo:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Contrapposti a questi, ci sono poi i diversi esperimenti per creare quella che viene definita “fusione fredda” e su cui tanta speculazione e’ stata fatta negli ultimi anni:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come detto e ripetuto piu’ volte, dobbiamo essere aperti di mente nei confronti di questi processi che pongono le loro radici in metodi scientifici conosciuti. Quello che pero’ manca, e’ una dimostrazione oggettiva che questi apparecchi, esempio su tutti l’E-Cat, siano veramente in grado di produrre energia in quantita’ maggiore di quella data in ingresso.

Perche’ torno nuovamente su questi argomenti?

Come forse avrete letto, solo pochi giorni fa e’ stato fatto un nuovo anuncio riguardante la ricerca sulla fusione nucleare. In un articolo pubblicato sulla rivista Nature, il NIF, National Ignition Facility, della California ha annunciato di aver ottenuto un bilancio positivo della reazione di fusione di isotopi di idrogeno in elio.

Del NIF abbiamo gia’ parlato nei precedenti articoli riportati sopra. Come sappiamo, in questo caso si utilizzano quasi 200 fasci laser per comprimere, mediante oro, atomi e isotopi di idrogeno, deuterio e trizio, per formare elio. Nel processo viene rilasciata l’energia della fusione.

Come capite bene, in questo caso il bilancio positivo si ha se l’energia rilasciata e’ maggiore di quella necessaria per far sparare nello stesso istante tutti i laser.

Nei primi anni di vita, il NIF ha rappresentato una grande speranza per la ricerca della fusione, attirando grandi finanziamenti. Finanziamenti che poi sono diminuiti quando i risultati ottenuti erano notevolmente inferiori alle aspettative.

Oggi, il NIF e’ riuscito ad ottenere per la prima volta un bilancio positivo, anche se solo minore dell’1%, rispetto all’energia richiesta per far andare i laser. Se proprio vogliamo dirla tutta, non siamo ancora contenti di questo risultato e saranno necessari tantissimi altri studi prima di poter gridare vittoria e prima di poter vedere la fusione utilizzata per la produzione di energia.

Come detto nell’introduzione, lo scopo di questo gioco e’ quello di tenere in qualche modo gli atomi fermi mentre li comprimiamo fino alla fusione. Nel NIF questo confinamento avviene sfruttando l’inerzia dei nuclei stessi e proprio per questo motivo si parla di “confinamento inerziale”. Diversamente, ad esempio per ITER, si cerchera’ di utilizzare forti campi magnetici per tenere i nuclei uniti, parlando di “confinamento magnetico”. La trattazione di questo aspetto non e’ affatto banale e rappresenta, a questo livello, un contributo assolutamente non trascurabile nel bilancio energetico finale della reazione.

Perche’ dico questo?

I risultati ottenuti dal NIF sono assolutamente ragguardevoli e sono un ordine di grandezza maggiore rispetto ai migliori risultati precedenti. Il bilancio positivo dell’1% non tiene pero’ conto dell’energia spesa per il confinamento. Questo per far capire quanto lavoro e’ ancora necessario.

La comunita’ scientifica della fusione, pone tutte le sue speranze, nel progetto internazionale ITER. Come sapete bene, in questo caso si parla di un vero e proprio reattore prototipale per la produzione di energia per fusione. Anche in questo caso, ci saranno diverse sfide tecnologiche da vincere ma la strada segnata dai successi degli ultimi anni non puo’ che farci ben sperare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Materia oscura intorno alla Terra?

7 Gen

Come sapete, e’ sempre interessante leggere le notizie nelle sezioni di scienze di alcuni giornali, si trovano sempre delle chicche di tutto rispetto. Negli ultimi giorni, sono apparsi tantissimi articoli che parlano di una nuova sensazionale scoperta. Un ricercatore dell’universita’ del Texas, tale Ben Harris, avrebbe condotto una serie di misure utilizzando i satelliti delle costellazioni gps di Galileo e Glonass.

Se volete maggiori info sul gps, su come funziona e della scienza che c’e’ sotto, abbiamo pubblicato un articolo anche su questo:

Il sistema di posizionamento Galileo

Tornando alla notizia principale, cosa si sarebbe scoperto da queste misure: utilizzando i dati inviati dai satelliti negli ultimi 6 mesi, si sarebbe evidenziata un’anomalia del valore della massa della Terra rispetto a quella comunemente conosciuta. L’entita’ di questa differenza e’ tra lo 0,005 e lo 0,008% del valore noto.

Come si spiega questa differenza?

Dal momento che il moto dei satelliti e’ determinato dall’attrazione gravitazionale che il nostro pianeta esercita, in realta’ che anche i satelliti esercitano sulla Terra, questa differenza deve essere dovuta ad un’anomalia gravitazionale. Una delle spiegazioni date da Harris e’ che sia presente un disco di materia oscura intorno al nostro pianeta, tale da influenzare l’attrazione gravitazionale.

Di materia oscura abbiamo parlato in questo articolo:

La materia oscura

Poiche’, secondo le ipotesi, questa forma non convenzionale di energia esercitrebbe attrazione gravitazionale, la sua presenza influenzerebbe il moto dei satelliti falsando appunto la massa della Terra rispetto al valore conosciuto. Per essere precisi, dalle misure condotte, questo anello, posizionato intorno all’equatore terrestre, avrebbe uno spessore di 191 Km e una larghezza di ben 70000 Km.

Piccola parentesi, oltre ai tanti giornali, anche i siti catastrofisti hanno riportato la notizia, ovviamente a modo loro e aggiungendo dettagli inutili quanto inventati. Non manca certo chi sostiene che l’anello sia stato messo li da scienziati compiacenti o da extraterrestri che stanno iniziando la fase di conquista del nostro pianeta. Non credo sia il caso di ragionare su queste osservazioni che lasciano davvero il tempo che trovano.

Detto questo, ragioniamo un attimo sulla notizia, cercando di fare qualche considerazione aggiuntiva.

Come avrete notato, ho riportato, al contrario di molti giornali, tutta la notizia al condizionale. Non e’ assolutamente una licenza di stile, ma l’ho fatto perche’ quanto riportato non e’ assolutamente certo.

Vi spiego il perche’.

Come trovate in rete, le misure in questione sono state presentate da Harris nel corso del meeting annuale dell’unione geofisica americana, anche detta AGU. Ovviamente si tratta di misure reali e scientifiche, che pero’ vanno considerate come “preliminari”.

Permettetemi una considerazione statistica. Come detto, la differenza rispetto alla massa conosciuta e’ tra lo 0,005 e lo 0,008%. Ora, tra 0,005 e 0,008, la differenza non e’ assolutamente poca. In realta’, l’ampiezza di questo intervallo ci fa capire la precisione delle misure fatte. Per essere precisi, i due valori sono ottenuti utilizzando una volta la costellazione Glonass e un’altra quella Galileo. Il fatto che due misure indipendenti diano valori cosi’ diversi, non e’ assolutamente un dettaglio trascurabile.

Detto questo, durante la stessa riunione, dopo la presentazione dei risultati da parte di Harris, e’ stato evidenziato come le misure siano in realta’ falsate perche’ mancanti di correzioni molto importanti. Quali? Nella modellizzazione del moto dei satelliti, non sono state incluse le attrazioni da parte del Sole e della Luna. Inoltre, mancano da includere le correzioni dovute alla relativita’, assolutamente necessarie, come potete leggere nell’articolo sul sistema Galileo, per ottenere risultati veritieri.

La mancanza di queste correzioni, che potrebbero modificare sostanzialmente il risultato preliminare, fa si che i dati ottenuti siano del tutto preliminari. In questo stato, e’ assolutamente fuorviante e frettoloso fare conclusioni come quelle riportate in precedenza del disco di materia oscura.

Perche’ si e’ fatto questo?

Esistono varie risposte possibili. La prima, un po’ cattiva, e’ che si e’ voluto presentare un lavoro incompleto solo per attirare un po’ di attenzione. L’altra possibilita’ e’ che si sia voluta mostrare questa differenza rispetto al valore della massa conosciuta solo per ricevere commenti utili con cui correggere il tiro. Entrambe le risposte sono possibili. Molto spesso alle conferenze si presentano risultati preliminari solo per valutare la risposta della comunita’ scientifica di riferimento. Ultimamente pero’, si puo’ avere una fuga di notizie che porta ad articoli, come quelli sui nostri giornali, che puntano ala scoperta del secolo.

Concludendo, i dati ottenuti mostrano ovviamente una differenza della massa della Terra rispetto a quella nota. Questa discrepanza potrebbe essere dovuta ad un errore di calcolo, a correzioni molto importanti non ancora conteggiate o, anche, alla presenza di materia oscura intorno alla Terra. Personalmente, credo sia presto per parlare di quest’ultima ipotesi. Questa storia, e lo dico a malincuore, mi ricorda molto quella della velocita’ dei neutrini misurata ad Opera, poi smentita con la testa tra le gambe.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Terremoti, gravita’ e …. bufale

9 Dic

Qualche settimana fa, tutta l’opinione pubblica e’ impazzita parlando di GOCE e della sua possibile caduta a terra al termine della missione. Molto prima che questo accadesse, avevamo gia’ parlato di questa missione in questo post:

GOCE: quando il satelliste finisce la benzina

Quando poi non solo il web ma anche i giornali si sono interessati all’avvenimento, in questo articolo:

Obbligatorio dire due parole su GOCE

siamo tornati sull’argomento per valutare le reali probabilita’ di impatto non tanto sulla terra, quanto in un’area popolata del nostro pianeta.

Ora pero’, vorrei tornare su questo argomento perche’ in questi giorni si e’ di nuovo tornati a parlare di GOCE, mettendolo in relazione, questa volta per quanto riguarda i suoi dati, con un altro fatto tragico avvenuto in passato: il terribile terremoto che ha colpito il Giappone nel 2011.

Cosa si e’ scoperto?

Come visto nel primo articolo, il compito scientifico del satellite era quello di mappare il campo gravitazionale terrestre con lo scopo di studiare in dettaglio le sue caratteristiche. Misure di questo tipo sono estremamente importanti per studiare il nostro pianeta ma soprattutto per comprendere i meccanismi di circolazione delle correnti oceaniche.

Bene, dall’analisi dei dati di GOCE si e’ evidenziato come il terremoto del marzo 2011 in Giappone abbia modificato localmente la gravita’. In realta’, questo effetto era ipotizzato ed atteso ma i dati del satellite, che hanno portato una sensibilita’ mai avuta prima, hanno permesso di trovare la conferma di questa ipotesi.

Cerchiamo di ragionare sulla cosa.

Come sappiamo bene, la gravita’ che sperimentiamo tutti i giorni, e che, tra le altre cose, ci tiene attaccati alla Terra, e’ frutto della forza di attrazione che si esercita tra noi e il pianeta. Questa interazione si manifesta tra due qualsiasi masse poste ad una certa distanza. Se proprio vogliamo essere scientifici, l’intensita’ dell’interazione e’ direttamente proporzionale alle masse in gioco e inversamente proporzionale al quadrato della distanza. Detto in questi termini, noi siamo attratti dalla terra ma, allo stesso tempo, anche il nostro pianeta e’ attratto da noi.

Ora, facciamo un piccolo sforzo aggiuntivo. La nostra terra e’ un corpo molto grande e con una forma tutt’altro che regolare. Ogni variazione di densita’, o di altezza, contribuisce a variare di qualche percento l’interazione gravitazionale. Bene, come e’ noto, in caso di terremoti, abbiamo movimenti di grandi masse sotterranee che possono propagarsi anche per kilometri rispetto all’epicentro del sisma.

Detto questo, e’ facilmente comprensibile come un terremoto, specialmente se di grande intensita’, possa provocare variazioni locali della gravita’ a causa delle modificazione apportate.

Questa immagine, ricostruita proprio dai dati di GOCE, ci mostra la zona intorno all’epicentro giapponese del 2011 e le variazioni del campo gravitazionale registrate:

Variazioni locali del campo gravitazionale nella zona del terremoto del 2011 in Giappone.

Variazioni locali del campo gravitazionale nella zona del terremoto del 2011 in Giappone.

Fin qui credo sia tutto chiaro e assolutamente non sconvolgente. Come e’ nostra abitudine, andiamo pero’ a sbirciare come i siti catastrofisti stanno raccontando questa notizia.

Tenete a mente quanto detto fino a questo punto, soprattutto pensando a come si determina la gravitazione. Cosa troviamo scritto su uno di questi, tristemente noti, siti?

Analizzando i dati misurati dal GOCE in Giappone, il team ha scoperto che il terremoto aveva chiaramente influenzato negativamente, con conseguente rottura del campo gravitazionale della zona.

Leggete con attenzione questa frase. Ci sono due aspetti molto significativi da analizzare. Prima di tutto, vorrei tanto sapere cosa significa “rottura del campo gravitazionale”.Come visto nella spiegazione, questa frase non ha assolutamente senso. Si parla in questi termini solo per cercare di amplificare la notizia e spaventare le persone. Il campo gravitazionale puo’ si modificarsi, ma certamente non puo’ “spezzarsi” ne, tantomeno, interrompersi.

Oltre a questo piccolo “particolare”, ne abbiamo anche un altro molto importante. Il terremoto aveva influenzato “negativamente” . Che significa influenzato negativamente? Ovviamente niente. I terremoti sono fenomeni naturali, cosi’ come la gravita’. Grandi sismi possono provocare variazioni locali del campo gravitazionale. Non esistono influenze positive o negative, esistono solo i fatti di cui abbiamo discusso in precedenza. Mi sembra assolutamente evidente capire il perche’ di questo aggettivo in una notizia del genere.

Concludendo, siamo di fronte alla solita notizia scientifica vera, amplificata e distorta sul web. Il motivo di questo e’ ormai chiaro a tutti. Purtroppo, dobbiamo sempre prestare la massima attenzione nel leggere notizie di questo tipo e valutare sempre al meglio la fonte da cui ci stiamo informando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La stella in laboratorio

3 Ott

Attraverso le pagine del forum di Psicosi 2012:

Psicosi 2012, forum

mi e’ stato segnalato un articolo molto interessante. Perche’ lo definisco in questo modo? Semplice, l’articolo e’ talmente assurdo che merita di essere presentato qui sul blog.

Come diceva un proverbio: “Dagli amici mi guardi Dio perche’ da nemici mi guardo io”. Cosa significa? Mentre siamo guardinghi nei confronti dei nostri nemici,  ci sentiamo tranquilli verso gli amici. A volte questo puo’ creare la condizione per poter essere, come si dice, accoltellati alle spalle.

Cosa voglio dire con queste parole? Mentre ormai abbiamo capito bene quali sono i siti complottisti e catastrofisti e, almeno spero, abbiamo imparato a leggerli con occhio attento e guardingo, a volte quelli che dovrebbero essere siti seri e scientifici si lasciano prendere un po’ troppo la mano.

Questo e’ purtroppo il caso di una notiizia apparsa su ben due noti giornali online nazionali che, copiandosi spudoratamente tra di loro, hanno finito per sparare cavolate veramente fuori dalla grazia del Signore.

Prima di tuttto, vi segnalo gli articoli in questione:

Articolo 1

Articolo 2

Potete anche leggerne uno solo, tanto le parole utilizzate sono le stesse, ergo, non so chi dei due, ha fatto copia/incolla.

Avete letto bene? I ricercatori dell’istituto americano NIF, stanno per accendere una stella in laboratorio. Una stella? Proprio cosi’ dicono gli articoli. Si tratta di un esperimento di fusione in cui sono stati utilizzati laser con una potenza di 500 Tera Watt, 500 mila miliardi di watt di potenza. Come recita l’articolo, questa potenza e’ pari a 1000 volte quella che gli Stati Uniti stanno consumando in quel momento.

Signori, scusate le sfogo, ma questa e’ disinformazione scientifica sulle pagine di giornali nazionali che pretendono di avere una sezione di scienze! Poi, non ci sorprendiamo quando le persone pensano che al CERN si creeranno buchi neri che distruggeranno la Terra. Dall’altra parte dell’oceano stanno creando una stella in laboratorio.

Finito il mio piccolo sfogo personale, vorrei passare a commentare questa notizia. Al contrario di quanto fatto sui giornali citati, per poter capire questa notizia, e’ necessario capire bene il campo in cui ci andiamo a muovere, cioe’ la fusione nucleare.

Cercando di mantenere un approccio semplice e divulgativo, tutti conoscono le centrali nucleari per la produzione di energia elettrica. Questi reattori funzionano attraverso la fissione nucleare, cioe’ la scissione di un nucleo pesante, il combustibile, in nuclei piu’ leggeri. Questo processo, oltre ai due nuclei figli, produce un eccesso di energia. Il processo si dice dunque esoenergetico perche’ rilascia energia.

Detto in modo molto improprio, il processo inverso a quello di fissione nucleare e’ quello di fusione. In questo caso, si prendono due nuclei leggeri per fonderli insieme e formare un nucleo piu’ pesante. Questo processo e’ conveniente solo per nuclei molto leggeri, in linea di principio fino al ferro. Come viene fatto il processo? Quelli che dovete avvicinare sono degli atomi. Come sapete, nel nucleo sono presenti protoni con carica positiva. Avvicinando tra loro due cariche di segno uguale, queste si respingono tra loro con una forza che aumenta al diminuire della distanza. Sotto una certa distanza pero’, la forza coulombiana repulsiva, cioe’ quella tra cariche elettriche, diviene piu’ piccola della cosiddetta forza nucleare forte. Questa interazione e’ molto intensa, ma solo a distanze molto piccole. Detto in altri termini, dovete comprimere molto i nuclei tra loro, fino ad arrivare al punto in cui questi si attirano grazie alla forza forte.

Questa caratteristica rende il processo di fusione nucleare molto difficile da realizzare o meglio, molto difficile da sfruttare. Come anticipato, si tratta di un processo che rilascia energia. Per poter comprimere i nuclei tra loro dovete pero’ spendere un certo quantitativo di energia in qualche forma. Bene, per poter sfruttare questo processo, o meglio per guadagnarci, dovete fare in modo che l’energia spesa per attivare il processo, quella di compressione, sia minore di quella che poi viene rilasciata dai nuclei che si fondono.

Una delle possibili e piu’ studiate reazioni di fusione nucleare e’ quella del deuterio con il trizio:

D + T → 4He (3,5 MeV) + n (14,1 MeV)

In questa reazione i due reagenti, che altro non sono che isotopi piu’ pesanti dell’idrogeno, vengono fusi per formare un nucleo di elio, detto anche particella alfa, liberando anche un neutrone di una certa energia.

Vedete bene il processo. Indipendentemente da quello che ognuno di noi pensa delle centrali nucleari a fissione, il processo di fusione risolve automaticamente il problema delle scorie. In questo caso, non abbiamo sottoprodotti radioattivi a lunga vita media. Proprio per questo motivo, la costruzione di centrali di questo tipo e’ vista come la chimera della fisica nucleare e da diversi anni sono in corso ricerche per cercare di rendere il processo di fusione conveniente dal punto di vista energetico.

Il punto cruciale di questi studi e’ ovviamente come innescare il processo, cioe’ come far avvicinare tra loro i nuclei per far partire la fusione. Il caso visto negli articoli da cui siamo partiti e’ il cosiddetto confinamento inerziale ad ignizione laser. Detto in parole semplici, si utilizzano fasci laser per riscaldare e comprimere i nuclei e far partire la fusione.

Bene, a questo punto siamo in grado di rileggere gli articoli e di capire veramente quello che e’ successo nei laboratori del NIF.

Il laboratorio in questione utilizza 192 fasci laser per riscaldare e comprimere un sferetta di deuterio-trizio. Il numero elevato di laser serve prima di tutto per avere l’energia necessaria ma anche per poter riscaldare uniformemente la sfera di combustibile. Ovviamente, non serve irradiare continuamente il composto, ma e’ necessario che in un tempo molto breve l’energia arrivi tutta insieme sul campione. Quindi, proprio per questo si utilizzano fasci impulsati, cioe’ raggi molto intensi ma molto brevi nel tempo. Questo spiega l’enorme potenza in gioco. Data un’energia del fascio, tanto piu’ corto e’ il raggio, maggiore sara’ la potenza in gioco. Esattamente come in fisica definite la potenza come il rapporto tra lavoro e tempo per compierlo. Capite dunque da dove viene fuori quel valore enorme di 500 terawatt di potenza. Secondo voi, se fosse necessario avere 1000 volte la potenza che gli USA stanno consumando in quell’istante, chi sarebbe in grado di alimentare i laser? Nella migliore delle ipotesi, acceso il sistema salterebbe la corrente a tutti gli Stati Uniti. Direi che quanto affermato e’ quantomeno azzardato e dimostra la totale non conoscenza di quello che si sta raccontando.

Poi, cosa dice l’articolo? A questo punto, il sistema implode e si accende una stella.

Capiamo bene, perche’ implode? Lo schema semplificato del processo di fusione che avviene e’ questo:

Il meccanismo di ignizione laser per la fusione nucleare

Il meccanismo di ignizione laser per la fusione nucleare

Per compressione interna, si ha un implosione cioe’ un collassamento dei nuclei verso l’interno. Da come viene raccontato nell’articolo, sembra che ci sia una deflagrazione in laboratorio.

Poi si accende una stella ….

Perche’? Anche qui, si tratta di un’assurdita’ letta scopiazzando in giro. Il processo di fusione e’ quello grazie alla quale, ad esempio, le stelle producono la loro energia. Il nostro sole “funziona” grazie alla fusione degli atomi di idrogeno in elio. Quando si parla di processo vitale del sole e di passaggio allo stadio successivo, ci si riferisce proprio al momento in cui il combustibile finira’. Inoltre, se si vede la pagina Wikipedia dedicata al NIF:

Wikipedia, NIF

si legge una frase molto importante:

Oltre allo studio della fusione nucleare in campo energetico, al NIF si studieranno anche i segreti delle stelle; infatti quello che si sta tentando di fare è riprodurre il fenomeno della fusione dell’idrogeno che avviene sul Sole e su tutte le altre stelle.

Ecco da dove e’ nata l’idea che in laboratorio venga “accesa una stella”. Come vedete, l’autore dell’articolo ha provato a documentarsi sulla rete, ma non ha capito proprio il senso della frase riportata.

A questo punto, credo che l’assurdita’ di tali articoli sia evidente a tutti.

Tornando di nuovo a cose serie, perche’ e’ stata data questa notizia? Il motivo principale, e molto importante, e’ che, per la prima volta, e’ stato raggiunto il pareggio energetico. Cosa significa? Per la prima volta, si e’ riusciti ad ottenere la stessa quantita’ di energia che e’ stata necessaria per attivare il processo. Se prima l’energia per accendere la reazione era molto maggiore di quella che poi veniva prodotta, ora siamo in pareggio. Si tratta di un risultato molto importante, che dimostra i notevoli passi avanti fatti in questo campo. Certo, e’ vero che al momento non stiamo guadagnando nulla, ma prima, con lo stesso processo, ci rimettevamo tantissimo. Diciamo che il trend e’ dunque molto positivo.

Ovviamente, allo stato attuale, siamo ancora in un campo pioneristico. Magari, andando avanti, ci potremmo accorgere che si sono dei limiti alla produzione di energia che non siamo in grado di superare. Speriamo questo non avvenga e si riesca, in tempi rapidi, a spostare il bilancio energetico a nostro favore. Come detto prima, questa e’ la condizione per poter sperare nella realizzazione di centrali nucleari a fusione per la produzione di energia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.