Tag Archives: medio

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Earth Overshoot Day: una riflessiva ricorrenza

19 Ago

Se stamattina vi siete dilettati nel leggere le notizie nelle rubriche di scienza dei principali quotidiani, non vi sarà sicuramente sfuggita la notizia riguardante il cosiddetto Earth Overshoot Day. Come da titolo, credo che sia importante, prima di tutto, comprendere a pieno cosa questo nome significhi ma, soprattutto, aprire una riflessione per il futuro energetico della nostra Terra.

Al solito, vi giuro non vorrei dirlo ma sono costretto, molti dei nostri amati giornali, anche a diffusione nazionale, pubblicano notizie perchè devono, senza minimamente comprendere di cosa si stia parlando. Perchè dico questo? Leggendo diversi articoli, e conoscendo già di mio il significato della ricorrenza, ho provato a mettermi nei panni di qualcuno ignorante sulla questione. Questa sarà anche una mia personale posizione, ma leggendo le notizie in rete, credo che molto difficilmente ci si possa informare capendo realmente quello di cui si sta parlando. Ora, non voglio assolutamente mettermi su un piedistallo, non ne avrei diritto ne tantomeno le competenze, ma, vi prego, prima di scrivere qualcosa, cercate di capirlo almeno voi.

Perchè dico questo? Molti giornali esauriscono la notizia in poche righe riassumendo in questo modo: oggi è il giorno in cui abbiamo ufficialmente consumato tutte le risorse rinnovabili che la Terra è in grado di produrre fino alla fine dell’anno solare. Come direte voi, ma se le risorse sono rinnovabili sono rinnovabili sempre. Come faccio ad aver già consumato quello che la Terra produrrà nei prossimi mesi? Inoltre, per farla breve, ma se ci siamo mangiati tutto quello che avevamo a disposizione fino alla fine dell’anno, domani cosa mangiamo? Per fare un esempio, è come una famiglia che fa la spesa per l’intera settimana senza la possibilità di riandare a comprare nulla. Arrivati a giovedi, le scorte sono completamente finite. Poi?

Cerchiamo di essere seri e comprendere a pieno cosa significa questa fantomatica data.

Ogni anno, l’organizzazione no profit Global Footprint Network, ripeto “organizzazione” non centro di ricerca come qualche giornale ha scritto, calcola la data in cui la nostra società globale ha consumato tutte le risorse rinnovabili annuali. Cosa significa? Prendiamo come esempio un campo coltivato con insalata. Nell’arco dell’anno, questo campo riuscirà a produrre 100 Kg di insalata. Arrivati ad agosto, noi abbiamo già mangiato 100 Kg di insalata, dunque abbiamo raggiunto molto in anticipo le risorse che il nostro campo sarà in grado di produrre. Dunque, se vogliamo mangiare altra insalata dobbiamo prenderla nel campo del nostro vicino.

Ora, come è ovvio, non mangiamo solo insalata. Infatti, questo calcolo viene fatto prendendo in esame tutte le risorse rinnovabili che abbiamo a disposizione sul nostro pianeta. Tra queste, oltre ai cibi, entrano ovviamente anche beni diversi: l’elettricità prodotta da fonti rinnovabili, i tessuti naturali che utilizziamo per i nostri capi d’abbigliamento, ecc..

Nel calcolo di questa data, entra ovviamnete anche la produzione di CO2 che immettiamo in atmosfera. Come è ovvio, il nostro pianeta è in grado di assorbire una frazione degli inquinanti che espelliamo, oltre questa soglia, questi gas restano in atmosfera formando strati inquinanti.

A questo punto, spero di essere riuscito a far capire come è possibile calcolare questa data e quali sono i fattori principali che entrano in questo computo.

Come anticipato, oggi è l’Earth overshoot Day, cioè come il nome stesso indica, il giorno in cui abbiamo superato le risorse della Terra.

Ci deve preoccupare questa data?

Ovviamente si ma, soprattutto, ci deve far riflettere molto. Praticamente, noi stiamo vivendo come parassiti in grado di consumare molto velocemente le risorse del pianeta che ci ospita. Come potete facilmente immaginare, questo trend negativo è solo peggiorato negli ultimi anni.

Visitando il sito dell’associazione:

Global Footprint Network

che oltre a questa data, ha tutta una serie di attività tese a sensibilizzare le società sul problema energetico, troviamo una tabella molto interessante:

Data dell'overshoot day nel corso degli anni

Data dell’overshoot day nel corso degli anni

Quanto riportato mostra l’overshoot day calcolato nel corso degli anni. Come evidente, se nel 1987 eravamo quasi in pari con una data prossima alla fine dell’anno solare, nel corso del tempo l’overshoot day si è sempre notevolmente anticipato. Come spesso sentiamo ripeterci, poichè oggi à il 19 agosto, secondo questo calcolo, per poter vivere noi oggi avremmo bisogno di 1.5 Terre in grado di fornirci le risorse rinnovabili di cui abbiamo bisogno.

Ovviamente, questo è un calcolo mediato su tutti i paesi. Come è facile immaginare, esiste uno squilibrio notevole anche in questo caso. Per un dettaglio su alcuni paese campione, possiamo far riferimento a questa tabella:

Paesi-equivalenti richiesti dai consumi dei singoli stati

Paesi-equivalenti richiesti dai consumi dei singoli stati

In questo caso, il calcolo è sul singolo paese tenendo conto delle risorse che il paese stesso è in grado di fornire alla propria popolazione. Notiamo che ci sono dei casi veramente disastrosi. Esempi? Gli Emirati Arabi avrebbero bisogno di più di 12 paesi equivalenti! Inoltre, non fatevi ingannare dal dato sugli USA. Considerando la grandezza del paese, il numero di abitanti e le risorse a disposizione, se il modello di consumi USA fosse “esportato” anche negli altri paesi, il nostro deficit peggiorerebbe in modo significativo.

Se ci concentriamo sul caso Italia, anche se, almeno in questo caso, non siamo i peggiori in assoluto, sicuramente ci mettiamo del nostro. Come vedete, ad oggi, noi richiediamo 4 volte le risorse del nostro paese. Praticamente, se il calcolo fosse relativo solo al nostro paese, il nostro overshoot day cadrebbe intorno alla fine di marzo.

Per completezza di informazione, esistono ovviamente dei paesi “virtuosi” che contribuiscono ad abbassare il nostro debito naturale. Tra questi, ad esempio, Brasile, Australia, Indonesia e Svezia.

Se volete “divertirvi” a calcolare il vostro contributo a questo calcolo, la Global Footprint Network ha a disposizione un semplice questionario in grado di calcolare il vostro singolo contributo basandosi sui vostri consumi medi. Visto che sbandieriamo sempre la sincerità, vi pubblico il mio profilo:

Il mio contributo all'Overshoot Day

Il mio contributo all’Overshoot Day

Come vedete, anche io faccio la mia parte in negativo anche se sono sotto la media nazionale (2.5 paesi verso 4 di media) ma sopra la media mondiale. Il mio contributo principale, neanche a dirlo, viene dal consumo di cibo.

Per calcolare il vostro contributo, potete compilare il rapido questionario disponibile, anche in Italiano, a questa pagina:

Footprint personale

Inutile dire che non si tratta di un gioco ma il nostro personale risultato deve spingerci ad una riflessione sui nostri consumi e, preferibilmente, a cambiare il nostro stile di vita per cercare, tutti quanti, di interrompere questo trend negativo di cui abbiamo discusso.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa posso vedere con il mio telescopio?

10 Feb

Diverse volte sono stato contattato da persone che vorrebbero affacciarsi al mondo dell’astronomia. Molti hanno una passione del genere e un desiderio innato di poter osservare il cielo ingrandendo via via dettagli sempre piu’ piccoli. Inutile dire quanti di noi restano a bocca aperta guardando una foto spaziale scattata in giro per il cosmo e desiderano a loro volta osservare con i loro occhi la bellezza della natura.

Ora pero’, queste passioni spesso si scontrano un po’ con il problema economico ma, soprattutto, con la grande confusione che la scelta di un telescopio “domestico” puo’ portare. Siete mai entrati in un negozio dove si vendono telescopi? Avete visto quante tipologie di strumenti ci sono? Molto spesso, le persone restano spaventate da una tale scelta e non sanno cosa prendere.

Per superare questo blocco, dovete prima di tutto capire “cosa volete guardare”!

Ovviamente, si potrebbe fare il pensiero facile e dire quello che costa di piu’ e’ il piu’ “potente” o quello piu’ grande e’ sicuramente migliore. Purtroppo, non sempre e’ cosi’.

Visto che molte persone mi hanno contattato per chiedermi cosa distingue un telescopio da un altro, ho deciso di scrivere un breve articolo per spiegare non le diverse tipologie di telescopio, bensi’ la cosiddetta “risoluzione angolare” di questi strumenti.

Immaginiamo di avere un telescopio con lenti circolari. Quello che vogliamo capire e’ “qual e’ la minima distanza che posso osservare?”. Per rispondere dobbiamo introdurre la cosiddetta “risoluzione angolare”, cioe’ la minima distanza angolare tra due oggetti che possono essere distinti con il vostro telescopio:

R=1,22 L/D

Quando siete di fronte a sistemi ottici, quella che comanda e’ la diffrazione che, senza entrare in troppi tecnicismi, fa si che sotto un certo valore, due oggetti vengano confusi come uno solo perche’ assolutamnete indistinguibili tra loro. Nella formula della risoluzione angolare, compare ovviamente il diametro della lente, D, e la lunghezza d’onda, L, che dobbiamo osservare.

Detto tra noi, questa formula e’ poco manegevole per cui possiamo prima di tutto dimenticarci della dipendenza dalla lunghezza d’onda e prendere un valore medio per lo spettro visibile che, in fondo, e’ quello che vogliamo osservare. Inoltre, la risoluzione angolare che abbiamo introdotto e’ misurata in radianti, unita’ abbastanza scomoda in questo contesto. Per semplicita’, possiamo utilizzare una misura in arcosecondi dove 3600 arcsec equivalgono ad un grado. Facendo queste considerazioni, possiamo riscrivere la formula come:

R = 11.6 / D

Supponiamo dunque di acquistare un bel telescopio con lente da 30 cm, la nostra risoluzione angolare sara’:

R = 11.6/30 = 0,39 arcsec

Se ora con questo oggetto volessi guardare la luna, quale sarebbe la minima distanza che riuscirei a distinguere?

Per rispondere a questa domanda, e’ necessario introdurre un’ulteriore formula. Come potete immaginare, in questo caso dobbiamo convertire, in base alla distanza, l’apertura angolare con una distanza in metri. Tralasciando dipendenze di questa formula da parametri di poco interesse per il nostro caso, possiamo scrivere la distanza distinguibile come:

Dm = (R/206265) x Dl

Dove Dm e’ ovviamente la distanza minima osservabile e Dl e’, nel nostro caso, la distanza Terra-Luna. Supponendo una distanza media di 400000 Km, da portare in metri per inserirla nella formula, abbiamo, riprendendo la risoluzione del telescopio da 30 cm dell’esempio:

Dm = (0.39/206265) x 400000000 = 750 metri

Cioe’ la minima distanza che possiamo percepire e’ di 750 metri. Detto in altre parole, riuscite a distinguere dettagli separati tra loro da una distanza di almeno 750 metri. Anche se questo numero puo’ sembrare enorme vi permette di poter osservare dettagli impressonanti della Luna. Vi ricordo che un telescopio da 30 cm, e’ un bellissimo strumento che necessita di attenzioni particolari. Non abbiamo preso uno strumento completamente amatoriale o entry level per questo calcolo esemplificativo.

Altro aspetto interessante che spesso viene citato dai complottisti: se siamo veramente stati sulla Luna, perche’, ad esempio, il telescopio Hubble non e’ in grado di osservare il punto di atterraggio con tutta le cose lasciate dall’equipaggio? La domanda e’ di principio ben posta, pensate che addirittura il modulo di discesa e’ rimasto sul punto perche’ impossibile da riportare indietro.

Cerchiamo di analizzare, sulla base dei calcoli gia’ fatti, se fosse possibile osservare questo modulo sfruttando la lente di Hubble. In questo caso, abbiamo una lente di 2.4 metri che vuole osservare la superficie lunare. Quale sarebbe la minima distanza che potrebbe essere osservata?

Ripetendo il calcolo trovate una minima distanza di circa 100 metri. Considerando che il modulo di discesa ha un diametro intorno ai 10 metri, capite bene come sia impossibile distinguere dall’orbita di Hubble questo reperto storico sulla superifcie della Luna. Spero che questo ragionamento, a prescindere dalle altre dimostrazioni di cui abbiamo gia’ parlato, sia sufficiente a capire, per chi ancora oggi crede che non siamo stati sulla Luna, come sia impossibile osservare dalla Terra il punto di atterraggio.

Concludendo, per comprendere il potere risolutivo di uno strumento ottico, e questo ragionamento vale sia per un telescopio che per un microscopio, e’ sufficiente conoscere un po’ di ottica e calcolare agevolmente la minima distanza osservabile Come visto, la grandezza della lente e’ uno dei parametri piu’ importanti da considerare. Tenete a mente questi risultati qualora decideste di acquistare un telescopio per dilettarvi in osservazioni spaziali. Ovviamente, come detto, prima di decidere la tipologia di telescopio, pensate sempre prima a cosa volete andare ad osservare e, dunque, a che distanza vi state approcciando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

3 Novembre 2013: eclissi ibrida?

24 Ott

Fin dall’antichita’, uno dei fenomeni che hanno affascinato e allo stesso tempo spaventato l’uomo e’ senza dubbio quello delle eclissi, soprattutto di Sole.

Proprio per questo motivo, gia’ in diversi articoli avevamo parlato di questi fenomeni, in concomitanza con eventi attesi o anche solo per illustrare e spiegare questo spettacolo naturale:

Eclissi totale il 13 Novembre 2012

Eclissi totale il 13 Novembre, cosa dire …

Eclissi del 13 novembre: la rivelazione?

Come sappiamo bene, visti dalla Terra, Sole e Luna giacciono su piani differenti ma esistono dei punti nel tempo in cui i tre corpi, compresa la Terra, si trovano allineati.

Cosa succede in questi casi?

Anche se la Luna e’ circa 400 volte piu’ piccola del Sole, questa si trova ad una distanza circa 400 volte minore della nostra Stella. Questa particolare condizione fa si che la dimensione angolare dei due corpi, sempre vista da Terra, sia paragonabile. Detto questo, quando la Luna si trova a transitare davanti al Sole riesce a coprirlo quasi interamente.

In questo “quasi” c’e’ proprio la distinzione tra eclissi totale e anulare. Dal momento che la distanza relativa della Luna dalla Terra non e’ costante lungo l’orbita, la dimensione apparente del nostro satellite non e’ sempre uguale. Se, nel momento della sovrapposizione, la Luna si trova piu’ vicina alla Terra, allora riuscira’ ad oscurare completamente il Sole provocando l’eclissi totale. In caso contrario, cioe’ con una Luna leggermente piu’ piccola o che non transita precisamente di fronte al Sole, potremmo avere quelle che sono dette eclissi parziali o anulari. Quest’ultimo caso si ha quando la Luna transita davanti al Sole ma, apparendo piu’ piccola, lascia un contorno molto luminoso dovuto al Sole.

Bene, il prossimo appuntamento con un eclissi di Sole e’ atteso tra pochhi giorni, precisamente il 3 Novembre 2013. Questa volta pero’, come potete leggere anche da diversi giornali, si parla di “eclissi ibrida”.

Cosa significa?

Poiche’ la distanza della Luna dalla Terra varia in modo continuo, si possono verificare dei casi in cui l’eclissi inizia e termine come anulare ma diviene totale nella parte centrale. Ovviamente, dal momento che durante questa transizione la Terra si muove a sua volta rispetto al Sole, l’esclissi apparia’ anulare in alcune zone mentre totale in altre.

Percorso dell'eclissi ibrida del 3 novembre 2013

Percorso dell’eclissi ibrida del 3 novembre 2013

La figura a fianco mostra prima di tutto il percorso dell’eclissi, cioe’ del cono d’ombra proiettato dalla Luna sulla Terra.

Questa volta lo spettacolo iniziera’ dagli Stati Uniti orientali, passera’ sull’Europa meridionale e terminera’ attraversando tutta l’Africa e parte del Medio Oriente. Data la linea del cono d’ombra, l’eclissi sara’ visibile anche in alcune zone d’Italia. Purtroppo per noi pero’, l’eclissi dalle nostre parti sara’ solo parziale e scarsamente visibile mentre sara’ totale in alcune zone dell’Africa come la l’Uganda.

Se volete provare ad osservare l’eclissi, riferendoci all’orario italiano, questa sara’ visibile dalle 11.04 del mattino fino alle 16.28. Il passaggio del cono d’ombra investira’ tutto il meridione dal basso Lazio fino alla Sicilia, interessando anche tutta la Sardegna. Come visto nell’immagine animata riportata sopra, il fenomeno sara’ maggiormente visibile avvicinandoci all’Africa, per cui, ad esempio, l’isola di Lampedusa potra’ godere, almeno questa volta, di un bellissimo spettacolo.

Se invece volete aspettare la prossima eclissi totale visibile anche dall’Italia, allora dovrete attendere ancora un po’. Il prossimo spettacolo di questo tipo, ripeto visibile dalle nostre parti, sara’ il 20 marzo 2015.

Se invece non volete propro attendere, molte agenzie turistiche hanno organizzato viaggi davvero spettacolari in concomitanza per l’evento. Sono infatti previsti diversi viaggi nel cuore dell’Africa con osservazione dell’eclissi totale dall’Uganda e visita di molte bellezze artistiche e parti naturali che certamente non mancano al continente africano.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

11 settembre 2001: USA sotto attacco

23 Set

Dalla discussione avuta con un nostro caro lettore, mi e’ stato richiesto eplicitamente un articolo sugli attentati dell’11 settembre 2001. Ovviamente, non posso che essere lusingato di questa richiesta, che mi chiede di analizzare con lo stile di questo blog, uno dei fatti piu’ cruenti e significativi degli ultimi anni.

Come sapete bene, proprio da questi fatti, molti analisti fanno iniziare la crisi economica, l’inizio di quella che potrebbe essere considerata una guerra tra Occidente e Islam ma anche un cambio di coscienza globale di una civilta’ che da un giorno all’altra si e’ trovata nell’era moderna. Queste considerazioni, non vengono fatte solo a scopo introduttivo. A mio avviso, questi fattori entrano prepotentemente nell’analisi che viene richiesta per poter inquadrare al meglio i fatti nello specifico.

Trattare il tema dell’11 settembre non e’ di per se facile. Per diversi giorni ho studiato materiale, letto interviste, visionato filmati. Come sapete bene, la rete e’ strapiena di cospirazioni pensate, o anche immaginate, riguardo a questi attentati. Ovviamente, sarebbe impossibile trattarle tutte e con elevato dettaglio. Di questo mi scuso da subito. Sono consapevole che questo articolo potrebbe scatenare una pletora di commenti, forse neanche troppo soft, di qualcuno che crede fortemente che quanto accaduta sia una grande montatura.

Proprio partendo da queste osservazioni, vorrei sottolineare una cosa. Molte teorie affondano le loro radici sul fatto che i servizi segreti sapessero in anticipo degli attentati, discutono del perche’ i caccia siano partiti troppo presto o troppo tardi dalle basi militari, del perche’ il presidente fosse rimasto cosi’ tanto tempo nella famosa scuola elementare invece di correre sul luogo dell’attentato. Se sperate di avere risposte a queste domande, vi dico subito che queste non verranno trattate e non sono materia di questo blog. Perche’? Noi siamo qui per parlare di scienza e per analizzare i complotti e le catastrofi che vengono annunciate. Fate attenzione, ho detto “analizzare”, non “smentire”. Questa e’ la sottile differenza che ci distingue da coloro che sostengono i complotti per partito preso, ma anche da coloro che cercano in tutti i modi di smontarli senza cognizione di causa. Dal nostro punto di vista, cerchiamo sempre di non partire prevenuti, ma di rimanere aperti ad ogni risultato il nostro ragionamento potrebbe raggiungere. In fondo la scienza ci insegna questo, un risultato non e’ bello o brutto a seconda che ci faccia comodo o no, e’ un risultato che deve essere sostenuto da ipotesi oggettive.

Bene, quello che dunque vogliamo analizzare in questo post e’ il discorso della caduta delle torri gemelle, anche dette WTC1 e WTC2, dell’ulteriore edificio caduto a 200 metri dalle torri, il WTC7 e dell’aereo arrivato sul Pentagono.

Come sapete bene, anche perche’ molti hanno fatto fortuna parlando di queste ipotesi, i complottisti sostengono che sia fisicamente impossibile che i due edifici principali del World Trade Center siano caduti per l’impatto degli aerei o per gli incendi sviluppati all’interno. Secondo queste teorie, il dirottamento degli aerei sarebbe stata solo una farsa creata ad hoc. In realta’, le torri sarebbero cadute perche’ precedentemente minate con esplosivo o peggio ancora con termite, una sostanza in grado di sviluppare altissime temperature con un innesco a bassa temperatura. Le prove di questo sarebbero date dalla dinmica del crollo delle torri, perfettamente compatibili con una distruzione pianificata, esattamente quella che viene fatta da esperti per buttare giu’ un palazzo. Altra teoria alternativa che sta riscuotendo sempre piu’ successo in rete, e’ quella di un ordigno nucleare fatto esplodere nel sottosuolo e che avrebbe provocato la caduta delle torri per un cedimento delle fondamenta.

Prima di analizzare il crollo delle torri, vorrei fare qualche ragionamento. Per prima cosa, tutti questi scenari si basano sul fatto che il dirottamento sarebbe stato una farsa. Ma allora la domanda e’: perche’ e’ stato fatto? Nelle innumerevoli ipotesi, non ho mai letto questa risposta. Se le torri fossero state minate o se fossero cadute per l’esplosione di una bomba atomica, perche’ dirottare gli aerei e lanciarli contro uno dei simboli degli USA? Come sapete, stiamo parlando di un attentato terroristico dunque, per sua stessa definizione, volto a creare “terrore” nelle persone. La strategia di questi gruppi non e’ tanto quella di fare migliaia di vittime, quanto quella di dimostrare di poter colpire dove e quando vogliono. Perche’ dico questo? Una delle ipotesi, con o senza esplosivo, e’ che tutto sia stato organizzato dagli USA stessi, cioe’ che quello delle torri gemelle sia stato un auto-attacco. Perche’? Semplice, almeno a quello che dicono i complottisti, questo avrebbe offerto le condizioni per far partire le diverse campagne contro l’Islam, per far crollare regimi totalitari, per impadronirsi del petrolio o di altre risorse, per controllare i paesi orientali, ecc.

E’ credibile questo? Personalmente spero di no, ma l’analisi di queste considerazioni, come anticipato, non rientra negli scopi di questo articolo. Qui vogliamo solo analizzare gli attentati e capire se e’ possibile che ci sia qualcosa sotto non dichiarato. Poi se volete possiamo parlare del fatto che gli USA non siano un governo trasparente sotto molti aspetti, ma anche qui vi farei notare che nessuno stato lo e’ su determinate questioni, tantomeno l’Italia. Ci sono tantissimi fatti della nostra storia su cui c’e’ ancora un’aura di mistero e di possibile complotto. Non meravigliamoci di questo. Certo, da qui a parlare di auto-attentato ce ne passa.

Torniamo dunque all’attentato. Per prima cosa, vorrei escludere da subito, e chiunque dotato di buon senso dovrebbe farlo altrettanto velocemente, l’ipotesi ordigno nucleare sotterraneo. Perche’? Per prima cosa, un’esplosione nucleare produce radiazioni. E’ vero che si parla di esplosione sotterranea ma chi ce l’ha messa? Come? Possibile che non ci sia stata nessuna fuga di radiazioni?

Se queste considerazioni non vi bastano ve ne dico una definitiva. Se il tutto fosse provocato da un’eplosione sotterranea, sarebbero state colpite prima di tutto le fondamenta delle torri e, di conseguenza, il cedimento sarebbe stato dal basso. Come tutti sanno, con le immagini di quegli attimi ben presenti nelle nostre menti, la caduta e’ iniziata dall’alto, cioe’ da dove sono arrivati gli aerei.

Questo esclude subito l’ipotesi ordigno nucleare.

Bene, passiamo ora all’altra importante teoria complottista: le torri sono state progettate per resistere all’urto di un aereo di linea per cui non potevano crollare. Quelle che hanno provocato il cedimento sono state cariche piazzate in diversi piani e che hanno provocato quella che si chiama una distruzione pianificata.

Prima considerazione, come avrebbero fatto a mettere tutte queste cariche? Con un edificio del genere, le cariche avrebbero dovuto essere in molti piani, in punti diversi ed in zone di normale passaggio di persone. Chi avrebbe avuto la possibilita’ di mettere queste cariche? Come sapete, le torri erano sede di moltissimi uffici ed erano frequentate nell’arco di quasi tutta la giornata. Ah certo, quasi dimenticavo, se l’attentato e’ stato fatto dagli USA, non avevano certo problemi nel piazzare ordigni ed entrare senza destare sospetto.

Considerazione interessante. Vi faccio pero’ riflettere su un’altra cosa, perche’ allora gli aerei? Avete imbottito le torri di esplosivo per farle crollare, perche’ dirottare degli aerei da lanciare contro le torri? Per aumentare l’affetto scenico? L’ipotesi non regge tanto. Inoltre, come avete visto dai video dei crolli, il cedimento e’ iniziato proprio nei piani sopra il punto di impatto, possibile che le cariche siano state fatte brillare nell’esatta sequenza, dall’alto verso il basso, e che i dirottatori abbiano centrato esattamente il punto che avevate concordato in precedenza? Personalmente, credo che si stia passando dal complottismo alla fantascienza.

Qual e’ l’altra motivazione che spinge a pensare che l’attaco sia stato auto-pianificato? Il piano era talmente tanto perfetto e l’esecuzione talmente impeccabile che l’organizzazione poteva solo essere fatta da un governo preparato e interno al paese, dunque gli USA stessi.

Facciamo una considerazione abbastanza meschina, soprattutto se pensiamo ai 3000 morti dell’11 settembre. Gli attentati sono stati perfetti? Assolutamente falso. Vi spiego il perche’. Avete dirottato 4 aerei, due sono andati a segno sulle torri, uno ha fatto danni marginali al pentagono e uno non e’ nemmeno arrivato a destinazione. Siete arrivati contro le torri in un orario sbagliato. Come sapete, gli attentati sono accaduti nelle prime ore della mattinata, quando le torri non erano ancora completamente piene. Se vogliamo essere sadici, un attentato ben riuscito avrebbe scelto un orario diverso, anche solo un paio di ore dopo. Inoltre, avete colpito le torri in punti molto alti. Questo ha consentito alle persone dei piani inferiori, in larga parte, di mettersi in salvo. Tra l’altro uno degli aerei e’ arrivato completamente storto all’impatto colpendo uno spigolo della torre. E’ un piano perfetto? Direi proprio di no. Dunque, anche questa ipotesi secondo me regge poco.

Detto questo, passiamo alla dinamica del crollo.

Secondo l’ipotesi complottista, il cedimento sarebbe stato causato da cariche opportunamente piazzate come in una demolizione controllata. Le prove? Prima di tutto, la caduta perfettamente verticale delle torri, secondo ampi sbuffi di fumo e detriti che uscivano dagli edifici negli istanti precedenti il crollo. Questi sarebbero gli inequivocabili segni dovuti all’esplosione delle cariche.

Perche’ vengono fatte queste ipotesi? Come detto, le torri erano progettate per resistere all’urto di un aereo di linea. Gli incendi sviluppati all’interno degli uffici non potevano di certo raggiungere la temperatura di fusione dell’acciaio delle strutture. Se queste sono venute giu’ e’ perche’ e’ stata usata termite, in grado di raggiungere le temperature di fusione dell’acciaio, o perche’ sono stati causati cedimenti strutturali lungo tutta l’altezza delle torri.

Bene, analizziamo queste considerazioni.

Per prima cosa, gli edifici erano in grado di resistere all’impatto di un aereo, come giustamente ricordato anche dall’ideatore delle Torri Gemelle. Le simulazioni fatte al tempo prevedevano pero’ aerei piu’ piccoli rispetto a quelli utilizzati nel 2001 e, soprattutto, scarichi di carburante. Perche’ questo? Semplice, nei calcoli si era presa in considerazione l’ipotesi in cui un velivolo in fase di atterraggio a New York, dunque con poco carburante, a causa della nebbia finisse contro gli edifici. La dinamica dell’attentato del 2001 e’ completamente diversa con aerei decollati da poco tempo e con serbatoi carichi, anche se non pieni, di kerosene.

Cosa e’ successo nell’impatto? Gli aerei sono penetrati all’iinterno degli edifici. A causa dell’urto, il kerosene dei serbatoi si e’ incendiato provocando la fiammata iniziale che tutti ricorderete.

Ingresso dell'aereo in una delle due torri

Ingresso dell’aereo in una delle due torri

Le fiamme hanno ovviamente provocato il divamparsi di incendi in tutti i piani interessati dall’urto. Vi ricordo che le torri erano sede di molti uffici per cui erano piene di carta, arredi d’ufficio, pc, tutte cose facilmente infiammabili.

Bene, abbiamo l’urto, abbiamo l’incendio, ma le torri sono ancora in piedi. Dunque? Perche’ solo a distanza di decine di minuti si e’ avuto il crollo delle torri, e per di piu’ la seconda colpita e’ caduta per prima?

Le risposte a quete domande sono quelle che segnano il confine tra complotto e spiegazione logica.

Andiamo con ordine.

Come sono fatte le torri?

Su diversi siti, non necessariamente di complottisti, ho letto molte cose inesatte sulla struttura delle torri. Capire questo punto e’ la chiave di interpretazione dei fatti.

La struttura delle torri e’ fatta da una serie di colonne perimetrali che corrono tutt’intorno gli edifici e da una parte di colonne centrali che costituiscono il core:

Struttura con travi di acciaio delle Torri

Struttura con travi di acciaio delle Torri

Abbiamo dunque una struttura portante di colonne d’acciaio, molto solida, ma sufficientemente elastica da resistere non solo ad attentati, ma anche a condizioni naturali e normali di utilizzo. Pensate ad esempio ad una scossa di terremoto che fa vibrare tutta la struttura o anche solo al vento in grado di sollecitare fortemente una struttura alta piu’ di 400 metri.

Come sono legate le due serie di colonne? Ovviamente con dei solai. Anche in questo caso, e’ stato utilizzato acciaio, per creare una struttura legata in questo modo:

Solai in acciaio

Solai in acciaio

Sui solai sono disposti i pavimenti dei vari piani costituiti da lastre di cemento.

Molte delle ipotesi complottiste partono dal fatto che per far crollare una struttura di questo tipo, e’ necessario far fondere completamente l’acciaio. Per ottenere questo risultato, si devono raggiungere temperature superiori ai 1500 gradi, cosa impossibile bruciando kerosene. Tra l’altro, le colonne di fumo nero che ricorderete intorno alle torri, sono sinonimo di cattiva combustione dunque di temperatura non troppo alta. Secondo alcuni, nel calcolo delle temperature, tra l’altro sulla rete ho letto degli strafalcioni incredibili di termodinamica senza distinguere temperatura e calore, mancherebbe l’apporto dei mobili e della carta. Anche in questo caso pero’, viene giustamente fatto notare che non si riesce a raggiungere la temperatura di fusione dell’acciaio.

Vero anche questo. Ma perche’ si dovrebbe far fondere l’acciaio? Premesso che per la fusione servono le temperature di cui abbiamo parlato, gia’ a 500 gradi l’acciaio lascia la sua fase elastica per arrivare a quella plastica. In queste condizioni, il materiale e’ molto morbido e presenta dunque una resistenza strutturale molto minore, anche del 90% inferiore, rispetto alle condizioni ambientali. Perche’ facciamo notare questo? Un materiale in queste condizioni, inficia in modo preponderante la resistenza della struttura.

Secondo i complottisti, la caduta degli edifici sarebbe stata perfettamente verticale, come in una demolizione studiata. Su questo punto, non c’e’ neanche da discutere. Per prima cosa, vi mostro una foto aerea della zona:

Detriti dovuti al crollo in tutta l'area del World Trade Center

Detriti dovuti al crollo in tutta l’area del World Trade Center

Come vedete, i residui dei crolli sono ovunque. Torneremo su questo punto, discutendo la caduta del WTC7.

Inoltre, e’ evidente dalle prove fotografiche che la caduta degli edifici non e’ stata assolutamente verticale. La parte di torre superiore al punto di ingresso degli aerei, si e’ staccata con un’angolazione molto pronunciata, circa 30 gradi per una torre e 15 per l’altra. Ecco una foto molto esplicativa:

Crollo inclinato della parte alta della torre

Crollo inclinato della parte alta della torre

Vedete quanto e’ inclinata la parte superiore? Non credo che, alla luce di questo, si possa parlare di caduta verticale.

Perche’ sono cadute le torri?

Come detto, gli edifici erano pensati per resistere all’impatto di un aereo, anche se scarico di carburante e di dimensioni minori di quelli dirottati. Nonostante questo, le torri hanno resistito all’impatto, infatti non sono cadute subito a causa dell’urto. La stessa cosa si puo’ dire per l’incendio. Gli edifici erano pensati per resistere 2 ore ad un incendo completo. Eppure sono cadute. Perche’?

Quello che spesso non viene considerato e’ il fattore combinato incendio-impatto.

Vi faccio un esempio molto semplice. Prendete una lattina di bibita da 33 cl. Quella lattina e’ fatta da un sottilissimo foglio di alluminio, ma ha una resistenza a compressione elevatissima. E’ in grado di reggere tranquillamente il peso di una persona. Se pero’ la schiacciate leggermente da un lato, basta una minima pressione per accartocciarla. Bene, quello che e’ successo alle torri e’ del tutto analogo all’esempio della lattina. L’ingresso dell’aereo ha provocato danni ad alcuni dei pilastri perimetrali, questo ovviamente compromette la stabilita’ della struttura, ma non del tutto. Il seguente incendio che si e’ sviluppato, ha portato non la liquefazione dell’acciaio, ma un suo ammorbidimento. Questo ovviamente in tutti quei piani interessati dall’urto. Inoltre, il calore ha modificato pesantemente la resistenza meccanica delle travi utilizzate per i solai. In questo caso, le travi si sono ritirate, a causa della minore resistenza meccanica, tirando le travi perimetrali verso quelle del core centrale.

In questa foto si vede un dettaglio della parte interessata dall’incendio ed in cui e’ chiaramente visibile l’avvicinamento della parete laterale verso l’interno:

Dettaglio dell'incendio con parete che rientra

Dettaglio dell’incendio con parete che rientra

Come detto, questo e’ sintomatico del cedimento meccanico delle travi dei solai.

A questo punto, avete una struttura molto debole in diverse parti. Dopo decine di minuti di incendio, la parte alta, tagliata sotto dall’ingresso dell’aereo, cede sotto il suo peso premendo sulla parte inferiore della torre. Una struttura meccanica gravemente compromessa come quella in esame ad un certo punto non riesce piu’ a resitere al peso e cede su se stessa.

E ‘ dimostrabile questo? Assolutamente si. Sono stati pubblicati diversi articoli con simulazioni FEM, tra l’altro su riviste internazionali, che hanno dimostrato come la caduta delle torri sia perfettamente compatibile, nei tempi e nei modi, con quella dell’attentato avvenuto. Uno di questi e’ scaricabile da questo link:

Usmani

Tra l’altro, proprio a causa del cedimento improvviso sotto il peso, la caduta delle torri e’ risultata quasi istantanea come un corpo in caduta libera. Questo perche’ i piani inferiori che via via venivano interessati, venivano schiacciati da un peso sempre crescente.

Altra considerazione importante, possibile che la torre sia caduta istantaneamente tutta insieme, polverizzando tutto? Anche queste considerazioni sono del tutto false. Prima cosa, come anticipato, la caduta non e’ stata verticale ma i detriti hanno interessato una vasta zona del World Trade Center. Inoltre, non e’ assolutamente vero che si e’ polverizzato tutto. Ci sono diverse prove come questo video:

Video, frammenti

che mostrano la caduta di detriti molto grandi, molto pesanti e soprattutto interi verso il basso.

Altra cosa rimasta in sospeso, cosa dire degli sbuffi che si vedevano durante il crollo delle torri? Per farvi capire meglio, i sostenitori del complotto si riferiscono ad esempi come questo:

Sbuffi di materiale interpretati come detonazioni

Sbuffi di materiale interpretati come detonazioni

Secondo alcuni, questa sarebbe la prova dell’esplosione di alcune bombe lungo la torre. Niente di piu’ falso. Come potete facilmente immaginare, si tratta soltanto dell’aria interna agli edifici che viene compressa per schiacciamento durante la caduta e che riesce a frantumare i vetri esterni. Allo stesso modo, le presunte esplosioni che vengono raccontate da alcuni testimoni durante il crollo, altro non sono che il rumore dei vetri che andavano in frantumi o anche quello delle lastre di cemento che costituivano i pavimenti dei piani. Come detto, a causa della variazione di tenuta dei pilastri del solaio, i pavimenti non possono far altro che cedere e precipitare verso i piani inferiori.

Detto questo, non credo ci dovrebbero essere dubbi sul fatto che la caduta delle torri e’ stata provocata dalla combinazione dell’impatto dell’aereo e dell’incendio che si e’ sviluppato. Come visto, non solo questo e’ documentabile dalle molte prove fotografiche di quel tremendo giorno, ma ci sono anche numerosi articoli a sostegno che dimostrano la veridicita’ delle ipotesi. Solo questi, e il fatto che la dinamica del crollo sia simulabile, dovrebbero smentire tutte quelle voci che cercano evidenze di qualcosa di diverso nel crollo del WTC1 e 2.

Detto questo, passiamo invece all’altro grande mistero di quel giorno, il crollo del WTC7. Per chi non ne fosse a conoscenza, l’area del World Trade Centrer, era composta da diversi edifici, di altezze diverse. L’11 settembre 2001, oltre alle due torri, cadde anche un altro edificio, appunto detto WTC7, che non venne assolutamente colpito da niente. Perche’ e’ importante questo fatto nelle teorie complottiste? Semplice, il fatto che questo sia caduto senza essere stato colpito, indica chiaramente che gli edifici della zona fossero stati minati precedentemente. Evidenza che sosterrebbe le ipotesi viste prima. Tra l’altro, come evidenziato dai complottisti, il WTC7 non puo’ essere stato colpito da detriti per due buone ragioni. La prima e’ che si trova a circa 200 metri dalla torre piu’ vicina e tra i due vi era un altro edificio, chiamato WTC6, che lo proteggeva completamente e che non e’ andato distrutto dopo il crollo della torre. Il secondo motivo e’ ancora piu’ semplice, dal momento che si e’ trattato di un crollo studiato e verticale e in cui i detriti sono stati polverizzati, niente sarebbe potuto cadere cosi’ lontano.

A questa seconda ipotesi abbiamo gia’ abbondantemente risposto, mostrando come i detriti ci sono, anche di notevole dimensione, e dimostrando come la caduta non sia stata verticale. Questa osservazione e’ dunque da scartare a priori.

Resta pero’ l’altra ipotesi. Tra la torre che crolla e il WTC7 c’e’ un altro edificio che non crolla. Come e’ possibile? Inoltre, il WTC7 e’ caduto dopo diverse ore dalle torri, altro aspetto inspiegabile. Per chi non lo sapesse, anche in questo caso, parliamo di un edificio di 47 piani con struttura in acciaio, dunque non un castello di carte che cade da solo per opera del vento.

Per capire questo crollo, e’ necessario vedere la planimetria del World Trade Center, quando ancora esisteva:

Mappa degli edifici del World Trade Center

Mappa degli edifici del World Trade Center

Come vedete, effettivamente il WTC7 e’ completamente protetto dal WTC6 che impedisce a qualsiasi detrito di danneggiare l’edificio.

Spesso pero’, quelli che pensano i complotti, dimenticano che le spiegazioni piu’ semplici sono quelle che andrebbero considerate per prime. Siamo a New York, Stati Uniti di America, dove si costruiscono grattacieli con altezze completamente diverse. Invece di fermarci alla planimetria, vediamo un prospetto della zona con le altezze in scala degli edifici:

Modello 3D degli edifici del World Trade Center

Modello 3D degli edifici del World Trade Center

Notato niente? Guardate quanto e’ alto il WTC7 rispetto al WTC6 che si trova di fronte. Praticamente questo edificio vede benissimo la torre di fronte ed e’ completamente esposto alla caduta dei detriti.

Cosa e’ successo precisamente l’11 settembre 2001?

Durante la caduta della torre piu’ vicina, il WTC7 ha subito alcuni danni strutturali, come riportato in questa foto:

Dettaglio del WTC7 dopo il crollo della torre piu' vicina

Dettaglio del WTC7 dopo il crollo della torre piu’ vicina

Come si vede, e come indicato enlla foto stessa utilizzata nei rapporti ufficiali, il WTC7 ha subito, durante il crollo della torre, danni evidenti ai piani alti. Sempre a causa della caduta di detriti, sono divampati anche incendi all’interno dell’edificio.

E’ strano questo?

Assolutamente no, come ricorderete bene, ci sono stati numerosissimi casi di incendi a terra a causa di detriti in fiamme caduti dalle torri. Uno di questi ha colpito il WTC7 in cui sono divampati incendi.

Allora, anche qui abbiamo un edificio danneggiato, anche se lievemente, ed un incendio in corso. Poi? Quello che e’ successo e’ evidente, l’edificio e’ stato lasciato crollare. Perche’? Ovviamente, tutti gli occupanti erano stati fatti evacuare. I pompieri erano in notevole difficolta’ per tenere sotto controllo le torri. Abbiamo un edifico vuoto, danneggiato e che brucia. Inoltre, per lungo tempo c’e’ stata mancanza di acqua per cui, anche volendo, i pompieri non hanno avuto modo di domare l’incendio all’interno del WTC7. Detto questo, l’edificio e’ stato lasciato al suo destino. In questo caso, come anticipato, ci e’ voluto molto piu’ tempo affinche’ il WTC7 crollasse e infatti, e su questo sono tutti d’accordo, il crollo e’ avvenuto solo nel pomeriggio inoltrato ora di New York.

Dunque, anche per il WTC7 esiste una spiegazione razionale ottenuta dall’analisi condotta fino a questo punto.

Resta da analizzare l’aereo che e’ arrivato contro il pentangono. In questo caso, le teorie complottiste parlano di una manovra impossibile da fare per un aereo di linea dal momento che il punto di impatto e’ tra il piano terra e il primo piano, dunque troppo vicino al terreno, che il carello si sarebbe abbassato da solo sotto una certa quota, ma soprattutto che un velivolo cosi’ basso avrebbe necessariamente fatto danni attraversando la vicina autostrada. Secondo queste ipotesi, in questo caso non si e’ nemmeno trattato di un aereo, bensi’ di un missile cruise. Questo avvalora l’ipotesi secondo la quale non si e’ trattato di un attentato ma di un auto attacco da parte del governo per permettere le future politiche in medio Oriente.

Prima cosa, molte delle foto che trovate in rete e che parlano di foro troppo piccolo e incompatibile con quello che lascerebbe un aereo sono false. Quelle reali, dimenticano di considerare che molte delle parti dell’aereo sono in realta’ estremamente leggere e dunque dotate di potere di penetrazione molto basso, soprattutto se rapportate con una struttura di cemento armato rinforzato come quella del pentagono. Detto questo, mi sento di escludere subito l’ipotesi missile.

Restano pero’ le altre supposizioni. Prima di tutto, e’ assolutamente falso dire che i carrelli degli aerei si abbassano da soli. Inoltre, non mi sembra che sia cosi’ impossibile centrare il bersaglio. Come giustamente fatto notare nelle controipotesi, ogni giorno tutti gli aerei centrano il bersaglio rappresentato dalla pista di atterraggio. Ci sono tantissimi aereoporti in cui le piste sono in posizioni davvero scomode, vicino al mare, deitro le montagne, ecc. Condizioni che devono essere studiate molto bene, ma che vengono eseguite senza problemi.

Inoltre, non e’ affatto vero che il volo radente dell’aereo non e’ passato sulla vicina autostrada. Vi mostro una foto:

Palo divelto sull'autostrada di fronte al pentagono

Palo divelto sull’autostrada di fronte al pentagono

Come vedete, questi sono i piloni dell’illuminazione dell’autostrada che sono stati abbattutti dal passaggio dell’aereo. Questa ipotesi viene utilizzata per mostrare l’incompatibilita’ della traiettoria seguita. Se l’aereo non ha toccato l’autostrada, come ha fatto a volare poi rasoterra vicino al pentagono? Questo implicherebbe una manovra non possibile con un aereo di quelle dimensioni. Questa foto che ho mostrato, come tante altre che trovate in rete, mostrano l’esatto contrario. Al passaggio sull’autostrada, il volo dirottato era gia’ molto basso e puntava dritto contro il pentangono.

Riassumendo, i crolli delle torri gemelle e del WTC7 sono perfettamente compatibili con la versione ufficiale. Inoltre, le simulazioni FEM fatte sugli edifici per studiare la dinamica dell’impatto hanno dato risultati perfettamente compatibili con quelli visti in quel tragico giorno. Questo solo per mentire tutte quelle voci che vorrebbero l’attentato mediante aerei solo una messa in scena per distrarre dalle cariche piazzate all’interno dell’edificio. Come visto, il crollo del WTC7 e’ del tutto compatibile con la caduta dei detriti che hanno dapprima danneggiato l’edificio e poi fatto divampare l’incendio che ha bruciato per ore. Questo dimostra anche la non fondatezza delle ipotesi sulla caduta verticale o sulla demolizione programmata delle torri.

Per quanto riguarda il pentagono, come visto, la traiettoria seguita dall’aereo e’ perfettamente compatibile con quella pensata. Il velivolo ha volato in assetto quasi parallelo al terreno gia’ quando si trovava sopra la vicina autostrda. A riprova di questo, ci sono prove fotografiche che mostrano i pali dell’illuminazione divelti dal passaggio a bassa quota. Questo anche per escludere l’ipotesi quanto mai fantasiosa del missile cruise.

Ultima considerazione. Come detto all’inizio di questo lunghissimo articolo, il mio scopo era solo quello di analizzare i crolli e ragionare sulle tante ipotesi di complotto che si sono alimentate nel corso degli anni. Non voglio fare un trattato di economia e politica internazionale, ne tantomeno parlare di governo centrale degli Stati Uniti. Possiamo dire che gli attentatori erano pagati dal governo USA? Personalmente, credo di no, ma non sta a me dirlo ne tantomeno riuscire a dimostrarlo ragionando scientificamente.

Vorrei pero’ farvi riflettere su un’ultima cosa. A mio avviso, gli attentati dell’11 settembre 2001 hanno mostrato un paese non pronto ad attacchi di questo tipo. Molti fanno ipotesi complottiste ragionando sul fatto che i caccia non si siano alzati per abbattere gli aerei dirottati o che non ci fosse un adeguato sistema di controllo e difesa. Secondo me, il discorso non e’ neanche questo. Gli Stati Uniti, prima del 2001, erano abituati a combattere guerre fuori dai loro confini. Con l’attentato del World Trade Center hanno scoperto che il mondo globalizzato era in grado di portare la guerra anche dentro i loro confini. E’ facile pensare ad una potenza bellica perfetta finche’ questa non viene testata sul campo. Nel caso degli USA, fino a quel momento, il paese pensava di essere invincibile e immune da attacchi di questo tipo. Purtroppo, anche sotto questo aspetto, l’11 settembre 2001 ha segnato un momento di svolta epocale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Orologi atomici e precisione del tempo

25 Ago

Qualche giorno fa, le pagine scientifiche di molti giornali hanno ospitato una notizia che e’ passata un po’ in sordina ma che, a mio avviso, merita di essere commentata se non altro per le interessanti discussioni a corollario. La notizia in questione, che molto sicuramente avrete letto, parlava di una nuova serie di orologi atomici costruiti dai ricercatori del NIST, National Institute of Standards and Technology, e che sono in grado di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo.

Leggendo questa notizia, credo che le domande classiche che possono venire in mente siano: come funziona un orologio atomico? Come si definisce il secondo? Ma soprattutto, a cosa serve avere un orologio tanto preciso?

In realta’, rispondere a queste domande, non e’ cosa facile ma cercheremo di farlo sempre in modo divulgativo spiegando passo passo tutti i concetti richiamati.

Prima di tutto, cos’e’ il tempo? Come potete immaginare, in questo caso la risposta non e’ semplice, ma richiama tantissime discipline, non solo scientifiche, che da secoli si sono interrogate sulla migliore definizione di tempo. Tutti noi sappiamo che il tempo passa. Come ce ne accorgiamo? Proprio osservando il trascorrere del tempo, cioe’ degli avvenimenti che osserviamo intorno a noi. In tal senso, scientificamente, possiamo definire il tempo come quella dimensione nella quale si misura il trascorrere degli eventi. Questa definizione ci permette dunque di parlare di passato, presente e futuro, dividendo gli eventi in senso temporale. Ovviamente, non e’ l’unica definizione che potete dare di tempo e forse neanche la piu’ affascinante ma, sicuramente, e’ la piu’ pratica per l’utilizzo che se ne vuole fare nelle scienze.

salvador_dali

Detto questo, se parliamo di tempo come una dimensione, dobbiamo saper quantificare in qualche modo il suo scorrere. Detto in altri termini, abbiamo bisogno di un’unita’ di misura. Nel “Sistema Internazionale di unita’ di misura”, che e’ quello accettato in molti paesi e considerato la standard a cui riferirsi, l’unita’ di misura del tempo e’ il secondo.

Come viene definito un secondo?

Storicamente, la definizione di secondo e’ cambiata molte volte. Nella prima versione, il secondo era definito come 1/86400 del giorno solare medio. Questa definizione non e’ pero’ corretta a causa del lento e continuo, per noi impercettibile, allungamento delle giornate dovuto all’attrazione Terra-Luna e alle forze mareali, di cui abbiamo parlato in questo post:

Le forze di marea

Utilizzando pero’ questa definizione, non avremmo avuto a disposizione qualcosa di immutabile nel tempo. Per ovviare a questo problema, si decise dunque di riferire il secondo non piu’ in base alla rotazione della terra su se stessa, ma a quella intorno al Sole. Anche questo movimento pero’ e’ non uniforme, per cui fu necessario riferire il tutto ad un preciso anno. Per questo motivo, il secondo venne definito nel 1954 come: la frazione di 1/31 556 925,9747 dell’anno tropico per lo 0 gennaio 1900 alle ore 12 tempo effemeride. La durata della rotazione intorno al Sole era conosciuta da osservazioni molto precise. Qualche anno dopo, precisamente nel 1960, ci si rese conto che questa definizione presentava dei problemi. Se pensiamo il secondo come una frazione del giorno solare medio, chi ci assicura che il 1900 possa essere l’anno in cui il giorno aveva la durata media? Detto in altri termini, le definizioni date nei due casi possono differire tra loro di una quantita’ non facilmente quantificabile. Dovendo definire uno standard per la misura del tempo, conosciuto e replicabile da chiunque, abbiamo bisogno di un qualcosa che sia immutabile nel tempo e conosciuto con grande precisione.

Proprio queste considerazioni, portarono poi a prendere in esame le prorieta’ degli atomi. In particolare,  si penso’ di definire il secondo partendo dai tempi necessari alle transizioni atomiche che ovviamente, a parita’ di evento, sono sempre identiche tra loro. Proprio per questo motivo, il secondo venne definito come: la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell’atomo di cesio-133. In questo modo si e’ ottenuta una definizione con tutte le proprieta’ che abbiamo visto.

A questo punto, la domanda e’: come misurare il tempo? Ovviamente, di sistemi di misurazione del tempo ne conosciamo moltissimi, sviluppati e modificati nel corso dei secoli e ognuno caratterizzato da una precisione piu’ o meno elevata. Cosa significa? Affinche’ un orologio sia preciso, e’ necessario che “non perda un colpo”, cioe’ che la durata del secondo misurata sia quanto piu’ vicina, al limite identica, a quella della definizione data. In caso contrario, ci ritroveremo un orologio che dopo un certo intervallo, giorni, mesi, anni, migliaia di anni, si trova avanti o indietro di un secondo rispetto allo standard. Ovviamente, piu’ e’ lungo il periodo in cui questo avviene, maggiore e’ la precisione dell’orologio.

Come tutti sanno, gli orologi piu’ precisi sono quelli atomici. Cosi’ come nella definizione di secondo, per la misura del tempo si utilizzano fenomeni microscopici ottenuti mediante “fontane di atomi”, eccitazioni laser, o semplici transizione tra livelli energetici. Al contrario, negli orologi al quarzo si utilizza la vibrazione, indotta elettricamente, degli atomi di quarzo per misurare il tempo. La bibliografia su questo argomento e’ molto vasta. Potete trovare orologi atomici costruiti nel corso degli anni sfruttando proprieta’ diverse e con precisioni sempre piu’ spinte. Negli ultimi anni. si e’ passati alla realizzazione di orologi atomici integrando anche fasci laser e raffreddando gli atomi a temperature sempre piu’ vicine allo zero assoluto.

Nel caso della notizia da cui siamo partiti, l’orologio atomico costruito sfrutta la transizione di atomi di itterbio raffreddati fino a 10 milionesimi di grado sopra lo zero assoluto indotta mediante fasci laser ad altissima concentrazione. Questo ha permesso di migliorare di ben 10 volte la precisione dell’orologio rispetto a quelli precedentemente costruiti.

A questo punto, non resta che rispondere all’ultima domanda che ci eravamo posti all’inizio: a cosa serve avere orologi cosi’ precisi? Molto spesso, leggndo in rete, sembrerebbe quasi che la costruzione dell’orologio piu’ preciso sia una sorta di gara tra laboratori di ricerca che si contendono, a suon di apparecchi che costano milioni, la palma della miglior precisione. In realta’ questo non e’ vero. Avere una misura sempre piu’ precisa di tempo, consente di ottenere risultati sempre piu’ affidabili in ambito diverso.

Per prima cosa, una misura precisa di tempo consente di poter sperimentare importanti caratteristiche della relativita’. Pensate, ad esempio, alla misura della distanza tra Terra e Luna. In questo caso, come visto in questo articolo:

Ecco perche’ Curiosity non trova gli alieni!

si spara un laser da Terra e si misura il tempo che questo impiega a tornare indietro. Maggiore e’ la precisione sulla misura del tempo impiegato, piu’ accurata sara’ la nostra distanza ottenuta. Molto spesso infatti, si suole misurare le distanze utilizzando tempi. Pensiamo, ad esempio, all’anno luce. Come viene definito? Come la distanza percorsa dalla luce in un anno. Tempi e distanze sono sempre correlati tra loro, condizione per cui una piu’ accurata misura di tempi  consente di ridurre l’incertezza in misure di distanza.

Anche quando abbiamo parlato del sistema GPS:

Il sistema di posizionamento Galileo

Abbiamo visto come il posizionamento viene fatto misurando le differenze temporali tra i satelliti della galassia GPS. Anche in questo caso, la sincronizzazione e’ fondamentale per avere precisioni maggiori nel posizionamento. Non pensate solo al navigatore che ormai quasi tutti abbiamo in macchina. Questi sistemi hanno notevole importanza in ambito civile, marittimo, militare. Tutti settori di fondamentale importanza per la nostra societa’.

Concludendo, abbiamo visto come viene definito oggi il secondo e quante modifiche sono state fatte nel corso degli anni cercando di avere una definizione che fosse immutabile nel tempo e riproducibile per tutti. Oggi, abbiamo a disposizione molti sistemi per la misura del tempo ma i piu’ precisi sono senza dubbio gli orologi atomici. Come visto, ottenere precisioni sempre piu’ spinte nella misura del tempo e’ di fondamentale importanza per tantissimi settori, molti dei quali anche strategici nella nostra soscieta’. Ad oggi, il miglior orologio atomico realizzato permette di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo, cioe’ circa 14 miliardi di anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il led rosso dello standby …

19 Mar

Anche se il titolo del post puo’ sembrare alquanto strano, vorrei semplicemente fare una riflessione in questo articolo. In particolare, vorrei concentrarmi su quella miriade di piccoli LED che abbiamo nei nostri dispositivi elettronici e che segnalano lo stato di standby o anche di accensione passando dal rosso al verde.

Perche’ faccio questa considerazione?

Riflettiamo un attimo su una cosa. In casa, tutti noi, abbiamo diversi dispositivi elettronici. Ognuno di questi ha molto spesso un led che segnala il suo stato e che rimane costantemente acceso. Sicuramente, il piu’ famoso di questi e’ quello del televisore.

Bene, prima di tutto, anche se sembrera’ incredibile, c’e’ ancora chi pensa che quel piccolo led di stato serva per scopi diversi da quelli che vogliono farci credere.

Non scherzo se dico che in rete c’e’ ancora chi cerca di convincere le persone che quel led sia usato da “non si sa chi” per spiare all’interno delle nostre case. In questi racconti fantascientifici, la lucetta sarebbe utilizzata per una sorta di “grande fratello” gestito da oscuri poteri interessati a studiarci e a capire le nostre abitudini. Ovviamente, si tratta di fantasie senza senso e anche abbastanza datate. Ero bambino io quando si raccontava questa storia e per spaventarci ci invitavano a spegnere sempre l’interrutore della TV per evitare di far sapere quello che facevamo ogni istante.

led-stand-by

Oltre alla funzione spia, c’e’ anche chi pensa che in realta’ quel led sia una pericolosa arma. Mi viene quasi da ridere pensandoci, ma ci sono siti veramente convinti che la luce emani potenti radizioni in grado di danneggiare le nostre funzioni cerebrali mediante onde elettromagnetiche. Ora, smentire queste voci e’ abbastanza semplice. Mantenendo un profilo scientifico, basta pensare a quanti led, display e lucine varie abbiamo dentro casa. In questo senso, un qualsiasi dispositivo illuminato sarebbe in grado di danneggiare il nostro cervello o di inquinare elettromagneticamente l’ambiente in cui viviamo. Anche in questo caso, si tratta di teorie assurde e che in realta’ nascondo il vero inquinamento elettromagnetico in cui siamo costantemente immersi.

Detto questo pero’, torniamo al vero senso dell’articolo. Quello che mi sono chiesto e’: quanto consuma quel piccolo led che tutti abbiamo in casa?

Se ci pensate, in diversi post:

Elezioni, promesse verdi e protocollo di Kyoto

Il futuro verde comincia da Masdar

Energia solare nel deserto

Pannelli, pannelli e pannelli

abbiamo parlato di energie rinnovabili, di consumo energetico, di citta’ ad impatto zero. Tutte le volte ci siamo soffermati a parlare di quanto sarebbe bello sfruttare le rinnovabili per produrre energia e di quanto consumista e’ divenuta la nostra societa’.

Bene, a cosa serve quel piccolo led? Assolutamente a nulla o meglio, non serve a niente nel momento in cui non vogliamo utilizzare quel particolare apparecchio che e’ in standby in attesa che prima o poi qualcuno gli dia un comando e che possa iniziare a funzionare.

Proviamo dunque a fare un calcolino della serva per cercare di capire quanto quella lucetta incide sul nostro consumo energetico.

Cercando in rete, si trovano numeri completamente diversi e utenti, specialmente sui forum, pronti ad insultarsi per portare avanti un dato piuttosto che un altro. Perche’ avviene questo? In realta’ il motivo e’ molto semplice. Da un lato ci sono gli ambientalisti che vogliono sostenere gli enormi consumi spalmati in un anno di questi led, dall’altro ci sono gli altri che invece sostengono l’impatto nullo nel consumo totale di una famiglia tipo.

Dov’e’ la verita’?

Per poter rispondere a questa domanda, proviamo da soli a fare qualche calcolo.

Quel piccolo led richiede, in media, per poter funzionare, una corrente di 20mAh. Lavorando ad una tensione, sempre considerando valori medi, di circa 2V, il consumo che si ottiene e’ di 40mWh, cioe’ 40 millesimi di Wattora. Utilizziamo il wattora, cioe’ l’energia richiesta per fornire una potenza di 1 W in un’ora, proprio per avere un raffronto diretto con i nostri consumi. Se prendete una bolletta della luce, i consumi vengono conteggiati (e contabilizzati) appunto in questa unita’ di misura.

40mWh e’ un valore molto molto basso ed e’ su questo che molti giocano mostrando il contributo completamente nullo di questo consumo. In realta’, disponendo di un misuratore di potenze, ci si accorge che il consumo del led del televisore e’ molto superiore a questo valore. Perche’? Per quanto inutile, il led non e’ li per bellezza ma indica lo stato di standby del televisore, cioe’ l’elettrodomestico e’ spento ma pronto a ricevere in un qualsiasi momento un segnale dal telecomando. Cosa significa? Con l’apparecchio in standby, non viene alimentato solo il led, ma anche altri circuiti come, ad esempio, il ricevitore, una parte della scheda madre, circuiti secondari, ecc. Tutti “pezzi” che assorbono dalla rete e che sono alimentati.

In questo senso, il consumo di un televisore in stand-by puo’ benissimo arrivare anche a 3Wh, cioe’ circa 100 volte di piu’ di quanto calcolato con il singolo led. Ovviamente questo valore dipende da molti fattori: tipologia della TV, anno di costruzione, produttore, ecc. Dati importanti ma che possono far variare di poco il valore del consumo. Volendo fare un conto di massima, non ci preoccupiamo di questo e andiamo avanti.

Ora, se pensiamo ad una TV accesa 3 ore al giorno, per altre 21 l’apparecchio e’ in stand-by. Quanto consuma: 3Wh x 21 ore x 365 giorni in un anno, fanno la bellezza di 23KWh, cioe’ 23000 W.

In bolletta paghiamo qualcosa come 0.3 euro/KWh, dunque per un televisore in standby 21 ore al giorno stiamo pagando 5,75 euro all’anno.

Nemmeno 6 euro all’anno? Tutto questo calcolo per cosi’ poco?

Facciamo una riflessione. La TV, il pc fisso, il portatile, la stampante, ecc, ognuno di questi elettrodomestici ha il suo led. Se abbiamo 10 dispositivi di questo tipo, stiamo regalando al fornitore circa 60 euro all’anno consumati per non fare nulla.

Ancora non vi basta? Quanti televisori, rimaniamo in questo esempio, ci sono in Italia? Da una stima grossolana possiamo supporre circa 30 milioni. 30 milioni per 5,75 euro fanno circa 170 milioni di euro! Per fare cosa? Sempre per tenere accesa una lucina.

Ora, tralasciando i sensazionalismi, questi valori possono anche sembrare irrisori per la singola famiglia, ma pensiamo al numero di televisori in Italia e al consumo annuo che abbiamo calcolato. Perche’ dobbiamo “buttare” tutta questa energia senza uno scopo? Allarghiamo il discorso al mondo intero. Quanti elettrodomestici ci sono?

Il mio discorso non vuole essere ne ambientalista ne tranquillizzatore a tutti i costi. Semplicemente la domanda e’: perche’ dobbiamo sprecare tutta questa energia quando poi siamo pronti a parlare di rinnovabili, di futuro energetico o di inquinamento?

Ovviamente, potremmo stare a disquisire ore sulla correttezza dei dati utilizzati, sulla sovrastima o sottostima dei numeri. Discorsi da cui non se ne esce, ma la cosa importante e’ che gli ordini di grandezza in gioco sono proprio questi.

Non per fare un discorso banale, ma e’ giusto pensare al futuro energetico del nostro mondo, ma e’ altresi’ giusto pensare anche a non sprecare l’energia di cui si dispone. Questi due concetti devono sempre andare di pari passo. Ognuno di noi, nel suo piccolo, deve contribuire come meglio puo’. Parliamo tanto di risparmio energetico, bene iniziamo dalle piccole cose ognuno di noi facendo del suo meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Elezioni, promesse verdi e protocollo di Kyoto

6 Feb

Come tutti sanno, qui in Italia, siamo nel pieno della campagna elettorale per le elezioni politiche. Non passa un giorno senza che i nostri candidati premier promettano questo o quest’altro, facendo a gara tra loro a chi riesce a fare la “sparata”, perche’ in genere solo di questo si parla, piu’ grossa in TV o sui giornali.

Ovviamente, lungi da me fare un discorso politico su questo blog. La premessa fatta, e su questo credo che nessuno possa dire il contrario, e’ indipendente da destra, sinistra, centro, sopra e sotto.

Oggi pero’, leggendo il giornale, vedo una serie di notizie che mi hanno fatto riflettere. Tutti hanno cominciato a parlare di ambiente e si sono resi conto che nei programmi elettorali non poteva certo mancare anche la promessa su queste tematiche. In particolare, proprio oggi, ci sono state una serie di dichiarazioni riguardanti proprio la politica delle rinnovabili e lo sfruttamento o meno di determinate risorse italiane.

A cosa mi riferisco?

7252Cominciamo proprio dal discorso sfruttamento. Nel canale di Sicilia sta facendo molto discutere la scelta di installare piattaforme per l’estrazione petrolifera. Prima di tutto, su molte fonti si e’ iniziato a parlare di tecniche di fracking, di pericolo terremoti o anche della possibilita’ che attivita’ di questo tipo possano creare tsunami nei nostri mari.

Di fracking abbiamo parlato piu’ volte, ad esempio, in questi post:

Fratturazione idraulica

Una prova del fracking in Emilia?

Innalzamento dei pozzi in Emilia prima del sisma

Come sappiamo, queste tecniche sfruttano l’inserimento nel terreno di fluidi ad alta pressione i quali, mediante un azione corrosiva, riescono a facilitare l’estrazione di idrocarburi, ma principalmente di gas. Come visto nei post precedenti, questo genere di attivita’ ha veramente mostrato la possibilita’ di innescare terremoti di intensita’ molto lieve anche a distanza di alcni giorni dall’immisione dei fluidi nel sottosuolo. Ci tengo a sottolineare che stiamo parlando di lievi scosse, non esiste nessun caso al mondo, documentato, in cui il fracking abbia creato terremoti di magnitudo elevata.

Dell’utilizzo del fracking ne abbiamo parlato nel caso del terremoto dell’Emilia del 2012. Come visto, questa relazione era in realta’ completamente campata in aria e questa attivita’ assolutamente non documentata prima ancora che connessa con il terremoto.

Tornando al caso dello stretto di Sicilia, i timori principali vengono dal fatto che questa e’ una zona da sempre considerata a rischio terremoti, vista anche la presenza di strutture del terreno molto diversificate, in grado di provocare l’amplificazione delle onde sismiche, ma anche grazie alla presenza di linee di faglia proprio nello stretto.

Diciamo subito che l’estrazione del petrolio nello stretto non prevede assolutamente l’utilizzo del fracking e non c’e’ assolutamente nessun pericolo terremoto in queste attivita’.

Queste considerazioni rispondono da sole alle accuse mosse in questa direzione, anche se la cosa principale da valutare e’ in realta’ l’utilita’ di queste trivellazioni. La nostra penisola, e ovviamente i mari che la circondano, sono molto poveri di giacimenti di idrocarburi e lo stretto di Sicilia non e’ assolutamente da meno. Il problema principale non e’ nemmeno l’utilizzo del fracking o delle trivellazioni, ma semplicemente la poverta’ dei giacimenti che sarebbero in grado di fornire una quantita’ di petrolio assolutamente non elevata. Per darvi un’idea, se anche si estraesse di colpo tutto il petrolio presente nel giacimento, questo sarebbe sufficiente alla nostra nazione solo per 2-3 mesi. Dunque? Forse la spesa non vale l’impresa, come si dice dalle mie parti.

Parlando invece di rinnovabili, il discorso sarebbe leggermente piu’ complesso, se non altro per la grande diversificazione delle fonti sfruttabili, ognuna con le proprie caratteristiche e i propri limiti. Rimanendo sul punto di vista elettorale, oggi tutti si dicono convinti nel sostenere l’utilizzo delle rinnovabili , dimenticando pero’ di fare un discorso a lungo termine.

Le rinnovabili, quali Sole e vento in primis, sono ampiamente disponibili in Italia e, ad oggi, ancora poco sfruttate. Quello che pero’ i nostri politicanti dimenticano di considerare, come sempre avviene non solo su questo tema, e’ la prospettiva ad ampio respiro. Di anno in anno, gli incentivi per l’installazione, ad esempio, di un impianto fotovoltaico sono diminuiti e hanno raggiunto un minimo con il quinto conto energia del 2012. Ovviamente ancora oggi conviene installare un impianto domestico per l’autosostentamento, ma questo principalmente grazie alla riduzione del costo dei pannelli e al leggero incremento in termini di rendimento dell’impianto stesso.

Ho preso come esempio il caso solare perche’ e’ quello piu’ noto e piu’ comune nei discorsi abitativi privati. Questo esempio e’ importante per capire la prospettiva futura. Lo sfruttamento delle rinnovabili ora non potra’ essere lo stesso tra 20 o 30 anni. Se pensiamo che anno dopo anno, il consumo medio di energia elettrica aumenta nel mondo vertiginosamente, e’ impensabile dare corrente a tutti questi paesi semplicemente con dei pannelli sopra il tetto o con qualche pala nel mare. Quello che i nostri politicanti dovrebbero capire e’ che investire nelle rinnovabili significa investire nella ricerca in questo settore. Per darvi qualche esempio, in campo solare vi sono molte soluzioni futuribili su cui si sta lavorando: solare termodinamico, ricerca su nuovi materiali, specchi, nanopraticelle, ecc. Tutte soluzioni che potrebbero incrementare la produzione di corrente elettrica per superficie occupata.

Abbandonando un attimo il discorso rinnovabili, si dovrebbe investire, ad esempio, nel campo della fusione nucleare. Questo settore e’ assolutamente appetibile e riesce a mettere d’accordo praticamente tutti: pro e contro nucleare, ambientalisti e imprenditori. La fusione nucleare consentirebbe di ottenere energia molto facilmente, con impianti puliti, senza emissioni e senza scorie radioattive. Cosa si potrebbe desiderare di meglio? Ovviamente siamo ancora lontani, ad oggi, dal pensare una centrale civile per la produzione di corrente che funzioni a fusione, ma per poter arrivare a questo e’ necessario investire in questo settore.

Concludendo questa parte, e’ inutile parlare di green economy se non si parla di investire nella ricerca, sia essa scientifica o tecnologica. Quando sentiamo dire che la scienza puo’ aiutarci a vivere meglio, stiamo parlando di questo, cioe’ di soluzioni in grado di farci vivere meglio, in un ambiente meno inquinato e non sfruttando come virus le risorse del nostro pianeta attaccandole fino all’ultima goccia.

Prima di chiudere, vorrei uscire un secondo dai nostri confini ma sempre rimanendo in tema ambientale. Proprio di questi giorni e’ la notizia che gli Stati Uniti hanno finalmente deciso di sottoscrivere il protocollo di Kyoto. Come sapete, in questo trattato gli stati si sono ripromessi di ridurre notevolmente l’emissione di gas serra nell’ambiente mediante una migliore politica ambientale ed industriale. Pensate che gli USA per anni hanno rifiutato di sottoscrivere il trattato anche se da soli producono circa il 36% dei gas serra a livello mondiale. Questo potrebbe forse essere un primo vero passo in avanti nelle politiche green degli Stati Uniti.

In questa breve discussione, abbiamo dunque cercato di analizzare il punto di vista scientifico nella produzione di energia da fonti rinnovabili. Anche in questo settore, la vera prospettiva futura e’ quella di un investimento reale nella ricerca al fine di poter migliorare la tipologia e la qualita’ delle fonti rinnovabili (e non) utilizzate. Questo messaggio e’ estremamente importante ed e’ quello che i futuri governanti, di qualsiasi colore, dovrebbero sempre tenere a mente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.