Tag Archives: basi

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Luna: quanto c’e’ da scoprire!

7 Feb

Negli ultimi tempi, purtroppo o fortunatamente fate voi, i nostri amici catastrofisti e complottisti stanno vivendo un periodo di magra da notizie sensazionali. Qualcuno e’ sempre alla ricerca di una fine del mondo prossima per questo o quest’altro motivo, altri cercano ancora disperatamente Nibiru, altri poi, al solito, si lanciano nelle ipotesi piu’ arzigogolate alla ricerca della notizia bomba che quasi sempre si chiude con un flop. In questo panorama poco affascinante, non resta che buttarsi su un settore in cui c’e’ sempre qualcosa da trovare e con cui cercare di convincere le persone, l’esplorazione spaziale e le tante prove che quei cattivoni della NASA hanno nascosto evidenze che dimostrerebbero l’esistenza degli alieni.

Perche’ dico questo?

Semplice, negli ultimi giorni, molti siti hanno dato la notizia che qualcosa di nuovo e’ stato scoperto sulla Luna. Il nostro satellite, se non fosse altro per la distanza, e’ da sempre un laboratorio complottista d’eccezione. Questa volta, a far discutere ci ha pensato una foto del lato oscuro scoperta da un utente di youtube e pubblicizzata immediatamente sulla rete.

Senza perdere tempo nella presentazione, vi mostro subito la foto:

 

L'amnomalia trovata sulla superficie lunare

L’amnomalia trovata sulla superficie lunare

Come vedete, si evidenzia una struttura triangolare molto precisa, corredata da quelle che sembrerebbero due file di luci disposte a 90 gradi. Ovviamente, questa foto ha scatenato gli animi un po’ assopiti dei complottisti di tutto il mondo. Senza giri di parole, si tratta di una basa aliena costruita in quello che si chiama Mare Moscoviense. Per darvi un’idea delle dimensioni, parliamo di qualcosa con un lato di circa 200 metri misurabile tenendo in considerazione la risoluzione dell’immagine stessa.

Quella della base aliena non e’ assolutamente l’unica ipotesi e, lasciatemi dire, neanche la piu’ fantasiosa. C’e’ chi parla di tunnel di accesso ad una base sotterranea, chi di varco dimensionale, altri ancora di qualcosa costruito dall’uomo. Gia’, anche se sembra assurdo, sono in molti a creare storie strampalate sulle missioni lunari.

Prima di tutto, come sappiamo bene, c’e’ ancora chi crede che sulla Luna non ci siamo andati. Su questo punto, mi dispiace dirvelo, ma, cari complottisti, vi dovete arrendere. Come sappiamo, prova schiacciante della nostra visita sulla Luna sono gli array di CCR posizionati sulla superificie e con cui, ancora oggi, facciamo misure di distanza Terra-Luna sparando laser da terra e misurando il tempo di ritorno. Di queste tecniche, note come Lunar Laser Ranging, e dei CCR abbiamo parlato in questo articolo:

Ecco perche’ Curiosity non trova gli alieni!

Tolta questa ipotesi, c’e’ invece chi crede epiloghi diversi per le missioni lunari. Secondo alcuni, nella celebre missione dell’Apollo 11, ci sarebbe stato anche un altro astronauta poi lasciato, come prevedeva la missione, sul nostro satellite. Questo sfortunato eroe sarebbe stato selezionato appunto per rimanere a vita sulla Luna dotato di generatori di ossigeno e cibo. Altra ipotesi affascinante e’ che invece ci siano state numerose missioni precedenti all’Apollo 11 con lo scopo di portare rifornimenti e costruire serre sul satellite.

Lasciate queste fantasiose ipotesi, torniamo alla foto da cui siamo partiti.

Di cosa si tratta?

Per poter rispondere a questa domanda, e’ necessario fare delle considerazioni pratiche. Prima cosa, da dove e’ stata estrapolata questa immagine? Come forse avrete letto, l’utente ha trovato questa anomalia utilizzando Google Moon, il software di Mountain View che consente di osservare la superificie lunare.

Lasciatemi fare una considerazione che non posso proprio risparmiarmi. Ma questi utenti della rete, come passano le loro giornate? Come spesso avviene, arriva qualcuno che mostra anomalie microscopiche sulla Terra, sulla Luna, su Marte, ecc. Ma queste persone, passano la loro vita a scartabellare archivi spaziali alla ricerca di cose strane da pubblicare in rete? Il discorso non e’ affatto banale, tra milioni di foto a cui si ha accesso mediante la rete, ogni tanto esce qualcuno che mostra cose particolari. Ma quante foto vi siete visti?

Chiusa la parentesi, parliamo della foto. Sapete come e’ costruito il programma Google Moon? Esattamente come Google Earth. Se per avere le immagini 3D delle strade Google utilizza le sue celebri “car” che scattano foto a destra e a manca, non possiamo certo pensare che il colosso del motore di ricerca abbia satelliti in giro per lo spazio che fanno foto di ogni angolo di pianeta.

Per costruire le mappe satellitari, Google utilizza vari archivi presenti in rete e fa un collage molto attento di quelli che possiamo vedere come pezzi di un puzzle. Come potete facilmente immaginare, si tratta di foto a risoluzione, luminosita’ e contrasto diversi. Per poterle affiancare si sfrutta dunque un software in grado di rendere compatibili le immagini per poi “appicicarle” una di fianco all’altra. Questo avviene in tutti i programmi di Google. Ora, come e’ noto, a volte succede che questo programma sbagli creando effetti molto curiosi. Non e’ certo una rarita’ trovare nella versione Earth paesi scomparsi, sdoppiati, strane linee che non esistono, nubi che si interrompono seguendo linee rette, ecc.

Come avrete capito, stiamo lentamente andando verso l’ipotesi piu’ plausibile per spiegare l’anomalia mostrata. Altra considerazione, se quel qualcosa che vediamo fosse veramente un manufatto reale, sicuramente sarebbe unico sulla superficie lunare o meglio, non ci sarebbero tanti oggetti simili sulla Luna.

Ora vi mostro qualche altra immagine:

Altre anomalie simili trovate su Google Moon

Altre anomalie simili trovate su Google Moon

Guardate un po’ quante basi lunari si possono trovare andando a esplorare virtualmente la superficie. Come vedete, si tratta di strutture molto simili a quella da cui siamo partiti e tutte presenti nel lato oscuro della Luna.

Dunque?

Anche in questo caso, siamo di fronte alla solita bufala pubblicizzata alla grande sulla rete per mostrare cose che non esistono. Guardando foto brulle ma ricche di sfumature delle superfici dei pianeti, e’ facile trovare qualcosa che assomigli a qualcos’altro o, come nel caso delle immagini di Google riadattate, trovare anomalie e difetti di immagine. Purtroppo, questo non e’ il primo caso e non sara’ sicuramente l’ultimo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

11 settembre 2001: USA sotto attacco

23 Set

Dalla discussione avuta con un nostro caro lettore, mi e’ stato richiesto eplicitamente un articolo sugli attentati dell’11 settembre 2001. Ovviamente, non posso che essere lusingato di questa richiesta, che mi chiede di analizzare con lo stile di questo blog, uno dei fatti piu’ cruenti e significativi degli ultimi anni.

Come sapete bene, proprio da questi fatti, molti analisti fanno iniziare la crisi economica, l’inizio di quella che potrebbe essere considerata una guerra tra Occidente e Islam ma anche un cambio di coscienza globale di una civilta’ che da un giorno all’altra si e’ trovata nell’era moderna. Queste considerazioni, non vengono fatte solo a scopo introduttivo. A mio avviso, questi fattori entrano prepotentemente nell’analisi che viene richiesta per poter inquadrare al meglio i fatti nello specifico.

Trattare il tema dell’11 settembre non e’ di per se facile. Per diversi giorni ho studiato materiale, letto interviste, visionato filmati. Come sapete bene, la rete e’ strapiena di cospirazioni pensate, o anche immaginate, riguardo a questi attentati. Ovviamente, sarebbe impossibile trattarle tutte e con elevato dettaglio. Di questo mi scuso da subito. Sono consapevole che questo articolo potrebbe scatenare una pletora di commenti, forse neanche troppo soft, di qualcuno che crede fortemente che quanto accaduta sia una grande montatura.

Proprio partendo da queste osservazioni, vorrei sottolineare una cosa. Molte teorie affondano le loro radici sul fatto che i servizi segreti sapessero in anticipo degli attentati, discutono del perche’ i caccia siano partiti troppo presto o troppo tardi dalle basi militari, del perche’ il presidente fosse rimasto cosi’ tanto tempo nella famosa scuola elementare invece di correre sul luogo dell’attentato. Se sperate di avere risposte a queste domande, vi dico subito che queste non verranno trattate e non sono materia di questo blog. Perche’? Noi siamo qui per parlare di scienza e per analizzare i complotti e le catastrofi che vengono annunciate. Fate attenzione, ho detto “analizzare”, non “smentire”. Questa e’ la sottile differenza che ci distingue da coloro che sostengono i complotti per partito preso, ma anche da coloro che cercano in tutti i modi di smontarli senza cognizione di causa. Dal nostro punto di vista, cerchiamo sempre di non partire prevenuti, ma di rimanere aperti ad ogni risultato il nostro ragionamento potrebbe raggiungere. In fondo la scienza ci insegna questo, un risultato non e’ bello o brutto a seconda che ci faccia comodo o no, e’ un risultato che deve essere sostenuto da ipotesi oggettive.

Bene, quello che dunque vogliamo analizzare in questo post e’ il discorso della caduta delle torri gemelle, anche dette WTC1 e WTC2, dell’ulteriore edificio caduto a 200 metri dalle torri, il WTC7 e dell’aereo arrivato sul Pentagono.

Come sapete bene, anche perche’ molti hanno fatto fortuna parlando di queste ipotesi, i complottisti sostengono che sia fisicamente impossibile che i due edifici principali del World Trade Center siano caduti per l’impatto degli aerei o per gli incendi sviluppati all’interno. Secondo queste teorie, il dirottamento degli aerei sarebbe stata solo una farsa creata ad hoc. In realta’, le torri sarebbero cadute perche’ precedentemente minate con esplosivo o peggio ancora con termite, una sostanza in grado di sviluppare altissime temperature con un innesco a bassa temperatura. Le prove di questo sarebbero date dalla dinmica del crollo delle torri, perfettamente compatibili con una distruzione pianificata, esattamente quella che viene fatta da esperti per buttare giu’ un palazzo. Altra teoria alternativa che sta riscuotendo sempre piu’ successo in rete, e’ quella di un ordigno nucleare fatto esplodere nel sottosuolo e che avrebbe provocato la caduta delle torri per un cedimento delle fondamenta.

Prima di analizzare il crollo delle torri, vorrei fare qualche ragionamento. Per prima cosa, tutti questi scenari si basano sul fatto che il dirottamento sarebbe stato una farsa. Ma allora la domanda e’: perche’ e’ stato fatto? Nelle innumerevoli ipotesi, non ho mai letto questa risposta. Se le torri fossero state minate o se fossero cadute per l’esplosione di una bomba atomica, perche’ dirottare gli aerei e lanciarli contro uno dei simboli degli USA? Come sapete, stiamo parlando di un attentato terroristico dunque, per sua stessa definizione, volto a creare “terrore” nelle persone. La strategia di questi gruppi non e’ tanto quella di fare migliaia di vittime, quanto quella di dimostrare di poter colpire dove e quando vogliono. Perche’ dico questo? Una delle ipotesi, con o senza esplosivo, e’ che tutto sia stato organizzato dagli USA stessi, cioe’ che quello delle torri gemelle sia stato un auto-attacco. Perche’? Semplice, almeno a quello che dicono i complottisti, questo avrebbe offerto le condizioni per far partire le diverse campagne contro l’Islam, per far crollare regimi totalitari, per impadronirsi del petrolio o di altre risorse, per controllare i paesi orientali, ecc.

E’ credibile questo? Personalmente spero di no, ma l’analisi di queste considerazioni, come anticipato, non rientra negli scopi di questo articolo. Qui vogliamo solo analizzare gli attentati e capire se e’ possibile che ci sia qualcosa sotto non dichiarato. Poi se volete possiamo parlare del fatto che gli USA non siano un governo trasparente sotto molti aspetti, ma anche qui vi farei notare che nessuno stato lo e’ su determinate questioni, tantomeno l’Italia. Ci sono tantissimi fatti della nostra storia su cui c’e’ ancora un’aura di mistero e di possibile complotto. Non meravigliamoci di questo. Certo, da qui a parlare di auto-attentato ce ne passa.

Torniamo dunque all’attentato. Per prima cosa, vorrei escludere da subito, e chiunque dotato di buon senso dovrebbe farlo altrettanto velocemente, l’ipotesi ordigno nucleare sotterraneo. Perche’? Per prima cosa, un’esplosione nucleare produce radiazioni. E’ vero che si parla di esplosione sotterranea ma chi ce l’ha messa? Come? Possibile che non ci sia stata nessuna fuga di radiazioni?

Se queste considerazioni non vi bastano ve ne dico una definitiva. Se il tutto fosse provocato da un’eplosione sotterranea, sarebbero state colpite prima di tutto le fondamenta delle torri e, di conseguenza, il cedimento sarebbe stato dal basso. Come tutti sanno, con le immagini di quegli attimi ben presenti nelle nostre menti, la caduta e’ iniziata dall’alto, cioe’ da dove sono arrivati gli aerei.

Questo esclude subito l’ipotesi ordigno nucleare.

Bene, passiamo ora all’altra importante teoria complottista: le torri sono state progettate per resistere all’urto di un aereo di linea per cui non potevano crollare. Quelle che hanno provocato il cedimento sono state cariche piazzate in diversi piani e che hanno provocato quella che si chiama una distruzione pianificata.

Prima considerazione, come avrebbero fatto a mettere tutte queste cariche? Con un edificio del genere, le cariche avrebbero dovuto essere in molti piani, in punti diversi ed in zone di normale passaggio di persone. Chi avrebbe avuto la possibilita’ di mettere queste cariche? Come sapete, le torri erano sede di moltissimi uffici ed erano frequentate nell’arco di quasi tutta la giornata. Ah certo, quasi dimenticavo, se l’attentato e’ stato fatto dagli USA, non avevano certo problemi nel piazzare ordigni ed entrare senza destare sospetto.

Considerazione interessante. Vi faccio pero’ riflettere su un’altra cosa, perche’ allora gli aerei? Avete imbottito le torri di esplosivo per farle crollare, perche’ dirottare degli aerei da lanciare contro le torri? Per aumentare l’affetto scenico? L’ipotesi non regge tanto. Inoltre, come avete visto dai video dei crolli, il cedimento e’ iniziato proprio nei piani sopra il punto di impatto, possibile che le cariche siano state fatte brillare nell’esatta sequenza, dall’alto verso il basso, e che i dirottatori abbiano centrato esattamente il punto che avevate concordato in precedenza? Personalmente, credo che si stia passando dal complottismo alla fantascienza.

Qual e’ l’altra motivazione che spinge a pensare che l’attaco sia stato auto-pianificato? Il piano era talmente tanto perfetto e l’esecuzione talmente impeccabile che l’organizzazione poteva solo essere fatta da un governo preparato e interno al paese, dunque gli USA stessi.

Facciamo una considerazione abbastanza meschina, soprattutto se pensiamo ai 3000 morti dell’11 settembre. Gli attentati sono stati perfetti? Assolutamente falso. Vi spiego il perche’. Avete dirottato 4 aerei, due sono andati a segno sulle torri, uno ha fatto danni marginali al pentagono e uno non e’ nemmeno arrivato a destinazione. Siete arrivati contro le torri in un orario sbagliato. Come sapete, gli attentati sono accaduti nelle prime ore della mattinata, quando le torri non erano ancora completamente piene. Se vogliamo essere sadici, un attentato ben riuscito avrebbe scelto un orario diverso, anche solo un paio di ore dopo. Inoltre, avete colpito le torri in punti molto alti. Questo ha consentito alle persone dei piani inferiori, in larga parte, di mettersi in salvo. Tra l’altro uno degli aerei e’ arrivato completamente storto all’impatto colpendo uno spigolo della torre. E’ un piano perfetto? Direi proprio di no. Dunque, anche questa ipotesi secondo me regge poco.

Detto questo, passiamo alla dinamica del crollo.

Secondo l’ipotesi complottista, il cedimento sarebbe stato causato da cariche opportunamente piazzate come in una demolizione controllata. Le prove? Prima di tutto, la caduta perfettamente verticale delle torri, secondo ampi sbuffi di fumo e detriti che uscivano dagli edifici negli istanti precedenti il crollo. Questi sarebbero gli inequivocabili segni dovuti all’esplosione delle cariche.

Perche’ vengono fatte queste ipotesi? Come detto, le torri erano progettate per resistere all’urto di un aereo di linea. Gli incendi sviluppati all’interno degli uffici non potevano di certo raggiungere la temperatura di fusione dell’acciaio delle strutture. Se queste sono venute giu’ e’ perche’ e’ stata usata termite, in grado di raggiungere le temperature di fusione dell’acciaio, o perche’ sono stati causati cedimenti strutturali lungo tutta l’altezza delle torri.

Bene, analizziamo queste considerazioni.

Per prima cosa, gli edifici erano in grado di resistere all’impatto di un aereo, come giustamente ricordato anche dall’ideatore delle Torri Gemelle. Le simulazioni fatte al tempo prevedevano pero’ aerei piu’ piccoli rispetto a quelli utilizzati nel 2001 e, soprattutto, scarichi di carburante. Perche’ questo? Semplice, nei calcoli si era presa in considerazione l’ipotesi in cui un velivolo in fase di atterraggio a New York, dunque con poco carburante, a causa della nebbia finisse contro gli edifici. La dinamica dell’attentato del 2001 e’ completamente diversa con aerei decollati da poco tempo e con serbatoi carichi, anche se non pieni, di kerosene.

Cosa e’ successo nell’impatto? Gli aerei sono penetrati all’iinterno degli edifici. A causa dell’urto, il kerosene dei serbatoi si e’ incendiato provocando la fiammata iniziale che tutti ricorderete.

Ingresso dell'aereo in una delle due torri

Ingresso dell’aereo in una delle due torri

Le fiamme hanno ovviamente provocato il divamparsi di incendi in tutti i piani interessati dall’urto. Vi ricordo che le torri erano sede di molti uffici per cui erano piene di carta, arredi d’ufficio, pc, tutte cose facilmente infiammabili.

Bene, abbiamo l’urto, abbiamo l’incendio, ma le torri sono ancora in piedi. Dunque? Perche’ solo a distanza di decine di minuti si e’ avuto il crollo delle torri, e per di piu’ la seconda colpita e’ caduta per prima?

Le risposte a quete domande sono quelle che segnano il confine tra complotto e spiegazione logica.

Andiamo con ordine.

Come sono fatte le torri?

Su diversi siti, non necessariamente di complottisti, ho letto molte cose inesatte sulla struttura delle torri. Capire questo punto e’ la chiave di interpretazione dei fatti.

La struttura delle torri e’ fatta da una serie di colonne perimetrali che corrono tutt’intorno gli edifici e da una parte di colonne centrali che costituiscono il core:

Struttura con travi di acciaio delle Torri

Struttura con travi di acciaio delle Torri

Abbiamo dunque una struttura portante di colonne d’acciaio, molto solida, ma sufficientemente elastica da resistere non solo ad attentati, ma anche a condizioni naturali e normali di utilizzo. Pensate ad esempio ad una scossa di terremoto che fa vibrare tutta la struttura o anche solo al vento in grado di sollecitare fortemente una struttura alta piu’ di 400 metri.

Come sono legate le due serie di colonne? Ovviamente con dei solai. Anche in questo caso, e’ stato utilizzato acciaio, per creare una struttura legata in questo modo:

Solai in acciaio

Solai in acciaio

Sui solai sono disposti i pavimenti dei vari piani costituiti da lastre di cemento.

Molte delle ipotesi complottiste partono dal fatto che per far crollare una struttura di questo tipo, e’ necessario far fondere completamente l’acciaio. Per ottenere questo risultato, si devono raggiungere temperature superiori ai 1500 gradi, cosa impossibile bruciando kerosene. Tra l’altro, le colonne di fumo nero che ricorderete intorno alle torri, sono sinonimo di cattiva combustione dunque di temperatura non troppo alta. Secondo alcuni, nel calcolo delle temperature, tra l’altro sulla rete ho letto degli strafalcioni incredibili di termodinamica senza distinguere temperatura e calore, mancherebbe l’apporto dei mobili e della carta. Anche in questo caso pero’, viene giustamente fatto notare che non si riesce a raggiungere la temperatura di fusione dell’acciaio.

Vero anche questo. Ma perche’ si dovrebbe far fondere l’acciaio? Premesso che per la fusione servono le temperature di cui abbiamo parlato, gia’ a 500 gradi l’acciaio lascia la sua fase elastica per arrivare a quella plastica. In queste condizioni, il materiale e’ molto morbido e presenta dunque una resistenza strutturale molto minore, anche del 90% inferiore, rispetto alle condizioni ambientali. Perche’ facciamo notare questo? Un materiale in queste condizioni, inficia in modo preponderante la resistenza della struttura.

Secondo i complottisti, la caduta degli edifici sarebbe stata perfettamente verticale, come in una demolizione studiata. Su questo punto, non c’e’ neanche da discutere. Per prima cosa, vi mostro una foto aerea della zona:

Detriti dovuti al crollo in tutta l'area del World Trade Center

Detriti dovuti al crollo in tutta l’area del World Trade Center

Come vedete, i residui dei crolli sono ovunque. Torneremo su questo punto, discutendo la caduta del WTC7.

Inoltre, e’ evidente dalle prove fotografiche che la caduta degli edifici non e’ stata assolutamente verticale. La parte di torre superiore al punto di ingresso degli aerei, si e’ staccata con un’angolazione molto pronunciata, circa 30 gradi per una torre e 15 per l’altra. Ecco una foto molto esplicativa:

Crollo inclinato della parte alta della torre

Crollo inclinato della parte alta della torre

Vedete quanto e’ inclinata la parte superiore? Non credo che, alla luce di questo, si possa parlare di caduta verticale.

Perche’ sono cadute le torri?

Come detto, gli edifici erano pensati per resistere all’impatto di un aereo, anche se scarico di carburante e di dimensioni minori di quelli dirottati. Nonostante questo, le torri hanno resistito all’impatto, infatti non sono cadute subito a causa dell’urto. La stessa cosa si puo’ dire per l’incendio. Gli edifici erano pensati per resistere 2 ore ad un incendo completo. Eppure sono cadute. Perche’?

Quello che spesso non viene considerato e’ il fattore combinato incendio-impatto.

Vi faccio un esempio molto semplice. Prendete una lattina di bibita da 33 cl. Quella lattina e’ fatta da un sottilissimo foglio di alluminio, ma ha una resistenza a compressione elevatissima. E’ in grado di reggere tranquillamente il peso di una persona. Se pero’ la schiacciate leggermente da un lato, basta una minima pressione per accartocciarla. Bene, quello che e’ successo alle torri e’ del tutto analogo all’esempio della lattina. L’ingresso dell’aereo ha provocato danni ad alcuni dei pilastri perimetrali, questo ovviamente compromette la stabilita’ della struttura, ma non del tutto. Il seguente incendio che si e’ sviluppato, ha portato non la liquefazione dell’acciaio, ma un suo ammorbidimento. Questo ovviamente in tutti quei piani interessati dall’urto. Inoltre, il calore ha modificato pesantemente la resistenza meccanica delle travi utilizzate per i solai. In questo caso, le travi si sono ritirate, a causa della minore resistenza meccanica, tirando le travi perimetrali verso quelle del core centrale.

In questa foto si vede un dettaglio della parte interessata dall’incendio ed in cui e’ chiaramente visibile l’avvicinamento della parete laterale verso l’interno:

Dettaglio dell'incendio con parete che rientra

Dettaglio dell’incendio con parete che rientra

Come detto, questo e’ sintomatico del cedimento meccanico delle travi dei solai.

A questo punto, avete una struttura molto debole in diverse parti. Dopo decine di minuti di incendio, la parte alta, tagliata sotto dall’ingresso dell’aereo, cede sotto il suo peso premendo sulla parte inferiore della torre. Una struttura meccanica gravemente compromessa come quella in esame ad un certo punto non riesce piu’ a resitere al peso e cede su se stessa.

E ‘ dimostrabile questo? Assolutamente si. Sono stati pubblicati diversi articoli con simulazioni FEM, tra l’altro su riviste internazionali, che hanno dimostrato come la caduta delle torri sia perfettamente compatibile, nei tempi e nei modi, con quella dell’attentato avvenuto. Uno di questi e’ scaricabile da questo link:

Usmani

Tra l’altro, proprio a causa del cedimento improvviso sotto il peso, la caduta delle torri e’ risultata quasi istantanea come un corpo in caduta libera. Questo perche’ i piani inferiori che via via venivano interessati, venivano schiacciati da un peso sempre crescente.

Altra considerazione importante, possibile che la torre sia caduta istantaneamente tutta insieme, polverizzando tutto? Anche queste considerazioni sono del tutto false. Prima cosa, come anticipato, la caduta non e’ stata verticale ma i detriti hanno interessato una vasta zona del World Trade Center. Inoltre, non e’ assolutamente vero che si e’ polverizzato tutto. Ci sono diverse prove come questo video:

Video, frammenti

che mostrano la caduta di detriti molto grandi, molto pesanti e soprattutto interi verso il basso.

Altra cosa rimasta in sospeso, cosa dire degli sbuffi che si vedevano durante il crollo delle torri? Per farvi capire meglio, i sostenitori del complotto si riferiscono ad esempi come questo:

Sbuffi di materiale interpretati come detonazioni

Sbuffi di materiale interpretati come detonazioni

Secondo alcuni, questa sarebbe la prova dell’esplosione di alcune bombe lungo la torre. Niente di piu’ falso. Come potete facilmente immaginare, si tratta soltanto dell’aria interna agli edifici che viene compressa per schiacciamento durante la caduta e che riesce a frantumare i vetri esterni. Allo stesso modo, le presunte esplosioni che vengono raccontate da alcuni testimoni durante il crollo, altro non sono che il rumore dei vetri che andavano in frantumi o anche quello delle lastre di cemento che costituivano i pavimenti dei piani. Come detto, a causa della variazione di tenuta dei pilastri del solaio, i pavimenti non possono far altro che cedere e precipitare verso i piani inferiori.

Detto questo, non credo ci dovrebbero essere dubbi sul fatto che la caduta delle torri e’ stata provocata dalla combinazione dell’impatto dell’aereo e dell’incendio che si e’ sviluppato. Come visto, non solo questo e’ documentabile dalle molte prove fotografiche di quel tremendo giorno, ma ci sono anche numerosi articoli a sostegno che dimostrano la veridicita’ delle ipotesi. Solo questi, e il fatto che la dinamica del crollo sia simulabile, dovrebbero smentire tutte quelle voci che cercano evidenze di qualcosa di diverso nel crollo del WTC1 e 2.

Detto questo, passiamo invece all’altro grande mistero di quel giorno, il crollo del WTC7. Per chi non ne fosse a conoscenza, l’area del World Trade Centrer, era composta da diversi edifici, di altezze diverse. L’11 settembre 2001, oltre alle due torri, cadde anche un altro edificio, appunto detto WTC7, che non venne assolutamente colpito da niente. Perche’ e’ importante questo fatto nelle teorie complottiste? Semplice, il fatto che questo sia caduto senza essere stato colpito, indica chiaramente che gli edifici della zona fossero stati minati precedentemente. Evidenza che sosterrebbe le ipotesi viste prima. Tra l’altro, come evidenziato dai complottisti, il WTC7 non puo’ essere stato colpito da detriti per due buone ragioni. La prima e’ che si trova a circa 200 metri dalla torre piu’ vicina e tra i due vi era un altro edificio, chiamato WTC6, che lo proteggeva completamente e che non e’ andato distrutto dopo il crollo della torre. Il secondo motivo e’ ancora piu’ semplice, dal momento che si e’ trattato di un crollo studiato e verticale e in cui i detriti sono stati polverizzati, niente sarebbe potuto cadere cosi’ lontano.

A questa seconda ipotesi abbiamo gia’ abbondantemente risposto, mostrando come i detriti ci sono, anche di notevole dimensione, e dimostrando come la caduta non sia stata verticale. Questa osservazione e’ dunque da scartare a priori.

Resta pero’ l’altra ipotesi. Tra la torre che crolla e il WTC7 c’e’ un altro edificio che non crolla. Come e’ possibile? Inoltre, il WTC7 e’ caduto dopo diverse ore dalle torri, altro aspetto inspiegabile. Per chi non lo sapesse, anche in questo caso, parliamo di un edificio di 47 piani con struttura in acciaio, dunque non un castello di carte che cade da solo per opera del vento.

Per capire questo crollo, e’ necessario vedere la planimetria del World Trade Center, quando ancora esisteva:

Mappa degli edifici del World Trade Center

Mappa degli edifici del World Trade Center

Come vedete, effettivamente il WTC7 e’ completamente protetto dal WTC6 che impedisce a qualsiasi detrito di danneggiare l’edificio.

Spesso pero’, quelli che pensano i complotti, dimenticano che le spiegazioni piu’ semplici sono quelle che andrebbero considerate per prime. Siamo a New York, Stati Uniti di America, dove si costruiscono grattacieli con altezze completamente diverse. Invece di fermarci alla planimetria, vediamo un prospetto della zona con le altezze in scala degli edifici:

Modello 3D degli edifici del World Trade Center

Modello 3D degli edifici del World Trade Center

Notato niente? Guardate quanto e’ alto il WTC7 rispetto al WTC6 che si trova di fronte. Praticamente questo edificio vede benissimo la torre di fronte ed e’ completamente esposto alla caduta dei detriti.

Cosa e’ successo precisamente l’11 settembre 2001?

Durante la caduta della torre piu’ vicina, il WTC7 ha subito alcuni danni strutturali, come riportato in questa foto:

Dettaglio del WTC7 dopo il crollo della torre piu' vicina

Dettaglio del WTC7 dopo il crollo della torre piu’ vicina

Come si vede, e come indicato enlla foto stessa utilizzata nei rapporti ufficiali, il WTC7 ha subito, durante il crollo della torre, danni evidenti ai piani alti. Sempre a causa della caduta di detriti, sono divampati anche incendi all’interno dell’edificio.

E’ strano questo?

Assolutamente no, come ricorderete bene, ci sono stati numerosissimi casi di incendi a terra a causa di detriti in fiamme caduti dalle torri. Uno di questi ha colpito il WTC7 in cui sono divampati incendi.

Allora, anche qui abbiamo un edificio danneggiato, anche se lievemente, ed un incendio in corso. Poi? Quello che e’ successo e’ evidente, l’edificio e’ stato lasciato crollare. Perche’? Ovviamente, tutti gli occupanti erano stati fatti evacuare. I pompieri erano in notevole difficolta’ per tenere sotto controllo le torri. Abbiamo un edifico vuoto, danneggiato e che brucia. Inoltre, per lungo tempo c’e’ stata mancanza di acqua per cui, anche volendo, i pompieri non hanno avuto modo di domare l’incendio all’interno del WTC7. Detto questo, l’edificio e’ stato lasciato al suo destino. In questo caso, come anticipato, ci e’ voluto molto piu’ tempo affinche’ il WTC7 crollasse e infatti, e su questo sono tutti d’accordo, il crollo e’ avvenuto solo nel pomeriggio inoltrato ora di New York.

Dunque, anche per il WTC7 esiste una spiegazione razionale ottenuta dall’analisi condotta fino a questo punto.

Resta da analizzare l’aereo che e’ arrivato contro il pentangono. In questo caso, le teorie complottiste parlano di una manovra impossibile da fare per un aereo di linea dal momento che il punto di impatto e’ tra il piano terra e il primo piano, dunque troppo vicino al terreno, che il carello si sarebbe abbassato da solo sotto una certa quota, ma soprattutto che un velivolo cosi’ basso avrebbe necessariamente fatto danni attraversando la vicina autostrada. Secondo queste ipotesi, in questo caso non si e’ nemmeno trattato di un aereo, bensi’ di un missile cruise. Questo avvalora l’ipotesi secondo la quale non si e’ trattato di un attentato ma di un auto attacco da parte del governo per permettere le future politiche in medio Oriente.

Prima cosa, molte delle foto che trovate in rete e che parlano di foro troppo piccolo e incompatibile con quello che lascerebbe un aereo sono false. Quelle reali, dimenticano di considerare che molte delle parti dell’aereo sono in realta’ estremamente leggere e dunque dotate di potere di penetrazione molto basso, soprattutto se rapportate con una struttura di cemento armato rinforzato come quella del pentagono. Detto questo, mi sento di escludere subito l’ipotesi missile.

Restano pero’ le altre supposizioni. Prima di tutto, e’ assolutamente falso dire che i carrelli degli aerei si abbassano da soli. Inoltre, non mi sembra che sia cosi’ impossibile centrare il bersaglio. Come giustamente fatto notare nelle controipotesi, ogni giorno tutti gli aerei centrano il bersaglio rappresentato dalla pista di atterraggio. Ci sono tantissimi aereoporti in cui le piste sono in posizioni davvero scomode, vicino al mare, deitro le montagne, ecc. Condizioni che devono essere studiate molto bene, ma che vengono eseguite senza problemi.

Inoltre, non e’ affatto vero che il volo radente dell’aereo non e’ passato sulla vicina autostrada. Vi mostro una foto:

Palo divelto sull'autostrada di fronte al pentagono

Palo divelto sull’autostrada di fronte al pentagono

Come vedete, questi sono i piloni dell’illuminazione dell’autostrada che sono stati abbattutti dal passaggio dell’aereo. Questa ipotesi viene utilizzata per mostrare l’incompatibilita’ della traiettoria seguita. Se l’aereo non ha toccato l’autostrada, come ha fatto a volare poi rasoterra vicino al pentagono? Questo implicherebbe una manovra non possibile con un aereo di quelle dimensioni. Questa foto che ho mostrato, come tante altre che trovate in rete, mostrano l’esatto contrario. Al passaggio sull’autostrada, il volo dirottato era gia’ molto basso e puntava dritto contro il pentangono.

Riassumendo, i crolli delle torri gemelle e del WTC7 sono perfettamente compatibili con la versione ufficiale. Inoltre, le simulazioni FEM fatte sugli edifici per studiare la dinamica dell’impatto hanno dato risultati perfettamente compatibili con quelli visti in quel tragico giorno. Questo solo per mentire tutte quelle voci che vorrebbero l’attentato mediante aerei solo una messa in scena per distrarre dalle cariche piazzate all’interno dell’edificio. Come visto, il crollo del WTC7 e’ del tutto compatibile con la caduta dei detriti che hanno dapprima danneggiato l’edificio e poi fatto divampare l’incendio che ha bruciato per ore. Questo dimostra anche la non fondatezza delle ipotesi sulla caduta verticale o sulla demolizione programmata delle torri.

Per quanto riguarda il pentagono, come visto, la traiettoria seguita dall’aereo e’ perfettamente compatibile con quella pensata. Il velivolo ha volato in assetto quasi parallelo al terreno gia’ quando si trovava sopra la vicina autostrda. A riprova di questo, ci sono prove fotografiche che mostrano i pali dell’illuminazione divelti dal passaggio a bassa quota. Questo anche per escludere l’ipotesi quanto mai fantasiosa del missile cruise.

Ultima considerazione. Come detto all’inizio di questo lunghissimo articolo, il mio scopo era solo quello di analizzare i crolli e ragionare sulle tante ipotesi di complotto che si sono alimentate nel corso degli anni. Non voglio fare un trattato di economia e politica internazionale, ne tantomeno parlare di governo centrale degli Stati Uniti. Possiamo dire che gli attentatori erano pagati dal governo USA? Personalmente, credo di no, ma non sta a me dirlo ne tantomeno riuscire a dimostrarlo ragionando scientificamente.

Vorrei pero’ farvi riflettere su un’ultima cosa. A mio avviso, gli attentati dell’11 settembre 2001 hanno mostrato un paese non pronto ad attacchi di questo tipo. Molti fanno ipotesi complottiste ragionando sul fatto che i caccia non si siano alzati per abbattere gli aerei dirottati o che non ci fosse un adeguato sistema di controllo e difesa. Secondo me, il discorso non e’ neanche questo. Gli Stati Uniti, prima del 2001, erano abituati a combattere guerre fuori dai loro confini. Con l’attentato del World Trade Center hanno scoperto che il mondo globalizzato era in grado di portare la guerra anche dentro i loro confini. E’ facile pensare ad una potenza bellica perfetta finche’ questa non viene testata sul campo. Nel caso degli USA, fino a quel momento, il paese pensava di essere invincibile e immune da attacchi di questo tipo. Purtroppo, anche sotto questo aspetto, l’11 settembre 2001 ha segnato un momento di svolta epocale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Detersivi ecologici

26 Mag

Nella sezione:

Hai domande o dubbi?

e’ stato fatto un commento davvero molto interessante. Come potete leggere, l’osservazione e’ sui cosiddetti Detersivi Ecologici, cioe’ quella gamma di prodotti che promettono di non arrecare danni all’ambiente. Sulla base di questo, credo sia molto interessante fare un ragionamento non solo su questi prodotti, ma anche sull’effettivo danno all’ambiente che i nostri detersivi arrecano e sulle possibili soluzioni che il mercato offre.

Prima di tutto, ragioniamo su una cosa: quanti detersivi ci sono dentro una casa tipo? Cosi’ su due piedi, ognuno di noi ha sicuramente: detersivo per i piatti a mano, detersivo per la lavastoviglie, detersivo per il bucato a mano e per la lavatrice, oltre ovviamente a diversi prodotti per: vetri, mattonelle, macchina a gas, sgrassatore, pulizia del forno, pavimenti, candeggina. Insomma, abbiamo un prodotto specifico per qualsiasi cosa. Quelli che ho citato sono solo i principali, sicuramente poi ce ne sono tanti altri ancora riservati ad applicazioni particolari, ormai indispensabili per la pulizia della nostra casa.

Bene, guardiamo il tutto da un’altra prospettiva. Quei prodotti che abbiamo in casa, sono equivalenti ad un armadio per le sostanze chimiche, analogo a quello che trovate in un laboratorio di ricerca. Provate a leggere le etichette, ma soprattutto le indicazioni riportate sopra, per intenderci, quei simboli arancioni e neri presenti per legge su ogni prodotto: corrosivo, irritante, esplosivo, ecc. Detto questo, capiamo subito che quei prodotti non possono che essere una minaccia per l’ambiente.

Quanto inquiniamo pulendo la nostra casa? Diverse stime fatte anche dall’organizzazione mondiale della sanita’, hanno mostrato come circa il 30% dell’inquinamento dei nostri mari, derivi dai detersivi che usiamo in casa. Oltre a questo, si deve necessariamente valutare anche l’impatto ambientale del semplice imballo, troppo spesso sottovalutato: bottiglie in plastica, cartoni, lattine di alluminio, ecc. Ovviamente, molto spesso questi imballi sono reciclabili, ma, ad esempio, riciclare la plastica e’ un processo dispendioso dal punto di vista energetico e, purtroppo ancora in molte zone dell’Italia, la mentalita’ del riciclo stenta a prendere piede.

Perche’ sono inquinanti i detersivi? Tolto il discorso imballo, la principale fonte di inquinamento viene dei fosfati presenti in molti prodotti. Una volta liberati nell’ambiente, queste sostanze favoriscono il proliferare delle alghe che sottraggono ossigeno all’acqua, creando un ambiente inospitale per pesci e altri animali acquatici. Inoltre, i tensioattivi, cioe’ le schiume prodotte dai detersivi, provocano un notevole danno ambientale grazie anche ai prodotti petrolchimici presenti e ai metalli pesanti che necessariamente finiscono nei mari e nei corsi d’acqua. Detto in parole povere, il danno che arrechiamo e’ notevole e assolutamente non trascurabile. Da quanto detto, perche’ non eliminare i fosfati? Semplice, queste sostanze non sono certo messe per fare un dispetto all’ambiente, il loro ruolo e’ fondamentale, ad esempio, per garantire un buon potere smacchiante dei detersivi oltre a tantissime altre proprieta’ di cui difficilmente potremmo fare a meno.

Nel commento da cui siamo partiti, si parlava invece dei detersivi ecologici. Come scritto, questi prodotti vengono ricavati da fonti biodgradabili e hanno liveli bassissimi di metalli inquinanti come Nichel, Cromo e Cobalto. Qual e’ il rovescio della medaglia? Purtroppo, molto spesso quanto indicato non e’ esattamente vero. Se, ad esempio, prendiamo un fustino di detersivo in polvere per la lavatrice, chiunque potrebbe scrivere che quel contenitore e’ assolutamente riciclabile e non arreca danno all’ambiente. Questo e’ verissimo e scontato. Se, pero’, prendiamo quel fustino e lo buttiamo su una spiaggia, arrechiamo un danno ambientale. Questo solo per dire che, molto spesso, quello che viene scritto dai produttori deve essere interpretato in modo corretto.

Dal punto di vista legislativo, l’unione Europea ha imposto dalla fine del 2013, un abbassamento dei livelli di fosfati presenti nei detersivi per piatti. Nota positiva e’ che i prodotti commercializzati in Italia per il lavaggio a mano, rispettano gia’ questi limiti, al contrario di altre nazioni Europee. Discorso diverso e’ quello per i prodotti per lavastoviglie, in cui i livelli di fosfati presenti sono ancora troppo alti.

Da quanto detto, appare evidente che questa indicazione legislativa non e’ sufficiente. I fosfati rappresentano una notevole fonte inquinante, ma non l’unica presente. Inoltre, analizziamo un altro aspetto relativo in generale a tutti i prodotti a basso impatto ambientale, non solo i detersivi. Molto spesso, questo genere di prodotti hanno un prezzo che va dal leggermente al notevolmente maggiore di quelli tradizionali. Analizziamo questo aspetto. Non vorrei dire un’ovvieta’, ma e’ evidente che al giorno d’oggi, causa la crisi, ci sono tantissime famiglie in difficolta’ economica e che spesso arrivano solo a stento alla fine del mese. Dunque, non inquinare e’ bellissimo, ma se per rispettare l’ambiente si deve scegliere tra l’arrivare a fine mese oppure no, forse le cose non stanno funzionando nel migliore dei modi. E’ inutile fare i finti benpensanti e dire che non si deve inquinare, pensiamo a dare a tutti i mezzi per salvaguardare l’ambiente, almeno a parita’ di prezzo.

Partendo proprio da questo discorso economico, vorrei parlarvi di altre due soluzioni possibili sempre nel caso specifico dei detersivi, tralasciando i prodotti commerciali a basso impatto che, come visto, molto spesso, anche se non sempre, non rispettano pienamente quanto dichiarato, e che comunque non risolvono a pieno il problema ambientale.

Sul territorio nazionale, stanno nascendo sempre piu’ punti vendita di detersivi alla spina. Cosa significa? Per chi non li conoscesse, si tratta di negozi che vendono i detersivi a quantita’ mediante distributori automatici. Voi andate in questi negozi, e comprate un litro, due litri o quello che volete di detersivo. Se ne siete sprovvisti, potete comprare a parte un contenitore e poi riutilizzarlo le volte successive per ricaricarlo. Qual e’ la soluzione di questi negozi? Alla luce di quanto detto in precedenza, mediante questo sistema, si potrebbe risolvere il problema dell’imballo del detersivo. Ricaricando di volta in volta, si utilizza sempre lo stesso contenitore che dunque non finisce direttamente nell’ambiente. Riprendendo in mano il discorso economico, questa soluzione e’ sicuramente piu’ conveniente di quella tradizionale. Il motivo e’ molto facile da capire, voi comprate solo ed esclusivamente il detersivo, non l’imballo, la pubblicita’, ecc. Tutte cose che alzano il prezzo ma che non c’entrano nulla con il prodotto.

Quella dei prodotti alla spina e’ ovviamente una soluzione. Ricapitolando, i prodotti ecologici commerciali esistono, ma costano di piu’ e non risolvono il problema dell’imballo. I detersivi alla spina risolvono solo il problema dell’imballo, ma spesso i prodotti venduti sono del tutto tradizionali, dunque a notevole impatto ambientale.

Come risolvere tutti i problemi insieme?

Negli ultimi tempi, complice sempre la crisi, gli aumenti dell’IVA, la pressione fiscale, ecc, si sta tornando un po’ alle origini, e sempre piu’ persone ricorrono ad una soluzione tutt’alro che innovativa, ma sicuramente efficace: quella di prodursi i detersivi in casa!

Se pensate che questa sia una cosa difficile, vi sbagliate di grosso. Ovviamente, non serve una laurea in chimica, ma un minimo di nozioni di base. Ad aiutare in questo senso, ci pensano i numerosi siti internet che offrono gratuitamente ricette fai da te per produrre qualsiasi tipo di detersivo per la casa, ma anche creme e trucchi. Magari per i primi tempi, e ‘ consigliabile fare riferimento a questi siti, perche’ se siete proprio digiuni di chimica, dovreste evitare almeno di mescolare tra loro acidi e basi, o di fare reazioni di idrolisi.

Quali sono gi ingredienti che servono a tale scopo?

In realta’, gli ingredienti di base sono molto semplici e facilmente reperibili. Molto utilizzato e’ il bicarbonato, l’aceto bianco, il percarbonato, l’acqua ossigenata. Insomma, tutti prodotti che ognuno di noi ha in casa o che comunque puo’ reperire con facilita’ e a basso costo. Non pensate che si tratti di una soluzione di seconda scelta, i prodotti che potete realizzare in casa, sono efficaci tanto quanto quelli commerciali, con la differenza che potete dosare al meglio le quantita’ e decidere da soli il grado di concentrazione della parte attiva. Infatti, dal punto di vista ecologico, anche le quantita’ di prodotto utilizzato giocano un ruolo essenziale. Pensate che a livello chimico, la meta’ della quantita’ di prodotto che viene generalmente consigliata, e’quella necessaria ad assicurare il risultato finale. La seconda meta’ serve come fattore di sicurezza e apporta solo migliorie minori al risultato.

Nella produzione dei detersivi in casa, spesso si fa ricorso anche ad oli essenziali che potete trovare, ad esempio, nelle erboristerie. In questo modo, potete decidere da soli l’aroma da dare al vostro prodotto e scegliere quello che piu’ vi aggrada, oltre ovviamente l’intensita’.

Analizzando dunque quanto detto, i biodetersivi potrebbero essere una soluzione, ma non risolvono il problema dell’imballo e costano spesso di piu’. I prodotti alla spina risolvono solo il problema dell’imballo e nient’altro. Ricorrere invece alla produzione domestica di detersivi potrebbe essere la soluzione economica, senza imballo e che sfrutta solo prodotti naturali e non derivati petrolchimici. Come detto, esistono tantissimi siti che offrono gratuitamente ricette per la produzione di detersivi e sulla rete sta nascendo una vera e propria comunita’ di persone che si scambiano ricette tra loro un po’ come si fa per la cucina. Personalmente, credo che questa potrebbe essere una soluzione da provare e che veramente potrebbe aiutare l’ambiente, oltre ovviamente le nostre tasche.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Haarp, la causa di tutti i mali!

28 Dic

Il titolo del post la dice molto lunga. Vorrei tornare nuovamente a parlare del sistema Haarp, dal momento che viene molto spesso citato su tantissimi siti catastrofisti, complottisti o denigratori della scienza in generale.

Di questo sistema abbiamo gia’ parlato in questo post:

Haarp e terremoti indotti?

mostrando il vero scopo scientifico di questa installazione, e mostrando in particolare il perche’ si fanno questi studi, perche’ proprio in Alaska e anche perche’ si usano queste tipologie di onde nella ionosfera. In soldoni, abbiamo gia’ parlato di Haarp sotto il profilo ufficiale e scientifico. Restano pero’ da discutere molte ipotesi, alcune veramente fantasiose, che vedrebbe in Haarp una potente arma pronta a fare fuoco sugli esseri umani.

Array di antenne nell'istallazione Haarp

Array di antenne nell’istallazione Haarp

Oltre al gia’ citato articolo, piu’ volte abbiamo chiamato in causa questa installazione per rispondere a tutte quelle fonti che vorrebbero Haarp colpevole di terremoti in varie parti del mondo, della formazione di strane nuvole in cielo o anche solo un contributo per aumentare la distruzione apportata dalle scie chimiche.

Nel prossimo articolo, vi parlero’ sempre di Haarp, ma per rispondere agli ultimi articoli apparsi in rete che lo vedrebbero come una sorgente del “raggio della morte” di Tesla. Prima di poter rispondere a queste fonti e’ necessario aprire una parentesi sull’installazione e sulle basi “scientifiche” mosse dalle tante accuse.

In realta’, al solito basta utilizzare la rete internet in modo giusto per avere tutte le informazioni che si cercano. Stranamente, ovviamente sono ironico, se cercate Haarp sui motori di ricerca, trovate la homepage dell’esperimento con tutte le notizie tecniche a riguardo:

Sito ufficiale Haarp

Ora, molti di voi staranno pensando: “certo, sul sito internet mica mettono la verita’, scrivono solo quello che fa piu’ comodo!”. Diciamo che in linea di principio anche questo potrebbe essere un punto di vista accettabile. Per rispondere a questa affermazione, andiamo allora a vedere, tra i sostenitori del complotto, quali sono le basi scientifiche chiamate in causa.

Prima di tutto, fatemi fare un piccolo appunto. Sul sito ufficiale di Haarp, trovate anche una pagina di FAQ con incluse le risposte alle accuse piu’ comuni mosse in rete:

Haarp, FAQ

Detto questo, sfogliando i vari siti complottisti e catastrofisti, trovate che il principale accusatore di questa installazione e’ un certo prof. Fran de Aquino.

Chi e’ costui?

Basandoci su quello che troviamo in rete, scopriamo che Fran de Aquino e’ un grande fisico, docente all’universita’ di Maranhao in Brasile, autore di moltissime pubblicazioni su riviste internazionali, scopritore della quantizzazione della gravita’ e profondo conoscitore delle onde radio e dei meccanismi di interazione delle onde ELF con la ionosfera.

Un curriculum niente male. Sicuramente non conoscevo un collega cosi’ illustre per mia ignoranza. Perdonatemi …

Possibile che un genio di questa levatura sia cosi’ passato in sordina?

Andiamo con ordine e passiamo attraverso il curriculum di Fran de Aquino. Cercando in rete, trovate che de Aquino e’ realmente un docente di questa universita’ brasiliana e ha addirittura un suo blog personale:

Blog Fran de Aquino

Leggendo il riquadro a lato, vedete che vengono confermate le cose dette sopra sulla sua attivita’ e che trovate anche in rete, stranamente pero’ solo su determinati tipi di siti.

Andiamo con ordine dunque e cerchiamo di capire meglio.

Su alcuni siti viene addirittura messo il collegamento al sito di arXiv con le numerose, cosi’ viene detto, pubblicazioni di questo ricercatore:

arXiv de Aquino

Solo 14 pubblicazioni? Un po’ poche per un genio di questa levatura. Facciamo un piccolo esperimento. Non per mettermi al centro dell’attenzione, ma solo per avere un metro di giudizio su cui basarmi, ho cercato invece il mio nome sempre su arXiv. Questo e’ il risultato:

arXiv Martini KLOE

ho selezionato solo uno degli esperimenti a cui partecipo e ho trovto 24 risultati, quasi il doppio di de Aquino. Non commento oltre su questo punto.

Andiamo pero’ avanti nel suo CV.

Su internet e sul suo blog trovate: “scopritore della quantizzazione della gravita’”. Ora, questa e’ la cosa piu’ assurda in assoluto. Vi spiego brevemente. Nella teoria quantistica, scopo ultimo e’ quello di unire tra loro le quattro forze fondamentali: forte, dobole, elettromagnetica e gravitazionale. Mentre per le prime 3 il meccanismo teorico e’ abbastanza chiaro, a livello scientifico, la forza di gravita’ risulta molto diversa dalle altre. Per poter unire questa ultima forza alle altre, e’ necessario ricorrere a teorie di nuova fisica, ovvero diversa da quella quantistica relativistica, ricorrendo ad esempio alla teoria delle stringhe, delle brane, della supergravita’, ecc. Tutte teorie molto affascinanti e attualmente sotto studio da parte dei teorici. Come sapete bene, ad oggi non si ha certezza di quale di queste ipotesi potrebbe essere quella corretta, sempre se una di queste lo sia.

Dunque? Fran de Aquino ha quantizzato la gravita’? Capite bene l’assurdita’ scientifica di questa affermazione, fatta ovviamente su un blog pubblico frequentato da non addetti ai lavori, che forse potrebbero essere portati fuori strada sparando termini pomposi ma senza senso.

Fin qui abbiamo visto tanto fumo, ma assolutamente niente arrosto. Cerchiamo di capire quando, come e dove Fran de Aquino avrebbe parlato di Haarp.

Ovviamente i siti complottisti sono molto attenti alla bibliografia e vi indicano il link dove vedere l’articolo scientifico in questione:

Fran de Aquino, Haarp

La prima cosa che mi e’ saltata agli occhi e’ la mancanza di qualsiasi dicitura che rimandasse ad una rivista scientifica o a qualche istituzione internazionale.

Leggendo anche solo l’abstract, cioe’ il riassunto dell’articolo, trovate scritto di come Haarp sarebbe in grado di generare terremoti, di modificare il clima mondiale, di variare addirittura la struttura del tempo tutto questo mediante l’emissione di onde ELF con una potenza di 3.6GW.

Attenzione a questo punto.

Vi ho gia’ riportato sia il post in cui abbiamo parlato di Haarp, sia il sito ufficiale dell’installazione. La potenza di emissione di onde da parte di Haarp e’ di 3.6MW, cioe’ milioni di Watt, non GW, cioe’ “miliardi” di Watt. Forse il professor de Aquino non ha ripassato i multipli delle unita’ di misura comunemente usate in fisica!

Vi farei notare un altro particolare molto importante. Il link che vi ho dato per scaricare l’articolo in questione, punta ad un sito che si chiama “viXra.org”. Prima, ad esempio, per vedere il numero di articoli pubblicati da un ricercatore, facevamo riferimento ad un sito che si chiama arXiv.org. Molto curioso, un nome e’ l’anagramma dell’altro.

Per spiegare questo punto, devo illustrarvi molto brevemente come funziona il processo di pubblicazione di un articolo scientifico.

Immaginate di voler pubblicare un articolo di fisica. La prima cosa che fate e’ inviare il vostro lavoro al sito arXiv.org che e’ un database ufficiale di articoli scientifici gestito dalla Cornell University. Questo sito valuta inizialmente il vostro articolo e lo mette sotto forma di pre-print. Questa dicitura indica gli articoli scientifici non ancora pubblicati su riviste ufficiali. Successivamente, mandate il vostro articolo ad una rivista. Qui inizia quello che si chiama, in gergo, processo di referaggio. La rivista nomina un referee, esperto internazionale nel campo della vostra pubblicazione, che deve valutare il lavoro. Il referee giudica il tutto e puo’ decidere di chiedere spiegazioni o approfondimenti su una parte del lavoro, accettare il lavoro o anche rigettarlo. Dopo questo processo, se tutto va nel verso giusto e il vostro lavoro e’ meritevole, l’articolo viene pubblicato su quella rivista. Come potete immaginare, le riviste non sono tutte uguali tra loro, ma vengono classificate in base all’importanza scientifica. Maggiore e’ l’impatto scientifico della rivista, piu’ difficile sara’ il processo di referaggio.

Premesso questo, che differenza c’e’ tra arXiv e viXra? Abbiamo detto che arXiv e’ il database ufficiale. ViXra in realta’ e’ un database privato creato per accogliere tutti i lavori che sono stati rigettati anche nella fase di pre-print. Per conferma, vi riporto anche la pagina di wikipedia che parla di questo servizio:

Wikipedia, viXra

Dunque, il lavoro di de Aquino su Haarp non e’ stato pubblicato su nessuna rivista scientifica ed e’ stato rigettato anche dal database ufficiale della Cornell University. Perche’ questo? Semplicente perche’ e’ stato valutato scientificamente sbagliato!

Quindi? Di cosa stiamo parlando?

Le basi scientifiche su cui si baserebbero le teorie complottiste su Haarp sono proprio queste. Vi invito a cercare su internet il nome di Fran de Aquino e verificare da voi stessi come viene indicato questo ricercatore sui tanti siti complottisti. Siamo di fronte a teorie completamente campate in aria, prive di qualsiasi fondamento scientifico e rifiutate da qualsiasi rivista di settore.

Ovviamente, capite bene il giochino. Leggendo su qualche sito di un ricercatore universitario, autore di tantissime ricerche, scopritore di questo e quest’altro che parla di Haarp mostrando, attraverso un articolo, le conseguenze dell’utilizzo delle ELF nella ionosfera, chiunque potrebbe credere a queste teorie e credere dunque al grande complotto.

Fate sempre attenzione a tutto quello che vi viene detto, soprattutto su internet. E’ molto facile fornire informazioni sbagliate e spingere il pensiero comune in una direzione precisa. Cercate sempre di informarvi autonomamente. Solo in questo modo potrete avere un metro di giudizio insindacabile e non influenzato da terze parti.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

 

 

 

Appuntamento del Venerdi su Ecoradio

15 Nov

Come ogni Venerdi, anche domani, 16 Novembre, “Psicosi 2012. Le risposte della scienza” sara’ su Ecoradio dalle 8.30.

Questa settimana l’intervista sara’ ricca di argomenti. Parleremo nuovamente dell’asteroide Nibiru, analizzando in dettaglio dove e quando questa notizia e’ stata pubblicata:

Asteroide Nibiru: articolo originale?

e cercheremo insieme di capire se esistono basi scientifiche a conferma di queste notizie:

Asteroide Nibiru: considerazioni scientifiche

Parleremo poi delle nuove profezie e teorie scientifiche che la rete ci sta regalando in questo lasso di tempo che ci separa dal 21 Dicembre:

Nuova sconvolgente teoria?

La teoria della Terra cava

Potete ascoltare Ecoradio sugli 88.3FM da Roma o 92.1FM da Napoli. In alternativa, potete ascoltare la trasmissione direttamente dal sito internet di Ecoradio:

Ecoradio

Colgo l’occasione per ringraziare tutti per la continue visite sul blog e per i messaggi che mi inviate.

Ricordate, per affrontare in maniera scientifica le profezie sul 2012, senza preconcetti e senza credere a ingiustificate teorie, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.