Tag Archives: simulazione

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Chi e’ Eugene Goostman?

10 Giu

Oggi, moltissimi giornali hanno riportato una notizia molto interessante anche se, come spesso accade, alcuni giornalisti si sono limitati a fare copia/incolla o, peggio ancora, non documentandosi bene prima di scrivere, hanno arricchito i loro articoli di cosa alquanto fantasiose.

Visto che sicuramente avrete letto la notizia a cui mi riferisco, mi limito ad un breve riassunto: il 7 giugno, in occasione del 60esimo anniversario della morte di Alan Turing, un software e’ riuscito a superare il cosiddetto Test di Turing.

In cosa consiste questo test?

Immaginiamo di avere 3 persone: A, B e C. A e B, non necessariamente in ordine giusto, sono un uomo e una donna. C, che si trova in un’altra stanza, deve indovinare mediante una serie di domande dattiloscritte, chi e’ l’uomo e chi la donna. Su questa base, Turing sviluppo’ il suo test per verificare la bonta’ di un’intelligenza artificiale. Se uno dei due tra A e B e’ una macchina, cioe’ un software, C deve indovinare chi e’ l’umano e chi il programma informatico.

Cosa significa tutto questo?

Molto semplice, se il software riesce a farsi passare per un umano, cioe’ e’ in grado di ragionare come una persona in carne e ossa, allora siamo di fronte ad una vera e propria intelligenza artificiale in grado di cammufarsi tra gli umani.

Leggendo queste righe, sicuramente vi saranno venuti in mente moltissimi scenari, o film, di fantascienza in cui le macchine si confondono tra gli esseri umani e sono in grado di ragionare e provare emozioni. Lo scopo del test di Turing e’ proprio quello di verificare quanto una macchina sia in grado di ragionare, dunque elaborare pensieri complessi e non solo rispondere ad una serie di istruzioni gia’ scritte.

Del genio di Alan Turing abbiamo gia’ parlato in un articolo specifico:

Un perdono atteso 70 anni

In particolare, in questo articolo abbiamo parlato di Turing in relazione al suo lavoro durante la seconda guerra mondiale e il suo ruolo di primo piano nella decriptazione dei messaggi della macchina Enigma. Turing fu un vero e proprio genio dei suoi tempi e uno dei padri della moderna informatica. Come visto nell’articolo precedente pero’, la sua omosessualita’, contestualizzata al momento storico in cui visse, gli costo’ molto cara e questo “reato” lo spinse al suicidio esattamente il 7 Giugno 1954.

Proprio nell’ambito dei suoi studi sull’intelligenza artificiale, Turing formulo’ il test di cui abbiamo parlato, prendendo spunto dal “Discorso sul metodo” di Cartesio. Nel corso degli anni, diversi software hanno provato a superare il test sempre fallendo.

Come funziona il test?

Da quanto detto in precedenza, un giudice deve riconoscere, mediante un numero limitato di domande o comunque in un tempo prefissato, un programma informatico da una persona in carne e ossa. Ovviamente, non abbiamo un singolo giudice ma una vera e propria giuria. Nel regolamente ufficiale, ogni giudice ha a disposizione 5 minuti di domande e il test si ritiene superato se almeno il 30% dei giudici confonde il software per un umano.

Dunque? E’ stato superato o no questo test?

Dal regolamento riportato, il test e’ stato effettivamemte superato dal momento che, nella prova del 7 giugno di quest’anno, il 33% dei giudici, cioe’ un terzo della giuria, ha scambiato la macchina per un essere umano.

Che tipo di software e’ stato utilizzato?

Come sicuramente avrete letto, il software si chiama Eugene Goostman, che poi e’ il nome completo di un ragazzo ucraino di 13 anni, che e’ il personaggio simulato dal programma. Questo portentoso software e’ stato sviluppato da tre programmatori e’ gia’ nel 2006 era andato molto vicino a superare il test con il 29% dei giudici ingannati.

computer supera il test di Turing

Per chi avesse dubbi sulla regolarita’ della prova, il test e’ stato condotto adirittura alla Royal Society di Londra nel corso, appunto, delle celebrazioni per i 60 anni della morte di Turing.

Cosa dire su questo risultato?

Sicuramente si tratta di un passo molto importante per lo sviluppo dell’intelligenza artificiale ma cerchiamo di non scadere anche nei nel sensazinalismo. Per prima cosa, il software, come richiesto dal test, ha superato la soglia del 30%, ma siamo ben lontani dall’aver ingannato tutti i giudici. Alcuni scettici puntano il dito sul fatto che il personaggio simulato fosse un ragazzino di soli 13 anni e non madrelingua inglese. Questo particolare potrebbe aver tratto in inganno alcuni giudici che potrebbero aver pensato ad informazioni non note per la giovane eta’ o a problemi di comprensione dovuti alla diversita’ linguistica.

A parte questo, il test e’ stato comunque superato. Sicuramente, la pubblicita’, assolutamente giusta dal mio punto di vista visto il risultato storico, contribuira’ a far crescere gli investimenti nella ricerca per l’intelligenza artificiale che, test a parte, potrebbe trovare applicazione in moltissimi settori. Per darvi un’idea, la stessa Google ha da poco investito ingenti capitali in questo settore, circa 400 milioni di dollari, per acquisire societa’ piu’ piccole ed incentivare lo sviluppo di software sempre piu’ pensanti. Per chi volesse provare un sistema di questo tipo, anche se molto meno raffinato di Eugene Goostman, ci sono due possibilita’: i sistemi di assistenza vocale dei moderni cellulari (Siri per fare un esempio) o programmi online apprendenti:

Tobby chat bot

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Sperimentazione animale

2 Gen

Sul forum di Psicosi 2012:

Psicosi 2012 forum

e’ nata una discussione molto interessante sulle conseguenze che le campagne di disinformazione e coinvincimento da parte di alcuni siti possono avere sulle persone. In particolare, il dibattito era incentrato sull’emotivita’ e su quanto il voler creare odio e complottismo puo’ sfociare in reazioni esagerate e fuori controllo. All’interno di questa discussione, si e’ poi arrivati al caso, molto discusso in questi giorni, della ragazza di Bologna che ha riacceso il dibattito sulla sperimentazione animale.

Per chi non fosse informato sui fatti, credo pochi se non altro per l’enorme eco mediatica che la notizia ha avuto,  una ragazza, per la precisione Caterina Simonsen, ha inizialmente pubblicato sul suo profilo facebook questa foto:

La foto su facebook che ha acceso il dibattito sulla sperimentazione animale

La foto su facebook che ha acceso il dibattito sulla sperimentazione animale

Come vedete, si tratta di un messaggio in cui si difende la sperimentazione medica animale grazie alla quale la ragazza e’ ancora in vita. Testuali parole, ne riparleremo tra poco, recitano: “senza la ricerca sarei morta a 9 anni”.

Per essere precisi, tale Caterina e’ affetta da quattro malattie rare: immunodeficienza primaria, deficit di proteina C e proteina S, deficit di alfa-1 antitripsina, neuropatia dei nervi frenici, abbinate al prolattinoma, un tumore ipofisario, e a reflusso gastroesofageo, asma allergica e tiroidite autoimmune. Come potete ben capire, il quadro clinico in questione non e’ assolutamente semplice. Diverse volte la ragazza e’ stata sul punto di morire ricoverata in terapia intensiva e anche in questi giorni si trova ricoverata in ospedale a causa di un aggravamento della situazione. Ad oggi, Caterina e’ costretta a passare quasi 20 ore al giorno collegata ad un respiratore e ad assumere moltissimi medicinali che le consentono di rimanere stabile.

Veniamo prima ai fatti, come e’ noto, questa foto ha scatenato le ire di molti animalisti e persone facenti capo ad associazioni per la difesa degli animali. Purtroppo, le ire sono sfociate in insulti anche molto gravi. Non sono mancati, per la precisione se ne contano una trentina, auguri di morte per Caterina, moltissimi incernierati intorno al concetto “se morivi a 9 anni non importava niente a nessuno”.

Piccola parentesi iniziale necessaria e doverosa, come piu’ volte chiesto e preteso anche su questo blog, quando si vanno a discutere argomenti delicati e contestati come questo, e’ normale che ci siano opinioni anche completamente discordanti. Questo pero’ non deve prescinedere da una dialettica “educata” e veicolata dall’umanita’ e dal buon senso. Augurare la morte a qualcuno perche’ ha un’opinione diversa dalla nostra significa tornare indietro di centinaia di anni. In un dibattito costruttivo, ognuno ha le sue motivazioni che puo’ esternare e che possono essere costruttive per gli altri. Probabilmente, alla fine, ognuno rimarra’ della sua opinione ma tutti avranno imparato qualcosa, se non altro avendo un quadro completo del pensiero e delle tesi dell’altro fronte.

Ora, lungi da me discutere o sensibilizzare sulla situazione di salute della ragazza in questione. Umanamente, e’ normale sentirsi vicini a persone in questo stato e, magari, voler sensibilizzare l’opinione pubblica facendo leva sul quadro clinico di Caterina. Questo pero’, a mio avviso, e’ sbagliato e, sempre mia opinione personale, non era nelle intenzione della ragazza stessa. Quanto accaduto deve invece innescare una discussione costruttiva su un tema molto delicato e che spesso lascia spazio solo ad estremismi piuttosto che ad una discussione scientifica seria. Come sapete, e come normale, esistono diverse associazioni in difesa o contro la sperimentazione animale, molto spesso pero’, si creano su questi temi partitismi fondamentalisti che puntano piu’ all’emotivita’ e alla sensibilita’ delle persone piuttosto che ad una discussione scientifica e costruttiva.

Detto questo, cerchiamo di fare il punto sulla sperimentazione animale cercando di capire pro e contro, e soprattutto l’utilita’ o meno, di questa tecnica in ambito medico.

Per prima cosa, parlare di sperimentazione animale non e’ del tutto completo. Si deve infatti distinguere tra sperimentazione di base e applicata. Nel primo caso, ci si limita ad un’osservazione, ad esempio del comportamento, per comprendere determinati aspetti. Nella sperimentazione applicata invece, alcuni animali vengono utilizzati come modelli attivi per comprendere una determinata caratteristica biologica o genetica di un’altra specie, molto spesso quella umana. Ovviamente, ma la distinzione era obbligatoria, quando parliamo di “sperimentazione animale” ci riferiamo alla ricerca applicata.

Bene, a questo punto le domande fondamentali a cui dobbiamo provare a dare una risposta sono essenzialmente due: e’ veramente utile la sperimentazione sugli animali? Esistono metodi alternativi? Come potete facilmente immaginare, i due fronti, favorevoli e contrari, danno risposte completamente discordanti che sono, rispettivamente, SI-NO e NO-SI.

Vediamo prima di tutto le motivazioni alla base di queste risposte partendo proprio dal fronte contrario alla sperimentazione.

In soldoni, il punto fondamentale portato dal fronte contrario e’ che la sperimentazione animale non porta risultati certi dal momento che e’ fatta, come e’ ovvio, su esseri viventi simili ma non esattamente uguali all’uomo. Detto in altri termini, quando si utilizza una determinta specie per studiare la genetica, provare farmaci o osservare il decorso di una malattia, si utilizza un essere che potrebbe non avere esattamente lo stesso comportamente o la stessa reazione dell’uomo. Generalmente, dal punto di vista del DNA, si utilizzano specie che hanno mappature uguali fino al 95% a quelle dell’uomo. Cosa significa questo? Semplice, quel 5% di differenza, in media e ovviamente per dare qualche numero, puo’ essere determinante in quel preciso studio, portando risultati completamente sballati e che poi non saranno identici sull’uomo. E’ vero questo? Assolutamente si, ed e’ normale che sia cosi’. Prendendo specie diverse, non possiamo certo aspettarci di avere un comportamento speculare al 100% se cosi’ fosse, avremmo non specie simili ma identiche.

Fate pero’ attenzione, come anticipato, parliamo di verosimiglianza a percentuali molto alte. E’ ovvio che per una determinata sperimentazione si prendano animali che, da quel determinato punto di vista, possano essere paragonabili con un’alta percentuale all’uomo. Ovviamente, analisi diverse prendono in esame specie diverse ma simili all’essere umano per un determinato aspetto.

Qual e’ dunque la conclusione del fronte contrario alla sperimentazione? Testare un protocollo sugli animali e’ un’inutile violenza dal momento che il risultato ottenuto non e’ univoco. In altri termini, e’ sempre necessaria una sperimentazione sull’uomo per valutare aspetti specifici che non e’ possibile predeterminare sull’animale. Esempio classico portato a sostegno: farmaci che al termine della sperimentazione devono essere tolti dal mercato perche’ danno vita a reazioni non attese e non osservate nella fase sperimentativa.

Questa conclusione e’ assolutamente fuorviante frutto dell’ignoranza dei protocolli. Rimaniamo, per semplicita’, sul discorso farmaci. Un medicinale, prima di essere immesso sul mercato, affronta un lungo protocollo sperimentativo che parte, generalmente, sull’animale passando poi ad una fase preliminare su soggetti volontari e poi, se tutto va bene, arriva nelle farmacie. Ora, come normale, anche nella fase di somministrazione volontaria si parla di un numero limitato di soggetti. Quella che viene fatta e’ una valutazione statistica degli effetti. Persone diverse, possono avere reazioni diverse. Durante la fase volontaria si studiano eventuali effetti collaterali e viene redatto il bugiardino. Alcune volte, dopo l’immissione sul mercato, proprio perche’ di fronte ad una statistica maggiore di casi, si possono manifestare controindicazioni con probabilita’ minori. In questo caso, come e’ normale, viene aggiornato il bugiardino includendo questi nuovi casi. Detto in parole molto semplici per capire il concetto, una casa farmaceutica mette in commercio un farmaco che salva la vita a molte persone. In un solo caso, questo farmaco ha una reazione allergica che crea danni ad un individuo. Toglialmo il farmaco dal mercato? Assolutamente no, quel prodotto e’ utile per tante persone per cui si aggiorna il bugiardino solo includendo quel caso specifico.

Lasciamo ora questo esempio per tornare alla discussione iniziale. Seguendo questo ragionamento, il fronte contrario alla sperimentazione sostiene che esistano metodi alternativi per verificare l’efficacia e le controindicazioni di un determinato prodotto. Ripeto, parliamo genericamente di prodotto solo per semplificare, il ragionamento va bene per farmaci, terapie, analisi, ecc. Quali sono i metodi alternativi? Primo tra tutti, la simulazione della risposta dell’organismo. Cosa significa? Ad oggi, abbiamo una conoscenza abbastanza avanzata anche solo del genoma umano e del comportamento biololgico-genetico dell’uomo. Sfruttando queste conocenze, e la possibilita’ di utilizzare calcolatori molto potenti, possiamo sostituire la sperimentazione sugli animali con una simulazione informatica della risposta.

Analizziamo questo aspetto. Come visto, uno dei punti cardine del fronte contrario e’ che la risposta dell’animale non e’ determinante per il risultato, e’ sempre necessaria una sperimentazione sull’uomo. Perche’? Come detto, e come normale, la percentuale di somiglianza non e’ e non puo’ essere 100%. Bene, secondo voi, una simulazione al computer puo’ essere identica alla risposta dell’essere umano? Come potete facilmente capire, la risposta e’ no. Facciamo, al solito, un esempio riduttivo ma utile alla comprensione. Al computer possiamo simulare, ad esempio, l’interazione di un farmaco con un organo bersaglio specifico. Prima di tutto, questo non e’ assolutamente corretto. Che livello di precisione possiamo ottenere? Supponiamo di simulare l’interazione di una molecola con i succhi gatrici, simulazione che comunque implica un calcolo lungo e attento. Bene, noi non siamo solo “succhi gastrici”. Magari, quella molecola puo’ avere effetti collaterali gravi sullo stomaco, oppure interagire dannosamente con un altro organo collegato allo stomaco o, anche, influire sulla circolazione mediante l’interazione con il sangue. Cosa significa questo? Se da un lato un animale puo’ essere simile al 95% con l’uomo, una simulazione, in quanto tale, avra’ una somiglianza, supponiamo anche piu’ alta del 95%, per un determinato aspetto dell’uomo. Tornado all’esempio visto, possiamo pensare ad un programma che simula anche al 99% il comportamento dei succhi gastrici, ma in quella simulazione stiamo ignorando lo stomaco, la digestione, il sangue, la circolazione, insomma, l’essere umano. Come potete facilmente rendervi conto, non possiamo pensare di simulare il comportamento e le reazioni dell’uomo completamente al 100%. Se cosi’ fosse, avremmo ridotto l’essere umano ad una semplice macchina.

Detto questo, capite bene l’assurdita’ del pensare che una simulazione possa essere paragonata all’uomo. Prima di tutto, per quanto avanzata, la nostra conoscenza medica non e’ assolutamente completa. Inoltre, per sua stessa definizione uan simulazione prende in esame aspetti specifici e ristretti di un particolare fenomeno. Senza contare poi eventuali errori di software che potrebbero portare risultati completamente diversi.

La sperimentazione animale porta sicuramente delle incongruenze che devono essere testate preliminarmente sull’uomo, ma questi errori possono essere ben piu’ ampi parlando di “metodi alternativi”. Punto di arrivo di questo ragionamento, ripeto personale ma supportato da considerazioni numeriche, e’ che, ad oggi, la sperimentazione animale e’ ancora fondamentale in ambito di ricerca medica. Praticamente tutti i farmaci e tutti i protocolli che utilizziamo, dall’influenza fino alle patologie piu’ gravi, vengono testati su animali all’interno dei centri di ricerca. Tutti quei fondamentalisti, non comuni cittadini che hanno un pensiero ma, ad esempio, gli autori dei commenti visti prima sul caso della ragazza di Bologna, dovrebbero essere consapevoli del ruolo della sperimentazione e del fatto che molti dei farmaci che utilizzano sono sicuri anche per questo motivo.

Prima di concludere, vorrei fare delle ulteriori considerazioni personali. Come premesso, cosi’ come avviene su molti altri aspetti discussi anche in questo blog, la creazione di fazioni fondamentaliste preclude la sana discussione costruttiva. Insultare la ragazza di Bologna augurandole la morte, non serve certo a spiegare le motivazioni della propria contrarieta’ alla sperimentazione animale. Dal mio punto di vista, se vogliamo parlare di umanita’ e rispetto per specie viventi, allora di dovrebbe parlare di allevamenti intensivi di animali da pelliccia. Se proprio vogliamo essere franchi, quelli sono sacrifici che possono essere eliminati utili solo per un mero vezzo estetico. Allo stesso modo, non possiamo paragonare la sperimentazione di un farmaco con quella di prodotti cosmetici. Come potete capire, esistono molte sfumature di questo aspetto che non possono essere unificate nascondendosi dietro all’ormai famosa espressione “no, senza se e senza ma”.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Vesuvio pronto ad esplodere

29 Nov

Ci risiamo, anche se si passa la maggior parte del tempo a formulare teorie catastrofiste sulla cometa ISON, ogni tanto una piccola parentesi piu’ terrena ci sta sempre bene. Cosa potremmo tirare fuori per spaventare un po’ di gente: semplice, un evergreen del catastrofismo, il Vesuvio!

Cosa significa?

In questi giorni il web sta letteralmente esplodendo con decine di articoli che parlano del Vesuvio. Attenzione, in che senso ne parlano? L’eruzione del Vesuvio sarebbe prossima, si trattera’ di un’eruzione letteralmente esplosiva con addirittura un milione di morti in 15 minuti.

Chi lo dice?

La fonte iniziale, come riportato da molti siti, sarebbe il professor Flavio Dobran, esperto di vulcani e docente della “New York University”.

A questo punto voi direte: ok, la solita bufala con un professore inventato di un’universita’ che non esiste o, in alternativa, un ricercatore indipendente al servizio di chissa’ quale testata inutile.

Mi dispiace deludervi ma il prof. Dobran esiste veramente ed e’ veramente un esperto di vulcani.

A questo punto, credo sia il caso di passare attraverso questa notizia e vederci chiaro.

Come potete leggere da molti siti, Dobran avrebbe studiato la storia geologica di molti vulcani sulla Terra per cercare di simularne il comportamento futuro. Da questa analisi sono venuti fuori risultati molto interessanti per il nostro Vesuvio. In particolare, sempre secondo questo modello, il Vesuvio avrebbe un comportamento ciclico alternando eruzioni di lieve e forte intensita’. Sempre secondo questi calcoli, e considerando che Dobran e’ anche un esperto di fluidodinamica, sarebbe stato possibile prevedere anche la dinamica dell’eruzione violenta, che sarebbe la prossima. La caldera sotto il vulcano raggiungerebbe fortissime pressioni con temperature molto elevate. Questo comporterebbe, da un’analisi del substrato attuale, la formazione di una sorta di pentola a pressione sprovvista di valvola di sfogo. L’aumentare delle pressioni porterebbero ad un certo istante ad una rottura completa del cono vulcanico provocandone dunque l’esplosione.

Ora, ragioniamo su quanto detto: modello di comportamento di un vulcano. Vi dice niente questa frase? L’analisi condotta dallo scienziato e’ assolutamente seria e va presa in considerazione. In che modo? Lo studio dinamico dei fluidi interni del Vesuvio hanno permesso di determinare una struttura in grado di reggere pressioni molto alte. Se vogliamo dirlo in termini semplici, la differenza principale tra il Vesuvio e l’Etna e’ proprio questa. Se, da un lato, l’Etna e’ una sorta di colabrodo che erutta in continuazione in modo lieve, dall’altra il Vesuvio tiene tutto all’interno arrivando, prima o poi, ad un punto di rottura completo con una violenta eruzione.

A parte lo studio completo e assolutamente degno di nota, al solito, i catastrofisti hanno preso solo la parte secondo loro interessante o meglio manipolabile cioe’: l’esplosione conseguente alla pressione e le alte temperature prodotte.

Questi aspetti sono noti da tempo e ne avevamo gia’ parlato in un articolo specifico:

Cosa succede in Campania?

In particolare, avevamo gia’ fatto anche tutti i confronti mostrando, in un altro articolo, il diverso comportamento di altri vulani nostrani come il gia’ citato Etna e lo Stromboli:

Due parole sull’Etna e sullo Stromboli

Ora, quando dovrebbe avvenire questa eruzione? E’ possibile che sia prossima?

La risposta alla prima domanda e’ “non lo sappiamo”, la seconda invece e’ “assolutamente no”. Attenzione pero’, se non sappiamo quando avverra’ l’eruzione, come possiamo dire che non sara’ a breve?

Anche qui, basta ragionare con la testa per capire dov’e’ la verita’. Lo studio di Dobran non consente assolutamente di determinare il momento dell’eruzione ma solo come questa avverra’. Ora pero’, come detto in precedenza, la dinamica precedente all’esplosione presenterebbe dei movimenti caratteristici assolutamente ben identificabili. Immaginate la caldera del vulcano che va in forte pressione, cosa succederebbe all’esterno? Sicuramente questo provocherebbe una serie di terremoti di intensita’ crescente. Inoltre, ci sarebbero fenomeni di innalzamento del terreno assolutamente non trascurabili.

Sono presenti oggi questi fenomeni?

Assolutamente no. Oggi sentiamo parlare di attivita’ sismica sul Vesuvio e movimenti del terreno che si alza e si abbassa. Anche se simili, questi non sono assolutamente segnali precursori dell’esplosione ma conseguenze della normale attivita’ del vulcano, sempre presente. Come visto, le intensita’ dei fenomeni precursori sarebbero estremamente piu’ intense e assolutamente non confondibili con quelle standard.

Allora possiamo stare tranquilli?

Anche qui, come detto nei precedenti articoli, mi permetto di dissentire. Anche se oggi non siamo in procinto dell’eruzione, sapiamo che, prima o poi, questa ci sara’. Bene, dovremmo sfruttare questi momenti per predisporre piani di sicurezza, mettere in sicurezza la zona, definire zone rosse, ecc. Tutte attivita’ che, quando l’emergenza scattera’, potrebbero essere in grado di salvare molte vite. Ad oggi, anche se qualcosa si sta muovendo, le attivita’ in corso sono sempre troppo poche. Complice la crisi e, permettetemi, anche la mentalita’ locale, siamo abituati a non preoccuparci di qualcosa fino a che questo qualcosa non diviene un’emergenza. Come potete facilmente immaginare, questo approccio e’ fallimentare. Perche’ aspettare di piangere i morti quando, oggi, potremmo fare in modo che la conta sia molto ridotta?

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Rapido aggiornamento sulla ISON

20 Ott

Uno degli argomenti che maggiormente fa discutere sul web, sia sotto il profilo scientifico che catastrofista, e’ senza dubbio la cometa Ison. Come sappiamo bene, gia’ da mesi circolano leggende riguardo a questa cometa, racconti di fantasia che vorrebbero la cometa essere in realta’ questo o quest’altro, essere in rotta di collisione con la Terra o tante altre storielle non documentate che fanno sorridere piu’ che riflettere.

Dal canto nostro, diverse volte abbiamo parlato della ISON:

2013 o ancora piu’ oltre?

E se ci salvassimo?

Che la ISON abbia pieta’ di noi!

– Se la Ison non e’ cometa, allora e’ …

Come sappiamo bene, questa cometa era stata annunciata come la cometa del secolo. Onde evitare fraintendimenti, vi ricordo che un calcolo simulato della reale traiettoria di qusto tipo di oggetti non e’ banalmente eseguibile. Con questo non intendo dire che la cometa potrebbe essere in rotta di collisione con la Terra, bensi’ che determinare a priori, e a distanza di mesi, se la Ison sia in grado di sopravvivere al massimo avvicinamento con il sole non e’ affatto facile.

Detto questo, credo sia interessante dare un rapido aggiornamento sulla Ison per capire quali sono i risultati delle ultime osservazioni.

Ad oggi, la Ison si trova ancora dalle parti di Marte ed ha superato la cosiddetta linea di gelo di cui avevamo parlato negli articoli precedenti.

In rete si trovano alcune foto molto interessanti scattate alla cometa. Per prima cosa vi voglio mostrare questa immagine:

Immagine della Ison al 1 Ottobre scattata dal MRO.

Immagine della Ison al 1 Ottobre scattata dal MRO.

Queste immagini sono state scattate il 1 Ottobre, quando la ISON e’ passata a circa 6.5 milioni di kilometri dalla superficie del pianeta rosso, distanza estremamente minore di quella di minimo avvicinamento alla Terra. Le foto sono state fatte dalla sonda MRO che sta esplorando la superficie di Marte. Se pensate che la risoluzione delle immagini sia troppo bassa, vi dico subito che le foto sono state fatte utilizzando la camera HiRISE della sonda, normalmente utilizzata per osservare ad alta risoluzione la superificie del pianeta. Questo spiega il perche’ della bassa risoluzione ma soprattutto vi fa capire quanto versatile sia questa camera montata sul MRO.

Oltre a questa prima foto, in queste ultime ore e’ stata pubblicata un’altra immagine spettacolare della cometa:

Immagine della Ison del 9 Ottobre, scattata dal telescopio Hubble.

Immagine della Ison del 9 Ottobre, scattata dal telescopio Hubble.

Inutile dire che questa immagine e’ davvero sensazionale. La foto e’ stata scattata il 9 ottobre dal telescopio Hubble. In questo caso, lo strumento utilizzato era ovviamente ottimizzato per questo genere di riprese e l’immagine e’ stata ottenuta sovrapponendo le informazioni di due diversi filtri.

Fate attenzione ad una cosa, notate come la parte centrale della cometa appaia molto compatta ed uniforme. Cosa significa questo? Semplicemente, che il nucleo della cometa non si e’ frammentato ma e’ ancora del tutto compatto. Questa informazione e’ molto importante per poter valutare il destino della Ison nel passaggio al perielio.

Dunque? Se il nucleo e’ compatto, siamo pronti allo spettacolo tanto atteso?

Purtroppo, questa sarebbe una conclusione affrettata. Da una stima preliminare, e al contrario di quanto affermato nelle settimane scorse dai tanti siti catastrofisti, il nucleo della Ison ha una dimensione molto minore di quella aspettata. In questo caso, parliamo di un nucleo con un diametro tra 0.5 e 2 km appena, molto minore di quello, ad esempio, della Hale Bopp di cui tutti abbiamo uno splendido ricordo.

Ovviamente, il fatto di avere un nucleo compatto da qualche speranza in piu’ per il passaggio al perielio, anche se, viste le dimensioni, e almeno in questa fase preliminare, ridimensiona molto lo spettacolo che ci attende qualora la cometa sopravviva al passaggio radente intorno al Sole. Sicuramente, anche in queste condizioni, la Ison sara’ in grado di offire un buon spettacolo, ma, molto probabilmente, non ai livelli che molti attendevano.

Nonostante questo, non dimentichiamo che ogni passaggio di questi oggetti ci consente di capire meglio molte importanti caratteristiche delle comete. Allo stato attuale, la Ison potrebbe essere molto ben visibile a Dicembre, dopo il passaggio al perielio il 28 novembre. Purtroppo, molto probabilmente, non avremo un qualcosa piu’ luminoso della luna ne tantomeno visibile in pieno giorno.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Sale qb … anche nelle batterie

6 Ott

Negli ultimi anni, i nostri dispositivi elettronici hanno avuto un notevole miglioramento puntando sempre di piu’ verso i concetti di portabilita’ e wireless. Come sapete, oggi come oggi, la maggior parte dei nostri gadget tecnologici sono dotati di batterie ricaricabili. Il progresso in questo settore ha reso disponibili batterie sempre piu’ piccole, capienti e con cicli di carica sempre piu’ rapidi.

Il principio di utiizzo di una batteria di questo tipo e’ ovviamente chiaro a tutti. Si carica di energia il nostro sistema, per poi utilizzarlo scollegato dalla rete elettrica. Questo e’ fondamentale per portare a spasso i nostri dispositivi dove non e’ disponibile la rete elettrica.

Perche’ faccio questo preambolo?

Molto spesso nei nostri articoli abbiamo parlato di energie rinnovabili. Come sapete bene, le fonti piu’ utilizzate in tal senso sono senza dubbio l’eolico e il solare. A parte tutti i discorsi sull’efficienza di queste risorse, uno dei problemi principali riscontrati e’ la non costanza della fonte primaria. Mi spiego meglio. I pannelli solari che normalmente utilizziamo hanno bisogno, per definizione, del sole per produrre energia. Detto questo, di notte non possono funzionare. Analogamente, per quanto si cerchi di trovare la miglior postazione, in assenza di vento le pale eoliche non girano.

Il problema della disponibilita’ delle risorse e’ uno di quelli maggiormente studiati e analizzati dai gestori elettrici. In diverse compagnie sono presenti gruppi di studio che cercano di simulare la produzione energetica anche solo con poche ore di anticipo. Questo e’ fondamentale in virtu’ della pianificazione. Se le fonti producono energia nel momento in cui la rete non la richiede, ci troviamo con un surplus inutilizzato. Analogamente, se la richiesta energetica e’ massima quando la produzione e’ minima, siamo costretti a ricorrere ad altre fonti per soddisfare le richieste.

Per ovviare a questi problemi, si ricorre a sistema di accumulazione basati proprio su batterie. Riprendendo l’esempio del solare, durante il giorno l’energia prodotta viene stoccata in batterie in grado di accumularla per poi cederla quando la richiesta aumenta.

Il problema principale delle batterie normalmente utilizzate, ed in questo caso la capacita’ di contenimento e’ il parametro piu’ importante, e’ che molto spesso questi sistemi sono basati su metalli e componenti che, una volta esaurito il ciclo vitale delle batterie, sono estremamente tossici e dannosi per l’ambiente. L’esempio principale in questo caso e’ quello delle batterie al piombo.

Bene, negli ultimi mesi una delle principali compagnie produttrici di batterie, l’italiana FIAMM, ha reso disponibili dei sistemi basati semplicemente sul cloruro di sodio, cioe’ proprio il semplice sale.

Batteria SoNick della FIAMM

Batteria SoNick della FIAMM

Ad essere sinceri, e al contrario di quello che leggete in rete, le batterie al cloruro di sodio sono una realta’ gia’ da qualche anno. Quello che e’ riuscita a migliorare notevolmente la FIAMM e’ la capacita’ di contenimento energetico e soprattutto la durata delle batterie.

Questa nuova serie di batterie si chiama SoNick ed e’ basata sul cloruro di sodio e sul cloruro di Nichel. Durante il funzionamento, il cloruro di nichel si deposita al catodo, mentre il sodio, dissociato dal NaCl, si deposita sull’anodo. In ciascuna cella, anodo e catodo sono separati da una barriera ceramica che consente il passaggio degli ioni di sodio per il funzionamento della batteria. La tensione a circuito aperto della singola cella e’ di 2.58V e questo valore, al contrario di molte batterie commerciali, rimane pressoche’ costante per gran parte del profilo di scarica. Questo sistema consente di conservare la carica per tempi piu’ lunghi oltre ad allungare notevolmente la vita stessa della batteria.

Questo tipo di batterie e’ stato sviluppato appositamente per essere connesso con i sistemi rinnovabili, appunto solare ed eolico. La fase di ricerca e sviluppo e’ durata diversi anni ed e’ stata fatta in collaborazione anche con il CNR. Detto questo, capite molto bene l’importanza di questo risultato e l’interesse di moltissimi produttori in questi nuovi sistemi.

La stessa FIAMM ha costruito nella sua sede un parco solare munito di batterie al sale. Inoltre, in collaborazione con Ansaldo, si e’ aggiudicata la gara per la costruzione di un impianto nella Guyana francese. Il progetto prevede la realizzazione di un parco in grado di formire elettricita’ a diverse famiglie della zona e potrebbe essere il primo di una serie pensata proprio per portare elettricita’ in luoghi difficilmente raggiungibili dalla rete tradizionale.

Punto di forza di queste batterie e’ ovviamente l’impatto ambientale minimo al termine del ciclo vitale. Ad oggi, le batterie al sale vengono gia’ utilizzate nella trazione elettrica di autobus, ad esempio dalla Iveco. Queste nuove batterie consentiranno anche in questo caso di migliorare la durata dei sistemi e di garantire percorsi sempre piu’ lunghi prima della ricarica.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

11 settembre 2001: USA sotto attacco

23 Set

Dalla discussione avuta con un nostro caro lettore, mi e’ stato richiesto eplicitamente un articolo sugli attentati dell’11 settembre 2001. Ovviamente, non posso che essere lusingato di questa richiesta, che mi chiede di analizzare con lo stile di questo blog, uno dei fatti piu’ cruenti e significativi degli ultimi anni.

Come sapete bene, proprio da questi fatti, molti analisti fanno iniziare la crisi economica, l’inizio di quella che potrebbe essere considerata una guerra tra Occidente e Islam ma anche un cambio di coscienza globale di una civilta’ che da un giorno all’altra si e’ trovata nell’era moderna. Queste considerazioni, non vengono fatte solo a scopo introduttivo. A mio avviso, questi fattori entrano prepotentemente nell’analisi che viene richiesta per poter inquadrare al meglio i fatti nello specifico.

Trattare il tema dell’11 settembre non e’ di per se facile. Per diversi giorni ho studiato materiale, letto interviste, visionato filmati. Come sapete bene, la rete e’ strapiena di cospirazioni pensate, o anche immaginate, riguardo a questi attentati. Ovviamente, sarebbe impossibile trattarle tutte e con elevato dettaglio. Di questo mi scuso da subito. Sono consapevole che questo articolo potrebbe scatenare una pletora di commenti, forse neanche troppo soft, di qualcuno che crede fortemente che quanto accaduta sia una grande montatura.

Proprio partendo da queste osservazioni, vorrei sottolineare una cosa. Molte teorie affondano le loro radici sul fatto che i servizi segreti sapessero in anticipo degli attentati, discutono del perche’ i caccia siano partiti troppo presto o troppo tardi dalle basi militari, del perche’ il presidente fosse rimasto cosi’ tanto tempo nella famosa scuola elementare invece di correre sul luogo dell’attentato. Se sperate di avere risposte a queste domande, vi dico subito che queste non verranno trattate e non sono materia di questo blog. Perche’? Noi siamo qui per parlare di scienza e per analizzare i complotti e le catastrofi che vengono annunciate. Fate attenzione, ho detto “analizzare”, non “smentire”. Questa e’ la sottile differenza che ci distingue da coloro che sostengono i complotti per partito preso, ma anche da coloro che cercano in tutti i modi di smontarli senza cognizione di causa. Dal nostro punto di vista, cerchiamo sempre di non partire prevenuti, ma di rimanere aperti ad ogni risultato il nostro ragionamento potrebbe raggiungere. In fondo la scienza ci insegna questo, un risultato non e’ bello o brutto a seconda che ci faccia comodo o no, e’ un risultato che deve essere sostenuto da ipotesi oggettive.

Bene, quello che dunque vogliamo analizzare in questo post e’ il discorso della caduta delle torri gemelle, anche dette WTC1 e WTC2, dell’ulteriore edificio caduto a 200 metri dalle torri, il WTC7 e dell’aereo arrivato sul Pentagono.

Come sapete bene, anche perche’ molti hanno fatto fortuna parlando di queste ipotesi, i complottisti sostengono che sia fisicamente impossibile che i due edifici principali del World Trade Center siano caduti per l’impatto degli aerei o per gli incendi sviluppati all’interno. Secondo queste teorie, il dirottamento degli aerei sarebbe stata solo una farsa creata ad hoc. In realta’, le torri sarebbero cadute perche’ precedentemente minate con esplosivo o peggio ancora con termite, una sostanza in grado di sviluppare altissime temperature con un innesco a bassa temperatura. Le prove di questo sarebbero date dalla dinmica del crollo delle torri, perfettamente compatibili con una distruzione pianificata, esattamente quella che viene fatta da esperti per buttare giu’ un palazzo. Altra teoria alternativa che sta riscuotendo sempre piu’ successo in rete, e’ quella di un ordigno nucleare fatto esplodere nel sottosuolo e che avrebbe provocato la caduta delle torri per un cedimento delle fondamenta.

Prima di analizzare il crollo delle torri, vorrei fare qualche ragionamento. Per prima cosa, tutti questi scenari si basano sul fatto che il dirottamento sarebbe stato una farsa. Ma allora la domanda e’: perche’ e’ stato fatto? Nelle innumerevoli ipotesi, non ho mai letto questa risposta. Se le torri fossero state minate o se fossero cadute per l’esplosione di una bomba atomica, perche’ dirottare gli aerei e lanciarli contro uno dei simboli degli USA? Come sapete, stiamo parlando di un attentato terroristico dunque, per sua stessa definizione, volto a creare “terrore” nelle persone. La strategia di questi gruppi non e’ tanto quella di fare migliaia di vittime, quanto quella di dimostrare di poter colpire dove e quando vogliono. Perche’ dico questo? Una delle ipotesi, con o senza esplosivo, e’ che tutto sia stato organizzato dagli USA stessi, cioe’ che quello delle torri gemelle sia stato un auto-attacco. Perche’? Semplice, almeno a quello che dicono i complottisti, questo avrebbe offerto le condizioni per far partire le diverse campagne contro l’Islam, per far crollare regimi totalitari, per impadronirsi del petrolio o di altre risorse, per controllare i paesi orientali, ecc.

E’ credibile questo? Personalmente spero di no, ma l’analisi di queste considerazioni, come anticipato, non rientra negli scopi di questo articolo. Qui vogliamo solo analizzare gli attentati e capire se e’ possibile che ci sia qualcosa sotto non dichiarato. Poi se volete possiamo parlare del fatto che gli USA non siano un governo trasparente sotto molti aspetti, ma anche qui vi farei notare che nessuno stato lo e’ su determinate questioni, tantomeno l’Italia. Ci sono tantissimi fatti della nostra storia su cui c’e’ ancora un’aura di mistero e di possibile complotto. Non meravigliamoci di questo. Certo, da qui a parlare di auto-attentato ce ne passa.

Torniamo dunque all’attentato. Per prima cosa, vorrei escludere da subito, e chiunque dotato di buon senso dovrebbe farlo altrettanto velocemente, l’ipotesi ordigno nucleare sotterraneo. Perche’? Per prima cosa, un’esplosione nucleare produce radiazioni. E’ vero che si parla di esplosione sotterranea ma chi ce l’ha messa? Come? Possibile che non ci sia stata nessuna fuga di radiazioni?

Se queste considerazioni non vi bastano ve ne dico una definitiva. Se il tutto fosse provocato da un’eplosione sotterranea, sarebbero state colpite prima di tutto le fondamenta delle torri e, di conseguenza, il cedimento sarebbe stato dal basso. Come tutti sanno, con le immagini di quegli attimi ben presenti nelle nostre menti, la caduta e’ iniziata dall’alto, cioe’ da dove sono arrivati gli aerei.

Questo esclude subito l’ipotesi ordigno nucleare.

Bene, passiamo ora all’altra importante teoria complottista: le torri sono state progettate per resistere all’urto di un aereo di linea per cui non potevano crollare. Quelle che hanno provocato il cedimento sono state cariche piazzate in diversi piani e che hanno provocato quella che si chiama una distruzione pianificata.

Prima considerazione, come avrebbero fatto a mettere tutte queste cariche? Con un edificio del genere, le cariche avrebbero dovuto essere in molti piani, in punti diversi ed in zone di normale passaggio di persone. Chi avrebbe avuto la possibilita’ di mettere queste cariche? Come sapete, le torri erano sede di moltissimi uffici ed erano frequentate nell’arco di quasi tutta la giornata. Ah certo, quasi dimenticavo, se l’attentato e’ stato fatto dagli USA, non avevano certo problemi nel piazzare ordigni ed entrare senza destare sospetto.

Considerazione interessante. Vi faccio pero’ riflettere su un’altra cosa, perche’ allora gli aerei? Avete imbottito le torri di esplosivo per farle crollare, perche’ dirottare degli aerei da lanciare contro le torri? Per aumentare l’affetto scenico? L’ipotesi non regge tanto. Inoltre, come avete visto dai video dei crolli, il cedimento e’ iniziato proprio nei piani sopra il punto di impatto, possibile che le cariche siano state fatte brillare nell’esatta sequenza, dall’alto verso il basso, e che i dirottatori abbiano centrato esattamente il punto che avevate concordato in precedenza? Personalmente, credo che si stia passando dal complottismo alla fantascienza.

Qual e’ l’altra motivazione che spinge a pensare che l’attaco sia stato auto-pianificato? Il piano era talmente tanto perfetto e l’esecuzione talmente impeccabile che l’organizzazione poteva solo essere fatta da un governo preparato e interno al paese, dunque gli USA stessi.

Facciamo una considerazione abbastanza meschina, soprattutto se pensiamo ai 3000 morti dell’11 settembre. Gli attentati sono stati perfetti? Assolutamente falso. Vi spiego il perche’. Avete dirottato 4 aerei, due sono andati a segno sulle torri, uno ha fatto danni marginali al pentagono e uno non e’ nemmeno arrivato a destinazione. Siete arrivati contro le torri in un orario sbagliato. Come sapete, gli attentati sono accaduti nelle prime ore della mattinata, quando le torri non erano ancora completamente piene. Se vogliamo essere sadici, un attentato ben riuscito avrebbe scelto un orario diverso, anche solo un paio di ore dopo. Inoltre, avete colpito le torri in punti molto alti. Questo ha consentito alle persone dei piani inferiori, in larga parte, di mettersi in salvo. Tra l’altro uno degli aerei e’ arrivato completamente storto all’impatto colpendo uno spigolo della torre. E’ un piano perfetto? Direi proprio di no. Dunque, anche questa ipotesi secondo me regge poco.

Detto questo, passiamo alla dinamica del crollo.

Secondo l’ipotesi complottista, il cedimento sarebbe stato causato da cariche opportunamente piazzate come in una demolizione controllata. Le prove? Prima di tutto, la caduta perfettamente verticale delle torri, secondo ampi sbuffi di fumo e detriti che uscivano dagli edifici negli istanti precedenti il crollo. Questi sarebbero gli inequivocabili segni dovuti all’esplosione delle cariche.

Perche’ vengono fatte queste ipotesi? Come detto, le torri erano progettate per resistere all’urto di un aereo di linea. Gli incendi sviluppati all’interno degli uffici non potevano di certo raggiungere la temperatura di fusione dell’acciaio delle strutture. Se queste sono venute giu’ e’ perche’ e’ stata usata termite, in grado di raggiungere le temperature di fusione dell’acciaio, o perche’ sono stati causati cedimenti strutturali lungo tutta l’altezza delle torri.

Bene, analizziamo queste considerazioni.

Per prima cosa, gli edifici erano in grado di resistere all’impatto di un aereo, come giustamente ricordato anche dall’ideatore delle Torri Gemelle. Le simulazioni fatte al tempo prevedevano pero’ aerei piu’ piccoli rispetto a quelli utilizzati nel 2001 e, soprattutto, scarichi di carburante. Perche’ questo? Semplice, nei calcoli si era presa in considerazione l’ipotesi in cui un velivolo in fase di atterraggio a New York, dunque con poco carburante, a causa della nebbia finisse contro gli edifici. La dinamica dell’attentato del 2001 e’ completamente diversa con aerei decollati da poco tempo e con serbatoi carichi, anche se non pieni, di kerosene.

Cosa e’ successo nell’impatto? Gli aerei sono penetrati all’iinterno degli edifici. A causa dell’urto, il kerosene dei serbatoi si e’ incendiato provocando la fiammata iniziale che tutti ricorderete.

Ingresso dell'aereo in una delle due torri

Ingresso dell’aereo in una delle due torri

Le fiamme hanno ovviamente provocato il divamparsi di incendi in tutti i piani interessati dall’urto. Vi ricordo che le torri erano sede di molti uffici per cui erano piene di carta, arredi d’ufficio, pc, tutte cose facilmente infiammabili.

Bene, abbiamo l’urto, abbiamo l’incendio, ma le torri sono ancora in piedi. Dunque? Perche’ solo a distanza di decine di minuti si e’ avuto il crollo delle torri, e per di piu’ la seconda colpita e’ caduta per prima?

Le risposte a quete domande sono quelle che segnano il confine tra complotto e spiegazione logica.

Andiamo con ordine.

Come sono fatte le torri?

Su diversi siti, non necessariamente di complottisti, ho letto molte cose inesatte sulla struttura delle torri. Capire questo punto e’ la chiave di interpretazione dei fatti.

La struttura delle torri e’ fatta da una serie di colonne perimetrali che corrono tutt’intorno gli edifici e da una parte di colonne centrali che costituiscono il core:

Struttura con travi di acciaio delle Torri

Struttura con travi di acciaio delle Torri

Abbiamo dunque una struttura portante di colonne d’acciaio, molto solida, ma sufficientemente elastica da resistere non solo ad attentati, ma anche a condizioni naturali e normali di utilizzo. Pensate ad esempio ad una scossa di terremoto che fa vibrare tutta la struttura o anche solo al vento in grado di sollecitare fortemente una struttura alta piu’ di 400 metri.

Come sono legate le due serie di colonne? Ovviamente con dei solai. Anche in questo caso, e’ stato utilizzato acciaio, per creare una struttura legata in questo modo:

Solai in acciaio

Solai in acciaio

Sui solai sono disposti i pavimenti dei vari piani costituiti da lastre di cemento.

Molte delle ipotesi complottiste partono dal fatto che per far crollare una struttura di questo tipo, e’ necessario far fondere completamente l’acciaio. Per ottenere questo risultato, si devono raggiungere temperature superiori ai 1500 gradi, cosa impossibile bruciando kerosene. Tra l’altro, le colonne di fumo nero che ricorderete intorno alle torri, sono sinonimo di cattiva combustione dunque di temperatura non troppo alta. Secondo alcuni, nel calcolo delle temperature, tra l’altro sulla rete ho letto degli strafalcioni incredibili di termodinamica senza distinguere temperatura e calore, mancherebbe l’apporto dei mobili e della carta. Anche in questo caso pero’, viene giustamente fatto notare che non si riesce a raggiungere la temperatura di fusione dell’acciaio.

Vero anche questo. Ma perche’ si dovrebbe far fondere l’acciaio? Premesso che per la fusione servono le temperature di cui abbiamo parlato, gia’ a 500 gradi l’acciaio lascia la sua fase elastica per arrivare a quella plastica. In queste condizioni, il materiale e’ molto morbido e presenta dunque una resistenza strutturale molto minore, anche del 90% inferiore, rispetto alle condizioni ambientali. Perche’ facciamo notare questo? Un materiale in queste condizioni, inficia in modo preponderante la resistenza della struttura.

Secondo i complottisti, la caduta degli edifici sarebbe stata perfettamente verticale, come in una demolizione studiata. Su questo punto, non c’e’ neanche da discutere. Per prima cosa, vi mostro una foto aerea della zona:

Detriti dovuti al crollo in tutta l'area del World Trade Center

Detriti dovuti al crollo in tutta l’area del World Trade Center

Come vedete, i residui dei crolli sono ovunque. Torneremo su questo punto, discutendo la caduta del WTC7.

Inoltre, e’ evidente dalle prove fotografiche che la caduta degli edifici non e’ stata assolutamente verticale. La parte di torre superiore al punto di ingresso degli aerei, si e’ staccata con un’angolazione molto pronunciata, circa 30 gradi per una torre e 15 per l’altra. Ecco una foto molto esplicativa:

Crollo inclinato della parte alta della torre

Crollo inclinato della parte alta della torre

Vedete quanto e’ inclinata la parte superiore? Non credo che, alla luce di questo, si possa parlare di caduta verticale.

Perche’ sono cadute le torri?

Come detto, gli edifici erano pensati per resistere all’impatto di un aereo, anche se scarico di carburante e di dimensioni minori di quelli dirottati. Nonostante questo, le torri hanno resistito all’impatto, infatti non sono cadute subito a causa dell’urto. La stessa cosa si puo’ dire per l’incendio. Gli edifici erano pensati per resistere 2 ore ad un incendo completo. Eppure sono cadute. Perche’?

Quello che spesso non viene considerato e’ il fattore combinato incendio-impatto.

Vi faccio un esempio molto semplice. Prendete una lattina di bibita da 33 cl. Quella lattina e’ fatta da un sottilissimo foglio di alluminio, ma ha una resistenza a compressione elevatissima. E’ in grado di reggere tranquillamente il peso di una persona. Se pero’ la schiacciate leggermente da un lato, basta una minima pressione per accartocciarla. Bene, quello che e’ successo alle torri e’ del tutto analogo all’esempio della lattina. L’ingresso dell’aereo ha provocato danni ad alcuni dei pilastri perimetrali, questo ovviamente compromette la stabilita’ della struttura, ma non del tutto. Il seguente incendio che si e’ sviluppato, ha portato non la liquefazione dell’acciaio, ma un suo ammorbidimento. Questo ovviamente in tutti quei piani interessati dall’urto. Inoltre, il calore ha modificato pesantemente la resistenza meccanica delle travi utilizzate per i solai. In questo caso, le travi si sono ritirate, a causa della minore resistenza meccanica, tirando le travi perimetrali verso quelle del core centrale.

In questa foto si vede un dettaglio della parte interessata dall’incendio ed in cui e’ chiaramente visibile l’avvicinamento della parete laterale verso l’interno:

Dettaglio dell'incendio con parete che rientra

Dettaglio dell’incendio con parete che rientra

Come detto, questo e’ sintomatico del cedimento meccanico delle travi dei solai.

A questo punto, avete una struttura molto debole in diverse parti. Dopo decine di minuti di incendio, la parte alta, tagliata sotto dall’ingresso dell’aereo, cede sotto il suo peso premendo sulla parte inferiore della torre. Una struttura meccanica gravemente compromessa come quella in esame ad un certo punto non riesce piu’ a resitere al peso e cede su se stessa.

E ‘ dimostrabile questo? Assolutamente si. Sono stati pubblicati diversi articoli con simulazioni FEM, tra l’altro su riviste internazionali, che hanno dimostrato come la caduta delle torri sia perfettamente compatibile, nei tempi e nei modi, con quella dell’attentato avvenuto. Uno di questi e’ scaricabile da questo link:

Usmani

Tra l’altro, proprio a causa del cedimento improvviso sotto il peso, la caduta delle torri e’ risultata quasi istantanea come un corpo in caduta libera. Questo perche’ i piani inferiori che via via venivano interessati, venivano schiacciati da un peso sempre crescente.

Altra considerazione importante, possibile che la torre sia caduta istantaneamente tutta insieme, polverizzando tutto? Anche queste considerazioni sono del tutto false. Prima cosa, come anticipato, la caduta non e’ stata verticale ma i detriti hanno interessato una vasta zona del World Trade Center. Inoltre, non e’ assolutamente vero che si e’ polverizzato tutto. Ci sono diverse prove come questo video:

Video, frammenti

che mostrano la caduta di detriti molto grandi, molto pesanti e soprattutto interi verso il basso.

Altra cosa rimasta in sospeso, cosa dire degli sbuffi che si vedevano durante il crollo delle torri? Per farvi capire meglio, i sostenitori del complotto si riferiscono ad esempi come questo:

Sbuffi di materiale interpretati come detonazioni

Sbuffi di materiale interpretati come detonazioni

Secondo alcuni, questa sarebbe la prova dell’esplosione di alcune bombe lungo la torre. Niente di piu’ falso. Come potete facilmente immaginare, si tratta soltanto dell’aria interna agli edifici che viene compressa per schiacciamento durante la caduta e che riesce a frantumare i vetri esterni. Allo stesso modo, le presunte esplosioni che vengono raccontate da alcuni testimoni durante il crollo, altro non sono che il rumore dei vetri che andavano in frantumi o anche quello delle lastre di cemento che costituivano i pavimenti dei piani. Come detto, a causa della variazione di tenuta dei pilastri del solaio, i pavimenti non possono far altro che cedere e precipitare verso i piani inferiori.

Detto questo, non credo ci dovrebbero essere dubbi sul fatto che la caduta delle torri e’ stata provocata dalla combinazione dell’impatto dell’aereo e dell’incendio che si e’ sviluppato. Come visto, non solo questo e’ documentabile dalle molte prove fotografiche di quel tremendo giorno, ma ci sono anche numerosi articoli a sostegno che dimostrano la veridicita’ delle ipotesi. Solo questi, e il fatto che la dinamica del crollo sia simulabile, dovrebbero smentire tutte quelle voci che cercano evidenze di qualcosa di diverso nel crollo del WTC1 e 2.

Detto questo, passiamo invece all’altro grande mistero di quel giorno, il crollo del WTC7. Per chi non ne fosse a conoscenza, l’area del World Trade Centrer, era composta da diversi edifici, di altezze diverse. L’11 settembre 2001, oltre alle due torri, cadde anche un altro edificio, appunto detto WTC7, che non venne assolutamente colpito da niente. Perche’ e’ importante questo fatto nelle teorie complottiste? Semplice, il fatto che questo sia caduto senza essere stato colpito, indica chiaramente che gli edifici della zona fossero stati minati precedentemente. Evidenza che sosterrebbe le ipotesi viste prima. Tra l’altro, come evidenziato dai complottisti, il WTC7 non puo’ essere stato colpito da detriti per due buone ragioni. La prima e’ che si trova a circa 200 metri dalla torre piu’ vicina e tra i due vi era un altro edificio, chiamato WTC6, che lo proteggeva completamente e che non e’ andato distrutto dopo il crollo della torre. Il secondo motivo e’ ancora piu’ semplice, dal momento che si e’ trattato di un crollo studiato e verticale e in cui i detriti sono stati polverizzati, niente sarebbe potuto cadere cosi’ lontano.

A questa seconda ipotesi abbiamo gia’ abbondantemente risposto, mostrando come i detriti ci sono, anche di notevole dimensione, e dimostrando come la caduta non sia stata verticale. Questa osservazione e’ dunque da scartare a priori.

Resta pero’ l’altra ipotesi. Tra la torre che crolla e il WTC7 c’e’ un altro edificio che non crolla. Come e’ possibile? Inoltre, il WTC7 e’ caduto dopo diverse ore dalle torri, altro aspetto inspiegabile. Per chi non lo sapesse, anche in questo caso, parliamo di un edificio di 47 piani con struttura in acciaio, dunque non un castello di carte che cade da solo per opera del vento.

Per capire questo crollo, e’ necessario vedere la planimetria del World Trade Center, quando ancora esisteva:

Mappa degli edifici del World Trade Center

Mappa degli edifici del World Trade Center

Come vedete, effettivamente il WTC7 e’ completamente protetto dal WTC6 che impedisce a qualsiasi detrito di danneggiare l’edificio.

Spesso pero’, quelli che pensano i complotti, dimenticano che le spiegazioni piu’ semplici sono quelle che andrebbero considerate per prime. Siamo a New York, Stati Uniti di America, dove si costruiscono grattacieli con altezze completamente diverse. Invece di fermarci alla planimetria, vediamo un prospetto della zona con le altezze in scala degli edifici:

Modello 3D degli edifici del World Trade Center

Modello 3D degli edifici del World Trade Center

Notato niente? Guardate quanto e’ alto il WTC7 rispetto al WTC6 che si trova di fronte. Praticamente questo edificio vede benissimo la torre di fronte ed e’ completamente esposto alla caduta dei detriti.

Cosa e’ successo precisamente l’11 settembre 2001?

Durante la caduta della torre piu’ vicina, il WTC7 ha subito alcuni danni strutturali, come riportato in questa foto:

Dettaglio del WTC7 dopo il crollo della torre piu' vicina

Dettaglio del WTC7 dopo il crollo della torre piu’ vicina

Come si vede, e come indicato enlla foto stessa utilizzata nei rapporti ufficiali, il WTC7 ha subito, durante il crollo della torre, danni evidenti ai piani alti. Sempre a causa della caduta di detriti, sono divampati anche incendi all’interno dell’edificio.

E’ strano questo?

Assolutamente no, come ricorderete bene, ci sono stati numerosissimi casi di incendi a terra a causa di detriti in fiamme caduti dalle torri. Uno di questi ha colpito il WTC7 in cui sono divampati incendi.

Allora, anche qui abbiamo un edificio danneggiato, anche se lievemente, ed un incendio in corso. Poi? Quello che e’ successo e’ evidente, l’edificio e’ stato lasciato crollare. Perche’? Ovviamente, tutti gli occupanti erano stati fatti evacuare. I pompieri erano in notevole difficolta’ per tenere sotto controllo le torri. Abbiamo un edifico vuoto, danneggiato e che brucia. Inoltre, per lungo tempo c’e’ stata mancanza di acqua per cui, anche volendo, i pompieri non hanno avuto modo di domare l’incendio all’interno del WTC7. Detto questo, l’edificio e’ stato lasciato al suo destino. In questo caso, come anticipato, ci e’ voluto molto piu’ tempo affinche’ il WTC7 crollasse e infatti, e su questo sono tutti d’accordo, il crollo e’ avvenuto solo nel pomeriggio inoltrato ora di New York.

Dunque, anche per il WTC7 esiste una spiegazione razionale ottenuta dall’analisi condotta fino a questo punto.

Resta da analizzare l’aereo che e’ arrivato contro il pentangono. In questo caso, le teorie complottiste parlano di una manovra impossibile da fare per un aereo di linea dal momento che il punto di impatto e’ tra il piano terra e il primo piano, dunque troppo vicino al terreno, che il carello si sarebbe abbassato da solo sotto una certa quota, ma soprattutto che un velivolo cosi’ basso avrebbe necessariamente fatto danni attraversando la vicina autostrada. Secondo queste ipotesi, in questo caso non si e’ nemmeno trattato di un aereo, bensi’ di un missile cruise. Questo avvalora l’ipotesi secondo la quale non si e’ trattato di un attentato ma di un auto attacco da parte del governo per permettere le future politiche in medio Oriente.

Prima cosa, molte delle foto che trovate in rete e che parlano di foro troppo piccolo e incompatibile con quello che lascerebbe un aereo sono false. Quelle reali, dimenticano di considerare che molte delle parti dell’aereo sono in realta’ estremamente leggere e dunque dotate di potere di penetrazione molto basso, soprattutto se rapportate con una struttura di cemento armato rinforzato come quella del pentagono. Detto questo, mi sento di escludere subito l’ipotesi missile.

Restano pero’ le altre supposizioni. Prima di tutto, e’ assolutamente falso dire che i carrelli degli aerei si abbassano da soli. Inoltre, non mi sembra che sia cosi’ impossibile centrare il bersaglio. Come giustamente fatto notare nelle controipotesi, ogni giorno tutti gli aerei centrano il bersaglio rappresentato dalla pista di atterraggio. Ci sono tantissimi aereoporti in cui le piste sono in posizioni davvero scomode, vicino al mare, deitro le montagne, ecc. Condizioni che devono essere studiate molto bene, ma che vengono eseguite senza problemi.

Inoltre, non e’ affatto vero che il volo radente dell’aereo non e’ passato sulla vicina autostrada. Vi mostro una foto:

Palo divelto sull'autostrada di fronte al pentagono

Palo divelto sull’autostrada di fronte al pentagono

Come vedete, questi sono i piloni dell’illuminazione dell’autostrada che sono stati abbattutti dal passaggio dell’aereo. Questa ipotesi viene utilizzata per mostrare l’incompatibilita’ della traiettoria seguita. Se l’aereo non ha toccato l’autostrada, come ha fatto a volare poi rasoterra vicino al pentagono? Questo implicherebbe una manovra non possibile con un aereo di quelle dimensioni. Questa foto che ho mostrato, come tante altre che trovate in rete, mostrano l’esatto contrario. Al passaggio sull’autostrada, il volo dirottato era gia’ molto basso e puntava dritto contro il pentangono.

Riassumendo, i crolli delle torri gemelle e del WTC7 sono perfettamente compatibili con la versione ufficiale. Inoltre, le simulazioni FEM fatte sugli edifici per studiare la dinamica dell’impatto hanno dato risultati perfettamente compatibili con quelli visti in quel tragico giorno. Questo solo per mentire tutte quelle voci che vorrebbero l’attentato mediante aerei solo una messa in scena per distrarre dalle cariche piazzate all’interno dell’edificio. Come visto, il crollo del WTC7 e’ del tutto compatibile con la caduta dei detriti che hanno dapprima danneggiato l’edificio e poi fatto divampare l’incendio che ha bruciato per ore. Questo dimostra anche la non fondatezza delle ipotesi sulla caduta verticale o sulla demolizione programmata delle torri.

Per quanto riguarda il pentagono, come visto, la traiettoria seguita dall’aereo e’ perfettamente compatibile con quella pensata. Il velivolo ha volato in assetto quasi parallelo al terreno gia’ quando si trovava sopra la vicina autostrda. A riprova di questo, ci sono prove fotografiche che mostrano i pali dell’illuminazione divelti dal passaggio a bassa quota. Questo anche per escludere l’ipotesi quanto mai fantasiosa del missile cruise.

Ultima considerazione. Come detto all’inizio di questo lunghissimo articolo, il mio scopo era solo quello di analizzare i crolli e ragionare sulle tante ipotesi di complotto che si sono alimentate nel corso degli anni. Non voglio fare un trattato di economia e politica internazionale, ne tantomeno parlare di governo centrale degli Stati Uniti. Possiamo dire che gli attentatori erano pagati dal governo USA? Personalmente, credo di no, ma non sta a me dirlo ne tantomeno riuscire a dimostrarlo ragionando scientificamente.

Vorrei pero’ farvi riflettere su un’ultima cosa. A mio avviso, gli attentati dell’11 settembre 2001 hanno mostrato un paese non pronto ad attacchi di questo tipo. Molti fanno ipotesi complottiste ragionando sul fatto che i caccia non si siano alzati per abbattere gli aerei dirottati o che non ci fosse un adeguato sistema di controllo e difesa. Secondo me, il discorso non e’ neanche questo. Gli Stati Uniti, prima del 2001, erano abituati a combattere guerre fuori dai loro confini. Con l’attentato del World Trade Center hanno scoperto che il mondo globalizzato era in grado di portare la guerra anche dentro i loro confini. E’ facile pensare ad una potenza bellica perfetta finche’ questa non viene testata sul campo. Nel caso degli USA, fino a quel momento, il paese pensava di essere invincibile e immune da attacchi di questo tipo. Purtroppo, anche sotto questo aspetto, l’11 settembre 2001 ha segnato un momento di svolta epocale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sul 23 agosto ….

20 Ago

Come sapete, sul web si e’ diffusa la notizia che il 23 agosto ci sara’ la fine del mondo a causa di una violentissima tempesta solare in grado di cancellare l’umanita’ dalla faccia della Terra. Questa nuova profezia viene niente poco di meno che da Rasputin, il famoso veggente-santone-consigliere russo, e sarebbe confermata anche dall’esule Snowden che ne sarebbe venuto a conoscenza da rapporti tra la NSA americana e la NASA.

Di questa profezia ne abbiamo parlato in dettaglio in questo articolo:

Ci risiamo: il mondo finira’ il 23 agosto

Come visto, le basi su cui si fonda questa diceria sono assolutamente deboli. Il tutto nasce da un articolo pubblicato su una rivista pseudoscientifica, World Weekly News, nel 1997 e poi riproposto anche nel 2000 quando i primi segnali premonitori non sarebbe sistematicamente avvenuti.

Perche’ torno su questo argomento?

img_poc21_4

In realta’, solo per un breve aggiornamento. Come sapete, siamo riusciti a tradurre la parte centrale in russo che parlerebbe della profezia utilizzando il traduttore di Google. Ora, avendo selezionato solo la parte di nostro interesse e avendo utilizzato internet per la traduzione, proprio per essere sicuri che le cose fossero cosi’, mi sono fatto aiutare da una persona che il russo lo parla davvero, essendo originaria proprio della Russia. La persona in questione e’ Julia, una fan della pagina facebook di Psicosi 2012:

Psicosi2012, facebook

che ha volentieri accettato di darci una mano.

Cosa dice la nostra Julia?

Tramite mail, Julia mi dice che il giorno 23 ricorre molte volte nel libro che abbiamo citato, 100 profezie di Rasputin come visto nell’articolo precedente. Solo nel pezzo precedentemente analizzato si fa riferimento al 23 agosto 2013. In tutti gli altri casi, il 23 e’ riferito a mesi ed anni differenti.

Inoltre, Julia ci conferma quello che avevamo detto, cioe’ che nel pezzo preso di mira da catastrofisti, non c’e’ assolutamente nessun riferimento al Sole. Questa e’ la traduzione letterale:

Il 23 agosto 2013 il fuoco prenderà tutta la terra,dopo di che moriranno tutte quanti e ci sarà tranquilità in questa terra

Molto probabilmente, come detto in precedenza, il riferimento e’ ad un ordigno nucleare. Infatti, nelle vere profezie di Rasputin si fa riferimento ad una terza guerra mondiale.

Non c’e’ invece nessun riferimento al fatto che la guerra sara’ combattuta tra Stati Uniti e mondo islamico. Questa e’ un’altra storia inventata dall’autore del libro, in realta’ copiata dall’autore dell’articolo originale, per rendere piu’ verosimile la profezia. Al tempo di Rasputin infatti, non c’era nessun conflitto in atto, ne tantomeno non dichiarato, tra occidente e mondo islamico. Come potete capire, si tratta solo di un mucchio di cavolate raccontate partendo da una base, forse attribuibile a Rasputin, ma poi condita con elementi moderni per far coincidere la profezia con i nostri giorni.

Tra l’altro, come anticipato anche nel precedente post, nell’articolo di giornale si parla di una guerra che durera’ 7 anni e che terminera’ nel modo visto, dunque, forse, con una bomba atomica.

Sempre Julia ci fa notare un’altra cosa importante. Le profezie di Rasputin, sono appositamente scritte per avere molteplici interpretazioni. Questa e’ ovviamente la chiave per formulare profezie durature, non smentibili ma neanche identificabili con precisione e che possono essere adattate a tutti gli eventi, le stagioni, i giorni, o quello che volete.

Altra cosa fondamentale, cercando in rete i commenti originali in russo, Julia ci dice che le vere profezie di Rasputin non sono in realta’ note, se non in parte. Questo significa che nel corso degli anni, il buontempone di turno, si diverte ad aggiungere pezzi o particolari che non hanno nulla a che fare con il veggente russo.

Concludendo, quanto carpito dai nostri ragionamenti nell’articolo precedente e’ stato confermato da una traduzione letterale. Come visto, non c’e’ assolutamente nessun riferimento al Sole ne tantomeno a tempeste solari che dovrebbero abbattersi sulla Terra. Purtroppo, anche in questo caso, dobbiamo segnalare la presenza di forti distorsioni e modificazioni fatte nel corso degli anni e che nulla hanno a che fare con le profezie originali. A questo punto, mi sembra che il discorso 23 agosto sia pienamente sfatato.

Ringrazio ovviamente Julia per la preziosissima collaborazione!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ci risiamo: il mondo finira’ il 23 Agosto

13 Ago

Lasciatemi dire: “finalmente ci risiamo”. Vi confesso che ero un po’ preoccupato per i nostri amici catastrofisti. Gia’ da qualche settimana, mancava una nuova data per la prossima fine del mondo. Ad essere sinceri, sospettavo che sarebbe arrivato il notizione tale da far impazzire la rete. Ebbene, ora ci siamo, abbiamo la prossima fine del mondo servita. Non prendete impegni per il 23 di agosto, si avete capito bene, tra una decina di giorni, perche’ il mondo finira’ tra le fiamme a causa della immane e spaventosa tempesta solare che verra’ scatenata.

Devo dire che la cosa e’ stata costruita in modo davvero eccelso. Da diversi giorni, abbiamo cominciato a mettere insieme pezzi presi dal web e ora abbiamo finalmente un quadro chiaro. Tutto questo non sarebbe stato possibile senza le discussioni e lo scambio di idee e opinioni avute con i tanti utenti che hanno commentato nella sezione apposita del blog:

Hai domande o dubbi?

e sul forum di Psicosi 2012, disponibile a questo indirizzo:

Psicosi 2012, forum

Fatta questa doverosa premessa, torniamo alla nostra fine del mondo. Come anticipato, per il 23 agosto si preannuncia la piu’ forte tempesta solare mai avuta. La prima curiosita’ che viene in mente e’: chi lo dice?

Mi raccomando, non vi distraete perche’ il discorso e’ abbastanza ingarbugliato.

Prima di tutto, a parlare di tempeste solari sarebbe stato l’esule Snowden. Sicuramente avrete sentito parlare di lui nei vari telegiornali. Si tratta di un ex agente della NSA americana che ha reso note molte informazioni top secret del suo governo. Inutile ricordare lo scandalo che questa fuga di notizie ha avuto a livello mondiale. Come sicuramente sapete, inoltre, Snowden e’ ora “ospitato” dalla Russia che si e’ rifiutata di rimandarlo negli Stati Uniti per essere processato. Bene, proprio tra Russia e Stati Uniti si ambienta la nuova fine del mondo.

Come anticipato, Snowden, tra i tanti segreti spifferati, avrebbe anche parlato di lunghi studi condotti dalla NASA per comprendere il comportamento del nostro Sole. Come sapete, quella della tempesta solare era una delle argomentazioni maggiormente citate per il 21 Dicembre 2012. Durante il suo ciclo naturale, il Sole passa attraverso dei massimi e minimi di attivita’. Inoltre, eruzioni solari possono provocare emissione di particelle e radiazione verso la Terra che, in alcuni casi, possono provocare disturbi alle comunicazioni. Ad essere sinceri, l’effetto piu’ frequente che queste emissioni possono avere sulla Terra e’ la formazione di Aurore.

Analizzando il 21 Dicembre 2012, piu’ volte abbiamo parlato di queste tempeste solari:

La piu’ grande tempesta solare ….

Come detto, queste tempeste di radiazioni potrebbero interferire con i nostri sistemi di comunicazione portando, nei casi piu’ intensi, a blackout in alcune zone. Poiche’, oggi come oggi, la nostra societa’ e’ fortemente legata all’energia elettrica, un blackout prolungato in una zona molto estesa potrebbe avere conseguenze molto importanti per le popolazioni del luogo. Vi ricordo pero’ che parlando di interruzioni prolungate di corrente, stiamo parlando di eventi assai poco frequenti e, almeno in epoca moderna, dove le comunicazioni hanno assunto un rulo cosi’ importante, mai registrate.

Detto questo, e’ ovvio che la ricerca sia impegnata nella comprensione e nella simulazione del comportamento del nostro Sole. Ovviamente, non possiamo pensare di mettere un tappo alla nostra stella, ma, sicuramente, saper prevedere comportamenti fuori dalla norma, potrebbe aiutarci ad evitare conseguenze piu’ gravi.

Bene, approfittando della storia di Snowden, alcuni siti catastrofisti hanno inventato la storia della ormai prossima tempesta solare. Ripeto, parlare di studi della NASA su questo e’ dire cose ovvie. Non e’ assolutamente un segreto che siano costantemente in corso analisi sempre piu’ accurate per migliorare gli algoritmi di simulazione solare.

Come visto parlando del 2012, anche per il 22 settembre dell’anno scorso si parlava dell’arrivo di questa tempesta perfetta. Ne abbiamo parlato in questo articolo:

Nuova minaccia il 22 Settembre?

Anche in questo caso si parlava di simulazioni fatte della NASA. La data del 22 settembre era in realta’ una data fittizia inserita nella simulazione ed in cui si pensava potesse capitare il massimo di attivita’ del Sole. Ad oggi, non mi sembra di dover nuovamente smentire questa data dal momento che tutti possiamo testimoniare che non e’ accaduto nulla.

Fate pero’ attenzione, se la storia fosse finita qui si tratterebbe di una riproposizione di argomenti gia’ utilizzati. Ovviamente c’e’ dell’altro.

Prima di tutto, almeno stando alla bufala inventata su web, Snowden avrebbe solo indicato il pericolo, ma non sarebbe a conoscenza della data precisa. Per sostenere maggiormente la storia, la data precisa viene attribuita ad un’altra profezia che annuncerebbe lo stesso imminente pericolo. Si tratta di una profezia di Grigorij Rasputin, noto semplicemente come Rasputin, che in un suo scritto avrebbe lasciato un’indicazione molto precisa.

Sicuramente tutti conosco Rasputin come quel discusso personaggio alla corte dei Romanov che passo’ alla storia come la persona in grado di influenzare pesantemente le scelte dello Tzar di Russia. Oltre che un presunto guaritore, Rasputin sarebbe stato anche un profeta in grado di annunciare molti avvenimenti successivi alla sua morte, anche questa profetizzata molti anni prima.

Stando a quanto potete leggere su internet, gli scritti di Rasputin in questione sarebbero stati portati alla luce proprio in questo periodo da un certo, David W. Norvalk. Piccola parentesi che spesso crea confusione a chi cerca di informarsi sulla rete. Molto spesso, quando leggete di “ricercatori” sui siti castrofisti, non dovete quasi mai pensare a addetti ai lavori o persone che si occupano di fare ricerca presso qualche ente su argomenti particolari. Per i nostri amici catastrofisti, un ricercatore e’ chiunque si occupi di ricercare, anche solo su internet, delle informazioni. Capite bene il giochino utilizzato per confondere le persone. In alcuni casi trovate anche un termine che trovo eccezionale “ricercatore indipendente”, cioe’, tradotto per tutti, uno che da casa sua si collega a google e cerca informazioni. Questa definizione viene spesso utilizzata anche in note trasmissioni italiane che di scientifico hanno veramente ben poco.

Fatta questa premessa, capite subito che tale Norvalk sarebbe appunto un ricercatore nel senso catastrofista del termine. Se provate a cercare questo nome su internet, trovate in realta’ solo siti catastrofisti che si rimandano uno con l’altro facendo copia/incolla delle notizie.

Lasciando da parte il soggetto, vediamo invece di cosa si parla. In realta’, la storia raccontata da Norvalk su Rasputin e’ ben piu’ vecchia di quello che vorrebbero farci credere, mettendola in simulatanea con la fuga di notizie di Snowden. Di Rasputin e della profezia sul Sole, Norvalk parla  in un articolo del 1997 apparso su Weekly  World News. Ecco il link dove potete leggere quanto detto:

WWN, 1997

Come potete leggere, si tratta in realta’ di una serie di profezie che Norvalk attribuisce a Rasputin, divise in ordine temporale. Come vedete, per il 23 agosto 2013 si parla di “un fuoco che consumera’ tutte le cose viventi”, annunciando, senza mezzi termini la fine del mondo. Quanto scritto e’ stato poi identificato con la tempesta solare per far coincidere la storia con le presunte informazioni date da Snowden. Come vedremo in seguito, esistono in realta’ interpretazioni molto diverse.

Attenzione pero’, prima di questa data, ce ne sono molte altre. Proviamo a leggere: nel 1997, vi ricordo’ anno di uscita dell’articolo, ci sara’ un attentato terroristico negli USA che distruggera’ uno dei simboli dell’intero occidente. Nel 2000 un virus mortale uscira’ da un laboratorio, sempre negli Stati Uniti, causando innumerevoli vittime fino al 2003 quando verra’ fermato, e cosi’ via.

Ora, a questo punto potrei interrompere il racconto e chiudere dicendo che, dal momento che questi avvenimenti non ci sono stati, si tratta solo di una bufala. E’ pero’ interessante andare avanti per mostrare l’assurdita’ delle affermazioni in rete e per farvi capire meglio come lavora la macchina catastrofista tanto attiva in questi ultimi mesi.

Dal momento che questi avvenimenti non ci sono stati, il giornale in questione ha riproposto esattamente lo stesso articolo 3 anni piu’ tardi, nel 2000. Ovviamente, si e’ solo limitato a spostare di tre anni in avanti tutte le date, esclusa quella del 2013. Non ci credete? Ecco a voi la prova:

WWN, 2000

Perche’ le hanno spostate tutte tranne quella del 2013? E’ forse reale? Assolutamente no, semplicemente questa era l’unica data proposta piu’ lontana nel tempo per cui non era necessario spostarla, mentre tutte le altre gia’ non si erano avverate nel 1997 o erano troppo prossime al 2000!

Ecco da dove nasce la storia di Rasputin a sostegno di quella di Snowden. Apro un’altra breve parentesi, oltre alla notizia che stiamo commentando, provate a sfogliare la rivista che ho linkato per rendervi conto che tipologia di notizie pubblica questo giornale. Anche solo leggendo i titoli, capite subito in quale settore poter collocare lo stesso giornale.

Leggendo in rete, trovate pero’ anche un’altra notizia a sostegno dell’ipotesi Rasputin. Forse qualcuno un po’ piu’ sveglio ha capito che cosi’ come veniva raccontata non poteva essere credibile. Detto questo, viene dunque riportata una nuova fonte, un libro di uno scrittore russo che avrebbe riportato a sua volta le confessioni fatte da Rasputin riguardanti profezie future. Il titolo del libro e’ “100 profezie di Rasputin” e l’autore e’ un certo Andréi Brestski. Se provate a cercare notizie in rete, anche in questo caso non trovereste niente. Inizialmente la cosa aveva portato fuori strada anche il sottoscritto. Il libro in questione non lo potete trovare su nessuna libreria online, neanche internazionale, cosi’ come non trovate informazioni sul suo autore. Il motivo e’ che il libro esiste solo in russo. Fortunatamente, Google Books, permette di vedere un anteprima del libro in questione.

Ecco il link dove vedere il libro:

100 profezie di Rasputin

Cliccando su anteprima, potete vedere un certo numero di pagine. Unico problema, come anticipato, e’ che il libro e’ in russo. Se provate a cercare 23 agosto in russo, cioe’ 23 августа, trovate un risultato che veramente parla di questa data. Purtroppo, Google books vi fornisce immagini e non un testo da poter copiare e tradurre. Anche a questo c’e’ un rimedio, andando a questo link:

100 profezie di Rasputi, online

potete trovare, senza scaricare nulla e senza violare alcun copyright, il testo online. Bene, selezionando la parte che parla del 23 agosto, e traducendo con google, trovate:

La cosa peggiore per accadere 23 agosto 2013: “Il fuoco consuma tutta la vita sulla Terra, e poi la vita sul pianeta morirà e non ci arriverà silenzio sepolcrale” – così ha scritto il “vecchio uomo”. “È lui predice un olocausto nucleare?” – Chiede ai lettori. Non c’è una risposta …

Fate pero’ attenzione, anche il libro parla di fuoco sulla Terra, ma in realta’ parla di olocausto nucleare. Il primo spezzone e’ esattamente identico a quello di Norvalk visto prima. Qui pero’, viene aggiunta una parte riguardante l’olocausto nucleare. Cosa c’entra questo? Ora vi riporto lo spezzone di frase che compare prima di quello riportato:

Secondo la previsione di Rasputin, alla fine del primo decennio del XXI secolo, la potenza in Oriente, e cioè, in primo luogo in Iraq moderno e il Kuwait e l’Arabia Saudita, i fondamentalisti islamici prendono il sopravvento, che sarebbe stato chiamato negli Stati Uniti di un prodotto di Satana, e annuncerà la sua guerra implacabile – jihad. Durante questo periodo, il resto degli Stati Uniti arriverà al potere come ortodossi, ma solo della persuasione cristiana. Se ci sarà tra i due principali conflitto militare? Rasputin risponde a questa domanda in modo affermativo. Ha predetto che gli Stati Uniti erano e iniziare una nuova crociata contro l’Oriente musulmano. Questa campagna, o meglio la guerra durerà sette anni e sarà l’ultimo nella storia dell’umanità. Solo una grande battaglia su entrambi i lati morirà più di un milione di persone.

Come vedete, si parla di una guerra santa in corso a livello mondiale tra Oriente e Occidente. Guerra che poi culminera’ con l’olocausto nucleare del 23 agosto.

Ragioniamo un secondo: non mi sembra si parli di tempesta solare, questo dunque fa cadere ancora una volta la storiella di Swnoden, Raspunti e compagnia bella. Inoltre, 7 anni prima di questa data sarebbe iniziata questa guerra tra Stati Uniti e Oriente. Ragionando, se proprio volessimo identificare questi avvenimenti con le varie campagne in terra araba, allora il tutto sarebbe iniziato ben prima di 7 anni fa. Ritornando pero’ al link di Google Books in cui veniva mostrata l’anteprima del libro, vedete bene che la data di pubblicazione e’ solo del maggio 2013. Cosa significa questo? Semplice, si tratta di un testo che, molto probabilmente, ha ripreso di sana pianta la storia pubblicata su Weekly World News, riproponendola in forma di olocausto nucleare invece che di tempesta solare.

Inoltre, vorrei dire una cosa, e’ risaputo che Rasputin nel periodo alla corte dei Romanov avesse anche fatto profezie ma, al contrario di quello che vorrebbero farvi credere, non ci sono assolutamente indicazioni temporali precise, figuriamoci un giorno di un anno cosi’ lontano per il tempo.

Concludendo, questa storia sarebbe degna di una telenovelas: colpi di scena, distorsioni, ripensamenti, articoli che vengono modificati e ripubblicati, spionaggio internazionale. Peccato che, come visto, si tratta soltanto di storie inventate. Detto questo, non ci si aspetta nessuna tempesta solare per il 23 Agosto, figuriamoci una fine del mondo. Se poi ancora non foste convinti, non vi resta che aspettare solo pochi giorni per poter assistere alla tempesta solare perfetta o all’olocausto nucleare!

 

Ringrazio per le preziose informazioni e per la collaborazione: Luca, Daniel e Apollo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ i pinguini non volano?

24 Mag

Guardando le lunghe, e permettetemi anche buffe, marce dei pinguini sul ghiaccio, tutti quanti ci siamo chiesti: perche’ non volano? In fondo, il pinguino e’ del tutto simile ad un uccello, ha le ali, eppure non vola.

La risposta a questa semplice domanda, e’ arrivata proprio pochi giorni fa da un contributo presentato all’Accademia Nazionale delle Scienze degli Stati Uniti.

In realta’, scopo di questa ricerca condotta da diverse universita’ era quello di analizzare le differenze biomeccaniche dei corpi di diversi mammiferi a confine tra il terrestre ed il marino, proprio per capire come l’evoluzione naturale della specia sia stata in grado di traformare nel tempo i corpi degli animali, facendoli adattare al meglio all’ambiente e alle caratteristiche che si volevano raggiungere.

Lo studio ha preso in esame tre diversi animali: il pinguino, l’uria di Brünnich e il cormorano pelagico, studiando in particolare le doti di ciascuna specie al volo e al nuoto.

foto

Come e’ noto, mentre il pinguino e’ un ottimo nuotatore ma e’ incapace di volare, l’uria, molto simile come forma, riesce a fare entrambe le funzioni. Per analizzare queste caratteristiche, sono stati sviluppati dei modelli di simulazione biomeccanica, appositamente creati per studiare il dispendio di ossigeno degli animali durante queste attivita’. Detto in parole povere, l’analisi permetteva di capire la “fatica” fatta dagli animali durante il volo o il nuoto.

Il risultato fondamentale dello studio e’ molto semplice: un’ala fatta per nuotare, non puo’ essere fatta per volare.

Cerchiamo di capire meglio.

Le ali dei pinguini sono molto corte e vengono utilizzate come delle efficienti pinne durante il nuoto. Al contrario, le ali dell’uria, simili per forma e dimensione a quelle del pinguino, consentono molto agilmente di nuotare, ma, anche se lo permettono, non sono progettate per volare al meglio. Cosa significa? Per mantenersi in volo, l’uria deve sbattere le ali molto velocemente, con un conseguente alto dispendio di energia. In tal senso, questo animale riesce a volare, ma lo fa molto goffamente e in modo assolutamente non conveniente.

Cosa significa questo? Mentre l’ala del pinguino si e’ specializzata nel nuoto, abbandonando completamente il volo, quella dell’uria e’ in grado di volare con estrema fatica, ma consente un nuoto molto veloce, anche se meno efficiente di quello del pinguino.

Secondo questa chiave di lettura, l’uria e’ l’anello di congiunzione tra le specie volatili e quelle che invece hanno completamente abbandonato il volo dedicandosi esclsivamente al nuoto.

Al contrario, il cormorano ha delle buone capacita’ di volo, ma le sue ali, troppo grandi, non vengono utilizzate nella fase in acqua. Per spingere durante il nuoto, il cormorano pelagico utilizza infatti i piedi.

In termini evoluzionistici dunque, l’uria riesce ancora a volare anche se con estrema fatica, mentre il pinguino ha completamente abbandonato questa attivita’ modificando la propria ala solo ed esclusivamente per il nuoto.

Notiamo una cosa fondamentale: l’evoluzione naturale degli animali consente di migliorare o comunque adattare al meglio il proprio corpo in funzione dell’ambiente e delle attivita’ piu’ seguite. Come e’ noto, il pinguino tuffandosi in acqua puo’ sfuggiare ai predatori terrestri, ma soprattutto puo’ reperire molto cibo in mare. Al contrario, l’utria ha preferito mantenere la fase di volo per la sua sopravvivenza, a scapito di una peggiore propulsione nella fase di nuoto.

Concludendo, e’ l’evoluzione naturale che ha modificato il corpo del pinguino abbandonando completamente la fase di volo. Questi cambiamenti, lunghi e studiati al meglio, consentono alle specie animali di trasformare in modo efficiente il proprio corpo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.