Tag Archives: john

Effetto Hutchison: realta’ o bufala?

29 Apr

Nell’apposita sezione:

Hai domande o dubbi?

un nostro caro lettore ci ha fatto una richiesta davvero molto interessante. Come potete leggere, ci chiede di dare maggiori dettagli circa l’effetto Hutchinson cioe’ una serie di fenomeni apparentemente non spiegabili utilizzando le attuali conoscenze della fisica.

Personalmente, trovo questa richiesta molto interessante se non altro perche’ ci consente di poter parlare di qualcosa ancora poco dibattutto sui siti nazionali anche se molto in voga gia’ da diversi anni sui siti in lingua inglese. Al solito, permettetemi questo piccolo monito, molti nostri blog e forum non fanno altro che riportare pezzi copiati qua e la senza, salvo alcuni rari casi, discutere la cosa in dettaglio.

Cosa sarebbe questo effetto Hutchinson?

Come anticipato, con questo termine si intendoo in realta’ una serie di fenomeni “strani” dovuti ad interferenza elettromagnetica. Cioe’? Se provate a documentarvi in rete, trovate sempre questa frase:

L’Effetto Hutchison si verifica come il risultato di interferenze di onde radio in una zona di spazio volumetrico avvolto da sorgenti di alto voltaggio, solitamente un generatore Van de Graff, e due o piu’ bobine di Tesla.

OK, ma che significa? Prendete una regione di spazio e fate interferire onde radio con una determinata frequenza e potenza. In prossimita’ della stessa zona sono presenti anche generatori ad alto voltaggio che in realta’ puo’ essere prodotto in vari modi, in particolare usando un Van de Graff o delle bobine Tesla.

Bene, creata questa zona “speciale” con campi elettromagnetici diversi cosa si ottiene?

Gli effetti sono i piu’ disparati: levitazione di oggetti pesanti (metallici ma non solo), compenetrazione di materiali diversi, riscaldamento anomalo di metalli senza bruciare altri materiali in contatto, cambiamenti sia provvisori che definitivi della struttura molecolare dei materiali, ecc.

Per darvi un’idea piu’ chiara, vi riporto un’immagine di alcuni materiali che sono stati sottoposti a questo trattamento:

 

Materiali sottoposti all'effetto Hutchinson

Materiali sottoposti all’effetto Hutchinson

notate in particolare lo sfaldamento dei metalli e l’ultima foto di un pezzo di legno compenetrato nel metallo senza sfaldare ne modificare ne il metallo ne il legno.

Pensate che questo straordinario effetto e’ stato realizzato dentro una normale abitazione utilizzando attrezzatura che ognuno di noi potrebbe acquistare sfruttando una potenza totale di 75W con 120 V in alternata. Come potete immaginare, questo effetto e’ stato mostrato per la “prima” volta da John Hutchinson un canadese che ha iniziato alla fine degli anni ‘7o a fare sperimentazione per hobby riprendendo gli studi addirittura di Nikola Tesla.

John Hutchinson nella sua casa

John Hutchinson nella sua casa

Visto che a noi piace tanto informarci su internet, sono andato a leggere moltissimi siti per capire cosa la gente pensasse di questo effetto. Per prima cosa, vedendo le foto che ho riportato, capite subito quale enorme quantita’ di energia sia necessaria per provocare questi effetti. Inoltre, ottenendo risultati di questo tipo, appare evidente come ci siano molti punti oscuri dell’interazione tra onde radio e materia che ancora ci sfuggono. Secondo molti siti, e’ importante ripetere la fonte delle affermazioni, effetti del genere possono solo essere compresi arrendendosi al fatto che i legami molecolari possano essere modificati attraverso onde radio. L’evidenza di un metallo che aumenta notevolmente la sua temperatura senza bruciare cio’ che lo circonda e’ a sua volta una chiara dimostrazione che la termodinamica cosi’ come la conosciamo debba essere modificata in presenza di notevoli campi elettromagnetici in grado di modificare la concezione stessa di calore che normalmente utilizziamo.

Pesnate sia sufficiente? No, andiamo un pochino piu’ oltre. Da dove viene tutta questa energia se abbiamo solo un dispositivo casalingo collegato alla presa di corrente? Ma e’ ovvio, mettete insieme effetto Hutchinson e Tesla e capirete come questa sia un’applicazione in grado di sfruttare l’energia di punto zero e la produzione spontanea di coppie particella-anti particella nel vuoto quantistico. Perche’ nessun ente, universita’ o laboratorio sta sperimentando questi sistemi per sfruttare questa energia enorme, gratuita e assolutamente rinnovabile?

Che domande che fate ancora: perche’ gli scienziati zozzoni sono tutti corrotti e asserviti al potere delle grandi multinazionali. Al solito pensano di aver capito tutto e sono chiusi alle loro equazioncine che dovrebbero spiegare la meccanica, la termodinamica e l’elettromagnetismo e non si accorgono invece che le evidenze mostrano che tutte le teorie sono sbagliate. Prima ho parlato anche di levitazione di oggetti e vi ho sottolineato il fatto che questa avvenga non solo per oggetti metallici. Ecco una foto di Hutchinson che mostra un modello di disco volante in plastica che e’ stato fatto levitare in uno dei suoi esperimenti:

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Pensate che il modellino di disco volante sia stato scelto a caso? Forse da Hutchinson si, ma questo effetto potrebbe spiegare anche come fanno a volare i dischi volanti che “ogni giorno” vediamo sfrecciare sulle nostre teste. Pensate quanto potremmo imparare sfruttando questo effetto e utilizzandolo per fare viaggi interplanetari, viaggi nel tempo, curvare lo spazio tempo, ecc.

Scienziati perditempo che non fate altro che rubare gli stipendi pagati da gruppi di potere a cui siete asserviti, vergognatevi tutti, compreso il sottoscritto.

Bene, ora torniamo seri e ragioniamo su quanto detto. Piccola parentesi, al solito sto scherzando parafrasando pero’ quello che viene normalmente, anche in questo caso, detto su moltissimi siti. Se provate a documentarvi in rete, troverete diversi articoli che parlano di questo presunto effetto attaccando la scienza ufficiale complice di non approfondire queste scoperte.

Come anticipato, il fatto che lo stesso Hutchinson dica di rifarsi agli esperimenti di Tesla non puo’ che fungere da cassa di risonanza per il complottismo verso la scienza. Di Tesla in particolare abbiamo gia’ parlato in questi articoli:

Il Raggio della Morte

Il Raggio del Dolore

Marconi, Tesla e l’evidenza aliena

Le terribili armi scalari

parlando dell’uomo, dello scienziato ma soprattutto della reale considerazione che la scienza ufficiale ha di questo scienziato di prim’ordine. Purtroppo, ancora oggi molti credono che tutte le scoperte di Tesla siano finite nel dimenticatoio per colpa del governo o di organizzazioni. Questo non e’ assolutamente vero! Pensate solo alla corrente alternata, alle bobine o alle tecnologie senza fili. Tutte scoperte partite o completamente sviluppate da Tesla e oggi sfruttate a pieno. Purtroppo, c’e’ ancora chi ignorantemente sostiene che non siamo in grado o non vogliamo utilizzare la corrente alternata.

Detto questo torniamo ad Hutchinson. Veramente sono stati osservati questi effetti? Purtroppo, anche in questo caso, siamo di fronte alla totale mancanza di prove scientifiche a sostegno. Lo stesso Hutchinson dichiara di non sapere quando e perche’ i suoi esperimenti riescono e per di piu’, non sono mai riusciti di fronte a persone esperte esterne.

Vi voglio mostrare un video a mio avviso interessante:

Notato niente di strano nell’angolo in alto a sinistra? Magari un filo che si riavvolge e tira su il modellino di ufo? Capite bene come questo video messo in rete dallo stesso Hutchinson smentisca da subito il suo esperimento di levitazione.

Ora e’ importante rimarcare un cosa: personalmente, e questo dovrebbe valere per tutti, mi reputo una persona molto aperta e consapevole, da ricercatore, che quello che sappiamo e’ sempre troppo poco rispetto a quanto c’e’ ancora da scoprire. Detto questo, qualora ci fossero effetti nuovi non comprensibili ma ripetibili indipendentemente da chi compie o osserva l’esperimento, la cosa non mi sorprenderebbe affatto. Moltissime invenzioni e scoperte sono arrivate per puro caso e stravolgendo qualcosa che si pensava ben compreso e archiviato. Alla luce di quanto osservato pero’, questo non e’ il caso dell’effetto Hutchinson. E’ vero, in rete ci sono decine di video che mostrano questi esperimenti ma molti di questi mostrano particolari quantomeno sospetti. A parte il video riportato prima, facendo una ricerca in rete potete trovare molti altri documenti sulla levitazione. In questi casi si vede una rapida accelerazione dell’oggettto che sale verso l’alto, accelerazione del tutto compatibile con una caduta libera. Cosa significa? Semplice, che il sospetto che la ripresa sia fatta capovolgendo l’immagine, dunque oggetto che cade piuttosto che salire, e’ davvero molto forte.

Altra piccola parentesi che e’ doveroso fare senza voler offendere nessuno: ma davvero pensate che gli scienziati siano cosi’ stolti? Per poter andare avanti nella conoscenza e’ necessario non smettere mai di essere curiosi e di farsi domande. Oltre a questo pero’, c’e’ tutto un panorama di leggi, effetti, spiegazioni che per anni sono state affinate fino ad arrivare a quello che sappiamo oggi. Dico questo perche’ molto spesso, non sono su questo effetto, leggo in rete persone che si lanciano in spiegazioni parlando a vanvera di questo o quest’altro effetto mostrando chiaramente da quello che scrivono quanto poco sappiano dell’argomento. Per l’effetto Hutchinson tanti parlano di interferenza di onde, principi della termodinamica, Tesla, ecc. senza conoscere minimamnete le basi su cui questi concetti su fondano. Credetemi, diffidate da questi luminari di “wikipediana” cultura che pensano che dopo aver letto due paginette abbiano la comprensione del tutto al punto da poter ridicolizzare chi queste cose le ha studiate, magari le insegna in corsi universitari e continua ancora oggi a farsi domande esistenziali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

EniGma con Nadir Mura

21 Mag

Dopo l’intervista per “Catastrofi nel Mondo” su Rai 2, in cui avevamo parlato di Nibiru:

Catastrofi nel mondo

Nella trasmissione EniGma, in onda in Albania sul canale Digitalb, e’ andata in onda un’intervista che avevo rilasciato qualche tempo fa.

Nell’intervista si parlava dei viaggi nel tempo. In particolare, veniva affrontato il discorso della misura sui neutrini del Gran Sasso e di John Titor. Come potete ascoltare, i miei condizionali si sono poi rivelati giusti. La misura del Gran Sasso e’ stata poi smentita perche’ causata da un errore sperimentale, difficile da prevedere e che ha falsato completamente il risultato.

Ecco il video dell’intervista con Nadir Mura, conosciuto anche in Italia perche’ ha lavorato per diverso tempo in Rai:

Se non conoscete l’albanese, potete andare direttamente al minuto 35:40 per ascoltare il mio pezzo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Dove andiamo in vacanza? Nello Spazio!

1 Mag

Intorno al 2004, uno dei personaggi piu’ eclettici e ricchi del pianeta, ha lanciato una proposta che inizialmente ha scatenato le risate di molte agenzie governative del settore. Il personaggio in questione e’ Richard Branson, anzi sir Richard Branson, proprietario del gruppo Virgin, ricchissimo uomo d’affari e che ha creato diversi successi nei molti settori in cui si e’ lanciato. Nel 2004, Branson, penso’ di organizzare viaggi turistici nello spazio, e, come anticipato, questa proposta non venne presa affatto sul serio dalle organizzazioni governative che pensavano che nessun privato sarebbe mai riuscito a combinare qualcosa di tangibile in questo settore.

Perche’ ora stiamo parlando di queste cose?

Per prima cosa, vi segnalo un link da guardare con estrema attenzione:

Proprio pochi giorni fa, nel deserto della California, c’e’ stato il primo test di successo per la fattibilita’ del turismo spaziale. Cerchiamo di andare con ordine. Per prima cosa, il turismo spaziale pensato da Branson, prevede un viaggio ad un’altezza di circa 100 Km dalla Terra, in cui poter sperimentare, piu’ o meno per 6 minuti, l’assenza di gravita’ ma soprattutto poter ammirare la Terra come un grande palla blu immersi nel buio dello spazio.

La societa’ fondata nel 2004 si chiama appunto Virgin Galactic e ha come scopo ultimo i viaggi spaziali, ma soprattutto lo sviluppo di sistemi privati per voli spaziali che, come potete immaginare, non sono affatto banali. Per viaggi di questo tipo, e’ necessario prima di tutto disporre di un lanciatore in grado di portare il sistema ad una altezza ragionevole, ma soprattutto di una navicella simil-spaziale, dotata di motori in grado di farle superare la velocita’ di fuga dalla gravitazione terrestre, portando a bordo i turisti.

Le difficolta’ tecniche in questo settore sono ovviamente molte. Nei primi anni del 2000, la Virgin provo’ infatti a comprare il concorde, da utilizzare magari come lanciatore, ma non fu possibile. Da qui, inizio’ appunto l’avventura della Virgin Galactic nella realizzazione di questi sistemi.

Il momento dello sgancio della Space Ship II

Il momento dello sgancio della Space Ship II

Come anticipato, il lancio prevede due sistemi distinti che abbiamo gia’ visto nel video. Il lanciatore, chiamato White Knight Two, cioe’ cavaliere bianco II, porta la navicella fino a 14000 metri di altezza. Quest’ultima e’ fissata sull’ala interna di questo curioso velivolo, che potrebbe sembrare generato dalla fusione di due aerei attaccati per un’ala.

Arrivati alla quota stabilita, la vera e propria navicella spaziale, Space Ship Two, viene lasciata cadere e accende il suo potente motore che servira’ per portarla alla quota stabilita di 100 Km. Il test da cui siamo partiti, ha permesso alla Space Ship II di superare la velocita’ del suono, viaggiando ad una velocita’ di mach1.2, cioe’ 1,2 volte quella del suono.

Ad essere sinceri, queste velocita’ non sono ancora sufficienti per raggiungere le altezze stabilite, ma la Virgin Galactic assicura che si e’ trattato solo di un test di fattibilita’ in cui non sono state ancora sfruttate a pieno le potenzialita’ della navicella.

Moltissime informazioni possono essere trovate direttamente nel sito internet della Virgin Galactic:

Sito VirginGalactic

In particolare, trovate le caratteristiche dalla Space Ship II qui:

Space Ship II

Mentre le informazioni sul lanciatore sono riportate in questa pagina:

White Knight II

Come potete vedere, prima di questo sistema, la Virgin ne aveva pensati altri, piu’ piccoli e con sistemi di aggancio differenti. Diversi studi di fattibilita’ e le stringenti norme di sicurezza a  cui, giustamente, le societa’ private sono sottoposte, hanno imposto continue modifiche del progetto fino ad arrivare all’attuale sistema.

La virgin Galactic ha anche costruito un proprio spazioporto privato nel deserto del Mojave in California. Il progetto e’ stato curato dal famoso architetto ingelse Normann Foster e devo dire che il risultato e’ davvero di tutto riguardo:

Lo spazioporto della Virgin Galactic

Lo spazioporto della Virgin Galactic

Branson ha dichiarato di voler partire con i viaggi spaziali, gia’ alla fine del 2013. Come forse sapete, gia’ diverse volte questa data e’ stata spostata in avanti a causa di ritardi e ripensamenti del progetto. Certamente, questo test eseguito a mach1.2 mostra un buono stato di sviluppo e probabilmente una prova di fattibilita’ molto concreta di questa nuova forma di turismo.

Come potete vedere dai link che ho riportato, la Space Ship II puo’ trasportare 6 turisti alla volta, oltre ovviamente al pilota. Finito il giretto ad alta quota, il velivolo rientra alla base atterrando come un aliante. Se state pensando di prenotare un volo, il costo del biglietto e’ di 200000 dollari. Se pensate che sia eccessivo, tenete presente che esiste gia’ una lista di prenotazioni abbastanza corposa, che prevede star di Hollywood e altri personaggi pronti a partire per gustarsi la Terra dallo Spazio.

Come vogliono le buone regole del capitalismo, la Virgin Galactic non e’ l’unica azienda che si e’ lanciata nell’impresa. Dopo il 2005, sono nate circa 10 compagnie che hanno investito ingenti capitali in queste imprese. La diretta concorrente della Virgin e’ la Xcor Aerospace, che sta sviluppando un velivolo piu’ piccolo della Space Ship II e che portera’ una sola persona alla volta in orbita.

Se invece volete risparmiare qualche soldo, provando un’emozione diversa, potete rivolgervi alla Armadillo. Questa societa’, del magnate dei videogiochi John Carmack, assicura lanci in verticale su navicelle simili all’Apollo per “soli” 110000 dollari a viaggio.

Dal punto di vista della ricerca, sicuramente questi sviluppi, e gli enormi capitali coinvolti, possono portare importanti novita’. Come visto in questo articolo:

I lanci Spaziali del Futuro

la stessa NASA, anche a causa dei continui tagli di bilancio, collabora con diverse societa’ private per sviluppare sistemi di lancio innovativi e che possano sistituire l’ormai pensionato Shuttle. Come visto nell’articolo, particolare interesse e’ rivolto per i cosiddetti “voli di servizio” per la stazione spaziale internazionale, sicuramente ad una quota abbordabile per le compagnie private.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le previsioni del tempo

20 Gen

Molto spesso mi viene chiesto come sono fatte le previsioni del tempo. In questi ultimi giorni poi, l’argomento e’ molto di moda anche grazie ai continui annunci di copiose nevicate, ad esempio su Roma, che pero’ ancora non si sono viste.

Cerchiamo di fare un po’ di ordine ma soprattutto di capire quale e quanto lavoro c’e’ dietro quelle previsioni fatte a 1, 2, 3 giorni o, a volte, anche a mesi di distanza.

Al giorno d’oggi, le previsioni del tempo si basano su equazioni numeriche in grado di descrivere i complessi movimenti delle masse d’aria nel mondo, ma soprattutto nell’evoluzione temporale di questi parametri. In soldoni, la fisica vi descrive il movimento di queste masse d’aria e, misurando i parametri in questo momento, viene costruita una simulazione che cerca di fornire la situazione che si avra’ a distanza di tempo.

Meteo

Fate subito attenzione ad una cosa. Come detto, vengono presi i parametri atmosferci ad un certo istante e da questi viene costruita la modellizzazione nel tempo del meteo. Capite subito che tanto piu’ vicina sara’ la previsione richiesta, tanto piu’ affidabile sara’ il risultato fornito.

Per capire questo fondamentale limite, vi faccio un esempio molto facile. Immaginate di vedere una persona che cammina per strada e di voler simulare come cambiera’ nel tempo la sua posizione. L’istante iniziale e’ quello in cui osservate la persona. Ora, immaginando di vedere la persona che sta camminando con una certa velocita’ in una direzione potete dire, senza continuare a guardarla, che dopo 10 secondi sara’ arrivata in quest’altra posizione, dopo 20 secondi in quest’altra, e cosi’ via. Dove sara’ la persona dopo 3 ore? Assolutamente non siete in grado di dare questa risposta perche’ il vostro modello, basato solo sull’osservazione della direzione della persona ad un certo istante, non riesce a rispondere a questa domanda (la persona potrebbe essersi fermata, essere arrivata ad un bivio, potrebbe essere tornata indietro, ecc).

Le previsioni del tempo funzionano piu’ o meno in questo modo. I modelli ovviamente sono molto complessi dal momento che devono descrivere il movimento nel tempo delle enormi masse d’aria circolanti sul nostro pianeta.

La raccolta dei dati per le previsioni atmosferiche viene fatta utilizzando stazioni a terra, palloni sonda e satelliti metereologici. Le informazioni raccolte vengono poi inviate ed analizzate mediante potenti supercomputer in grado non di risolvere le equazioni del modello, ma di dare la risposta piu’ probabile, cioe’ la situazione del tempo ad una certa data.

A questo punto la domanda e’: quali sono i parametri che vengono misurati e perche’ le previsioni a volte sbagliano?

Mentre la prima risposta e’ abbastanza semplice ed intuibile per tutti, la seconda e’ una domanda un po’ piu’ complessa e che merita qualche considerazione aggiuntiva.

Riguardo ai parametri, come potete facilmente immaginare, si tratta di osservare le nuvole, la quantita’ di precipitazioni nel mondo, i gradienti di temperatura e pressione lungo l’atmosfera, i venti ma soprattutto di modellizzare i fenomeni meteorologici dal punto di vista fisico. Se due masse d’aria di temperatura diversa si scontrano, con quale probabilita’ si formeranno nuvole cariche di pioggia? Come vedete, in questo senso, il comportamento in atmosfera, e dunque la fisica, deve essere coniugato con i parametri osservati sul campo.

Partiamo dunque proprio dalla misure sul campo per capire l’affidabilita’ delle previsioni.

Prima di tutto, le osservazioni si basano su una griglia di misura che non copre in maniera adeguata tutta la superficie terrestre. Mentre i satelliti possono osservare praticamente tutto il mondo, le sonde in atmosfera, che forniscono i parametri ambientali, lasciano ampie aree scoperte. Con questo si intende che alcune zone della Terra non sono affatto sfiorate dalle misure. Dovendo trattare un sistema complesso come l’atmosfera, avere delle aree scoperte rappresenta sicuramente un limite. Inolre, l’atmosfera cambia i suoi parametri molto rapidamente, mentre per le previsioni i dati vengono letti ad intervalli regolari e, quindi, non con continuita’.

Sempre sulla stessa scia della griglia dei parametri, ad oggi ancora non e’ del tutto chiaro come la temperatura superficiale delle acque, cioe’ degli oceani, possa influire sul meteo. Come e’ facile immaginare, negli oceani possono essere presenti correnti a temperatura diversa ma e’ impensabile misurare in ogni punto dell’oceano la temperatura superficiale. A riprova di questo, basti pensare, ad esempio, al fenomeno del Nino o della Nina.

Ad oggi, l’affidabilita’ di una previsione a 24 ore e’ circa del 90%, mentre diviene dell’80% a distanza di 3 giorni. Questa stima scende rapidamente al 50% calcolando invece le previsioni ad una settimana. Praticamente, e’ come lanciare una monetina. Visti questi numeri, capite immediatamente come sia assurdo dare previsioni a 2 settimane, oppure sentir parlare ora di come sara’ il tempo quest’estate. Previsioni di questo tipo sono per scopi puramente commerciali e niente hanno a che vedere con la scienza.

Molto spesso, mi viene fatto l’esempio delle previsioni in formula 1. In un gran premio, se dicono che dopo 5 minuti iniziera’ a piovere, potete essere sicuri che accadra’. Perche’? Prima di tutto, si tratta di previsioni a brevissima scadenza, massimo a 30 minuti. Inoltre, si tratta di previsioni fatte in una zona ben precisa e circoscritta che riguarda l’area del circuito. In questo senso, l’attendibilita’ delle previsioni date arriva quasi a sfiorare il 100%.

A questo punto pero’ vorrei spezzare una lancia in favore della meteorologia per farvi capire le difficolta’ reali nell’elaborazione dei dati.

Credo che quasi tutti conoscano il cosiddetto “Effetto Farfalla”: Il battito di ali di una farfalla in Europa puo’ provocare un uragano negli Stati Uniti. Spesso viene raccontato utilizzando luoghi diversi, ma il senso e’ sempre lo stesso: basta un avvenimento minimo per cambiare irreparabilmente il futuro di qualcosa.

Da dove nasce l’effetto farfalla? Forse non tutti sanno che venne formulato proprio parlando di meteorologia.

Il supercomputer ENIAC del 1947

Il supercomputer ENIAC del 1947

Il primo che provo’ a calcolare previsioni meteo in maniera scientifica fu John Von Neumann utilizzando il piu’ potente Super Computer disponibile nel 1950, l’ENIAC. Si tratto’ del quarto computer realizzato nella storia ed in grado di fare calcoli che farebbero ridere un’odierna calcolatrice tascabile. Pensate che durante la cerimonia di inaugurazione, l’ENIAC lascio’ tutti a bocca aperta perche’ calcolo’ in un secondo il risultato di 97367 elevato alla 5000 causando un blackout in una vasta zona di Filadelfia. L’utilizzo principale di questo computer era per il calcolo balistico nel lancio dei missili, ma venne poi utilizzato anche per altri scopi, tra cui per le previsioni del tempo da Von Neumann.

Per darvi un’idea, dati i valori in ingresso, l’ENIAC era in grado di fornire in 24 ore, la previsione per le prossime 24 ore. Capite dunque l’inutilita’ di queste previsioni, arrivato il risultato bastava aprire la finestra per verificarlo, ma servi’ per spianare la strada ai moderni calcoli.

Cosa c’entrano l’ENIAC, Von Naumann e l’effetto farfalla con l’affidabilita’ delle previsioni del tempo?

Dalle previsioni di Von Neumann con l’ENIAC si evidenzio’ come modificando i parametri in ingresso di una quantita’ piccola a piacere, il risultato a distanza di 24 ore, poteva essere radicalmente diverso. Questo risultato venne poi ripreso da Lorenz che fu il primo a formulare l’effetto farfalla cosi’ come lo conosciamo oggi.

Analizzando questi risultati, capite bene quali siano le difficolta’ delle previsioni del tempo. Abbiamo a disposizione dati spesso incompleti, i parametri atmosferici possono cambiare repentinamente modificando completamente la situazione, una minima variazione dei parametri atmosferici puo’ cambiare radicalmente il risultato della previsione anche a breve termine.

Concludendo, la meterologia e’ una scienza molto complessa e non facilmente parametrizzabile mediante funzioni matematiche. Questo limite delle simulazioni e’ esattamente lo stesso di cui abbiamo parlato analizzando il calcolo della rotta di un asteroide. Anche in questo caso, una minima variazione delle condizioni al contorno del nostro problema possono modificare completamente il risultato. Proprio per questo motivo, in astrofisica cosi’ come in meteorologia e’ importante misurare in continuazione i dati ambientali.

Detto questo, se le previsioni a 2 settimane risultano sbagliate, la colpa e’ anche nostra che pretendiamo di avere qualcosa di non calcolabile. Se le previsioni ad un giorno sono sbagliate, pensate che forse c’e’ stata qualche farfalla di troppo.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ecco la scoperta di Curiosity

4 Dic

Come forse ricorderete, e come abbiamo visto in questo post:

Curiosity: scoperta sensazionale?

La NASA, nella persona di John Grotzinger, aveva annunciato, tramite l’emittente radiofonica americana NPR , di avere per le mani una scoperta sensazionale fatta da Curiosity su Marte. Per essere precisi, si parlava di una scoperta tale da riscrivere i libri di storia.

Come abbiamo visto nel post precedente, la scoperta era stata fatta utilizzando il rivelatore SAM, un analizzatore di campioni per il terreno marziano composto da uno spettrometro e da un gascromatografo.

Ovviamente questo annuncio ha fatto subito il giro del mondo, dal momento che il rivelatore SAM, tra le altre cose, e’ in grado di rivelare molecole organiche.

Ora proprio su questo punto si e’ creata la grandissima confusione a cui abbiamo assistito in rete.

Cosa avra’ mai scoperto Curiosity di cosi’ sensazionale?

Ovviamente sul web non sono mancate le voci piu’ fantasiose: marziani, fossili di una precedente vita, citta’ abbandonate. Queste sono solo alcune delle numerose ipotesi di cui abbiamo parlato.

Come detto nel precedente post, si era creata troppa attesa su questo annuncio della NASA. Come dichiarato, era completamente assurdo pensare a scoperte di questo tipo, ma era sicuramente necessario ridimensionare le aspettative sull’anuncio.

Come sappiamo ormai bene, l’annuncio era atteso per il 3 Dicembre, durante la conferenza annuale di geofisica degli Stati Uniti.

Qualche giorno prima, lo stesso portavoce della NASA aveva cercato di calmare le acque, rilasciando un’intervista in cui dichiarava quello che anche noi avevamo detto fin dall’inizio: quella che potrebbe essere una scoperta sensazionale per la scienza, non e’ detto che abbia la stessa risonanza nei non addetti ai lavori.

Vi ricordo che a seguito di questo annuncio, alcune voci su web avevano addirittura avanzato l’ipotesi che Curiosity non fosse neanche su Marte, ma in realta’ in un qualche deserto sulla Terra. Ovviamente si trattava di voci infondate e di chiaro stampo complottista, come visto in questo post:

Ecco perche’ Curiosity non trova gli alieni!

Ora, dopo un’attesa durata piu’ di una settimana, e’ finalmente arrivato l’annuncio della NASA.

Cosa avra’ mai trovato Curiosity?

Prima di tutto, e’ d’obbligo dire che “non e’ stata trovata la vita”. Nonostante questo, le scoperte fatte dal rover sono state molteplici e molto rilevanti sul piano scientifico.

Campione di sabbia raccolto da Curiosity

Campione di sabbia raccolto da Curiosity

Dall’analisi di campioni di sabbia marziana, Curiosity ha trovato un chimica abbastanza complessa, contenente acqua, zolfo, cloro e Carbonio.

Cerchiamo di andare con ordine.

Dall’analisi di campioni di sabbia, Curiosity ha trovato molecole organiche. Questo non significa qualcosa di “vivo”, bensi’ molecole contenenti carbonio.

Come detto e ripetuto su questo blog, la nostra idea era proprio che il rover avesse trovato il carbonio, cioe’ quei mattoni fondamentali per la vita.

Il carbonio e’ stato trovato riscaldando il perclorato, una molecola gia’ evidenziata anche da altre missioni su Marte. Dal riscaldamento del perclorato sono stati evidenziati atomi di cloro, idrogeno e carbonio.

Perche’ nonostante l’evidenza di carbonio, la NASA ancora preferisce non parlare di molecole organiche? Semplicemente perche’ non si e’ ancora sicuri che il carbonio sia veramente di origine marziana.

Cerchiamo di capire meglio.

Ovviamente la costruzione del rover e’ avvenuta con tutti gli accorgimenti del caso. In particolare, si e’ prestata la massima attenzione a decontaminare il rover da materiale e molecole terrestri, prima di inviarlo su Marte. Nonostante questo, e’ possibile che i campioni siano ancora “inquinati” da molecole di origine terrestre. In questo caso, non ci sorprenderebbe l’evidenza del carbonio, dal momento che sarebbe proveniente dalla Terra stessa.

Come risolvere questo rebus?

Semplicemente sono necessarie nuove analisi su diversi campioni. Il lavoro di analisi di Curiosity e’ solo all’inizio. Obiettivo delle prossime settimane e’ continuare a spostare il rover all’interno del cratere Gale per raccogliere nuovi materiali da analizzare.

Solo una statistica maggiore di analisi potra’ dare una risposta definitiva all’evidenza o meno di carbonio sul suolo marziano.

Tutto qui?

Assolutamente no, ma neanche il seguito non sara’ tale da far saltare un non addetto ai lavori sulla sedia.

Tra le altre cose, Curiosity ha evidenziato la presenza di vetro nel suolo marziano, cioe’ di silicati. Questo evidenzia un’origine vulcanica del suolo Marziano dal momento che la composizione osservata nella sabbia e’ del tutto simile a quella che troviamo sulla Terra nei terreni di origine vulcanica.

Altra importante scoperta di Curiosity viene dall’analisi delle molecole d’acqua trovate nei campioni. Il rover ha evidenziato infatti che la concentrazione delle molecole di acqua pesante e’ maggiore di quella di acqua leggera. Cosa significa questo? Chimicamente possiamo scrivere l’acqua come H2O, cioe’ come una molecola formata da due atomi di idrogeno ed uno di ossigeno. Ora, l’idrogeno in natura presenta 3 isotopi diversi, detti Idrogeno, Deuterio e Trizio. La differenza e’ solo nel numero di neutroni che troviamo nel nucleo. Mentre l’idrogeno ha un solo protone nel nucleo, il deuterio ha un protone ed un neutrone ed il trizio ha un protone e due neutroni.

Il fatto che la concentrazione di acqua pesante sia maggiore, significa semplicemente che, rispetto alla Terra, sono piu’ abbondanti le molecole di D2O, cioe’ con atomi di deuterio al posto di quelli di idrogeno.

Siete rimasti delusi dalle scoperte di Curiosity?

Probabilmente si. In realta’ si tratta di scoperte molto importanti dal punto di vista scientifico, se consideriamo che Curiosity e’ sul pianeta rosso solo da poche settimane.

Nei precedenti post, avevamo gia’ annunciato che molto probabilmente la scoperta sensazionale sarebbe stata l’evidenza, o almeno presunta tale, di carbonio nel terreno marziano.

Come anticipato nei giorni scorsi, erano del tutto infondate le voci che ipotizzavano scoperte o evidenze di forme di vita su Marte.

Per un’analisi completa e scientifica del 2012, ma che in realta’ ci consente di spaziare a 360 gradi in diversi campi della scienza, non perdete in libreria  “Psicosi 2012. Le risposte della scienza”.

Curiosity: scoperta sensazionale?

22 Nov

Dopo qualche settimana di silenzio, torniamo finalmente a parlare di Curiosity, il Rover che sta esplorando la superficie di Marte e invia in continuo i suoi dati verso la Terra.

Nei post precedenti, molte ipotesi di avvistamenti alieni erano state fatte sulle foto scattate:

Curiosity e gli UFO

Curiosity e gli UFO: dopo le foto, il video. 

ma la notizia che sta circolando proprio in queste ultime ore, e’ completamente diversa.

Andiamo con ordine.

Ieri, in un’intervista rilasciata da John Grotzinger alla radio pubblica america NPR, si e’ annunciata una straordinaria scoperta, letteralmente una scoperta tale da cambiare i libri di storia, fatta da Curiosity e attualmente al vaglio degli esperti. Nell’intervista non si fa nessun riferimento al tipo di scoperta, in attesa della verifica dei risultati.

Disegno del rover Curiosity

Che significa? Chi e’ John Grotzinger? Di che scoperta si tratta?

Queste sono le domande che vengono in mente leggendo questa notizia, e a cui cercheremo di dare una risposta.

Ma prima di addentrarci nel discorso, dobbiamo chiederci: la notizia e’ reale o si tratta di una montatura?

A questo punto, molti di voi si aspetterebbero che dicessi che si tratta di una montatura, in realta’ la notizia sembra proprio reale. Inoltre, il giornale italiano focus scrive nelle sue pagine di aver verificato anche in maniera indipendente la notizia, da una fonte NASA tenuta anonima, e di poter confermare quanto riportato da NPR.

Premesso questo importante particolare, cerchiamo di fare un po’ di chiarezza.

John Grotzinger e’ professore di geologia presso il California Institute of Technology, esperto nell’interazione chimica e fisica dell’ambiente sulla formazione della vita. Grotzinger e’ attualmente impegnato nelle missioni di esplorazione marziana da parte della NASA, appunto per la ricerca di forme di vita sul pianeta rosso.

Bene, la notizia sembra reale e la presunta fonte e’ altrettanto reale e autorevole.

Stando a quanto riportato da NPR, la sensazionale scoperta fatta da Curiosity sarebbe il risultato di un’analisi condotta attraverso il rivelatore SAM. Questo acronimo sta per Sample Analysis at Mars, cioe’ analisi dei campioni su Marte. Il SAM, realizzato dal Goddard Spece Flight Center della NASA, e’ composto da uno Gascromatografo-spettrometro di massa e da uno spettrometro laser. Compito del SAM e’ quello di analizzare i composti organici eventualmente presenti nei campioni atmosferici e di suolo.

Attenzione, la scoperta e’ fatta con il SAM e il ruolo del SAM e’ quello di analizzare campioni organici?

Come potete facilmente immaginare, mettendo insieme questi due pezzi, sul web si e’ scatenata la corsa alle ipotesi piu’ fantasiose per la scoperta fatta da Curiosity.

Come nostra abitudine, prima di sbilanciarci in una direzione, cerchiamo di capire meglio.

Per prima cosa: come funziona il SAM?

Per rispondere alla domanda, dobbiamo capire cosa si nasconde dietro quei due strumenti dal nome impronunciabile di cui abbiamo parlato prima.

Un Gascromatografo-spettrometro di massa, anche detto GC-MS, e’ uno strumento basato sull’accoppiamento dei due pezzi che compongono il nome. Il Gascromatografo serve per separare la miscela da analizzare in una fase stazionaria ed una fase mobile. Le due fasi vengono poi fatte uscire separatamente pronte per essere analizzate con lo spettrometro di massa. Questo componente permette di determinare la composizione di una miscela, misurando, in modo indiretto, la massa degli ioni che la compongono. In questo modo si possono identificare le molecole presenti nel campione.

Curiosity puo’ utilizzare in accoppiamento con il SAM anche il ChemCam, cioe’ un piccolo raggio laser in grado di vaporizzare una quantita’ di roccia mediante impulsi molto energetici. Questo bombardamento puo’ vaporizzare rocce fino a 7 metri, permettendo un’analisi molto precisa mediante gli Spettrometri di massa.

Se rileggiamo attentamente il funzionamento degli strumenti, ci rendiamo conto di una cosa, gli spettrometri possono misurare la presenza di particolari ioni, come potrebbero essere l’ossigeno, il carbonio, l’azoto. Tutte  molecole che, in un modo o in un altro, possono essere messe in relazione con la vita.

Quanto detto dovrebbe essere sufficiente a smorzare le speculazioni che potete leggere in rete su questa notizia. Come potete facilmente immaginare, su molti siti non si fa altro che parlare di forme di vita extraterrestri, alieni e complotti per tenere tutto nascosto. Questo e’ assolutamente falso.

Facciamo una riflessione insieme.

Si parla di una scoperta rivoluzionaria per la scienza. Ora, non vorrei fare il bastian contrario, ma a volte quella che e’ una scoperta sensazionale per la scienza, passa del tutto inosservata nei non addetti ai lavori. Commentando la notizia, possiamo ipotizzare che Curiosity abbia trovato, ad esempio, tracce di carbonio. Questa sarebbe una scoperta sensazionale perche’ significherebbe che su Marte ci sono i mattoni per formare, o per aver ospitato, la vita. Non lasciatevi trasportare dalle tante ipotesi-bufala che girano in rete, la scoperta sensazionale non sara’ mai una foto di Curiosity a fianco di un omino verde!

Detto questo, sembrerebbe che la NASA voglia annunciare questa scoperta durante l’incontro annuale dell’unione geofisici americani, che si terra’ tra il 3 e il 7 Dicembre a San Francisco.

Il fatto che ci sia tutta questa prudenza nel divulgare i dati non deve sorprendervi. E’ del tutto normale che si voglia verificare la scoperta senza lasciare il minimo dubbio negli addetti ai lavori. In passato la NASA ha gia’ fatto proclami che ha dovuto rimangiarsi. Nel 2010, ad esempio, si annuncio’ la scoperta di forme di vita extraterrestri in grado di sfruttare una biochimica basata sull’arsenico invece che sul carbonio. Tutti pensarono agli alieni, ma si trattava soltanto di batteri. Tra l’altro poi, questo annuncio si rivelo’ sbagliato solo pochi giorni dopo.

L’esempio appena fatto, ci fa riflettere nuovamente su due aspetti. Il primo e’ che i dati vanno sempre verificati con cura prima di annunciarli. Detto tra noi, mi meraviglia che John Grotzinger si sia lasciato sfuggire questa notizia. L’altro aspetto importante e’ di non caricare di attese questo annuncio. Come nel caso precedente, quella che per la scienza e’ una grandissima scoperta, potrebbe smentire le attese dei non addetti ai lavori.

Concludendo, non ci resta che aspettare qualche giorno prima di sapere qual’e’, e se veramente e’ stata fatta, questa importantissima scoperta di Curiosity.

Per analizzare in dettaglio le profezie sul 2012, imparando prima di tutto a ragionare sulle notizie senza lasciarsi trasportare, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.

Storia astronomica di Nibiru

31 Ott

Come sappiamo, uno degli argomenti piu’ citati nelle profezie del 2012 e’ l’esistenza, e l’eventuale scontro con la Terra, di un decimo pianeta del Sistema Solare. Cercando in rete, trovate molte varianti possibili su questo corpo celeste. Oltre ad un pianeta, qualcuno ipotizza una nana bruna, una nana bianca, un buco nero, un sistema solare, e anche dal punto di vista del nome oltre a Nibiru trovate Tyche, Tiamat e Pianeta X. In particolare, questo ultimo nome ha la duplice funzione di indicare il decimo pianeta del Sistema Solare ma anche la natura misteriosa del corpo.

Del pianeta Nibiru, limitiamoci a considerarlo tale e chiamarlo in questo modo, abbiamo parlato in moltissimi post. Alcuni esempi sono:

Finalmente le foto di Nibiru

Nibiru e’ vicino, la prova delle orbite

La NASA torna a parlare di Nibiru

Evidenze di un decimo pianeta?

Nibiru e la deviazione delle Pioneer

Nibiru: la prova del trattore gravitazionale

Nibiru e’ monitorato dall’osservatorio di Arecibo?

Come abbiamo visto, ad oggi, non vi e’ assolutamente nessuna evidenza dell’esistenza di questo decimo pianeta. La rete abbonda di video, foto e presunte prove, ma, come detto, in molti casi si tratta o di materiale falso  o di materiale reale ma non riguardante Nibiru. Un chiaro esempio di quest’ultimo caso e’ dato dal post precedente sulle foto del pianeta.

Dell’origine storica di Nibiru, cosi’ come delle diverse ipotesi a riguardo e delle misura scientifiche “vere”, ne abbiamo parlato abbondantemente nel libro “Psicosi 2012. Le risposte della scienza”. In quest post, invece, vogliamo raccontare l’origine e la ricerca “scientifica” del decimo pianeta.

Molti, anche tra i sostenitori della sua esistenza, ignorano il fatto che la scienza ha per diversi anni cercato un decimo pianeta e su questi argomenti c’e’ stato un dibattito, anche acceso, tra diversi astronomi. Prima di addentrarci in questa rivisitazione storica e’ pero’ necessario fare una piccola introduzione scientifica spiegando alcuni concetti importanti.

Come sapete, il nostro sistema solare e’ costituito da un Sole, di grande massa, e da una serie di pianeti che orbitano intorno a questa stella centrale su orbite ellittiche. La forza gravitazionale e’ la “colla” che tiene in equilibrio tutto il sistema. Questa interazione e’ di tipo attrattivo e dipende direttamente dalle masse dei pianeti considerati e inversamente dal quadrato della loro distanza. Ogni pianeta ruota dunque intorno al Sole grazie all’attrazione gravitazionale.

Anche se l’interazione principale e’ quella del Sole, dal momento che la forza gravitazionale si esercita tra ciascuna coppia di pianeti, ogni corpo risentira’ anche dell’attrazione degli altri pianeti ed in particolare di quelli ad esso piu’ vicini. Date le masse, questa interazione sara’ molto meno intensa di quella del Sole, e costituira’ una “correzione” rispetto a quella dominante della stella centrale.

Abbiamo fatto questa premessa solo per presentare un metodo indiretto di ricerca dei corpi celesti. Nell’astronomia, anche se non siete in grado di vedere direttamente un corpo, potreste riuscire ad individuarlo osservando i suoi effetti, cioe’ le perturbazioni gravitazionali apportate da questo sugli altri corpi nelle vicinanze.

Facciamo un esempio. Immaginate di vedere soltanto 3 pianeti che orbitano intorno al Sole. Mediante calcoli matematici siamo in grado di calcolare in modo preciso le orbite occupate da questi pianeti considerando l’interazione con il Sole, principale, e le interazioni tra ciascuna coppia di pianeti, correzioni. Ora avete il vostro modello matematico, ovviamente basato sulla fisica. Andiamo poi a confrontare questo risultato con quello che vedete realmente con i telescopi. Se la vostra simulazione coincide con quello che vedete significa che il vostro modello e’ reale. In caso contrario, dando ovviamente per scontato che i calcoli siano fatti bene, misurate delle discrepanze tra mondo reale e simulazione. A cosa sono dovute? Una delle ipotesi piu’ probabili e’ che ci sia un altro corpo, che non avete considerato nella simulazione, e che apporti delle modificazioni alla forza di gravita’.

Seguendo questo schema, e’ stato possibile, ad esempio, scoprire Nettuno nel 1846. Dalle incongruenze tra simulazione e realta’ nell’orbita di Urano, gli astronomi ipotizzarono la presenza di un altro pianeta piu’ esterno che perturbasse con la sua presenza l’orbita di Urano. Allo stesso modo, nel 1930 venne scoperto anche Plutone, poi declassato da pianeta a planetoide.

Ora, nonostante la scoperta di Nettuno e Plutone, l’orbita calcolata di Urano presentava ancora delle piccole perturbazioni rispetto a quella osservata dagli astronomi. Seguendo il ragionamento appena fatto, queste perturbazioni potevano essere dovute ad un altro pianeta, appunto il decimo del Sistema Solare, che perturbasse gravitazionalmente con la sua presenza il moto di Urano.

Siamo intorno agli anni ’70 e partendo da queste misurazioni ebbe inizio la ricerca del decimo pianeta del Sistema Solare.

Molti astronomi si dedicarono allo studio e alla ricerca del pianeta X, tra questi Harrington, Jackson, Killen e Maltese, solo per citarne alcuni. Stiamo parlando di astronomi di notevole esperienza e che attraverso la ricerca del decimo pianeta pubblicarono articoli pioneristici su diversi argomenti astronomici molto importanti come lo studio dei sistemi binari, le risonanze tra pianeti, l’interazione gravitazionale a molti corpi e cosi’ via.

Pianeti del Sistema Solare incluso Nibiru

Ora, ripensiamo a quanto detto sull’equilibrio gravitazionale del Sistema Solare. Mediante simulazioni e confrontando di volta in volta i risultati con quanto osservato nella realta’, e’ possibile, mediante calcoli matematici, ipotizzare la posizione, l’orbita e la massa che dovrebbe avere il decimo pianeta per spiegare le perturbazioni osservate. Detto in altri termini, e’ possibile “aggiustare” la simulazione ipotizzando un pianeta addizionale la cui presenza sia in grado di far coincidere la simulazione con la realta’. Proprio da questi calcoli vengono estratti i parametri che spesso trovate in rete su Nibiru riguardanti la sua grandezza, la sua orbita, la distanza dal Sole e la posizione attuale nel sistema solare.

Fin qui dunque e’ tutto chiaro. Procedendo come per le scoperte di Nettuno e Plutone, si ipotizza la presenza di un ulteriore pianeta in grado di spiegare le perturbazioni ancora ossservate nell’orbita di Urano.

A differenza pero’ di Nettuno e Plutone, il decimo pianeta ipotizzato non e’ mai stato osservato, tantomeno nella posizione indicata dalle simulazioni fatte dai vari astronomi.

Questo risolve solo una parte del problema. Anche se non abbiamo osservato il decimo pianeta, sappiamo che Urano presenta delle perturbazioni nella sua orbita. Come detto in precedenza, in astronomia anche se non osserviamo direttamente un corpo possiamo intuire la sua presenza dagli effetti gravitazionali apportati ai pianeti vicini. Le perturbazioni dell’orbita di Urano possono essere una prova dell’esistenza del decimo pianeta. Forse non lo osserviamo perche’ noi non siamo in grado di farlo.  Questo ragionamento e’ quello portato avanti in moltissimi siti a favore di Nibiru e astronomicamente, in base a quanto detto fino a questo punto, e’ un discorso assolutamente lecito.

Dunque? Cosa non abbiamo considerato?

Torniamo a ragionare su quanto detto riguardo all’attrazione gravitazionale. Due corpi qualsiasi si attraggono mediante la forza di gravita’. Questa interazione dipende direttamente dalle masse dei pianeti ed e’ inversamente proporzionale al quadrato della loro distanza. Teniamo questo a mente.

L’orbita di Urano dipende principalmente dall’interazione con il Sole, ma anche dalle correzioni apportate dagli altri pianeti intorno ad esso. Essendo Nettuno subito dopo Urano, questo avra’ un’attrazione importante sulla sua orbita.

Proprio queste considerazioni sono alla base dell’inesistenza del decimo pianeta. Nelle simulazioni erano presenti delle discrepanze nell’orbita di Urano proprio perche’ era considerata una massa leggermente sbagliata di Nettuno. Ragioniamo insieme. La forza gravitazionale con cui Nettuno disturba Urano, dipende, come detto, dalla massa di entrambi i pianeti. Se utilizziamo una massa di Nettuno leggermente diversa da quella reale, nella simulazione avremo una perturbazione diversa rispetto a quella reale e dunque un orbita simulata leggermente diversa da quella osservata. Proprio questa differenza ci porta a cercare un ulteriore pianeta che giustifichi la perturbazione osservata.

Questo e’ esattamente quello che e’ successo storicamente. La massa di Nettuno conosciuta fino agli inizi degli anni ’90 differiva da quella reale di un -0.5%. Questa apparentemente piccola differenza e’ responsabile delle discrepanze osservata tra teoria e simulazione. Il valore preciso della massa di Nettuno venne calcolato solo nel 1990 a seguito del passaggio sopra il pianeta della sonda Voyager 2. Proprio in questa occasione si pote’ misurare con precisione la massa ed accorgersi della differenza rispetto al valore fino a quel punto conosciuto in astronomia, e dunque utilizzato nelle simulazioni.

Nel 1993 venne infatti pubblicato un articolo di Standish dal titolo: “Pianeta X: Nessuna evidenza dinamica nelle osservazioni ottiche”. Potete leggere l’articolo da questo link:

Articolo Standish 1993

Come si legge nell’introduzione: “Viene mostrato come le anomalie nell’orbita di Urano scompaiono prendendo in esame il valore corretto della massa di Nettuno“. E ancora: “Non c’e’ nessuna evidenza che richieda o indichi l’esistenza di un oggetto delle dimensioni di un pianeta (oltre Plutone). A questo punto non vi e’ piu’ nessuna necessita’ di ipotizzare l’esistenza di un decimo pianeta nel Sistema Solare“.

Questo articolo, datato 1993, e’ la conclusione della ricerca astronomica del decimo pianeta. Da quanto detto, non erano sbagliate le simulazioni fatte o i parametri calcolati del decimo pianeta, quello che era sbagliato era il punto di partenza della discussione. Le anomalie nell’orbita di Urano, cioe’ le differenze tra l’orbita osservata e quella calcolata, e da cui si ipotizzo’ l’esistenza di Nibiru, non erano reali, ma dovute all’errore sulla massa di Nettuno. Misurando meglio la massa del pianeta, le anomalie scompaiono e non c’e’ nessuna necessita’ di ipotizzare un decimo pianeta.

Come vedete, nel corso degli anni gli astronomi hanno cercato un decimo pianeta nel sistema solare. Oltre all’introduzione sumera, molti sostenitori di Nibiru si rifanno a questa parte storica per sostenere le loro ipotesi. Quella che pero’ viene spesso ignorata, e’ proprio la conclusione scientifica a cui si e’ giunti nel 1993. Il decimo pianeta viene ipotizzato per spiegare qualcosa. Se questo qualcosa in realta’ non esiste, perche’ c’era un errore a monte, non serve parlare del decimo pianeta.

Non lasciatevi convincere da ipotesi senza fondamento o non supportate da prove. Seguendo un approccio scientifico, possiamo motivare i nostri ragionamenti e le nostre conclusioni mostrando dati, leggi fisiche e, come in questo caso, articoli di astronomia consultabili a tutti. Per affrontare scientificamente, ma senza nessun preconcetto, tutte le profezie del 2012, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.

Nibiru: la prova del trattore gravitazionale

8 Ott

Torniamo ora nuovamente su Nibiru per parlare di un nuovo documento che sta circolando in rete in questi giorni. Sull’esistenza del decimo pianeta e sulle presunte prove “scientifiche”, abbiamo parlato, ad esempio, in questi post:

Nibiru e’ vicino, la prova delle orbite

La NASA torna a parlare di Nibiru

Evidenze di un decimo pianeta?

Nibiru e la devizione delle Pioneer

Come visto, non esistono, ad oggi, prove inconfutabili dell’esistenza di questo misterioso corpo. Per una discussione approfondita circa l’origine della profezia del decimo pianeta e per altre importanti considerazioni, si rimanda il tutto al libro “Psicosi 2012. Le risposte della scienza”.

Come anticipato, vogliamo tornare su Nibiru per presentare e discutere un nuovo documento di cui si sta parlando molto in rete. Si tratta di una relazione inviata a Bart Gordon e Ralph Hall, rispettivamente capo e membro della camera di Scienze e Tecnologie della Casa Bianca, da John Holdren, direttore del dipartimento di Scienze sempre della Casa Bianca.

Premettiamo subito che si tratta di un documento reale, inviato veramente dai soggetti sopracitati, nell’ambito degli studi scientifici della Casa Bianca.

Di cosa parla questo documento? Prima di tutto, questo e’ il link per scaricare il pdf, come vedete e’ un link dal sito http://www.whitehouse.gov, quindi del tutto attendibile:

OSTP-letter-NEO-House

Il documento e’ un riassunto della ricerca condotta dall’agenzia spaziale americana, sui NEO, cioe’ degli oggetti masssivi orbitanti vicino alla Terra. Questi corpi, vengono studiati, estrapolando la loro orbita, proprio per capire se ne esistono alcuni in grado, prima o poi, di colpire la Terra.

Come vedete, si tratta di un documento del 2010 e, oltre a riassumere lo stato e le prospettive nella ricerca dei NEO, tratta anche le eventuali misure di sicurezza che sono state pensate dagli Stati Uniti nel caso ci fosse una collisione tra la Terra ed un asteroide.

Fin qui tutto nella norma. E’ inutile nascondersi negando che non esiste questa probabilita’. Molte missioni sono state lanciate proprio per fare una mappa sempre piu’ precisa dei corpi massivi intorno alla Terra. Dalle missioni non e’ emerso nessun oggetto potenzialmente pericoloso e in rotta di collissione per la Terra. Questo ovviamente non preclude una possibilita’ futura di eventi di questo tipo.

Indipendentemente da queste considerazioni, il documento ha assunto un sisgnificato particolare a causa del grafico che compare a pagina 3, e che vi ripropongo qui:

Il grafico di pag.3 nella relazione sui NEO

In questo grafico sono indicati il numero di oggetti vicino alla Terra in funzione degli anni.

Su molti siti si parla di questo grafico parlando di una svista delle autorita’ americane, che hanno per sbaglio diffuso un dato molto importante e fino ad ora tenuto nascosto.

Secondo queste fonti, dal grafico si vede come il numero di oggetti vicino alla Terra sta aumentando molto velocemente. A cosa e’ dovuto questo effetto?

Per rispondere a questa domanda, dobbiamo fare qualche considerazione fisica. Nel nostro Sistema Solare e’ presente la cosiddetta Fascia di Kuiper che si estende dall’orbita di Nettuno per 20 u.a. Si tratta di una fascia di asteroidi esterna rispetto all’orbita dei pianeti maggiori.

Secondo queste teorie, l’aumento dei NEO sarebbe dovuto ad un aumento di oggetti “strappati” dalla fascia di Kuiper e condotti verso la regione interna del Sistema Solare. Ovviamente la forza che potrebbe spostare questi oggetti e’ quella gravitazionale. Se si registra un aumento cosi’ notevole di corpi entranti nel Sistema Solare, significa che, in qualche modo, e’ cambiato l’equilibrio gravitazionale nella regione interna.

A cosa e’ dovuto questo cambiamento? L’idea di base e’ che l’equilibrio sia modificato dalla presenza di un corpo di notevoli dimensioni all’interno del Sistema Solare. Come sappiamo, la forza gravitazionale e’ attrattiva. Affinche’ questi oggetti siano deviati dalla fascia di Kuiper alla regione interna, e’ necessario che un corpo di grandi dimensioni all’interno del Sistema Solare, che prima non c’era, li attiri verso l’interno. Possiamo definire questo effetto come “trattore gravitazionale” proprio per indicare il trainamento dei corpi ad opera della forza gravitazionale.

Ovviamente il principale candidato in questo caso e’ proprio il Decimo Pianeta.

Se questo fosse vero, questa sarebbe una prova definitiva dell’esistenza di Nibiru. Non serve vederlo per sapere che esiste, basta avere la conferma dai suoi effetti gravitazionali.

Cosa c’e’ di sbagliato in questo ragionamento? Le considerazioni fatte sono tutte scientificamente valide, quella che e’ sbagliata e’ l’ipotesi iniziale, cioe’ il grafico da cui siamo partiti.

Se vedete con attenzione il documento originale, potete leggere nella didascalia del grafico che si tratta di un grafico “cumulativo”. Anno per anno viene aggiornato il censimento del numero di NEO aggiungendo i nuovi oggetti identificati. Per capire meglio il grafico facciamo un esempio numerico. Supponiamo di identificare 100 NEO nel 2000. Facciamo dunque una colonna alta 100 in corrispondenza del 2000. L’anno successivo abbiamo a disposizione un telescopio piu’ potente che ci consente di identificare 100 nuovi oggetti oltre ai 100 che gia’ conoscevamo. Abbiamo dunque un censimento di 100+100=200 NEO conosciuti nel 2001. Nel grafico faremo dunque uan colonna alta 200 per il 2001. Di anno in anno, pian piano che identifichiamo nuovi oggetti, il nostro censimento aumentera’, facendo salire anche la colonna del numero di NEO.

Come vedete, in questa rappresentazione, la colonna del numero di oggetti intorno alla Terra aumentera’ sempre indicando l’indentificazione di sempre nuovi NEO.

Alla luce di questa spiegazione, proviamo a osservare di nuovo il grafico. Dal 2000 in poi, sono state fatte diverse missioni NASA per lo studio dei NEO potenzialmente pericolosi. Questo e’ visibile nel repentino aumento proprio in corrispondenza del 2000. Anno dopo anno, anche grazie al perfezionamento della tecnologia e delle nuove missioni, il numero di oggetti e’ cresciuto rapidamente. Nel 2010 erano stati identificati e catalogati circa 7000 oggetti intorno alla Terra.

Riassumendo, il grafico non indica un aumento di oggetti “sparati” dalla fascia di Kuiper verso il centro del Sistema Solare, imputabile al decimo pianeta, bensi’ un aumento della nostra coscenza e identificazione di questi oggetti.

Perche’ allora fare un grafico del genere?

Semplicemente perche’ il documento in questione e’ solo una relazione presentata nel 201o alla Casa Bianca per mostrare lo stato dell’arte nella ricerca dei NEO. Come detto, l’agenzia spaziale ha fatto diverse campagne di misura su questi oggetti e il documento e’ la relazione finale con i risultati ottenuti.

Come anticipato, esiste sempre la probabilita’ di una collisione della Terra con un oggetto massivo. Non parliamo di eventi attesi a breve, ma e’ un’ipotesi da tenere in considerazione. Il governo degli Stati Uniti ha discusso questa opportunita’ pensando anche ad eventuali piani di emergenza nel caso di eventi di questo tipo.

Anche in questo caso dunque, non e’ stata assolutamente trovata la pistola fumante in grado di dimostrare l’esistenza di Nibiru. Si e’ preso un documento di due anni fa, preparato per un altro scopo, si e’ riproposto in questo contesto cercando anche di interpretare in modo sbagliato uno dei grafici.

Diffidate sempre da notizie sensazionalistiche di questo tipo. Ragionare sui dati o sulle fonti dichiarate e’ l’unico modo per smentire queste ipotesi e per capire fino in fondo di cosa stiamo parlando. Per affrontare in modo scientifico le profezie sul 2012, affrontando argomenti sempre attuali e di interesse pubblico, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.