Tag Archives: 1970

Effetto Hutchison: realta’ o bufala?

29 Apr

Nell’apposita sezione:

Hai domande o dubbi?

un nostro caro lettore ci ha fatto una richiesta davvero molto interessante. Come potete leggere, ci chiede di dare maggiori dettagli circa l’effetto Hutchinson cioe’ una serie di fenomeni apparentemente non spiegabili utilizzando le attuali conoscenze della fisica.

Personalmente, trovo questa richiesta molto interessante se non altro perche’ ci consente di poter parlare di qualcosa ancora poco dibattutto sui siti nazionali anche se molto in voga gia’ da diversi anni sui siti in lingua inglese. Al solito, permettetemi questo piccolo monito, molti nostri blog e forum non fanno altro che riportare pezzi copiati qua e la senza, salvo alcuni rari casi, discutere la cosa in dettaglio.

Cosa sarebbe questo effetto Hutchinson?

Come anticipato, con questo termine si intendoo in realta’ una serie di fenomeni “strani” dovuti ad interferenza elettromagnetica. Cioe’? Se provate a documentarvi in rete, trovate sempre questa frase:

L’Effetto Hutchison si verifica come il risultato di interferenze di onde radio in una zona di spazio volumetrico avvolto da sorgenti di alto voltaggio, solitamente un generatore Van de Graff, e due o piu’ bobine di Tesla.

OK, ma che significa? Prendete una regione di spazio e fate interferire onde radio con una determinata frequenza e potenza. In prossimita’ della stessa zona sono presenti anche generatori ad alto voltaggio che in realta’ puo’ essere prodotto in vari modi, in particolare usando un Van de Graff o delle bobine Tesla.

Bene, creata questa zona “speciale” con campi elettromagnetici diversi cosa si ottiene?

Gli effetti sono i piu’ disparati: levitazione di oggetti pesanti (metallici ma non solo), compenetrazione di materiali diversi, riscaldamento anomalo di metalli senza bruciare altri materiali in contatto, cambiamenti sia provvisori che definitivi della struttura molecolare dei materiali, ecc.

Per darvi un’idea piu’ chiara, vi riporto un’immagine di alcuni materiali che sono stati sottoposti a questo trattamento:

 

Materiali sottoposti all'effetto Hutchinson

Materiali sottoposti all’effetto Hutchinson

notate in particolare lo sfaldamento dei metalli e l’ultima foto di un pezzo di legno compenetrato nel metallo senza sfaldare ne modificare ne il metallo ne il legno.

Pensate che questo straordinario effetto e’ stato realizzato dentro una normale abitazione utilizzando attrezzatura che ognuno di noi potrebbe acquistare sfruttando una potenza totale di 75W con 120 V in alternata. Come potete immaginare, questo effetto e’ stato mostrato per la “prima” volta da John Hutchinson un canadese che ha iniziato alla fine degli anni ‘7o a fare sperimentazione per hobby riprendendo gli studi addirittura di Nikola Tesla.

John Hutchinson nella sua casa

John Hutchinson nella sua casa

Visto che a noi piace tanto informarci su internet, sono andato a leggere moltissimi siti per capire cosa la gente pensasse di questo effetto. Per prima cosa, vedendo le foto che ho riportato, capite subito quale enorme quantita’ di energia sia necessaria per provocare questi effetti. Inoltre, ottenendo risultati di questo tipo, appare evidente come ci siano molti punti oscuri dell’interazione tra onde radio e materia che ancora ci sfuggono. Secondo molti siti, e’ importante ripetere la fonte delle affermazioni, effetti del genere possono solo essere compresi arrendendosi al fatto che i legami molecolari possano essere modificati attraverso onde radio. L’evidenza di un metallo che aumenta notevolmente la sua temperatura senza bruciare cio’ che lo circonda e’ a sua volta una chiara dimostrazione che la termodinamica cosi’ come la conosciamo debba essere modificata in presenza di notevoli campi elettromagnetici in grado di modificare la concezione stessa di calore che normalmente utilizziamo.

Pesnate sia sufficiente? No, andiamo un pochino piu’ oltre. Da dove viene tutta questa energia se abbiamo solo un dispositivo casalingo collegato alla presa di corrente? Ma e’ ovvio, mettete insieme effetto Hutchinson e Tesla e capirete come questa sia un’applicazione in grado di sfruttare l’energia di punto zero e la produzione spontanea di coppie particella-anti particella nel vuoto quantistico. Perche’ nessun ente, universita’ o laboratorio sta sperimentando questi sistemi per sfruttare questa energia enorme, gratuita e assolutamente rinnovabile?

Che domande che fate ancora: perche’ gli scienziati zozzoni sono tutti corrotti e asserviti al potere delle grandi multinazionali. Al solito pensano di aver capito tutto e sono chiusi alle loro equazioncine che dovrebbero spiegare la meccanica, la termodinamica e l’elettromagnetismo e non si accorgono invece che le evidenze mostrano che tutte le teorie sono sbagliate. Prima ho parlato anche di levitazione di oggetti e vi ho sottolineato il fatto che questa avvenga non solo per oggetti metallici. Ecco una foto di Hutchinson che mostra un modello di disco volante in plastica che e’ stato fatto levitare in uno dei suoi esperimenti:

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Pensate che il modellino di disco volante sia stato scelto a caso? Forse da Hutchinson si, ma questo effetto potrebbe spiegare anche come fanno a volare i dischi volanti che “ogni giorno” vediamo sfrecciare sulle nostre teste. Pensate quanto potremmo imparare sfruttando questo effetto e utilizzandolo per fare viaggi interplanetari, viaggi nel tempo, curvare lo spazio tempo, ecc.

Scienziati perditempo che non fate altro che rubare gli stipendi pagati da gruppi di potere a cui siete asserviti, vergognatevi tutti, compreso il sottoscritto.

Bene, ora torniamo seri e ragioniamo su quanto detto. Piccola parentesi, al solito sto scherzando parafrasando pero’ quello che viene normalmente, anche in questo caso, detto su moltissimi siti. Se provate a documentarvi in rete, troverete diversi articoli che parlano di questo presunto effetto attaccando la scienza ufficiale complice di non approfondire queste scoperte.

Come anticipato, il fatto che lo stesso Hutchinson dica di rifarsi agli esperimenti di Tesla non puo’ che fungere da cassa di risonanza per il complottismo verso la scienza. Di Tesla in particolare abbiamo gia’ parlato in questi articoli:

Il Raggio della Morte

Il Raggio del Dolore

Marconi, Tesla e l’evidenza aliena

Le terribili armi scalari

parlando dell’uomo, dello scienziato ma soprattutto della reale considerazione che la scienza ufficiale ha di questo scienziato di prim’ordine. Purtroppo, ancora oggi molti credono che tutte le scoperte di Tesla siano finite nel dimenticatoio per colpa del governo o di organizzazioni. Questo non e’ assolutamente vero! Pensate solo alla corrente alternata, alle bobine o alle tecnologie senza fili. Tutte scoperte partite o completamente sviluppate da Tesla e oggi sfruttate a pieno. Purtroppo, c’e’ ancora chi ignorantemente sostiene che non siamo in grado o non vogliamo utilizzare la corrente alternata.

Detto questo torniamo ad Hutchinson. Veramente sono stati osservati questi effetti? Purtroppo, anche in questo caso, siamo di fronte alla totale mancanza di prove scientifiche a sostegno. Lo stesso Hutchinson dichiara di non sapere quando e perche’ i suoi esperimenti riescono e per di piu’, non sono mai riusciti di fronte a persone esperte esterne.

Vi voglio mostrare un video a mio avviso interessante:

Notato niente di strano nell’angolo in alto a sinistra? Magari un filo che si riavvolge e tira su il modellino di ufo? Capite bene come questo video messo in rete dallo stesso Hutchinson smentisca da subito il suo esperimento di levitazione.

Ora e’ importante rimarcare un cosa: personalmente, e questo dovrebbe valere per tutti, mi reputo una persona molto aperta e consapevole, da ricercatore, che quello che sappiamo e’ sempre troppo poco rispetto a quanto c’e’ ancora da scoprire. Detto questo, qualora ci fossero effetti nuovi non comprensibili ma ripetibili indipendentemente da chi compie o osserva l’esperimento, la cosa non mi sorprenderebbe affatto. Moltissime invenzioni e scoperte sono arrivate per puro caso e stravolgendo qualcosa che si pensava ben compreso e archiviato. Alla luce di quanto osservato pero’, questo non e’ il caso dell’effetto Hutchinson. E’ vero, in rete ci sono decine di video che mostrano questi esperimenti ma molti di questi mostrano particolari quantomeno sospetti. A parte il video riportato prima, facendo una ricerca in rete potete trovare molti altri documenti sulla levitazione. In questi casi si vede una rapida accelerazione dell’oggettto che sale verso l’alto, accelerazione del tutto compatibile con una caduta libera. Cosa significa? Semplice, che il sospetto che la ripresa sia fatta capovolgendo l’immagine, dunque oggetto che cade piuttosto che salire, e’ davvero molto forte.

Altra piccola parentesi che e’ doveroso fare senza voler offendere nessuno: ma davvero pensate che gli scienziati siano cosi’ stolti? Per poter andare avanti nella conoscenza e’ necessario non smettere mai di essere curiosi e di farsi domande. Oltre a questo pero’, c’e’ tutto un panorama di leggi, effetti, spiegazioni che per anni sono state affinate fino ad arrivare a quello che sappiamo oggi. Dico questo perche’ molto spesso, non sono su questo effetto, leggo in rete persone che si lanciano in spiegazioni parlando a vanvera di questo o quest’altro effetto mostrando chiaramente da quello che scrivono quanto poco sappiano dell’argomento. Per l’effetto Hutchinson tanti parlano di interferenza di onde, principi della termodinamica, Tesla, ecc. senza conoscere minimamnete le basi su cui questi concetti su fondano. Credetemi, diffidate da questi luminari di “wikipediana” cultura che pensano che dopo aver letto due paginette abbiano la comprensione del tutto al punto da poter ridicolizzare chi queste cose le ha studiate, magari le insegna in corsi universitari e continua ancora oggi a farsi domande esistenziali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

2038: nuovo bug informatico

6 Mar

Questa volta, voglio trattare un problema prettamente informatico. Diverse volte, anzi per dirla tutta il blog stesso nasce per questo motivo, abbiamo discusso non solo della causa, ma soprattutto delle innumerevoli date profetizzate per una fine del mondo.

Come sappiamo, quella del 21 Dicembre 2012, ha avuto una risonanza mondiale. Il motivo di questo e’ ovviamente da ricercarsi nelle tantissime ipotesi profetiche fatte partendo dal calendario Maya, ma soprattutto cio’ che ha reso il 21/12 un fenomeno mondiale e’ stato senza dubbio l’apporto di internet.

Come detto in altre occasioni, la rete ci consente di scambiare informazioni in tempo reale con qualsiasi parte del mondo. Ogni qual volta scriviamo qualcosa su un sito, un forum, un blog, dobbiamo tenere sempre a mente che potenzialmente quanto scritto potrebbe essere letto all’istante anche dall’altra parte del mondo.

Prima del 21/12, l’altra data che tanto aveva fatto discutere su scenari apocalittici era ovviamente l’inizio del nuovo millennio nel 2000. Oltre alle tente ipotesi catastrofiste classiche, per il 2000 ampio spazio era stato dato al cosiddetto “millenium bug”, cioe’ al problema della gestione della data dei nostri computer.

Come forse ricorderete, il problema principale era che molti sistemi utilizzano una data espressa con solo due cifre. Per questo motivo, allo scattare del nuovo millennio, i computer sarebbero passati dalla data 99 a 00 e proprio questo valore poteva essere interpretato, invece che come 1 gennaio 2000, come 1 gennaio 1900.

Sul millenium bug si e’ parlato tantissimo. Si sono ipotizzati scenari da film di fantascienza con i nostri sistemi informatici che sarebbero impazziti mandando in tilt gran parte della nostra societa’ che, come sappiamo, e’ fortemente legata a questo tipo di controlli.

Come forse sapete ancora meglio, il millenium bug e’ stato un po’ come un 21/12 in piccolo. Se ne e’ parlato tanto, ma niente di particolarmente problematico e’ poi realmente accaduto.

Bene, ora ci risiamo. Per il 2038 e’ atteso un nuovo importante bug per i nostri pc, sempre legato alla gestione della data.

Cerchiamo di andare con ordine.

Molti dei sistemi di controllo informatico, utilizzano sistemi operativi basati su Unix e Linux. In questi sistemi operativi, per la gestione della data, viene usato il cosiddetto sistema POSIX, cioe’ il tempo viene contato come il numero di secondi trascorsi dallo Unix Epoch Time, il 1 Gennaio 1970.

Cosa significa questo?

Semplice, avete un punto di inizio fissato al 1 gennaio del 1970. Tutte le date, a livello di architettura interna si intende, vengono calcolate come il numero di secondi trascorsi da questo punto di partenza.

Sembra un po’ macchinoso, ma fino a questo punto non sembrano esserci problemi.

Quello che pero’ accade e’ che la gestione di questo tempo trascorso, viene gestita da un controllo a 32 bit utilizzato per dare il valore al dato detto time.h, un semplice contatore del numero di secondi trascorsi.

Se ci pensate, non e’ niente di complicato. Contiamo le date a partire dal 1 gennaio 1970, attraverso il numero di secondi trascorsi da questo giorno iniziale. Bene, questo numero di secondi, che ovviamente e’ un numero intero, viene gestito da una variabile a 32 bit.

Ora, il fatto di avere 32 bit, implica necessariamente che ad un certo punto ci saranno problemi di overflow, cioe’ la vostra variabile non sara’ piu’ in grado di aggiornarsi. Per dirla tutta, dal momento che la variabile e’ dotata di un segno, al termine dei valori concessi time.h assumera’ valori negativi.

Quando avverra’ questo overflow della data? Esattamente martedi 19 gennaio 2038 alle 3.14 e 07 secondi UTC. Dopo questo istante, i valori negativi del contatore dei secondi riporteranno la data al 13 Dicembre 1901.

Cosa implica questo? Siamo di nuovo di fronte ad un problema del tutto simile a quello del 2000. Anche in questo caso, in un preciso momento, i nostri sistemi informatici potrebbero entrare in confusione non riuscendo piu’ a distinguere tra le diverse date. Il problema del time.h non e’ in realta’ solo dei sistemi operativi basati su UNIX. Anche molti altri sistemi operativi utilizzano una struttura di questo tipo, cosi’ come moltissimi software che richiedono l’informazione della data per poter funzionare. Detto questo, nel 2038, tutti questi sistemi potrebbero dunque smettere di funzionare di colpo.

E’ possibile scongiurarare l’eventuale pericolo?

In linea di principio assolutamente si. Prima di tutto, ad oggi, abbiamo circa 25 anni di tempo per risolvere questo problema. Anche se, al ritmo attuale, c’e’ un rinnovamento delle tecnologie informatiche ogni 18 mesi circa, questo problema, noto gia’ da tempo, non e’ ancora stato risolto.

Molti dei nuovi sistemi a 64 bit, utilizzano gia’ un time.h in questo formato. In questo caso, ci sarebbe comunque il problema del numero non infinito di secondi che possiamo contare ma, partendo sempre dal 1 gennaio 1970, il sistema potrebbe funzionare senza problemi per molto piu’ tempo, sicuramente un tempo maggiore di quello di esistenza anche del pc stesso e del sistema che questo controlla.

Sul mercato pero’ esistono ancora tantissimi sistemi a 32 bit, alcuni anche strategi per specifici controlli. Evitando gli scenari apocalittici che gia’ si sentono in rete parlando di questo bug, con 25 anni di tempo per pensarci, non mi preoccuperei assolutamente del time.h e del cosiddetto Y2038 bug.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La materia oscura

19 Dic

Abbiamo iniziato a parlare di questa “materia oscura”, commentando un articolo catastrofista, e permettemi di dire alquanto bizzarro, apparso oggi su alcuni quotidiani:

Venerdi finisce il mondo!

Come visto, secondo queste fonti, un ammasso di materia oscura, sotto forma di corpo esteso e massivo, sarebbe in rotta di collisione con la Terra per il 21/12.

Nell’articolo citato, abbiamo gia’ discusso delle assurdita’ scientifiche prospettate come ipotesi di partenza, ma per offrire un quadro piu’ chiaro, dobbiamo necessariamente parlare di materia oscura.

Ovviamente, come capite bene, questo articolo e’ solo un corollario a quello citato, ma ho deciso di metterlo come post isolato, vista l’importanza della divulgazione di argomenti come questi.

Prima di iniziare, vorrei fare una premessa importate. Come piu’ volte dichiarato, in questo blog vogliamo fare divulgazione scientifica approfittando delle profezie del 2012. Per questa ragione, cerchiamo di fare una divulgazione semplice e che lasci intendere i concetti fondamentali. Questo punto e’ importante, perche’ vogliamo dare risposte accessibili a tutti. Non sono qui per fare una lezione universitaria, ne tantomeno per fare un esercizio di stile scientifico. Cerchero’ di essere molto chiaro, esplorando solo i concetti fondamentali. Mi scuso da subito con quanti di voi hanno gia’ conoscenza dell’argomento e potrebbero considerare questo post troppo semplice.

Cominciamo dalle cose ovvie.

In questo post:

Piccolo approfondimento sulla materia strana

abbiamo gia’ parlato di modello standard. In particolare, abbiamo visto come le particelle fondamentali, cioe’ non formate da pezzetti piu’ piccoli, siano in realta’ poche e descrivibili attraverso delle famiglie. Mescolando insieme queste particelle, che altro non sono i componenti di quello che chiamiamo “modello standard”, possiamo capire la materia che ci circonda e le interazioni, cioe’ le forze, che questa subisce.

Fin qui tutto chiaro.

Ora, cosa c’entra la materia oscura?

Prima di tutto un po’ di storia. Nel 1933 l’astronomo Zwicky fece il seguente esercizio. Studiando l’ammasso della Chioma, sommo’ tutte le masse galattiche, cioe’ le masse di tutti gli oggetti che componevano l’ammasso, e ottenne in questo modo la massa totale della Chioma. Fin qui, niente di speciale. Ora pero’, e’ possibile ricavare la massa anche in modo indiretto, cioe’ misurando la dispersione delle velocita’ delle galassie che costituivano l’ammasso. In questo secondo modo, ottenne un’altra misura della massa totale, questa volta in modo indiretto. Il problema fu che la seconda stima era maggiore della prima di circa 400 volte. Detto in parole povere, la somma non faceva il totale.

Questa discrepanza venne poi studiata in dettaglio solo negli anni ’70, quando si capi’ che questa differenza non era dovuta ad errori di calcolo, bensi’ era un qualcosa ancora non capito dalla scienza.

Proprio in questo contesto, si comincio’ a parlare di materia oscura, cioe’ materia non visibile dagli strumenti ma dotata di massa, che era in grado di risolvere le discrepanze trovate.

A questo punto, ognuno di noi potrebbe pensare che si sta cercando solo di farsi tornare i conti. In realta’ non e’ cosi’. La materia oscura e’ importante anche per capire e spiegare molte leggi di natura estremamente importanti del nostro universo. Piu’ che un artificio di calcolo e’ qualcosa in grado spiegare il funzionamento stesso di quello che osserviamo.

Cerchiamo di capire meglio con qualche altro esempio.

Una delle evidenze principali della materia oscura e’ nell’osservazione e nella parametrizzazione delle galassie a spirale. Cos’e’ una galassia a spirale? Sono galassie formate da una parte interna, detta bulbo, e d alcune braccia che si avvolgono intorno a questa parte centrale.

Esempio di galassia spirale

Esempio di galassia spirale

Ora, immaginiamo di voler misurare la velocita’ delle stelle che compongono la galassia. In linea di principio, per la terza legge di Keplero, piu’ ci allontaniamo dal centro, minore dovrebbe essere la velocita’ delle stelle. Se immaginate di fare un grafico in cui riportate la velocita’ in funzione della distanza dal centro, cosa vi aspettereste? Se la velocita’ delle stelle periferiche e’ piu’ bassa, dovremmo avere un grafico che decresce all’aumentare della distanza.

Velocita' di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

Velocita’ di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

In realta’ osservate che la velocita’ delle stelle lontane e’ paragonabile a quelle interne, cioe’ il grafico e’ “piatto”. Perche’ avviene questo? Semplicemente perche’ non possiamo stimare la massa della galassia semplicemente sommando le singole stelle, ma dobbiamo mettere dentro anche la materia oscura. Rifacendo il calcolo considerando la materia oscura ottenete il grafico sperimentale visto in figura. Ma e’ veramente necessaria questa massa aggiuntiva? In realta’ si. Se la massa fosse solo quella delle stelle visibili, le stelle piu’ lontane, e che dunque ruotano piu’ velocemente di quello che ci aspettiamo, sarebbero espulse dalla galassia. Dal momento che vediamo con i nostri occhi che le stelle sono sempre li senza essere espulse, significa che la materia oscura ci deve essere.

Se siete riusciti ad arrivare fino a questo punto, ormai siamo in discesa.

Restano due domande fondamentali a cui rispondere. Quanta materia oscura c’e’ nell’universo? Ma soprattutto, cos’e’ questa materia oscura?

Il “quanta ce n’e'” potrebbe sorprendervi. Dalle stime fatte nel nostro universo, si trova che circa l’85% totale della massa e’ composta da materia oscura. Detto in altri termini abbiamo circa 6 volte piu’ materia oscura che materia barionica. Questa cosa puo’ sorprendere molto. Pensateci bene, parlando di modello standard, abbiamo visto la materia barionica, cioe’ quella che forma la materia che vediamo. Bene, l’85% della massa che compone l’universo e’ fatta di qualcosa di diverso rispetto alla materia che conosciamo.

A questo punto, cerchiamo di capire cos’e’ la materia oscura.

In realta’, non posso darvi una risposta certa e definitiva, perche’ in questo caso stiamo esplorando campi ancora aperti della scienza moderna. Esistono ovviamente diverse ipotesi riguardo alla composizione della materia oscura, ma non una certezza sperimentale.

Ragioniamo un secondo. Da quanto detto, la materia oscura ha una massa, produce effetti gravitazionali, come nel caso delle galassie a spirale viste, ma non e’ visibile ad occhio nudo. Fino ad oggi, sappiamo della sua esistenza solo attraverso misure indirette, cioe’ attraverso gli effetti che produce.

Quali sono le ipotesi per la materia oscura?

L’ipotesi principale ‘e che la maggior parte della materia oscura sia composta da materia non barionica molto massiva. Ci si riferisce a questa categoria come WIMP, cioe’ “particelle massive debolmente interagenti”. Cosa significa debolmente interagenti? Semplicemente che questo genere di materia non reagisce facilmente con la materia barionica. Nonostante questo, le WIMP avrebbero una massa molto elevata e dunque una forte interazione gravitazionale.Il fatto che sia poco interagente, rende la sua osservazione molto difficile, dal momento che non emette a nessuna lunghezza d’onda e dunque non e’ visibile neanche fuori dal visibile.

Spesso sentite parlare di WIMP anche come neutralini, neutrini massivi, assioni, ecc. Questi sono solo i nomi di alcune particelle predette nella categoria delle WIMP e su cui si sta incentrando la ricerca. Sotto questo aspetto, si cerca appunto di identificare la materia oscura in diversi modi. I principali sono cercando di produrla negli acceleratori di particelle, oppure cercando di rivelare i prodotti, barionici questa volta, dunque visibili, prodotti nell’interazione tra particelle di materia oscura.

Spero di essere stato abbastanza chiaro nella trattazione, ma soprattutto spero che questi pochi concetti permettano di capire meglio l’articolo che stiamo discutendo sulla presunta scoperta di un pianeta di materia oscura in rotta di collisione con noi.

La divulgazione della scienza passa anche attraverso argomenti come questo. Partire dalle profezie del 2012, ci consente di divulgare la vera scienza e di mostrare argomenti attuali e ancora in corso di investigazione scientifica. Per leggere un libro divulgativo semplice e adatto a tutti, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

Venerdi finisce il mondo!

19 Dic

Che dire? Il titolo promette molto bene. In realta’, il titolo cosi’ sensazionalistico non e’ farina del mio sacco, ma quello che un nostro lettore ci ha segnalato e che potevate leggere oggi sul giornale “Notizia Oggi Vercelli”. Trovate la segnalazione nei commenti di questo post:

Scontro Terra-Nibiru a Luglio?

e potete leggere la notizia di cui vi voglio parlare seguendo questo link:

Notizia oggi Vercelli

Ora, dal momento che la visione di questo articolo ha scatenato non pochi sospetti ed ansie, credo sia giusto prendere sul serio la cosa ed analizzare i diversi punti portati come tesi in questo articolo.

Iniziamo proprio la nostra analisi dalla prima riga. “Federico Caldera, consulente scientifico della NASA, bla bla”. Chi e’ Federico Caldera? Assolutamente non lo so! Come potete verificare da soli, non si trova nessun riferimento su web a questo tizio, ne’ tantomeno alla sua professione di consulente scientifico. Anche cercando direttamente sul sito NASA e guardando tra i dipendenti, consulenti, ecc, non vi e’ nessuna traccia di Federico Caldera.

Il telescopio spaziale WISE

Il telescopio spaziale WISE

Gia’ questo ci insospettisce moltissimo. La notizia, che avrebbe come fonte la NASA, viene data da uno che non esiste o che non e’ un consulente NASA.

Nonostante questo, andiamo avanti nelle lettura dell’articolo e vediamo cosa dice.

“Nel lugio 2011, il telescopio della NASA WISE avrebbe rivelato uno sciame di anomalie gravitazionali in rotta di collisione con la Terra”.

Attenzione, WISE e’ veramente un telescopio della NASA che opera nella regione dell’infrarosso, e di cui abbiamo parlato in questi post:

Scontro Terra-Nibiru a Luglio?

Finalmente le foto di Nibiru!

Peccato che WISE sia stata lanciato in orbita nel novembre 2009 e la missione sia durata 10 mesi in tutto. Questo significa che nel 2011, la missione era gia’ conclusa e dunque WISE era spento e senza energia elettrica. Dopo questa, abbiamo gia’ capito che si tratta di una bufala colossale, ma voglio lo stesso andare avanti per mostrare tutto il ragionamento, ma soprattutto perche’ una notizia del genere ci consente di parlare di argomenti scientifici reali, non ancora trattati.

Premesso che WISE era spento nel 2011, leggiamo che si sarebbero osservate una scia di anomalie gravitazionali. Cosa sarebbe una scia di anomalie gravitazionali? Come visto in questi articoli:

Storia astronomica di Nibiru

Nibiru: la prova del trattore gravitazionale

parliamo di anomalie gravitazionali per descrivere l’influenza di un corpo estraneo in un sistema stabile sotto l’effetto dell’attrazione gravitazionale. Mi spiego meglio. Prendiamo come esempio il Sistema Solare. I pianeti orbitano su traiettorie precise dettate dall’interazione gravitazionale con il Sole, principale, ma anche modificate dalla presenza degli altri pianeti. Se ora inserite un corpo nuovo nel Sistema, la massa di questo modifichera’ l’equilibrio gravitazionale, scombussolando la situazione preesistente. Queste sono le anomalie grvitazionali. Capite bene parlare di una scia di anomalie, non significa assolutamente nulla dal punto di vista scientifico. Inoltre, le anomalie, per definizione, non collidono con i pianeti, se proprio vogliamo, e’ il corpo che le provoca ad urtare qualcos’altro.

Proseguendo nella lettura, troviamo la solita trama complottista che vede come protagonista un file segretissimo e di cui si e’ venuti a conoscenza per un motivo che non si puo’ dire, la NASA che lo sa gia’ da tanti mesi, ecc. Ma attenzione perche’ poi arriviamo al piatto forte dell’articolo: “i corpi in rotta di collisione con la Terra sarebbero aggregati di materia oscura”!

Qui, si rasenta veramente la follia anche dal punto di vista fantascientifico.

Parallelamente a questo articolo, ho pubblicato anche quest’altro post:

La materia oscura

in cui ho cercato di spiegare in modo molto semplice cos’e’ la materia oscura e quali sono i punti su cui si sta concentrando la ricerca. Se non lo avete fatto, vi consiglio di leggere questo articolo a questo punto, prima di andare avanti nella lettura.

Cosa sappiamo sulla materia oscura? Sappiamo che, nell’ipotesi piu’ accreditata dalla scienza, esiste perche’ ne vediamo gli effetti. Al momento, non sappiamo di cosa si tratta, abbiamo varie ipotesi ma non una risposta definitiva. Bene, come potrebbe un qualcosa che non conosciamo formare una “palla” di materia oscura?

Capite bene che questo articolo, ripeto comparso su un giornale online, e’ stato scritto o per prendere in giro le profezie del 21/12, o da uno completamente ignorante in astronomia. Come visto nel post riportato, per la materia oscura parliamo di materia molto debolmente interagente. E’ assurdo pensare che particelle di questo tipo possano formare un sistema aggregato che si muove nell’universo.

Perche’ si parla di materia oscura? Semplice, perche’ in questo modo si concentra l’attenzione su un argomento ancora dibattuto dalla scienza e su cui la risposta defiitiva ancora manca. In questo modo si ottengono due risultati importanti. In primis, si alimenta il sospetto sulla scienza e sul complottismo sempre presente che vedrebbe scienza e governi andare a braccetto per salvare una piccola casta di eletti, ma, soprattutto, parlare di materia oscura alimenta il terrore nelle persone che sentono parlare di qualcosa completamente misterioso e di cui si sa veramente poco. Al solito, la non conoscenza di taluni argomenti genera mostri nella testa della gente.

Spero che il breve articolo sulla materia oscura, possa essere utile per dare a tutti un’infarinata su questi concetti e per evitare di cadere in tranelli, come questo articolo, del tutto campati in aria dal punto di vista scientifico.

Solo per completezza, la cosa peggiore dell’articolo e’ scrivere dove dovrebbero impattare questi corpi di materia oscura. Ma ci rendiamo conto di cosa significa? Anche se fosse, sarebbe impossibile calcolare le traiettorie in modo cosi’ preciso. Nell’articolo manca solo l’indirizzo esatto con via e numero civico dove impatteranno. Piu’ volte abbiamo parlato di traiettorie, trattando, ad esempio, di asteroidi:

2012 DA14: c.v.d.

E alla fine Nibiru e’ un asteroide

La cosa piu’ importante che abbiamo capito, e che ora siamo in grado di riconoscere, e’ l’impossibilita’ di fare un calcolo esattamente preciso dell’orbita completa di un corpo. Ogni interazione con un altro corpo, determina una variazione della  traiettoria, e questo rende senza dubbio impossibile calcolare con la precisione profetizzata nell’articolo gli eventuali punti di impatto con la Terra.

Come anticipato qualche giorno fa, pian piano che le idee catastrofiste sul 21/12 cedono il passo al ragionamento scientifico, dobbiamo aspettarci ancora qualche teoria assolutamente campata in aria e messa su internet solo per alimentare il sospetto e, nella peggiore delle ipotesi, la paura delle persone. Prima di credere a qualsiasi teoria, ragionate sempre con la vostra testa. Per un’analisi scientifica e seria di tutte le profezie del 2012, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

Tromba d’aria a Taranto

29 Nov

Questa mattina, intorno alle 10.30, si e’ verificata una violenta tromba d’aria a Taranto. Attualmente c’e’ un disperso e numerosi feriti. Il fenomeno ha causato ingenti danni strutturali, soprattutto alle acciaierie dell’Ilva.

In passato, abbiamo gia’ parlato di tornado in questo post:

– Tornado di Fuoco in Australia

In queste ultime ore, ho ricevuto diversi messaggi da parte di utenti, che mi chiedevano il mio punto di vista sulla cosa. Come potete facilmente immaginare, questo fenomeno e’ stato subito messo in relazione con gli eventi del 21 Dicembre e molte fonti web vedrebbero nella tromba d’aria un chiaro segnale premonitore della prossima fine del mondo.

Ora, alla luce dei dispersi e, secondo alcune fonti, anche delle vittime da accertare, lungi da me ridurre il discorso ad un semplicistico ragionamento scientifico. Quello che pero’ vorrei discutere e’ il perche’ si formano le trombe d’aria e se effettivamente questo fenomeno ha un significato di eccezionalita’.

Prima di tutto, come si forma una tromba d’aria?

L’insorgere di questo genere di fenomeni e’ strettamente legato alle condizioni atmosferiche. Quando si e’ in presenza di correnti d’aria calda negli strati inferiori e di correnti d’aria fredda negli strati piu’ alti, possono innescarsi fenomeni turbolenti. A causa della differenza di peso, l’aria calda degli strati sottostanti tende a salire verso l’alto, mentre quella fredda e’ spinta verso il basso. Se le condizioni delle correnti lo consentono, questo movimento di masse d’aria puo’ provocare un cilindro d’aria rotante intorno ad un asse perpendicolare al terreno.

Processo di formazione di una tromba d’aria

A questo punto, la continua spinta delle correnti d’aria calda verso l’alto, puo’ allungare il cilindro d’aria verso l’alto creando appunto la tromba d’aria.

Le condizioni atmosferiche migliori per la formazione di una tromba d’aria si hanno in concomitanza con un forte temporale. In questo caso, la presenza di cumulonembi puo’ offrire le condizioni di temperatura e pressione migliori per la creazione del turbine iniziale.

Il diametro alla base di una tromba d’aria puo’ variare tra le decine di metri fino anche a 500 metri, con altezze che vanno dai 100 metri fino anche ad 1 Km. Queste formazioni ventose, una volta create, possono resistere per tempi anche lunghi, percorrendo tragitti dell’ordine anche di qualche kilometro.

A differenza di quanto si potrebbe pensare, le trombe d’aria sono un fenomeno possibile nella zona mediterranea, anche se con probabilita’ di formazione diversa in base alla regione considerata. Per completezza, vi riporto anche una mappa del NOAA con l’indicazione delle aree mondiali di maggior incidenza di trombe d’aria:

Zone del mondo con maggior incidenza di trombe d’aria

Come vedete, l’Italia non e’ assolutamente immune a questo genere di fenomeni.

Cosi’ come avviene per i terremoti, anche le trombe d’aria vengono classificate in una scala specifica in base al loro potere distruttivo. Questa classificazione prende il nome di scala Fujita e presenta 6 livelli distinti da F0, il meno distruttivo, fino a F5, considerato catastrofico. Da quanto detto, capite bene come la classificazione di questo fenomeni richieda l’analisi di diversi fattori, quali la durata della tromba d’aria, la velocita’ dei venti, il diametro alla base, ecc. A titolo di esempio, una tromba d’aria di classe F0, per intenderci in grado solo di spezzare i rami degli alberi, presenta venti fino ad un centinaio di Km/h.

Per quanto riguarda la probabilita’ di formazione, la maggior parte delle trombe d’aria ricade nel grado F0. Solo il 5% dei fenomeni supera il grado F3 e di queste solo lo 0.1% ha il grado F5 di distruzione massima.

Come sappiamo bene, il maggior numero e la maggior intensita’ di questi fenomeni avvengono, ad esempio, negli Stati Uniti. In questo caso, a differenza dell’Italia, la maggior intensita’ e’ proprio dovuta alla geomorfologia del terreno che offre le condizioni ottimali per la formazione e la propagazione dei vortici.

Fatta questa doverosa premessa, torniamo al caso di Taranto.

Alla luce di quanto detto, capiamo subito che la formazione di una tromba d’aria in queste regioni, non ha assolutamente carattere di eccezionalita’. A questo punto pero’, si potrebbe obiettare dicendo che l’intensita’ del fenomeno e’ stata molto superiore rispetto a quelle a cui siamo abituati.

Cosa possiamo dire a riguardo?

La tromba d’aria di Taranto e’ stata classificata come F2 nella scala Fujita. Ripensiamo a quanto detto riguardo alla formazione delle trombe d’aria. Ruolo fondamentale in questi processi e’ la presenza di aria calda negli strati bassi e di correnti di aria fredda negli strati piu’ alti. Se ci pensiamo bene, nei giorni scorsi, le temperature in Italia sono state decisamente sopra la media. Proprio in queste ultime ore invece, stiamo assistendo all’arrivo di correnti d’aria da nord molto piu’ fredde e che stanno causando una diminuzione delle temperature in tutta la penisola. Detto questo, capite bene che le condizioni di temperatura richiesta per la formazione di una tromba d’aria erano sicuramente presenti.

Riguardo invece all’intensita’ del fenomeno, possiamo consultare gli archivi storici per cercare di capire quali sono le intensita’ che si sono verificate nel passato in Italia.

Nel 1957 nella zona dell’Oltrepo’ Pavese si e’ verificata una tromba d’aria stimata di grado F4. Nel 1970, a Venezia, si e’ verificato un altro fenomeno, sempre di intensita’ F4, che causo’ diverse vittime. Esistono poi moltissimi altri esempi documentati in Italia di trombe d’aria di intensita’ F2 ed F3, cioe’ uguali o superiori a quello di Taranto. Senza ombra di dubbio poi, il tornado piu’ violento registrato in Italia fu quello che si scateno’ nel 1930 in provincia di Treviso, stimato di grado F5, il massimo della scala Fujita, con venti fino a 500 Km/h. Ovviamente in questo caso si tratto’ di un fenomeno del tutto eccezionale per il nostro paese.

Come vedete, i nostri archivi storici sono ricchi di fenomeni di questo tipo, anche di intensita’ superiori a quelle di Taranto, avvenuti in diverse zone della penisola.

Concludendo, da quanto visto in questo articolo, le condizioni meteo presenti in questi giorni offrivano sicuramente le caratteristiche adatte per la formazione di trombe d’aria. La nostra penisola e’ soggetta a fenomeni di questo tipo e, come visto consultando gli archivi storici, ci sono moltissime testimonianze e documenti che mostrano fenomeni anche piu’ violenti avvenuti negli anni passati. Grazie a queste considerazioni, possiamo smentire l’eccezionalita’ del fenomeno di Taranto e ovviamente ogni possibile connessione con la fine del mondo e con il 21 Dicembre.

Per analizzare i fenomeni attesi per la fine del lungo computo Maya, ma soprattutto per parlare in modo semplice ed accessibile a tutti di scienza, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.