Tag Archives: andamento

L’esperimento di Ferlini e la barriera magnetica

4 Mag

Solo qualche giorno fa abbiamo pubblicato un articolo specifico sul cosiddetto “effetto Hutchinson”:

Effetto Hutchinson: realta’ o bufala?

Come visto, i fenomeni descritti in questa esperienza, che spaziano dalla levitazione alla fusione di oggetti con rilascio di energia, sarebbero provocati dalla sovrapposizione di onde elettromagnetiche in zone precise dello spazio. Nel descrivere queste esperienze, abbiamo mostrato un notevole scetticismo dettato dalla particolarita’ dei fenomeni descritti ma, soprattutto, dal fatto che l’autore stesso di questi esperimenti abbia piu’ volte dichiarato di non essere piu’ in grado di ripetere tali effetti. Ci tengo a sottolineare che la mia posizione di scettico non e’ affatto per partito preso. Come sapete, e come detto molte volte, tutti dobbiamo essere aperti a fenomeni sconosciuti e anche apparentemente assurdi purche’, come la scienza insegna, questi possano essere ripetuti da chiunque, in qualsiasi parte sotto le condizioni descritte. Solo se questo avviene possiamo considerare il metodo scientifico soddisfatto e vedere a tali nuovi fenomeni con gli occhi della scienza.

Riprendo quanto detto in questo articolo, perche’ ora vorrei raccontarvi un altro presunto esperimento che solo qualche giorno fa e’ stato richiamato da alcuni siti complottisti, sempre con il solito scopo di denigrare la scienza ufficiale e tacciarla di non voler approfondire cio’ che e’ fuori dai suoi dettami. Parlaimo questa volta del cosiddetto esperimento di Ferlini sulla barriera magnetica.

Chi e’ costui? In cosa consiste l’esperimento?

Se provate ad informarvi in rete, troverete solo una moltitudine di articoli che riprendono pari pari quanto descritto da Ferlini in un libro da lui stesso pubblicato e intitolato appunto “La barriera Magnetica”. In questo libro Ferlini descrive una serie di esperimenti che avrebbe condotto, dapprima in solitudine e poi con un gruppo di collaboratori, studiando i campi magnetici.

Prima di raccontarvi gli esperimenti, e’ importante, come vedremo dopo, dire che Ferlini inizio’ la sua carriera studiando l’antico Egitto e la costruzione delle Piramidi. In particolare, cio’ che interessava Ferlini era la possibilita’ che strani fenomeni fisici potessero accadere dentro o in prossimita’ delle piramidi a causa di soluzioni appositamente inserite durante la costruzione di questi imponenti monumenti.

Premesso questo, Ferlini racconta che un giorno giocherellando con due calamite si accorse che avvicinando i poli opposti, poco prima che questi entrassero in contatto, la zona di spazio appariva leggermente offuscata come se qualcosa di particolare accadesse al volume d’aria tra i poli stessi. Incuriosito da questo fenomeno che non riusciva a spiegare, Ferlini decise di costruire un esperimento piu’ in grande in modo da accentuare l’effetto. L’esperienza da lui realizzata, e sempre raccontata nel suo libro, prevedeva la disposizione di 4 grandi magneti di diverse tonnellate disposti con i poli opposti vicini. Ecco uno schema dell’apparato:

Disposizione dei 4 magneti nell'esperimento di Ferlini

Disposizione dei 4 magneti nell’esperimento di Ferlini

Come vedete ci sono 4 magneti a ferro di cavallo disposti con i poli Nord-Sud alternati tra loro. Dalle prime osservazioni con i piccoli magneti, Ferlini racconta di aver osservato questa deformazione dello spazio solo poco prima che i poli entrassero in contatto a causa dell’attrazione magnetica. Per poter osservare questo effetto nell’esperimento piu’ grande, Ferlini monto’ le calamite su appositi sostegni che permettevano un movimento a passi molto sottili. In questo modo era possibile avvicinare molto lentamente i poli grazie a dei fermi studiati per opporsi all’attrazione.

Bene, cosa accadde con questo esperimento?

Leggendo sempre dal libro di Ferlini, quando i magneti arrivarono nel punto preciso in cui si innescava il fenomeno, accadde qualcosa di incredibile. Nella stanza si diffuse una nebbiolina azzurra con un odore acre. Da queste proprieta’ organolettiche, i presenti capirono che si trattava di ozono. Ma non accade solo questo, la zona di spazio compresa tra i magneti, che questa volta al contrario del primo caso era molto estesa, venne deformata da questo effetto sconosciuto mai osservato prima. Ferlini, che indossava una maschera antigas per non respirare l’ozono, incuriosito da questo fenomeno, si avvicino’ al contrario dei suoi collaboratori che rimasero a distanza di sicurezza. Quando si trovo’ in prossimita’ del punto, i collaboratori videro Ferlini scomparire dalla stanza. La nebbiolina presente inizio’ lentamente a diradarsi assumendo diversi colori e solo dopo che scomparve le persone presenti videro Ferlini riapparire sprovvisto della maschera che portava prima di avvicinarsi.

Dove era finito Ferlini?

Come raccontato nel suo libro, Ferlini si ritrovo’ in Egitto, ma non nel momento dell’esperimento bensi’ al tempo in cui le piramidi erano in costruzione. Vide gli schiavi che alzavano i grandi blocchi e le piramidi cosi’ come erano quando vennero realizzate. Perche’ proprio in quel preciso punto ed in quell’epoca? Ferlini penso’ che questo strano effetto, da subito ribattezzato “barriera magnetica”, fosse un portale creato dalla forza magnetica in grado di interagire con le onde cerebrali. Come anticipato, la carriera di Ferlini inizio’ con lo studio delle piramidi e quindi la barriera magnetica era in grado di interagire con gli impulsi creati dal cervello umano realizzando viaggi nel tempo in zone ed epoche dove il soggetto voleva, anche solo inconsciamente, viaggiare.

Bene, questo e’ l’esperimento di Ferlini e questa sarebbe la barriera magnetica che lui descrive nel suo libro.

Ora posso dire la mia? Premetto, come anticipato all’inizio dell’articolo, che non voglio essere scettico di principio ma analizzando quanto viene raccontato capite bene come una verifica di queste affermazioni sarebbe, ed e’, facilmente attuabille ma, soprattutto, facilmente smentibile. Ovviamente, sui soliti siti complottisti trovate scritto che mai nessuno ha mai voluto realizzare l’esperimento di Ferlini o anche che in realta’ e’ utilizzato normalmente in alcuni grandi centri di ricerca anche se alle persone comuni non ne viene data notizia.

Prima di tutto, vi ricordo che non stiamo parlando di esperimenti impossibili da realizzare ne che richiedono strumentazione particolare. Come detto, nella prima esperienza, Ferlini si sarebbe accorto di questo fenomeno semplicmente osservando due calamite che si attraevano. Avete mai visto due calamite? Ci avete mai giocherellato? Avete mai notato una distorsione dello spazio prima che queste si attacchino a causa della forza di attrazione? Ovviamente credo che la risposta a queste domande sia quanto meno scontata.

Vi faccio notare anche un altro particolare. Prendiamo un sito qualsiasi:

Sito vendita magneti

15 euro al pezzo, ne servono 4, quattro viti senza fine per realizzare un movimento a piccoli passi, qualche bullone di supporto, con meno di 100 euro avete realizzato l’esperimento di Ferlini. Non avrete magneti da tonnellate per poter fare un viaggio nel tempo, ma sicuramente dovreste essere in grado di osservare una bella distorsione dello spazio e, se siete fortunati, anche una bella nebbiolina di ozono nella stanza. Cercando informazioni sulla rete, ho trovato diversi forum in cui gruppi di persone, anche se sconsigliate da altre, si sono dichiarate pronte a mettere in piedi l’esperimento per dimostrarne la corretteza. La cosa simpatica e’ che dopo una lunga discussione “lo faccio”, “non lo fare perdi tempo”, “no lo faccio, chi mi aiuta?”, ecc., nessuno, e dico nessuno, ha il coraggio di tornare e dire che il suo esperimento e’ stato un flop. Nonostante questo, di tanto in tanto, qualche simpatico sito ritira fuori questa storia come se fosse una novita’ assoluta. Che ci volete fare, in tempo di magra di catastrofi e complotti, ogni cosa e’ buona per cercare di accaparrarsi qualche visita sul sito.

Giusto per concludere, e per togliere ogni dubbio, il magnetismo e’ noto da tantissimo tempo. Gia’ ai tempi del greco Talete, che descrive il fenomeno, era noto che un materiale, la magnetite, era in grado di attirare limatura di ferro. Oggi, possiamo disporre di campi magnetici molto elevati per applicazioni di ricerca. Per farvi qualche esempio, il campo magnetico all’interno dell’esperimento ATLAS del CERN, si proprio quello della scoperta dell’Higgs insieme a CMS, e che viene utilizzato per curvare le particelle cariche, ha un’intensita’ di 2 Tesla, cioe’ circa 100000 volte il campo magnetico terrestre. Pensate sia tanto? Ci sono laboratori al mondo che si occupano proprio di studiare i campi magnetici cercando, per ricerca e applicazioni, di trovare materiali nuovi da poter essere utilizzati per creare campi magnetici sempre piu’ intensi. Un esempio? Nel “High Field Magnet Laboratory” in Olanda, si e’ raggiunto il valore di 38 Tesla con un sistema “economico” da soli 1.5 milioni di dollari. Questo pero’ non e’ ancora il record assoluto, anche se il laboratorio detiene il record come rapporto intensita’/prezzo, dal momento che il guiness dei primati per il campo magnetico piu’ intenso e’ del Magnet Lab della California:

Magnet Lab

dove si e’ raggiunto il valore di 45 Tesla con un sistema molto complesso da ben 15 milioni di dollari.

Ora, ragioniamo insieme, secondo voi se esistesse questo effetto “barriera magnetica” dovuto all’attrazione dei poli, nessun altro se ne sarebbe accorto, magari con un sistema in grado di generare un campo ben piu’ intenso rispetto a quello di una semplice calamita a ferro di cavallo?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

La sequenza sismica del Matese

22 Gen

Dopo il primo articolo comparso qualche settimana fa:

Cos’e’ successo in Sardegna?

la nostra cara amica Patrizia ha deciso di concederci il bis, con un nuovo post sulla sismologia della nostra penisola. Questa volta ci spostiamo nel matese per capire cosa sta succedendo nella zona, se veramente e’ in corso uno sciame sismico come qualcuno sostiene e, soprattutto, per far capire alle popolazioni del posto come comportarsi. Chi meglio di una geologa puo’ raccontarci queste notizie?

Da Patrizia: La sequenza del Matese

 

Il 29 dicembre 2013, alle 18.08, si è verificato un terremoto di magnitudo 4.9 nella zona del Matese, in Campania, tra le province di Caserta e Benevento (figura 1), con  una profondità ipocentrale di 10,5 km. Pochi minuti prima la RSN (Rete Sismica Nazionale) ha registrato nella stessa area un evento di magnitudo 2.7.  Numerose sono state le scosse di assestamento successive, con magnitudo inferiore.

Oggi, 20 gennaio 2014, alle 08.12 , nella zona in esame si è avuto un nuovo evento importante di magnitudo 4.2, ad una profondità di 11,1 km.

A sinistra: Fig.1, Epicentro del terremoto del 29/12/13. A destra: Fig.2, Sequenza sismica del Matese.

A sinistra: Fig.1, Epicentro del terremoto del 29/12/13. A destra: Fig.2, Sequenza sismica del Matese.

 

Nel Matese è dunque palesemente in atto una sequenza sismica (figura 2).

Ormai siamo abituati a sentir parlare di sequenza sismica e spesso ci chiediamo se c’è un collegamento tra le diverse sequenze in atto sul territorio nazionale. Per sapere se c’è davvero un nesso geologico tra i terremoti registrati in Italia dalla RSN dobbiamo capire la geodinamica dell’area italiana. Quando parliamo di geodinamica prendiamo in considerazione  il movimento delle placche tettoniche. Il territorio italiano si trova nella zona di incontro/scontro tra la placca euroasiatica e la placca africana. In particolare, nell’Italia meridionale, l’interazione tra le due placche è accompagnata da un processo di subduzione testimoniato proprio dall’attività sismica intermedia e profonda. Detto in altri termini, la placca africana si infila sotto quella euroasiatica, dando luogo ai terremoti che si registrano lungo l’Appennino centro-meridionale.

fig3

Alla base delle sequenze sismiche degli ultimi tempi (Pollino, Gubbio, Matese) c’è quindi lo stesso meccanismo genetico. Nella figura 3 è indicato il meccanismo focale del terremoto del 29/12/13. Il meccanismo focale di un terremoto è dato dall’individuazione del piano di faglia e del movimento relativo delle rocce lungo tale piano ed è  rappresentato graficamente da un “pallone”. Nel caso specifico, il meccanismo focale ci indica che si è attivata una faglia distensiva con andamento NW-SE, detta faglia appenninica, come si vede dalla forma riportata nella figura.

Per capire come si muovono le rocce lungo il piano di faglia, consideriamo due fogli di carta in formato A4 e incolliamoli in corrispondenza del lato lungo con 3 o 4 punti di colla. Per scollarli esercitiamo una certa pressione dall’alto verso il basso in corrispondenza dei punti di colla. Progressivamente la colla cederà e i fogli si staccheranno. Analogamente, lungo un piano di faglia le rocce si frattureranno quando l’energia accumulata supererà il loro punto di rottura e libereranno questa energia come onde sismiche. La fatturazione può avvenire lungo uno o più punti (come il distacco dei due fogli di carta lungo i punti di colla).  In particolare la faglia sismogenetica del Matese che ha dato luogo al terremoto di fine anno risulta segmentata da una serie di faglie perpendicolari. Se il movimento delle rocce è avvenuto lungo un segmento di faglia, la “turbolenza” è stata trasmessa agli altri segmenti cioè la rottura in un punto ha alterato lo stato di sforzo delle porzioni di roccia adiacenti. In questo caso, siamo in presenza di un sottosuolo tettonicamente instabile e questo significa che nella stessa zona si possono verificare altri terremoti.

Fig.4: Terremoti storici nell’area del terremoto del 29/12/2013

Fig.4: Terremoti storici nell’area del terremoto del 29/12/2013

I dati della sismicità storica evidenziano tre eventi catastrofici nella zona in esame (figura 4):

1)    5/12/1456  (magnitudo intorno a 7)

2)    5/6/1688   (magnitudo intorno a 7)

3)    26/7/1805 (magnitudo 6.6)

Sempre nel distretto sismico del Matese, ma con altri epicentri, ricordiamo due eventi analogamente violenti nel XX secolo:

1)    21/8/1962  fra Sannio e Irpinia (magnitudo 6.1)

2)    23/11/1980 Irpinia (magnitudo 6.9)

Nonostante i dati storici a disposizione sul reale rischio sismico, la zona in esame fino al 1984 non era nemmeno classificata come sismica. Dal 1984 al 2002 è stata considerata a media sismicità. Solo dopo il 2002 è stata classificata come zona ad alta sismicità (figura 5):

Fig.5: Mappa di pericolosità sismica

Fig.5: Mappa di pericolosità sismica

Allo stato attuale delle conoscenze, non si è in grado di stabilire quanta energia sismica entri in gioco nel movimento delle placche dal momento che non è possibile investigare il sottosuolo oltre i 10 km di profondità e non è possibile riprodurre in laboratorio gli stati di sforzo cui sono sottoposte le rocce in queste condizioni. Questo significa che non si può prevedere il trend evolutivo della sequenza sismica che stiamo esaminando. Nessuno può indicare con esattezza dove, quando e se si verificherà un nuovo evento catastrofico. E’ probabile che l’energia accumulata si scaricherà attraverso una serie di eventi come quelli finora registrati. Siamo comunque nel campo delle ipotesi.

Senza alcuna intenzione polemica, mi dissocio da chi ha suggerito alla gente di dormire in auto per qualche notte. Piuttosto inviterei le persone interessate a verificare lo stato di agibilità delle proprie abitazioni e di ricorrere, se necessario, all’ospitalità di parenti/amici/conoscenti residenti in zone non a rischio. Logicamente, deve restare alto il livello di guardia per le autorità competenti affinché si mettano in sicurezza gli edifici non a norma.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aumento di uragani per il 2013

2 Giu

In questi giorni, diversi giornali e siti internet hanno pubblicato le previsioni per la stagione degli uragani 2013. Per chi non lo sapesse, il periodo piu’ propizio per la formazione di questi eventi atmosferici va dal 1 Giugno al 30 Novembre e, come e’ noto, interessa principalmente la parte centrale degli Stati Uniti oltre ovviamente ai paesi caraibici.

Purtroppo, come spesso avviene, ho letto tantissime inesattezze su questi articoli, a volte per confusione fatta nell’interpretazione delle previsioni, altre volte, purtroppo, per il solito catastrofismo che, soprattutto sulla rete, imperversa.

Cosa trovate scritto? Semplicemente che il numero di uragani aumentera’ del 70% rispetto alla norma e che in particolar modo ci sara’ un aumento sostanziale del numero di uragani maggiori che dunque potrebbero arrecare forti danni nelle zone interessate. Senza aggiungere altro, vi lascio immaginare la feroce speculazione che si e’ creata sulla rete parlando ovviamente di geoingegneria, modificazioni del clima, HAARP, Nibiru, e compagnia bella, che tanto ormai sono la cuase di tutto quello che avviene nel mondo.

Cerchiamo di andare con ordine e di capire meglio la cosa.

Prima di tutto, qui trovate il bollettino ufficiale rilasciato dal NOAA, l’ente americano che, tra le altre cose, si occupa anche di eseguire previsioni e simulazioni per il fenomeno degli uragani:

NOAA, Uragani 2013

Cosa troviamo? Prima di tutto leggiamo molto attentamente i numeri che vengono riportati, perche’ proprio su questi c’e’ la maggior confusione in assoluto. Partiamo dalle medie registrate. Normalmente, dove “normalmente” significa “in media”, ci sono 12 “named storms” all’anno, cioe’ tempeste con venti che superano i 63 Km/h e a cui viene attribuito un nome. Tra queste, e attenzione “tra queste” non significa “oltre a queste”, ci sono, sempre in media, 6 uragani, cioe’ tempeste i cui venti superano i 118 Km/h. Bene, ora non perdete il filo, tra questi 6 uragani ce ne sono, sempre in media, 3 che vengono classificati come “uragani maggiori”, cioe’ con venti oltre i 180 Km/h.

Cerchiamo di riassumere. Ogni anno in media ci sono 12 tempeste con venti che superano i 63 Km/h e a cui viene assegnato un nome. Tra tutte queste che superano questo limite, ce ne sono, sempre in media, 6 che superano i 118 Km/h e che quindi vengono chiamati uragani e di questi 6 ce ne sono 3 che superano i 180 Km/h e che quindi vengono chiamati “uragani maggiori”.

Bene, quanti sono in tutto gli eventi? Ovviamente la risposta e’ sempre 12, e questo numero comprende tempeste, uragani e uragani maggiori.

Cosa ci si aspetta per il 2013?

Come potete leggere nel bollettino del NOAA, dai calcoli statistici effettuati, si e’ evidenziata una probabilita’ del 70% che il numero di tempeste possa essere superiore alla media, in particolare, compreso tra 13 e 20. Cosa significa? Prima di tutto che vi e’ una probabilita’ di questo aumento, non una certezza come vorrebbero farvi credere. Inoltre, viene fornito un intervallo piuttosto largo di ipotesi. Le 12 tempeste sono il numero medio registrato negli anni, dare un intervallo tra 13 e 20, significa andare da un valore praticamente in media, 13, ad uno superiore ai trascorsi, 20.

Questo solo per smentire subito tutte quelle fonti che parlano di aumento certo.

Ora, in questo numero compreso tra 13 e 20, viene fornito anche un quadro della composizione. Come visto, questo e’ il numero totale di eventi con venti superiori ai 63 Km/h. Come riportato dal NOAA, le previsioni sulla composizione sono: un numero compreso tra 7 e 11 di tempeste che potrebbero arrivare ad uragani e un numero compreso tra 3 e 6 che potrebbero sfociare in uragani maggiori.

Analizziamo questi numeri. Nel caso piu’ favorevole, si avrebbero 13 tempeste, di cui 7 uragani e 3 uragani maggiori. Praticamente questi numeri sono nelle medie riportate all’inizio. Nel caso piu’ sfavorevole invece, si avrebbero 20 tempeste di cui 11 uragani e 6 uragani maggiori. In questo caso invece tutte le categorie subirebbero un forte aumento rispetto ai valori medi.

Come vedete, questi numeri occupano un intervallo molto largo in cui e’ difficile fare previsioni precise. Ovviamente, il NOAA diffonde questi dati come indicazione per la stagione che sta inziando. Data la larghezza degli intervalli considerati, non e’ possibile fare previsioni esatte ne’ tantomeno fare analisi dettagliate.

Perche’ allora vengono fornite queste previsioni?

In realta’, il compito di questi calcoli e’ molto importante e serve per analizzare in termini statistici il comportamento di alcuni rilevanti parametri ambientali e climatici. Come riportato nel bollettino del NOAA, queto risultato superiore alla media viene spinto da alcune evidenze molto importanti:

– il forte monsone sull’Africa occidentale responsabile dell’aumento degli uragani nell’Atlantico iniziato a partire dal 2005

– le temperature leggermente piu’ alte nell’Atlantico tropicale e nel Mar dei Caraibi

– il ritardo nello sviluppo de “El Niño” che potrebbe non incrementarsi quest’anno

Attenzione, anche su questo ultimo punto, potete leggere notizie inesatte su diverse fonti. Non e’ che El Niño e’ scomparso o non si forma, semplicemente, al solito a causa di molti fattori correlati tra loro, quest’anno questo fenomeno atmosferico, che mitiga notevolmente gli uragani, potrebbe non aumentare. Questo non significa che e’ scomparso. Nella figura riportata vedete proprio l’andamento di El Niño negli ultmi mesi ottenuto monitorando la temperatura del Pacifico.

Temperature del Pacifico delle ultime settimane. Fonte: ENSO

Temperature del Pacifico delle ultime settimane. Fonte: ENSO

Concludendo, cosa abbiamo ottenuto? I risultati delle simulazioni condotte dal NOAA mostrano una probabilita’ del 70% che ci sia quest’anno un aumento del numero di tempeste. Questo aumento comporta un numero di fenomeni compreso tra 13 e 20 rispetto ad una media degli anni di 12. Il largo intervallo utilizzato non e’ utilizzabile per fare previsioni specifiche, ma l’indicazione dei modelli e’ importante per valutare diversi aspetti climatici di interesse mondiale. Proprio per concludere, ricordiamo che si tratta di calcoli statistici, forniti sulla base di modelli. Il numero medio utilizzato per il confronto viene da un database comprendente decine di anni di osservazione. Condizione per cui, sul singolo anno, variazioni rispetto a questa media sono del tutto normali e statisticamente possibili.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Oggi il mondo e’ felice?

6 Mag

In un mondo in cui, troppo spesso, ognuno di noi esterna i propri sentimenti attraverso la rete e specialmente attraverso i social network, non poteva certo mancare un’applicazione in grado di stimare la felicita’ mondiale attraverso internet. Sicuramente, avrete letto di questa notizia su diversi siti e giornali. Come e’ noto, e’ stata sviluppata una app in grado di misurare la felicita’ attraverso milioni di tweet pubblicati ogni giorno su twitter.

Ora, leggendo di questa notizia, mi e’ subito venuto in mente il discorso webbot, di cui abbiamo parlato in varie occasioni:

La previsione informatica sul 2012

Ora anche i profeti elettronici

Come ricorderete, webbot e’ un programma, inizialmente pensato per prevedere gli andamenti dei mercati, che basa la sua ricerca sui risultati ottenuti in rete e selezionati in base a dei termini di ricerca specifici. A ciascun risultato viene attribuito un punteggio e, al termine della ricerca che prevede una scansione non solo dei siti visibili ma anche di quelli che compongono il cosiddetto web underground, vengono selezionati dei termini con maggior frequenza, la cui interpretazione determina la previsione cercata.

Spesso, abbiamo analizzato la debolezza di queste previsioni, interamente basate su determinazioni statistiche di eventi che statistici non sono. Queste evidenze sono poi risultate eclatanti nel momento in cui tanti catastrofisti hanno pensato bene di utilizzare il webbot per formulare previsioni sulle prossime catastrofi che sarebbero dovute avvenire.

Ora, l’app che misura la felicita’, funziona con un algoritmo molto simile a quello del webbot.

Questa applicazione, chiamata Edonometro o Hedonometer in inglese, e’ stata sviluppata da una collaborazione tra l’universita’ del Vermont e la compagnia privata Mitre Corporation. Come funziona? Come anticipato, questa applicazione si basa solamente su twitter e, leggendo milioni di tweet pubblicati giorno per giorno, e’ in grado di individuare delle parole chiave precedentemente caricate in un vocabolario e di capire il grado di felicita’ globale. Mi spiego meglio, a ciascuna parola viene associato un punteggio tra 1 e 9, in base alla felicita’ crescente che ciascun termine suscita nelle persone. Per farvi un esempio, le parole gioia, felice, successo, indicano felicita’, mentre parole come attentato, morte, crimine, provocano tristezza. Si parla in questo caso di “temperatura emotiva” ed il sistema e’ basato su un vocabolario di 10000 vocaboli selezionati da uno studio su volontari.

Mediante questa ricerca, l’Edonometro determina un punteggio globale in base al quale determina il livello di felicita’ o di tristezza giornaliero.

In realta’, questo strumento non e’ stato sviluppato come app, anche perche’ non credo che un’universita’ si metterebbe al lavoro con una software house semplicemente per sviluppare e vendere un app per smartphone. L’Edonometro e’ stato inzialmente concepito per studi sociali, giornalistici e anche economici. E’ risaputo infatti che l’andamento dei mercati e’ spesso determinato dalla fiducia degli investitori nel sistema, legata dunque in parte anche allo stato emotivo.

Il risultato di questo studio e’ un grafico che mostra il punteggio di felicita’ degli ultimi 5 anni:

Risultati dell'edonometro negli ultimi 5 anni

Risultati dell’edonometro negli ultimi 5 anni

Come vedete, il giorno piu’ triste e’ risultato quello dell’attentato alla maratona di Boston.

Ovviamente, questo risultato e’ affetto da una notevole incertezza statistica. Per farvi capire questo punto, sicuramente i risultati degli anni precedenti sono basati su un numero di tweet notevolmente piu’ basso legato al minor numero di utenti del social network.

Visti i risultati promettenti dell’algoritmo, si e’ poi deciso di trasformare l’edonometro in una app. Al momento, come anticipato, i risultati sono basati esclusivamente su twitter ed in particolare sui soli tweet provenienti dagli Stati Uniti. Il perche’ di questo e’ facilmente comprensibile: lo sviluppo sociale iniziale dell’applicazione, era pensato per determinare quali zone degli Stati Uniti risultassero piu’ felici e dunque per correlare il risultato con la qualita’ della vita nelle diverse citta’.

In futuro, si pensa gia’ di estendere la ricerca anche ad altri social network oltre ovviamente ai motori di ricerca. Inoltre, gli sviluppatori sono gia’ al lavoro per introdurre nel vocabolario dell’app altre 15 lingue e dunque estendere i risultati al mondo intero oltre ovviamente a riportare risultati ora per ora e non giornalmente come fatto ora.

Speriamo solo che in futuro non dovremmo basare i nostri rapporti personali sui risultati dell’edonometro!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ora anche i profeti elettronici

11 Apr

Nell’era di internet 2.0 e nel periodo che stiamo vivendo, in cui tutti i giorni qualche simpatico burlone pubblica ipotesi catastrofiste per la fine del mondo, non poteva certo mancare un software profetico.

A cosa mi sto riferendo?

Come forse avrete intuito, sto parlando nuovamente di WebBot. Di questo programma abbiamo parlato in dettaglio in questo post:

La previsione informatica sul 2012

Come visto, si tratta di un software “profetico” basato sull’analisi asimmetrica dei Trend di linguaggio. Detto in parole semplici, questo programma usa degli “spider” per scandagliare la rete in cerca di tutte le informazioni su delle parole chiave inserite dall’utente. A ciascun risultato viene assegnato un valore numerico in base a dei complessi algoritmi di analisi e, al termine della scansione, il webbot fornisce una sorta di previsione futura basandosi sulla informazioni reperite in internet. Si parla di analisi del linguaggio proprio perche’ il software si basa sull’enorme mole di informazioni presenti in rete su siti, forum, blog, ecc.

Perche’ torniamo a parlare di webbot?

Se vi stavate preoccupando perche’ gia’ da qualche giorno non eravamo minacciati da un asteroide che dovrebbe arrivarci in testa, siete subito accontentati. Secondo una notizia che sta circolando in rete, il 14 aprile 2013, cioe’ tra una manciata di giorni, un asteroide di grandi dimensioni dovrebbe colpire la Terra causando enormi danni. Questa previsione sarebbe proprio stata fatta utilizzando il webbot.

Al solito, non per rompere le uova nel paniere, ma secondo voi, se ci fosse un asteroide di grandi dimensioni che impattera’ la Terra tra 3 giorni, non sarebbe visibile? A cosi’ breve distanza temporale, e dal momento che si parla di grandi dimensioni, sicuramente questo corpo sarebbe gia’ perfettamente visibile ad occhio nudo.

Dunque? Perche’ viene data questa notizia?

Come visto in questo articolo:

Lezione n.1: come cavalcare l’onda

a seguito dell’asteroide esploso in atmosfera sopra gli Urali a febbraio:

Pioggia di meteore in Russia

e’ scoppiata una vera e propria psicosi asteroide. Al solito, quello di Chelyabinsk e’ stato un evento reale e ci sono stati molti feriti, ma, da qui in poi, non passa giorno in cui non ci sia qualche sito che pubblica notizie di asteroidi precipitati in qualsiasi parte del mondo.

A cosa serve questo meccanismo?

In primis ad alimentare il sospetto ed il terrore, ma anche per continuare a propinare l’idea dell’esistenza di Nibiru. Come visto in questo articolo:

Nibiru: la prova del trattore gravitazionale

una delle principali ipotesi portate a sostegno dell’esistenza di Nibiru, sarebbe un aumento del numero di asteroidi lanciato verso la Terra. Come visto nell’articolo, questa ipotesi e’ completamente falsa. Nonostante questo, proprio il caso di Chelyabinsk ha riacceso gli animi ed offerto un’occasione da non perdere ai tanti siti catastrofisti che ormai conosciamo molto bene.

Da dove e’ uscita fuori la notiza del 14 Aprile?

Come detto, e questo e’ vero, si tratta di una previsione informatica fatta dal WebBot. E’ possibile che il sotware abbia sbagliato? No, non e’ possibile, e’ certo!

Capiamo il perche’.

Come visto anche nel precedente articolo, questo programma fu sviluppato per cercare di prevedere l’evoluzione della situazione di borsa. In questo caso, l’uso degli spider era fondamentale per cercare in rete, tra l’enorme mole di informazioni, notizie utili su una determinata societa’. In questo modo, si poteva valutare se comprare o meno quelle azioni. Ovviamente si tratta di un programma di analisi numerica, non certamente di un profeta infallibile. Se fosse vero il contrario, ognuno di noi saprebbe con anticipo cosa dovrebbe avvenire in borsa e saremmo tutti ricchi grazie ad investimenti certi.

Come potete capire, il webbot puo’ dare delle indicazioni, ma non e’ assolutamente detto che siano certe. Per come e’ costruito l’algoritmo di analisi, il tutto deve essere preso come una previsione accompagnata da un livello di incertezza notevole.

Ora, torniamo al nostro caso. Immaginate di far partire il webbot inserendo come chiave di ricerca la parola “asteroide”. E’ possibile che vi ritorni una previsione di impatto con la Terra? Assolutamente si. Come detto in precedenza, dopo il caso russo, tutti i giorni si pubblicano notizie di asteroidi caduti in diverse parti del mondo. Dunque, in questo senso, proprio il dilagante catastrofismo mediatico ha probabilmente portato fuori strada la previsione informatica.

Inoltre, sempre legato a questo, vorrei anche aprire una parentesi su quanto detto dal capo della NASA al Senato degli USA. Alla domanda: “cosa dovremmo fare se un asteroide puntasse verso la Terra e lo scoprissimo solo pochi giorni prima dell’impatto?”, Bolden ha risposto semplicemente “pregate”.

Questa risposta ha scatenato un putiferio sulla rete. Tantissimi siti parlano di un’agenzia spaziale degli Stati Uniti a conoscenza di un imminente impatto. Si e’ nuovamente tornati a parlare di ipotesi complottiste e di tutte quelle fantasie che abbiamo cominciato a vedere parlando di 2012.

Perche’ e’ stata data questa risposta? Prima di tutto, la domanda non lasciava spazio a nulla. Come riportato, si parlava di un asteroide in rotta certa verso la Terra e che verrebbe scoperto solo pochi giorni prima dell’impatto.Secondo voi, cosa avrebbe dovuto rispondere Bolden?

Inoltre, teniamo conto che la NASA, anche a seguito di quanto avvenuto in Russia, sta cercando di ottenere nuovi fondi per i programmi di difesa da asteroidi. Di queste soluzioni abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

Dunque, capite bene che la risposta data dal capo della NASA e’ perfettamente lecita, anche se forse Bolden doveva immaginare l’eco che questa sua affermazione avrebbe avuto.

Concludendo, non c’e’ assolutamente nessun pericolo per il 14 Aprile 2013. In questo caso, si tratta solo di una previsione fatta mediante webbot che, con buona probabilita’, e’ stata proprio influenzata dalle tante notizie false pubblicate sulla rete circa asteroidi che cadono sulla Terra e improbabili avvistamenti di nuovi corpi orbitanti e potenzialmente pericolosi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Troppa antimateria nello spazio

5 Apr

Uno dei misteri che da sempre affascina i non addetti ai lavori e che spinge avanti la ricerca scientifica di base e’ la comprensione del nostro universo. In particolare, come sapete, ad oggi sappiamo veramente molto poco su cosa costituisce il nostro universo. Cosa significa questo? Dalle misure affettuate, solo una piccola frazione, intorno al 5%, e’ composta da materia barionica, cioe’ di quella stessa materia che compone il nostro corpo e tutti gli oggetti che ci circondano. La restante frazione e’ composta da quelli che spesso sentiamo chiamare contributi oscuri, materia oscura ed energia oscura. Mentre sulla materia oscura ci sono delle ipotesi, anche se ancora da verificare, sull’energia oscura, responsanbile dell’espansione dell’universo, sappiamo ancora molto poco.

Detto questo, la comprensione di questi contributi e’ una sfida tutt’ora aperta ed estremamente interessante per la ricerca scientifica.

Di questi argomenti, abbiamo parlato in dettaglio in questo post:

La materia oscura

Perche’ torno nuovamente su questo argomento? Solo un paio di giorni fa, e’ stata fatta una conferenza al CERN di Ginevra nella quale sono stati presentati i dati preliminari dell’esperimento AMS-02. I dati di questo rivelatore, realizzato con un’ampia collaborazione italiana, sono veramente eccezionali e potrebbero dare una spinta in avanti molto importante nella comprensione della materia oscura.

Andiamo con ordine.

Cosa sarebbe AMS-02?

AMS installato sulla Stazione Spaziale

AMS installato sulla Stazione Spaziale

AMS sta per Alpha Magnetic Spectrometer, ed e’ un rivelatore installato sulla Stazione Spaziale Internazionale. Compito di AMS-02 e’ quello di rivelare con estrema precisione le particelle dei raggi cosmici per cercare di distinguere prima di tutto la natura delle particelle ma anche per mettere in relazione queste ultime con la materia ordinaria, la materia oscura, la materia strana, ecc.

In particolare, lo spettrometro di AMS e’ estremamente preciso nel distinguere particelle di materia da quelle di antimateria e soprattutto elettroni da positroni, cioe’ elettroni dalle rispettive antiparticelle.

Vi ricordo che di modello standard, di antimateria e di materia strana abbiamo parlato in dettaglio in questi post:

Piccolo approfondimento sulla materia strana

Due parole sull’antimateria

Antimateria sulla notra testa!

Bosone di Higgs … ma che sarebbe?

Bene, fin qui tutto chiaro. Ora, cosa hanno di particolarmente speciale i dati di AMS-02?

Numero di positroni misurato da AMS verso energia

Numero di positroni misurato da AMS verso energia

Utilizzando i dati raccolti nei primi 18 mesi di vita, si e’ evidenziato un eccesso di positroni ad alta energia. Detto in parole semplici, dai modelli per la materia ordinaria, il numero di queste particelle dovrebbe diminuire all’aumentare della loro energia. Al contrario, come vedete nel grafico riportato, dai dati di AMS-02 il numero di positroni aumenta ad alta energia fino a raggiungere una livello costante.

Cosa significa questo? Perche’ e’  cosi’ importante?

Come detto, dai modelli della fisica ci si aspettarebbe che il numero di positroni diminuisse, invece si trova un aumento all’aumentare dell’energia. Poiche’ i modelli ordinari sono corretti, significa che ci deve essere qualche ulteriore sorgente di positroni che ne aumenta il numero rivelato da AMS-02.

Quali potrebbero essere queste sorgenti non considerate?

La prima ipotesi e’ che ci sia una qualche pulsar relativamente in prossimita’. Questi corpi possono emettere antiparticelle “sballando” di fatto il conteggio del rivelatore. Questa ipotesi sembrerebbe pero’ non veritiera dal momento che l’aumento di positroni e’ stato rivelato in qualsiasi direzione. Cerchiamo di capire meglio. Se ci fosse una pulsar che produce positroni, allora dovremmo avere delle direzioni spaziali in cui si vede l’aumento (quando puntiamo il rivelatore in direzione della pulsar) ed altre in cui invece, seguendo i modelli tradizionali, il numero diminuisce all’aumentare dell’energia. Come detto, l’aumento del numero di positroni si osserva in tutte le direzioni dello spazio.

Quale potrebbe essere allora la spiegazione?

Come potete immaginare, una delle ipotesi piu’ gettonate e’ quella della materia oscura. Come anticipato, esistono diverse ipotesi circa la natua di questa materia. Tra queste, alcune teorie vorrebbero la materia oscura come composta da particelle debolmente interagenti tra loro e con la materia ordinaria ma dotate di una massa. In questo scenario, particelle di materia oscura potrebbero interagire tra loro producendo nello scontro materia ordinaria, anche sotto forma di antimateria, dunque di positroni.

In questo scenario, i positroni in eccesso rivelati da AMS-02 sarebbero proprio prodotti dell’annichilazione, per dirlo in termini fisici, di materia oscura. Capite dunque che questi dati e la loro comprensione potrebbero farci comprendere maggiormente la vera natura della materia oscura e fissare i paletti su un ulteriore 20% della materia che costituisce il nostro universo.

Dal momento che la materia oscura permea tutto l’universo, questa ipotesi sarebbe anche compatibile con l’aumento dei positroni in tutte le direzioni.

Ora, come anticipato, siamo di fronte ai dati dei primi 18 mesi di missione. Ovviamente, sara’ necessario acquisire ancora molti altri dati per disporre di un campione maggiore e fare tutte le analisi necessarie per meglio comprendere questa evidenza. In particolare, i precisi rivelatori di AMS-02 consentiranno di identificare o meno una sorgente localizzata per i positroni in eccesso, confermando o escludendo la presenza di pulsar a discapito dell’ipotesi materia oscura.

Per completezza, spendiamo ancora qualche parola su questo tipo di ricerca e sull’importanza di questi risultati.

Come detto in precedenza, per poter confermare le ipotesi fatte, sara’ necessario prendere ancora molti dati. Ad oggi, AMS-02 potra’ raccogliere dati ancora per almeno 10 anni. Come anticipato, questo strumento e’ installato sulla Stazione Spaziale Internazionale. Questa scelta, piuttosto che quella di metterlo in orbita su un satellite dedicato, nasce proprio dall’idea di raccogliere dati per lungo tempo. La potenza richiesta per far funzionare AMS-02 consentirebbe un funzionamento di soli 3 anni su un satellite, mentre sulla ISS il periodo di raccolta dati puo’ arrivare anche a 10-15 anni.

AMS-02 e’ stato lanciato nel 2010 sullo Shuttle dopo diversi anni di conferme e ripensamenti, principalmente dovuti agli alti costi del progetto e alla politica degli Stati Uniti per le missioni spaziali.

Perche’ si chiama AMS-02? Il 02 indica semplicemente che prima c’e’ stato un AMS-01. In questo caso, si e’ trattato di una versione semplificata del rivelatore che ha volato nello spazio a bordo dello shuttle Discovery. Questo breve viaggio ha consentito prima di tutto di capire la funzionalita’ del rivelatore nello spazio e di dare poi la conferma definitiva, almeno dal punto di vista scientifico, alla missione.

Confronto tra AMS e missioni precedenti

Confronto tra AMS e missioni precedenti

Il risultato mostrato da AMS-02 in realta’ conferma quello ottenuto anche da altre due importanti missioni nello spazio, PAMELA e FERMI. Anche in questi casi venne rivelato un eccesso di positroni nei raggi cosmici ma la minore precisione degli strumenti non consenti’ di affermare con sicurezza l’aumento a discapito di fluttuazioni statistiche dei dati. Nel grafico a lato, vedete il confronto tra i dati di AMS e quelli degli esperimento precedenti. Come vedete, le bande di errore, cioe’ l’incertezza sui punti misurati, e’ molto maggiore negli esperimenti precedenti. Detto in termini semplici, AMS-02 e’ in grado di affermare con sicurezza che c’e’ un eccesso di positroni, mentre negli altri casi l’effetto poteva essere dovuto ad incertezze sperimentali.

Concludendo, i risultati di AMS-02 sono davvero eccezionali e mostrano, con estrema precisione, un aumento di positroni ad alta energia rispetto ai modelli teorici attesi. Alla luce di quanto detto, questo eccesso potrebbe essere dovuto all’annichilazione di particelle di materia oscura nel nostro universo. Questi risultati potebbero dunque portare un balzo in avanti nella comprensione del nostro universo e sulla sua composizione. Non resta che attendere nuovi dati e vedere quali conferme e novita’ potra’ mostrare questo potente rivelatore costruito con ampio contributo italiano.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Curiosita’ sui cicli solari

31 Dic

Nel post precedente, siamo tornati a parlare del Sole, per cercare di fare un po’ di chiarezza nel mare di informazioni piu’ o meno fasulle che trovate in rete:

Sole: quanta confusione!

In particolare, abbiamo visto come il Sole presenti un andamento temporale noto, con un periodo di 11 anni che trascorre tra un massimo ed un minimo di attivita’.

Per quanto riguarda i minimi, su cui ci siamo concentrati prima, come detto, un minimo molto prolungato dell’attivita’ solare, puo’ veramente avere delle conseguenze particolari sulla Terra. Come e’ facile immaginare, un lasso di tempo abbastanza lungo di bassa attivita’ solare, puo’ causare un sensibile abbassamento di temperatura sul nostro pianeta.

In questo post, vorrei proprio parlarvi di “storia” dei cicli solari e dei minimi prolungati e accentuati che ci sono stati nel corso dei secoli.

In particolare, il piu’ famoso minimo prolungato di attivita’ solare si e’ avuto negli anni tra 1645 e il 1715 ed e’ noto come minimo di Maunder o “Maunder minimum”. Altro minimo storico, ma meno drastico, si e’ avuto invece tra il 1790 e il 1830 ed e’ noto come minimo di Dalton.

Prima di tutto, voglio mostrarvi un grafico del numero di macchie solari registrate negli ultimi 400 anni. Come sappiamo bene, il numero di macchie solari e’ un indicatore molto importante per capire l’attivita’ solare ed e’ direttamente collegato al comportamento del nostro Sole.

Ecco il grafico:

Il numero di macchie solari registrate nel corso degli anni

Il numero di macchie solari registrate nel corso degli anni

Come vedete, il minimo di Maunder e’ facilmente riconoscibile. Maunder era un astronomo solare che in realta’ nacque nel 1851, quindi quando il minimo era gia’ finito, ma che scopri’ questa anomalia studiando le cronache passate con l’indicazione del numero di macchie solari osservate in passato.

A conferma di quanto detto in precedenza, il minimo di Maunder e’ anche noto come “piccola era glaciale”. In questo periodo si registro’ un lungo lasso di tempo in cui sul Sole erano quasi scomparse le macchie. In questi anni, in Europa ed in Nord America, si registrarono gli inverni piu’ freddi mai osservati. In realta’, molto probabilmente la stessa cosa avvenne anche in altre parti del mondo, ma purtroppo non vi sono dati storici a conferma di questo.

Capiamo subito un cosa, stiamo parlando di un periodo prolungato con un’attivita’ del Sole veramente molto bassa e caratterizzata quasi dalla scomparsa delle macchie solari. Come detto, questo non ha causato nessuna catastrofe sulla Terra a parte, come molto probabilmente si pensa, degli inverni piu’ rigidi. Questo solo per puntualizzare e per smentire nuovamente tutti quelli che vedrebbero in un’attivita’ anomala del Sole un segnale premonitore per catastrofi immani sulla Terra.

Detto questo, vorrei invece parlarvi di una curiosita’ poco nota, ma molto interessante.

Prima di tutto vi voglio mostrare un’immagine:

messiah

Sapete di cosa si tratta? E’ un violino, ma non uno qualsiasi, e’ uno Stradivari del 1716, in particolare forse uno degli Stradivari piu’ noti, il Messiah. Credo che tutti conoscano non solo il grande maestro liutaio cremonese, ma anche il valore quasi inestimabile dei suoi celebri violini. Cio’ che rende unici questi strumenti e la purezza del suono e l’unicita’ delle armoniche prodotte quando vengono suonati.

Proprio su questi violini vi vorrei racontare una curiosita’.

Antonio Stradivari nacque a Cremona nel 1644 ed ebbe il suo periodo d’oro nella costruzione di violini tra il 1700 e il 1720. Per costruire i suoi strumenti, utilizzo’ legno facilmente disponibile a Cremona e proveniente dalle Alpi. In particolare, utilizzo’ molto legno di abete proveniente dalla foresta di Paneveggio in Trentino.

Uno studio condotto su diverse foreste in Europa, ha mostrato per gli alberi cresciuti nel periodo del Maunder minimum un legno piu’ denso e con cerchi molto piu’ stretti. Questo e’ naturale se pensiamo alle temperature piu’ basse in quegli anni.

Effetto di questa crescita rallentata e’ stato un legno piu’ denso ma con proprieta’ armoniche molto particolari. Come e’ noto, Stradivari scelse il legno da utilizzare per i suoi strumenti proprio in base alle caratteristiche armoniche del materiale. Molto probabilmente, la bonta’ e l’unicita’ di queste armoniche sono in parte dovute anche alla piccola era glaciale degli anni precedenti.

Ovviamente questa considerazione non toglie nulla alle straordinarie doti di Stradivari nel costruire i suoi violini. Molto probabilmente il fatto che si utilizzo’ legno cresciuto proprio nel periodo del Maunder minimum ha dato solo un contributo all’unicita’ dei suoni emessi da questi fantastici strumenti.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

La materia oscura

19 Dic

Abbiamo iniziato a parlare di questa “materia oscura”, commentando un articolo catastrofista, e permettemi di dire alquanto bizzarro, apparso oggi su alcuni quotidiani:

Venerdi finisce il mondo!

Come visto, secondo queste fonti, un ammasso di materia oscura, sotto forma di corpo esteso e massivo, sarebbe in rotta di collisione con la Terra per il 21/12.

Nell’articolo citato, abbiamo gia’ discusso delle assurdita’ scientifiche prospettate come ipotesi di partenza, ma per offrire un quadro piu’ chiaro, dobbiamo necessariamente parlare di materia oscura.

Ovviamente, come capite bene, questo articolo e’ solo un corollario a quello citato, ma ho deciso di metterlo come post isolato, vista l’importanza della divulgazione di argomenti come questi.

Prima di iniziare, vorrei fare una premessa importate. Come piu’ volte dichiarato, in questo blog vogliamo fare divulgazione scientifica approfittando delle profezie del 2012. Per questa ragione, cerchiamo di fare una divulgazione semplice e che lasci intendere i concetti fondamentali. Questo punto e’ importante, perche’ vogliamo dare risposte accessibili a tutti. Non sono qui per fare una lezione universitaria, ne tantomeno per fare un esercizio di stile scientifico. Cerchero’ di essere molto chiaro, esplorando solo i concetti fondamentali. Mi scuso da subito con quanti di voi hanno gia’ conoscenza dell’argomento e potrebbero considerare questo post troppo semplice.

Cominciamo dalle cose ovvie.

In questo post:

Piccolo approfondimento sulla materia strana

abbiamo gia’ parlato di modello standard. In particolare, abbiamo visto come le particelle fondamentali, cioe’ non formate da pezzetti piu’ piccoli, siano in realta’ poche e descrivibili attraverso delle famiglie. Mescolando insieme queste particelle, che altro non sono i componenti di quello che chiamiamo “modello standard”, possiamo capire la materia che ci circonda e le interazioni, cioe’ le forze, che questa subisce.

Fin qui tutto chiaro.

Ora, cosa c’entra la materia oscura?

Prima di tutto un po’ di storia. Nel 1933 l’astronomo Zwicky fece il seguente esercizio. Studiando l’ammasso della Chioma, sommo’ tutte le masse galattiche, cioe’ le masse di tutti gli oggetti che componevano l’ammasso, e ottenne in questo modo la massa totale della Chioma. Fin qui, niente di speciale. Ora pero’, e’ possibile ricavare la massa anche in modo indiretto, cioe’ misurando la dispersione delle velocita’ delle galassie che costituivano l’ammasso. In questo secondo modo, ottenne un’altra misura della massa totale, questa volta in modo indiretto. Il problema fu che la seconda stima era maggiore della prima di circa 400 volte. Detto in parole povere, la somma non faceva il totale.

Questa discrepanza venne poi studiata in dettaglio solo negli anni ’70, quando si capi’ che questa differenza non era dovuta ad errori di calcolo, bensi’ era un qualcosa ancora non capito dalla scienza.

Proprio in questo contesto, si comincio’ a parlare di materia oscura, cioe’ materia non visibile dagli strumenti ma dotata di massa, che era in grado di risolvere le discrepanze trovate.

A questo punto, ognuno di noi potrebbe pensare che si sta cercando solo di farsi tornare i conti. In realta’ non e’ cosi’. La materia oscura e’ importante anche per capire e spiegare molte leggi di natura estremamente importanti del nostro universo. Piu’ che un artificio di calcolo e’ qualcosa in grado spiegare il funzionamento stesso di quello che osserviamo.

Cerchiamo di capire meglio con qualche altro esempio.

Una delle evidenze principali della materia oscura e’ nell’osservazione e nella parametrizzazione delle galassie a spirale. Cos’e’ una galassia a spirale? Sono galassie formate da una parte interna, detta bulbo, e d alcune braccia che si avvolgono intorno a questa parte centrale.

Esempio di galassia spirale

Esempio di galassia spirale

Ora, immaginiamo di voler misurare la velocita’ delle stelle che compongono la galassia. In linea di principio, per la terza legge di Keplero, piu’ ci allontaniamo dal centro, minore dovrebbe essere la velocita’ delle stelle. Se immaginate di fare un grafico in cui riportate la velocita’ in funzione della distanza dal centro, cosa vi aspettereste? Se la velocita’ delle stelle periferiche e’ piu’ bassa, dovremmo avere un grafico che decresce all’aumentare della distanza.

Velocita' di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

Velocita’ di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

In realta’ osservate che la velocita’ delle stelle lontane e’ paragonabile a quelle interne, cioe’ il grafico e’ “piatto”. Perche’ avviene questo? Semplicemente perche’ non possiamo stimare la massa della galassia semplicemente sommando le singole stelle, ma dobbiamo mettere dentro anche la materia oscura. Rifacendo il calcolo considerando la materia oscura ottenete il grafico sperimentale visto in figura. Ma e’ veramente necessaria questa massa aggiuntiva? In realta’ si. Se la massa fosse solo quella delle stelle visibili, le stelle piu’ lontane, e che dunque ruotano piu’ velocemente di quello che ci aspettiamo, sarebbero espulse dalla galassia. Dal momento che vediamo con i nostri occhi che le stelle sono sempre li senza essere espulse, significa che la materia oscura ci deve essere.

Se siete riusciti ad arrivare fino a questo punto, ormai siamo in discesa.

Restano due domande fondamentali a cui rispondere. Quanta materia oscura c’e’ nell’universo? Ma soprattutto, cos’e’ questa materia oscura?

Il “quanta ce n’e'” potrebbe sorprendervi. Dalle stime fatte nel nostro universo, si trova che circa l’85% totale della massa e’ composta da materia oscura. Detto in altri termini abbiamo circa 6 volte piu’ materia oscura che materia barionica. Questa cosa puo’ sorprendere molto. Pensateci bene, parlando di modello standard, abbiamo visto la materia barionica, cioe’ quella che forma la materia che vediamo. Bene, l’85% della massa che compone l’universo e’ fatta di qualcosa di diverso rispetto alla materia che conosciamo.

A questo punto, cerchiamo di capire cos’e’ la materia oscura.

In realta’, non posso darvi una risposta certa e definitiva, perche’ in questo caso stiamo esplorando campi ancora aperti della scienza moderna. Esistono ovviamente diverse ipotesi riguardo alla composizione della materia oscura, ma non una certezza sperimentale.

Ragioniamo un secondo. Da quanto detto, la materia oscura ha una massa, produce effetti gravitazionali, come nel caso delle galassie a spirale viste, ma non e’ visibile ad occhio nudo. Fino ad oggi, sappiamo della sua esistenza solo attraverso misure indirette, cioe’ attraverso gli effetti che produce.

Quali sono le ipotesi per la materia oscura?

L’ipotesi principale ‘e che la maggior parte della materia oscura sia composta da materia non barionica molto massiva. Ci si riferisce a questa categoria come WIMP, cioe’ “particelle massive debolmente interagenti”. Cosa significa debolmente interagenti? Semplicemente che questo genere di materia non reagisce facilmente con la materia barionica. Nonostante questo, le WIMP avrebbero una massa molto elevata e dunque una forte interazione gravitazionale.Il fatto che sia poco interagente, rende la sua osservazione molto difficile, dal momento che non emette a nessuna lunghezza d’onda e dunque non e’ visibile neanche fuori dal visibile.

Spesso sentite parlare di WIMP anche come neutralini, neutrini massivi, assioni, ecc. Questi sono solo i nomi di alcune particelle predette nella categoria delle WIMP e su cui si sta incentrando la ricerca. Sotto questo aspetto, si cerca appunto di identificare la materia oscura in diversi modi. I principali sono cercando di produrla negli acceleratori di particelle, oppure cercando di rivelare i prodotti, barionici questa volta, dunque visibili, prodotti nell’interazione tra particelle di materia oscura.

Spero di essere stato abbastanza chiaro nella trattazione, ma soprattutto spero che questi pochi concetti permettano di capire meglio l’articolo che stiamo discutendo sulla presunta scoperta di un pianeta di materia oscura in rotta di collisione con noi.

La divulgazione della scienza passa anche attraverso argomenti come questo. Partire dalle profezie del 2012, ci consente di divulgare la vera scienza e di mostrare argomenti attuali e ancora in corso di investigazione scientifica. Per leggere un libro divulgativo semplice e adatto a tutti, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

Venerdi finisce il mondo!

19 Dic

Che dire? Il titolo promette molto bene. In realta’, il titolo cosi’ sensazionalistico non e’ farina del mio sacco, ma quello che un nostro lettore ci ha segnalato e che potevate leggere oggi sul giornale “Notizia Oggi Vercelli”. Trovate la segnalazione nei commenti di questo post:

Scontro Terra-Nibiru a Luglio?

e potete leggere la notizia di cui vi voglio parlare seguendo questo link:

Notizia oggi Vercelli

Ora, dal momento che la visione di questo articolo ha scatenato non pochi sospetti ed ansie, credo sia giusto prendere sul serio la cosa ed analizzare i diversi punti portati come tesi in questo articolo.

Iniziamo proprio la nostra analisi dalla prima riga. “Federico Caldera, consulente scientifico della NASA, bla bla”. Chi e’ Federico Caldera? Assolutamente non lo so! Come potete verificare da soli, non si trova nessun riferimento su web a questo tizio, ne’ tantomeno alla sua professione di consulente scientifico. Anche cercando direttamente sul sito NASA e guardando tra i dipendenti, consulenti, ecc, non vi e’ nessuna traccia di Federico Caldera.

Il telescopio spaziale WISE

Il telescopio spaziale WISE

Gia’ questo ci insospettisce moltissimo. La notizia, che avrebbe come fonte la NASA, viene data da uno che non esiste o che non e’ un consulente NASA.

Nonostante questo, andiamo avanti nelle lettura dell’articolo e vediamo cosa dice.

“Nel lugio 2011, il telescopio della NASA WISE avrebbe rivelato uno sciame di anomalie gravitazionali in rotta di collisione con la Terra”.

Attenzione, WISE e’ veramente un telescopio della NASA che opera nella regione dell’infrarosso, e di cui abbiamo parlato in questi post:

Scontro Terra-Nibiru a Luglio?

Finalmente le foto di Nibiru!

Peccato che WISE sia stata lanciato in orbita nel novembre 2009 e la missione sia durata 10 mesi in tutto. Questo significa che nel 2011, la missione era gia’ conclusa e dunque WISE era spento e senza energia elettrica. Dopo questa, abbiamo gia’ capito che si tratta di una bufala colossale, ma voglio lo stesso andare avanti per mostrare tutto il ragionamento, ma soprattutto perche’ una notizia del genere ci consente di parlare di argomenti scientifici reali, non ancora trattati.

Premesso che WISE era spento nel 2011, leggiamo che si sarebbero osservate una scia di anomalie gravitazionali. Cosa sarebbe una scia di anomalie gravitazionali? Come visto in questi articoli:

Storia astronomica di Nibiru

Nibiru: la prova del trattore gravitazionale

parliamo di anomalie gravitazionali per descrivere l’influenza di un corpo estraneo in un sistema stabile sotto l’effetto dell’attrazione gravitazionale. Mi spiego meglio. Prendiamo come esempio il Sistema Solare. I pianeti orbitano su traiettorie precise dettate dall’interazione gravitazionale con il Sole, principale, ma anche modificate dalla presenza degli altri pianeti. Se ora inserite un corpo nuovo nel Sistema, la massa di questo modifichera’ l’equilibrio gravitazionale, scombussolando la situazione preesistente. Queste sono le anomalie grvitazionali. Capite bene parlare di una scia di anomalie, non significa assolutamente nulla dal punto di vista scientifico. Inoltre, le anomalie, per definizione, non collidono con i pianeti, se proprio vogliamo, e’ il corpo che le provoca ad urtare qualcos’altro.

Proseguendo nella lettura, troviamo la solita trama complottista che vede come protagonista un file segretissimo e di cui si e’ venuti a conoscenza per un motivo che non si puo’ dire, la NASA che lo sa gia’ da tanti mesi, ecc. Ma attenzione perche’ poi arriviamo al piatto forte dell’articolo: “i corpi in rotta di collisione con la Terra sarebbero aggregati di materia oscura”!

Qui, si rasenta veramente la follia anche dal punto di vista fantascientifico.

Parallelamente a questo articolo, ho pubblicato anche quest’altro post:

La materia oscura

in cui ho cercato di spiegare in modo molto semplice cos’e’ la materia oscura e quali sono i punti su cui si sta concentrando la ricerca. Se non lo avete fatto, vi consiglio di leggere questo articolo a questo punto, prima di andare avanti nella lettura.

Cosa sappiamo sulla materia oscura? Sappiamo che, nell’ipotesi piu’ accreditata dalla scienza, esiste perche’ ne vediamo gli effetti. Al momento, non sappiamo di cosa si tratta, abbiamo varie ipotesi ma non una risposta definitiva. Bene, come potrebbe un qualcosa che non conosciamo formare una “palla” di materia oscura?

Capite bene che questo articolo, ripeto comparso su un giornale online, e’ stato scritto o per prendere in giro le profezie del 21/12, o da uno completamente ignorante in astronomia. Come visto nel post riportato, per la materia oscura parliamo di materia molto debolmente interagente. E’ assurdo pensare che particelle di questo tipo possano formare un sistema aggregato che si muove nell’universo.

Perche’ si parla di materia oscura? Semplice, perche’ in questo modo si concentra l’attenzione su un argomento ancora dibattuto dalla scienza e su cui la risposta defiitiva ancora manca. In questo modo si ottengono due risultati importanti. In primis, si alimenta il sospetto sulla scienza e sul complottismo sempre presente che vedrebbe scienza e governi andare a braccetto per salvare una piccola casta di eletti, ma, soprattutto, parlare di materia oscura alimenta il terrore nelle persone che sentono parlare di qualcosa completamente misterioso e di cui si sa veramente poco. Al solito, la non conoscenza di taluni argomenti genera mostri nella testa della gente.

Spero che il breve articolo sulla materia oscura, possa essere utile per dare a tutti un’infarinata su questi concetti e per evitare di cadere in tranelli, come questo articolo, del tutto campati in aria dal punto di vista scientifico.

Solo per completezza, la cosa peggiore dell’articolo e’ scrivere dove dovrebbero impattare questi corpi di materia oscura. Ma ci rendiamo conto di cosa significa? Anche se fosse, sarebbe impossibile calcolare le traiettorie in modo cosi’ preciso. Nell’articolo manca solo l’indirizzo esatto con via e numero civico dove impatteranno. Piu’ volte abbiamo parlato di traiettorie, trattando, ad esempio, di asteroidi:

2012 DA14: c.v.d.

E alla fine Nibiru e’ un asteroide

La cosa piu’ importante che abbiamo capito, e che ora siamo in grado di riconoscere, e’ l’impossibilita’ di fare un calcolo esattamente preciso dell’orbita completa di un corpo. Ogni interazione con un altro corpo, determina una variazione della  traiettoria, e questo rende senza dubbio impossibile calcolare con la precisione profetizzata nell’articolo gli eventuali punti di impatto con la Terra.

Come anticipato qualche giorno fa, pian piano che le idee catastrofiste sul 21/12 cedono il passo al ragionamento scientifico, dobbiamo aspettarci ancora qualche teoria assolutamente campata in aria e messa su internet solo per alimentare il sospetto e, nella peggiore delle ipotesi, la paura delle persone. Prima di credere a qualsiasi teoria, ragionate sempre con la vostra testa. Per un’analisi scientifica e seria di tutte le profezie del 2012, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

Misteriosi pilastri di luce?

11 Dic

Piu’ volte, in questo blog, abbiamo parlato di fenomeni apparentemente strani, che molto spesso vengono utilizzati da siti catastrofisti come un chiaro segnale della prossima fine del mondo.

Di argomenti di questo tipo, ne abbiamo ad esempio parlato raccontando dei suoni dell’apocalisse, delle nuvole di forma particolare apparse in qualche angolo del mondo o di strani oggetti visti in prossimita’ del Sole:

I misteriosi suoni dell’Apocalisse

Di nuovo i suoni dell’apocalisse

Una nuvola che fa pensare alla fine del mondo

Altra strana nube, questa volta in Giappone

Altra strana nube a Tulsa

Strano arcobaleno a Conca della Campania

Scoperta nuova nuvola?

Missile vicino al Sole?

Tutte, e dico tutte, le volte, analizzando questi fenomeni, ci siamo resi conto che in realta’ non c’era assolutamente nulla di nuovo o di non conosciuto dalla scienza. Semplicemente, vengono presi eventi non standard, cioe’ non proprio manifestabili tutti i giorni, per far credere che qualcosa di strano sia in corso a livello naturale.

In questi ultimi giorni, un presunto nuovo fenomeno naturale sta facendo parlare molti siti catastrofisti che ovviamente vogliono far credere che sia in corso qualcosa di straordinario.

Come forse avrete gia’ letto in qualche sito, ma sicuramente questi articoli verranno rimbalzati nei prossimi giorni su molti forum predisposti al copia/incolla, in diverse parti del mondo si starebbero manifestando i cosiddetti “pilastri di luce”, misteriosi fasci luminosi che appaiono improvvisamente all’orizzonte e che salgono verso il cielo.

Eccovi un esempio delle immagini che trovate in rete in questi giorni:

Foto di pilastri di luce apparsi in diverse parti del mondo

Foto di pilastri di luce apparsi in diverse parti del mondo

Devo dire che artisticamente, e dal punto di vista fotografico, si tratta di un fenomeno molto suggestivo. E’ necessario premettere che si tratta di foto reali, scattate in diverse parti del mondo, soprattutto nell’ultimo periodo.

Come potete facilmente immaginare, e come premesso, sul web si legge che questi fasci sarebbero una manifestazione esclusivamente degli ultimi giorni e indicherebbero un chiaro segnale alla ormai prossima fine del mondo. Alcuni, devo dire dotati di una buona fantasia, vedrebbero in questi pilastri dei segnali divini o delle strade utilizzabili per l’ascensione verso nuovi mondi o verso civilta’ aliene molto avanzate.

Cosa c’e’ di vero in tutto questo? Purtroppo, solo le foto.

Anche in questo caso, si tratta di un fenomeno molto ben conosciuto dalla scienza e molto spesso anche da fotografi professionisti che a volte si trovano a dover combattere questo effetto. Ovviamente nessun sito catastrofista vi dice di cosa si tratta in realta’, ma trovate solo titoli pomposi e articoli pieni di enfasi. Il tutto sempre condito dalla solita argomentazione che “la scienza non sa di cosa si tratta” e che “i ricercatori stanno cercando di dare una spiegazione a questo misterioso effetto”.

Niente di piu’ falso.

In termini tecnici, questo effetto e’ noto proprio come “pilastro di luce” o anche “colonna di luce”, dall’inglese “light pillar”.

A cosa e’ dovuto?

Come sappiamo bene, in atmosfera possiamo trovare gocce d’acqua. Se la temperatura e’ bassa, alcune di queste gocce possono trasformarsi in cristalli di ghiaccio.

Fin qui tutto bene.

Ora, immaginate di avere una sorgente di luce di fronte a voi bassa in angolo, cioe’ radente al vostro orizzonte. Se i cristalli di ghiaccio sono paralleli al terreno, e’ possibile che a causa della riflessione della luce sul ghiaccio, la sorgente di luce puntiforme appaia allargata formando un fascio esteso. Data l’orientazione dei cristalli, e’ evidente che i fasci di luce cosi’ formati avranno una direzione verticale, cioe’ rivolta verso il cielo.

Per meglio comprendere la causa dei pilastri di luce, possiamo far riferimento a questa immagine:

Meccanismo ottico di formazione dei light pillar

Meccanismo ottico di formazione dei light pillar

Come vedete, la luce emessa dalla sorgente a terra, viene riflessa sul ghiaccio e l’osservatore, sempre a terra e lontano dalla sorgente, vede in cielo una linea luminosa estesa verso l’alto. Questo e’ esattamente il meccanismo alla base dei “light pillar”.

Ora, perche’ proprio in questi ultimi giorni si stanno riportando testimonianza di pilastri di luce?

La spiegazione e’ molto piu’ semplice di quanto si creda. Come abbiamo visto, per poter formare i pilastri e’ necessario che ci siano molecole d’acqua in atmosfera e che queste vengano ghiacciate. Quale momento migliore di un bel piovoso inizio inverno? Come potete capire, la spiegazione del fenomeno e’ proprio stagionale. Le basse temperature permettono il congelamento dell’acqua in atmosfera creando le condizini adatte per il fenomeno.

A questo punto, facciamo un esercizio semplice. Andiamo a rivedere le foto pubblicate prima e capiamo l’origine dei pilastri. Come vedete subito, in 3 foto su 4, la sorgente della colonna luminosa e’ il Sole basso all’orizzonte. Il tramonto e’ infatti uno dei momenti migliori per poter osservare fenomeni di questo tipo. Quando il Sole e’ basso, intorno agli 8-10 gradi all’orizzonte, si hanno le condizioni ottimali per la formazione dei pilastri. Vista l’alta probabilita’ di questi fenomeni, molto spesso ci si riferisce a questi chiamandoli proprio “sun pillar” per indicare che la sorgente e’ il Sole stesso.

Nella quarta foto invece, i numerosi pilastri visibili, sono dovuti a diverse sorgenti luminose poste dietro all’abitazione in primo piano. Come vedete, la foto e’ stata scattata da una posizione praticamente parallela al terreno e dunque alla stessa altezza delle sorgenti di luce che provocano i pilastri.

Quest’ultimo esempio in particolare, ci dimostra che la formazione dei pilastri di luce puo’ essere provocata indipendentemente sia da sorgenti naturali, come il Sole, che da sorgenti artificiali.

Dunque? Cosa c’e’ di particolare e misterioso in questi fenomeni?

Alla luce di quanto dimostrato, assolutamente nulla. Anche in questo caso, si tratta di fenomeni ben conosciuti dalla scienza e che di certo non hanno fatto la loro apparizione negli ultimi giorni.

Forse, sarebbe il caso che molti siti catastrofisti prima di pubblicare certe notizie, provassero a documentarsi o, come in questo caso, a studiare un po’ di ottica, tra l’altro molto semplice poiche’ basata solo sulla riflessione della luce, fenomeno noto praticamente a tutti.

Come sempre raccomandiamo, non credete ai titoli sensazionalistici che trovate in rete. Molto spesso, la spiegazione di alcuni fenomeni e’ molto piu’ semplice di quanto vorrebbero farvi credere. Come capite bene, un’analisi scientifica e profonda delle profezie del 2012, ci consente di parlare di scienza e di affrontare argomenti molto spesso poco noti e che possono aumentare il nostro bagaglio culturale indipendentemente dal 21 Dicembre. Per partire dall’analisi delle profezie del 2012, ma soprattutto per leggere un libro di divulgazione della scienza, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.