Tag Archives: esperimenti

La fisica ha detto che Dio esiste!

16 Giu

Un nostro lettore mi ha contattato via mail per chiedermi maggiori normazioni, o meglio l’eventuale conferma o smentita, di un articolo apparso in questi giorni su alcuni siti, inutili che io vi dica nuovamente quale tipologia di siti. Al solito, e lo premetto subito, è vero che l’articolo in questione è apparso su diversi siti ma, come al solito, la “propagazione mediatica” attraverso internet, soprattutto in casi come questi, passa sempre per il becero copia/incolla che tanti hanno abitudine di fare, senza nemmeno degnarsi, non dico di verificare le fonti, ma almeno di riscrivere l’articolo con parole proprie.

Di cosa si tratta?

Questa volta si parla niente poco di meno che di Dio e del fatto che la sua esistenza sarebbe stata provata scientificamente attraverso deduzioni teoriche ed esperimenti. Davvero? La solita bufala? Chi è l’autore di queste misure? E qui il discorso si complica non poco. Lo scienziato che avrebbe fatto queste osservazioni non è un fisico qualunque ma il fisico teorica americano (di origini giapponesi) Michio Kaku.

Chi è Michio Kaku?

Avete mai sentito parlare della teoria delle stringhe? Bene, questo signore è uno dei due co-autori che per primi hanno proposto la teoria delle stringhe e la hanno formalizzata matematicamente.

Il fisico teorico Michio Kaku

Il fisico teorico Michio Kaku

Cavolo! Data la fonte, forse è il caso di capire meglio questo articolo e cercare di capire cosa avrebbe spinto, qualora l’articolo fosse vero, il famoso fisico ha fare queste affermazioni.

A questo punto però, se provate a leggere l’articolo vi rendete conto che … non si capisce nulla. Perché? Vi riporto qualche spezzone:

Uno degli scienziati più famosi e rispettati,  dichiara di aver trovato la prova dell’azione di una forza che “governa tutto”. Il noto Fisico teorico Michio Kaku ha affermato di aver creato una teoria che potrebbe comprovare l’esistenza di Dio.

Per raggiungere le sue conclusioni , il fisico ha utilizzato un “semi–radio primitivo di tachioni” (particelle teoriche che sono in grado di “decollare” la materia dell’universo o il contatto di vuoto con lei, lasciando tutto libero dalle influenze dell’universo intorno a loro), nuova tecnologia creata nel 2005 . Anche se la tecnologia per raggiungere le vere particelle di tachioni è ben lontano dall’essere una realtà , il semi-radio ha alcune proprietà di queste particelle teoriche, che sono in grado di creare l’effetto del reale tachyon in una scala subatomica .

E, ovviamente, non poteva mancare la frase ad effetto:

L’informazione ha creato molto scalpore nella comunità scientifica perché Michio Kaku è considerato uno degli scienziati più importanti dei nostri tempi, uno dei creatori e degli sviluppatori della rivoluzionaria teoria delle stringhe ed è quindi molto rispettato in tutto il mondo.

Avete capito la tipologia di articolo che stiamo prendendo in considerazione? Soltanto leggendo queste poche righe estratte dal testo dell’articolo, potete capire come il tutto sia orchestrato per non far capire nulla, sia stato copiato e tradotto malamente da un’altra lingua ma, soprattutto, la presenza di frasi ad effetto servono solo a creare enfasi atta a coprire la bufala che vi stanno facendo passare.

Andiamo con ordine.

Nella comunità scientifica non si parla d’altro. Falso, vi giuro che nella comunità scientifica si parla di “tutt’altro”! Nell’articolo si parla di tachioni come particelle teoriche ma di un semi-radio, che vi giuro non ho idea di cosa potrebbe essere secondo queste menti malate, che avrebbe le proprietà dei tachioni.

Apro e chiudo parentesi. I tachioni sono appunti particelle “pensate teoricamente” ma che non sono mai state osservate per via sperimentale. Per dirla tutta, dopo il primo entusiasmo nella formulazione dei tachioni, ormai la loro esistenza è stata messa da parte nella comunità scientifica. Come detto, si tratta di particelle immaginate solo a livello teorico, che avrebbero massa immaginaria e si muoverebbero a velocità maggiore di quella della luce. A livello teorico, non sono fantasie ma risultati possibili di equazioni.

Dunque questi tachioni, che non esistono, a contatto con la materia sarebbero in grado di “decollare la materia dell’universo”. Ma che significa? Senza che vi sforziate a cercare di capire, si tratta di frasi senza senso messe li giusto per fare scena. Leggendo questo articolo mi è tornato alla mente il film “amici miei° e la “supercazzola”. La valenza di questa frase è del tutto equivalente a quella della supercazzola appunto.

Perché questo articolo è stato tirato fuori ora?

Anche qui, come al solito, niente di speciale. Come detto diverse volte, la mancanza di spunti catastrofisti dell’ultimo periodo porta tanti siti a ritirare fuori dai loro archivi articoli datati giusto per riempire le loro homepage. Se provate a fare una ricerca su google, utilizzando come termini di ricerca proprio “Michio Kaku Dio”, trovate risultati anche molto datati, scritti esattamente allo stesso modo. Con buon probabilità, almeno da quello che ho visto, l’articolo originale da cui è partito lo storico copia/incolla è di un sito portoghese che ha pubblicato queste cavolate per primo nel 2011:

Articolo originale

Ultima domanda prima di chiudere: perché si cita nell’articolo proprio Kaku? E’ vero che si tratta di un fisico molto conosciuto ma, in fondo, tutti conoscono la teoria delle stringhe, o almeno ne hanno sentito parlare, ma non tutti ne conoscono gli autori. Parlare però di Kaku su argomenti di questo tipo è, in realtà, molto semplice. Oltre ad essere famoso per la teoria delle stringhe, Kaku è anche un noto divulgatore scientifico. Il luminare non è nuovo a teorie, diciamo, di confine e ad affermazioni che hanno fatto discutere sugli alieni, su Dio e sulla sua visione matematico/religiosa dell’universo. Per chi lo segue, Kaku è molto amato proprio per queste affermazioni perché si dedica a parlare di tutto, senza sfuggire ad argomenti fantascientifici e senza limitarsi in affermazioni poco “scientifiche”.

Detto questo, capite dunque l’assurdità dell’articolo di cui stiamo discutendo. Non credo sia necessario aggiungere altro per capire che si tratta di una bufala, tra l’altro anche datata e riciclata. Al solito, fate molta attenzione a quello che leggete e cercate sempre di fare delle verifiche autonome su siti “attendibili”. Solo in questo modo potrete evitare di credere ad articoli furbescamente realizzati con lo scopo di confondere le acque citando nomi ed argomenti ad effetto.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

L’esperimento di Ferlini e la barriera magnetica

4 Mag

Solo qualche giorno fa abbiamo pubblicato un articolo specifico sul cosiddetto “effetto Hutchinson”:

Effetto Hutchinson: realta’ o bufala?

Come visto, i fenomeni descritti in questa esperienza, che spaziano dalla levitazione alla fusione di oggetti con rilascio di energia, sarebbero provocati dalla sovrapposizione di onde elettromagnetiche in zone precise dello spazio. Nel descrivere queste esperienze, abbiamo mostrato un notevole scetticismo dettato dalla particolarita’ dei fenomeni descritti ma, soprattutto, dal fatto che l’autore stesso di questi esperimenti abbia piu’ volte dichiarato di non essere piu’ in grado di ripetere tali effetti. Ci tengo a sottolineare che la mia posizione di scettico non e’ affatto per partito preso. Come sapete, e come detto molte volte, tutti dobbiamo essere aperti a fenomeni sconosciuti e anche apparentemente assurdi purche’, come la scienza insegna, questi possano essere ripetuti da chiunque, in qualsiasi parte sotto le condizioni descritte. Solo se questo avviene possiamo considerare il metodo scientifico soddisfatto e vedere a tali nuovi fenomeni con gli occhi della scienza.

Riprendo quanto detto in questo articolo, perche’ ora vorrei raccontarvi un altro presunto esperimento che solo qualche giorno fa e’ stato richiamato da alcuni siti complottisti, sempre con il solito scopo di denigrare la scienza ufficiale e tacciarla di non voler approfondire cio’ che e’ fuori dai suoi dettami. Parlaimo questa volta del cosiddetto esperimento di Ferlini sulla barriera magnetica.

Chi e’ costui? In cosa consiste l’esperimento?

Se provate ad informarvi in rete, troverete solo una moltitudine di articoli che riprendono pari pari quanto descritto da Ferlini in un libro da lui stesso pubblicato e intitolato appunto “La barriera Magnetica”. In questo libro Ferlini descrive una serie di esperimenti che avrebbe condotto, dapprima in solitudine e poi con un gruppo di collaboratori, studiando i campi magnetici.

Prima di raccontarvi gli esperimenti, e’ importante, come vedremo dopo, dire che Ferlini inizio’ la sua carriera studiando l’antico Egitto e la costruzione delle Piramidi. In particolare, cio’ che interessava Ferlini era la possibilita’ che strani fenomeni fisici potessero accadere dentro o in prossimita’ delle piramidi a causa di soluzioni appositamente inserite durante la costruzione di questi imponenti monumenti.

Premesso questo, Ferlini racconta che un giorno giocherellando con due calamite si accorse che avvicinando i poli opposti, poco prima che questi entrassero in contatto, la zona di spazio appariva leggermente offuscata come se qualcosa di particolare accadesse al volume d’aria tra i poli stessi. Incuriosito da questo fenomeno che non riusciva a spiegare, Ferlini decise di costruire un esperimento piu’ in grande in modo da accentuare l’effetto. L’esperienza da lui realizzata, e sempre raccontata nel suo libro, prevedeva la disposizione di 4 grandi magneti di diverse tonnellate disposti con i poli opposti vicini. Ecco uno schema dell’apparato:

Disposizione dei 4 magneti nell'esperimento di Ferlini

Disposizione dei 4 magneti nell’esperimento di Ferlini

Come vedete ci sono 4 magneti a ferro di cavallo disposti con i poli Nord-Sud alternati tra loro. Dalle prime osservazioni con i piccoli magneti, Ferlini racconta di aver osservato questa deformazione dello spazio solo poco prima che i poli entrassero in contatto a causa dell’attrazione magnetica. Per poter osservare questo effetto nell’esperimento piu’ grande, Ferlini monto’ le calamite su appositi sostegni che permettevano un movimento a passi molto sottili. In questo modo era possibile avvicinare molto lentamente i poli grazie a dei fermi studiati per opporsi all’attrazione.

Bene, cosa accadde con questo esperimento?

Leggendo sempre dal libro di Ferlini, quando i magneti arrivarono nel punto preciso in cui si innescava il fenomeno, accadde qualcosa di incredibile. Nella stanza si diffuse una nebbiolina azzurra con un odore acre. Da queste proprieta’ organolettiche, i presenti capirono che si trattava di ozono. Ma non accade solo questo, la zona di spazio compresa tra i magneti, che questa volta al contrario del primo caso era molto estesa, venne deformata da questo effetto sconosciuto mai osservato prima. Ferlini, che indossava una maschera antigas per non respirare l’ozono, incuriosito da questo fenomeno, si avvicino’ al contrario dei suoi collaboratori che rimasero a distanza di sicurezza. Quando si trovo’ in prossimita’ del punto, i collaboratori videro Ferlini scomparire dalla stanza. La nebbiolina presente inizio’ lentamente a diradarsi assumendo diversi colori e solo dopo che scomparve le persone presenti videro Ferlini riapparire sprovvisto della maschera che portava prima di avvicinarsi.

Dove era finito Ferlini?

Come raccontato nel suo libro, Ferlini si ritrovo’ in Egitto, ma non nel momento dell’esperimento bensi’ al tempo in cui le piramidi erano in costruzione. Vide gli schiavi che alzavano i grandi blocchi e le piramidi cosi’ come erano quando vennero realizzate. Perche’ proprio in quel preciso punto ed in quell’epoca? Ferlini penso’ che questo strano effetto, da subito ribattezzato “barriera magnetica”, fosse un portale creato dalla forza magnetica in grado di interagire con le onde cerebrali. Come anticipato, la carriera di Ferlini inizio’ con lo studio delle piramidi e quindi la barriera magnetica era in grado di interagire con gli impulsi creati dal cervello umano realizzando viaggi nel tempo in zone ed epoche dove il soggetto voleva, anche solo inconsciamente, viaggiare.

Bene, questo e’ l’esperimento di Ferlini e questa sarebbe la barriera magnetica che lui descrive nel suo libro.

Ora posso dire la mia? Premetto, come anticipato all’inizio dell’articolo, che non voglio essere scettico di principio ma analizzando quanto viene raccontato capite bene come una verifica di queste affermazioni sarebbe, ed e’, facilmente attuabille ma, soprattutto, facilmente smentibile. Ovviamente, sui soliti siti complottisti trovate scritto che mai nessuno ha mai voluto realizzare l’esperimento di Ferlini o anche che in realta’ e’ utilizzato normalmente in alcuni grandi centri di ricerca anche se alle persone comuni non ne viene data notizia.

Prima di tutto, vi ricordo che non stiamo parlando di esperimenti impossibili da realizzare ne che richiedono strumentazione particolare. Come detto, nella prima esperienza, Ferlini si sarebbe accorto di questo fenomeno semplicmente osservando due calamite che si attraevano. Avete mai visto due calamite? Ci avete mai giocherellato? Avete mai notato una distorsione dello spazio prima che queste si attacchino a causa della forza di attrazione? Ovviamente credo che la risposta a queste domande sia quanto meno scontata.

Vi faccio notare anche un altro particolare. Prendiamo un sito qualsiasi:

Sito vendita magneti

15 euro al pezzo, ne servono 4, quattro viti senza fine per realizzare un movimento a piccoli passi, qualche bullone di supporto, con meno di 100 euro avete realizzato l’esperimento di Ferlini. Non avrete magneti da tonnellate per poter fare un viaggio nel tempo, ma sicuramente dovreste essere in grado di osservare una bella distorsione dello spazio e, se siete fortunati, anche una bella nebbiolina di ozono nella stanza. Cercando informazioni sulla rete, ho trovato diversi forum in cui gruppi di persone, anche se sconsigliate da altre, si sono dichiarate pronte a mettere in piedi l’esperimento per dimostrarne la corretteza. La cosa simpatica e’ che dopo una lunga discussione “lo faccio”, “non lo fare perdi tempo”, “no lo faccio, chi mi aiuta?”, ecc., nessuno, e dico nessuno, ha il coraggio di tornare e dire che il suo esperimento e’ stato un flop. Nonostante questo, di tanto in tanto, qualche simpatico sito ritira fuori questa storia come se fosse una novita’ assoluta. Che ci volete fare, in tempo di magra di catastrofi e complotti, ogni cosa e’ buona per cercare di accaparrarsi qualche visita sul sito.

Giusto per concludere, e per togliere ogni dubbio, il magnetismo e’ noto da tantissimo tempo. Gia’ ai tempi del greco Talete, che descrive il fenomeno, era noto che un materiale, la magnetite, era in grado di attirare limatura di ferro. Oggi, possiamo disporre di campi magnetici molto elevati per applicazioni di ricerca. Per farvi qualche esempio, il campo magnetico all’interno dell’esperimento ATLAS del CERN, si proprio quello della scoperta dell’Higgs insieme a CMS, e che viene utilizzato per curvare le particelle cariche, ha un’intensita’ di 2 Tesla, cioe’ circa 100000 volte il campo magnetico terrestre. Pensate sia tanto? Ci sono laboratori al mondo che si occupano proprio di studiare i campi magnetici cercando, per ricerca e applicazioni, di trovare materiali nuovi da poter essere utilizzati per creare campi magnetici sempre piu’ intensi. Un esempio? Nel “High Field Magnet Laboratory” in Olanda, si e’ raggiunto il valore di 38 Tesla con un sistema “economico” da soli 1.5 milioni di dollari. Questo pero’ non e’ ancora il record assoluto, anche se il laboratorio detiene il record come rapporto intensita’/prezzo, dal momento che il guiness dei primati per il campo magnetico piu’ intenso e’ del Magnet Lab della California:

Magnet Lab

dove si e’ raggiunto il valore di 45 Tesla con un sistema molto complesso da ben 15 milioni di dollari.

Ora, ragioniamo insieme, secondo voi se esistesse questo effetto “barriera magnetica” dovuto all’attrazione dei poli, nessun altro se ne sarebbe accorto, magari con un sistema in grado di generare un campo ben piu’ intenso rispetto a quello di una semplice calamita a ferro di cavallo?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

I buchi neri che … evaporano

16 Ago

Uno degli aspetti che da sempre fa discutere e creare complottismi su LHC, e’ di sicuro la possibilita’ di creare mini buchi neri. Questa teoria nasce prendendo in considerazione le alte energie in gioco all’interno del collissore del CERN e la possibilita’ che nello scontro quark-quark possa venire a crearsi una singolarita’ simile a quella dei buchi neri.

Se avete perso i precedenti articoli, di LHC abbiamo parlato in questi post:

2012, fine del mondo e LHC

Bosone di Higgs … ma che sarebbe?

Sia ben chiaro, la storia dei buchi neri non e’ la sola creata su LHC. Il CERN ogni giorno riceve lettere che chiedono la chiusura dell’esperimento per il pericolo che questo rappresenta per l’intera terra. Diverse volte il CERN e’ anche stato chiamato in giudizio a fronte di vere e proprie denuncie di pseudo scienziati che lo accusavano farneticando teorie senza capo ne’ coda. Come potete immaginare, tutte le volte le accuse sono state rigettate e non solo LHC il prossimo anno ripartira’, ma a gia’ fornito risultati fisici di prim’ordine.

Perche’ si discute tanto di buchi neri? Qui ognuno puo’ formulare la propria ipotesi. Io ho una mia idea. Parlare di buchi neri, e’ qualcosa che da sempre stimola la curiosita’ e il timore delle persone. Un buco nero e’ visto come qualcosa di misterioso che vive nel nostro universo con caratteristiche uniche nel suo genere: mangia tutto cio’ che gli capita a tiro senza far uscire nulla. L’idea di poter avere un mostro del genere qui sulla terra, scatena gli animi piu’ catastrofisti pensando a qualcosa che nel giro di qualche minuto sarebbe in grado di divorare Ginevra, la Svizzera, il mondo intero.

Come anticipato, LHC e’ ora in stato di fermo. Si sta lavorando incessantemente per migliorare i rivelatori che vi operano al fine di ottenere risultati sempre piu’ accurati e affidabili. Alla ripartenza, avendo ormai preso piu’ confidenza con la macchina, si pensa anche di poter aumentare l’energia del centro di massa, cioe’ quella a disposizione per creare nuove particelle, portandola da 7 a 10 TeV. Come e’ ovvio, questa notizia non poteva che riaccendere gli animi catastrofisti. Al momento non si e’ creato nessun buco nero perche’ l’energia era troppo bassa, gli scienziati stanno giocando con il fuoco e porteranno alla distruzione della Terra. Queste sono le argomentazioni che cominciate a leggere in rete e che non potranno che riaumentare avvicinandoci al momento della ripartenza.

Se anche dovesse formarsi un mini buco nero, perche’ gli scienziati sono tanto sicuri che non accadra’ nulla? Come sapete, si parla di evaporazione dei buchi neri. Una “strana” teoria formulata dal fisico inglese Stephen Hawking ma che, almeno da quello che leggete, non e’ mai stata verificata, si tratta solo di un’idea e andrebbe anche in conflitto con la meccanica quantistica e la relativita’. Queste sono le argomentazioni che leggete. Trovate uno straccio di articolo a sostegno? Assolutamente no, ma, leggendo queste notizie, il cosiddetto uomo di strada, non addetto ai lavori, potrebbe lasciarsi convincere che stiamo accendendo una miccia, pensando che forse si spegnera’ da sola.

Date queste premesse, credo sia il caso di affrontare il discorso dell’evaporazione dei buchi neri. Purtroppo, si tratta di teorie abbastanza complicate e che richiedono molti concetti fisici. Cercheremo di mantenere un profilo divulgativo al massimo, spesso con esempi forzati e astrazioni. Cio’ nonostante, parleremo chiaramente dello stato dell’arte, senza nascondere nulla ma solo mostrando risultati accertati.

Cominciamo proprio dalle basi parlando di buchi neri. La domanda principale che viene fatta e’ la seguente: se un buco nero non lascia sfuggire nulla dal suo interno, ne’ particelle ne’ radiazione, come potrebbe evaporare, cioe’ emettere qualcosa verso l’esterno? Questa e’ un’ottima domanda, e per rispondere dobbiamo capire meglio come e’ fatto un buco nero.

Secondo la teoria della relativita’, un buco nero sarebbe un oggetto estremamente denso e dotato di una gravita’ molto elevata. Questa intensa forza di richiamo non permette a nulla, nemmeno alla luce, di sfuggire al buco nero. Essendo pero’ un oggetto molto denso e compatto, questa forza e’ estremamente concentrata e localizzata. Immaginatelo un po’ come un buco molto profondo creato nello spazio tempo, cioe’ una sorta di inghiottitoio. La linea di confine tra la singolarita’ e l’esterno e’ quello che viene definito l’orizzonte degli eventi. Per capire questo concetto, immaginate l’orizzonte degli eventi come una cascata molto ripida che si apre lungo un torrente. Un pesce potra’ scendere e risalire il fiume senza problemi finche’ e’ lontano dalla cascata. In prossimita’ del confine, cioe’ dell’orizzonte degli eventi, la forza che lo trascina giu’ e’ talmente forte che il pesce non potra’ piu’ risalire e verra’ inghiottito.

Bene, questo e’ piu’ o meno il perche’ dal buco nero non esce nulla, nemmeno la luce. Dunque? Come possiamo dire che il buco nero evapora in queste condizioni?

La teoria dell’evaporazione, si basa sulle proprieta’ del vuoto. Come visto in questo articolo:

Se il vuoto non e’ vuoto

nella fisica, quello che immaginiamo come vuoto, e’ un continuo manifestarsi di coppie virtuali particella-antiparticella che vivono un tempo brevissimo e poi si riannichilano scomparendo. Come visto nell’articolo, non stiamo parlando di idee campate in aria, ma di teorie fisiche dimostrabili. L’effetto Casimir, dimostrato sperimentalmente e analizzato nell’articolo citato, e’ uno degli esempi.

Ora, anche in prossimita’ del buco nero si creeranno coppie di particelle e questo e’ altresi’ possibile quasi in prossimita’ dell’orizzonte degli eventi. Bene, ragioniamo su questo caso specifico. Qualora venisse creata una coppia di particelle virtuali molto vicino alla singolarita’, e’ possibile che una delle due particelle venga assorbita perche’ troppo vicina all’orizzonte degli eventi. In questo caso, la singola particella rimasta diviene, grazie al principio di indeterminazione di Heisenberg, una particella reale. Cosa succede al buco nero? Nei testi divulgativi spesso leggete che il buco nero assorbe una particella con energia negativa e dunque diminuisce la sua. Cosa significa energia negativa? Dal vuoto vengono create due particelle. Per forza di cose queste avranno sottratto un po’ di energia dal vuoto che dunque rimarra’ in deficit. Se ora una delle due particelle virtuali e’ persa, l’altra non puo’ che rimanere come particella reale. E il deficit chi lo paga? Ovviamente il buco nero, che e’ l’unico soggetto in zona in grado di pagare il debito. In soldoni dunque, e’ come se il buco nero assorbisse una particella di energia negativa e quindi diminuisse la sua. Cosa succede alla particella, ormai reale, rimasta? Questa, trovandosi oltre l’orizzonte degli eventi puo’ sfuggire sotto forma di radiazione. Questo processo e’ quello che si definisce evaporazione del buco nero.

Cosa non torna in questo ragionamento?

Il problema principale e’, come si dice in fisica, che questo processo violerebbe l’unitarieta’. Per le basi della meccanica quantistica, un qualunque sistema in evoluzione conserva sempre l’informazione circa lo stato inziale. Cosa significa? In ogni stato e’ sempre contenuta l’indicazione tramite la quale e’ possibile determinare con certezza lo stato precedente. Nel caso dei buchi neri che evaporano, ci troviamo una radiazione termica povera di informazione, creata dal vuoto, e che quindi non porta informazione.

Proprio da questa assunzione nascono le teorie che potete leggere in giro circa il fatto che l’evaporazione non sarebbe in accordo con la meccanica quantistica. Queste argomentazioni, hanno fatto discutere anche i fisici per lungo tempo, cioe’ da quando Hawking ha proposto la teoria. Sia ben chiaro, la cosa non dovrebbe sorprendere. Parlando di buchi neri, stiamo ragionando su oggetti molto complicati e per i quali potrebbero valere  leggi modificate rispetto a quelle che conosciamo.

Nonostante questo, ad oggi, la soluzione al problema e’ stata almeno “indicata”. Nel campo della fisica, si racconta anche di una famosa scommessa tra Hawking e Preskill, un altro fisico teorico del Caltech. Hawking sosteneva che la sua teoria fosse giusta e che i buchi neri violassero l’unitarieta’, mentre Perskill era un fervido sostenitore della inviolabilita dei principi primi della meccanica quantistica.

La soluzione del rebus e’ stata indicata, anche se ancora non confermata, come vedremo in seguito, chiamando in causa le cosiddette teorie di nuova fisica. Come sapete, la teoria candidata a risolvere il problema della quantizzazione della gravita’ e’ quella delle stringhe, compatibile anche con quella delle brane. Secondo questi assunti, le particelle elementari non sarebbero puntiformi ma oggetti con un’estensione spaziale noti appunto come stringhe. In questo caso, il buco nero non sarebbe piu’ una singolarita’ puntiforme, ma avrebbe un’estensione interna molto piu’ complessa. Questa estensione permette pero’ all’informazione di uscire, facendo conservare l’unitarieta’. Detto in altri termini, togliendo la singolarita’, nel momento in cui il buco nero evapora, questo fornisce ancora un’indicazione sul suo stato precedente.

Lo studio dei buchi neri all’interno della teoria delle stringhe ha portato al cosiddetto principio olografico, secondo il quale la gravita’ sarebbe una manifestazione di una teoria quantistica che vive in un numero minore di dimensioni. Esattamente come avviene in un ologramma. Come sapete, guardando un ologramma, riuscite a percepire un oggetto tridimensionale ma che in realta’ e’ dato da un immagine a 2 sole dimensioni. Bene, la gravita’ funzionerebbe in questo modo: la vera forza e’ una teoria quantistica che vive in un numero ridotto di dimensioni, manifestabili, tra l’altro, all’interno del buco nero. All’esterno, con un numero di dimensioni maggiori, questa teoria ci apparirebbe come quella che chiamiamo gravita’. Il principio non e’ assolutamente campato in aria e permetterebbe anche di unificare agevolmente la gravita’ alle altre forze fondamentali, separate dopo il big bang man mano che l’universo si raffreddava.

Seguendo il ragionamento, capite bene il punto in cui siamo arrivati. Concepire i buchi neri in questo modo non violerebbe assolutamente nessun principio primo della fisica. Con un colpo solo si e’ riusciti a mettere insieme: la meccanica quantistica, la relativita’ generale, il principio di indeterminazione di Heisenberg, le proprieta’ del vuoto e la termodinamica studiando la radiazione termica ed estendendo il secondo principio ai buchi neri.

Attenzione, in tutta questa storia c’e’ un pero’. E’ vero, abbiamo messo insieme tante cose, ma ci stiamo affidando ad una radiazione che non abbiamo mai visto e alla teoria delle stringhe o delle brance che al momento non e’ confermata. Dunque? Quanto sostenuto dai catastrofisti e’ vero? Gli scienziati rischiano di distruggere il mondo basandosi su calcoli su pezzi di carta?

Assolutamente no.

Anche se non direttamente sui buchi neri, la radiazione di Hawking e’ stata osservata in laboratorio. Un gruppo di fisici italiani ha osservato una radiazione paragonabile a quella dell’evaporazione ricreando un orizzonte degli eventi analogo a quello dei buchi neri. Come visto fin qui, l’elemento fondamentale del gioco, non e’ il buco nero, bensi’ la curvatura della singolarita’ offerta dalla gravita’. Bene, per ricreare un orizzonte degli eventi, basta studiare le proprieta’ ottiche di alcuni materiali, in particolare il loro indice di rifrazione, cioe’ il parametro che determina il rallentamento della radiazione elettromagnetica quando questa attraversa un mezzo.

Nell’esperimento, si e’ utilizzato un potente fascio laser infrarosso, in grado di generare impulsi cortissimi, dell’ordine dei miliardesimi di metro, ma con intensita’ miliardi di volte maggiore della radiazione solare. Sparando questo fascio su pezzi di vetro, il punto in cui la radiazione colpisce il mezzo si comporta esattamente come l’orizzonte degli eventi del buco nero, creando una singolarita’ dalla quale la luce presente nell’intorno non riesce ad uscire. In laboratorio si e’ dunque osservata una radiazione con una lunghezza d’onda del tutto paragonabile con quella che ci si aspetterebbe dalla teoria di Hawking, tra 850 e 900 nm.

Dunque? Tutto confermato? Se proprio vogliamo essere pignoli, no. Come visto, nel caso del buco nero gioca un ruolo determinante la gravita’ generata dal corpo. In laboratorio invece, la singolarita’ e’ stata creata otticamente. Ovviamente, mancano ancora degli studi su questi punti, ma l’aver ottenuto una radiazione con la stessa lunghezza d’onda predetta dalla teoria di Hawking e in un punto in cui si genera un orizzonte degli eventi simile a quello del buco nero, non puo’ che farci sperare che la teoria sia giusta.

Concludendo, l’evaporazione dei buchi neri e’ una teoria molto complessa e che richiama concetti molto importanti della fisica. Come visto, le teorie di nuova fisica formulate in questi anni, hanno consentito di indicare la strada probabile per risolvere le iniziali incompatibilita’. Anche se in condizioni diverse, studi di laboratorio hanno dimostrato la probabile esistenza della radiazione di Hawking, risultati che confermerebbero l’esistenza della radiazione e dunque la possibilita’ dell’evaporazione. Ovviamente, siamo di fronte a teorie in parte non ancora dimostrate ma solo ipotizzate. I risultati ottenuti fino a questo punto, ci fanno capire pero’ che la strada indicata potrebbe essere giusta.

Vorrei chiudere con un pensiero. Se, a questo punto, ancora pensate che potrebbero essere tutte fantasie e che un buco nero si potrebbe creare e distruggere la Terra, vi faccio notare che qui parliamo di teorie scientifiche, con basi solide e dimostrate, e che stanno ottenendo le prime conferme da esperimenti diretti. Quando leggete le teorie catastrofiste in rete, su quali basi si fondano? Quali articoli vengono portati a sostegno? Ci sono esperimenti di laboratorio, anche preliminari ed in condizioni diverse, che potrebbero confermare quanto affermato dai catastrofisti?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

IceCube e l’esplorazione del cosmo con i neutrini

22 Mag

Nell’articolo precedente, abbiamo parlato di neutrini:

EniGma con Nadir Mura

come visto nell’intervista, e come sicuramente ricorderete, queste particelle sono balzate agli onori delle cronache soprattutto a seguito della misura, poi trovata affetta da errori strumentali, che voleva i neutrini viaggiare ad una velocita’ superiore a quella della luce.

Ora, vorrei tornare nuovamente a parlare di queste particelle, a causa di una nuova misura fisica che sta facendo molto discutere.

Come sappiamo bene, i neutrini sono particelle molto particolari soprattutto a cusa della loro bassa probabilita’ di interazione con la materia, che li rende difficilmente rivelabili. Fino a pochi ani fa, si pensava addirittura che i neutrini non avessero massa, cosa smentita poi grazie alla ricerca e all’osservazione dell’oscillazione dei neutrini, cioe’ della proprieta’ di queste particelle di trasformarsi durante il cammino da una famiglia all’altra.

Proprio a causa di queste proprieta’ cosi’ particolari, i neutrini vengono studiati in diversi esperimenti e, molto spesso, in condizioni quasi estreme. Come detto, la bassa probabilita’ di osservazione, impone agli esperimenti di eliminare all’origine tutto il “rumore” da altre fonti, cioe’ quanto piu’ possibile, ogni altro evento prodotto da particelle diverse e che rischierebbe di coprire, a cuasa della maggiore probabilita’, i neutrini da rivelare.

Proprio per qusto motivo, si sente spesso parlare di rivelatori disposti in angoli remoti del mondo, all’interno delle miniere, sotto kilometri di roccia come nei laboratoridel Gran Sasso o anche immersi ad elevate profondita’ nel mare. Il motivo di questo e’, come anticipato, avere uno schermo naturale in grado di fermare le altre particelle lascinado passare i neutrini. Questi ultimi, a causa della bassa probabilita’ di interazione, passano con molta facilita’ kilometri di materiale senza interagire con la materia.

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Dopo questa doverosa introduzione, vorrei parlarvi di IceCube, uno dei maggiori rivelatori di neutrini, costruito addirittura sotto i ghiacci dell’Antartide. IceCube e’ composto da un elevato numero di elementi sensibili, sepolti ad ua profondita’ variabile tra 1500 e 2500 metri di ghiaccio. La matrice cosi’ ottenuta consente di avere una superficie da rivelare dell’odine di 1 kilometro cubo.

Perche’ sto parlando di neutrini ed in particolare di IceCube?

Scopo di questi esperimenti e’ quello di studiare i neutrini provenienti dal sole o dai raggi cosmici, anche per rivelare nuove sorgenti astrofisiche. Il motivo di questo e’ molto semplice: studire le emissioni di neutrini da parte di oggetti nell’universo, consente di ottenere una sorta di telescopio con queste particelle e dunnque poter analizzare, anche in questo modo, lo spazio che ci circonda.

Bene, l’anno scorso, quasi per caso, IceCube ha individuato due neutrini con l’energia piu’ alta mai registrata sulla Terra, dell’ordine del petaelettronvolt. Per capire quanto sia elevata questa energia, basti pensare che LHC, il grande collisore del CERN, fa scontrare particelle con energia di 3.5 teraelettronvolt, cioe’ circa 300 volte inferiore a quella osservata da ICeCube. Durante l’analisi dei dati condotta per studiare questi eventi particolari, ci si e’ accorti che tra il 2010 e il 2012, il rivelatore avrebbe visto 26 eventi di alta energia, circa 10 volte quella di LHC.

Perche’ sono importanti questi eventi? Nel nostro sistema solare, l’unica sorgente di neutrini presente e’ il Sole. Questi pero, avendo energia molto piu’ bassa, non possono aver generato quanto osservato dai fisici di IceCube. Come potete capire, si tratta, con ottima probabilita’, di una sorgente extragalattica, non ancora identificata.

Dai modelli elaborati, le sorgenti di neutrini nello spazio potrebbero essere le esplosioni di Supernovae, i gamma ray burst o i quasar. Nell’idea, come anticipato, di realizzare un telescopio a neutrini dell’universo, molto interessante sarebbe individuare questa sorgente. Purtroppo, ad oggi, questo non e’ stato ancora possibile, soprattutto a causa dei pochi eventi raccolti all’esperimento.

Anche se manca la spiegazione ufficiale, possaimo provare a formulare ipotesi circa l’origine di questi eventi, soprattutto per capire l’importanza di questo risultato.

Dei gamma ray burst abbiamo parlato in questo post:

WR104: un fucile puntato verso la Terra?

Ccome visto, la conoscenza di questi eventi, ma soprattutto, eventualmente, il poter studiare il loro comportamento diretto, ci permetterebbe di aumentare la nostra conoscenza dell’universo e, perche’ no, magari in futuro farci confermare o smentire idee catastrofiste.

In passato, precisamente nel 1987, sulla Terra arrivarono, ad esempio, i neutrini prodotti da una supernova molto distante nella Nube di Magellano. Anche in questo caso, eventi come quelli delle esplosioni di supernovae ci consentono di comprendere meglio importanti meccanismi alla base dell’universo.

Altre ipotesi formulate riguardano invece la materia oscura, di cui abbiamo parlato in questi post:

La materia oscura

Troppa antimateria nello spazio

Come visto, ad oggi, ci accorgiamo della presenza di materia oscura mediante considerazioni indirette. Purtroppo, non e’ stato ancora possibile individuare questa curiosa forma di materia, anche se molte ipotesi sono state formulate. Proprio l’astrofisica a neutrini potrebbe aiutare a sciogliere qualche riserva. Secondo alcune ipotesi infatti, i neutrini potrebbero essere stati prodotti dallo scontro di materia oscura nel centro della nostra Galassia. In questo caso, studiare in dettaglio i parametri dei candidati, aiuterebbe molto ad individuare la sorgente di produzione dei neutrini ma anche, e soprattutto, di ottenere maggiori informazioni sull’origine della Via Lattea e sulla natura della meteria oscura.

Concludendo, IceCube ha individuato 26 neutrini di alta energia che hanno attraversato i suoi rivelatori. Statisticamente, la probabilita’ che si tratti di un errore e’ inferiore  allo 0,004% per cui sara’ interessante analizzare i dati e capire meglio quali test organizzare nel futuro per cercare di risolvere importanti dubbi che ormai da troppo tempo sono in attesa di una spiegazione ufficiale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Abduction e falsi ricordi

29 Gen

Sulla scia dei post precedenti, continuiamo ancora a parlare di alieni, ma questa volta facciamolo in modo leggermente diverso. Su suggerimento di un nostro accanito lettore, vorrei parlare di un tema molto dibattuto in questi ultimi tempi, quello dei rapimenti alieni, o in inglese “Alien abduction”.

Capite subito che in questo caso stiamo entrando in un terreno abbastanza difficile, in cui la sola scienza fisica non e’ sufficiente. Anche in questo caso pero’, manterremo un approccio scientifico agli eventi, non partendo prevenuti, ma analizzeremo i fatti contestualizzandoli alla luce delle testimonianze.

Sicuramente tutti avrete sentito parlare, almeno una volta, di rapimento alieno. Negli ultimi tempi, il racconto di questi fatti ha fatto la fortuna di molte trasmissioni TV ma anche di siti internet agli antipodi della scienza e della divulgazione.

Il fenomeno delle abduction ha avuto un’impennata esponenziale a partire dalla fine degli anni ’80, anche se i primi casi risalgono addirittura ai primi anni ’50 del secolo scorso. Per avere un quadro generale, cerchiamo di identificare dei fattori comuni ai tantissimi casi di rapimento.

alienabduction

Come forse saprete, in molti di questi casi, i rapiti raccontano di essere stati avvolti in un fascio di luce molto intensa, per strada, nel proprio letto o anche dentro le proprie abitazioni, e di essersi svegliati dopo un tempo imprecisato all’interno di astronavi tecnologicamente molto avanzate. Il risveglio, sempre secondo i racconti, avviene sempre su un tavolo simile a quello delle autopsie dove il rapito e’ disteso seminudo e circondato da alieni. Sulla descrizione degli alieni, le storie sono un po’ diversificate, soprattutto per quanto riguarda l’altezza, il colore degli occhi, la forma della testa, ecc.

Perche’ il rapito e’ disteso sul lettino? Tutti i casi concordano sul fatto che diversi controlli sono stati fatti per cercare di studiare l’organismo umano attraverso test piu’ o meno invasivi. In molti di questi casi, gli alieni riescono anche a comunicare con il rapito cercando di tranquillizzarlo. Questa comunicazione, a seconda del racconto, avviene o per via orale o attraverso la telepatia.

Al termine dei test, molti testimoni giurano di essersi risvegliati in stato confusionale in luoghi diversi da quelli del rapimento. In molti casi, i testimoni riportano diverse cicatrici, anche molto vistose, sul proprio corpo e alcuni di questi parlano anche di misteriosi congegni innestati all’interno dell’organismo per studio o per controllo del corpo umano a distanza.

Anche se con qualche sfumatura, questo e’ il racconto tipico che viene narrato per descrivere il fenomeno delle abduction.

Bene, a questo punto facciamo qualche considerazione oggettiva su questi rapimenti.

Personalmente, la prima domanda che mi viene in mente, e a cui non ho trovato una risposta e’: “possibile che gli alieni debbano rapire un essere umano, aprirlo e vedere come e’ fatto?”. Cosa significa questo? Mi spiego meglio. Se i racconti fossero veri, stiamo parlando di forme di vita in grado di viaggiare liberamente nell’universo sfruttando tecnologie per noi non concepibili, punto di vista condiviso anche da molti sostenitori degli ufo. Bene, questi alieni cosi’ avanzati lasciano cicatrici cosi’ vistose sul corpo? Vi faccio notare che noi, razza umana preistorica a detta dei rapiti, al giorno d’oggi riusciamo a condurre molte operazioni senza lasciare cicatrici o comunque lasciando segni di dimensioni estremamente ridotte, pensate ad esempio al laser o alla laparoscopia. Tra l’altro, se fosse vero quanto raccontato, questa razza aliena sarebbe in grado di fare viaggi cosmici, ma dovrebbe tornare a studiare la biologia, la fisiologia e la medicina. Diciamo che, sempre personalmente, questo aspetto mi ha sempre fatto riflettere.

Premesso questo, vorrei invece riportarvi un dato incontrovertibile. In tutti i casi di rapimento, non si trova mai una cartella clinica del rapito frutto di test medici condotti dopo l’abduction. Fate attenzione, anche quando queste cose vi vengono raccontate in TV, non trovate mai un medico che visita il rapito, ma sempre ricercatori indipendenti, ufologi o quando trovate un medico vero questo mostra sempre tutto il suo scetticismo.

Altro punto fondamentale, in tutti i casi di rapimento alieno mai, e dico mai, ci sono testimoni esterni che vedono il rapimento. In tutti questi casi, il rapito e’ l’unico testimone dei fatti. Non vorrei fare il S. Tommaso della situazione, ma per credere ad una cosa del genere, il rapito non conta come testimone.

Anche sui famosi impianti di cui si parla, non esistono analisi scientifiche portate a sostegno di queste ipotesi. In alcuni casi, di questi presunti impianti non e’ stata trovata traccia a seguito di accurate ricerche mediche, mentre in altri casi ancora sono stati trovati piccoli oggetti chiaramente di natura umana.

A volte poi, soprattutto in TV, si pubblicizzano casi di fecondazione su esseri umani ad opera di alieni o di strane malattie inspiegabili causate dai test clinici effettuati sulle astronavi. Mentre nei primi casi si e’ chiaramente dimostrata la falsificazione degli eventi e dei presunti feti, nel caso delle malattie, molto spesso si mostrano immagini di malattie molto rare, ma gia’ conosciute dalla scienza.

A sostegno di quanto detto finora, vi vorrei raccontare uno dei casi piu’ famosi di rapimento alieno avvenuto in Francia. Nel 1979, un gruppo di tre ragazzi si trovava nei pressi di Cergy-Pontoise ed avrebbe visto chiaramente un UFO. Mentre due ragazzi scappavano, il terzo sarebbe stato rapito. Lo sfortunato membro del terzetto sarebbe poi stato ritrovato in stato confusionale solo 8 giorni dopo e avrebbe raccontato alle autorita’ dei fatti molto simili a quelli descritti all’inizio dell’articolo. Questo avvenimento fece molto scalpore e molto se ne parlo’, anche fuori dai confini francesi, anche perche’ si trattava di uno dei primi casi di abduction. Bene, 3 anni dopo i fatti, cioe’ appena scaduti i termini di prescrizione di legge, i ragazzi confessarono di aver inventato di sana pianta tutta la storia, dall’avvistamento fino al rapimento, di comune accordo tra loro. Negli 8 giorni della sparizione, il rapito si trovava in una casa di campagna di un quarto amico del gruppo. Scopo della massa in scena? Come dichiarato dai ragazzi, capire quanto questa storia potesse essere credibile per l’opione pubblica. Risultato: esperimento perfettamente riuscito.

A questo punto pero’, vorrei fare una precisazione. Con quanto detto, non sto affatto affermando che tutti i presunti rapiti siano mitomani in cerca di un momento di gloria. Sicuramente ci saranno soggetti di questo tipo, ma in molti casi il racconto avviene in buona fede.

Per capire meglio questo fondamentale punto, e’ necessario interrogare la psicologia e la medicina. Come gia’ saprete, molti dei rapimenti affiorano nella memoria dei rapiti non direttamente, ma solo a seguito, ad esempio, di ipnosi regressiva, cioe’ una tecnica utilizzata per far riaffiorare i ricordi dimenticati.

Premesso che secondo molti luminari queste tecniche non possono considerarsi valide dal punto di vista medico, spesso queste metodologie possono essere utili in caso di amnesie indotte o relative ad eventi traumatici. Nonostante questo, dobbiamo chiarire che esistono anche i cosiddetti “falsi ricordi” o i “ricordi di massa”. Cosa sono? Il nostro cervello e’ in grado di elaborare dei ricordi, del tutto o in parte, non reali a seguito, ad esempio, di sogni, di immagini parziali osservate dal vivo o attraverso la TV o anche a seguito di raconti da parte di altre persone. In questo caso, i segni cerebrali relativi al ricordo falso sono del tutto identici ad uno reale. Detto in altri termini, e’ come immaginare qualcosa e farlo diventare reale nei nostri ricordi, come qualcosa accaduto in realta’. Ovviamente, non stiamo parlando per sentito dire, ma stiamo affrontando tematiche mediche vere, e su cui potete trovare una ricca bibliografia anche in rete.

Diversi esperimenti sono stati condotti nel corso degli anni per validare la teoria dei falsi ricordi. Queste ricerche hanno evidenziato dunque una particolare correlazione tra stimoli mentali e visivi e la costruzione di ricordi falsi ma del tutto reali per il soggetto in esame. Simile e’ il discorso delle memorie collettive o ricordi di massa. Anche in questo caso siamo di fronte ad un ricordo non reale, ma costruito dal nostro cervello, solo che la causa non e’ piu’ uno stimolo individuale subito dal soggetto, bensi’ un pensiero comune o un fatto accaduto a tante persone e piu’ volte ascoltato, che il nostro cervello incamera come un ricordo personale. Interessante e’, ad esempio, lo studio condotto da ricercatori italiani sulla memoria di massa dell’orologio della stazione di Bologna, uno dei simboli dell’attentato del 1980 e che trovate raccontato a questo link:

Memorie di massa

Bene, in molti casi e’ stato evidenziato che, dal momento che neurologicamente i falsi ricordi sono del tutto simili a quelli reali, agendo con l’ipnosi regressiva, si portano a galla sia eventi reali che costruiti, senza poterli distinguere tra loro.

Cosa significa questo? Come avrete capito, diversi casi di abduction possono essere ricondotti al fenomeno dei falsi ricordi o delle memorie di massa. In questo senso, non pensiamo che chi racconta questi avvenimenti sia solo in cerca di pubblicita’ personale. Molto spesso il continuo bombardamento mediatico a cui siamo sottoposti, puo’ creare dei falsi ricordi che poi vengono incamerati in alcuni individui creando un passato parallelo. Questa spiegazione e’ in grado anche di chiarire il perche’, dai primi sporadici eventi degli anni ’80, si e’ avuto un numero sempre crescente di casi di questo tipo. Negli ultimi anni poi, a causa della grande propaganda fatta in TV e sulla rete, il numero dei rapiti da parte degli alieni e’ del tutto esploso. Alla luce di quanto detto, questa teoria spiegherebbe anche perfettamente perche’ molti testimoni riportano quasi sempre gli stessi fatti e gli stessi contesti in cui e’ avvenuto il rapimento o le visite da parte degli esseri alieni.

Concludendo, molti dei casi di abduction possono essere considerati dei falsi. Diversi di questi sono stati anche smascherati in TV dopo che la trasmissione in particolare aveva magari fatto decine di speciali sui singoli casi. In nessun caso considerato reale vi sono delle prove mediche, o anche delle semplici analisi, condotte con metodologia scientifica a sostegno delle ipotesi. Non ultimo, visto anche il crescente numero di rapimenti e la simile metodologia riportata, molti dei soggetti potrebbero essere vittime di falsi ricordi o di memorie di massa. Queste costruzioni cerebrali sono una realta’ medica a cui diversi esperimenti condotti negli anni hanno dato ragione.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: economia

5 Gen

Nel post precedente:

Perche’ la ricerca: scienza e tecnologia

abbiamo cercato di rispondere alla domanda “perche’ fare ricerca?” discutendo il lato tecnologico e le possibili ricadute scientifiche nella vita di tutti i giorni. Come detto, stiamo cercando di rispondere a questa domanda non in senso generale, ma proprio contestualizzando la risposta in questi anni di profonda crisi economica o, comunque, investendo nella ricerca a discapito di settori considerati piu’ importanti o vitali per tutti i cittadini.

Dopo queste considerazioni piu’ tecniche, vorrei invece analizzare il discorso economico della ricerca. Come sappiamo, e come abbiamo visto nel precedente post, fare ricerca ad alti livelli implica investimenti molto massicci. Tolte le ricadute tecnologiche, cerchiamo invece di capire se sono investimenti a fondo perduto o se implicano un ritorno economico tangibile per le nazioni.

Come nel caso precedente, prendiamo come esempio tra grandi ricerche in settori diversi per cercare di quantificare in modo pratico, numeri alla mano. I soliti tre esempi sono: ITER, il reattore a fusione per scopi di ricerca, le missioni spaziali e il CERN, come esempio di grande laboratorio per la fisica delle particelle.

Partiamo da ITER e partiamo con una considerazione che ci deve far riflettere. ITER e’ una collaborazione internazionale in cui entrano gli Stati Uniti, il Giappone e alcuni paesi europei. Come detto, parliamo di un investimento dell’ordine di 10 miliardi di euro. Forse vi fara’ riflettere il fatto che Francia e Giappone hanno discusso per lungo tempo proprio per cercare di costruire il reattore nel proprio paese. Ovviamente averlo in casa offre dei vantaggi notevoli in termini di ricadute tecnologiche, ma sicuramente implica una maggiore spesa per il paese ospitante. Conoscendo la situazione economica attuale, se un paese cerca in tutti i modi di averlo in casa e dunque spendere di piu’, significa che qualcosa indietro deve avere.

Passiamo invece alle missioni spaziali. Altro tema scottante nel discorso economico e molte volte visto come una spesa enorme ma non necessaria in tempi di crisi. Partiamo, ad esempio, dal discorso occupazionale. Molte volte sentiamo dire dai nostri politicanti o dagli esperti di politica ecnomica che si devono fare investimenti per creare posti di lavoro. Vi faccio un esempio, al suo apice, il programma di esplorazione Apollo dava lavoro a circa 400000 persone. Non pensiamo solo agli scienziati. Un programma del genere crea occupazione per tutte le figure professionali che vanno dall’operaio fino al ricercatore, dall’addetto alle pulizie dei laboratori fino all’ingegnere. Ditemi voi se questo non significa creare posti di lavoro.

Passando invece all’esempio del CERN, sicuramente i numeri occupazionali sono piu’ piccoli, ma di certo non trascurabili. Al CERN ci sono circa 2500 persone che tutti i giorni lavorano all’interno del laboratorio. A questi numeri si devono poi sommare quelli dei paesi che partecipano agli esperimenti ma non sono stanziali a Ginevra. In questo caso, arriviamo facilmente ad una stima intorno alle 15000 unita’.

A questo punto pero’ sorge una domanda che molti di voi si staranno gia’ facendo. LHC, come esempio, e’ costato 6 miliardi di euro. E’ vero, abbiamo creato posti di lavoro, ma la spesa cosi’ elevata giustifica questi posti? Con questo intendo, se il ritorno fosse solo di numeri occupazionali, allora tanto valeva investire cifre minori in altri settori e magari creare piu’ posti di lavoro.

L’obiezione e’ corretta. Se il ritorno fosse solo questo, allora io stesso giudicherei l’investimento economico, non scientifico, fallimentare. Ovviamente c’e’ molto altro in termini finanziari.

Prima di tutto vi devo spiegare come funziona il CERN. Si tratta di un laboratorio internazionale, nel vero senso della parola. Il finanziamento del CERN viene dai paesi membri. Tra questi, dobbiamo distinguere tra finanziatori principali e membri semplici. Ovviamente i finanziatori principali, che poi sono i paesi che hanno dato il via alla realizzazione del CERN, sono venti, tra cui l’Italia, ma, ad esempio, alla costruzione di LHC hanno partecipato circa 50 paesi. Essere un finanziatore principale comporta ovviamente una spesa maggiore che viene pero’ calcolata anno per anno in base al PIL di ogni nazione.

Concentriamoci ovviamente sul caso Italia, ed in particolare sugli anni caldi della costruzione di LHC, quelli che vanno dal 2000 al 2006, in cui la spesa richiesta era maggiore.

Nel 2009, ad esempio, il contributo italiano e’ stato di 83 milioni di euro, inferiore, in termini percentuali, solo a Francia, Germania e Regno Unito.

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liasion Officer

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liaison Officer

Il maggiore ritorno economico per i paesi e’ ovviamente in termini di commesse per le industrie. Che significa questo? Servono 100 magneti, chi li costruisce? Ovviamente le industrie dei paesi membri che partecipano ad una gara pubblica. Il ritorno economico comincia dunque a delinearsi. Investire nel CERN implica un ritorno economico per le industrie del paese che dunque assumeranno personale per costruire questi magneti. Stiamo dunque facendo girare l’economia e stiamo creando ulteriori posti di lavoro in modo indiretto.

Apriamo una parentesi sull’assegnazione delle commesse. Ovviamente si tratta di gare pubbliche di appalto. Come viene decretato il vincitore? Ogni anno, il CERN calcola un cosiddetto “coefficiente di giusto ritorno”, e’ un parametro calcolato come il rapporto tra il ritorno in termini di commesse per le industrie e il finanziamento offerto alla ricerca. Facciamo un esempio, voi investite 100 per finanziare la costruzione di LHC, le vostre industrie ottengono 100 di commesse dal CERN, il coefficiente di ritorno vale 1.

Ogni anno, in base al profilo di spesa, ci saranno coefficienti diversi per ciascun paese. Si parla di paesi bilanciati e non bilanciati a seconda che il loro coefficiente sia maggiore o minore del giusto ritorno. In una gara per una commessa, se l’industria di un paese non bilanciato arriva seconda dietro una di un paese gia’ bilanciato, e lo scarto tra le offerte e’ inferiore al 20%, allora l’industria del paese non bilanciato puo’ aggiudicarsi la gara allineandosi con l’offerta del vincitore. In questo modo, viene ripartito equamente, secondo coefficienti matematici, il ritorno per ciascun paese.

Cosa possiamo dire sull’Italia? Negli anni della costruzione di LHC, LItalia ha sempre avuto un coefficiente molto superiore al giusto ritorno. Per dare qualche numero, tra il 1995 e il 2008, il nostro paese si e’ aggiudicato commesse per le nostre aziende per un importo di 337 milioni di euro.

Vi mostro un altro grafico interessante, sempre preso dal rapporto del prof. S.Centro dell'”Industrial Liaison Officer for Italian industry at CERN”:

Commesse e coefficiente di ritorno per l'Italia. Fonte: S.Centro, Industrial Liaison Officer

Commesse e coefficiente di ritorno per l’Italia. Fonte: S.Centro, Industrial Liaison Officer

A sinistra vedete gli importi delle commesse per gli anni in esame per il nostro Paese, sempre in milioni di euro, mentre a destra troviamo il coefficiente di ritorno per l’Italia calcolato in base all’investimento fatto. Tenete conto che in quesgli anni, la media del giusto ritorno calcolato dal CERN era di 0.97.

Guardando i numeri, non possiamo certo lamentarci o dire che ci abbiano trattato male. La conclusione di questo ragionamento e’ dunque che un investimento nella ricerca scientifica di qualita’, permette un ritorno economico con un indotto non indifferente per le aziende del paese. Ogni giorno sentiamo parlare di rilancio delle industrie, di creazione di posti di lavoro, di rimessa in moto dell’economia, mi sembra che LHC sia stato un ottimo volano per tutti questi aspetti.

Ultima considerazione scientifico-industriale. Le innovazioni apportate facendo ricerca scientifica, non muoiono dopo la realizzazione degli esperimenti. Soluzioni tecnologiche e migliorie entrano poi nel bagaglio industriale delle aziende che le utilizzano per i loro prodotti di punta. Molte aziende vengono create come spin-off di laboratori, finanziate in grossa parte dalla ricerca e poi divengono delle realta’ industriali di prim’ordine. L’innovazione inoltra porta brevetti che a loro volta creano un ritorno economico futuro non quantificabile inizialmente.

Concludendo, anche dal punto di vista economico, fare ricerca non significa fare finanziamenti a fondo perduto o fallimentari. Questo sicuramente comporta un ritorno economico tangibile immediato. Inoltre, il ritorno in termini tecnologici e di innovazione non e’ quantificabile. Fare ricerca in un determinato campo puo’ portare, immediatamente o a distanza di anni, soluzioni che poi diventeranno di uso comune o che miglioreranno settori anche vitali per tutti.

Vi lascio con una considerazione. Non per portare acqua al mulino della ricerca, ma vorrei farvi riflettere su una cosa. In questi anni di crisi, molti paesi anche europei, ma non l’Italia, hanno aumentato i fondi dati alla ricerca scientifica. A fronte di quanto visto, forse non e’ proprio uno sperpero di soldi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: scienza e tecnologia

4 Gen

Molte volte, parlando di scienza e di ricerca scientifica, mi viene fatta una domanda apparentemente banale, ma che in realta’ nasconde un vero e proprio mondo: Perche’ fare ricerca?

Ovviamente in questo caso non parlo del senso letterale della domanda. E’ noto a tutti che la ricerca scientifica ci permette di aumentare la nostra conoscenza del mondo, dei meccanimi della natura e ci consente di dare un piccolo contributo al dilemma: da dove veniamo e dove andiamo?

In questo post e nel successivo, vorrei cercare di parlare proprio del senso piu’ pratico di questa domanda. Al giorno d’oggi, con la crisi che imperversa, molti si chiedono che senso abbia “sperperare” soldi nella ricerca scientifica invece di utilizzarli per fini piu’ pratici e tangibili per la societa’.

In questo primo post vorrei parlare delle motivazioni scientifiche e tenologiche della ricerca scientifica, mentre nel prossimo post mi vorrei concentrare sugli aspetti piu’ prettamente economici.

Premesso questo, cerchiamo di capire quali sono le implicazioni e le migliorie scientifiche apportate dall’attivita’ di ricerca.

Molti di voi sapranno gia’ che diverse tecniche di diagnostica medica, come la radiografia, la TAC, la PET, provengono e sono state pensate nell’ambito della ricerca scientifica ed in particolare per la costruzione di rivelatori per le particelle. Questi sono discorsi abbastanza noti e per principio non vi faro’ la solita storiella con date e introduzione negli ospedali di queste tecniche.

Parliamo invece di cose meno note, ma forse ben piu’ importanti.

A costo di sembrare banale, vorrei proprio iniziare da LHC al CERN di Ginevra e dalla ricerca nella fisica delle alte energie. In questo caso, stiamo parlando del piu’ grande acceleratore in questo settore e ovviamente anche del piu’ costoso. Con i suoi 6 miliardi di euro, solo per l’acceleratore senza conteggiare gli esperimenti, parliamo di cifre che farebbero saltare sulla sedia molti non addetti ai lavori.

Che vantaggi abbiamo ottenuto a fronte di una spesa cosi grande?

Next: il primo server WWW del CERN

Next: il primo server WWW del CERN

Partiamo dalle cose conosciute. Solo per darvi un esempio, il “world wide web” e’ nato proprio al CERN di Ginevra, dove e’ stato sviluppato per creare un modo semplice e veloce per lo scambio di dati tra gli scienziati. Ad essere sinceri, un prototipo del WWW era gia’ stato sviluppato per ambiti militari, ma l’ottimizzazione e la resa “civile” di questo mezzo si deve a due ricercartori proprio del CERN:

CERN, were the web was born

Restando sempre in ambito tecnlogico, anche l’introduzione del touchscreen e’ stata sviluppata al CERN e sempre nell’ambito della preparazione di rivelatori di particelle. A distanza di quasi 20 anni, questi sistemi sono ormai di uso collettivo e vengono utilizzati in molti degli elettrodomestici e dei gadget a cui siamo abituati.

Uno dei primi sistemi touch introdotti al CERN

Uno dei primi sistemi touch introdotti al CERN

Pensandoci bene, tutto questo e’ normale. Rendiamoci conto che costruire un acceleratore o un esperimento sempre piu’ preciso, impone delle sfide tecnologiche senza precedenti. Laser, sistemi di controllo ad alta frequenza, magneti, rivelatori sono solo alcuni esempi dei sistemi che ogni volta e’ necessario migliorare e studiare per poter costruire una nuova macchina acceleratrice.

Anche in ambito informatico, la ricerca in fisica delle alte energie impone dei miglioramenti che rappresentano delle vere e proprie sfide tecnologiche. Un esperimento di questo tipo, produce un’enorme quantita’ di dati che devono essere processati e analizzati in tempi brevissimi. Sotto questo punto di vista, la tecnologia di connessione ad altissima velocita’, le realizzazione di sistemi di contenimento dei dati sempre piu’ capienti e lo sviluppo di macchine in grado di fare sempre piu’ operazioni contemporaneamente, sono solo alcuni degli aspetti su cui la ricerca scientifica per prima si trova a lavorare.

Saltando i discorsi della diagnostica per immagini di cui tutti parlano, molte delle soluzioni per la cura di tumori vengono proprio dai settori della fisica delle alte energia. Basta pensare alle nuove cure adroterapiche in cui vengono utilizzati fasci di particelle accelerati in piccoli sistemi per colpire e distruggere tumori senza intaccare tessuti sani. Secondo voi, dove sono nate queste tecniche? Negli acceleratori vengono accelerate particelle sempre piu’ velocemente pensando sistemi sempre piu’ tecnologici. La ricerca in questi settori e’ l’unico campo che puo’ permettere di sviluppare sistemi via via piu’ precisi e che possono consentire di colpire agglomerati di cellule tumorali di dimensioni sempre minori.

Detto questo, vorrei cambiare settore per non rimanere solo nel campo della fisica delle alte energie.

In Francia si sta per realizzare il primo reattore a fusione per scopi di ricerca scientifica. Questo progetto, chiamato ITER, e’ ovviamente una collaborazione internazionale che si prefigge di studiare la possibile realizzazione di centrali necleari a fusione in luogo di quelle a fissione. Parlare di centrali nucleari e’ un discorso sempre molto delicato. Non voglio parlare in questa sede di pericolosita’ o meno di centrali nucleari, ma il passaggio della fissione alla fusione permetterebbe di eliminare molti degli svantaggi delle normali centrali: scorie, fusione totale, ecc. Capite dunque che un investimento di questo tipo, parliamo anche in questo caso di 10 miliardi di euro investiti, potrebbe portare un’innovazione nel campo della produzione energetica senza eguali. Se non investiamo in queste ricerche, non potremmo mai sperare di cambiare i metodi di produzione dell’energia, bene primario nella nostra attuale societa’.

La sonda Curiosity della NASA

La sonda Curiosity della NASA

Passando da un discorso all’altro, in realta’ solo per cercare di fare un quadro variegato della situazione, pensiamo ad un altro settore sempre molto discusso, quello delle missioni spaziali. Se c’e’ la crisi, che senso ha mandare Curiosity su Marte? Perche’ continuiamo ad esplorare l’universo?

Anche in questo caso, saltero’ le cose ovvie cioe’ il fatto che questo genere di missioni ci consente di capire come il nostro universo e’ nato e come si e’ sviluppato, ma parlero’ di innovazione tecnologica. Una missione spaziale richiede l’utilizzo di sistemi elettronici che operano in ambienti molto difficili e su cui, una volta in orbita, non potete certo pensare di mettere mano in caso di guasto. L’affidabilita’ di molte soluzioni tecnologiche attuali, viene proprio da studi condotti per le missioni spaziali. Esperimenti di questo tipo comportano ovviamente la ricerca di soluzioni sempre piu’ avanzate, ad esempio, per i sistemi di alimentazione. L’introduzione di batterie a lunghissima durata viene proprio da studi condotti dalle agenzie spaziali per le proprie missioni. Anche la tecnologia di trasmissione di dati a distanza, ha visto un salto senza precedenti proprio grazie a questo tipo di ricerca. Pensate semplicemente al fatto che Curiosity ogni istante invia dati sulla Terra per essere analizzati. Se ci ragionate capite bene come queste missioni comportino lo sviluppo di sistemi di trasferimento dei dati sempre piu’ affidabili e precise per lunghissime distanze. Ovviamente tutti questi sviluppi hanno ricadute molto rapide nella vita di tutti i giorni ed in settori completamente diversi da quelli della ricerca scientifica.

Concludendo, spero di aver dato un quadro, che non sara’ mai completo e totale, di alcune delle innovazioni portate nella vita di tutti i giorni dalla ricerca scientifica. Come abbiamo visto, affrontare e risolvere sfide tecnologiche nuove e sempre piu’ impegnativa consente di trovare soluzioni che poi troveranno applicazione in campi completamente diversi e da cui tutti noi potremmo trarre beneficio.

Ovviamente, ci tengo a sottolineare che la conoscenza apportata dai diversi ambiti di ricerca non e’ assolutamente un bene quantificabile. Se vogliamo, questo potrebbe essere il discorso piu’ criticabile in tempi di crisi, ma assolutamente e’ la miglioria della nostra consapevolezza che ci offre uno stimolo sempre nuovo e crea sempre piu’ domande che risposte.

Post successivo sul discorso economico: Perche’ la ricerca: economia

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sull’antimateria

24 Dic

A pochissime ore dal tanto atteso 21/12, ci siamo divertiti a passare in rassegna le ultimissime catastrofi annunciate, mostrando la completa assurdita’ dal punto di vista scientifico.

In particolare, in questo post:

Lotteria profetica 2012

abbiamo parlato del racconto del presunto Maya circa la possibilita’ che in un collisore di particelle venissero formate particelle in grado di innescare terremoti.

Questo racconto ci offre lo spunto per parlare di due aspetti della scienza molto importanti e spesso poco conosciuti dal grande pubblico: l’antimateria e gli acceleratori di particelle. In questo primo post, vorrei parlarvi appunto delle antiparticelle e dell’antimateria, argomenti che spesso offrono importanti spunti per scenari complottisti e per film di fantascienza, rimandando ad un successivo post la trattazione degli acceleratori di particelle.

Ovviamente cercheremo di dare un’infarinatura di base comprensibile a tutti, senza scendere in particolari troppo avanzati che rischierebbero di annoiarvi.

In questo post:

Piccolo approfondimento sulla materia strana

abbiamo gia’ parlato di Modello Standard, mostrando come le particelle fondamentali, che altro non sono che i costituenti di tutto quello che vediamo o anche i responsabili delle interazioni, sono in realta’ in numero molto ridotto. Abbiamo in particolare diviso queste particelle in famiglie, parlando di leptoni, quark, neutrini e bosoni messaggeri.

Ora, come entrano in questo discorso le antiparticelle?

Particelle e antiparticelle: quarks e leptoni

Particelle e antiparticelle: quarks e leptoni

Cerchiamo di prendere il discorso alla larga. Le particelle elementari, opportunamente combiate tra loro, formano la materia. Questo ci dovrebbe mettere sulla strada giusta. L’antimateria dunque sara’ ottenuta combinando in modo opportuno antiparticelle. Di nuovo, cosa sono le antiparticelle?

Nel modello standard, per ogni particella esiste una sua antiparticella. Quali sono le differenze tra una particella e la sua antiparticella?

Ciascuna particella e’ caratterizzata da quelli che vengono detti numeri quantici. Sicuramente tutti conoscono la carica elettrica. Bene, questo e’ il primo numero quantico, ma non il solo. Immaginate l’insieme dei numeri quantici come la carta d’identita’ delle particelle. Se volete descrivere una persona a qualcuno che non la conosce, cosa gli dite? E’ alto cosi’, ha i capelli di questo colore, carnagione cosi’, corporatura, ecc. Per descrivere una particella, si utilizzano i numeri quantici. Il set di numeri quantici utilizzato descrive completamente una particella.

Bene, senza scomodare tutti i numeri quantici, particella e corrispondente antiparticella hanno la stessa massa ma carica elettrica opposta. In alcuni casi, particella e antiparticella possono essere la stessa cosa, come nel caso del fotone in cui fotone e antifotone sono la stessa particella, molte volte invece si tratta di due entita’ distinte.

Se siamo giunti fino a questo punto, ormai la strada e’ in discesa.

Esistono le antiparticelle? Sono pericolose? Sono mai state osservate?

La antiparticelle sono una realta’ fisica. La prima osservazione avvenne nel 1932 quando Anderson trovo’ nei raggi cosmici gli antielettroni, anche detti positroni. Da li in avanti, molte altre particelle vennero osservate. Pensate che al giorno d’oggi le antiparticelle vengono prodotte tranquillamente nei nostri laboratori. Molti degli acceleratori nel mondo, fanno scontrare fasci di particelle con le corrispondenti antiparticelle. In questo senso, potete trovare collisori elettrone-positrone, protone-antiprotone, ecc.

Capito il discorso antiparticelle, torniamo a parlare di antimateria. Come detto sopra, se la materia e’ composta da particelle, l’antimateria sara’ composta da antiparticelle.

Facciamo un esempio molto semplice. Immaginate di voler realizzare un atomo di elio. In questo caso, basta prendere due neutroni e due protoni per fare il nucleo e due elettroni da mettere in rotazione. Se ora volessimo realizzare un atomo di antielio? Dobbiamo prendere due antiprotoni, due antineutroni e due positroni (come detto, antielettroni). In questo caso, invece di un atomo di materia ne avreste uno di antimateria.

Esiste l’antimateria?

Le antiparticelle possono essere osservate in natura come prodotti di decadimento di particelle o anche essere prodotte in laboratorio. Sempre in laboratorio, negli acceleratori, e’ stato possibile produrre antiatomi molto leggeri. La domanda dunque e’: in natura dove si trova l’antimateria?

La risposta in questo caso non e’ semplice. Secondo la teoria scientificamente piu’ probabile, nel big bang, l’antimateria e’ scomparsa lasciando il posto solo alla materia. Quest’ultima poi, secondo vari meccanismi, durante l’espansione ha poi formato le stelle, le galassie, i pianeti, ecc. Esistono teorie secondo le quali tracce di antimateria sarebbero ancora presenti da qualche parte. Nella nostra galassia non si e’ osservata antimateria.

Il perche’ di questo punto e’ facilmente comprensibile. Entrando in contatto, materia e antimateria danno luogo alla cosiddetta “annichilazione”, processo in cui particella e antiparticelle scompaiono producendo fotoni ed energia.

Ora, questo ragionamento vi fa capire varie cose. Tornando al discorso “lotteria profetica”, capite subito l’impossibilita’ di avere un pianeta di antimateria in rotta di collisione con le Terra.

Inoltre, capite bene anche un’altra cosa, cioe’ l’assurdita’ scientifica proposta dal film “Angeli e Demoni” in cui al CERN di Ginevra si producevano provette con dentro “antimateria”.

Concludendo, abbiamo finalmente capito cosa si intende parlando di antiparticelle e antimateria. Non c’e’ assolutamente nulla di sconvolgente nel parlare di questi argomenti. Capite bene come le ipotesi complottiste e catastrofiste create intorno a questi argomenti sono soltanto frutto di fantasie dettate da scenari fantascientifici o da qualcuno dotato di troppa fantasia.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.