Tag Archives: sistemi

Arrivano le Liridi, preparate l’ombrello

4 Apr

Per la serie “duri a morire”, in questi ultimi giorni e’ di nuovo scoppiata, o forse e’ meglio dire che si e’ di nuovo amplificata visto che non si era mai spenta, la psicosi meteorite.

Ormai ci abbiamo fatto quasi l’abitudine, dopo l’evento di Cheliabynsk, dove un meteorite di 17 metri e’ esploso sopra la cittadina russa lanciando frammenti sulle abitazioni, la paura per questi pericoli spaziali e’ cresciuta a dismisura. Al solito, non voglio assolutamente sminuire quanto accaduto in Russia dal momento che, come sapete bene, in questo caso ci sono stati circa 1200 feriti oltre ad un notevole danno economico:

Pioggia di meteore in Russia

Da qui in poi pero’, ogni giorno, almeno stando ai tanti siti catastrofisti che vivono di queste notizie, ci sarebbe un metorite che cade sulla Terra e provoca feriti, paesi che lavorano alla costruzione di sistemi di difesa spaziale o anche governi che consci del pericolo tengono volontariamente la popolazione allo scuro di tutto per poter salvare solo una piccola elite di fortunati.

Di questa speculazione abbiamo parlato in questo post:

Meteorite anche a Cuba e Dark Rift

ma soprattutto anche in questo:

Lezione n.1: come cavalcare l’onda

dove abbiamo visto la modalita’ di ingrossamento, e in alcuni casi anche di invenzione, delle notizie sulla rete.

Perche’ torniamo a parlare di questi fenomeni?

Leonid meteors light up night sky in Spain

Come anticipato, a seguito dell’evento russo, tutti i giorni ci sono nuove notizie su meteoriti e su probabili pericoli molto prossimi. La maggior parte delle volte lasciamo correre la notizia anche se, a volte, ce ne sono alcune quasi tragicomiche che meritano di essere citate, in primis perche’ ci permettono di parlare scientificamente di cose nuove, ma anche perche’ ci fanno capire quanto siano inattendibili certi siti internet.

Questa volta, il pericolo dovrebbe essere lo sciamo delle Liridi. Leggendo in rete trovate titoli di questo tipo:

Pioggia delle Liridi, allerta per la NASA

Nuovo pericolo della spazio, le Liridi stanno per colpire la Terra

Titoli devo dire niente male e che sono fatti appositamente per attirare l’attenzione delle persone.

Tralasciando ulteriori commenti, cerchiamo di capire cosa sono le Liridi.

In diversi articoli abbiamo parlato di sciami meteorici. Come visto, durante il suo moto intorno al Sole, la Terra si trova periodicamente ad attraversare zone piu’ ricche di detriti prodotti dal passaggio di comete. Ovviamente, tutti conoscono il fenomeno delle cosiddette “lacrime di San Lorenzo”. In questo caso, il 10 Agosto di ogni anno, possiamo assistere ad una vera e propria pioggia di stelle cadenti che offrono uno spettacolo naturale incredibile. Di cosa si tratta? Semplicemente del passaggio della Terra attraverso la zona ricca di detriti della cometa Tuttle che entrando nell’atmosfera terrestre vengono incendiati creando appunto le stelle cadenti.

Le Liridi altro non sono che un ulteriore sciame del tutto simile alle Leonidi, responsabili delle lacrime di San Lorenzo. Nel caso delle Liridi, lo sciame e’ dovuto ai residui della cometa Thatcher e la pioggia meteorica e’ presente in genere tra il 15 ed il 28 Aprile con un picco intorno al 22.

Forse, nello scrivere questi titoloni da prima pagina, molti siti si sono dimenticati un punto fondamentale. Il passaggio attraverso le Liridi avviene tutti gli anni, cosi’ come quello delle Leonidi.

Cosa c’e’ di strano in tutto questo? Assolutamente nulla. Questi fenomeni si ripetono tutti gli anni. Ovviamente, possono presentare delle variazioni di intensita’, ma tutto rientra nella norma del fenomeno naturale.

Sara’ possibile vedere le Liridi? Per poter osservare le stelle cadenti, il momento migliore e’ intorno alle 3 del mattino nel periodo indicato in precedenza. Si tratta di uno sciame forte per cui ci si aspetta in genere una trentina di stelle cadenti all’ora. Ovviamente, ruolo determinante, soprattutto in questo periodo dell’anno, lo hanno sempre le condizioni meteo.

Solo come ultima curiosita’, le Liridi sono state il primo sciame di cui sono riportate osservative anche nell’antichita’. Le prime testimonianze dell’osservazione dello sciame sono cinesi e risalgono addirittura ad alcuni secoli prima di Cristo.

Come fatto anche in altri post, vi segnalo la pagina di wikipedia in cui sono tabulati tutti gli sciami meteorici:

Wikipedia, sciami

Come potete vedere, praticamente in ogni periodo dell’anno c’e’ qualche sciame che la Terra attraversa. Ovviamente, questi sciami presentano intensita’ piu’ o meno alta e periodi di osservazione anche molto diversi.

Visto il grande numero di sciami, speriamo che i siti catastrofisti non vogliano pubblicare notizie di questo tipo per ogni sciame che andremo ad attraversare.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il sistema di posizionamento Galileo

21 Mar

Notizia fresca di questi giorni, che forse avrete letto anche sui  giornali, e’ stato lanciato il quarto satellite del sistema di navigazione e localizzazione Galileo. L’insieme dei quattro satelliti ha dato ufficialmente il via alla ricezione di questo sistema di localizzazione europeo.

Il principio di funzionamento, cosi’ potete leggere, e’ come quello del GPS americano, ma in questo caso si tratta di un sistema tutto europeo. Al momento sono in orbita 4 dei 30 satelliti previsiti che formerano la costellazione appunto del sistema Galileo.

Bello direte voi, ma questa notizia dovrebbe suscitare un po’ di curiosita’ e soprattutto una serie di domande lecite che vorrei condividere con voi: come funziona il GPS? Perche’ se c’era quello americano ne dobbiamo fare uno europeo? Che vantaggi comporta?

Tutte domande lecite a cui proveremo a dare una risposta semplice e accessibile a tutti.

Al solito, provate a fare un esperimento-intervista. Chiedete, anzi chiedetevi, come funziona il GPS che avete in macchina, sul cellulare, sul portatile, ecc. Molto spesso la risposta data e’ la seguente: semplice, si accende un antenna, questa comunica con un satellite che ci localizza e il gioco e’ fatto, otteniamo un puntino su una mappa che indica la nostra posizione “esatta”. Una risposta del genere e’ completamente sbagliata in diversi punti. Se questa e’ stata la vostra risposta, forse e’ il caso di continuare la lettura.

Partiamo dall’inizio. Abbiamo il problema di localizzare la nostra posizione in un punto qualsiasi della Terra. Come facciamo? Semplice, utilizziamo dei satelliti. Se non altro, l’utilizzo di satelliti ci permette, in linea di principio, di essere sempre localizzabili indipendentemente dalla posizione. In Europa, in Asia, nell’oceano, se alzate la testa vedete il cielo e quindi potenzialmente il satellite.

Satelliti visibili dal ricevitore nel tempo

Satelliti visibili dal ricevitore nel tempo

In realta’, non e’ proprio esattamente cosi’. Un solo satellite che gira intorno alla Terra non sarebbe sempre visibile. Per dirla tutta, un solo satellite non consentirebbe neanche di localizzarci, ma ne servono ben quattro visibili da dove siamo. Su questo torneremo tra poco. Dunque, un solo satellite non basta ne servono 4. Per questo motivo, la costellazione di satelliti GPS e’ formata da un numero grande di oggetti in orbita in modo da poter garantire sempre ed in ogni punto la visibilita’ di almeno 4 satelliti. L’immagine riportata permette di chiarire molto bene questo concetto. Come vedete, mentre i satelliti girano intorno alla Terra, viene riportato in ogni istante il numero di satelliti visibili. Affinche’ la vostra rete sia funzionale, questo numero non deve mai essere minore di quattro.

Fin qui ci siamo. Abbiamo bisogno di 4 satelliti. Non abbiamo ancora risposto alle domande iniziali, anzi ne abbiamo aggiunta un’altra: perche’ 4 satelliti?

Cerchiamo ora di capire come funziona il GPS. In realta’, l’antenna del vostro sistema non comunica affatto con i satelliti, ma e’ solo un “ricevitore” di segnali. In ogni istante, i satelliti inviano verso la terra dei segnali che l’antenna e’ in grado di ricevere. Questi segnali sono di tipo orario, cioe’ contengono l’informazione sull’ora del loro invio. Il metodo di localizzazione si basa appunto sulla differenza di tempo tra l’invio del segnale da parte del satellite e la sua ricezione dall’antenna. Conoscendo la velocita’di propagazione del segnale, dalla differenza di tempo possiamo ricavare la distanza del ricevitore dal satellite.

Ora, dovendo posizionare un punto sulla mappa corrispondente al ricevitore, avete bisogno di 3 informazioni: latitudine, longitudine e altitudine. Avete cioe’ 3 incognite da calcolare. Come ricorderete dalla matematica, per risolvere un sistema di 3 incognite c’e’ bisogno di 3 equazioni indipendenti. 3 equazioni significa dunque avere l’informazione contemporaneamente da 3 satelliti. Proprio per questo motivo si parla di “triangolazione” della posizione.

Ricapitoliamo: 3 incognite per la posizione esatta, 3 equazioni che sono i 3 satelliti, e fin qui ci siamo. Perche’ prima parlavamo di 4 satelliti?

Abbiamo detto che tutto il gioco si basa sulla misura del tempo impiegato dal segnale per andare dal satellite al ricevitore. Detto proprio semplicemente, il satellite manda un segnale dicendo sono le 12.00 il ricevitore ascolta il segnale, vede che sono le 12.01 e quindi capisce che e’ passato un minuto (in realta’ la differenza temporale e’ tipicamente dell’ordine dei millisecondi). Facile a dirsi ma non a farsi. Affinche’ questo gioco funzioni, i satelliti ed il ricevitore devono essere perfettamente sincronizzati.

I satelliti del GPS utilizzano degli orologi atomici al Cesio o al Rubidio, estremamente precisi, ma che costano piu’ o meno 200000 euro l’uno. Il nostro piccolo e economico ricevitore certamente non dispone di un sistema del genere. Dunque, per localizzare il punto non servono piu’ 3 incognite bensi’ 4, compreso il tempo. Il quarto satellite serve appunto per determinare anche l’informazione temporale.

images

Solo per completezza di informazione, la localizzazione GPS sarebbe impossibile senza le dovute correzioni date dalla relativita’ di Einstein. Il tempo sul satellite scorre ad un ritmo leggermente piu’ veloce rispetto alla Terra (dilatazione dei tempi). Se questo effetto non fosse incluso, le misure dei tempi di percorrenza sarebbero sistematicamente sbagliate. La funzionalita’ del GPS e’, se vogliamo, anche una conferma pratica dell’esistenza della relativita’.

Dunque, abbiamo capito come avviene la localizzazione. Torniamo ora al discorso satelliti. In ogni istante ed in ogni punto della Terra devo dunque poter vedere almeno 4 satelliti. Quello che oggi chiamiamo GPS sfrutta, come detto all’inizio, la costellazione di satelliti americani chiamata NAVSTAR GPS costituita in tutto da 31 satelliti. Questi sono disposti su sei piani orbitali con un’inclinazione di 55 gradi sul piano equatoriale. Maggiore e’ il numero di satelliti utilizzati simultaneamente, minore e’ l’incertezza con cui si possono ricavare le incognite, e dunque la posizione del ricevitore.

La precisione attuale del NAVSTAR e’ dell’ordine di qualche metro. Fino a prima del 2000, la qualita’ del sistema per uso civile era dell’ordine dei 200 metri a causa dela distorsione fatta appositamente sui segnali per uso civile, mentre per gli usi militari veniva data qualita’ massima. Questa distinzione, detta anche “disponibilita’ selettiva” e’ stata eliminata su volere del presidente Clinton e, di fatto, ha aperto la strada ai sistemi GPS portatili per scopi civili.

Abbiamo risposto gia’ a 2 domande su 3. Sappiamo ora come avviene la localizzazione e perche’ servono 4 satelliti. Torniamo ora a Galileo.

Galileo prevede una costellazione di 30 satelliti che diverra’ pienamente operativa a partire dal 2014. Ad oggi, e sappiamo ora anche il perche’, sono stati lanciati 4 satelliti e dunque e’ possibile fare i primi studi sui segnali e cominciare a testare la qualita’ del sistema.

Perche’ fare un nuovo sistema se c’e’ gia’ quello americano? In realta’, in orbita ci sono due sistemi di navigazioni indipendenti, il NAVSTAR americano e il GLONASS russo, quest’ultimo pero’ scarsamente manutenuto negli ultimi tempi. La motivazione del Galileo e’ piu’ politica che scientifica. Il NAVSTAR e il GLONASS per uso civile sono sempre subordinati all’effettivo utilizzo militare dei due paesi. In qualsiasi momento, uno dei due paesi potrebbe decidere di chiudere il servizio civile per un qualsiasi motivo. Non pensate soltanto al navigatore della vostra automobile, il GPS e’ utilizzato in tutti i sistemi di navigazione civili come aerei, navi, antifurti satellitari, ecc. Una, seppur improbabile (forse), decisione del genere causerebbe un danno irreparabile. La necessita’ dunque di interrompere un monopolio di localizzazione ha spinto i paesi europei ha dotarsi di un proprio sistema satellitare.

Inoltre, a differenza di quello made in USA, il Galileo gode dei finanziamenti di diversi paesi attraverso la comunita’ europea e non solo. Diversi paesi extraeuropei, come Israele, Cina e Russia (come integrazione del GLONASS), stanno contribuendo a Galileo appunto per assicurare un servizio civile costante.

Solo per completezza, esistono anche dei sistemi minori di tipo regionale attualmente in fase di studio. Sia l’India che la Cina stanno infatti portando avanti gli studi per dotarsi di sistemi proprietari esclusivi non globali. In questo caso, ma si tratta di una mia considerazione personale, programmi di questo tipo servono soltanto per prendere confidenza e dimostrare agli altri la possibilita’ di accedere allo spazio mediante satelliti. Come sappiamo, si tratta di economie definite “emergenti”, anche se ormai emerse del tutto, e proprio per questo interessate alla corsa allo spazio su tutti i fronti.

Concludendo, i primi 4 satelliti di Galileo sono in orbita. Nel giro di qualche anno la costellazione di satelliti dovrebbe essere completata e funzionante. Questo sistema, parallelo al NAVSTAR, consentira’ la localizzazione sulla Terra garantendo la funzionalita’ civile sempre e indipendentemente dalla situazione politica. Dal punto di vista economico, ci saranno vantaggi anche per le aziende europee che potranno produrre e commercializzare ricevitori per Galileo mentre prima con il NAVSTAR questo settore era riservato ad aziende americane.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: economia

5 Gen

Nel post precedente:

Perche’ la ricerca: scienza e tecnologia

abbiamo cercato di rispondere alla domanda “perche’ fare ricerca?” discutendo il lato tecnologico e le possibili ricadute scientifiche nella vita di tutti i giorni. Come detto, stiamo cercando di rispondere a questa domanda non in senso generale, ma proprio contestualizzando la risposta in questi anni di profonda crisi economica o, comunque, investendo nella ricerca a discapito di settori considerati piu’ importanti o vitali per tutti i cittadini.

Dopo queste considerazioni piu’ tecniche, vorrei invece analizzare il discorso economico della ricerca. Come sappiamo, e come abbiamo visto nel precedente post, fare ricerca ad alti livelli implica investimenti molto massicci. Tolte le ricadute tecnologiche, cerchiamo invece di capire se sono investimenti a fondo perduto o se implicano un ritorno economico tangibile per le nazioni.

Come nel caso precedente, prendiamo come esempio tra grandi ricerche in settori diversi per cercare di quantificare in modo pratico, numeri alla mano. I soliti tre esempi sono: ITER, il reattore a fusione per scopi di ricerca, le missioni spaziali e il CERN, come esempio di grande laboratorio per la fisica delle particelle.

Partiamo da ITER e partiamo con una considerazione che ci deve far riflettere. ITER e’ una collaborazione internazionale in cui entrano gli Stati Uniti, il Giappone e alcuni paesi europei. Come detto, parliamo di un investimento dell’ordine di 10 miliardi di euro. Forse vi fara’ riflettere il fatto che Francia e Giappone hanno discusso per lungo tempo proprio per cercare di costruire il reattore nel proprio paese. Ovviamente averlo in casa offre dei vantaggi notevoli in termini di ricadute tecnologiche, ma sicuramente implica una maggiore spesa per il paese ospitante. Conoscendo la situazione economica attuale, se un paese cerca in tutti i modi di averlo in casa e dunque spendere di piu’, significa che qualcosa indietro deve avere.

Passiamo invece alle missioni spaziali. Altro tema scottante nel discorso economico e molte volte visto come una spesa enorme ma non necessaria in tempi di crisi. Partiamo, ad esempio, dal discorso occupazionale. Molte volte sentiamo dire dai nostri politicanti o dagli esperti di politica ecnomica che si devono fare investimenti per creare posti di lavoro. Vi faccio un esempio, al suo apice, il programma di esplorazione Apollo dava lavoro a circa 400000 persone. Non pensiamo solo agli scienziati. Un programma del genere crea occupazione per tutte le figure professionali che vanno dall’operaio fino al ricercatore, dall’addetto alle pulizie dei laboratori fino all’ingegnere. Ditemi voi se questo non significa creare posti di lavoro.

Passando invece all’esempio del CERN, sicuramente i numeri occupazionali sono piu’ piccoli, ma di certo non trascurabili. Al CERN ci sono circa 2500 persone che tutti i giorni lavorano all’interno del laboratorio. A questi numeri si devono poi sommare quelli dei paesi che partecipano agli esperimenti ma non sono stanziali a Ginevra. In questo caso, arriviamo facilmente ad una stima intorno alle 15000 unita’.

A questo punto pero’ sorge una domanda che molti di voi si staranno gia’ facendo. LHC, come esempio, e’ costato 6 miliardi di euro. E’ vero, abbiamo creato posti di lavoro, ma la spesa cosi’ elevata giustifica questi posti? Con questo intendo, se il ritorno fosse solo di numeri occupazionali, allora tanto valeva investire cifre minori in altri settori e magari creare piu’ posti di lavoro.

L’obiezione e’ corretta. Se il ritorno fosse solo questo, allora io stesso giudicherei l’investimento economico, non scientifico, fallimentare. Ovviamente c’e’ molto altro in termini finanziari.

Prima di tutto vi devo spiegare come funziona il CERN. Si tratta di un laboratorio internazionale, nel vero senso della parola. Il finanziamento del CERN viene dai paesi membri. Tra questi, dobbiamo distinguere tra finanziatori principali e membri semplici. Ovviamente i finanziatori principali, che poi sono i paesi che hanno dato il via alla realizzazione del CERN, sono venti, tra cui l’Italia, ma, ad esempio, alla costruzione di LHC hanno partecipato circa 50 paesi. Essere un finanziatore principale comporta ovviamente una spesa maggiore che viene pero’ calcolata anno per anno in base al PIL di ogni nazione.

Concentriamoci ovviamente sul caso Italia, ed in particolare sugli anni caldi della costruzione di LHC, quelli che vanno dal 2000 al 2006, in cui la spesa richiesta era maggiore.

Nel 2009, ad esempio, il contributo italiano e’ stato di 83 milioni di euro, inferiore, in termini percentuali, solo a Francia, Germania e Regno Unito.

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liasion Officer

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liaison Officer

Il maggiore ritorno economico per i paesi e’ ovviamente in termini di commesse per le industrie. Che significa questo? Servono 100 magneti, chi li costruisce? Ovviamente le industrie dei paesi membri che partecipano ad una gara pubblica. Il ritorno economico comincia dunque a delinearsi. Investire nel CERN implica un ritorno economico per le industrie del paese che dunque assumeranno personale per costruire questi magneti. Stiamo dunque facendo girare l’economia e stiamo creando ulteriori posti di lavoro in modo indiretto.

Apriamo una parentesi sull’assegnazione delle commesse. Ovviamente si tratta di gare pubbliche di appalto. Come viene decretato il vincitore? Ogni anno, il CERN calcola un cosiddetto “coefficiente di giusto ritorno”, e’ un parametro calcolato come il rapporto tra il ritorno in termini di commesse per le industrie e il finanziamento offerto alla ricerca. Facciamo un esempio, voi investite 100 per finanziare la costruzione di LHC, le vostre industrie ottengono 100 di commesse dal CERN, il coefficiente di ritorno vale 1.

Ogni anno, in base al profilo di spesa, ci saranno coefficienti diversi per ciascun paese. Si parla di paesi bilanciati e non bilanciati a seconda che il loro coefficiente sia maggiore o minore del giusto ritorno. In una gara per una commessa, se l’industria di un paese non bilanciato arriva seconda dietro una di un paese gia’ bilanciato, e lo scarto tra le offerte e’ inferiore al 20%, allora l’industria del paese non bilanciato puo’ aggiudicarsi la gara allineandosi con l’offerta del vincitore. In questo modo, viene ripartito equamente, secondo coefficienti matematici, il ritorno per ciascun paese.

Cosa possiamo dire sull’Italia? Negli anni della costruzione di LHC, LItalia ha sempre avuto un coefficiente molto superiore al giusto ritorno. Per dare qualche numero, tra il 1995 e il 2008, il nostro paese si e’ aggiudicato commesse per le nostre aziende per un importo di 337 milioni di euro.

Vi mostro un altro grafico interessante, sempre preso dal rapporto del prof. S.Centro dell'”Industrial Liaison Officer for Italian industry at CERN”:

Commesse e coefficiente di ritorno per l'Italia. Fonte: S.Centro, Industrial Liaison Officer

Commesse e coefficiente di ritorno per l’Italia. Fonte: S.Centro, Industrial Liaison Officer

A sinistra vedete gli importi delle commesse per gli anni in esame per il nostro Paese, sempre in milioni di euro, mentre a destra troviamo il coefficiente di ritorno per l’Italia calcolato in base all’investimento fatto. Tenete conto che in quesgli anni, la media del giusto ritorno calcolato dal CERN era di 0.97.

Guardando i numeri, non possiamo certo lamentarci o dire che ci abbiano trattato male. La conclusione di questo ragionamento e’ dunque che un investimento nella ricerca scientifica di qualita’, permette un ritorno economico con un indotto non indifferente per le aziende del paese. Ogni giorno sentiamo parlare di rilancio delle industrie, di creazione di posti di lavoro, di rimessa in moto dell’economia, mi sembra che LHC sia stato un ottimo volano per tutti questi aspetti.

Ultima considerazione scientifico-industriale. Le innovazioni apportate facendo ricerca scientifica, non muoiono dopo la realizzazione degli esperimenti. Soluzioni tecnologiche e migliorie entrano poi nel bagaglio industriale delle aziende che le utilizzano per i loro prodotti di punta. Molte aziende vengono create come spin-off di laboratori, finanziate in grossa parte dalla ricerca e poi divengono delle realta’ industriali di prim’ordine. L’innovazione inoltra porta brevetti che a loro volta creano un ritorno economico futuro non quantificabile inizialmente.

Concludendo, anche dal punto di vista economico, fare ricerca non significa fare finanziamenti a fondo perduto o fallimentari. Questo sicuramente comporta un ritorno economico tangibile immediato. Inoltre, il ritorno in termini tecnologici e di innovazione non e’ quantificabile. Fare ricerca in un determinato campo puo’ portare, immediatamente o a distanza di anni, soluzioni che poi diventeranno di uso comune o che miglioreranno settori anche vitali per tutti.

Vi lascio con una considerazione. Non per portare acqua al mulino della ricerca, ma vorrei farvi riflettere su una cosa. In questi anni di crisi, molti paesi anche europei, ma non l’Italia, hanno aumentato i fondi dati alla ricerca scientifica. A fronte di quanto visto, forse non e’ proprio uno sperpero di soldi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: scienza e tecnologia

4 Gen

Molte volte, parlando di scienza e di ricerca scientifica, mi viene fatta una domanda apparentemente banale, ma che in realta’ nasconde un vero e proprio mondo: Perche’ fare ricerca?

Ovviamente in questo caso non parlo del senso letterale della domanda. E’ noto a tutti che la ricerca scientifica ci permette di aumentare la nostra conoscenza del mondo, dei meccanimi della natura e ci consente di dare un piccolo contributo al dilemma: da dove veniamo e dove andiamo?

In questo post e nel successivo, vorrei cercare di parlare proprio del senso piu’ pratico di questa domanda. Al giorno d’oggi, con la crisi che imperversa, molti si chiedono che senso abbia “sperperare” soldi nella ricerca scientifica invece di utilizzarli per fini piu’ pratici e tangibili per la societa’.

In questo primo post vorrei parlare delle motivazioni scientifiche e tenologiche della ricerca scientifica, mentre nel prossimo post mi vorrei concentrare sugli aspetti piu’ prettamente economici.

Premesso questo, cerchiamo di capire quali sono le implicazioni e le migliorie scientifiche apportate dall’attivita’ di ricerca.

Molti di voi sapranno gia’ che diverse tecniche di diagnostica medica, come la radiografia, la TAC, la PET, provengono e sono state pensate nell’ambito della ricerca scientifica ed in particolare per la costruzione di rivelatori per le particelle. Questi sono discorsi abbastanza noti e per principio non vi faro’ la solita storiella con date e introduzione negli ospedali di queste tecniche.

Parliamo invece di cose meno note, ma forse ben piu’ importanti.

A costo di sembrare banale, vorrei proprio iniziare da LHC al CERN di Ginevra e dalla ricerca nella fisica delle alte energie. In questo caso, stiamo parlando del piu’ grande acceleratore in questo settore e ovviamente anche del piu’ costoso. Con i suoi 6 miliardi di euro, solo per l’acceleratore senza conteggiare gli esperimenti, parliamo di cifre che farebbero saltare sulla sedia molti non addetti ai lavori.

Che vantaggi abbiamo ottenuto a fronte di una spesa cosi grande?

Next: il primo server WWW del CERN

Next: il primo server WWW del CERN

Partiamo dalle cose conosciute. Solo per darvi un esempio, il “world wide web” e’ nato proprio al CERN di Ginevra, dove e’ stato sviluppato per creare un modo semplice e veloce per lo scambio di dati tra gli scienziati. Ad essere sinceri, un prototipo del WWW era gia’ stato sviluppato per ambiti militari, ma l’ottimizzazione e la resa “civile” di questo mezzo si deve a due ricercartori proprio del CERN:

CERN, were the web was born

Restando sempre in ambito tecnlogico, anche l’introduzione del touchscreen e’ stata sviluppata al CERN e sempre nell’ambito della preparazione di rivelatori di particelle. A distanza di quasi 20 anni, questi sistemi sono ormai di uso collettivo e vengono utilizzati in molti degli elettrodomestici e dei gadget a cui siamo abituati.

Uno dei primi sistemi touch introdotti al CERN

Uno dei primi sistemi touch introdotti al CERN

Pensandoci bene, tutto questo e’ normale. Rendiamoci conto che costruire un acceleratore o un esperimento sempre piu’ preciso, impone delle sfide tecnologiche senza precedenti. Laser, sistemi di controllo ad alta frequenza, magneti, rivelatori sono solo alcuni esempi dei sistemi che ogni volta e’ necessario migliorare e studiare per poter costruire una nuova macchina acceleratrice.

Anche in ambito informatico, la ricerca in fisica delle alte energie impone dei miglioramenti che rappresentano delle vere e proprie sfide tecnologiche. Un esperimento di questo tipo, produce un’enorme quantita’ di dati che devono essere processati e analizzati in tempi brevissimi. Sotto questo punto di vista, la tecnologia di connessione ad altissima velocita’, le realizzazione di sistemi di contenimento dei dati sempre piu’ capienti e lo sviluppo di macchine in grado di fare sempre piu’ operazioni contemporaneamente, sono solo alcuni degli aspetti su cui la ricerca scientifica per prima si trova a lavorare.

Saltando i discorsi della diagnostica per immagini di cui tutti parlano, molte delle soluzioni per la cura di tumori vengono proprio dai settori della fisica delle alte energia. Basta pensare alle nuove cure adroterapiche in cui vengono utilizzati fasci di particelle accelerati in piccoli sistemi per colpire e distruggere tumori senza intaccare tessuti sani. Secondo voi, dove sono nate queste tecniche? Negli acceleratori vengono accelerate particelle sempre piu’ velocemente pensando sistemi sempre piu’ tecnologici. La ricerca in questi settori e’ l’unico campo che puo’ permettere di sviluppare sistemi via via piu’ precisi e che possono consentire di colpire agglomerati di cellule tumorali di dimensioni sempre minori.

Detto questo, vorrei cambiare settore per non rimanere solo nel campo della fisica delle alte energie.

In Francia si sta per realizzare il primo reattore a fusione per scopi di ricerca scientifica. Questo progetto, chiamato ITER, e’ ovviamente una collaborazione internazionale che si prefigge di studiare la possibile realizzazione di centrali necleari a fusione in luogo di quelle a fissione. Parlare di centrali nucleari e’ un discorso sempre molto delicato. Non voglio parlare in questa sede di pericolosita’ o meno di centrali nucleari, ma il passaggio della fissione alla fusione permetterebbe di eliminare molti degli svantaggi delle normali centrali: scorie, fusione totale, ecc. Capite dunque che un investimento di questo tipo, parliamo anche in questo caso di 10 miliardi di euro investiti, potrebbe portare un’innovazione nel campo della produzione energetica senza eguali. Se non investiamo in queste ricerche, non potremmo mai sperare di cambiare i metodi di produzione dell’energia, bene primario nella nostra attuale societa’.

La sonda Curiosity della NASA

La sonda Curiosity della NASA

Passando da un discorso all’altro, in realta’ solo per cercare di fare un quadro variegato della situazione, pensiamo ad un altro settore sempre molto discusso, quello delle missioni spaziali. Se c’e’ la crisi, che senso ha mandare Curiosity su Marte? Perche’ continuiamo ad esplorare l’universo?

Anche in questo caso, saltero’ le cose ovvie cioe’ il fatto che questo genere di missioni ci consente di capire come il nostro universo e’ nato e come si e’ sviluppato, ma parlero’ di innovazione tecnologica. Una missione spaziale richiede l’utilizzo di sistemi elettronici che operano in ambienti molto difficili e su cui, una volta in orbita, non potete certo pensare di mettere mano in caso di guasto. L’affidabilita’ di molte soluzioni tecnologiche attuali, viene proprio da studi condotti per le missioni spaziali. Esperimenti di questo tipo comportano ovviamente la ricerca di soluzioni sempre piu’ avanzate, ad esempio, per i sistemi di alimentazione. L’introduzione di batterie a lunghissima durata viene proprio da studi condotti dalle agenzie spaziali per le proprie missioni. Anche la tecnologia di trasmissione di dati a distanza, ha visto un salto senza precedenti proprio grazie a questo tipo di ricerca. Pensate semplicemente al fatto che Curiosity ogni istante invia dati sulla Terra per essere analizzati. Se ci ragionate capite bene come queste missioni comportino lo sviluppo di sistemi di trasferimento dei dati sempre piu’ affidabili e precise per lunghissime distanze. Ovviamente tutti questi sviluppi hanno ricadute molto rapide nella vita di tutti i giorni ed in settori completamente diversi da quelli della ricerca scientifica.

Concludendo, spero di aver dato un quadro, che non sara’ mai completo e totale, di alcune delle innovazioni portate nella vita di tutti i giorni dalla ricerca scientifica. Come abbiamo visto, affrontare e risolvere sfide tecnologiche nuove e sempre piu’ impegnativa consente di trovare soluzioni che poi troveranno applicazione in campi completamente diversi e da cui tutti noi potremmo trarre beneficio.

Ovviamente, ci tengo a sottolineare che la conoscenza apportata dai diversi ambiti di ricerca non e’ assolutamente un bene quantificabile. Se vogliamo, questo potrebbe essere il discorso piu’ criticabile in tempi di crisi, ma assolutamente e’ la miglioria della nostra consapevolezza che ci offre uno stimolo sempre nuovo e crea sempre piu’ domande che risposte.

Post successivo sul discorso economico: Perche’ la ricerca: economia

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Storia astronomica di Nibiru

31 Ott

Come sappiamo, uno degli argomenti piu’ citati nelle profezie del 2012 e’ l’esistenza, e l’eventuale scontro con la Terra, di un decimo pianeta del Sistema Solare. Cercando in rete, trovate molte varianti possibili su questo corpo celeste. Oltre ad un pianeta, qualcuno ipotizza una nana bruna, una nana bianca, un buco nero, un sistema solare, e anche dal punto di vista del nome oltre a Nibiru trovate Tyche, Tiamat e Pianeta X. In particolare, questo ultimo nome ha la duplice funzione di indicare il decimo pianeta del Sistema Solare ma anche la natura misteriosa del corpo.

Del pianeta Nibiru, limitiamoci a considerarlo tale e chiamarlo in questo modo, abbiamo parlato in moltissimi post. Alcuni esempi sono:

Finalmente le foto di Nibiru

Nibiru e’ vicino, la prova delle orbite

La NASA torna a parlare di Nibiru

Evidenze di un decimo pianeta?

Nibiru e la deviazione delle Pioneer

Nibiru: la prova del trattore gravitazionale

Nibiru e’ monitorato dall’osservatorio di Arecibo?

Come abbiamo visto, ad oggi, non vi e’ assolutamente nessuna evidenza dell’esistenza di questo decimo pianeta. La rete abbonda di video, foto e presunte prove, ma, come detto, in molti casi si tratta o di materiale falso  o di materiale reale ma non riguardante Nibiru. Un chiaro esempio di quest’ultimo caso e’ dato dal post precedente sulle foto del pianeta.

Dell’origine storica di Nibiru, cosi’ come delle diverse ipotesi a riguardo e delle misura scientifiche “vere”, ne abbiamo parlato abbondantemente nel libro “Psicosi 2012. Le risposte della scienza”. In quest post, invece, vogliamo raccontare l’origine e la ricerca “scientifica” del decimo pianeta.

Molti, anche tra i sostenitori della sua esistenza, ignorano il fatto che la scienza ha per diversi anni cercato un decimo pianeta e su questi argomenti c’e’ stato un dibattito, anche acceso, tra diversi astronomi. Prima di addentrarci in questa rivisitazione storica e’ pero’ necessario fare una piccola introduzione scientifica spiegando alcuni concetti importanti.

Come sapete, il nostro sistema solare e’ costituito da un Sole, di grande massa, e da una serie di pianeti che orbitano intorno a questa stella centrale su orbite ellittiche. La forza gravitazionale e’ la “colla” che tiene in equilibrio tutto il sistema. Questa interazione e’ di tipo attrattivo e dipende direttamente dalle masse dei pianeti considerati e inversamente dal quadrato della loro distanza. Ogni pianeta ruota dunque intorno al Sole grazie all’attrazione gravitazionale.

Anche se l’interazione principale e’ quella del Sole, dal momento che la forza gravitazionale si esercita tra ciascuna coppia di pianeti, ogni corpo risentira’ anche dell’attrazione degli altri pianeti ed in particolare di quelli ad esso piu’ vicini. Date le masse, questa interazione sara’ molto meno intensa di quella del Sole, e costituira’ una “correzione” rispetto a quella dominante della stella centrale.

Abbiamo fatto questa premessa solo per presentare un metodo indiretto di ricerca dei corpi celesti. Nell’astronomia, anche se non siete in grado di vedere direttamente un corpo, potreste riuscire ad individuarlo osservando i suoi effetti, cioe’ le perturbazioni gravitazionali apportate da questo sugli altri corpi nelle vicinanze.

Facciamo un esempio. Immaginate di vedere soltanto 3 pianeti che orbitano intorno al Sole. Mediante calcoli matematici siamo in grado di calcolare in modo preciso le orbite occupate da questi pianeti considerando l’interazione con il Sole, principale, e le interazioni tra ciascuna coppia di pianeti, correzioni. Ora avete il vostro modello matematico, ovviamente basato sulla fisica. Andiamo poi a confrontare questo risultato con quello che vedete realmente con i telescopi. Se la vostra simulazione coincide con quello che vedete significa che il vostro modello e’ reale. In caso contrario, dando ovviamente per scontato che i calcoli siano fatti bene, misurate delle discrepanze tra mondo reale e simulazione. A cosa sono dovute? Una delle ipotesi piu’ probabili e’ che ci sia un altro corpo, che non avete considerato nella simulazione, e che apporti delle modificazioni alla forza di gravita’.

Seguendo questo schema, e’ stato possibile, ad esempio, scoprire Nettuno nel 1846. Dalle incongruenze tra simulazione e realta’ nell’orbita di Urano, gli astronomi ipotizzarono la presenza di un altro pianeta piu’ esterno che perturbasse con la sua presenza l’orbita di Urano. Allo stesso modo, nel 1930 venne scoperto anche Plutone, poi declassato da pianeta a planetoide.

Ora, nonostante la scoperta di Nettuno e Plutone, l’orbita calcolata di Urano presentava ancora delle piccole perturbazioni rispetto a quella osservata dagli astronomi. Seguendo il ragionamento appena fatto, queste perturbazioni potevano essere dovute ad un altro pianeta, appunto il decimo del Sistema Solare, che perturbasse gravitazionalmente con la sua presenza il moto di Urano.

Siamo intorno agli anni ’70 e partendo da queste misurazioni ebbe inizio la ricerca del decimo pianeta del Sistema Solare.

Molti astronomi si dedicarono allo studio e alla ricerca del pianeta X, tra questi Harrington, Jackson, Killen e Maltese, solo per citarne alcuni. Stiamo parlando di astronomi di notevole esperienza e che attraverso la ricerca del decimo pianeta pubblicarono articoli pioneristici su diversi argomenti astronomici molto importanti come lo studio dei sistemi binari, le risonanze tra pianeti, l’interazione gravitazionale a molti corpi e cosi’ via.

Pianeti del Sistema Solare incluso Nibiru

Ora, ripensiamo a quanto detto sull’equilibrio gravitazionale del Sistema Solare. Mediante simulazioni e confrontando di volta in volta i risultati con quanto osservato nella realta’, e’ possibile, mediante calcoli matematici, ipotizzare la posizione, l’orbita e la massa che dovrebbe avere il decimo pianeta per spiegare le perturbazioni osservate. Detto in altri termini, e’ possibile “aggiustare” la simulazione ipotizzando un pianeta addizionale la cui presenza sia in grado di far coincidere la simulazione con la realta’. Proprio da questi calcoli vengono estratti i parametri che spesso trovate in rete su Nibiru riguardanti la sua grandezza, la sua orbita, la distanza dal Sole e la posizione attuale nel sistema solare.

Fin qui dunque e’ tutto chiaro. Procedendo come per le scoperte di Nettuno e Plutone, si ipotizza la presenza di un ulteriore pianeta in grado di spiegare le perturbazioni ancora ossservate nell’orbita di Urano.

A differenza pero’ di Nettuno e Plutone, il decimo pianeta ipotizzato non e’ mai stato osservato, tantomeno nella posizione indicata dalle simulazioni fatte dai vari astronomi.

Questo risolve solo una parte del problema. Anche se non abbiamo osservato il decimo pianeta, sappiamo che Urano presenta delle perturbazioni nella sua orbita. Come detto in precedenza, in astronomia anche se non osserviamo direttamente un corpo possiamo intuire la sua presenza dagli effetti gravitazionali apportati ai pianeti vicini. Le perturbazioni dell’orbita di Urano possono essere una prova dell’esistenza del decimo pianeta. Forse non lo osserviamo perche’ noi non siamo in grado di farlo.  Questo ragionamento e’ quello portato avanti in moltissimi siti a favore di Nibiru e astronomicamente, in base a quanto detto fino a questo punto, e’ un discorso assolutamente lecito.

Dunque? Cosa non abbiamo considerato?

Torniamo a ragionare su quanto detto riguardo all’attrazione gravitazionale. Due corpi qualsiasi si attraggono mediante la forza di gravita’. Questa interazione dipende direttamente dalle masse dei pianeti ed e’ inversamente proporzionale al quadrato della loro distanza. Teniamo questo a mente.

L’orbita di Urano dipende principalmente dall’interazione con il Sole, ma anche dalle correzioni apportate dagli altri pianeti intorno ad esso. Essendo Nettuno subito dopo Urano, questo avra’ un’attrazione importante sulla sua orbita.

Proprio queste considerazioni sono alla base dell’inesistenza del decimo pianeta. Nelle simulazioni erano presenti delle discrepanze nell’orbita di Urano proprio perche’ era considerata una massa leggermente sbagliata di Nettuno. Ragioniamo insieme. La forza gravitazionale con cui Nettuno disturba Urano, dipende, come detto, dalla massa di entrambi i pianeti. Se utilizziamo una massa di Nettuno leggermente diversa da quella reale, nella simulazione avremo una perturbazione diversa rispetto a quella reale e dunque un orbita simulata leggermente diversa da quella osservata. Proprio questa differenza ci porta a cercare un ulteriore pianeta che giustifichi la perturbazione osservata.

Questo e’ esattamente quello che e’ successo storicamente. La massa di Nettuno conosciuta fino agli inizi degli anni ’90 differiva da quella reale di un -0.5%. Questa apparentemente piccola differenza e’ responsabile delle discrepanze osservata tra teoria e simulazione. Il valore preciso della massa di Nettuno venne calcolato solo nel 1990 a seguito del passaggio sopra il pianeta della sonda Voyager 2. Proprio in questa occasione si pote’ misurare con precisione la massa ed accorgersi della differenza rispetto al valore fino a quel punto conosciuto in astronomia, e dunque utilizzato nelle simulazioni.

Nel 1993 venne infatti pubblicato un articolo di Standish dal titolo: “Pianeta X: Nessuna evidenza dinamica nelle osservazioni ottiche”. Potete leggere l’articolo da questo link:

Articolo Standish 1993

Come si legge nell’introduzione: “Viene mostrato come le anomalie nell’orbita di Urano scompaiono prendendo in esame il valore corretto della massa di Nettuno“. E ancora: “Non c’e’ nessuna evidenza che richieda o indichi l’esistenza di un oggetto delle dimensioni di un pianeta (oltre Plutone). A questo punto non vi e’ piu’ nessuna necessita’ di ipotizzare l’esistenza di un decimo pianeta nel Sistema Solare“.

Questo articolo, datato 1993, e’ la conclusione della ricerca astronomica del decimo pianeta. Da quanto detto, non erano sbagliate le simulazioni fatte o i parametri calcolati del decimo pianeta, quello che era sbagliato era il punto di partenza della discussione. Le anomalie nell’orbita di Urano, cioe’ le differenze tra l’orbita osservata e quella calcolata, e da cui si ipotizzo’ l’esistenza di Nibiru, non erano reali, ma dovute all’errore sulla massa di Nettuno. Misurando meglio la massa del pianeta, le anomalie scompaiono e non c’e’ nessuna necessita’ di ipotizzare un decimo pianeta.

Come vedete, nel corso degli anni gli astronomi hanno cercato un decimo pianeta nel sistema solare. Oltre all’introduzione sumera, molti sostenitori di Nibiru si rifanno a questa parte storica per sostenere le loro ipotesi. Quella che pero’ viene spesso ignorata, e’ proprio la conclusione scientifica a cui si e’ giunti nel 1993. Il decimo pianeta viene ipotizzato per spiegare qualcosa. Se questo qualcosa in realta’ non esiste, perche’ c’era un errore a monte, non serve parlare del decimo pianeta.

Non lasciatevi convincere da ipotesi senza fondamento o non supportate da prove. Seguendo un approccio scientifico, possiamo motivare i nostri ragionamenti e le nostre conclusioni mostrando dati, leggi fisiche e, come in questo caso, articoli di astronomia consultabili a tutti. Per affrontare scientificamente, ma senza nessun preconcetto, tutte le profezie del 2012, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.