Tag Archives: uso

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Un futuro … robotico

13 Mar

Nell’immaginario collettivo dettato dai film e racconti di fantascienza, il nostro futuro dovrebbe essere popolato da robot umanoidi dotati di intelligenza propria ed in grado di comunicare, interagire e, perche’ no, contrapporsi agli stessi esseri umani che li hanno creati. Da decenni questi scenari futuristici vengono richiamati e su tematiche del genere si sono inventate tantissime storie e racconti. Il nostro livello tecnologico, per quanto, punto di vista personale, debba sempre essere migliorato ed e’ sempre un passo indietro a quello che vorremmo fare, non e’ assolutamente scarso eppure questi tanto citati scenari non si sono ancora visti.

Nonostante questo, e anche se molti lo ignorano, la tecnologia robotica ha fatto enormi passi avanti negli ultimi anni e molte operazioni, sia di routine che di elevata complessita’, sono gia’ eseguite dagli uomini coadiuvati da sistemi elettromeccanici. Spesso, questa simbiosi tecnologica e’ necessaria e utile per migliorare la precisione di determinate operazioni, altre volte invece e’ una vera e propria necessita’ fondamentale per supplire all’impossibilita’ di un intervento diretto dell’uomo.

Proprio da questo ultimo scenario vorrei partire per commentare una notizia apparsa sui giornali qualche giorno fa. Provate ad immaginare uno scenario di questo tipo: siamo su un’astronave lontana migliaia di kilometri da Terra. Un membro del nostro equipaggio ha un problema di salute importante che impone un intervento chirurgico di urgenza. Per quanto gli altri membri dell’equipaggio possono essere addestrati a situazioni di questo tipo, non e’ assolutamente possibile immaginare che tutti siano in grado di fare tutto in modo eccellente. Cosa fare per salvare la vita dell’uomo? In casi come questo, potrebbe intervenire un robot in grado di compiere operazioni chirurgiche anche delicate perche’ programmato ed istruito per farle oppure perche’ telecontrollato da un esperto sulla Terra o su un’altra navicella nello spazio.

Pensate sia fantascienza?

Proviamo a sostituire qualche soggetto della nostra storia. La navicella lontana dalla Terra e’ la Stazione Spaziale Internazionale, i membri dell’equipaggio sono gli astronauti provenienti da diversi paesi e che devono restare in orbita anche per periodi relativamente lunghi. Come vengono gestiti casi come quello raccontato sulla ISS? Per il momento, non c’e’ stato mai bisogno di operare d’urgenza un membro della stazione spaziale ma, come potete capire, e’ necessario predisporre piani di emergenza anche per far fronte a problemi come questo. Dal punto di vista medico, gli astronauti della stazione hanno in dotazione strumentazione di monitoraggio e controllo che possono usare autonomamente o aiutandosi in coppie.

Sicuramente un robot appositamente creato per questi scopi potrebbe coadiuvare gli astronauti sia nelle operazioni di routine che in casi di emergenza.

Questo e’ il pensiero che i tecnici NASA hanno avuto quando, qualche anno fa, hanno mandato sulla Stazione Spaziale il Robonaut 2, un robot umanoide che ancora oggi e’ in orbita intorno alla Terra. Inizialmente, il robot e’ stato inviato per aiutare gli astronauti nelle operazioni piu’ difficili ma anche per sostituirli in quelle piu’ banali e ripetitive che sottraggono inutilmente tempo al lavoro del team.

Il Robonaut 2 all'interno della Stazione Spaziale Internazionale

Il Robonaut 2 all’interno della Stazione Spaziale Internazionale

La storia del progetto inizia gia’ dal 1997 quando venne sviluppato un primo prototipo di Robonaut. Questo sistema era pensato per aiutare gli astronauti o sostituirli durante le attivita’ extraveicolari piu’ pericolose. Inoltre, poteva essere montato su un piccolo carro a 6 ruote trasformandolo in un piccolo rover intelligente per l’esplorazione in superficie della Luna o di altri corpi celesti.

Il progetto, come potete immaginare, risulto’ valido e dal 2006 e’ iniziata una stretta collaborazione tra la NASA e la General Motors per la costruzione di un sistema piu’ affidabile e da testare in orbita, appunto il Robonaut 2. Una volta arrivato sulla stazione, il robot venne lasciato imballato per diversi mesi a causa dell’elevato carico di lavoro degli astronauti, fino a quando venne messo in funzione quando nella stazione era presente anche il nostro Paolo Nespoli.

Ecco un video delle prime fasi di collaudo del Robonaut-2:

Come detto, il Robonaut 2 e’ un robot umanoide dotato di due braccia a 5 dita per un peso complessivo di 150Kg, escluse le gambe non previste in questa versione. Il costo di produzione e’ stato di circa 2.5 milioni di dollari per produrre un vero e proprio gioiello di elettronica. Il robot e’ dotato di 350 sensori, una telecamera 3D ad alta definizione, il tutto comandato da 38 processori Power PC. Il complesso sistema di snodi consente di avere 42 gradi di movimento indipendenti.

Addestramento del Robonaut 2 con un manichino

Addestramento del Robonaut 2 con un manichino

La notizia di questi giorni e’ relativa allo speciale addestramento che il Robonaut 2 sta seguendo per diventare un vero e proprio medico di bordo pronto a far fronte, autonomamente o su controllo da Terra, ad ogni intervento medico richiesto, da quelli di routine a, eventualmente, vere e proprie operazioni. Questo addestramento e’ seguito passo passo sia da medici che da tecnici NASA esperti di telecontrollo, dal momento che tutto verra’ poi seguito da Terra verso la Stazione Spaziale. Stando a quanto riportato anche dalla NASA, il Robonaut sarebbe gia’ in grado di eseguire piccoli interventi di routine e di fare prelievi e punture ad esseri umani. Ovviamente, per il momento la sperimentazione e’ fatta su manichini anche se il robot ha mostrato una straordinaria capacita’ di apprendimento e, ovviamente, una precisione e ripetivita’, difficilmente raggiungibili da una mano umana.

Come vedete, forse gli scenari fantascientifici da cui siamo partiti non sono poi cosi’ lontani. In questo caso, l’utilizzo di tecnologia robotica e’ necessario proprio per supplire all’impossibilita’ di intervento diretto da parte dell’uomo e sicuramente potrebbe essere in grado in un futuro molto prossimo di far fronte a situazioni altrimenti non gestibili.

Prima di chiudere vorrei pero’ aprire un ulteriore parentesi robotica. Se pensate che l’utilizzo di un sistema elettromeccanico in medicina sia una novita’ assoluta o se credete che sistemi di questo tipo siano appannaggio soltanto della Stazione Spaziale o di centri di ricerca futuristici, state sbagliando di grosso.

Vi mostro una foto di un altro robot, assolutamente non umanoide, ma con funzioni molto interessanti:

Il sistema robotico Da Vinci

Il sistema robotico Da Vinci

Questo e’ il Robot Da Vinci, proprio in onore del nostro Leonardo, utilizzato in moltissime sale operatorie di tutto il mondo.

Da Vinci e’ prodotto dalla ditta americana Intuitive Surgical e gia’ nel 2000 e’ stato approvato per l’uso in sala operatoria dalla Food and Drugs Administration. Questo sistema e’ dotato di diversi bracci elettromeccanici che consentono una liberta’ di movimento molto maggiore, e assai piu’ precisa, di quella di un polso umano. Il sistema e’ teleguidato da un medico lontano dalla sala operatoria al cui interno ci sono solo infermieri che di volta in volta posizionano lo strumento giusto nelle pinze del robot. Stando a quanto dichiarato, questo robot consente ovviamente di avere una affidabilita’ di ripetizione e precisione molto maggiore di quelle di un normale medico riuscendo ad operare limitando fino ad 1/3 il normale sangiunamento degli interventi piu’ complicati.

Dal sito della Intuitive Surgical si legge che ad oggi sono stati venduti piu’ di 700 di questi robot e pensate che in Italia quasi 70 sale operatorie sono attrezzate con questo sistema. Il numero di operazioni effettuate con questo robot e’ dell’ordine delle decine di migliaia.

E’ tutto oro quello che luccica?

Per completezza, e come siamo abituati a procedere, vi mostro anche il rovescio della medaglia. Rimanendo nel caso Da Vinci, anche in Italia, si sono formati tra i medici due schieramenti: quelli favorevoli al suo uso e quelli fortemente contrari. Perche’ questo? Se parliamo dei vantaggi del sistema, sicuramente una mano robotica consente di effetturare operazioni di routine con una precisione assoluta, d’altro canto pero’, ci sono molti medici che mettono in discussione il rapporto investimento/beneficio di un sistema del genere. Come potete facilmente immaginare, l’investimento richiesto per l’acquisto del robot e’ molto elevato con grossi guadagni dell’azienda e, soprattutto, delle banche che offrono finanziamenti agli ospedali. Inizialmente, il Da Vinci e’ stato sviluppato per le operazioni piu’ complesse o in cui il medico non riuscirebbe a lavorare facilmente. Si tratta ovviamente di operazioni in laparoscopia che tradizionalmente potrebbero essere eseguite con un investimento molto inferiore. Inoltre, visto lo sforzo economico per l’acquisto, molti degli ospedali che dispongono del robot tendono ad utilizzarlo anche per gli interventi piu’ facili al fine di sfruttare a pieno l’investimento fatto. Altro aspetto non da poco, il Da Vinci e’, ovviamente, coperto da decine di brevetti che creano un monopolio per la ditta costruttrice. Questo non fa altro che bloccare eventuali piccole startup che potrebbero migliorare notevolmente un sistema che, come detto, risale al 2000. Come discusso all’inizio dell’articolo, anno per anno la tecnologia cresce notevolmente ed un apparato del genere, per quanto complesso, potrebbe sempre essere migliorato con l’aggiunta di nuovi sistemi. Come vedete, al solito, le discussioni sono piu’ di natura economica che di utilizzo. Nonostante questo, il Da Vinci e’ un ottimo esempio di chirurgia robotica gia’ disponibile alla societa’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Biocarburanti di terza generazione

28 Giu

Sicuramente, tutti avrete sentito parlare di biocarburanti. Come e’ noto, la domanda mondiale di petrolio e derivati continua a crescere nel tempo, causando, tra le altre cose, un aumento del prezzo del greggio. Uno dei problemi principali per quanto riguarda il consumo di petrolio, e’ la crescita sempre piu’ accentuata di quelle che una volta venivano chiamate economie emergenti. Dico tra quelle che “venivano chiamate” economie emergenti perche’, come noto, si tratta ormai di economie gia’ belle che solide, si pensi ad esempio alla Cina e all’India, e dove l’aumentato benessere, crea una richiesta di materie prime sempre crescente da parte della popolazione. In questo scenario, le fonti fossili hanno una vita sempre piu’ corta e, come sappiamo bene, dobbiamo gia’ fare i conti con quello che succedera’ nell’era, attualmente ancora inimmaginabile, del dopo petrolio.

In questo scenario, gia’ da qualche anno, si e’ iniziato a parlare di biocarburanti. Forse non tutti sanno che siamo gia’ arrivati alla seconda generazione di questi prodotti. Nella prima generazione si parlava di produzione da materiale vegetale, mentre nella seconda generazione si e’ studiata in dettaglio la produzione di carburanti a partire dagli scarti alimentari.

Questi studi hanno mostrato delle problematiche molto complesse e difficilmente risolvibili. Nella prima generazione, sicuramente avrete sentito parlare dell’olio di colza. Uno dei problemi principali in questo caso e’ l’utilizzo di vaste aree di terreno per la produzione di queste piante. Necessariamente, il ricorso a queste colture, sottrae terreno alla produzione alimentare. Ora, anche quello cibo per la popolazione mondiale sempre crescente e’ un problema serio e su cui, prima o poi, dovremo ragionare per trovare una soluzione. Rubare terreno alla produzione alimentare per piantare colza, crea dunque una competizione tra due problemi fondamentali per la civilta’ umana.

Per quanto riguarda invece la seconda generazione, il problema principale in questo caso e’ dato dai costi di produzione di energia che mostrano tutt’ora valori troppo elevati se confrontati con quelli dei combustibili fossili.

A questo punto, la terza generazione di combustibili fossili, mira a trovare soluzioni alternative per la produzione di biocarburanti utilizzando materie prime facili da reperire, economiche e ad alto rendimento in termini di carburante.

Il settore di ricerca principale nei biocarburanti di terza generazione e’ quello che vuole impiegare microalghe.

Cosa sono le microalghe?

Si tratta di normalissime specie vegetali che crescono spontaneamente nelle acque reflue. Un eventuale utilizzo di queste alghe consentirebbe dunque non solo di risolvere il problema dei carburanti, ma anche di ridurre il carico inquinante nelle acque di scarto.

Ovviamente, in un’ottica di produzione di massa, si pensa di creare dei veri e propri allevamenti di alghe. In questo caso, le uniche cose di cui c’e’ bisogno sono uno specchio d’acqua (cisterna, vasca, ecc) e della luce del sole per permettere la fotosintesi.

Le alghe in generale sono molto ricche di lipidi e proteine che le rendono ottimi candidati per la produzione di biodiesel e bioetanolo. Per darvi un’idea, il contenuto di grassi di queste sostanze e’ anche 30 volte superiore a quello delle comuni specie vegetali utilizzate nella produzione di biocombustibile (mais e colza in primis).

Come confronto numerico, vi riporto una tabella in cui viene mostrato non solo il contenuto lipidico di queste sostanze confrontate con le materie prime utilizzate nella prima e seconda generazione, ma anche il rendimento in termini di olii che e’ possibile ottenere:

Materia prima

Contenuto lipidico (% olio/s.s.)

Rendimento in olio
(L olio/ha)

Suolo utilizzato
(m2/kg biodiesel)

Resa in biodiesel
(kg biodiesel/ha)

Mais

4

172

66

152

Soia

18

446-636

18

562

Jatropha

28

741-1.892

15

656

Camelina

42

915

12

809

Colza

41

974

12

946

Girasole

40

1.070

11

1.156

Olio di palma

36

5.366-5.950

2

4.747

Microalghe (basso contenuto in olio)

30

58.700

0,2

51.927

Microalghe (medio contenuto in olio)

50

97.800

0,1

86.515

Microalghe (elevato contenuto in olio)

70

136.900

0,1

121.104

Anche per quanto riguarda l’emissione di CO2, i carburanti prodotti da alghe presentano valori molto piu’ bassi rispetto ai biocarburanti soliti:

Materia prima

Emissioni di CO2

Impiego di acqua

Superficie necessaria per soddisfare la domanda mondiale di petrolio

 

(gCO2eq/MJ)

(g/m2/g)

(106 ha)

Jatropha

56,7

3.000

2.600

Alga

3

16

50-400

Olio di palma

138,7

5.500

820

Colza

78,1

1.370

4.100

Soia

90,7

530

10.900

Le proprieta’ dei carburanti ottenuti tra le terza e le prime due generazioni e’ del tutto equivalente:

Proprietà

Biodiesel da alghe

Biodiesel da soia

Biodiesel da colza

Biodiesel da girasole

Diesel

Densità (kg/L)

0,864

0,884

0,882

0,860

0,838

Viscosità (mm2/s, cSt a 40 °C)

5,2

4

4,83

4,6

1,9-4,1

Flash point (°C)

115

131/178

155/180

183

75

Punto di solidificazione (°C)

-12

-4

-10,8

-7

-50/+10

Punto di intorbidamento (°C)

2

1

-4/-2

1

-17

Numero di cetano

52

45/51

53/56

49

40-55

PCI (MJ/kg)

41

37,8

37,2

38,9

42

Dunque, tutto risolto, basta iniziare a coltivare alghe per eliminare il problema delle risorse fossili. Purtroppo, non e’ propriamente cosi’.

Come anticipato, si tratta di ricerche attualmente in corso. Il problema principale dell’utilizzo di alghe e’, al solito, il costo. Allo stato attuale per ottenere 1 Kg di alghe servono circa 3.5 dollari. Questo prezzo e’ ancora troppo alto in confronto ai combustibili classici.

Come detto pero’, si tratta di studi ancora ad un livello quasi pioneristico. In tal senso, ci sono ancora molti “manici” che possono essere utilizzati per migliorare e ottimizzare il processo. Prima di tutto, i costi mostrati sono relativi ad una produzione su piccolissima scala. Nell’idea di un impianto dedicato, il costo per Kg di alghe potrebbe scendere tranquillmanete di un fattore 10, rendendolo paragonabile a quello dei combustibili fossili. Inoltre, esistono migliaia di specie di alghe che possono essere coltivate. In termini di resa, le alghe attualmente in studio potrebbero non essere le migliori per contenuto lipidico. Trovare soluzioni migliori equivale a migliorare il rendimento in produzione e dunque ad abbassare ancora il prezzo. Sempre in questo contesto, il ricorso all’ingegneria genetica potrebbe aiutare ad ottimizzare i processi di fotosintesi, aumentando notevolmente la produzione lipidica e dunque il rendimento nella produzione di olii combustibili.

Concludendo, gli studi sulla terza generazione di biocarburanti mirano all’utilizzo di alghe. Queste specie vegetali presentano un altissimo contenuto lipidico che le rende ottime candidate per la produzione di combustibili. Allo stato attuale, ripetiamo di ricerca pura e appena iniziata, i costi di produzione delle alghe sono ancora troppo elevati. Gli studi in corso mirano dunque all’ottimizzazione della produzione di queste nuove materie prime, oltre a migliorare il rendimento trovando, tra le migliaia disponibili, quelle a maggior contenuto lipidico. Sicuramente, una ricerca del genere merita attenzione. In un futuro piu’ o meno prossimo potrebbe rivelarsi fondamentale per la civilta’ umana.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Buco sulla Stazione Spaziale

8 Mag

In queste ore e’ stata rilasciata una notizia che ha riacceso un dibattitto di cui ci eravamo occupati varie volte. A seguito dell’impatto ocn un piccolo oggetto, uno dei pannelli solari della Stazione Spaziale Internazionale e’ stato danneggiato. Il risultato di quanto avvenuto e’ stato mostrato dall’astronauta canadese Chris Hadfield che ha mostrato la foto su twitter:

La zona cerchiata di rosso e' quella che mostra il foro

La zona cerchiata di rosso e’ quella che mostra il foro

Come vedete, si tratta di un piccolo foro di diametro compreso tra 1.5 e 2 cm e che, al momento, non desta nessun timore per il funzionamento della ISS.

Da cosa e’ stato provocato questo foro?

Ovviamente non potevano mancare ipotesi fantasiose sulla rete che vorrebbero il foro come risultato di un attacco da parte di qualche cosa o anche, questa e’ davvero fantasiosa, come risultato dell’enorme flusso di particelle provenienti dal Sole che sta aumentando la sua intensita’. Al solito, la rete e’ libera, e’ giusto che lo sia, e ognuno puo’ scrivere quello che vuole, pero’ c’e’ un limite anche alla fantasia.

Tornando seri, le ipotesi fatte sono essenzialmente due: nel primo caso, il foro potrebbe essere stato causato dall’urto del pannello con un meteroide di piccole dimensioni proveniente dallo spazio. Come sappiamo bene, questo genere di eventi sono del tutto normali. Come si vede dal foro, in questo caso, se l’ipotesi fosse vera, si tratterebbe di un sassolino di appena 3 cm di diametro, pero’ impattante ad alta velocita’. Questo genere di eventi sono del tutto previsti e proprio per questo motivo, le parti piu’ sensibili della Stazione Spaziale sono schermate con pannelli antimeteorite. Queste strutture servono ad inspessire lo strato esterno di materiale in modo da proteggere le parti piu’ sensibili, come, ad esempio, i moduli in cui si trovano abitualmente gli astronauti durante il loro soggiorno nello spazio. Come potete facilmente immaginare, queste protezioni sono impraticabili per i pannelli solari che devono assolutamente essere scoperti per poter catturare l’energia solare essenziale per il funzionamento dei sistemi di bordo.

Altra ipotesi interessante, e’ che si sia trattato di rifiuto spaziale. Come visto in questi post:

Black Knight e segnali dallo spazio

Un nuovo UFO nello spazio

lo spazio che circonda la Terra e’ ormai divenuto una discarica piena di detriti prodotti da precedenti missioni o dalla distruzione di oggetti caduti in disuso. Solo poche settimane fa, avevamo parlato dello scontro del nanosatellite russo Blits con un detrito spaziale:

Chi va col profeta, impara a profetizzare

proprio in questo caso, si e’ puntato il dito contro i detriti prodotti dal test missilistico della Cina utilizzato per distruggere il satellite Fenyun-1C.

Come visto nei precedenti articoli, quello dei detriti spaziali sta diventando un vero e proprio problema dal momento del pericolo che questi oggetti abbandonati rappresentano per i tanti oggetti, molto spesso privati, che orbitano intorno alla Terra. In particolare, abbiamo gia’ parlato delle missioni di recupero e pulizia pianificate da qui a breve tempo ma, come anticipato, detriti di dimensioni minori non sono visibili al radar per cui non si conosce esattamente la loro posizione, ne tantomeno i sistemi di controllo che sono in grado di evitare pericolosi scontri.

Nel caso della Stazione Spaziale, stiamo parlando di un detrito di soli 3 cm di diametro ma capace, come testimonia il pannello solare, di produrre danni considerevoli alle missioni in orbita.

Dal mio punto di vista, entrambe le ipotesi possono essere considerate ragionevoli. Facciamo pero’ una riflessione aggiuntiva. La Stazione Spaziale internazionale e’ dotata di 8 pannelli solari di area pari a decine di metri quadri ciascuno. Se teniamo a mente questi numeri, ci rendiamo conto che, dopo diversi anni di utilizzo della ISS. la probabilita’ di eventi di questo tipo, all’orbita in cui si trova la stazione spaziale, e’ considerevolmente bassa.

Come anticipato, il foro non sembrerebbe aver provocato danni o cali di alimentazione nella ISS. Studi di questo tipo sono importanti per valutare la disponibilita’ elettrica della base. I pannelli solari utilizzati funzionano esattamente come quelli dei campi fotovoltaici a Terra. In questo caso, stringhe di pannelli vengono connessi in serie per cui l’interruzione di un pannello potrebbe provocare la chiusura di tutta la stringa con notevoli cali di alimentazione ben piu’ alti del singolo pannello mancante. In questo caso, fortunatamente, non ci sono state conseguenze di questo tipo, per cui, al momento, la situazione sembrerebbe sotto controllo senza la richiesta di lavorazioni esterne per gli abitanti della stazione.

Concludendo, le ipotesi per la causa del foro rinvenuto in uno dei pannelli solare della ISS potrebbe essere stato provocato da un meteroide o anche da un detrito spaziale invisibile ai radar data la sua piccola dimensione. Solo per curiosita’, vi dico che tra l’8 e il 10 Maggio si svolgera’ a Roma la International Space Conference. Tra i diversi temi trattati non manchera’ certo quello sui detriti spaziali. Trattandosi di societa’ private, all’incontro parteciperanno anhce importanti agenzie assicurative mondiali, che dovranno mostrare i loro piani assicurativi con per scontri di questo tipo. Non pensate solo alla scienza pura, come sappiamo, molto piu’ spesso, gli oggetti in orbita intorno alla Terra sono di origine privata e utilizzati per gli scopi piu’ disparati, prima tra tutte le telecomunicazioni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il sistema di posizionamento Galileo

21 Mar

Notizia fresca di questi giorni, che forse avrete letto anche sui  giornali, e’ stato lanciato il quarto satellite del sistema di navigazione e localizzazione Galileo. L’insieme dei quattro satelliti ha dato ufficialmente il via alla ricezione di questo sistema di localizzazione europeo.

Il principio di funzionamento, cosi’ potete leggere, e’ come quello del GPS americano, ma in questo caso si tratta di un sistema tutto europeo. Al momento sono in orbita 4 dei 30 satelliti previsiti che formerano la costellazione appunto del sistema Galileo.

Bello direte voi, ma questa notizia dovrebbe suscitare un po’ di curiosita’ e soprattutto una serie di domande lecite che vorrei condividere con voi: come funziona il GPS? Perche’ se c’era quello americano ne dobbiamo fare uno europeo? Che vantaggi comporta?

Tutte domande lecite a cui proveremo a dare una risposta semplice e accessibile a tutti.

Al solito, provate a fare un esperimento-intervista. Chiedete, anzi chiedetevi, come funziona il GPS che avete in macchina, sul cellulare, sul portatile, ecc. Molto spesso la risposta data e’ la seguente: semplice, si accende un antenna, questa comunica con un satellite che ci localizza e il gioco e’ fatto, otteniamo un puntino su una mappa che indica la nostra posizione “esatta”. Una risposta del genere e’ completamente sbagliata in diversi punti. Se questa e’ stata la vostra risposta, forse e’ il caso di continuare la lettura.

Partiamo dall’inizio. Abbiamo il problema di localizzare la nostra posizione in un punto qualsiasi della Terra. Come facciamo? Semplice, utilizziamo dei satelliti. Se non altro, l’utilizzo di satelliti ci permette, in linea di principio, di essere sempre localizzabili indipendentemente dalla posizione. In Europa, in Asia, nell’oceano, se alzate la testa vedete il cielo e quindi potenzialmente il satellite.

Satelliti visibili dal ricevitore nel tempo

Satelliti visibili dal ricevitore nel tempo

In realta’, non e’ proprio esattamente cosi’. Un solo satellite che gira intorno alla Terra non sarebbe sempre visibile. Per dirla tutta, un solo satellite non consentirebbe neanche di localizzarci, ma ne servono ben quattro visibili da dove siamo. Su questo torneremo tra poco. Dunque, un solo satellite non basta ne servono 4. Per questo motivo, la costellazione di satelliti GPS e’ formata da un numero grande di oggetti in orbita in modo da poter garantire sempre ed in ogni punto la visibilita’ di almeno 4 satelliti. L’immagine riportata permette di chiarire molto bene questo concetto. Come vedete, mentre i satelliti girano intorno alla Terra, viene riportato in ogni istante il numero di satelliti visibili. Affinche’ la vostra rete sia funzionale, questo numero non deve mai essere minore di quattro.

Fin qui ci siamo. Abbiamo bisogno di 4 satelliti. Non abbiamo ancora risposto alle domande iniziali, anzi ne abbiamo aggiunta un’altra: perche’ 4 satelliti?

Cerchiamo ora di capire come funziona il GPS. In realta’, l’antenna del vostro sistema non comunica affatto con i satelliti, ma e’ solo un “ricevitore” di segnali. In ogni istante, i satelliti inviano verso la terra dei segnali che l’antenna e’ in grado di ricevere. Questi segnali sono di tipo orario, cioe’ contengono l’informazione sull’ora del loro invio. Il metodo di localizzazione si basa appunto sulla differenza di tempo tra l’invio del segnale da parte del satellite e la sua ricezione dall’antenna. Conoscendo la velocita’di propagazione del segnale, dalla differenza di tempo possiamo ricavare la distanza del ricevitore dal satellite.

Ora, dovendo posizionare un punto sulla mappa corrispondente al ricevitore, avete bisogno di 3 informazioni: latitudine, longitudine e altitudine. Avete cioe’ 3 incognite da calcolare. Come ricorderete dalla matematica, per risolvere un sistema di 3 incognite c’e’ bisogno di 3 equazioni indipendenti. 3 equazioni significa dunque avere l’informazione contemporaneamente da 3 satelliti. Proprio per questo motivo si parla di “triangolazione” della posizione.

Ricapitoliamo: 3 incognite per la posizione esatta, 3 equazioni che sono i 3 satelliti, e fin qui ci siamo. Perche’ prima parlavamo di 4 satelliti?

Abbiamo detto che tutto il gioco si basa sulla misura del tempo impiegato dal segnale per andare dal satellite al ricevitore. Detto proprio semplicemente, il satellite manda un segnale dicendo sono le 12.00 il ricevitore ascolta il segnale, vede che sono le 12.01 e quindi capisce che e’ passato un minuto (in realta’ la differenza temporale e’ tipicamente dell’ordine dei millisecondi). Facile a dirsi ma non a farsi. Affinche’ questo gioco funzioni, i satelliti ed il ricevitore devono essere perfettamente sincronizzati.

I satelliti del GPS utilizzano degli orologi atomici al Cesio o al Rubidio, estremamente precisi, ma che costano piu’ o meno 200000 euro l’uno. Il nostro piccolo e economico ricevitore certamente non dispone di un sistema del genere. Dunque, per localizzare il punto non servono piu’ 3 incognite bensi’ 4, compreso il tempo. Il quarto satellite serve appunto per determinare anche l’informazione temporale.

images

Solo per completezza di informazione, la localizzazione GPS sarebbe impossibile senza le dovute correzioni date dalla relativita’ di Einstein. Il tempo sul satellite scorre ad un ritmo leggermente piu’ veloce rispetto alla Terra (dilatazione dei tempi). Se questo effetto non fosse incluso, le misure dei tempi di percorrenza sarebbero sistematicamente sbagliate. La funzionalita’ del GPS e’, se vogliamo, anche una conferma pratica dell’esistenza della relativita’.

Dunque, abbiamo capito come avviene la localizzazione. Torniamo ora al discorso satelliti. In ogni istante ed in ogni punto della Terra devo dunque poter vedere almeno 4 satelliti. Quello che oggi chiamiamo GPS sfrutta, come detto all’inizio, la costellazione di satelliti americani chiamata NAVSTAR GPS costituita in tutto da 31 satelliti. Questi sono disposti su sei piani orbitali con un’inclinazione di 55 gradi sul piano equatoriale. Maggiore e’ il numero di satelliti utilizzati simultaneamente, minore e’ l’incertezza con cui si possono ricavare le incognite, e dunque la posizione del ricevitore.

La precisione attuale del NAVSTAR e’ dell’ordine di qualche metro. Fino a prima del 2000, la qualita’ del sistema per uso civile era dell’ordine dei 200 metri a causa dela distorsione fatta appositamente sui segnali per uso civile, mentre per gli usi militari veniva data qualita’ massima. Questa distinzione, detta anche “disponibilita’ selettiva” e’ stata eliminata su volere del presidente Clinton e, di fatto, ha aperto la strada ai sistemi GPS portatili per scopi civili.

Abbiamo risposto gia’ a 2 domande su 3. Sappiamo ora come avviene la localizzazione e perche’ servono 4 satelliti. Torniamo ora a Galileo.

Galileo prevede una costellazione di 30 satelliti che diverra’ pienamente operativa a partire dal 2014. Ad oggi, e sappiamo ora anche il perche’, sono stati lanciati 4 satelliti e dunque e’ possibile fare i primi studi sui segnali e cominciare a testare la qualita’ del sistema.

Perche’ fare un nuovo sistema se c’e’ gia’ quello americano? In realta’, in orbita ci sono due sistemi di navigazioni indipendenti, il NAVSTAR americano e il GLONASS russo, quest’ultimo pero’ scarsamente manutenuto negli ultimi tempi. La motivazione del Galileo e’ piu’ politica che scientifica. Il NAVSTAR e il GLONASS per uso civile sono sempre subordinati all’effettivo utilizzo militare dei due paesi. In qualsiasi momento, uno dei due paesi potrebbe decidere di chiudere il servizio civile per un qualsiasi motivo. Non pensate soltanto al navigatore della vostra automobile, il GPS e’ utilizzato in tutti i sistemi di navigazione civili come aerei, navi, antifurti satellitari, ecc. Una, seppur improbabile (forse), decisione del genere causerebbe un danno irreparabile. La necessita’ dunque di interrompere un monopolio di localizzazione ha spinto i paesi europei ha dotarsi di un proprio sistema satellitare.

Inoltre, a differenza di quello made in USA, il Galileo gode dei finanziamenti di diversi paesi attraverso la comunita’ europea e non solo. Diversi paesi extraeuropei, come Israele, Cina e Russia (come integrazione del GLONASS), stanno contribuendo a Galileo appunto per assicurare un servizio civile costante.

Solo per completezza, esistono anche dei sistemi minori di tipo regionale attualmente in fase di studio. Sia l’India che la Cina stanno infatti portando avanti gli studi per dotarsi di sistemi proprietari esclusivi non globali. In questo caso, ma si tratta di una mia considerazione personale, programmi di questo tipo servono soltanto per prendere confidenza e dimostrare agli altri la possibilita’ di accedere allo spazio mediante satelliti. Come sappiamo, si tratta di economie definite “emergenti”, anche se ormai emerse del tutto, e proprio per questo interessate alla corsa allo spazio su tutti i fronti.

Concludendo, i primi 4 satelliti di Galileo sono in orbita. Nel giro di qualche anno la costellazione di satelliti dovrebbe essere completata e funzionante. Questo sistema, parallelo al NAVSTAR, consentira’ la localizzazione sulla Terra garantendo la funzionalita’ civile sempre e indipendentemente dalla situazione politica. Dal punto di vista economico, ci saranno vantaggi anche per le aziende europee che potranno produrre e commercializzare ricevitori per Galileo mentre prima con il NAVSTAR questo settore era riservato ad aziende americane.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La fisica del caffe’

4 Mar

Forse leggendo il titolo di questo post avete pensato di aver sbagliato indirizzo internet oppure che io mi sia impazzito. In realta’ niente di tutto questo. In questo post vorrei aprire una piccola parentesi prettamente scientifica e parlare appunto della “fisica del caffe'” o meglio di come funziona una moka.

Ribadisco non sono impazzito, semplicemente oggi ho realizzato che tutti conoscono la moka, ma in realta’ pochi sanno veramente come funziona. Credo che in realta’, anche molti appassionati di scienza ignorino il vero funzionamento di questo oggetto presente in tutte le case di noi italiani. Per questo motivo ho deciso di scrivere questo semplice post per spiegare come funziona la “macchinetta del caffe'”. In fondo, siamo sempre su un blog di scienza, e proprio di questo vogliamo parlare.

Schema di una moka

Schema di una moka

Partiamo dalle cose ovvie, la moka e’ composta di 3 parti principali in alluminio: il bollitore, un filtro metallico a forma di imbuto e dal raccoglitore. Come sapete tutti, si mette l’acqua nel bollitore, il caffe’ macinato nel filtro,si mette la moka sul fuoco e nel raccoglitore esce il caffe’.

Bene, se pensate che mettendo la moka sul fuoco portate l’acqua in ebollizione, il vapore passa nel filtro e condensa mentre risale verso l’alto, allora e’ il caso che continuiate a leggere il post. Questa risposta, comune alla maggior parte delle persone, e’ in realta’ sbagliata.

Dalla termodinamica, per una normale moka da tre tazzine, la pressione alla completa ebollizione dell’acqua nel bollitore  sarebbe circa di 1600-1700 atmosfere. In questo caso la moka sarebbe equivalente ad una bomba messa sul fornello.

Come funziona in realta’ la moka?

Quando riempiamo il bollitore, il livello dell’acqua arriva piu’ o meno a quello della valvola di sicurezza. Questo significa che quando chiudiamo, sopra all’acqua, e’ presente un certo volume di aria. Mettendo la macchinetta sul fuoco, solo una minima parte dell’acqua raggiunge l’evaporazione mentre l’aria, appunto riscaldandosi, aumenta la propria pressione cercando di espandersi in un volume ben delimitato.

L’espansione dell’aria, spinge verso il basso l’acqua che trova l’unica via di fuga nel beccuccio del filtro ed in questo modo risale verso la polvere di caffe’. L’alta pressione trasforma dunque l’acqua, nel suo passaggio attraverso l’imbuto, nella bevanda che tutti conosciamo. La continua spinta dal basso verso l’alto dell’ulteriore acqua, spinge il caffe’ verso il raccoglitore dove viene raccolto.

In questo caso quindi la pressione all’interno del bollitore e’ solo di poco superiore a quella atmosferica e, come detto, solo una minima parte dell’acqua arriva all’ebollizione.

Come verificare questo? Se ci fate caso, alla fine della preparazione si ha sempre uno sbuffo di vapore che fuoriesce dal raccoglitore. Questo indica semplicemente che il livello dell’acqua nel bollitore e’ arrivato sotto l’imbuto del filtro e quindi, sempre a cusa della spinta dovuta all’espansione, l’aria passa attraverso il condotto producendo la fuoriuscita di vapore.

A proposito, vi mostro un video molto interessante realizzato utilizzando imaging a neutroni su una moka in funzione. Come potete vedere, la spinta dell’aria spinge l’acqua calda attraverso il filtro fino al raccoglitore:

Questo e’ dunque il funzionamento della moka.

Notiamo prima di tutto una cosa. La lunghezza dell’imbuto del filtro non e’ casuale. Un imbuto troppo lungo farebbe uscire il caffe’ prima ma ad una pressione e ad una temperatura piu’ basse. In questo caso il sapore sarebbe meno forte a causa della ridotta pressione con cui l’acqua passa attraverso la polvere e mal miscelato a causa della bassa temperatura. In caso contrario, cioe’ un imbuto troppo corto, la quantita’ di caffe’ raccolto sarebbe troppo piccola e le pressioni richieste molto piu’ alte.

Anche la miscela di caffe’ utilizzata e’ molto importante. Come visto nel funzionamento, l’acqua passa attraverso la polvere una sola volta. Per questo motivo si cerca di macinare in modo molto sottile il caffe’ in modo da aumentare la superficie di contatto con l’acqua. Questo e’ importante per migliorare l’estrazione delle sostanze solubili presenti nel caffe’.

Per chi non lo sapesse, quello della moka e’ un brevetto completamente italiano. Questo strumento di piacere e’ infatti stato inventato da Alfonso Bialetti nel 1933.

La vera moka e’ infatti solo quella Bialetti. Non che io voglia fare pubblicita’, ma questa ditta e’ l’unica che puo’ sfruttare il brevetto originale. Questo infatti prevede una moka di forma ottagonale per aumentare la presa in caso di superficie bagnata. Marche diverse di moka prevedono forme diverse, rotonde o sempre poligonali, ma che non rispettano il brevetto originale.

Ultimissima curiosita’. Il nome moka deriva dalla citta’ Mokha in Yemen, una delle prime e piu’ famose zone di coltivazione del caffe’. Il nome espresso invece, che alcuni vorrebbero indicare la velocita’ di preparazione con questa tecnica, deriva in realta’ dalla crasi di due parole “extra” e “pressione” appunto per indicare la sovrapressione con cui l’aria spinge l’acqua attraverso il filtro ad imbuto.

Con questo chiudiamo questa breve parentesi. A questo punto fate un esperimento, provate a chiedere ad amici e conoscenti come funziona una moka. Vedrete quanti sono convinti di avere una bomba in casa.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Moria di uccelli nel mondo

5 Gen

Negli ultimi anni, piu’ volte si e’ sentito parlare di morie di massa di animali in giro per il mondo. Molte volte, notizie del genere sono state smascherate come bufale, ma in molti altri casi si tratta di notizie reali. Ora, fermo restando che ogni tipologia di animale e’ diversa, per poter cercare di capire meglio, ho deciso di concentrarmi sul caso degli uccelli.

Cercando su web, trovate delle scene veramente raccapriccianti, con centinaia di ucelli di specie diverse che improvvisamente cadono morti a terra. Scene di questo tipo, ovviamente non lasciano indifferenti le popolazioni locali. Molte volte, si cercano le cause di queste improvvise morie chiamando in causa l’inquinamento e magari qualche scarico di sostanze tossiche in zone specifiche. Moltissime altre volte, soprattutto sul web, si cercano i motivi chiamando in causa teorie complottiste o legate alla fine del mondo.

Tra le teorie complottiste non potevano certo mancare le scie chimiche e HAARP. Di questi argomenti abbiamo gia’ parlato piu’ volte, ad esempio, in questi post:

Haarp, la causa di tutti i mali!

Haarp e terremoti indotti?

Il raggio della morte

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come visto, HAARP non e’ assolutamente in grado di fare cose di questo tipo, tantomeno di apportare modifiche al clima mondiale. Per quanto riguarda le scie chimiche, non vi sono assolutamente prove della loro esistenza e, come visto, le basi scientifiche, ma soprattutto i presunti scienziati, a sostegno di queste teorie lasciano un po’ il tempo che trovano.

Riguardo alle teorie catastrofiste invece, la causa di queste morie di massa viene spesso imputata nella diminuzione del campo magnetico terrestre, in grado secondo i sostenitori di far perdere la bussola ai volatili. Anche di questo, abbiamo parlato in un post specifico:

Inversione dei poli terrestri

mostrando la completa assurdita’ di questa teoria.

Premesso questo, resta sempre il fatto che ogni tanto, da qualche parte del mondo, centinaia di uccelli cadono morti in terra senza una spiegazione.

Uccelli morti in Tennessee

Uccelli morti in Tennessee

L’ultima notizia di questo tipo, arriva dalla cittadina di Seymour in Tennessee, dove il 31 Dicembre 2012 circa 350 uccelli sono improvvisamente caduti in prossimita’ della strada. Qual’e’ la spiegazione?

Come sapete bene, qui cerchiamo di capire se ci sono basi reali per le teorie catastrofiste, appunto ragionando sulle notizie. Non cerchiamo assolutamente di tranquillizzare nessuno senza apportare prove o ragionamenti.

Rileggiamo quello che e’ successo a Seymour, il 31 Dicembre 2012 sono morti 350 uccelli. Avete capito bene, il 31 Dicembre 2012. Ci sara’ forse una connessione con il fatto che era l’ultimo dell’anno?

Ovviamente si.

Se cercate in rete, trovate che anche negli anni passati, sempre negli Stati Uniti, si erano verificati casi di questo tipo, sempre l’ultimo giorno dell’anno.

Questa e’ una notizia del 2011:

Moria 31/12/2011

Questa del 2010:

Moria 31/12/2010

Perche’? Ovviamente non stiamo pensando assolutamente ad un suicidio di massa per l’ultimo dell’anno. La causa e’ da ricercarsi nell’utilizzo di fuochi d’artificio utilizzati per festeggiare l’inizio dell’anno nuovo. Le continue esplosioni di petardi provocano un fortissimo stress negli uccelli che puo’ portarli anche alla morte. Ovviamente questo giustifica anche il fatto che la cosa accade spesso a cavallo del 31 Dicembre, per molti volatili e tutti nello stesso istante.

Se ancora non siete convinti della cosa, facciamo un altro esperimento.

Cercando in rete, vi accorgete che in moltissimi casi, la causa di queste morie di massa di uccelli e’ sempre da ricercarsi nell’uomo.

Negli anni ’90, in Russia, e precisamente nella repubblica di Sakha, si verificarono diverse volte morie di massa di uccelli. La spiegazione venne poi data da un ricercatore russo, mostrando come le morie collettive avvenivano solo in prossimita’ e in concomitanza con il lancio di vettori spaziali russi. In questo caso, il forte rumore provocato dal lancio era la causa di stress per i volatili.

Come vedete, anche in questo caso, la causa della moria e’ da ricercarsi nei rumori, se vogliamo non naturali, prodotti dall’uomo. Come visto, i festeggiamenti per la fine dell’anno, sono una delle cause principali della morte degli uccelli.

Analogamente, vi e’ poi un’altra categoria di morti di massa, che invece viene spiegata con l’utilizzo di veleni in alcune zone. In questo caso, proprio dall’autopsia dei corpi ritrovati, si sono evidenziate tracce di sostanze tossiche che poi si e’ scoperto essere state utilizzate in zone vicino al ritrovamento. Spesso in questo caso, le improvvise morti di uccelli, sono state utili per scoprire agricoltori della zona che utilizzavano sostanze vietate e molto pericolose per la salute.

Come avete visto, non e’ assolutamente necessario chiamare in causa teorie misteriose, complottiste o catastrofiste. Al solito, la causa di tante modificazioni ambientali, sia per quanto riguarda la flora che la fauna, deve sempre essere ricercata nell’uomo e nelle sue attivita’.

Ovviamente, in questo articolo ci siamo concentrati sul caso degli uccelli, trascurando gli altri animali. Abbiamo scelto gli uccelli in primis per avere un esempio concreto su cui discutere, ma anche perche’ queste morie rappresentano la quasi totalita’ di episodi di questo tipo. Molto probabilmente, un discorso analogo puo’ essere fatto per altri animali. Come premesso, ciascun organismo e’ diverso dall’altro e presenta magari punti deboli diversi.

La cosa piu’ importante e’ non lasciarsi trasportare da idee strampalate o teorie poco scientifiche che trovate in rete.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.