Tag Archives: 32

Le scale sismologiche

6 Giu

Nella sezione:

Hai domade o dubbi

e’ stata fatta una richiesta molto interessante che riguarda le scala sismologiche. In particolare, si chiedeva di illustrare nel blog la scala ESI 2007, ma credo che sia molto interessante parlare in generale di quali scale vengono utilizzate per classificare un sisma e quali sono le differenze tra queste.

Di principio, tutti conoscono la scala Mercalli e la scala Richter, che sono quelle apparentemente piu’ utilizzate e che sentiamo nominare in occasione di qualche sisma che avviene nel mondo. Ho detto “apparentemente” perche’ prima di tutto ci sono molte altre scale utilizzate soprattutto dai sismologi ed inoltre molte di queste riescono a classificare i terremoti in modo piu’ scientifico, basandosi proprio sulla natura fisica del fenomeno, piuttosto che, ad esempio, sui danni creati da un sisma.

Dal punto di vista storico, la prima scala basata su presupposti scientifici fu la Rossi-Forel a dieci gradi. Proprio da questa, il sismologo e vulcanologo Mercalli derivo’ una scala a 12 gradi basata sull’intensita’ di un sisma. Fate attenzione, per prima cosa, parlando di terremoti, e’ molto importante distinguere tra intensita’ e magnitudo, termini spesso confusi tra loro dai non addetti ai lavori. Per far capire questa differenza, su cui torneremo in seguito descrivendo i processi fisici, basti pensare che due terremoti di uguale magnitudo possono avere intensita’ diversa se, ad esempio, avvengono con ipocentri a profondita’ diversa tra loro.

Detto questo, la scala Mercalli e’ basata sugli effetti che un terremoto puo’ avere su persone, cose e manufatti. Alla luce di quanto detto, appare evidente che un terremoto di altissima magnitudo che avviene in una zona desertica non popolata, avra’ un grado Mercalli inferiore proprio per la mancanza di danni a cose e persone.

Per essere precisi, l’attuale scala utilizzata e’ detta Mercalli-Cancani-Siedberg ed e’ a 12 gradi. In origine, la scala Mercalli, cosi’come la Rossi-Forel, aveva solo 10 gradi. Fu proprio il sismologo Cancani ad esternderla a 12 gradi. Generalmente, i gradi piu’ bassi della scala vengono attribuiti in base alla percezione delle persone, mentre per i gradi piu’ alti ci si basa sugli effetti agli edifici e ai manufatti in generale.

Da quanto detto, appare evidente che la scala Mercalli non e’ basata su nessuna quantita’ fisica legata al terremoto, ma solo agli effetti del sisma. Se vogliamo, questo inizialmente potrebbe essere un vantaggio di questa scala dal momento che per l’attribuzione dell grado non e’ necessaria alcuna strumentazione specifica.

Proprio queste considerazioni hanno poi portato alla formulazione della scala Richter. Piccola premessa, il termine scala Richter, non e’ in realta’ molto utilizzato dalla comunita’ sismologica in quanto la scala viene detta “Magnitudo Locale”. Come e’ definita? Come anticipato, questa scala misura la magnitudo del sisma ed e’ direttamente legata all’energia rilasciata nel sottosuolo. Questo parametro viene stimato per il terremoto all’ipocentro ed e’ dunque non dipendente, come e’ evidente, dalle tecniche costruttive utilizzate in una determinata zona. A parte il particolare sismografo utilizzato per determinare il grado Richter, questa e’ una scala logaritmica in cui vengono definiti i decimi di magnitudo (M X.Y) ed in cui, ad esempio, una determinata magnitudo e’ circa 32 volte maggiore della successiva: M6=32M5, ecc.

Ora, date queste due scale, perche’ avremmo bisogno di altro? Come detto, la scala Mercalli e’ relativa ai danni del terremoto, la acala Richter invece e’ direttamente legata all’energia rilasciata dal sisma e dunque descrive la meccanica del fenomeno. In realta’, quest’ultima scala presenta dei problemi di saturazione per i gradi maggiori, dovuti al fatto che, sopra M8.5, terremoti di magnitudo diversa possono risultare nello stesso valore della scala.

Per risolvere questo problema, e’ stata poi introdotta la scala del “momento sismico”. Analogamente alla Richter, anche questa scala e’ di tipo logaritmico e si basa sulla stima dell’energia rilasciata nell’ipocentro. A differenza pero’ della prima, non presenta i problemi di saturazione.

Da quanto detto, appare evidente come queste scale siano completamente scorrelate tra loro, trattando un sisma sotto aspetti diversi. Se ci pensiamo bene, entrambi i parametri utilizzati potrebbero essere utili per una valutazione e per una comparazione, ad esempio, per sismi successivi avvenuti nello stesso luogo. Sulla base di questo, e’ stata sviluppata la “Scala Macrosismica Europea”, o EMS-98. In questa definizione, si distingue un sisma in base alla forza degli effetti di un terremoto in un luogo specifico. In questo senso, entra ovviamente l’energia del sisma, ma anche i danni provocati dal fenomeno in un determinato luogo, caratterizzato da specifiche tecniche costruttive e densita’ abitative. Anche la EMS-98 presenta 12 gradi e, passando dai livelli piu’ bassi a quelli piu’ alti, di volta in volta la percezione umana del sisma lascia spazio ai danni agli oggetti provocati dal fenomeno. Per quanto piu’ precisa e meglio utilizzabile, anche questa scala presenta delle limitazioni simili a quelle dei suoi predecessori: confusione nell’attribuzione di un livello alto, influenze soggettive nella valutazione dei danni agli edifici.

Per evitare queste problematiche, nel 2007 e’ stata sviluppata una nuova scala detta “Environmental Seismic Intensity Scale”, o ESI-2007. Come suggerisce il nome stesso, questa scala si basa sugli effetti ambientali che un sisma puo’ avere in un determinato luogo. Fate attenzione, stiamo parlando di ambiente in generale, non solo di antropizzazione. In tal senso, questa scala va proprio a valutare la fagliazione provocata nel terreno, fenomeni di subsidenza, liquefazione, frattura, ecc. Come visto in diversi articoli, questi sono tutti effetti seguenti ad un sisma e che possono essere utilizzati per descrivere il fenomeno partendo proprio dalle sue conseguenze sull’ambiente.

Qual e’ il vantaggio di questa tecnica? Come sappiamo, molto spesso un terremoto tende a ripetersi in zone in cui e’ gia’ avvenuto. Valutare, e dunque raccontare, il sisma basandosi proprio sui suoi effetti sull’ambiente, puo’ aiutarci a prevenire i danni del terremoto. In che modo? Parlare di case distrutte, non e’ di per se un parametro utilie, ad esempio, per confrontarci con fenomeni avvenuti decenni prima. Questo e’ evidente se si pensa alle diverse tecniche costruttive, ma anche al grado di antropizzazione di un determinato luogo. Parlando invece di conseguenze sull’ambiente, e’ possibile prima di tutto confrontarci con gli eventi passati, ma soprattutto ci permette di predisporre piani di emergenza mirati, conoscendo le eventuali problematiche che potrebbero verificarsi in concomitanza con un sisma di alta intensita’.

Ultima considerazione che vi sara’ venuta in mente: perche’ parliamo di nuova scala se il nome e’ qualcosa-2007? Semplicemente perche’ nel 2007 e’ stta presentata questa divisione, ma prima di poter essere utilizzata, sono richiesti 5 anni di sperimentazione, cosi’ come avvenuto.

Concludendo, esistono diverse scale sismologiche per poter valutare e distinguere tra loro i diversi terremoti. Cme visto pero’, queste presentano alcune limitazioni specifiche dovute alla stima dei danni o alla caratteristica fisica presa in considerazione. Distinzione molto importante e’ quella tra magnitudo e intensita’ che, come visto, sono due termini spesso confusi ma che in realta’ caratterizzano cose completamente diverse tra loro. La nuova scala ESI-2007, consente di valutare gli effetti provocati da un sisma sull’ambiente, determiando cosi’ un confronto diretto e sempre possibile in un luogo specifico. Come potete facilmente immaginare, per poter definire esattamente il grado ESI di un sisma, i sismologi devono recarsi sul luogo per poter stimare al meglio gli effetti ambientali lasciati. Oltre a quelle viste, vi sono poi altre scale, spesso simili alle altre, ma il cui utilizzo e’, ad esempio, specifico di un determinato luogo per motivi storici o culturali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

2038: nuovo bug informatico

6 Mar

Questa volta, voglio trattare un problema prettamente informatico. Diverse volte, anzi per dirla tutta il blog stesso nasce per questo motivo, abbiamo discusso non solo della causa, ma soprattutto delle innumerevoli date profetizzate per una fine del mondo.

Come sappiamo, quella del 21 Dicembre 2012, ha avuto una risonanza mondiale. Il motivo di questo e’ ovviamente da ricercarsi nelle tantissime ipotesi profetiche fatte partendo dal calendario Maya, ma soprattutto cio’ che ha reso il 21/12 un fenomeno mondiale e’ stato senza dubbio l’apporto di internet.

Come detto in altre occasioni, la rete ci consente di scambiare informazioni in tempo reale con qualsiasi parte del mondo. Ogni qual volta scriviamo qualcosa su un sito, un forum, un blog, dobbiamo tenere sempre a mente che potenzialmente quanto scritto potrebbe essere letto all’istante anche dall’altra parte del mondo.

Prima del 21/12, l’altra data che tanto aveva fatto discutere su scenari apocalittici era ovviamente l’inizio del nuovo millennio nel 2000. Oltre alle tente ipotesi catastrofiste classiche, per il 2000 ampio spazio era stato dato al cosiddetto “millenium bug”, cioe’ al problema della gestione della data dei nostri computer.

Come forse ricorderete, il problema principale era che molti sistemi utilizzano una data espressa con solo due cifre. Per questo motivo, allo scattare del nuovo millennio, i computer sarebbero passati dalla data 99 a 00 e proprio questo valore poteva essere interpretato, invece che come 1 gennaio 2000, come 1 gennaio 1900.

Sul millenium bug si e’ parlato tantissimo. Si sono ipotizzati scenari da film di fantascienza con i nostri sistemi informatici che sarebbero impazziti mandando in tilt gran parte della nostra societa’ che, come sappiamo, e’ fortemente legata a questo tipo di controlli.

Come forse sapete ancora meglio, il millenium bug e’ stato un po’ come un 21/12 in piccolo. Se ne e’ parlato tanto, ma niente di particolarmente problematico e’ poi realmente accaduto.

Bene, ora ci risiamo. Per il 2038 e’ atteso un nuovo importante bug per i nostri pc, sempre legato alla gestione della data.

Cerchiamo di andare con ordine.

Molti dei sistemi di controllo informatico, utilizzano sistemi operativi basati su Unix e Linux. In questi sistemi operativi, per la gestione della data, viene usato il cosiddetto sistema POSIX, cioe’ il tempo viene contato come il numero di secondi trascorsi dallo Unix Epoch Time, il 1 Gennaio 1970.

Cosa significa questo?

Semplice, avete un punto di inizio fissato al 1 gennaio del 1970. Tutte le date, a livello di architettura interna si intende, vengono calcolate come il numero di secondi trascorsi da questo punto di partenza.

Sembra un po’ macchinoso, ma fino a questo punto non sembrano esserci problemi.

Quello che pero’ accade e’ che la gestione di questo tempo trascorso, viene gestita da un controllo a 32 bit utilizzato per dare il valore al dato detto time.h, un semplice contatore del numero di secondi trascorsi.

Se ci pensate, non e’ niente di complicato. Contiamo le date a partire dal 1 gennaio 1970, attraverso il numero di secondi trascorsi da questo giorno iniziale. Bene, questo numero di secondi, che ovviamente e’ un numero intero, viene gestito da una variabile a 32 bit.

Ora, il fatto di avere 32 bit, implica necessariamente che ad un certo punto ci saranno problemi di overflow, cioe’ la vostra variabile non sara’ piu’ in grado di aggiornarsi. Per dirla tutta, dal momento che la variabile e’ dotata di un segno, al termine dei valori concessi time.h assumera’ valori negativi.

Quando avverra’ questo overflow della data? Esattamente martedi 19 gennaio 2038 alle 3.14 e 07 secondi UTC. Dopo questo istante, i valori negativi del contatore dei secondi riporteranno la data al 13 Dicembre 1901.

Cosa implica questo? Siamo di nuovo di fronte ad un problema del tutto simile a quello del 2000. Anche in questo caso, in un preciso momento, i nostri sistemi informatici potrebbero entrare in confusione non riuscendo piu’ a distinguere tra le diverse date. Il problema del time.h non e’ in realta’ solo dei sistemi operativi basati su UNIX. Anche molti altri sistemi operativi utilizzano una struttura di questo tipo, cosi’ come moltissimi software che richiedono l’informazione della data per poter funzionare. Detto questo, nel 2038, tutti questi sistemi potrebbero dunque smettere di funzionare di colpo.

E’ possibile scongiurarare l’eventuale pericolo?

In linea di principio assolutamente si. Prima di tutto, ad oggi, abbiamo circa 25 anni di tempo per risolvere questo problema. Anche se, al ritmo attuale, c’e’ un rinnovamento delle tecnologie informatiche ogni 18 mesi circa, questo problema, noto gia’ da tempo, non e’ ancora stato risolto.

Molti dei nuovi sistemi a 64 bit, utilizzano gia’ un time.h in questo formato. In questo caso, ci sarebbe comunque il problema del numero non infinito di secondi che possiamo contare ma, partendo sempre dal 1 gennaio 1970, il sistema potrebbe funzionare senza problemi per molto piu’ tempo, sicuramente un tempo maggiore di quello di esistenza anche del pc stesso e del sistema che questo controlla.

Sul mercato pero’ esistono ancora tantissimi sistemi a 32 bit, alcuni anche strategi per specifici controlli. Evitando gli scenari apocalittici che gia’ si sentono in rete parlando di questo bug, con 25 anni di tempo per pensarci, non mi preoccuperei assolutamente del time.h e del cosiddetto Y2038 bug.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.