Upload
dinhtuyen
View
215
Download
0
Embed Size (px)
Citation preview
Provincia di Mantova
Settore Ambiente – Ecologia
Dipartimento di Fisica Università di Bologna
CONVENZIONE TRA PROVINCIA DI MANTOVA
E
DIPARTIMENTO DI FISICA DELL’UNIVERSITA' DI BOLOGNA
Programma Provinciale di Previsione e Prevenzione di Protezione Civile per il Rischio Sismico
PARTE I: IMPOSTAZIONE SCIENTIFICA DEL PROBLEMA
2
1 Introduzione __________________________________________________________________ 4
2. Il processo sismico_____________________________________________________________ 7
2.1 La generazione del terremoto________________________________________________________ 7 2.1.1 Il terremoto: concetti base ________________________________________________________________ 7 2.1.2 La genesi dei terremoti___________________________________________________________________ 9 2.1.3 Le onde sismiche ______________________________________________________________________ 11 2.1.4 L’energia del terremoto _________________________________________________________________ 15
2.2 Lo scuotimento sismico ____________________________________________________________ 17 2.2.1 Aspetti generali _______________________________________________________________________ 17
2.2.1.1 Le interazioni suolo-strutture _________________________________________________________ 17 2.2.1.2 La misura strumentale dello scuotimento sismico__________________________________________ 19 2.2.1.3 La caratterizzazione quantitativa dello scuotimento sismico _________________________________ 21 2.2.1.4 Le scale d’intensità macrosismica______________________________________________________ 23
2.2.2 I processi fisici che controllano lo scuotimento sismico ________________________________________ 27 2.2.2.1 La sorgente sismica _________________________________________________________________ 27
2.2.2.1.1 Gli effetti direzionali ____________________________________________________________ 28 2.2.2.2 Gli effetti di propagazione____________________________________________________________ 30
2.2.2.2.1 L’attenuazione _________________________________________________________________ 30 2.2.2.2.2 La legge di attenuazione__________________________________________________________ 31
2.2.2.3 Gli effetti di sito ___________________________________________________________________ 32 2.2.2.3.1 Gli effetti di risonanza ___________________________________________________________ 32 2.2.2.3.2 Gli effetti di bordo in valli alluvionali _______________________________________________ 34 2.2.2.3.3 Gli effetti della topografia ________________________________________________________ 35 2.2.2.3.4 La liquefazione sismica del terreno _________________________________________________ 36
3. La Pericolosità sismica ________________________________________________________ 41
3.1 Introduzione: le metodologie per la stima della pericolosità sismica _______________________ 41
3.2 L’approccio deterministico_________________________________________________________ 41 3.2.1 La caratterizzazione delle strutture sismogenetiche ____________________________________________ 42
3.2.1.1 Le Strutture localizzate ______________________________________________________________ 43 3.2.1.2 La zona sismogenetica ______________________________________________________________ 44
3.2.2 Il terremoto massimo atteso ______________________________________________________________ 45 3.2.3 La determinazione dello scuotimento sismico atteso ___________________________________________ 47
3.2.3.1 L’approccio teorico _________________________________________________________________ 48 3.2.3.2 L’approccio empirico _______________________________________________________________ 49 3.2.3.3 Gli approcci misti __________________________________________________________________ 51
3.2.4 I vantaggi ed i limiti dell’approccio deterministico ____________________________________________ 53
3.3 L’approccio probabilistico _________________________________________________________ 55 3.3.1 Aspetti generali _______________________________________________________________________ 55 3.3.2 La sismicità __________________________________________________________________________ 56
3.3.2.1 La sismicità strumentale _____________________________________________________________ 56 3.3.2.2 La sismicità storica _________________________________________________________________ 61
3.3.2.2.1 L’indagine macrosismica dei terremoti contemporanei __________________________________ 63 3.3.2.2.2 I dati sismici storici: problemi connessi all’interpretazione delle fonti documentarie ___________ 64 3.3.2.2.3 La parametrizzazione del terremoto su base macrosismica _______________________________ 66
3.3.3 I metodi di stima: elementi di analisi probabilistica di rischio sismico _____________________________ 70 3.3.3.1 Il metodo di Cornell ________________________________________________________________ 70
3.3.3.1.1 I limiti superiore ed inferiore di magnitudo ___________________________________________ 73 3.3.3.1.2 Lo spettro di risposta di pericolosità uniforme_________________________________________ 74
3.3.3.2 Il metodo di sito per la stima della pericolosità sismica _____________________________________ 75 3.3.3.2.1 La ricostruzione del catalogo sismico di sito __________________________________________ 76 3.3.3.2.2 La definizione della storia di sito sulla base dei risentimenti osservati ______________________ 77 3.3.3.2.3 La valutazione della pericolosità al sito e la stima di completezza del catalogo sismico_________ 80
3.3.4 I vantaggi ed i limiti degli approcci probabilistici di Cornell e di sito ______________________________ 83
3
4. La pericolosità sismica: la Situazione Italiana _____________________________________ 85
4.1 La classificazione sismica __________________________________________________________ 85
4.2 La pericolosità sismica ____________________________________________________________ 88 4.2.1 La storia sismica_______________________________________________________________________ 90
4.2.1.1 I cataloghi sismici italiani ____________________________________________________________ 90 4.2.1.2 La carta delle massime intensità _______________________________________________________ 94
4.2.2 La zonazione sismogenetica del territorio nazionale ___________________________________________ 97 4.2.3 Le carte di pericolosità _________________________________________________________________ 100
Appendici ____________________________________________________________________ 105
Scala MCS (Mercalli - Cancani - Sieberg) di intensità del terremoto ________________________ 105
Simboli utilizzati ___________________________________________________________________ 108
Letture consigliate ed approfondimenti ________________________________________________ 109 Siti Internet ______________________________________________________________________________ 109
4
1 Introduzione
La previsione dei terremoti, intesa come descrizione del dove e quando avverrà
il prossimo evento distruttivo, è impossibile allo stato attuale delle conoscenze.
Ciò che è invece possibile, a partire dalle conoscenze attualmente disponibili, è
formulare ipotesi plausibili sui valori attesi d’accelerazione del suolo, indotti
dagli eventi sismici futuri in un dato intervallo di tempo, e stimarne
l’attendibilità relativa. Queste valutazioni hanno un’importanza fondamentale
sia nella progettazione sia nella verifica della sicurezza di strutture abitative,
impianti industriali (fabbriche e dighe) o elementi infrastrutturali (ponti e strade)
i cui danni risultano potenzialmente pericolosi per la vita umana o per le diverse
attività produttive.
L’attendibilità delle stime è condizionata dagli attuali limiti conoscitivi posti
dalle diverse discipline che entrano in questo genere di studi. La convergenza
delle conoscenze di sismologi, geologi, ingegneri e storici è fondamentale negli
interventi sul patrimonio edilizio e sul territorio che esse apportano. Coordinare
tecniche di lavoro e soprattutto conciliare le impostazioni, talvolta contrastanti,
di specialisti appartenenti a discipline diverse è indispensabile.
In termini economici il Rischio sismico è definibile come la possibilità di
perdita di agibilità o di funzionalità degli edifici e delle strutture a causa di un
terremoto. Nella stima quantitativa del rischio sismico entrano tre fattori: la
Pericolosità Sismica, la Vulnerabilità e l’Esposizione.
La Pericolosità Sismica è la probabilità che, in un determinato intervallo di
tempo (detto tempo di esposizione), si verifichi un terremoto capace di causare
danni. La pericolosità sismica può alternativamente essere espressa come il
massimo scuotimento che è ragionevole attendersi al sito di interesse durante il
tempo di esposizione.
La Vulnerabilità rappresenta la predisposizione da parte di persone, beni o
attività a subire danni o modificazioni a causa del verificarsi di un terremoto.
Tali danni possono estendersi da una momentanea riduzione di efficienza ad una
totale irrecuperabilità. Essa si identifica con la resistenza strutturale alle
sollecitazioni sismiche.
5
L'Esposizione tiene conto della dislocazione, consistenza, qualità e valore dei
beni e delle attività presenti sul territorio che possono essere influenzate
direttamente o indirettamente dall'evento sismico (insediamenti, edifici, attività
economico-produttive, infrastrutture, densità di popolazione).
Il processo di valutazione del rischio sismico può essere sintetizzato in uno
schema in cui vengono messi in evidenza i contributi dei singoli elementi che
intervengono nel processo di stima. Ogni elemento può essere rappresentato
attraverso delle mappe tematiche (carte di pericolosità, di vulnerabilità e di
esposizione) la cui correlazione porta alla valutazione del rischio sismico (carta
del rischio sismico).
Come si è accennato in precedenza, un’analisi di pericolosità sismica e del
rischio sismico connesso, è un operazione multidisciplinare. Infatti, conoscenze
geologiche, geofisiche, sismologiche concorrono nella definizione dei parametri
ingegneristici che è necessario modificare per mettere al riparo le strutture dagli
effetti devastanti di un terremoto. Questo primo interscambio di competenze non
è facile, in quanto non sempre sono note le rispettive procedure di lavoro, i
margini d’errore e l’attendibilità. L’altra interazione difficile è quella tra l’area
scientifica che abbraccia le precedenti categorie e l’area politico-legislativa. Non
si dimentichi che i risultati delle analisi di rischio devono essere poi tradotti in
interventi concreti tesi a ridurre, per quanto possibile, i rischi per la popolazione
e per il patrimonio pubblico e privato. Questi interventi devono essere supportati
da leggi e provvedimenti che li pongano in opera e li mantengano in essere.
L’efficacia dell’emanazione legislativa si può ottenere però solo con una corretta
comprensione e condivisione delle stime, proposte dagli esperti, da parte dei
legislatori. Qui i risultati non sono sempre ottimali in quanto i due “mondi” oltre
ad avere serie difficoltà a bilanciare risorse, costi e priorità, non sempre riescono
a conciliare i diversi punti di vista.
Nel presente documento verranno descritti i principali fenomeni fisici
responsabili dei terremoti. Si descriverà a cosa sono dovuti, dove si generano e
quali meccanismi li rendono così distruttivi, definendo cosa e quali sono le
sorgenti sismogenetiche. Si illustrerà come viene misurata l’energia rilasciata
dai terremoti e quali sono le modalità utilizzate per descriverne gli effetti.
Particolare attenzione verrà posta al modo in cui gli effetti dello scuotimento del
suolo variano da sito a sito, evidenziando l’esistenza di numerosi fenomeni che
6
possono amplificare in modo catastrofico gli effetti locali di un sisma.
Inquadrata la fisica dei terremoti, si affronterà il problema della quantificazione
della pericolosità sismica dandone una definizione formale. Si descriveranno i
metodi maggiormente utilizzati nell’analisi di pericolosità sismica: l’approccio
deterministico e l’approccio probabilistico. Dell’approccio deterministico
saranno descritte le condizioni di applicabilità e di come queste ne limitano
l’utilizzo. Particolare attenzione sarà quindi riservata agli approcci probabilistici,
tra questi, al metodo proposto da Cornell, considerato standard. Saranno descritti
i suoi pregi e difetti e come questi ultimi possano essere in gran parte risolti
utilizzando un nuovo approccio sviluppato di recente.
Al lettore verranno così forniti gli strumenti necessari per comprendere e
valutare i risultati dell’analisi di pericolosità con particolare riferimento alla
situazione italiana.
7
2. Il processo sismico
2.1 La generazione del terremoto
2.1.1 Il terremoto: concetti base
Cos’è un terremoto? In che modo può provocare danni ingenti? Come si
genera? Per rispondere a queste domande, tutt’altro che banali, è necessario
coinvolgere numerosi fenomeni fisici e geologici in grado di spiegare i
meccanismi di funzionamento e gli effetti di un sisma.
L’effetto principale di un terremoto, cioè lo scuotimento violento del suolo, è il
risultato della liberazione d’energia in seguito ad una rottura delle rocce delle
porzioni più superficiali della crosta terrestre. Sarà descritto in seguito dove e in
che modo si genera la frattura che propagandosi provoca effetti potenzialmente
disastrosi.
I terremoti non avvengono ovunque, ma solo in contesti geologici ben definiti,
dove le spinte tettoniche e cioè forze responsabili della creazione delle
montagne e dell’apertura degli oceani, sono maggiori o dove minore è la
resistenza dei materiali all’azione di queste forze. Tutte le rocce della crosta
terrestre sono poste sotto l’azione di torsioni e compressioni (sforzi) dipendenti
dall’orientazione delle spinte tettoniche. Entro i primi 30 Km (la crosta terrestre)
la roccia è ad una temperatura tale per cui, questa, in presenza di sforzi ridotti,
tende a deformarsi elasticamente accumulando energia elastica. Quando gli
sforzi superano una soglia critica, la roccia si frattura catastroficamente
liberando l’energia elastica accumulata nella fase di deformazione. La frattura,
detta faglia sismica, avviene lungo superfici approssimativamente piane la cui
orientazione è determinata dalla direzione delle forze agenti e dalle proprietà
meccaniche della roccia stessa. La faglia, ed in particolare il luogo in cui si
origina la frattura, costituisce la sorgente sismica. La superficie di frattura può
essere di neoformazione, avvenire lungo una zona di debolezza della roccia o,
con maggiore probabilità, costituire la riattivazione di una faglia preesistente: è
richiesta, infatti, meno energia per riattivare una vecchia superficie di frattura
8
rispetto a quella richiesta per rompere un materiale integro. Molto
schematicamente nel primo caso si può pensare che per attivare la frattura è
necessario vincere la sola forza d’attrito tra le due superfici della faglia
preesistente, che è minore della forza necessaria a vincere la coesione interna
della roccia intatta. L’effetto della frattura è, in ogni caso, uno scorrimento
relativo di porzioni di roccia lungo la superficie di frattura.
Per definire univocamente nello spazio l’orientazione ed il movimento della
superficie di faglia si adotta la seguente terminologia (fig. 2.1):
Fig. 2.1 - Definizioni strutture e parametri della faglia
• direzione (strike): angolo destrogiro formato tra il nord e l’intersezione del
piano di faglia con il piano orizzontale.
• immersione (dip): angolo tra il piano di faglia ed il piano orizzontale.
• letto (footwall): porzione di roccia al di sotto della superficie di faglia.
• tetto (hangingwall): porzione di roccia sopra la superficie di faglia.
• verso (slip): angolo, sulla superficie di faglia, tra la direzione di movimento
relativo delle due porzioni di roccia (letto e tetto) e l’intersezione del piano di
faglia con il piano orizzontale.
A seconda del verso, si distinguono tre tipi fondamentali di faglia: diretta,
inversa, trascorrente destra e sinistra (fig. 2.2). Le faglie che si osservano in
natura sono in generale combinazioni delle tre tipologie fondamentali.
9
Fig. 2.2 - Modelli di faglia riscontrabili in natura.
Le faglie possono avere dimensioni molto variabili: dai centimetri alle
centinaia di chilometri. Possono essere localizzate molto in profondità o arrivare
fino in superficie dando origine a strutture geologiche e geomorfologiche
caratteristiche.
2.1.2 La genesi dei terremoti
Come può la generazione o la riattivazione della rottura sulla superficie di
faglia produrre un terremoto? La spiegazione può essere data, molto
schematicamente, dal modello del “rimbalzo elastico” proposto da Reid nel
1909. La deformazione delle rocce, provocata dagli sforzi tettonici, aumenta
fino a che non viene superato il carico di rottura (o molto schematicamente la
soglia di attrito) della roccia. L’idealizzazione del modello, esemplificato dalla
faglia californiana di S. Andreas, parte dall’esistenza di due blocchi di crosta
terrestre in reciproco movimento e a contatto lungo una faglia (fig. 2.3a).
Inizialmente l’attrito tra le zolle, esercitato sulla superficie di faglia, impedisce il
reciproco movimento, ma la roccia circostante la faglia è deformata dagli sforzi
(fig. 2.3b). La deformazione si accumula, per un tempo che può variare dalle
10
decine alle migliaia di anni, fino a che lo sforzo supera la resistenza del punto di
maggiore debolezza, solitamente in profondità (fig. 2.3c). Da quel punto,
definito ipocentro, la frattura si espande irradiando onde elastiche e cioè le onde
sismiche: i blocchi scorreranno l’uno contro l’altro, di solito in pochi secondi,
fino a riprendere una nuova posizione di equilibrio (fig. 2.3d). L’epicentro è
invece la proiezione in superficie dell’ipocentro. Il modello è in grado di
spiegare approssimativamente la deformazione delle rocce e gli spostamenti
osservabili tra i riferimenti posti sui due lembi della faglia prima e dopo
l’occorrenza del terremoto.
Fig. - 2.3 - Modello schematico dei meccanismi che generano il terremoto (vedi testo).
Dal punto ipocentrale, una volta innescata, la rottura si propaga consentendo ai
due lembi di scorrere reciprocamente lungo la superficie di faglia. Il processo di
propagazione della rottura non è istantaneo: il fronte della rottura si muove con
velocità molto alta (tipicamente centinaia di m/s) sulla superficie di faglia.
Essendo la roccia non omogenea ma più o meno resistente nelle sue diverse
porzioni di volume, il fronte di propagazione può risultare frastagliato (fig. 2.4)
e la velocità di avanzamento della rottura variabile, con rallentamenti ed
accelerazioni. L’estensione complessiva della rottura dipende dalla
deformazione della roccia che la circonda, cosicché la rottura si propagherà sino
11
a che saranno raggiunte porzioni di roccia in cui la deformazione è sufficiente
per consentire un ulteriore avanzamento del fronte. Durante la rottura, che
permette il movimento relativo di letto e tetto, si ha sfregamento delle due
superfici a contatto che produce calore per attrito ed una macinazione della
roccia (breccia di faglia). Le onde elastiche (sismiche), risultanti dal rilascio
elastico, sono effetto dello spostamento delle masse di roccia adiacenti alla
superficie di rottura.
Fig. - 2.4 Propagazione del fronte di rottura sulla superficie di faglia e posizione di Ipocentro ed Epicentro.
2.1.3 Le onde sismiche
Le onde sismiche sono onde elastiche che si propagano dal loro punto di
origine fino alla superficie topografica con modalità differenti. Le onde sismiche
sono caratterizzate da tre parametri: la lunghezza d’onda (fig. 2.5), l’ampiezza e
la frequenza (numero di oscillazioni al secondo o Hz). La durata di
un’oscillazione completa è detta periodo ed è pari all’inverso della frequenza.
Esistono due principali tipi di onde sismiche: le Onde di Volume e le Onde di
Superficie. Le Onde di volume sono:
12
• Le Onde P (Primae o onde di compressione, fig. 2.5A): si propagano con
moto oscillatorio parallelo alla direzione di propagazione. Sono le più veloci
(circa 5.5 Km/s nel granito crostale) perciò le prime ad essere percepite.
Possiedono un potenziale distruttivo relativamente basso.
• Le Onde S (Secundae o onde di taglio, fig. 2.5B): arrivano dopo le onde P,
propagandosi più lentamente (circa 3.0 Km/s nel granito crostale), la loro
oscillazione è perpendicolare alla direzione di propagazione. Il moto
oscillatorio può essere scomposto in una componente verticale “SV” ed una
componente orizzontale “SH”. Le onde S non si propagano, a differenza
delle onde P, nei fluidi. Esse hanno un alto potenziale distruttivo, soprattutto
le SH.
Le onde di superficie invece si propagano solo lungo gli strati più prossimi alla
superficie topografica. L’ampiezza di tali onde è infatti massima in superficie e
decresce molto rapidamente con la profondità. Esistono due principali tipi di
onde di superficie:
• Le Onde di Love (LQ) (fig. 2.5C). Esse sono simili alle onde SH ma
confinate alla zona superficiale, si propagano con moto oscillatorio parallelo
alla superficie del terreno e perpendicolarmente alla direzione di
propagazione. Non si propagano attraverso i fluidi. Insieme alle SH sono
responsabili delle massime distruzioni.
• Le Onde di Rayleigh (LR) (fig. 2.5D). Al loro passaggio, le particelle del
suolo si muovono lungo un ellisse perpendicolare alla superficie di
propagazione.
13
Fig. 2.5 - Tipi di Onde sismiche e caratteristiche del loro moto ondulatorio.
Le onde P, essendo le prime ad essere registrate dagli strumenti sismografici
(costituiscono infatti i cosiddetti “Primi Arrivi”), permettono di determinare la
posizione della sorgente sismica (ipocentro) in termini di longitudine, latitudine
e profondità. La proiezione in superficie dell’ipocentro è detta epicentro (Fig.
14
2.3 e 2.4). I sismografi posti in una stazione di misura possono registrare il
primo arrivo in “avvicinamento” o in “allontanamento”, in relazione alla loro
posizione rispetto alla superficie di faglia ed al movimento di quest’ultima.
Riferendosi per semplicità ad una faglia trascorrente pura, con immersione a 90°
ed osservandola dall’alto (fig. 2.6) i movimenti dei due lembi (essendo il piano
di faglia verticale non si distinguono letto e tetto) determinano due quadranti in
compressione e due in estensione.
Fig. 2.6 - Modello di movimento di faglia che spiega l’esistenza di due quadranti in compressione e due in
estensione
Tutte le stazioni sismiche poste nei due quadranti in compressione misureranno
le onde P in “avvicinamento”, mentre le stazioni poste nei due quadranti in
estensione misureranno le onde P in “allontanamento”. L’ipocentro di un
terremoto è individuato dall’intersezione dei due piani, definiti nodali, che
limitano i quattro quadranti. I quadranti in compressione ed estensione sono
individuati in base alla distribuzione dei “primi arrivi” registrati dalle stazioni
sismografiche più prossime all’area in cui si sono risentiti gli effetti del
terremoto. La disposizione dei due piani ortogonali, nei cui quadranti ricadono
le stazioni che hanno registrato solo segnali di compressione o dilatazione,
definisce la soluzione nodale del terremoto (fig. 2.7). Risulta così nota
l’orientazione spaziale del piano di faglia che ha generato il terremoto (per
definire quale dei due piani sia la faglia sismogenetica sono necessarie altre
informazioni come l’assetto geologico-tettonico dell’area coinvolta).
15
Fig. 2.7 - Rappresentazione grafica della soluzione nodale del terremoto (meccanismo focale) in base alla
distribuzione e tipologia dei “primi arrivi” alle stazioni sismografiche.
2.1.4 L’energia del terremoto
Il parametro strumentale più usato per quantificare l’energia rilasciata da un
terremoto è la magnitudo. Nella sua definizione originale, la magnitudo è
espressa come il logaritmo decimale del rapporto tre l’ampiezza massima A
della deflessione misurata su uno strumento standard (un sismometro di tipo
Wood-Anderson) e l’ampiezza A* che sullo stesso strumento produrrebbe un
terremoto campione, detto terremoto standard, preso come riferimento (Richter,
1935):
M = Log10(A/A*) = log10A – log10A* (2.0)
dove M è la magnitudo, A è l’ampiezza del segnale del sismogramma che a sua
volta è proporzionale all’energia liberata dal terremoto. Correda questa
definizione una tabella in cui vengono forniti i valori delle deflessioni prodotte
dai terremoti standard (in termini di -log10A*) in funzione della distanza tra la
16
stazione sismica e l’epicentro. Il terremoto standard ha perciò una magnitudo
M=0.0. Dalla definizione si deduce che il terremoto campione è quello che a 100
Km di distanza produce una deflessione (ampiezza) pari a 10-3 mm (1 µm).
Richter chiamò la quantità così calcolata magnitudo locale poiché la sua
definizione era originariamente pensata per i terremoti locali della California.
Per tale motivo la magnitudo di Richter viene spesso indicata con il simbolo ML.
Esistono altre scale di magnitudo:
• MS : ottenuta dall’ampiezza delle onde di Rayleigh. È utilizzata per
caratterizzare i terremoti più distruttivi con origine relativamente in
superficie. Non è invece indicato per i terremoti relativamente piccoli,
regionali o locali.
• mb : ottenuta dalla massima ampiezza di onde P misurata sulla componente
verticale. Descrive in modo attendibile l’intensità di terremoti profondi ed
intensi ma non di quelli più catastrofici.
In generale tutti questi tipi di magnitudo tendono a saturare, ovvero ad essere
insensibili alle differenze di energia rilasciata dai terremoti più intensi. Una
magnitudo che descriva ogni tipo di terremoto si basa sul concetto di Momento
Sismico M0:
M0 = µµµµsru (2.1)
dove µµµµ è il modulo di rigidità della roccia, sr è l’area della superficie di rottura,
u è lo spostamento medio tra i due lembi della superficie di rottura. A partire dal
momento sismico è possibile determinare una Magnitudo Momento Sismico
MW :
MW = (LogM0 – 16.05)/1.5
Oltre a legare direttamente la grandezza del terremoto alle dimensioni della
sorgente, a differenza delle altre, la magnitudo momento sismico ha l’indubbio
vantaggio di distinguere i diversi livelli di energia irradiata dagli eventi
maggiori. Una relazione approssimata tra la magnitudo e l’energia rilasciata è
fornita dalla seguente equazione:
Log E = 1.5MS +11.8
dove E è l’energia, in erg, rilasciata da un terremoto di magnitudo MS. Essendo
la relazione logaritmica, la differenza d’energia tra due gradi di magnitudo è
quindi pari ad un fattore 1000.
17
2.2 Lo scuotimento sismico
2.2.1 Aspetti generali
Il punto chiave di ogni stima di pericolosità sismica è la previsione dello
scuotimento sismico, e cioè del moto sismico del suolo. In particolare,
nell’analisi di pericolosità sismica si considerano i moti del suolo di entità tale
da provocare danni su strutture edili (abitazioni, strutture industriali, ponti,
strade, ecc.).
Il modo più diretto per caratterizzare le interazioni fra i movimenti del suolo e
le sollecitazioni prodotte sull’edificato è quello di utilizzare l’accelerazione del
terreno in quanto questa è direttamente legata alle forze in gioco. Questa è
solitamente espressa in frazioni di g, l’accelerazione di gravità, che è pari a 9.81
m/s2. La scelta di questa unità di misura è legata al fatto che le strutture portanti
degli edifici sono sostanzialmente progettate per sostenerne il peso che è
funzione diretta dell’accelerazione di gravità. Quest’ultima rappresenta quindi
una scala naturale per rappresentare tutte le sollecitazioni a cui una costruzione
può essere sottoposta.
2.2.1.1 Le interazioni suolo-strutture
L’analisi della pericolosità sismica mira a prevedere gli effetti del moto del
suolo su strutture e costruzioni di dimensioni e massa ben definite. Le
interazioni tra le costruzioni e il moto del suolo durante un terremoto (SSI Soil-
Structure Interaction) sono assai complesse e vanno valutate attraverso studi
ingegneristici e geotecnici di dettaglio, specifici per ciascuna situazione (si
vedano i paragrafi 2.2.2 e seguenti).
Le interazioni suolo-strutture possono essere suddivise in due gruppi:
interazioni cinematiche e interazioni dinamiche. Le prime sono calcolate non
considerando la massa delle strutture coinvolte ritenendo che le dimensioni
relativamente piccole delle fondazioni rispetto alla lunghezza d’onda delle onde
sismiche giustifichino questo approccio. In questo caso, infatti, la modificazione
del moto del suolo causata dalla presenza di edifici è trascurabile. Le interazioni
18
dinamiche o inerziali sono prese in esame quando la massa delle fondazioni e
l’inerzia che essa oppone ai cambiamenti di quiete o moto, secondo i princìpi
della dinamica, giocano un ruolo importante. In questo caso, le interazioni
dinamiche fra suolo e struttura possono limitare l’ampiezza e l’intensità dello
scuotimento sismico diminuendo gli effetti dannosi e dissipando molta energia
(smorzamento della radiazione o radiation damping).
In una visione assai semplificata il moto del suolo, provocato dal terremoto,
causa negli edifici oscillazioni smorzate. Ciascun edificio è infatti caratterizzato
da una frequenza naturale ννννn il cui valore dipende dalle dimensioni e dalle
caratteristiche costruttive. L’inverso della frequenza 1/νννν definisce il periodo
proprio dell’oscillazione. Se un edificio viene sottoposto ad una sollecitazione
periodica con frequenza vicina a quella naturale, gli effetti di questa
sollecitazione saranno massimi (fenomeno della risonanza). È quindi di estrema
importanza sapere se le sollecitazioni del terreno sono caratterizzate da periodi
simili a quelli naturali delle strutture sollecitate.
L’andamento nel tempo della sollecitazione sismica del terreno può essere
visto come la somma di diverse sollecitazioni periodiche ciascuna caratterizzata
in termini di un’oscillazione regolare di frequenza fissata (componenti spettrali).
Utilizzando opportuni algoritmi matematici (analisi di Fourier) è possibile
sapere come la sollecitazione complessiva che interessa l’edificio viene
distribuita nelle varie componenti spettrali ed, in particolare, a quale di queste
sono associate le sollecitazioni massime.
Per valutare i possibili effetti dello scuotimento sismico è importante accertare
quali siano le componenti spettrali più energetiche e se la loro frequenza si
avvicina alla frequenza naturale di oscillazione degli edifici. Per questo motivo è
stato introdotto il concetto di accelerazione effettiva, definita come il valore
d’accelerazione corrispondente alla frequenza di interesse, di solito quella
propria della struttura allo studio. L’evidenza sperimentale indica che i massimi
d’accelerazione provocati dal terremoto si hanno per alte frequenze (>10 Hz)
mentre le strutture più massive sono caratterizzate da frequenze naturali molto
piccole (Ζ1 Hz). In particolare, gli edifici con ampie fondamenta risultano meno
sensibili ai moti sismici caratterizzati da frequenze elevate mentre risultano
molto sensibili a sollecitazioni caratterizzate da basse frequenze.
19
2.2.1.2 La misura strumentale dello scuotimento sismico
Dal punto di vista sperimentale, l’andamento nel tempo dell’accelerazione che
il suolo subisce a seguito di un terremoto può essere rilevato dall’accelerografo,
un sismografo configurato in modo da risultare sensibile alle onde sismiche ad
alta frequenza nelle tre direzioni spaziali. Il tracciato corrispondente viene
denominato accelerogramma. Integrando analiticamente i dati di accelerazione
è possibile risalire alla velocità e all’ampiezza dei movimenti del suolo.
Le registrazioni accelerografiche sono caratterizzate da alcune limitazioni. Per
esempio il valore di PGA (peak ground acceleration o massima accelerazione
del suolo) direttamente misurabile dagli accelerogrammi non è il massimo
assoluto di accelerazione ma il massimo tra le frequenze rilevabili dagli
accelerografi in funzione delle condizioni locali del sito di misura. Inoltre, tutte
le registrazioni sismiche sono ricavate da strumentazioni poste in particolari
edifici o strutture. Al fine di valutare l’attendibilità delle registrazioni, è
necessario conoscere come e quanto gli strumenti di misura siano influenzati
dalle interazioni suolo-strutture dovute agli edifici o alle installazioni dove sono
posizionati. A causa di queste influenze i valori di accelerazione possono essere
filtrati, alterati da amplificazioni o smorzati in corrispondenza di alcune
frequenze. In generale, i fenomeni di interazione suolo-strutture possono
condizionare in modo rilevante la stima strumentale del moto sismico soprattutto
alle alte frequenze. Il fenomeno diventa energeticamente trascurabile quando le
frequenze interessanti superano i 10 Hz.
Per valutare l’effetto dell’accelerazione del suolo, su di un generico edificio,
l’accelerazione misurata viene analizzata matematicamente ipotizzando che
questa solleciti un oscillatore sinusoidale, smorzato o no, rappresentativo
dell’edificio. In questo modo viene costruito il cosiddetto spettro di risposta
che rappresenta l’effetto dello scuotimento sismico alle diverse frequenze.
L’accelerogramma teorico ottenuto in questo modo può essere utilizzato,
mediante successive operazioni di integrazione matematica, per stimare lo
spostamento relativo del terreno (RD - Relative Displacement), la pseudo
velocità relativa PSRV (pseudo relative velocity) e la pseudo accelerazione
assoluta PSAA (pseudo absolute acceleration).
20
Le relazioni tra RD, PSRV, PSSA, in funzione dello spettro di frequenza e per
diversi valori dello smorzamento, sono rappresentabili mediante un diagramma
tripartito (tripartite plot, fig. 2.8). Da questo tipo di diagramma è possibile
identificare quali sono i valori massimi di velocità, accelerazione e spostamento
del suolo, nonché se le frequenze che li generano si avvicinano alle frequenze
naturali delle strutture di interesse.
Fig. 2.8 – Spettro di risposta relativo ad una registrazione accelerografica. Sono rappresentati lo spostamento
relativo del terreno (RD - Relative Displacement), la pseudo velocità relativa PSRV (pseudo relative velocity) e la pseudo accelerazione assoluta PSAA (pseudo absolute acceleration). Le diverse curve si riferiscono a diversi valori dello smorzamento (damping). Le lettere in blu si riferiscono ad un esempio di lettura riportato nel testo.
La lettura dei tre parametri per un periodo (o frequenza) d’interesse si effettua
a partire dal punto “A” sull’asse dei periodi (ma sarebbe uguale partendo
dall’asse delle frequenze) mandando la verticale sino all’intersezione “B” con la
curva dello spettro di risposta per il valore di smorzamento (damping) prefissato,
21
0% nell’esempio riportato. Dal punto di intersezione “B”, la parallela all’asse
dei periodi, nella direzione “C”, individua il valore della pseudo velocità
relativa PSRV (pollici/s nel grafico). La direzione “D”, a 45° verso sinistra,
individua invece il valore della pseudo accelerazione assoluta PSAA (in frazioni
di g), mentre la direzione “E” a 45° verso destra, individua lo spostamento
relativo del terreno RD (in cm o pollici). I valori dei tre parametri sono leggibili
in corrispondenza della freccia sul rispettivo asse, che si ricorda essere
logaritmico.
2.2.1.3 La caratterizzazione quantitativa dello scuotimento sismico
Lo scuotimento sismico può essere caratterizzato mediante diversi parametri.
La scelta del parametro più adatto è funzione degli obiettivi dell’analisi di
pericolosità sismica e delle informazioni disponibili.
Il modo più semplice, ed il più utilizzato, per caratterizzare lo scuotimento
sismico è mediante il picco di massima accelerazione del suolo PGA (Peak
Ground Acceleration) che rappresenta la massima sollecitazione (in termini di
forze) a cui una data struttura viene sottoposta. In generale, il massimo delle
accelerazioni viene riscontrato per frequenze alte, lontane dalla frequenza
propria degli edifici (tipicamente 1 Hz), quindi la PGA è solo raramente efficace
come indicatore sintetico dei danni.
Si è osservato che in alcuni casi il picco di velocità è un migliore indicatore
sintetico di danno rispetto al picco di accelerazione. Il picco di velocità,
usualmente associato a movimenti sismici del suolo a lungo periodo, è
facilmente correlabile con l’energia cinetica (proporzionale a V2). Per ovviare i
limiti che anche il picco di velocità possiede nel quantificare le relazioni tra
danni e moto del suolo, sono stati proposti altri parametri ritenuti più efficaci.
Uno di questi parametri è l’Intensità di Arias IA (Arias, 1970), definita come:
∫∫∫∫ππππ
====0
0
2 )(2
t
A dttag
I
dove a(t) è l’accelerazione rilevata nell’intervallo compreso fra l’inizio dello
scuotimento sismico e il tempo t0 quando il forte moto del suolo cessa.
L’Intensità di Arias IA è dipendente dall’energia totale del moto sismico.
22
Un altro parametro è il CAV o Velocità Assoluta Cumulativa (Cumulative
Absolute Velocity) definito come:
∫∫∫∫====0
0
t
dt|)t(a|CAV
dove |a(t)| è il valore assoluto dell’accelerazione e CAV è la somma delle
velocità incrementali.
Un ulteriore parametro rappresentativo della pericolosità sismica è l’Intensità
di Housner H… definita come l’integrale dello spettro di risposta di
pseudovelocità (a pericolosità uniforme, par. 3.3.3.1.2) calcolato in un
opportuno intervallo di frequenze; i puntini indicano il tempo di esposizione per
cui è stimata. Il parametro può rappresentare le diverse condizioni di pericolosità
e risultare correlato al danno subito dagli edifici in base alle scelte del periodo di
ritorno e dell’intervallo spettrale. È quindi possibile utilizzare diversi indicatori.
Ad esempio il parametro H50 è significativo per individuare il livello di
protezione dal collasso dovuto a terremoti distruttivi ma piuttosto rari, H10 è
significativo per individuare il livello di protezione dal danneggiamento per
terremoti più frequenti e meno pericolosi, ma tali da produrre danni e disagi
notevoli. In particolare:
• H50, corrispondente a un periodo medio di ritorno di 475 anni (probabilità di
eccedenza del 10% in 50 anni) e all’intervallo spettrale 0.2-2 sec.; tale
parametro, associato a un lungo periodo di ritorno e alle ordinate spettrali
relative a periodi medio–lunghi, è correlato principalmente alla possibilità
che si verifichino terremoti di elevata magnitudo e di conseguenza è un
indice significativo del livello di protezione dal collasso.
• H10: corrispondente a un periodo medio di ritorno di 95 anni (probabilità di
eccedenza del 10% in 10 anni) e all’intervallo spettrale 0.1-0.5 sec; tale
parametro, associato a un breve periodo di ritorno e alle ordinate spettrali
relative a periodi brevi, è correlato principalmente alla possibilità che si
verifichino terremoti di bassa magnitudo e di conseguenza è un indice
significativo del livello di protezione dal danneggiamento.
(per la definizione di tempo medio di ritorno, tempo di esposizione e probabilità
di eccedenza si vedano i par. 3.3 e seguenti).
Alcune evidenze, infine, indicano che a parità di valore assoluto di
accelerazione, la durata delle oscillazioni sismiche è da considerarsi
23
determinante per l’intensità finale dei danni. L’effetto della durata è quello di
prolungare le sollecitazioni nel tempo e attivare fenomeni che aggravano gli
effetti del moto sismico (liquefazione del suolo, instabilità di versanti, ecc.).
Utilizzando i soli picchi di velocità o accelerazione del suolo, la durata dello
scuotimento non è considerata, mentre costituisce un fattore importante per
definire gli effetti attesi anche in corrispondenza di picchi di accelerazione o
velocità non ritenuti pericolosi.
La durata dello scuotimento sismico può essere definita in diversi modi. La
definizione più diffusa è quella di durata limitata (bracketed duration) che
descrive l’intervallo di tempo, durante il terremoto, nel quale è superata una
soglia di accelerazione del moto sismico del suolo (es. 0.05g).
2.2.1.4 Le scale d’intensità macrosismica
Tutte le grandezze descritte nel paragrafo precedente possono essere dedotte
dall’analisi delle accelerazioni misurate strumentalmente. I principali vantaggi,
nell’uso di questi parametri per caratterizzare lo scuotimento sismico, risiedono
nel loro carattere quantitativo e nella possibilità che offrono di analizzare, da un
punto di vista fisico, le interazioni suolo-strutture. Tuttavia la complessità di
quest’ultimo processo rende impossibile stabilire una relazione biunivoca fra il
danneggiamento atteso e lo scuotimento sismico descritto da questi parametri.
Un procedimento alternativo, per la valutazione dello scuotimento sismico, è
quello di tipo indiretto basato su una classificazione dei diversi scenari di danno
prodotti dai terremoti. I vari scenari permettono una valutazione di tipo ordinale
degli effetti sismici e, indirettamente, dello scuotimento sismico che li ha
originati. Questi scenari costituiscono le cosiddette scale di intensità
macrosismica. Ciascuna fornisce una classificazione numerica basata su classi
discrete che esprimono l’intensità I, definendola come l’unico parametro
fondamentale della sismologia macrosismica, capace di quantificare e
classificare la severità dello scuotimento del terreno attraverso l’osservazione
degli effetti prodotti dal terremoto.
L’intensità macrosismica è una misura convenzionale basata sull’osservazione
di un insieme di elementi (relativi ai comportamenti delle persone, gli effetti
24
sull’ambiente e sugli edifici) congruenti con una determinata risposta sismica.
Le varie categorie di effetti vengono ordinate su una scala ordinale e discreta di
valori, a partire dalla risposta più leggera fino a quella più distruttiva, venendo
così a costituire i gradi di una scala di intensità che consente di attribuire un
parametro in qualche modo quantitativo (il grado di intensità espresso in forma
numerica) ad un insieme di dati puramente qualitativi (la descrizione dei danni e
degli effetti causati da un terremoto in una determinata località).
Benché già nel XVI secolo fosse iniziata la compilazione di scale di questo
genere, il primo lavoro nel quale veniva stabilito un criterio di valutazione
internazionalmente riconosciuto fu la scala De Rossi-Forel (1884), in 10 gradi,
successivamente ampliata e migliorata (soprattutto per quanto concerneva la
saturazione dei gradi elevati) nel 1902 da Giuseppe Mercalli il quale ne portò a
12 i livelli. Tale scala, in seguito ulteriormente modificata da Cancani e Sieberg
(1932) nella versione MCS (dalle iniziali degli autori: Mercalli-Cancani-
Sieberg), è tuttora in uso in Italia (la scala MCS è riportata in Appendice).
Ulteriori variazioni, come l’introduzione della tipologia degli edifici nella
valutazione del grado di danneggiamento, furono apportate nel 1931 da Wood e
Neumann i quali produssero la scala Mercalli Modificata (MM), in seguito
perfezionata da Richter nel 1956.
Più recentemente, i danni arrecati alle costruzioni hanno assunto sempre
maggiore importanza, rispetto ad indicatori di altro genere, nell’evoluzione delle
scale macrosismiche. Infatti, se da un lato la possibilità di classificare le
tipologie di edificio e le caratteristiche dei danni consente una maggiore
oggettività delle valutazioni, dall’altro è importante ricordare che la prevenzione
dei danni alle costruzioni, e di conseguenza alle persone, costituisce l’obiettivo
principale della ricerca sismologica. In base a queste considerazioni, le scale
macrosismiche più recenti, quali ad esempio la Medvedev-Sponheuer-Karnik
(MSK), prendono in esame il tipo di danno in relazione alle tipologie costruttive
legate all’edilizia più recente e, quindi, forniscono un quadro complessivo degli
effetti sismici in relazione al contesto edilizio coinvolto.
Negli ultimi anni, l’esigenza di definire una scala più robusta ed agevole
nell’utilizzo e che prendesse in considerazione le nuove tipologie edilizie
(soprattutto le costruzioni progettate a norma antisismica) ha portato alla
compilazione della nuova scala macrosismica europea EMS92 e successiva
25
EMS98. Tale scala, che costituisce un aggiornamento della precedente MSK,
individua per gli edifici cinque gradi di danno crescenti da 1 a 5 (es., grado 1 =
danno strutturale assente; grado 5 = collasso o danno strutturale molto forte) e
sei classi di vulnerabilità (es., classe A = edifici molto vulnerabili in muratura
con pietre non squadrate; classe F = edifici poco vulnerabili in cemento armato
con alto livello di progettazione antisismica).
Attualmente in vari Paesi del mondo vengono adottate scale diverse. Negli
Stati Uniti è particolarmente in uso la scala MM, in Europa Orientale viene
prevalentemente impiegata la MSK, mentre in Giappone è utilizzata la scala
JMA a otto gradi di intensità. Per quanto riguarda l’Italia, viene prevalentemente
adottata la scala MCS, soltanto negli ultimi anni è entrata in uso anche la scala
europea EMS.
Dal momento che le scale macrosismiche elencate risalgono ad epoche diverse
e sono basate su criteri differenti, esse non coincidono esattamente: spesso
apparenti contraddizioni sorgono dal modo in cui sono state utilizzate soprattutto
per quanto concerne gli effetti sugli edifici. La scala MCS, ad esempio, nata
intorno agli inizi del XX Secolo, fa riferimento a costruzioni dell’epoca
(certamente preesistenti all’avvento del cemento armato ed alla progettazione
antisismica) realizzate con mezzi tecnici ed economici modesti; un’applicazione
“letterale” di tale scala ad un abitato moderno porterebbe, secondo alcuni, a
sottostimare l’intensità di almeno due gradi nel caso di intensità superiori al
grado VI.
Il principale vantaggio di una parametrizzazione dello scuotimento sismico
mediante l’intensità macrosismica risiede nella possibilità che offre di
classificare lo scuotimento in funzione dei danni, e più in generale, degli effetti
che esso è in grado di provocare nell’ambiente antropico, tenendo quindi conto
implicitamente del complesso processo di interazione suolo-strutture.
Un ulteriore vantaggio dell’utilizzo dell’intensità macrosismica è quello di
consentire la caratterizzazione dello scuotimento sismico in corrispondenza di
terremoti del passato i cui effetti possono essere dedotti in modo non-
strumentale solo sulla base dei documenti disponibili. Questo rende l’intensità
uno strumento insostituibile per analisi di pericolosità basate sullo studio della
sismicità passata.
26
Il principale limite di questo tipo di parametrizzazione risiede nel suo carattere
fondamentalmente empirico. Va comunque notato come il carattere
fenomenologico dell’intensità macrosismica non rende questa parametrizzazione
dello scuotimento “arbitraria” anche se mantiene grandi margini di
“soggettività”.
Un altro limite dell’intensità macrosismica è il suo carattere “medio”. Infatti,
mentre le misure accelerografiche permettono una stima puntuale dello
scuotimento, l’intensità rappresenta uno “scenario” di danno e quindi uno
“scuotimento medio” del terreno su di un’area estesa. Infine, questo parametro
non è direttamente utilizzabile per la progettazione degli edifici in funzione
antisismica.
Per superare quest’ultimo problema sono state proposte stime e leggi empiriche
per la valutazione grossolana dei parametri di scuotimento “ingegneristici” a
partire dal dato di intensità. Per esempio
log a = 0.30 IMM +0.014 (IV≤≤≤≤IMM≤≤≤≤X)
e
log v = 0.25 IMM – 0.63 (IV≤≤≤≤IMM≤≤≤≤X)
dove a è la media stimata della componente orizzontale del picco
d’accelerazione, v è la media stimata della componente orizzontale del picco
della velocità, IMM è l’intensità Mercalli Modificata.
Per l’area mediterranea, l’Italia in particolare, sono state proposte le seguenti
relazioni di regressione tra l’intensità macrosismica e l’accelerazione del suolo.
In condizioni di campo lontano si avrà che
849.0158.0log ++++==== MSKIhPGA
e
689.0179.0log ++++==== MCSIhPGA
dove hPGA è il picco di accelerazione orizzontale del suolo, IMSK è l’intensità
espressa nella scala MSK e IMCS è l’intensità espressa nella scala MCS.
Queste relazioni, utilizzabili per una stima qualitativa dei parametri di
scuotimento di interesse ingegneristico, qualificano l’intensità macrosismica per
valutazioni di pericolosità, grazie alla sua capacità di fornire una stima diretta
(anche se empirica) del tipo di scenario di danno atteso per un dato evento
sismico.
27
2.2.2 I processi fisici che controllano lo scuotimento sismico
Lo scuotimento sismico è generalmente controllato da tre fattori principali:
• Caratteristiche della Sorgente, ovvero le modalità di rilascio dell’energia
sismica responsabile dello scuotimento sismico al sito.
• Caratteristiche di propagazione dell’energia sismica, che includono le
modalità di propagazione dell’energia dalla sorgente al sito.
• Caratteristiche di sito, ovvero l’insieme dei fattori geomorfologici e
strutturali che controllano le modalità di propagazione dell’energia nelle
immediate vicinanze del sito.
La conoscenza del modo in cui questi fattori controllano lo scuotimento
sismico è la premessa fondamentale per la valutazione della pericolosità sismica.
2.2.2.1 La sorgente sismica
Per meglio capire come il moto sismico del suolo sia influenzato dal tipo di
sorgente, è uso corrente riferirsi ad un semplice modello (modello di Brune) in
cui la sorgente viene descritta come un piano di scorrimento circolare di raggio
definito (la faglia), in cui la rottura interessa contemporaneamente l’intera area.
La dimensione della faglia, in relazione alla lunghezza d’onda dell’emissione
sismica, individua una distanza minima oltre la quale si definisce il campo
lontano (far field), dove gli effetti di dimensione o conformazione della
superficie di rottura sismica possono essere considerati trascurabili.
Normalmente l’assunzione di campo lontano si realizza quando le dimensioni
stimate della sorgente sismogenica sono inferiori di un fattore 10-2 rispetto alla
distanza sito-sorgente. In questo caso la sorgente può essere assunta puntiforme.
Se ciò non si verifica si fa riferimento ad una situazione di campo vicino (near
field). Utilizzando il semplice modello proposto è poi possibile calcolare
analiticamente lo spettro del terremoto atteso in funzione delle caratteristiche
geometriche della sorgente.
La reale conformazione della superficie di rottura complica il semplice modello
proposto quando si tenta di simulare la radiazione sismica nel campo vicino. La
nucleazione della rottura non è un processo istantaneo, l’espansione della
28
superficie di frattura avviene a velocità finita. Il fronte di rottura si propaga sul
piano di faglia con velocità dell’ordine di grandezza delle onde S, fino a che non
arriva in superficie o incontra troppa resistenza per proseguire. Alte velocità di
propagazione della frattura implicano grandi movimenti del suolo in superficie,
specialmente per onde sismiche ad alta frequenza.
La propagazione del fronte di rottura risulta condizionata dall’eterogeneità del
mezzo geologico. L’effetto è che il moto risultante associato alla faglia non è
uguale su tutta la superficie di rottura, cosa che risulterebbe da una propagazione
perfettamente omogenea. Le faglie reali sono dotate di porzioni più resistenti
definite barriere o asperità. I termini implicano diversi meccanismi nel
movimento delle superfici di faglia. Nel modello a barriere, lo stato di sforzo
iniziale della superficie di faglia è considerato uniforme, mentre l’avanzamento
dei fronti di rottura lascia alle sue spalle zone di resistenza definite barriere. Se
lo stato di sforzo è tale da vincere anche queste resistenze, si potranno avere
altre nucleazioni di rottura, queste produrranno le repliche (aftershock), scosse
associate all’evento sismico principale.
Nel modello ad asperità lo stato di sforzo della faglia è già inizialmente
eterogeneo con zone a tensione nulla e zone in cui gli sforzi sono concentrati, le
asperità. Quando la resistenza delle asperità è superata, la faglia si muove
generando il terremoto. Secondo alcuni studiosi, le repliche e le eventuali scosse
precedenti quella principale sono spiegabili con la presenza delle barriere e delle
asperità.
2.2.2.1.1 Gli effetti direzionali
La conoscenza dell’orientazione spaziale della superficie di faglia, la “struttura
sismogenica”, è importante in quanto permette di determinare le direzioni lungo
le quali le onde sismiche avranno la massima ampiezza. Infatti, a partire
dall’ipocentro, le onde S e P non si propagano nel volume di roccia con un
fronte sferico uniforme ma assumono una distribuzione che dipende
dall’orientazione del piano di faglia e dalla direzione di scorrimento. Le
caratteristiche proprie del moto oscillatorio delle onde P determinano dei lobi di
propagazione in cui quelle a massima ampiezza sono prossime alle direzioni a
29
45°, 135°, 225° e 315° dal piano di faglia (fig. 2.9). Nell’illustrazione si è
assunto una condizione di campo lontano approssimando la sorgente ad un
punto.
Risultano così quattro lobi perpendicolari tra loro che individuano le direzioni
di massima ampiezza delle onde P (nella realtà i lobi sono tridimensionali).
Analogamente esistono quattro lobi in cui si ha il massimo di ampiezza delle
onde S. Questi hanno direzione parallela e perpendicolare al piano di faglia e
risultano ruotati di 45° rispetto ai lobi delle onde P. Sapere le direzioni in cui si
propagano le onde di massima ampiezza è fondamentale per conoscere in che
zone, rispetto all’ipocentro e all’orientazione del piano di faglia, si
riscontreranno, in superficie, gli effetti più intensi di scuotimento del suolo.
Fig. 2.9 - Orientazione dei lobi di propagazione delle onde P in funzione dell’orientazione della faglia sismogenetica. La lunghezza delle frecce è proporzionale all’ampiezza delle onde emesse nella direzione corrispondente
Un importante effetto legato alla velocità finita di propagazione del fronte di
rottura è la direttività (directivity) o focalizzazione (focusing). Il fronte di
rottura, propagandosi con velocità finita dall’ipocentro lungo la superficie di
faglia, determinerà uno scuotimento del suolo differente in due siti posizionati in
modo opposto rispetto alla direzione di faglia. Per un effetto di interferenza
costruttiva, un sito che si trova lungo la direzione di propagazione del fronte di
30
rottura, risentirà di ampi scuotimenti sismici di breve durata. Un sito posto nel
verso opposto, risentirà invece di movimenti di minore ampiezza ma di più
lunga durata. Il fenomeno si accentua quando la velocità di rottura è prossima a
quella delle onde S e l’angolo tra ricevitore e faglia è piccolo.
2.2.2.2 Gli effetti di propagazione
2.2.2.2.1 L’attenuazione
Gli effetti del percorso di propagazione sul moto sismico del suolo sono
principalmente legati al fenomeno dell’attenuazione che agisce sulle onde
sismiche. L’attenuazione comporta una diminuzione nell’ampiezza delle onde
sismiche man mano che queste si allontanano dalla sorgente. Per questo motivo
la distanza r sito-epicentro terremoto, insieme alla magnitudo, rimane uno dei
parametri fondamentali per la definizione del moto sismico del suolo.
Nel caso ideale, l’attenuazione risulta dalla combinazione di due componenti:
la diffusione geometrica (geometrical spreading) e l’assorbimento o
smorzamento (adsorption o damping). Il primo effetto comporta una
diminuzione d’ampiezza delle onde sismiche dovuta alla ridistribuzione della
loro energia su di un fronte d’onda di superficie sempre più ampia al crescere
della distanza dalla sorgente. La diminuzione di ampiezza avviene secondo un
fattore 1/r, se il fronte d’onda è assunto sferico (propagazione in un mezzo
uniforme ed isotropo), oppure 1/ r se il fronte d’onda è assunto cilindrico
(mezzo stratificato e piano). La struttura sferica e stratificata della Terra
complica la scelta dell’esatto fattore di attenuazione per diffusione geometrica,
tuttavia, per forti scuotimenti dovuti a terremoti vicini l’incertezza sull’esatta
assunzione del fattore di attenuazione è secondaria.
Il fenomeno dello smorzamento dipende dalla natura non perfettamente elastica
del mezzo geologico che determina una perdita continua di energia durante la
propagazione. L’effetto è quello di una costante diminuzione nell’ampiezza
dell’oscillazione, con la distanza, fino al completo smorzamento. L’espressione
che lega la diminuzione di ampiezza, dovuta allo smorzamento, in relazione alla
31
distanza percorsa dall’onda sismica tra due posizioni successive r ed r0 lungo la
stessa direzione, ha la forma generica
2
)(
0
0
)()(
rrQ
erArA
−−−−−−−−
====
dove Q, definito Fattore di Qualità, caratterizza l’assorbimento in funzione del
tipo di onda sismica e del mezzo di propagazione. Q può essere definito come il
tasso con cui l’ampiezza delle onde sismiche diminuisce con la distanza
percorsa. L’effetto dell’attenuazione, direttamente proporzionale alla frequenza
di propagazione, è confermato da evidenze sperimentali che evidenziano un
maggiore smorzamento delle onde sismiche che si propagano ad alta frequenza,
con conseguente diminuzione degli effetti provocati.
2.2.2.2.2 La legge di attenuazione
I fenomeni di attenuazione descritti nel paragrafo precedente e nell’assunzione
che la propagazione avvenga in una Terra immaginata come uno spazio
omogeneo ed isotropo, possono essere sintetizzati nella relazione seguente
)rr(Q
er
rKAA
020
0
−−−−−−−−==== (2.2)
dove A è l’ampiezza dell’onda alla distanza r dalla sorgente, A0 rappresenta
l’ampiezza dell’onda in un punto fissato posto ad una distanza r0 dalla sorgente,
K è una costante che non dipende dalla distanza della sorgente. In forma
logaritmica, l’equazione (2.2) è la seguente
)rr(Q
rln)Krln(AlnAln 0002
−−−−−−−−−−−−++++==== (2.3)
Dalla definizione della magnitudo M (vedi eq. 2.0) si sa che *AlnAlnM −−−−==== 0 (2.4)
Sostituendo la (2.4) nella (2.3) si ha che
++++++++++++−−−−−−−−==== 0*
02
ln)ln(2
lnln rQ
AKrrQ
rMA (2.5)
dove il termine fra parentesi quadre non dipende dalla distanza del punto
considerato dalla sorgente o dall’energia rilasciata.
32
L’equazione (2.5) suggerisce che il logaritmo dell’accelerazione di un’onda,
che si propaga in un mezzo isotropo, dipende linearmente dalla distanza r dalla
sorgente, dal logaritmo di questa distanza e dalla magnitudo dell’evento che l’ha
generata. In pratica, conoscendo la posizione della sorgente e la magnitudo del
terremoto responsabile dello scuotimento sismico ad un dato sito, conoscendo Q
e le costanti sperimentali che compaiono nella (2.5) sarebbe possibile prevedere
il valore dell’accelerazione prodotta dal terremoto. In generale, questi dati non
sono disponibili per via teorica e devono essere determinati empiricamente a
partire da osservazioni strumentali relative agli effetti di attenuazione
effettivamente osservati.
Le modalità di attenuazione descritte sopra rappresentano una semplificazione
dei processi che avvengono effettivamente. In particolare, l’eterogeneità del
mezzo in cui si propagano le onde sismiche rende l’attenuazione funzione del
percorso effettivamente seguito dalle onde sismiche dalla sorgente al sito. È
quindi ragionevole aspettarsi che terremoti provenienti da direzioni diverse o da
terremoti con epicentro caratterizzato da profondità differenti possano
raggiungere il sito con modalità differenti anche a parità di distanza.
2.2.2.3 Gli effetti di sito
In occasione di molti terremoti si sono riscontrati danni di intensità inattesa in
relazione alla distanza epicentrale e alla magnitudo del sisma. La causa è da
attribuirsi alle particolari condizioni geomorfologiche del sito colpito capaci di
amplificare lo scuotimento del suolo e quindi gli effetti distruttivi sulle strutture
che sono poste sopra di esso. Questi effetti di sito possono risultare
preponderanti rispetto agli altri parametri che determinano il valore del moto del
suolo.
2.2.2.3.1 Gli effetti di risonanza
La risposta sismica locale è definita come l’insieme delle variazioni in
ampiezza, durata e contenuto in frequenza, che un’onda sismica subisce
33
attraversando gli strati di terreno sovrastanti una formazione rocciosa, posta ad
una certa profondità nel sottosuolo, fino alla superficie. Queste variazioni
possono comportare un’amplificazione, come è il caso di una struttura geologica
molto comune, costituta da una copertura sedimentaria di spessore variabile
posta al di sopra di un basamento roccioso. Il fenomeno è provocato dalle
differenti caratteristiche meccaniche della roccia e del terreno. Il rapporto tra
l’accelerazione misurabile sul suolo rispetto all’accelerazione misurabile su
roccia, se affiorasse nel medesimo sito, determina il fattore di amplificazione
che solitamente è >1. È quindi frequente riscontrare i valori maggiori di
accelerazione in presenza di copertura sedimentaria. Il fattore di amplificazione
al sito non è costante, ma varia in funzione del contenuto in frequenza delle
onde sismiche. Questo andamento, dipendente dalla frequenza, è descritto dalla
funzione di amplificazione. Si avranno quindi frequenze di oscillazione
particolari per cui le onde sismiche, passando dalla roccia alla copertura
sedimentaria, daranno picchi di accelerazione del suolo molto elevati. La
funzione di amplificazione è una grandezza importante che indica quali
componenti spettrali delle onde sismiche sono state amplificate nel passaggio
attraverso il terreno e quali sono state smorzate. La copertura sedimentaria
agisce quindi come un “filtro”, amplificando l’ampiezza del moto del suolo in
corrispondenza di alcune frequenze e riducendola in corrispondenza di altre.
Questo effetto è dovuto alla differenza di densità ρρρρ e di velocità delle onde di
taglio VS che esiste tra roccia e sedimento. Il prodotto ρρρρVS definisce
l’impedenza del mezzo geologico rispetto alle onde sismiche. L’interfaccia
deposizionale (contatto netto tra roccia e sedimento) costituisce il contrasto
d’impedenza che è la condizione necessaria per permettere i fenomeni di
intrappolamento e risonanza causa dell’aumento locale dell’ampiezza delle
onde sismiche. Sinteticamente, il fenomeno si ha quando un’onda S, assunta
come sollecitazione armonica (a frequenza υυυυ costante), colpisce dal basso
l’interfaccia roccia-sedimento, questo ultimo considerato con caratteristiche
costitutive lineari. Il contrasto di impedenza tra roccia e sedimento intrappola
l’onda sismica nello spessore del deposito sedimentario determinando una serie
di riflessioni multiple costruttive. Il risultato è un accrescimento dell’ampiezza
dell’onda sismica e del conseguente scuotimento sismico del suolo. Il fenomeno
è fondamentalmente regolato dal rapporto esistente tra le caratteristiche
34
geometriche della copertura sedimentaria (spessore H) e dal contenuto in
frequenza dell’onda sismica. Il rapporto VS/H determina le frequenze per cui la
funzione di amplificazione raggiunge i massimi valori (nel caso teorico essa
tende all’∞), queste frequenze sono definite frequenze naturali υυυυn =4
)12( −−−−nH
VS
con n=1,2,3,…, ∞.
La risposta di un deposito sedimentario ad un’onda sismica risulta quindi
fortemente influenzata dalla frequenza naturale υυυυn del deposito sedimentario. La
situazione più pericolosa in termini di fenomeni di amplificazione si verifica
quando la frequenza di eccitazione υυυυ è pari ad una delle frequenze naturali di
vibrazione dello strato υυυυn. Quando si verifica tale condizione (υυυυ = υυυυn) si parla di
risonanza dello strato. Nella realtà il fenomeno è complicato dalle variazioni
non lineari delle caratteristiche del terreno che modificano anche l'andamento
delle onde sismiche. Il risultato è che la funzione di amplificazione dei terreni
reali è molto complicata, dipendendo dalla combinazione di molti parametri.
2.2.2.3.2 Gli effetti di bordo in valli alluvionali
Nel caso di valli alluvionali, oltre ai fenomeni citati precedentemente, è
necessario considerare due ulteriori effetti legati alla geometria particolare della
sezione valliva (effetti di bordo).
Il primo effetto è quello della focalizzazione delle onde sismiche in aree
prossime al bordo della valle a seguito dell’interferenza costruttiva delle onde
riflesse e rifratte. Il fenomeno è chiamato in causa in occasione di diversi eventi
sismici per spiegare i danni localizzati lungo strisce di terreno poste al margine
di valli alluvionali.
Il secondo effetto è quello prodotto dall’incidenza delle onde sismiche in
corrispondenza dell’interfaccia non orizzontale roccia-sedimento, al bordo della
valle, che determina la generazione di onde di superficie aventi direzione di
propagazione orizzontale e parallela alla superficie valliva. Le onde di
superficie, così generate, in presenza di una marcata differenza di impedenza tra
copertura sedimentaria e basamento roccioso, rimangono “intrappolate”
all’interno della valle e sono soggette a riflessioni multiple sui bordi della valle
35
stessa. Il loro moto è limitato soltanto dallo smorzamento del terreno. Il risultato
è, anche in questo caso, un aumento degli effetti distruttivi provocati
dall’intensificazione dello scuotimento sismico del suolo. La caratteristica
peculiare delle onde di superficie è rappresentata dalla loro durata, generalmente
di decine di secondi, e dal lungo periodo di oscillazione. Queste peculiarità
possono avere importanti ripercussioni da un punto di vista ingegneristico, in
special modo nella definizione della vulnerabilità sismica di ponti, dighe, edifici
di elevata altezza e di altre strutture caratterizzate da elevati periodi naturali di
vibrazione (>0.5 s). Questi sono alcuni casi in cui sono possibili fenomeni di
risonanza.
Le valli alluvionali profonde (H/L>0.25, dove H è la profondità e L la
semilarghezza della valle) sono caratterizzate da fenomeni di interazione tra
onde di volume e di superficie decisamente più complessi rispetto a quelli delle
valli superficiali (H/L<0.25). In entrambi i casi deve essere comunque
sottolineato che le marcate differenze di risposta locale esistenti tra le diverse
posizioni della valle possono determinare movimenti differenziali del terreno
con rilevanti implicazioni applicative per la progettazione antisismica.
2.2.2.3.3 Gli effetti della topografia
Oltre alle caratteristiche proprie delle diverse litologie, nelle condizioni di sito
vanno annoverate anche le particolarità geomorfologiche dell’area e della
superficie topografica stessa. Gli effetti topografici spiegano l’amplificazione
locale delle ampiezze dei movimenti del suolo che a volte si riscontrano in
presenza di cime, rilievi particolari, dorsali. In questi casi i fenomeni di
risonanza ed amplificazione sono dovuti a forme del paesaggio che favoriscono
riflessioni costruttive delle onde sismiche. L’effetto è particolarmente efficace in
presenza di creste rocciose. È questo uno dei casi, non sempre generalizzabile,
in cui risulta una maggiore pericolosità sismica per costruzioni su roccia rispetto
a quelle edificate su suolo.
È stato notato che l’amplificazione delle onde sismiche in presenza di cime è
un fenomeno dipendente dalla frequenza e che i massimi effetti si hanno quando
la lunghezza d’onda della sollecitazione sismica è circa confrontabile con la
36
larghezza del rilievo. L’effetto è più intenso per moti orizzontali. Alla base del
rilievo si ha invece un’attenuazione maggiore delle ampiezze determinando tra
base e cima sensibili differenze di scuotimento.
Le attuali conoscenze sugli effetti della topografia sono ancora molto limitate e
per certi versi contraddittorie soprattutto per quanto riguarda la valutazione
quantitativa di tali effetti. Le principali indicazioni ricavate da studi sperimentali
e teorici riguardanti gli effetti topografici sono le seguenti:
• Alla sommità di un’irregolarità topografica lo scuotimento sismico è
amplificato rispetto a quello della base;
• Esiste una relazione tra i fenomeni di amplificazione alla sommità di
un’irregolarità topografica e le caratteristiche geometriche dell’irregolarità
stessa. In particolare, tali fenomeni si verificano quando la lunghezza
dell’onda sismica incidente è comparabile con la larghezza della base
dell’irregolarità.
• L’entità dei fenomeni di amplificazione è correlata alla forma
dell’irregolarità topografica: maggiore è il fattore di forma H/L (i.e. rapporto
tra altezza dell’irregolarità H, rispetto alla base, e la semilarghezza L
dell’irregolarità), più elevata è l’amplificazione alla sua sommità;
• Non esiste, invece, un accordo quantitativo tra i risultati delle modellazioni e
le osservazioni sperimentali: generalmente i rapporti di amplificazione
misurati sono molto maggiori di quelli teorici.
In conclusione gli effetti topografici sono molto complessi, variano da caso a
caso, e non sono stimabili accuratamente. Per queste ragioni gli effetti
topografici sono di solito tralasciati nelle analisi di pericolosità sismica.
2.2.2.3.4 La liquefazione sismica del terreno
Tra gli effetti più distruttivi dei terremoti si annoverano quelli causati dal
fenomeno della liquefazione sismica del terreno. Questa è la causa dei danni
più importanti alle strutture costruite secondo le normative antisismiche. La
liquefazione lascia gli edifici intatti ma li fa vistosamente inclinare su di un
fianco o lo fa sprofondare per buona parte nel terreno (si veda la foto nel
frontespizio), fa emergere serbatoi di idrocarburi originariamente interrati, ecc.
37
La liquefazione sismica è un processo che altera le proprietà di resistenza
meccanica del suolo rendendolo simile ad un fluido viscoso. Questa perdita di
resistenza dei terreni saturi, posti cioè al di sotto del livello della falda acquifera,
si ha in conseguenza di sollecitazioni meccaniche statiche o dinamiche. Ciò
avviene solitamente nei depositi di sabbie sciolte fini (diametro dei clasti da 0.05
a 1.5 mm) sotto l’azione di carichi applicati o forze idrodinamiche, indotte dalle
onde sismiche, tali da provocare un aumento progressivo della pressione
dell’acqua che pervade i pori del sedimento. Quando questa pressione, detta
interstiziale, uguaglia la pressione di confinamento (quella a cui è sottoposto un
volume unitario di sedimento) la resistenza al taglio si riduce a zero ed il terreno
perde ogni resistenza meccanica. L’effetto finale prevede una compattazione del
terreno dovuta ad una diminuzione del volume dei pori.
Il fenomeno della liquefazione è direttamente controllato dalla granulometria
del sedimento interessato dalla sollecitazione sismica. La dimensione delle
particelle ha un duplice effetto, il primo è quello di determinare il tipo di forze
che le legano le une alle altre, il secondo è quello di definire la dimensione dei
pori del sedimento e quindi la sua capacità drenante.
La classe granulometrica dei sedimenti suscettibili di liquefazione (diametro
dei clasti da 0.05 a 1.5 mm) è correlabile alle dimensioni massime dei granuli
tali da rendere ininfluenti le cariche elettrostatiche superficiali che determinano
la coesività dei terreni coerenti. Il fenomeno è tipico delle argille che sono
composte da frammenti di minerali argillosi di dimensioni inferiori ai 0.004 mm
(4 µm). Le caratteristiche cristallografiche dei minerali che compongono le
argille (smectiti, illiti, montmorilloniti, ecc.) determinano uno spaiamento delle
cariche elettriche sulla superficie delle particelle che, in ossequio alle leggi
dell'elettrostatica, sono in grado di produrre una attrazione elettrostatica. È
questa forza che conferisce alle argille la sua caratteristica "adesività", proprietà
che invece non è posseduta dalle sabbie (diametro dei clasti maggiori di 0.06
mm) la cui unica forza che lega un granulo all'altro è quella d'attrito. I sedimenti
di questo tipo sono definiti incoerenti. Il legame elettrostatico, dipendendo dal
quadrato della distanza tra due particelle, diminuisce molto rapidamente se
queste vengono allontanate (ad esempio un raddoppio della distanza comporta
un indebolimento di quattro volte della forza elettrostatica del legame).
L'allontanamento delle particelle può essere provocato da un aumento della
38
pressione dell'acqua interstiziale che pervade i sedimenti saturi. La
sollecitazione sismica è spesso la causa della sovrappressione. L’eliminazione
della sovrappressione interstiziale è regolata anch’essa dalla dimensione dei
clasti. Granuli di dimensioni maggiori, lasciando spazi vuoti più grandi anche se
in minore numero per unità di volume, favoriscono una maggiore velocità di
drenaggio e quindi una più rapida eliminazione della sovrappressione. In questo
modo, la resistenza al taglio del sedimento, pur abbassandosi, non arriva ad
annullarsi e non porta quindi alla liquefazione del sedimento. Pertanto le
granulometrie corrispondenti alle ghiaie (clasti centimetrici) non danno luogo a
liquefazione perché la sovrappressione di origine sismica è immediatamente
dissipata per le dimensioni centimetriche dei pori. All’estremo opposto, nelle
argille non si ha liquefazione perché le dimensioni micrometriche dei pori
determinano una permeabilità così bassa che la sovrappressione non ha il tempo
di diffondersi nell’intero sedimento sedimento.
I terreni più suscettibili di liquefazione sono quindi quelli incoerenti in cui la
resistenza alla deformazione è dovuta principalmente all'attrito tra i clasti.
Nei depositi incoerenti saturi esistono tre meccanismi di liquefazione:
a) Liquefazione per filtrazione. Il terreno diventa instabile per la variazione
dei livelli di falda che provocano filtrazione di acqua dal basso. Il fenomeno
è legato ad un gradiente idraulico. Si ha in dighe in terra e argini; è un
fenomeno diverso da quello che si ha in condizioni sismiche per effetto di
sollecitazioni cicliche.
b) Liquefazione per effetto di carichi monotòni crescenti. La liquefazione si
ha per deformazioni volumetriche date da contrazioni dello scheletro solido
dei terreni incoerenti saturi ad elevata porosità iniziale, sotto l’azione di
carichi crescenti in condizioni non drenate (la pressione interstiziale non può
liberarsi).
c) liquefazione per effetto di carichi ciclici. È dovuta alla tendenza delle
sabbie a contrarsi sotto l’effetto delle vibrazioni. È il fenomeno più
complesso per il numero elevato di fattori che lo governano. Sotto carichi
ciclici la liquefazione può essere una condizione temporanea, seguita da un
recupero di resistenza, ma anche una condizione finale caratterizzata da
deformazione illimitata che comporta una totale perdita di capacità portante
del terreno.
39
La liquefazione può essere prodotta da sforzi ciclici completamente o
parzialmente alternati, prodotti da forze ad andamento regolare continuo o
irregolare (artificiali), più o meno prolungate nel tempo, o da carichi transitori
quali esplosioni o terremoti. Partendo dalla constatazione che le sabbie soggette
a vibrazioni tendono a compattarsi, un sedimento in condizioni non drenate,
sottoposto a sollecitazioni cicliche per un tempo sufficiente, determinerà una
competizione tra due processi che comportano rispettivamente uno la tendenza a
ridurre il volume totale del sedimento e uno a produrre una dilatazione dello
scheletro solido del medesimo. Questi processi avvengono in modo alternato
fino a che la pressione efficace non si annulla azzerando la resistenza al taglio.
Quando ciò avviene il mezzo si comporterà come un fluido dando luogo a
grandi deformazioni. L’ultima fase del processo prevede una compattazione
finale e l’assunzione di una struttura più stabile.
Un fattore determinante per il verificarsi o meno della liquefazione è la durata
della sollecitazione sismica. I fenomeni che innescano il processo non sono
istantanei, l’annullamento della resistenza al taglio si ha se la durata della
sollecitazione è tale da superare la capacità della porosità del terreno di dissipare
l’incremento di pressione interstiziale. Perciò, la liquefazione può avvenire solo
se la sollecitazione sismica ha una certa durata. La rapida diminuzione della
resistenza al taglio del suolo, che si ha nel processo di liquefazione, può essere
innescata da un altrettanto rapido cambiamento della frequenza di oscillazione
delle onde sismiche. In questo caso è il passaggio da onde di breve periodo ed
alta frequenza ad onde di lungo periodo e bassa frequenza che rende il terreno
simile ad un fluido, la transizione è nettamente non lineare.
L’esposizione dei siti alla liquefazione è strettamente correlabile all’età del
deposito: terreni di fondovalle recenti, paludi, zone deltizie e costali, meandri di
fiumi, riempimenti detritici, ecc. sono i terreni più esposti, mentre la
liquefazione non è stata osservata in aree alluvionali antiche. Spesso la
liquefazione si ripete nei siti dove già si era verificata in passato anche con
effetti maggiori. In sintesi, si ha liquefazione nei seguenti casi:
• In pianura il fenomeno diventa importante per terremoti di magnitudo
maggiore a 6.0, con durata delle onde sismiche di almeno 15 s e
accelerazioni del suolo maggiori di 0.10g;
40
• In depositi di delta fluviali e marini recenti, terreni di diporto, sedimenti
secondari con falda superficiale, vecchie paludi, vecchi meandri di fiume,
costituiti da materiali granulari fini, saturi, non consolidati, con densità
medio-bassa, con granulometria uniforme, tipicamente sabbie grossolane-fini
e limi (diametro clasti da 0.05 a 1.5 mm);
• Negli strati più superficiali, poiché la liquefazione difficilmente interessa
profondità superiori a 15÷20 m;
• In presenza di basse percentuali di argilla o ghiaia. Percentuali alte,
determinando rispettivamente un certo grado di cementazione tra i clasti e un
aumento delle dimensioni dei pori, limitano la suscettibilità alla liquefazione
dei depositi sedimentari;
• In assenza di strati superficiali non liquefacibili che, se di spessore maggiore
3m, possono contrastare la liquefazione degli strati.
• In un sito le liquefazioni possono essere ripetute e l’effetto di densificazione
non sempre è sufficiente ad impedire il ripetersi del fenomeno.
41
3. La Pericolosità sismica
3.1 Introduzione: le metodologie per la stima della
pericolosità sismica
La pericolosità sismica, definita come la probabilità che, in un determinato
intervallo di tempo (detto di esposizione), si verifichi in un dato luogo un
terremoto capace di causare danni, può essere valutata sia sulla base di metodi
deterministici sia mediante approcci di tipo statistico/probabilistico. Il primo
tipo di approccio tenta di definire la pericolosità sismica a partire da una
modellazione qualitativa del processo sismogenetico. Per essere efficace questo
tipo di approccio necessita di una notevole mole di informazioni affidabili circa
le caratteristiche delle sorgenti sismiche, dei processi di propagazione
dell’energia e sulle presenze di possibili effetti di sito. Attualmente, a causa di
un’incompleta caratterizzazione dei processi fisici all’origine dei terremoti, i
metodi deterministici trovano scarsa applicazione. Alla base delle tecniche
statistiche è la teoria della probabilità che trova applicazione laddove il
fenomeno studiato (in questo caso la sismicità) abbia un andamento non
prevedibile sulla base delle variabili che lo caratterizzano. Essendo in grado di
tenere conto delle incertezze derivanti da un’incompleta conoscenza del
processo sismico, i metodi statistici risultano di gran lunga quelli più utilizzati a
scala mondiale.
3.2 L’approccio deterministico
L’Analisi Deterministica parte dalla “previsione” dei singoli eventi per
stimare la pericolosità sismica sul territorio. Un esempio dei risultati di
un’analisi deterministica è il seguente: il massimo terremoto atteso al sito X sarà
caratterizzato da un’accelerazione di picco del suolo di 0.5g come effetto di un
sisma di magnitudo 6.5 con sorgente localizzata nella faglia Y distante 10 Km
42
dal sito di studio. Occorre quindi “prevedere” la sorgente sismica (faglia Y),
l’energia rilasciata dal terremoto massimo che essa può produrre nel tempo di
esposizione (magnitudo 6.5) e lo scuotimento del suolo, in termini di
accelerazione di picco, considerando l’attenuazione determinata dai 10 Km di
crosta che separano la faglia Y dal sito X.
Il procedimento può essere sintetizzato nei seguenti passaggi:
I. Definizione delle sorgenti sismiche. Sono considerate tali le strutture
geologiche potenzialmente sismogenetiche e definite in termini di faglie,
oppure, in mancanza di precise informazioni, come zone di varia
estensione areale. Le sorgenti possono quindi essere approssimate come
punti, linee o volumi secondo la precisione decrescente con cui è possibile
definirle.
II. Identificazione del potenziale di ogni sorgente. Questo è definito in
termini di massimo terremoto atteso (o terremoto di progetto) e cioè
del terremoto più forte plausibilmente associabile ad una data sorgente
sismica nel tempo di esposizione.
III. Quantificazione delle sollecitazioni del terremoto. Espresse di solito in
termini di accelerazione attesa attraverso la definizione di funzioni di
attenuazione con cui riportare al sito le sollecitazioni che si producono
alla sorgente.
3.2.1 La caratterizzazione delle strutture sismogenetiche
Assodato che i terremoti sono generati dalle faglie, non sempre è possibile
identificare con sicurezza quali faglie siano in grado di generarne e quali no. Per
ovviare alla mancanza di informazione sulle singole, si considerano le strutture
composte da più faglie “pericolose”. Sono definite strutture localizzate quelle
in cui sono chiaramente individuabili le faglie responsabili di terremoti. Una
zona sismogenetica è invece definita come un’area in cui non sono palesemente
individuabili faglie attive o strutture localizzate, e in cui il potenziale
sismogenetico si assume distribuito uniformemente su tutta l’area.
43
3.2.1.1 Le Strutture localizzate
Il primo passo di un’analisi deterministica prevede il riconoscimento e la
localizzazione delle sorgenti sismiche. Il riconoscimento delle strutture di faglia
o degli indizi della loro presenza avviene di solito con i seguenti criteri:
I. Evidenze direttamente osservabili di superfici e indicatori di frattura;
come specchi di faglia, strie di frizione, breccia di faglia, ecc.
II. Evidenze geologiche del movimento relativo dei due lembi di faglia;
come discontinuità o troncature di strati, contatti discordanti tra unità
stratigrafiche diverse o coeve.
III. Evidenze topografiche o geomorfologiche; come presenza di scarpate,
deformazioni del suolo o cambiamenti nella morfologia del paesaggio.
IV. Strutture geologiche secondarie; come variazioni nel livello della falda
freatica, variazioni dei parametri geochimici, allineamento di sorgenti
calde.
V. Lineamenti individuati con tecniche di telerilevamento; che possono
essere suggerite dalle strutture lineari individuabili da foto aeree o da
satellite.
VI. Indicatori geofisici di superfici di faglia; e cioè anomalie di gravità,
geomagnetiche, geoelettriche o cambiamenti repentini nelle velocità di
propagazione delle onde sismiche.
VII. Indicatori geodetici; e cioè movimenti relativi di capisaldi o rotazioni
anomale del suolo.
VIII. Sismicità; e cioè allineamento degli epicentri o distribuzione planare
degli ipocentri.
Accertata l’esistenza della faglia questa deve essere identificata come attiva e
cioè ancora in grado di produrre terremoti. In quest’ultimo caso la faglia può
essere definita faglia pericolosa se esibisce le seguenti caratteristiche:
1) Movimenti della stessa negli ultimi 35.000 anni o movimenti di natura
ricorrente negli ultimi 500.000 anni.
2) Sismicità, determinata per via strumentale direttamente correlabile ad essa.
3) Relazioni geofisico-strutturali con faglie che soddisfano le caratteristiche
1) e 2).
44
Esistono diversi stadi intermedi tra lo stato attivo e inattivo di una faglia.
Questi sono: attività potenziale, attività incerta, attività provvisoria e inattività
provvisoria. L’unica categoria di faglie tralasciata nell’analisi di pericolosità,
perché non considerata fonte di rischio, è quella delle faglie inattive.
Un importante parametro che lega la sismicità e lo stato di attività di una faglia
è il tempo medio di ritorno, definito come l’intervallo medio tra il ripetersi di
due eventi di data grandezza nella medesima faglia. Molto spesso la lunghezza
di questo intervallo è subordinata alla disponibilità di dati storici. Un aiuto nella
ricerca di eventi sempre più addietro nel tempo è fornito dalla paleosismica.
Evidenze geologiche di terremoti passati possono essere forniti dal
riconoscimento di particolari depositi sabbiosi associabili a fenomeni di
liquefazione del terreno.
3.2.1.2 La zona sismogenetica
L’estensione di una zona sismogenetica è definita in base ad una
concentrazione di terremoti collegabili ad un medesimo raggruppamento
(cluster) rispetto alle regioni circostanti. Ad ogni punto della zona sismogenetica
è assegnata la medesima capacità di generare terremoti. Ogni individuazione di
strutture localizzate diminuisce l’equipotenzialità della provincia a favore della
localizzazione di potenziali sorgenti. Normalmente le zone sismogenetiche sono
individuate nelle regioni situate tra le principali strutture tettoniche. Le zone
sismogenetiche sono definite in base ai seguenti tipi di dati:
• Geologici; e cioè dalle carte geologiche, nonché dalla lettura della
geomorfologia dell’area di studio, da cui è possibile risalire alla storia
geologica che ha portato all’attuale assetto regionale.
• Tettonici; e cioè dall’assetto strutturale dell’area di studio, raccogliendo i
terremoti accomunati dalla stessa area di origine e da meccanismi focali
compatibili. Particolare peso è dato alle strutture legate alla neotettonica, e
cioè prodotte dai terremoti più recenti.
• Geofisici; che forniscono informazione sulla struttura del sottosuolo a diversi
Km di profondità. Le anomalie di gravità, legate a contrasti di densità e
concentrazioni di massa, evidenziano le strutture di maggiori dimensioni. Le
45
anomalie magnetiche, segnalando la presenza di corpi rocciosi di diversa
proprietà magnetica rispetto a quelle della roccia incassante, evidenziano
possibili contatti tra rocce di diverso tipo, come spesso avviene tra i due
lembi di faglia. Le misure geodetiche possono indicare variazioni di quote
topografiche o di posizioni di capisaldi in seguito al movimento di strutture
sismogenetiche non superficiali. Gli strumenti principali per l’individuazione
di strutture profonde nelle provincie sismotettoniche sono la propagazione
sismica a rifrazione e quella a riflessione che permettono di identificare
forme e dimensioni delle strutture subcrostali e quindi anche delle faglie
“pericolose”.
• Campi di sforzo. Una tecnica recente, da misure in pozzo, permette di
quantificare direttamente il campo di sforzo in termini di intensità e
direzione. Questi dati permettono di stimare il tasso con cui l’energia elastica
si accumula e sul come verrà liberata.
• Sismici; e cioè le registrazioni storiche e strumentali della sismicità che
permettono di delimitare i confini delle zone sismogenetiche.
3.2.2 Il terremoto massimo atteso
Definite le sorgenti sismiche, lo schema dell’analisi deterministica (par. 3.2)
prevede la definizione del terremoto di progetto, o massimo terremoto atteso.
In questa fase si stima la grandezza del massimo terremoto associabile ad ogni
faglia, struttura localizzata o provincia sismotettonica attiva.
Il massimo terremoto che descrive più appropriatamente il potenziale sismico
di una sorgente sismica può essere definito in diversi modi:
• Il massimo terremoto possibile, che definisce il limite superiore
dell’energia che la struttura può rilasciare in un terremoto, determinato in
base alla tipologia della sorgente sismica. Rappresenta il parametro
maggiormente utilizzato nelle analisi deterministiche.
• Il massimo terremoto credibile, che viene utilizzato quando le conoscenze
sulle caratteristiche della sorgente permettono una migliore definizione del
più grande evento ad essa associabile. Suoi sinonimi sono massimo
terremoto atteso o massimo terremoto probabile.
46
• Il massimo terremoto storico, che è applicabile quando si ha a disposizione
un numero di dati storici sufficiente. Costituisce il limite inferiore della
dimensione del terremoto atteso associabile alla sorgente sismica.
La stessa fisica della sorgente sismica può fornire un’indicazione sulla stima
del massimo terremoto. Ricordando la definizione del momento sismico (eq.
2.1) ed il modello di faglia di Brune (par. 2.2.2.1), la magnitudo M di un
terremoto può essere correlata alle dimensioni della faglia secondo la seguente
equazione
M = 7
16
2
2
ΦΦΦΦ ∆∆∆∆σσσσ
dove 2
ΦΦΦΦ è il raggio della faglia supposta circolare, ∆∆∆∆σσσσ è lo stress drop, e cioè la
caduta di sforzo durante il sisma. Dall’equazione si può dedurre che, a parità di
∆∆∆∆σσσσ, più è grande la faglia maggiore è il momento sismico associato e l’energia
liberata nel terremoto.
Per situazioni geometricamente più complesse è necessario ricorrere a relazioni
di tipo empirico che mettono in relazione le caratteristiche geometriche delle
strutture attive, come lunghezza e movimento relativo dei lembi di faglia, con il
momento sismico del terremoto massimo.
L’estensione di una struttura sismogenetica viene efficacemente stimata
dall’estensione delle repliche (aftershock), che sono i terremoti che seguono
l’evento principale (mainshock) erroneamente definite “scosse d’assestamento”.
Le repliche sono ritenute responsabili della liberazione d’energia non
completamente rilasciata dall’evento sismico principale e la loro posizione
definisce al meglio l’estensione areale della superficie di frattura. La ripetizione,
nella stessa faglia, di eventi di intensità confrontabile con il massimo terremoto
definiscono il terremoto caratteristico.
La stima del massimo terremoto può essere fatta utilizzando le seguenti
caratteristiche geometriche delle faglie:
• Lunghezza in affioramento. Da questa è possibile ricavare la magnitudo
attesa tramite un’equazione empirica. Le difficoltà vengono dalla
ricostruzione della lunghezza totale di faglia come sommatoria di più
segmenti la cui attribuzione al medesimo evento non è sempre certa e
47
condizionata da variabili geometriche, meccaniche e di isotropia delle
caratteristiche della roccia.
• Area di frattura. L’area della superficie di frattura, direttamente correlabile
al momento sismico, è legata alla magnitudo del terremoto. Mentre la
lunghezza è stimabile, quando possibile, direttamente sul terreno, la
larghezza può essere assunta dai valori determinati per terremoti simili della
medesima regione. Una relazione valida in molti contesti tettonici è la
seguente:
log sr = M - 4.15 (M>5.6)
dove M è la magnitudo stimata e sr è l’area di rottura in Km2.
• Rigetto o spostamento. Lo spostamento relativo tra i due lembi della faglia
rappresenta un altro fattore direttamente correlato al momento sismico di un
terremoto. Il massimo rigetto osservabile in superficie viene assunto come lo
spostamento medio associato all’equazione del momento sismico (eq. 2.1)
con un intervallo d’incertezza del 30-50%. Importante è il riconoscimento del
tipo di faglia e del movimento relativo dei due lembi (letto e tetto).
• Tasso di spostamento. È la velocità con cui si muove una faglia,
normalmente espressa come media annua. Viene determinato misurando il
movimento totale lungo la faglia e dividendolo per il tempo impiegato a
percorrerlo. In questo modo si mediano i movimenti lenti (asismici), e quelli
rapidi (sismici) che potrebbero costituire la parte preponderante dello
spostamento totale. Si assume che faglie ad alto tasso di spostamento
implichino un’alta sismicità.
3.2.3 La determinazione dello scuotimento sismico atteso
La stima dei movimenti sismici del suolo, per gli scopi dell’analisi di
pericolosità sismica, deve essere effettuata con tecniche semplici che si prestino
ad essere applicate in contesti differenti anche in assenza di informazioni
dettagliate sul processo sismogenetico e sulle modalità di propagazione
dell’energia sismica, ma sostenute da basi teoriche o empiriche valide. In
generale, questo problema può essere affrontato partendo dalla modellazione
48
fisica del processo di propagazione, basato su di una parametrizzazione più o
meno completa del processo fisico, oppure su base empirica a partire dai dati
osservati.
3.2.3.1 L’approccio teorico
Esistono due tipi di modellazione teorica del moto sismico del suolo: la
modellazione dinamica e la modellazione cinematica.
I modelli dinamici si basano sulla definizione delle forze fisiche, tettoniche o
meno, che creano i regimi di sforzo e di attrito sulle superfici di frattura. Per
descrivere questi regimi vengono utilizzate equazioni matematiche.
I modelli cinematici non considerano lo stato di sforzo ma le condizioni
statiche iniziali (la posizione e l’orientamento) del processo di propagazione
della superficie di rottura (dislocazione). Il moto sismico della superficie è
conseguenza diretta della dislocazione. Un modello cinematico molto semplice
(diverso da quello di Brune precedentemente esposto par. 2.2.2.1), assumendo
una dislocazione uniforme che si propaga a velocità di rottura costante lungo
una superficie di faglia rettangolare, è in grado di fornire dati del moto del suolo
confrontabili con quelli misurati direttamente in regime di campo lontano. I
modelli cinematici, apparentemente semplicistici nelle assunzioni di partenza,
richiedono strumenti matematici tutt’altro che banali per ottenere lo spostamento
finale della dislocazione dalle funzioni di scorrimento (slip function). Queste
funzioni, a partire dalle condizioni iniziali, descrivono le modalità di
spostamento delle diverse porzioni della superficie di faglia.
Per entrambe le procedure di modellazione, il calcolo dello scuotimento
sismico al sito viene effettuato mediante l’applicazione delle funzioni di Green,
funzioni che rappresentano in modo quantitativo le modalità di propagazione
dell’onda sismica a partire dalle caratteristiche strutturali del substrato
interessato.
Il principale limite dell’approccio teorico è la quantità di informazioni
(geometria della sorgente, modalità di propagazione della frattura, caratteristiche
strutturali del mezzo fra la sorgente ed il sito, ecc.) che è necessario fornire al
modello per la previsione dello scuotimento sismico atteso. Inoltre, quanto più si
49
è interessati alle componenti in alta frequenza dello scuotimento sismico (ad
esempio per riprodurre il regime di campo vicino dello scuotimento) tanto più
dettagliate devono essere le conoscenze sui valori assunti dai vari parametri
fisici che influenzano il processo. Queste informazioni sono invece, per lo più,
ignote.
3.2.3.2 L’approccio empirico
Seguendo questo approccio, si rinuncia alla caratterizzazione dettagliata del
processo sismico e si tenta di valutare, su base esclusivamente empirica e
utilizzando leggi fenomenologiche, lo scuotimento sismico atteso partendo da un
numero di parametri fisici assai ristretto e che è possibile misurare.
La base di partenza di questo genere di approcci è la relazione (3.1) che lega il
logaritmo dell’accelerazione a , attesa al sito, alla magnitudo dell’evento
sismico (che rappresenta in qualche modo l’energia rilasciata alla sorgente) e
alla distanza del sito dalla sorgente. Come si è detto, questa relazione vale
rigorosamente solo nel caso ideale di una Terra isotropa. Più in generale si può
presumere che la forma funzionale f che lega i diversi parametri
all’accelerazione attesa a abbia una generica forma del tipo
ln a =f( M, r, ln r, ΓΓΓΓ ) (3.1)
dove r è la distanza dalla sorgente, M è la magnitudo e ΓΓΓΓ è un parametro
rappresentativo degli effetti di sito. f è in genere non lineare ed incognita.
Utilizzando però la formula di Taylor troncata al secondo ordine, la funzione
generica f può essere rappresentata nella forma:
εεεε++++++++++++++++++++++++++++++++++++==== 287
265
243
2210 )(lnlnˆln ΓΓΓΓΓΓΓΓ aararararaMaMaaa (3.2)
Le 9 costanti aj che compaiono nella (3.2), che rappresentano le derivate
parziali ed il termine noto, non possono essere calcolate direttamente dato che la
forma funzionale f è ignota. Questi parametri possono tuttavia essere stimati per
via empirica individuando i valori tra quelli che permettono di riprodurre le
accelerazioni effettivamente misurate, nota la distanza della sorgente dal punto
di misura, la magnitudo e il parametro di sito. È l’analisi statistica (detta di
regressione) a mettere eventualmente in evidenza la possibilità di ridurre la
complessità dell’equazione eliminando questa o quella variabile indipendente. Il
50
termine εεεε rappresenta “il resto” dell’approssimazione di Taylor ed in termini
statistici può essere visto come l’incertezza associata alla stima
dell’accelerazione mediante la relazione empirica.
La qualità dei risultati finali è condizionata dalle limitazioni del campione dei
dati disponibili per l’analisi di regressione e dalle incertezze sui valori
sperimentali relativi alle variabili indipendenti: sorgente, percorsi di
propagazione delle onde sismiche e condizioni locali del sito.
Il parametro dimensione della sorgente è espresso dalla Magnitudo M ed è
importante scegliere la scala più adatta in relazione alla disponibilità locale di
dati e al fenomeno della saturazione. Tutt’altro che semplice è la scelta della
variabile indipendente r, cioè la distanza sito-sorgente. Questa può essere
misurata dall’ipocentro, dall’epicentro, dalla zona di massima concentrazione di
sforzi della faglia (asperità), dal punto più superficiale del piano di rottura o
dalla proiezione di questo sulla superficie topografica se la faglia non affiora.
Normalmente si considera come riferimento il punto appartenente alla struttura
sismogenetica considerata più vicino al sito in studio. Spesso questo punto di
riferimento si trova al limite tra la copertura sedimentaria ed il basamento
cristallino sottostante. Nel caso in cui sito e sorgente siano molto distanti, la
scelta di dove misurare la loro distanza genera un errore relativo trascurabile.
Come si è detto, il termine ΓΓΓΓ è legato alle condizioni di sito. La classificazione del substrato geologico, al di sotto del sito in studio, si limita spesso alla
distinzione fra la presenza di “roccia” o “suolo”. Nel migliore dei casi si
distingue ulteriormente fra depositi alluvionali profondi o superficiali. La
distinzione può essere eseguita secondo criteri geologici, in base alla lettura
delle carte geologiche della zona o con un rilevamento sul campo, oppure
seguendo criteri geotecnici che definiscono “roccia” una litologia in cui le onde
S si propagano con velocità maggiore di 825 m/s. Le caratteristiche di
propagazione delle diverse unità litologiche, variabili anche in relazione alla
forma geologica del corpo, influenzano direttamente i picchi di accelerazione
già a partire dalle misure accelerometriche. Il non considerare queste variazioni
locali conduce a risultati inaccurati in quanto picchi anomali possono essere
direttamente correlati con una particolare litologia al di sotto del sito di misura.
Sperimentalmente si è rilevato che, in presenza di spessori di suolo variabili tra i
dieci e venti metri, si riscontrano i maggiori valori nei picchi di accelerazione e
51
velocità. Questi picchi sono particolarmente elevati alle basse frequenze dove gli
effetti di smorzamento sono minimi.
Un approccio alternativo all’uso del parametro ΓΓΓΓ nella legge di attenuazione è quello di utilizzare questa senza il parametro di sito per una stima
dell’accelerazione di picco. Questa, viene poi utilizzata come fattore di scala
applicato a spettri di risposta standard validi per le diverse configurazioni
strutturali al di sotto del sito di interesse.
I parametri dedotti dall’analisi empirica risultano dipendenti dal tipo di faglia
coinvolta e dal contesto tettonico in cui essa si trova. Si osserva, normalmente,
che in regime tettonico “compressivo” i picchi di accelerazione sismica sono
tripli, mentre quelli di velocità doppi, rispetto ai corrispondenti valori
riscontrabili in un regime tettonico “distensivo”.
Nella parametrizzazione empirica dell’equazione (3.1) è importante specificare
se i dati di moto del suolo sono correlati con accelerazioni orizzontali o verticali
in quanto i picchi raggiunti nelle tre direzioni spaziali possono essere molto
differenti.
Anche se l’approccio empirico appare invitante, in realtà presenta dei seri
limiti. Innanzi tutto, nonostante il suo carattere lineare, la funzione empirica
(3.1) risulta di difficile parametrizzazione a causa di una serie di fenomeni
statistici che rendono numericamente assai instabili i risultati della regressione.
Infatti, l’analisi condotta da diversi autori su banche dati differenti ha prodotto
stime assai differenti dei parametri presenti nella relazione. Risulta poi assai
difficile la valutazione del livello di incertezza associato alle stime fornite a
causa della particolare distribuzione dei residui.
In generale, abbastanza ottimisticamente, le relazioni empiriche tipo la (3.1)
sono considerate attendibili in presenza di terremoti di magnitudo ≥5.0 e distanti
meno di 50 Km, comunque in condizioni di campo vicino.
3.2.3.3 Gli approcci misti
Le conoscenze incomplete delle proprietà locali d’attenuazione, della
distribuzione dell’entità di scuotimento e di altri parametri, possono essere
migliorati con un approccio che, utilizzando i dati disponibili, sopperisca con la
52
modellizzazione teorica a quelli mancanti. Questa combinazione deterministica
di metodi empirici e simulazioni numeriche, definiti metodi misti, tenta di
sopperire all’inapplicabilità del metodo deterministico “puro”.
Il metodo semi-teorico è il più semplice. A parità di parametri (magnitudo,
distanza sorgente-sito, effetti locali, ecc.), la stima del moto del suolo viene fatta
considerando i valori di smorzamento che riproducono in modo più attendibile
gli scuotimenti registrati in passato nell’area in esame.
È stato proposto anche un approccio semi-empirico. Partendo da una sorgente
di riferimento semplificata, pertanto modellizzabile analiticamente, vengono
sviluppate relazioni empiriche che quantificano il picco del moto del suolo in
funzione della magnitudo e della distanza. Per l’applicazione di questo
approccio si devono avere informazioni sui parametri d’attenuazione da
calibrare in funzione dell’entità di scuotimento risentiti nell’area di studio.
Il più potente approccio misto per stimare il moto sismico del suolo è chiamato
a vibrazione casuale (random vibration), detto anche metodo stocastico
(stochastic method). La tecnica si basa sulla constatazione che la maggior parte
di un accelerogramma mostra una distribuzione pressoché casuale dei picchi di
massimo scuotimento associabili agli arrivi delle onde S. In pratica il metodo
parte da un segnale casuale (rumore bianco) che viene modificato mediante un
filtro numerico definito a partire da un modello di faglia.
Utilizzando questa tecnica è possibile generare segnali casuali con le stesse
caratteristiche spettrali di un segnale sismico. In questo modo possono essere
generati a piacere “terremoti” artificiali per ciascuno dei quali è possibile
calcolare la massima accelerazione. Ripetendo le simulazioni è possibile
valutare le frequenze relative dei diversi valori di picco e valutare quale sia il
valore più attendibile.
Per la loro diretta dipendenza dai parametri fisici che condizionano i fenomeni
di propagazione delle onde sismiche, i metodi stocastici di questo tipo sono
molto considerati. Il loro limite principale è legato alla necessità di conoscere
diversi dettagli della sorgente sismica in mancanza dei quali diventa molto
difficile ottenere risultati attendibili.
53
3.2.4 I vantaggi ed i limiti dell’approccio deterministico
Nei precedenti paragrafi sono state evidenziate le difficoltà connesse alla stima
dello scuotimento sismico atteso. Questo parametro costituisce in realtà solo un
elemento del processo di definizione della pericolosità sismica. In particolare, la
valutazione dello scuotimento assume nota l’occorrenza di un evento sismico
con caratteristiche e geometria definite. In generale, sebbene sia possibile
formulare diverse ipotesi sul terremoto atteso, le caratteristiche di quest’ultimo
risultano ignote. È quindi necessario valutare la probabilità che uno dei possibili
eventi sismici, capaci di produrre danni al sito di interesse, si verifichi durante il
tempo di esposizione. Una stima di questo tipo richiede una conoscenza
dettagliata delle possibili sorgenti sismiche, delle sollecitazioni a cui esse sono
sottoposte, della loro storia deformativa, ecc. In generale, queste conoscenze non
sono disponibili per i siti di interesse. Queste incertezze si sommano a quelle
elencate relative alla valutazione dello scuotimento sismico. In pratica ogni
elemento che entra nell’analisi di rischio sismico è inevitabilmente affetto da
un’incertezza. Nella definizione delle sorgenti sismiche, coinvolte nello studio,
gli approcci possibili per ovviare le incertezze possono essere di tipo
“conservativo”, optando cioè per il peggiore scenario sismico prevedibile o con
un approccio che si basi solo sulle informazioni evidenti e sicure ricavabili
sperimentalmente. La prima procedura fornisce risultati privi di ambiguità, come
richiesto da chi deve poi prendere decisioni pratiche, ma può condurre anche a
risultati inutilizzabili. Questo perché le soluzioni, derivanti dall’utilizzo del
peggiore evento possibile, spesso non sono applicabili per i costi eccessivi. Il
secondo approccio che dà maggior peso ai dati sicuri o verificabili, è più
scientifico e razionale, ma è limitato dallo stato delle conoscenze.
Tra gli svantaggi del metodo deterministico vi è quello di non considerare
esplicitamente i margini d’errore che tutti i dati e parametri utilizzati
immancabilmente possiedono. Queste incertezze colpiscono particolarmente la
stima della magnitudo del massimo terremoto e la stima del moto sismico del
suolo. Un altro svantaggio del metodo deterministico è che la distribuzione nel
tempo dei terremoti non è esplicitamente considerata. La pericolosità assegnata
dall’analisi deterministica a due aree sismogeniche è uguale, a parità di
54
magnitudo del massimo terremoto possibile, anche se i tempi medi di ritorno
sono molto diversi.
Il principale vantaggio di un’analisi deterministica basata sulla descrizione dei
peggiori scenari sismici prevedibili, è quello di fornire i parametri fisici che li
descrivono, dando risultati direttamente interpretabili e utilizzabili nelle
applicazioni ingegneristiche.
55
3.3 L’approccio probabilistico
3.3.1 Aspetti generali
Il risultato dell’analisi probabilistica di pericolosità sismica non è la singola
descrizione del peggiore scenario possibile, come nell’approccio deterministico,
ma la probabilità che si verifichi lo scenario corrispondente ad intensità variabili
da una minima sino alla massima possibile. La probabilità assegnata ad ogni
intensità o magnitudo, ritenuta possibile per il sito in studio, diventa un
parametro fondamentale nell’approccio probabilistico, a differenza del metodo
deterministico che considera solo l’evento più sfavorevole. In questo modo è
possibile definire il valore di soglia del parametro di scuotimento (accelerazione,
velocità o massimo spostamento del suolo) ritenuto probabile e su questa base, a
partire dalle stime di vulnerabilità ed esposizione, si potranno sostenere le scelte
dei provvedimenti e delle soluzioni da adottare sul territorio studiato.
La premessa essenziale di ogni approccio probabilistico alla pericolosità è
l’assunzione che la storia sismica passata, ovvero la successione degli eventi
sismici di cui si ha notizia, possa essere utilizzata per caratterizzare la sismicità
futura nell’area di interesse. Questo equivale ad assumere che il processo
sismogenetico è stazionario, ovvero, che sia possibile caratterizzarlo mediante
una parametrizzazione di tipo statistico che rimane invariata nel tempo. In
questo genere di analisi quindi, i cataloghi sismici giocano un ruolo essenziale e
comunque assai maggiore di quello relativo alle conoscenze circa le proprietà
fisiche del processo sismogenetico.
La forma più comune con cui sono presentati i risultati dell’analisi
probabilistica della pericolosità sismica è l’insieme delle curve di probabilità
di eccedenza. Queste curve rappresentano le probabilità associate al
superamento di un determinato livello di scuotimento sismico, esprimibile con
diversi parametri (si veda il par. 2.2.1.3), nell’intervallo di esposizione. Da
queste curve è possibile dedurre lo scuotimento atteso, che è rappresento dal
valore dello scuotimento che ha una probabilità di essere superata inferiore al
10% durante il tempo di esposizione (di solito 50 anni). Nelle mappe di
pericolosità sono riportati solitamente i valori dello scuotimento atteso relativi
alle diverse località di una regione.
56
3.3.2 La sismicità
La base di ogni analisi di pericolosità sismica è il concetto di sismicità, definita
come la distribuzione dei terremoti nel tempo e nello spazio. La sismicità di
un’area, definita dal numero totale di terremoti di ogni dimensione, può essere
definita dal numero di eventi di una determinata intensità, considerando ad
esempio solo il numero dei terremoti più distruttivi che sono avvenuti in un
preciso periodo di tempo. Quindi, l’espressione “alta sismicità” deve specificare
a quali parametri si riferisce per non generare ambiguità.
3.3.2.1 La sismicità strumentale
Lo scopo principale delle reti sismiche è quello di individuare e localizzare i
terremoti. Il processo richiede stime accurate di come i diversi tipi di onde (vedi
par 2.1.3) si propagano nei substrati geologici e con quali velocità. Date queste
conoscenze, è possibile calcolare la distanza tra la sorgente delle onde sismiche
e le stazioni in base ai loro tempi di arrivo. Noti la velocità a cui viaggiano le
diverse onde e quanto tempo hanno impiegato ad essere rilevate, la velocità,
moltiplicata per tempo d’arrivo, dà lo spazio tra la posizione del sismometro e
l’ipocentro del terremoto. Maggiore è il numero di misure disponibili e
maggiore è la precisione con cui si può tracciare la posizione epicentrale del
terremoto, espressa in termini di longitudine, latitudine e dimensioni dell’ellisse
di confidenza. Quest’ultima esprime la regione entro cui è possibile localizzare
la posizione dell’epicentro con una probabilità finita. Le dimensioni degli assi
dell’ellisse di confidenza sono proporzionali all’incertezza che esprimono. Le
principali fonti d’errore in questo procedimento sono costituite da:
• numero insufficiente o di bassa qualità delle registrazioni sismiche;
• posizionamento sfavorevole delle stazioni di rilevazione;
• scelta di un modello sbagliato delle velocità di propagazione;
• supposizione iniziale sbagliata di dove sia situato l’epicentro.
In Italia l'Istituto Nazionale di Geofisica (ING) svolge da molti anni il compito
di sorveglianza sismica del territorio nazionale attraverso una rete di sensori
collegati in tempo reale al centro di acquisizione dati di Roma. Lo scopo di tale
57
rete è duplice: la comunicazione tempestiva agli organi di Protezione Civile dei
dati relativi alla localizzazione e all'entità di ogni evento sismico e la produzione
di informazioni scientifiche di base (localizzazione epicentrale, meccanismo
focale, magnitudo) per una migliore conoscenza dei processi fisici responsabili
dei terremoti nell’area italiana. La Rete Sismica Nazionale Centralizzata
(RSNC) è stata potenziata nel corso degli anni fino al raggiungimento della
configurazione attuale che è di circa 90 stazioni sismiche (vedi fig. 3.1) di cui 4
tridirezionali dotate di sensori verticali a corto periodo. La sensibilità di ogni
stazione sismica, cioè la magnitudo minima percepibile, è determinata dalla
distanza di percettibilità. Questa è definita come la distanza epicentrale
minima per la quale è possibile misurare il “primo arrivo” delle onde P con un
errore pari all’errore di sensibilità dello strumento con cui si misura il tempo sul
sismogramma. La distanza di percettibilità è funzione della magnitudo e del
rumore ambientale, la prima determina l’intensità del segnale, il secondo
condiziona la qualità della registrazione.
58
Fig. 3.1 - Disposizione sul territorio italiano delle stazioni sismiche appartenenti alla Rete Sismica Nazionale
Centralizzata (RSNC).
Sul territorio italiano è inoltre attiva la Rete Accelerometrica Nazionale (RAN)
gestita dal Servizio Sismico Nazionale (SSN). È costituita da 260 accelerografi
(analogici e digitali) distribuiti su tutto il territorio nazionale ad eccezione della
Sardegna per la sua bassa sismicità (fig. 3.2). Le caratteristiche fisiche degli
accelerometri, cioè di non saturare in prossimità delle aree epicentrali, rendono
la RAN complementare alla rete sismica nazionale. I dati accelerometrici sono
importanti per l’individuazione degli effetti locali determinati dalla diversità di
litologia e dalle caratteristiche geomorfologiche del sito. La migliore conoscenza
delle variazioni areali e puntuali delle accelerazioni sismiche del suolo consente
una più efficiente stima delle sollecitazioni, a cui è sottoposto l’edificato, con
importanti ricadute nella prevenzione e progettazione antisismica.
59
Fig. 3.2 - Distribuzione sul territorio nazionale delle postazioni accelerometriche appartenenti alla Rete
Accelerometrica Nazionale (RAN).
Osservando le figure 3.3 e 3.4, che riportano la posizione epicentrale
rispettivamente dei terremoti storici (1000-1980, dal catalogo NT) e dei
terremoti recenti (1981-1995, fonti ING), si può osservare come il numero dei
terremoti registrati in questi 14 anni si avvicini a quello dei terremoti storici
degli ultimi mille anni. Ciò è dovuto alla sensibilità delle moderne stazioni
sismiche che sono in grado di rilevare, con buona qualità segnale/rumore,
terremoti sino alla magnitudo 2.5. Questa sensibilità si raggiunge per i terremoti
con epicentro ubicato nella porzione del territorio nazionale che va dal nord
Italia fino al centro-sud, Puglia e Calabria escluse. L’effettiva utilità dei dati
sismici strumentali è però limitata dalla breve copertura temporale disponibile
che copre in modo soddisfacente, e nei casi più favorevoli, solo l’ultimo secolo.
60
In questo senso la sismicità strumentale non costituisce una fonte informativa
sufficiente per una ricostruzione adeguata della storia sismica del territorio
nazionale, e che deve quindi essere effettuata ricorrendo ad informazioni di tipo
non strumentale dedotte da fonti storiografiche.
Fig. 3.3 - Epicentri di terremoti storici (1000-1980 dal catalogo NT), la posizione dell’epicentro è rappresentata
da un cerchietto di raggio proporzionale alla magnitudo del terremoto. Sono inoltre riportate le tracce degli elementi strutturali e cinematici di ordine maggiore.
61
Fig. 3.4 – Epicentri di terremoti recenti (1981-1995 dal fonti ING), la posizione dell’epicentro è rappresentata da
un cerchietto di raggio proporzionale alla magnitudo del terremoto. Sono inoltre riportate le tracce degli elementi strutturali e cinematici di ordine maggiore.
3.3.2.2 La sismicità storica
La descrizione qualitativa dei terremoti distruttivi verificatisi in epoca storica,
prima dell’avvento della sismologia strumentale, assieme alle testimonianze
archeologiche, concorrono a definire la sismicità storica. Quest’enorme raccolta
di dati, di essenziale utilità per quantificare la pericolosità di un’area, costituisce
la parte non strumentale dei cataloghi sismici. Naturalmente più si arretra nel
tempo più l’affidabilità del catalogo diminuisce. Infatti le cronache riportano,
per lo più, solo i terremoti più distruttivi e con un affidabilità che peggiora a
ritroso nel tempo. È questo il problema dell’incompletezza dei cataloghi sismici
(par. 3.3.3.2.3). Il non considerare questo problema determina un rapporto
inesatto tra il numero dei terremoti forti e quelli modesti. Occorre poi associare
62
un’incertezza alle descrizioni di effetti, durata e danni che i cronisti hanno
soggettivamente riportato filtrandoli con la loro cultura, epoca storica e fede
religiosa.
Fino alla fine del XIX secolo l’unico strumento disponibile per tentare un
approccio scientifico alla comprensione del fenomeno “terremoto” era
rappresentato dalla osservazione e successiva quantificazione degli effetti
prodotti da un sisma sull’ambiente naturale ed antropico.
In seguito, nel corso del Novecento, fino all’inizio degli anni Ottanta, i
notevoli e continui progressi scientifici e tecnologici compiuti in ambito
geofisico hanno portato a privilegiare alcuni aspetti fondamentali, quali la
strumentazione e la comprensione dei meccanismi fisici di sorgente, relegando
in secondo piano l’interesse nei confronti delle informazioni relative agli effetti
prodotti da un terremoto (osservazioni macrosismiche). Ciò che veniva rifiutato
era essenzialmente il carattere soggettivo dei dati macrosismici qualitativi, in
contrapposizione a quelli strumentali ritenuti oggettivi.
Al contrario, oggi è ormai una convinzione acquisita che l’utilizzo dei soli dati
strumentali, certamente indispensabili per la conoscenza dei meccanismi di
sorgente del terremoto e delle caratteristiche di moto del suolo, possa essere
fonte di notevoli manchevolezze e perfino di errori quando si intenda
caratterizzare la sismicità di una determinata regione nel lungo periodo. Ciò è
vero soprattutto per l’Italia dove, come suggerito anche da studi
paleosismologici, in quasi tutte le aree sismogenetiche i forti terremoti sono
caratterizzati da periodi di ritorno molto lunghi dell’ordine di decine di anni e
spesso di secoli.
È in base a queste considerazioni che negli ultimi venti anni si è assistito ad
una vera e propria “riscoperta” dell’importanza delle informazioni
macrosismiche, in particolare in Paesi come il nostro, dove la presenza
pressoché ininterrotta nel tempo di civiltà distribuite su ampia parte del territorio
(ad eccezione del periodo dell’Alto Medioevo, quando la raccolta e la
trasmissione di informazioni era comunque garantita dalla cultura monastica) ha
consentito di disporre oggi di un’inestimabile quantità di fonti documentarie.
Lo studio dei terremoti del passato è attualmente ritenuto uno strumento
indispensabile per tentare di caratterizzare la sismicità di un’area. Insieme agli
studi geologici e geofisici, infatti, le informazioni relative agli effetti dei
63
terremoti nel lungo periodo possono guidare l’identificazione delle principali
strutture sismogenetiche rendendo così possibile la formulazione di ipotesi
sull’andamento dell’attività sismica e fornendo indicazioni probabilistiche
sull’occorrenza di eventi futuri.
Benché le scale macrosismiche stabiliscano criteri di valutazione in qualche
misura oggettivi, in realtà risulta spesso assai difficile attribuire un unico grado
di intensità. Frequenti sono, infatti, i casi in cui le osservazioni macrosismiche
forniscono indicazioni ambigue o addirittura contraddittorie: accanto a numerosi
indicatori di un determinato grado se ne possono riscontrare altri tipici dei gradi
inferiori o superiori. In queste circostanze, qualora l’incertezza sia notevole, si
ricorre generalmente all’attribuzione multipla (es. VI-VII) non avendo
significato valori di intensità frazionari.
3.3.2.2.1 L’indagine macrosismica dei terremoti contemporanei
L’analisi dei danni e degli effetti prodotti sul territorio dai terremoti
contemporanei viene condotta principalmente in due modi: mediante la
compilazione di questionari o per mezzo di indagini macrosismiche di campagna
effettuate nei giorni immediatamente successivi all’evento.
In occasione dei terremoti disastrosi più recenti, che hanno colpito la penisola
italiana (Friuli, maggio 1976; Irpinia, novembre 1980; Umbria-Marche,
settembre-ottobre 1997), sono state effettuate campagne di indagine
macrosismica. Le loro finalità erano quelle di determinare più dettagliatamente i
danni arrecati all’ambiente antropico e soprattutto l’individuazione di eventuali
tracce di fagliazione superficiale che consentissero di identificare la struttura
sismogenetica responsabile del terremoto.
Per quanto riguarda invece i terremoti di minore energia, l’analisi
macrosismica viene essenzialmente condotta per mezzo di questionari che
costituiscono un mezzo certamente più economico del precedente ma allo stesso
tempo meno attendibile e completo. La raccolta sistematica delle informazioni
macrosismiche degli eventi risentiti sul territorio italiano è attualmente gestita
dall’Istituto Nazionale di Geofisica (ING) tramite questionari che vengono
inviati ad una rete di corrispondenti costituita dalle Stazioni dell’Arma dei
64
Carabinieri, dai Comuni e relative frazioni e dalle Stazioni del Corpo Forestale
dello Stato, per un totale di oltre 13000 punti di controllo. Lo stesso Istituto
pubblica un Bollettino Macrosismico con cadenza quadrimestrale.
3.3.2.2.2 I dati sismici storici: problemi connessi all’interpretazione delle fonti
documentarie
Nel corso degli ultimi venti anni si è assistito in Italia ad un enorme progresso
e sviluppo dell’indagine storica di terremoti del passato. Un simile risultato è
stato reso possibile grazie ad uno stimolante “matrimonio” fra la storia e la
sismologia (riguardo ad obiettivi, metodi e punti di vista), il cui risultato può
essere visto nella creazione di un settore di ricerca denominato “sismologia
storica”.
Il lavoro di acquisizione e successiva elaborazione dei dati storici può essere
sostanzialmente riassunto nei seguenti passaggi:
1) Ricerca storica. L’indagine macrosismica di terremoti del passato può essere
effettuata sia mediante lo studio di cronache contemporanee agli eventi che di
relazioni successive. In generale, informazioni dirette riportate da cronisti che
abbiano sperimentato il terremoto di persona sono certamente preferibili rispetto
ad analisi successive più facilmente alterabili o ambigue. Tuttavia, soprattutto
nel caso in cui la ricerca storica riguardi epoche molto lontane nel tempo, lo
studio delle fonti originali richiede un notevole impegno sia a causa dell’estrema
dispersione geografica dei documenti (spesso conservati in piccoli archivi locali
di centri minori o addirittura di parrocchie), sia per le difficoltà connesse alla
interpretazione storica e linguistica dei testi. Di conseguenza, l’esame di fonti
originali può essere condotto soltanto con una stretta collaborazione tra
sismologi, storici e linguisti e con un notevole impiego di mezzi economici.
Un ulteriore problema relativo ai dati documentari è costituito dalla eterogeneità
ed attendibilità delle fonti storiche utilizzate, in genere rappresentate dai più
svariati tipi di documenti come testi religiosi, storiografici, letterari, epigrafici,
amministrativi, ecc., spesso difficilmente omologabili. A tutto ciò, si aggiunge il
fatto che tali dati sono inevitabilmente affetti da un notevole grado di
soggettività da parte del narratore o di colui che li ha tramandati sino ad oggi.
65
2) “Ricomposizione” del terremoto. Le informazioni relative agli effetti
prodotti dal terremoto sul territorio possono essere considerate come elementi di
un puzzle che devono essere riuniti in modo appropriato. Questo passaggio
risulta estremamente critico, dal momento che tutti i dati devono essere collocati
rispetto ad un sistema di riferimento spazio-temporale. Duplicazioni o cattive
interpretazioni, presenti spesso nei cataloghi sismici storici, sono infatti la
conseguenza di un approccio non sufficientemente attento ed approfondito a tale
lavoro.
3) Quantificazione degli effetti: assegnazione del grado di intensità. Affinché
le informazioni storiche raccolte possano essere utilizzate per scopi pratici,
occorre in qualche modo quantificare i danni e gli effetti che il terremoto ha
prodotto sul territorio, confrontandoli con un insieme di descrizioni di effetti
ordinato in modo progressivo (gradi di intensità definiti nelle scale
macrosismiche) e, quindi, selezionare quello al quale le osservazioni sembrano
meglio corrispondere. Tuttavia, solo raramente i dati documentari sono riportati
in modo da essere facilmente confrontabili con le descrizioni di danno presenti
nelle scale macrosismiche. Inoltre, dal momento che la stima dell’intensità viene
usualmente effettuata sulla base di criteri “esperti” del tutto soggettivi, risulta
spesso estremamente problematico trovare un criterio di valutazione omogeneo.
Nel valutare gli effetti che un dato terremoto ha prodotto sull’ambiente, occorre
anche considerare che questi non dipendono soltanto dalle caratteristiche fisiche
della sorgente sismica (considerate stabili se rapportate alla scala temporale
degli uomini) ma anche dalle condizioni geologico-geomorfologiche locali e,
soprattutto, dalla vulnerabilità del patrimonio edilizio coinvolto. A questo
proposito, mentre le caratteristiche dei terreni di superficie possono essere in una
certa misura considerate costanti, altrettanto non si può dire per quanto concerne
la vulnerabilità degli edifici: essa dipende, infatti, dalle tecniche edilizie
impiegate, dai materiali utilizzati, dallo stato di conservazione delle costruzioni,
ovvero da un insieme di fattori interpretabili come “variabili storiche”. Il grado
di danneggiamento di una determinata località è infatti determinato dalle
condizioni storiche abitative e dal loro mutare. Esaminando le informazioni
disponibili nei quasi mille anni di copertura temporale offerta dai cataloghi
sismici italiani, si nota che la gravità dei disastri sismici è cresciuta in modo
66
proporzionale allo sviluppo delle città, in funzione delle diverse caratteristiche
degli edifici e della morfologia dei centri abitati.
Tenendo conto dei numerosi problemi esposti, è evidente che arrivare ad una
quantificazione omogenea degli effetti provocati da un terremoto avvenuto in
epoca passata, sulla base di testimonianze tanto eterogenee e spesso ambigue,
risulta un compito estremamente complesso.
3.3.2.2.3 La parametrizzazione del terremoto su base macrosismica
La differenza più importante tra magnitudo ed intensità di un terremoto è che la
prima è una misura strumentale correlata ai processi della sorgente sismica
mentre l’intensità definisce la severità degli effetti del terremoto in un
particolare luogo, che non dipende solo dall’energia liberata alla sorgente
sismica e dalla sua distanza. L’assegnazione dell’intensità dopo un evento
sismico, riferita ad un dato sito, viene effettuata tramite la constatazione diretta
dei danni ed effetti. Da queste informazioni si deduce la distribuzione spaziale
delle intensità di sito che, raggruppate su supporti cartografici costituiscono la
carta delle isosisme identificanti il campo macrosismico.
Il tracciamento delle isosisme, fino a pochi anni fa eseguito manualmente (fig.
3.5), può essere oggi realizzato in modo automatico con appositi programmi di
contouring. In questo modo, all’arbitrarietà associata a qualsiasi problema di
interpolazione, non si viene ad aggiungere il rischio di scarsa obiettività da parte
del tracciatore.
67
Fig. 3.5 - Campo macrosismico del terremoto della Valtellina del 29 dicembre 1999 elaborato in base alla
descrizioni degli effetti locali. Le aree colorate, delimitate dalle isosisme, descrivono le zone in cui si
sono risentiti gli stessi effetti (quantificati secondo la scala MCS).
L’utilizzo di questo genere di rappresentazione comporta una serie di problemi.
Occorre innanzitutto sottolineare che l’andamento delle isosisme dipende non
soltanto dal criterio adottato per il tracciamento, ma anche dalla
rappresentatività (in alcuni casi molto limitata) dei punti di controllo
dell’intensità. Tali punti, infatti, corrispondono a località e di conseguenza non
sono distribuiti in modo omogeneo lungo la superficie terrestre. Al contrario,
essi risultano più densi all’interno delle valli e lungo le linee costiere, più scarsi
lungo le catene montuose e, addirittura, assenti in mare. Inoltre una
rappresentazione mediante curve di livello, basata sulla interpolazione di valori
puntuali d’intensità, non è in grado di evidenziare la presenza di eventuali
località che abbiano sperimentato risentimenti “anomali” particolarmente elevati
attribuibili ad amplificazioni locali del moto sismico del suolo.
Una volta ricostruito il campo macrosismico di un terremoto, il passo
successivo consiste nella individuazione del punto in superficie corrispondente
al cosiddetto epicentro macrosismico.
Al contrario dell’epicentro strumentale, non esiste in letteratura una definizione
altrettanto precisa di epicentro macrosismico. Esso dovrebbe rappresentare il
punto in superficie corrispondente alla massima intensità osservata Imax. Tale
68
definizione risulta tuttavia ambigua in quanto frequentemente l’Imax non
corrisponde ad un unico punto ma ad un’area (talvolta intervallata da altri punti
con risentimento minore). È inoltre possibile che anche qualora si individui un
unico punto, il valore di intensità massima sia da porre in relazione ad effetti di
sito piuttosto che alla vicinanza della sorgente sismica.
In genere l’epicentro macrosismico può essere definito come il baricentro
dell’area dove si sono verificati i massimi effetti. Utilizzando le isosisme ciò
corrisponde a prendere il centro della isolinea di grado più elevato. Qualora
invece si usino punti quotati dell’intensità, il baricentro può essere ottenuto
facendo la media delle coordinate dei punti con intensità più alta. È così
possibile definire l’intensità epicentrale Ie come «il valore della isolinea chiusa
di grado più elevato che è possibile tracciare considerando almeno tre diversi
punti». Tale quantità viene tuttavia indicata solo quando disponibile, mentre più
frequentemente nei cataloghi è riportata soltanto l’Imax.
In alcuni casi i due valori di intensità (massima ed epicentrale) possono
risultare sensibilmente diversi e di ciò è necessario tenere conto al fine di evitare
gravi errori di valutazione. È questo il caso di epicentri localizzati in mare aperto
o in aree scarsamente popolate: in simili circostanze, infatti, occorre considerare
anche l’incompletezza del dato macrosismico. Nel caso specifico dell’Italia,
mentre a causa della sua conformazione geografica, il primo di questi casi risulta
importante, il secondo, è pressoché irrilevante, dal momento che la penisola è
stata densamente abitata sin dai tempi antichi.
In ogni analisi volta a caratterizzare i terremoti a partire da informazioni
macrosismiche, bisogna considerare che lo scuotimento sismico del suolo è
fortemente condizionato dalle condizioni geologiche superficiali di sito. La
presenza di roccia o di centinaia di metri di sedimenti, nel sottosuolo dell’area in
esame, come già visto, ha più influenza sugli effetti del terremoto che non la
grandezza del terremoto stesso (e cioè la sua magnitudo). È dall’analisi delle
isosisme che si possono rilevare le anomalie d’intensità. Queste, imputabili ad
effetti di sito, si manifestano con attenuazioni o amplificazioni anomale dei
risentimenti di un terremoto. È questo un fenomeno di cui tenere conto al
momento dell’assegnazione del grado di intensità, in quanto nelle varie scale
macrosismiche si fa sempre riferimento alla tipologia dell’abitazione colpita ma
non su quale tipo di substrato, roccia o suolo, sorga l’edificio. È infatti comune
69
riscontrare differenze di parecchi gradi di intensità anche a breve distanza, a
seconda del substrato presente. La tendenza generale è quella di avere le
maggiori intensità in presenza di rocce sedimentarie recenti o poco consolidate
rispetto alle più rigide rocce granitiche, vulcaniche o metamorfiche. Le scale
macrosismiche hanno poi la tendenza a sovrastimare i gradi più alti. Spesso
effetti indotti dai terremoti più forti, come grandi frane o scivolamenti, e che
concorrono all’assegnazione del grado, possono non essere una diretta
conseguenza del sisma che va ad innescare preesistenti condizioni di instabilità.
Esistono diverse relazioni empiriche che stimano la magnitudo in funzione di
un parametro che descriva gli effetti macrosismici al sito. Il parametro più
utilizzato è l’intensità epicentrale Ie e la magnitudo è ricavabile attraverso una
relazione di regressione. Un altro parametro utilizzato per stimare la magnitudo
è l’estensione dell’area totale di risentimento del terremoto (felt area) o quella in
cui si sono riscontrati gli effetti propri di un dato grado (di solito il IV). Le
relazioni empiriche corrispondenti sono formulate a partire dalla constatazione
che più è alta la magnitudo di un terremoto maggiore risulterà l’area in cui si
risentono gli effetti di scuotimento.
Sono state proposte numerose relazioni empiriche magnitudo-intensità valide
per il territorio italiano. Queste sono state calcolate per ognuna delle regioni in
cui è stata suddivisa l’Italia sulla base di criteri tettonico-geologici e per
l’omogenea sismicità. Una relazione valida per il territorio italiano è la seguente
29.147.0 ++++==== eL IM (Ie≤≤≤≤X)
Relazioni di questo tipo sono importanti per stimare la magnitudo dei terremoti
storici. Incertezze e soggettività del metodo sono compensate dalla grande
quantità di dati che la sismologia storica può fornire a complemento di quella
strumentale. Queste relazioni empiriche devono essere utilizzate criticamente in
quanto è necessario conoscere le assunzioni su cui sono basate. Il numero, la
classe, la profondità epicentrale dei terremoti considerati, i criteri di definizione
delle aree in cui sono validi i coefficienti di regressione, sono variabili da
considerare per una corretta utilizzazione.
70
3.3.3 I metodi di stima: elementi di analisi probabilistica di rischio
sismico
Tra le metodologie di tipo statistico si possono essenzialmente distinguere due
diversi approcci: il primo, basato sull’impiego di soli dati epicentrali (approccio
di sorgente), consente di stimare la pericolosità al sito ricorrendo a relazioni di
attenuazione che considerano gli effetti della distanza sul parametro adottato per
la stima del moto del terreno (intensità, accelerazione di picco, ecc.). Il secondo,
invece, perviene alla stima di pericolosità locale attraverso il diretto impiego
delle informazioni disponibili circa la “storia sismica” del sito in esame
(approccio di sito), riducendo in tal modo le incertezze introdotte dall’utilizzo
di una legge empirica di attenuazione. Mentre il primo approccio viene adottato
su larga scala sia in Italia che all’estero e rappresenta attualmente una
metodologia di tipo standard, la stima di pericolosità da dati di sito costituisce
un metodo innovativo.
Nell’ambito dell’approccio di sorgente, il metodo più noto e maggiormente
diffuso a livello mondiale è senza dubbio quello proposto in origine da C.A.
Cornell nel 1968 (par. 3.3.3.1).
3.3.3.1 Il metodo di Cornell
L’approccio rappresenta un tentativo di introdurre in ambito probabilistico
aspetti deterministici capaci di ridurre l'indeterminazione sulla localizzazione
spazio-temporale dei futuri eventi sismici. La probabilità di eccedenza di un
determinato livello di scuotimento del suolo (in genere espresso in termini di
accelerazione di picco del terreno o PGA), in un dato periodo di tempo, è
valutata determinando la probabilità di ogni possibile valore di scuotimento,
data ogni possibile magnitudo, ad ogni possibile distanza, per ogni possibile
sorgente. Il risultato di tale calcolo viene usualmente rappresentato mediante una
curva di pericolosità indicante la probabilità annua di superamento, al sito di
interesse, di un dato livello di scuotimento del terreno.
Da quanto detto risulta quindi evidente che l’applicazione del metodo di
Cornell richiede, oltre ad un catalogo epicentrale, anche una certa conoscenza
71
delle caratteristiche sismotettoniche della regione in esame. Di conseguenza,
l’affidabilità delle stime di pericolosità risulta strettamente dipendente anche dal
livello di conoscenza della tettonica attiva raggiunto in una determinata area.
Nel seguito vengono elencati i punti fondamentali della metodologia di Cornell.
I. Definizione delle sorgenti sismiche. È la prima operazione del metodo.
La mancata conoscenza dell’esatta ubicazione delle sorgenti sismogeniche
dovuta, per esempio, alla complessa situazione tettonica dell’area, è
affrontata assumendo uniforme la probabilità di occorrenza all’interno
della zona sismogenica ZS. Questo equivale a “spalmare” il numero
totale di eventi sull’intera ZS. In questo modo ogni elemento areale della
zona sismogenetica risulta dotato del medesimo tasso di sismicità, inteso
come il numero medio di terremoti nell’unità di tempo. È facilmente
intuibile che questa assunzione pone molti problemi. Innanzitutto è critica
la scelta della forma e dell’estensione delle zone sismogenetiche in quanto
la forma determina il numero totale di terremoti che “ricadono” al suo
interno. Inoltre, l’estensione determina quanto alto sarà il tasso di
sismicità della ZS, dato che a parità di numero di terremoti più è ampia la
ZS più risulterà basso il tasso di sismicità per ogni elemento areale.
II. Definizione del tasso di sismicità per ciascuna zona sismogenica.
Viene effettuata stimando per ciascuna classe di magnitudo m il numero
di eventi N(m) che si verifica mediamente nell’unità di tempo per ogni
elemento areale. Questo viene calcolato a partire dal catalogo sismico,
come il numero di eventi con magnitudo superiore o uguale a m avvenuti
nelle ZS, nell’intervallo in cui il catalogo sismico è considerato completo,
diviso per la durata di questo intervallo. Si vede quindi l’importanza
cruciale di un’accurata valutazione dell’intervallo di completezza del
catalogo disponibile. La funzione N(m) così ottenuta è detta “relazione di
ricorrenza numero eventi-magnitudo”. Si assume che questa abbia la
forma della relazione semilogaritmica di Gutenberg e Richter (G-R):
Log N =A-Bm
dove N è il numero di terremoti di magnitudo almeno pari a m nell’unità
di tempo. A e B sono i parametri della relazione di ricorrenza e vanno
determinati sperimentalmente a partire dai valori osservati del tasso di
sismicità ottenuti per alcuni valori delle magnitudo di soglia. A definisce
72
un tasso di attività che varia sensibilmente da zona a zona. Un importante
indicatore di pericolosità sismica è il periodo medio di ritorno T per
unità di area pari al reciproco del tasso di sismicità. B esprime il rapporto
tra il numero dei terremoti forti e di quelli deboli.
III. Definizione della sismicità al sito. A partire da opportune leggi
empiriche di attenuazione (vedi par. 2.2.2.2.1) è possibile calcolare
l’accelerazione attesa ad un determinato sito, posto ad una distanza r dalla
sorgente, una volta nota la magnitudo dell’evento sorgente. Per ciascuna
classe di magnitudo e per ciascuna parte delle diverse zone
sismogenetiche è possibile quindi dedurre l’accelerazione attesa al sito. Su
questa base, e noti i tassi di sismicità di ciascuna zona sismogenetica, è
quindi possibile conoscere il numero di volte che, mediamente, un dato
valore di accelerazione sarà superato al sito nell’unità di tempo. Questo
numero definisce il tasso di sismicità al sito.
IV. Distribuzione temporale delle scosse. I tassi di sismicità al sito ricavati
non forniscono informazioni sulla distribuzione nel tempo delle scosse
relative ai vari livelli di accelerazione. Si fa a questo punto l’assunzione
che ogni terremoto è indipendente dall’altro (ovvero che l’occorrenza di
un evento non condiziona il successivo e quindi il processo è privo di
“memoria”). Assumendo, inoltre, che il numero di terremoti in un
intervallo di tempo dipenda linearmente dalla durata di quest’ultimo e che
l’occorrenza contemporanea di due eventi sia altamente improbabile si
può dimostrare che la distribuzione nel tempo delle scosse segue una
distribuzione di Poisson. Queste assunzioni, sono in realtà attendibili solo
se dai dati del catalogo sismico sono escluse le sequenze di eventi
(sciami) o le repliche (aftershock), eventi che sono considerati dipendenti
dall’evento principale (mainshock). La procedura di esclusione non è
univoca e presenta alcuni elementi arbitrari che rendono le stime, almeno
in parte, soggettive. La distribuzione di Poisson è definita da un unico
parametro descrittivo, la media, che coincide appunto con il tasso di
sismicità. Un parametro spesso usato è il periodo medio di ritorno T che
è pari all’inverso del tasso di sismicità.
V. Determinazione della pericolosità del sito. A partire dal tempo medio di
ritorno è possibile esprimere la pericolosità al sito mediante curve di
73
eccedenza p(Z), che definiscono la probabilità di superare un dato
scuotimento del suolo P(Z>z), almeno una volta, in un determinato
periodo (tempo di esposizione ∆∆∆∆T), per ogni valore Z di accelerazione del suolo plausibilmente raggiungibile. Queste curve, vista la forma
Poissoniana della sismicità, sono esprimibili come
T
T
ezZP
∆∆∆∆−−−−
−−−−====>>>> 1)(
dove P è la probabilità che il valore di scuotimento Z superi la soglia z.
Utilizzando questa relazione è possibile determinare, per esempio,
l’accelerazione attesa come quel valore massimo di accelerazione per cui
a ∆∆∆∆T = 50 anni (tempo di esposizione) si ha una probabilità P di
eccedenza (cioè di osservare almeno una volta quell’accelerazione)
minore del 10%.
3.3.3.1.1 I limiti superiore ed inferiore di magnitudo
Per ottenere la quantificazione probabilistica della pericolosità sismica con il
metodo di Cornell è necessario specificare i limiti superiore ed inferiore della
magnitudo degli eventi sismici presi in considerazione ovvero i limiti di validità
della relazione di G-R. Il limite inferiore è assunto come la magnitudo minima al
di sotto della quale non si hanno effetti ingegneristicamente rilevanti. Come
visto, la stima del limite inferiore di magnitudo non è contemplata nell’analisi
deterministica (par. 3.2). Il limite inferiore di magnitudo, condizionando lo
spettro di frequenza dei terremoti più piccoli, riveste invece un importante ruolo
nell’approccio probabilistico, dato che il moto del suolo ad essi relativo è ricco
di alte frequenze. Molti studi suggeriscono la magnitudo 5.0 come il minimo
valore “conservativo” per il quale sono attesi danni in strutture costruite con
particolari criteri di sicurezza. In questa generalizzazione non vengono
considerati i terremoti molto superficiali i quali, nonostante le loro limitate
dimensioni, possiedono un elevato potenziale di danneggiamento.
La definizione del limite superiore di magnitudo è più difficile. A differenza
del limite inferiore, il cui valore proposto è valido per diversi contesti tettonici,
il limite di magnitudo superiore è specifico e molto spesso determinato con
74
estrapolazioni a partire da pochi dati. La determinazione del massimo terremoto
possibile, descritta nel par. 3.2.2, dipende dall’approccio utilizzato. Nell’analisi
deterministica, la scelta della massima magnitudo stabilisce direttamente i
risultati finali non considerando l’intervallo temporale su cui l’analisi si estende.
Nell’approccio probabilistico, il massimo evento possibile è determinato dalla
probabilità di occorrenza, il che lega la massima magnitudo all’intervallo di
tempo considerato ed al contesto geodinamico. Il massimo terremoto storico
costituisce il limite inferiore delle dimensioni assegnabili al massimo terremoto
possibile, secondo la logica che ciò che è accaduto in passato può ripetersi in
futuro.
La scelta del limite superiore di magnitudo pone delle domande
sull’adeguatezza dei dati deducibili dalla retta che interpola i punti
dell’equazione di ricorrenza. L’equazione di Gutenberg–Richter evidenzia come
il numero dei terremoti diminuisce logaritmicamente con l’aumentare della
magnitudo. L’accuratezza della retta che approssima l’equazione di ricorrenza
decresce notevolmente con il diminuire dei punti che deve interpolare. Per
ovviare a questo inconveniente si possono adottare le relazioni esponenziali di
ricorrenza troncate basate su di una normalizzazione dell’equazione di
Gutenberg–Richter, che funzionano bene nei casi di dati sismici eterogenei
(strumentali, storici e paleosismici), che producono grafici frequenza-magnitudo
lineari a tratti . L’esistenza di tratti delle relazioni di ricorrenza, caratterizzati da
valori diversi della pendenza B, evidenzia che la legge di ricorrenza del
terremoto non è costante per tutte le magnitudo, quindi si rischierebbe di
estrapolare la ricorrenza, per alcuni valori di magnitudo, utilizzando un
coefficiente B non corretto. Le relazioni di ricorrenza troncate risolvono in
modo accettabile questo fenomeno.
3.3.3.1.2 Lo spettro di risposta di pericolosità uniforme
I risultati dell’analisi di pericolosità ottenuti con il metodo di Cornell sono,
come visto, le curve di eccedenza. Queste esprimono la probabilità di superare,
nel tempo di esposizione, un determinato valore di scuotimento del suolo.
Normalmente, il parametro descrittivo a cui si fa riferimento è il picco massimo
75
di accelerazione del suolo o PGA. Questo parametro viene dato
indipendentemente dalla frequenza e quindi dall’attenuazione differenziata in
funzione della frequenza di oscillazione delle onde sismiche. Per quantificare
l’effetto delle diverse modalità di attenuazione si può utilizzare lo spettro di
risposta di pericolosità uniforme. Da questo tipo di risultato è possibile
ricavare il valore di accelerazione, atteso al sito, in funzione dei diversi periodi
di oscillazione che compongono il segnale sismico. L’aggettivo “uniforme” si
riferisce all’equiprobabilità che ogni accelerazione ha, in corrispondenza ad un
preciso periodo, di essere raggiunta rispetto alle altre della medesima curva. Lo
spettro di pericolosità uniforme è composto dalle accelerazioni attese al sito,
stimate con il metodo di Cornell, utilizzando una legge di attenuazione diversa
per ciascun valore dello spettro dei periodi di oscillazione ingegneristicamente
rilevanti. In pratica è come se si applicasse il metodo di Cornell per ognuno dei
periodi che compongono le onde sismiche, determinando come l’attenuazione
influisce sugli effetti di scuotimento al sito in funzione della frequenza oltreché
della distanza e della magnitudo. La richiesta di maggiore tempo di calcolo,
necessario per ottenere lo spettro di risposta di pericolosità uniforme, è
compensata dal maggiore dettaglio che esso fornisce sull’entità dello
scuotimento atteso in funzione della frequenza di oscillazione. Gli “spettri di
risposta a periodo uniforme” permettono una stima migliore degli effetti sismici
sulle strutture fornendo un immediato confronto tra accelerazione, frequenza di
oscillazione e frequenza naturale della costruzione evidenziando la possibilità di
avere fenomeni di risonanza.
3.3.3.2 Il metodo di sito per la stima della pericolosità sismica
La grande ricchezza di dati documentari disponibili in Italia e le ricerche
storiche condotte negli ultimi due decenni hanno consentito di redigere un
catalogo unico al mondo riguardo ai terremoti del passato. Fino ad oggi, tuttavia,
tale ricchezza di informazioni non ha trovato piena utilizzazione nelle stime di
pericolosità sismica.
L’ostacolo principale all’impiego di questi dati è rappresentato dalla loro
natura semi-qualitativa che porta alcuni a ritenere il dato storiografico “povero”,
76
rispetto a quello strumentale e, di conseguenza, utilizzabile soltanto
marginalmente per stime di pericolosità, a condizione di “forzare”
l’informazione documentaria all’interno di categorie tipiche del dato strumentale
(epicentro, magnitudo, ecc.). Quest’ultima conversione (spesso implicata
nell’applicazione del metodo di Cornell) non è in grado di tenere conto delle
particolari caratteristiche del dato macrosismico né delle incertezze che lo
caratterizzano quali quelle relative all’attribuzione del livello di danno da dati
antichi (il grado di intensità della scala macrosismica).
Per utilizzare appieno l’informazione macrosismica è stato recentemente
sviluppato un approccio di stima della pericolosità sismica. Questo è basato
sull’impiego diretto dei dati d’intensità al sito in grado di tenere correttamente
conto delle diverse incertezze che caratterizzano la stima di pericolosità. A
differenza dei metodi standard, inoltre, non richiede altra assunzione che la
stazionarietà dei processi sismogenetici responsabili dei terremoti.
3.3.3.2.1 La ricostruzione del catalogo sismico di sito
Il primo passo della procedura, consiste nella ricostruzione del catalogo
sismico di sito, ovvero nella definizione della sismicità passata sulla base delle
informazioni macrosismiche disponibili. In generale, per una data località, si
possono presentare tre diverse situazioni:
a) I dati sono sufficienti per un’attribuzione univoca del valore di intensità. Ciò
si verifica in particolare per i terremoti recenti o per i siti nei quali sono stati
osservati gli effetti più intensi (epicentri macrosismici);
b) I dati consentono soltanto la determinazione di un intervallo di valori di
intensità accettabili (es. V-VIII). Il caso, tipico dei dati documentari,
renderebbe opportuna l’assegnazione di un valore di probabilità ad ogni
valore di intensità ritenuto plausibile;
c) I dati non sono disponibili al sito ma soltanto all’epicentro. Tale situazione è
particolarmente frequente nel caso dei terremoti più antichi per i quali spesso
si dispone di informazioni relative alle sole località epicentrali o alle più
importanti di un’area. Lo stesso accade quando, per scopi ingegneristici, è
77
necessario stimare la pericolosità sismica in siti disabitati del tutto privi di
informazioni storiche (es. dighe, centrali nucleari, ecc.).
È quindi opportuno definire ciascun dato di intensità risentita al sito in termini
probabilistici, esprimendo il livello di probabilità associato ad ogni classe di
intensità. Di conseguenza, anche i parametri più semplici che definiscono
l’attività sismica (ad esempio il numero di terremoti risentiti al sito con una data
intensità) vanno espressi in termini probabilistici.
3.3.3.2.2 La definizione della storia di sito sulla base dei risentimenti osservati
Per tenere conto delle incertezze presenti nel dato documentario, ad ogni
terremoto “risentito al sito” viene quindi associata una densità di probabilità
pn(I), funzione del valore discreto di intensità I, rappresentativo del livello di
danneggiamento osservato al sito espresso in gradi di intensità secondo una
scala macrosismica. Ogni valore di tale distribuzione rappresenta la probabilità
che quel terremoto sia stato effettivamente risentito al sito con intensità pari al
grado I considerato. Per definizione di probabilità, la funzione pn(I), deve dare:
∑∑∑∑====
====max
min
1)(
I
II
n Ip (3.3)
dove Imin e Imax rappresentano rispettivamente il minimo ed il massimo valore
consentito dalla scala macrosismica adottata (ovvero 1 e 12 nel caso della scala
MCS). A causa del carattere ordinale e discreto del dato di intensità, la funzione
pn(I) ha la forma di un vettore di 12 elementi.
Qualora le fonti storiche siano sufficientemente chiare e concordi da consentire
un’attribuzione univoca della intensità I0 risentita al sito, la funzione pn(I) sarà
uguale a 0 per ogni valore di I diverso da I0 ed a 1 quando I è uguale a I0.
La distribuzione di probabilità pn(I) consente quindi una rappresentazione
corretta del livello di confidenza attribuito al singolo possibile valore di
intensità, ovvero della probabilità che un dato terremoto abbia prodotto al sito
effetti di intensità pari a I.
Come esempio di tale formalizzazione viene riportata una descrizione di
danneggiamento prodotto a Napoli da un terremoto verificatosi il 26 luglio 1805,
78
con epicentro in Molise (testo dal “Catalogo dei Forti Terremoti in Italia dal
461 a.C. al 1990”, Boschi et al., 1997):
«Il terremoto causò fessurazioni ai muri e danni diffusi a molti edifici e chiese.
Alcune case crollarono, altre si resero inabitabili e poche rimasero illese. Gran
parte delle abitazioni dovettero essere puntellate e altre demolite in parte.
Furono maggiormente colpiti i palazzi più alti e anche i più solidi. Due persone
morirono a causa del crollo di alcuni pavimenti e di una torretta nel palazzo del
Principe Corigliano, numerosi i feriti».
Un simile scenario di danni ha portato ad un’attribuzione non univoca del
grado di intensità, pari a VII-VIII. In questo caso, assumendo che entrambi i
valori siano equiprobabili, ovvero ugualmente attendibili, l’informazione viene
espressa, in termini di densità di probabilità, nella seguente forma:
pn(I)={{{{0,0,0,0,0,0,0.5,0.5,0,0,0,0}}}}
Per ciascuna densità di probabilità pn(I) è possibile inoltre definire la
probabilità di eccedenza Pn(I) che è la probabilità, al sito, che il terremoto in
esame abbia prodotto effetti almeno pari al grado I e cioè:
∑∑∑∑====
====max
)()(
I
Ij
nn jpIP (3.4)
Nell’esempio sopra considerato un’intensità pari a VII-VIII viene espressa, in
termini di probabilità di eccedenza, nella forma:
Pn(I)={{{{1,1,1,1,1,1,1,0.5,0,0,0,0}}}}
La storia sismica di un sito viene quindi rappresentata da un numero totale N di
terremoti, ad ognuno dei quali è associata una distribuzione di probabilità Pn(I)
rappresentativa del livello di confidenza attribuito all’ipotesi che quel dato
evento abbia prodotto al sito effetti almeno pari ad una determinata intensità.
Come accennato al punto c) del par. 3.3.3.2.1, spesso nel caso dei terremoti più
antichi i dati documentari non sono disponibili al sito di interesse ma soltanto
per le località maggiormente danneggiate (epicentri macrosismici) o per i centri
di maggiore importanza culturale, politica o economica. In questo caso,
l’intensità al sito deve essere stimata mediante relazioni di attenuazione di tipo
empirico.
In base a numerose evidenze sperimentali è stato dimostrato che il livello di
danneggiamento tende a decrescere in modo monotòno con la distanza
79
dall’epicentro. Si può quindi definire una funzione densità di probabilità
R(I|f(r), Ie) che rappresenta la probabilità che almeno un terremoto sia stato
risentito al sito con intensità maggiore o uguale a I, condizionata dalla intensità
epicentrale Ie e da una funzione f(r) proporzionale alla distanza tra sito ed
epicentro. Per semplicità si considera che f sia funzione della sola distanza
epicentrale r, ovvero che l’attenuazione sia isotropa.
La probabilità di eccedenza Pn(I) alla località n, associata ad un terremoto per
il quale non sia disponibile l’intensità risentita al sito ma soltanto all’epicentro,
può essere calcolata combinando la funzione R(I|f(r), Ie) con la probabilità pe(I)
(densità di probabilità che esprime l’incertezza di attribuzione dell’intensità
epicentrale). Queste probabilità possono essere considerate indipendenti, per cui
la probabilità di eccedenza Pn(I) al sito è espressa nella seguente forma:
)),(()()(max
JrfIRJpIP
I
IJ
en ∑∑∑∑====
==== (3.5)
Nell’ambito della formalizzazione proposta, la funzione densità di probabilità
R equivale alle leggi di attenuazione deterministiche ampiamente utilizzate e
descritte in letteratura. A differenza di tali leggi tuttavia, la funzione R ha un
carattere probabilistico ed è quindi in grado di tenere conto delle incertezze che
il loro utilizzo comporta.
La funzione probabilistica R, di seguito utilizzata, è stata determinata per
l’intero territorio italiano sulla base di oltre 2400 terremoti verificatisi dal 1000
al 1980, riportati nel catalogo epicentrale NT4.1 e di quasi 37000 valori di
intensità risentiti in circa 11000 località italiane, disponibili nell’archivio delle
informazioni macrosismiche DOM4. La funzione probabilistica R assume la
forma
)ln()()(
)ln()()(
1rAbAa
rAbAa
oo
oo
e
eR
++++
++++
++++====
dove Ao rappresenta la soglia di attenuazione, ovvero la massima differenza
attesa tra l’intensità, rispettivamente, all’epicentro Ie ed al sito Is , r è la distanza
epicentrale. I parametri a e b sono dati mediante le due relazioni
a(Ao) = 2.57 + 0.91 Ao
b(Ao) = -1.57 + 0.05 Ao
80
Sulla base dei risentimenti di cui si ha effettivamente notizia al sito e degli
effetti calcolati a partire dai soli dati epicentrali riportati in catalogo, ridotti al
sito mediante la funzione di attenuazione descritta (casi più sfavorevoli), è
quindi possibile ricostruire per singole località la storia sismica, formalizzata in
termini probabilistici.
3.3.3.2.3 La valutazione della pericolosità al sito e la stima di completezza del
catalogo sismico
Una volta ricostruita la storia sismica di sito, è possibile stimare la pericolosità
H, nell’assunzione che siano verificate le seguenti tre condizioni:
a) durante l’intervallo temporale coperto dalla storia sismica disponibile, si sono
verificate tutte le possibili situazioni responsabili degli effetti sismici attesi;
b) la storia sismica ricostruita è rappresentativa della sismicità realmente
accaduta al sito nel periodo considerato, ovvero il catalogo sismico di sito
risulta “completo”;
c) a causa di un’incompleta conoscenza delle condizioni tettoniche e dinamiche
presenti e passate, è possibile assumere a priori che tutte le condizioni in
grado di produrre effetti pari ad un determinato grado di intensità I in un
qualsiasi futuro intervallo di tempo ∆∆∆∆t siano equiprobabili. Sulla base di tali assunzioni, la pericolosità H al sito è espressa nella forma:
)()()(
1
0∑∑∑∑====
====iY
j
jji tIQtsTH ∆∆∆∆∆∆∆∆∆∆∆∆ (3.6)
dove H rappresenta la probabilità che in un futuro intervallo di tempo ∆∆∆∆t si verifichi almeno un terremoto in grado di produrre al sito di interesse effetti
almeno pari a I0.
Nella (3.6), s(∆∆∆∆tj) esprime la probabilità che in un qualsiasi intervallo futuro ∆∆∆∆t si verifichino le medesime condizioni geodinamiche attive durante l’intervallo
passato ∆∆∆∆tj. In base all’assunzione al punto c), tutte le condizioni risultano in
realtà equiprobabili. Posto che su tutti gli Yi intervalli di durata ∆∆∆∆t si possono
essere verificate condizioni analoghe a quelle dell’intervallo di esposizione ∆∆∆∆T,
il valore di s(∆∆∆∆tj)è costante e pari a
81
1
11)
++++−−−−========
tTYts(
iij ∆∆∆∆∆∆∆∆
∆∆∆∆ (3.7)
dove ∆∆∆∆Ti è la durata del catalogo considerato. Il secondo termine nella (3.6),
)( 0 jtIQ ∆∆∆∆ , rappresenta invece la probabilità che almeno uno degli eventi
verificatisi durante un intervallo di tempo ∆∆∆∆tj sia stato realmente risentito al sito
con un’intensità maggiore o uguale a I0. Questo prodotto si ottiene dai vettori di
probabilità Pn(I) che rappresentano la storia sismica di sito attraverso la
relazione
[[[[ ]]]]∏∏∏∏====
−−−−−−−−====∆∆∆∆jN
n
nj IPtIQ
1
00 )(11)( (3.8)
Il valore di )( 0 jtIQ ∆∆∆∆ viene quindi stimato sulla base della storia sismica
disponibile al sito di interesse, ovvero dal numero di eventi Nj, verificatisi
nell’intervallo ∆∆∆∆tj, ad ognuno dei quali è associata la probabilità di eccedenza Pn(I) (si veda il par. 3.3.3.2.2), che stima la sicurezza che l’intensità I0 si sia
effettivamente osservata.
La stima di pericolosità H ottenuta dalla (3.6) dipende in modo critico dalla
storia sismica contenuta nel catalogo sismico. Fondamentale appare quindi la
definizione del periodo ∆∆∆∆Ti, all’interno del catalogo sismico disponibile, ritenuto
rappresentativo della sismicità effettiva al sito di interesse. In generale, una
maggiore durata di tale intervallo comporta stime di pericolosità più attendibili,
dal momento che le ipotesi alla base dell’equazione (3.6) risultano meglio
soddisfatte e la conoscenza relativa alla sismicità locale migliora. Tuttavia, se
allunghiamo l’intervallo ∆∆∆∆Ti, la nostra conoscenza sull’attività sismica passata e,
in particolare, sugli effetti da essa prodotti al sito peggiora e diviene sempre
meno affidabile: la causa è da ricercare nel problema della “completezza” dei
cataloghi sismici. In generale, a causa del peggioramento (in termini sia
quantitativi che qualitativi) delle informazioni disponibili sulla sismicità passata,
il tasso di sismicità “apparente” (ricavabile dai cataloghi) tende a decrescere
retrocedendo nel tempo. Una simile apparente diminuzione può quindi produrre
significativi errori sistematici nelle risultanti stime di pericolosità effettuate sulla
base di cataloghi incompleti.
82
In base a tali considerazioni, assumendo L possibili scelte di ∆∆∆∆Ti, si otterranno altrettante stime di H definite per ciascuno di tali intervalli. La (3.6) viene
quindi generalizzata nella forma:
),()(),(
1
00 ∑∑∑∑====
∆∆∆∆∆∆∆∆∆∆∆∆====∆∆∆∆L
i
ii TItHTrItH (3.9)
dove il termine r(∆∆∆∆Ti) rappresenta la cosiddetta “funzione di completezza”
ovvero il grado di credibilità, espresso in termini probabilistici, nella ipotesi che,
per un determinato intervallo di tempo ∆∆∆∆Ti, il catalogo risulti completo ed
attendibile essendo
1)(
1
====∆∆∆∆∑∑∑∑====
L
i
iTr (3.10)
La stima della completezza di un catalogo sismico dovrebbe essere condotta
sulla base di approfondite indagini storiografiche finalizzate all’individuazione
delle fonti di incertezza presenti in un determinato periodo e alla definizione del
grado di attendibilità delle informazioni documentarie, contemporanee e
posteriori al terremoto, disponibili per le singole località. Il livello di
completezza di tali informazioni dipende infatti da un insieme di fattori
riconducibili alla situazione politico-sociale-economica presente nell’area in
esame nel corso della storia. Fino ad oggi, tuttavia, simili studi non hanno
trovato diretta applicazione nella valutazione della funzione di completezza a
causa delle difficoltà relative sia alla raccolta e successiva interpretazione dei
dati documentari che alla rappresentazione in termini quantitativi delle
informazioni ottenute. Di conseguenza, la funzione r(∆∆∆∆Ti) viene generalmente
stimata per via indiretta su base statistica attraverso metodologie che tendono ad
identificare i segmenti stazionari, ovvero completi, dei cataloghi.
Dalla (3.9) risulta che la stima finale di pericolosità, sulla base dell’intera storia
sismica disponibile al sito, si ottiene dalla combinazione di tutti i valori di
pericolosità ottenuti per ciascuno degli L possibili intervalli ∆∆∆∆Ti, valori di pericolosità a cui sarà assegnata un attendibilità (peso) funzione del livello di
completezza r(∆∆∆∆Ti) su cui è stata calcolata.
83
3.3.4 I vantaggi ed i limiti degli approcci probabilistici di Cornell e
di sito
Da quanto esposto nel presente capitolo è emerso che le metodologie
probabilistiche per la valutazione della pericolosità sismica hanno molti
vantaggi rispetto all’approccio deterministico. Vantaggi che derivano da una
razionale considerazione di tutte le fonti di incertezza che entrano nella stima di
pericolosità, incertezze che negli approcci deterministici venivano affrontate con
assunzioni non sempre verificabili.
Ovviamente sia il metodo di Cornell che l’approccio di sito non sono privi di
difetti. Entrambi i metodi considerano la sismicità passata rappresentativa di
quella futura. In questo modo è necessario attingere alle registrazioni,
strumentali e non, degli eventi sismici passati per stimare la sismicità futura.
Bisogna però considerare che i dati non strumentali, di grande importanza
perché coprono un intervallo temporale molto maggiore di quelli strumentali,
sono condizionati dalle forti eterogeneità delle fonti documentarie utilizzate. Il
catalogo di tutti i dati, strumentali e non, ha poi, in generale, problemi di
completezza. Quest’ultima va accuratamente verificata per non portare a stime
probabilistiche errate.
L’applicazione del metodo di Cornell richiede, oltre ad un catalogo epicentrale,
l’identificazione di zone sismogenetiche. Questa identificazione si effettua in
base alle conoscenze delle caratteristiche sismotettoniche della regione in esame
ed è, almeno in parte, soggettiva. La forma e la dimensione delle zone
sismogenetiche sono cruciali per la determinazione del tasso di sismicità,
facendo variare il numero totale di terremoti considerati nel computo e l’entità
del numero di terremoti/anno per unità di superficie. Uno dei punti cruciale del
metodo di Cornell risiede nell’utilizzo delle relazioni empiriche di attenuazione.
Queste permettono di ricostruire la sismicità al sito ma lo fanno in modo
deterministico, non considerando cioè l’incertezza intrinseca di questa
operazione. Quindi, il numero totale di volte che al sito è superata una soglia di
accelerazione del suolo (per ogni magnitudo e porzione delle zone
sismogenetiche considerate), può variare notevolmente in base alla relazione di
attenuazione adottata. La ricostruzione della distribuzione temporale delle
scosse che danno un particolare livello di scuotimento, nello schema di Cornell,
84
richiede una distribuzione Poissoniana nei tempi inter-evento. Quest’ultima è
plausibile solo se vengono utilizzati cataloghi sismici che comprendono solo
eventi indipendenti, il che comporta un’eliminazione, anch’essa arbitraria, di
alcuni degli eventi del catalogo (eventi dipendenti). L’approccio di sito invece
determina la pericolosità direttamente dalla descrizione degli effetti sismici in
ciascun sito. La principale differenza tra il metodo di sito ed il metodo di
Cornell risiede nel fatto che il primo applica in modo estensivo la filosofia
probabilistica includendo nel calcolo della pericolosità ogni fonte di incertezza,
mentre il metodo di Cornell tenta di imporla attraverso assunzioni riduttive o
arbitrarie. Per esempio nel caso in cui i dati di risentimento al sito non siano
noti, anche nell’approccio di sito si utilizzano leggi di attenuazione per stimare
la probabilità che nella località di interesse si sia risentita una data intensità, ma
in questo caso le incertezze coinvolte nelle stime sono considerate
esplicitamente.
Sebbene esistano approcci statistici più sofisticati, in base ai quali la
pericolosità viene stimata in funzione del tempo trascorso dall’ultimo evento
verificatosi in una data area (tecniche cosiddette time-dependent o non
Poissoniane), questi vengono adottati per ora solo a livello sperimentale.
85
4. La pericolosità sismica: la Situazione Italiana
4.1 La classificazione sismica
Le cronache riportano frequentemente il verificarsi in Italia di un terremoto con
conseguenze da gravi a catastrofiche. Da cui la necessità di fronteggiare
l'emergenza e la ricostruzione, ma anche di elaborare una strategia di difesa dai
terremoti.
Lo strumento di difesa adottato fino ad oggi in Italia è incentrato sulla
normativa sismica, che predispone i requisiti antisismici adeguati per le nuove
costruzioni in determinate zone del Paese. L'altra possibile difesa può avvenire
attraverso l'intervento sul patrimonio edilizio già esistente, operazione che deve
essere articolata a valle di complesse valutazioni socio-economiche, denominate
analisi di rischio, diffusasi solo negli ultimi anni. Entrambi gli strumenti di
protezione dagli effetti dei terremoti hanno un denominatore comune nella stima
della pericolosità sismica del territorio, ovvero nella stima dello scuotimento del
suolo, previsto in un certo sito durante un dato periodo di tempo, imputabile a
terremoti.
L’importanza dei risultati degli studi di pericolosità, in particolare, può essere
meglio compresa se consideriamo che su di essi si basa la classificazione
sismica del territorio nazionale, che insieme alle normative per l’edificazione in
aree sismiche, concorre alla mitigazione e prevenzione dei danni prodotti dal
terremoto sull’ambiente. Mentre la classificazione definisce i parametri
progettuali dei nuovi edifici, l’applicazione e la pianificazione urbanistica
antisismica sono regolate invece dalla normativa.
Per quanto riguarda l’Italia, fino dalla metà degli anni Settanta, i criteri seguiti
in materia di classificazione del territorio erano estremamente eterogenei e
assolutamente non guidati da considerazioni di tipo scientifico. Infatti, la prima
classificazione sismica nazionale fu promulgata in seguito al disastroso
terremoto che distrusse Messina e Reggio Calabria nel 1908 provocando circa
80000 vittime, senza dubbio uno degli eventi più violenti mai verificatisi sul
territorio italiano. Tale classificazione consisteva in una lista di comuni
86
danneggiati dal sisma e veniva successivamente aggiornata dopo ogni forte
terremoto che colpiva la penisola.
Soltanto nel 1974 fu emanata la prima legge (legge 2 febbraio 1974 n. 64 o n.
64/74) che prescriveva i criteri generali per la costruzione in zone sismiche. La
64/74 delega la definizione delle norme tecniche e la classificazione del
territorio a successivi decreti ministeriali ed è pertanto aggiornabile qualora le
nuove conoscenze in materia lo suggeriscano. Tale classificazione prevedeva un
elenco di comuni suddivisi in due categorie, in funzione del livello di
pericolosità espresso in termini della massima intensità storicamente risentita
all’interno del area comunale (1° categoria = Imax tra IX e XII; 2° categoria = Imax tra VI e IX).In seguito al terremoto che colpì il Friuli il 6 maggio 1976, furono
avviati in Italia molti studi finalizzati alla revisione della precedente
classificazione sismica. Tra i risultati di questi lavori, in particolare nell’ambito
del “Progetto Finalizzato Geodinamica (PFG)” del CNR, si ricorda l’Atlante
della classificazione sismica e il “Catalogo dei Terremoti Italiani dall’Anno
1000 al 1980” (Postpischl, 1985) e le mappe di scuotibilità d’Italia (Gruppo di
Lavoro Scuotibilità, 1979; Petrini et al., 1979), sulla base delle quali il CNR
avanzò una proposta per la riclassificazione sismica del territorio italiano. Tale
proposta fu accettata e tradotta in una serie di decreti legge emanati dal
Ministero dei Lavori Pubblici, tra il 1980 ed il 1984, in seguito al disastroso
terremoto che colpì l’Irpinia il 23 novembre 1980 provocando enormi danni
economici e circa 3000 vittime. La nuova classificazione, che risale al 1986 ed
attualmente in vigore, lasciava sostanzialmente inalterati i comuni già in prima e
seconda categoria, mentre prevedeva l’ingresso in seconda categoria di molti
comuni precedentemente non classificati sismici e la definizione di una terza
categoria (IMAX ≤ VI) per alcune località del Meridione per le quali, nonostante il
basso livello di pericolosità, erano attesi danni considerevoli per gli alti livelli di
vulnerabilità ed esposizione. Oltre alla suddivisione dei comuni nelle tre
categorie sismiche, vennero fissate per legge anche alcune norme tecniche
mediante le quali vennero definite le caratteristiche costruttive per i nuovi
edifici in aree sismiche, introducendo il coefficiente sismico di progetto C da
assegnarsi all’edificio sulla base delle sollecitazioni previste per la classe di
appartenenza del comune di edificazione. Un altro parametro a cui fa riferimento
87
la classificazione è il grado di sismicità S ad uso prevalentemente
ingegneristico (vedi tabella 4.1).
Uno dei limiti di tale normativa consiste nel fatto che essa è applicabile
esclusivamente ad edifici di nuova costruzione.
La normativa italiana attuale (dati al 1991) prevede una classificazione sismica
degli 8102 comuni del territorio italiano (fig. 4.1). Di questi comuni, 2965 sono
classificati come sismici interessando il 45% del territorio nazionale ed il 70%
dell’Italia centro-meridionale. La popolazione sottoposta a rischio sismico è il
40% (fonti SSN).
Attualmente, è in fase di ultimazione una nuova classificazione sismica del
territorio nazionale, che prevede una complessiva diminuzione del numero di
comuni classificati sismici e di quelli in seconda categoria e, al contrario, un
aumento dei comuni classificati in prima e soprattutto in terza categoria. Questa
nuova classificazione è frutto dei più recenti studi sulla storia sismica del
territorio italiano ed all’impiego di più aggiornate metodologie di analisi. Nel
seguito verrà presentata una breve rassegna dello stato delle conoscenze e dei
più recenti risultati ottenuti nella stima della pericolosità sismica per il territorio
italiano.
Fig. 4.1 – Classificazione sismica del territorio italiano in vigore dal 1986. I diversi colori corrispondono alle diverse categorie sismiche: rosso = 1° cat.; arancione = 2° cat.; giallo = 3° cat.; grigio = non classificato. (dal sito Internet del SSN: http://www.dstn.it/ssn/LEGI/CLASS/italia.html).
88
Tabella 4.1
4.2 La pericolosità sismica
Dal 1974, data della promulgazione della normativa sismica nazionale
contenente i criteri di costruzione antisismica e della classificazione sismica, gli
studi sismologici e geologici svolti nell'ambito del Progetto Finalizzato
Geodinamica del Consiglio Nazionale delle Ricerche (CNR), hanno portato ad
un sostanziale sviluppo delle conoscenze sulla sismicità del territorio nazionale e
permesso la formulazione di una proposta di classificazione sismica basata, per
la prima volta in Italia, su indagini di tipo probabilistico della sismicità italiana e
contenente un embrione di stima del rischio sismico sul territorio nazionale. Il
risultato di questi studi, presentato al governo e tradotto in una serie di decreti,
costituisce la base per la classificazione sismica italiana attualmente in vigore.
Sono passati più di venti anni da allora, e la comunità scientifica ha compiuto
altri significativi passi nella comprensione del fenomeno sismicità e nella
valutazione e sviluppo di tecniche per la riduzione delle sue conseguenze. Come
in tutti i settori della ricerca i risultati non sono esaustivi ma consentono però un
aggiornamento della classificazione sismica del territorio. Nell'ambito delle
attività di ricerca del Gruppo Nazionale per la Difesa dai Terremoti (GNDT) del
CNR, il progetto "Pericolosità Sismica del Territorio Nazionale" si è posto quale
obiettivo ottenere una nuova stima della pericolosità sismica d'Italia, utilizzando
metodologie statistiche internazionalmente convalidate, per fissare le
conoscenze disponibili alla prima metà degli anni '90.
89
Hanno concorso alla realizzazione di tale progetto le attività di tre Linee di
Ricerca del GNDT, che possono semplicisticamente rappresentare gli
"ingredienti" necessari per la stima della pericolosità. La Linea "Sismicità" ha
contribuito al miglioramento delle conoscenze sismologiche ed alla valutazione
della sismicità nazionale, la Linea "Sismotettonica" ha guidato l'interpretazione
del "dove e perché" avvengono i terremoti, la Linea "Pericolosità" ha esplorato
gli aspetti metodologici della stima della pericolosità, ed è quindi stata coinvolta
nelle fasi di calcolo vero e proprio. Senza l'apporto originale e la sinergia di
queste ricerche non sarebbe stato possibile giungere a risultati culturalmente e
scientificamente validi e nuovi.
Nell'ambito del progetto GNDT per la nuova proposta di classificazione
sismica del territorio nazionale è stato scelto il metodo di Cornell (vedi par
3.3.3.1) preso a riferimento anche da numerosi progetti internazionali.
Come si è visto, gli elementi basilari sono una zonazione sismogenetica
dell'area studiata, un catalogo dei terremoti ed una o più relazioni di
attenuazione del parametro sismologico scelto quale indicatore di pericolosità.
Nell'ambito delle attività del GNDT, è stata elaborata una zonazione
sismogenetica del territorio italiano e regioni limitrofe che considera 80
sorgenti, omogenee dal punto di vista strutturale e sismogenetico (modello del
GNDT par. 4.2.2). È stato poi predisposto un nuovo catalogo sismico finalizzato
alla pericolosità per i terremoti avvenuti nell'intervallo temporale dall'anno 1000
al 1980 sul territorio nazionale e regioni limitrofe (NT4.1 e DOM4.1) che
consiste di oltre 3000 eventi principali (le repliche sono escluse). Per tenere
conto degli effetti d’attenuazione, provocati dalla distanza sito-sorgente
sull’indicatore di pericolosità di interesse, ovvero l'accelerazione orizzontale di
picco PGA, sono state utilizzate le relazioni di attenuazione proposte da
Ambraseys e da Sabetta e Pugliese. Per l’intensità macrosismica I sono state
invece sviluppate nuove relazioni empiriche. I risultati sono descritti nel par.
4.2.3.
90
4.2.1 La storia sismica
4.2.1.1 I cataloghi sismici italiani
Come visto in precedenza, la conoscenza della sismicità passata è uno
strumento essenziale per la valutazione della pericolosità sismica.
La raccolta e la successiva analisi delle informazioni riguardanti gli effetti dei
terremoti verificatisi nel passato si sono rivelate, già da molto tempo, di enorme
interesse. Intorno alla metà dell’Ottocento, infatti, l’esistenza di una tradizione
europea di studi sulla sismicità storica permise allo studioso inglese Robert
Mallet di compilare uno dei più vasti cataloghi sismici (Mallet, 1852-1854) e di
tracciare una carta sismica dell’intero Mediterraneo.
In Italia l’interesse per questo genere di raccolte fu molto precoce, stimolato da
una ricca ed antica tradizione di fonti documentarie e dal frequente ripetersi di
terremoti distruttivi. Molto antica, in quanto risalente al mondo classico, è infatti
l’osservazione che i terremoti hanno la tendenza a manifestarsi negli stessi
luoghi e che vi fossero zone più sismiche di altre.
Sebbene nel nostro Paese, già a partire dal XVI secolo si fosse formata una
tradizione di cataloghi sismici, soltanto all’inizio del Novecento lo studioso
Mario Baratta pubblicò a Torino una raccolta contenente materiale informativo
su tutti gli eventi sismici avvenuti in Italia, di cui era stato possibile reperire
notizie. Questa fu pubblicata con il titolo: “I terremoti d’Italia. Saggio di storia,
geografia e bibliografia sismica” (Baratta, 1901). L’organicità di tale lavoro, al
quale l’autore aveva lavorato da solo per dieci anni, consentì di compiere enormi
passi avanti nella conoscenza delle caratteristiche delle diverse aree sismiche del
territorio italiano. Tuttavia, l’opera di Baratta presentava alcuni limiti, dal
momento che riportava alcuni terremoti risultati poi, alla luce di recenti
revisioni, mal stimati o addirittura falsi, ovvero mai verificatisi. Frequenti sono
anche gli errori di cronologia, dovuti ai differenti sistemi di datazione antica e
moderna adottati in Italia, che hanno causato duplicazioni di eventi.
Negli anni Settanta l’ENEL, in collaborazione con l’Istituto Nazionale di
Geofisica (ING) ed il CNEN (attuale ENEA), ha affrontato il problema
dell’informatizzazione del catalogo dei terremoti italiani, pubblicando una
raccolta con oltre 20000 eventi avvenuti dall’anno 1000 al 1975. Lo stesso ente
91
ha poi prodotto il "catalogo ENEL-ISTAT 1971 delle località abitate italiane".
Quest’ultimo catalogo, composto da circa 70.000 località, costituisce il
riferimento geografico (denominazione e coordinate delle località) per i
successivi cataloghi sismici. Successivamente, le ricerche svolte dal “Gruppo
Catalogo dei Terremoti” (GCT) hanno portato quasi a raddoppiare il numero di
eventi storici italiani confluiti nel “Catalogo dei Terremoti Italiani dall’Anno
1000 al 1980” (Postpischl, 1985).
Negli ultimi anni, l’Istituto Nazionale di Geofisica da un lato, ed il Gruppo
Nazionale per la Difesa dai Terremoti (GNDT) dall’altro, hanno completato un
lungo e complesso lavoro di rivalutazione ed omogeneizzazione dei risultati
delle ricerche sismiche storiche, condotte in diversi ambiti, pervenendo ambedue
alla compilazione di nuovi cataloghi sismici. All’interno dell’ING, è stato
prodotto il “Catalogo dei Forti Terremoti in Italia dal 461 a.C. al 1980” (CFTI,
Boschi et al., 1995), cui ha fatto seguito una seconda edizione nella quale sono
stati aggiunti ulteriori eventi (“Catalogo dei Forti Terremoti in Italia dal 461
a.C. al 1990”, Boschi et al., 1997). Oltre alle principali informazioni
parametriche (es. data del terremoto, coordinate epicentrali, magnitudo ed
intensità epicentrale) tale compilazione riporta, per ogni evento, la lista completa
delle località per le quali sono disponibili informazioni macrosismiche.
Parallelamente, in ambito GNDT, sono stati concepiti due cataloghi relativi ai
terremoti verificatisi nella penisola dal 1000 al 1980. Il primo è un catalogo
epicentrale (“NT4.1 - un catalogo parametrico di terremoti di area italiana al di
sopra della soglia del danno”, Camassi e Stucchi, 1996), aggiornato nella
versione 4.1.1 fino al 1992. Il catalogo è costituito da una sequenza di stringhe,
una per terremoto, che contengono i parametri scelti dal compilatore per
rappresentare alcune caratteristiche di ciascun terremoto (localizzazione
epicentrale, tempo origine, magnitudo, ecc.) e copre la finestra temporale 1000-
1980. L'estensione al 1995 è stata resa disponibile nel 1996 e considera gli
epicentri di "area italiana", ossia inclusi in un poligono che comprende le zone
sismogenetiche di interesse per la valutazione della pericolosità sismica in Italia,
secondo il modello proposto da Scandone et al. (1992), si veda il par. 4.2.2. Fra
il catalogo NT4.1 e la zonazione sismogenetica citata esiste una relazione molto
stretta. In pratica, NT4.1 può essere visto come la somma di 82 sub-cataloghi
indipendenti, relativi alle 80 zone sismogenetiche e alle 2 zone accessorie di
92
background. Il catalogo NT4.1 non comprende i terremoti delle zone
sismogenetiche balcaniche e delle relative zone di background. Esso comprende
in generale eventi con Ie ≥ V-VII oppure Ms ≥ 4.0. Uno degli aspetti che più
caratterizzano l'orientamento del catalogo, ai fini di valutazione della
pericolosità sismica, è costituito dal fatto che NT4.1 non contiene registrazioni
di scosse considerate repliche o precedenti l’evento principale (aftershocks e
foreshocks). La rimozione è stata effettuata con un criterio “freddo”,
rimuovendo gli eventi all'interno di finestre spazio-temporali di raggio 30 km e
di +/- 90 giorni, indipendentemente da Ie e M, conservando solo l'evento più
grande.
Ulteriori informazioni sul catalogo parametrico NT4 sono reperibili nel sito
Internet: http://emidius.itim.mi.cnr.it/NT/CONSNT.html.
Il secondo catalogo è il “DOM4.1 - un database di osservazioni macrosismiche
di terremoti di area italiana al di sopra della soglia del danno”, redatto da
Monachesi e Stucchi (1997). DOM4.1 è un catalogo di sito contenente quasi
37000 dati di intensità risentita in circa 11000 località italiane e costituisce
un’indispensabile fonte di dati per le analisi probabilistiche di pericolosità
sismica. In sintesi, DOM4.1 è un archivio di osservazioni macrosismiche di
terremoti di area italiana al di sopra della soglia del danno contenente i dati
macrosismici, provenienti da studi GNDT e di altri enti, che sono stati utilizzati
per la compilazione di NT4.1.
Evoluzioni di DOM4.1 sono state utilizzate per:
• La compilazione della "Mappa delle massime intensità macrosismiche
osservate nei comuni italiani" (Molin et al., 1996), in combinazione con i
dati di CFTI (Boschi et al., 1995), si veda la figura 4.2;
• La determinazione dei parametri di attenuazione (Peruzza, 1996) utilizzati
per la redazione della "Mappa di pericolosità sismica del territorio
nazionale" (Slejko, 1996);
• La redazione degli “Scenari di danno speditivi da dati storici di terremoti"
(ISMES, 1997).
DOM4.1 non include i seguenti terremoti:
� al di sotto della soglia di danno Io ≤ 5, Ms ≤ 4.0
� profondi (con profondità ipocentrale Σ 35 km);
93
� considerati repliche o foreshocks di eventi principali (si vedano le
assunzioni del metodo di Cornell par. 3.3.3.1);
� relativi a zone balcaniche;
� relativi a terremoti prima del 1000 o successivi al 1980.
Ulteriori informazioni sul catalogo parametrico DOM4.1 sono reperibili nel
sito Internet: http://emidius.itim.mi.cnr.it/DOM/home.html.
È quindi evidente come, rispetto alle precedenti compilazioni parametriche che
si limitavano a riportare sintetiche informazioni epicentrali, il catalogo DOM4.1
risulta assai più ricco di dati, grazie ad approfondite indagini storiografiche
attraverso le quali è stato possibile ricostruire un elevato numero di campi
macrosismici delle intensità valutate con criteri omogenei.
A partire dal 1988 il GNDT ha raccolto, verificato e ricompilato la
maggioranza dei dati macrosismici disponibili per terremoti relativi al periodo
1000-1980, provenienti da fonti differenti, in parte pubblici, in parte riservati, e
da studi isolati. È stata così data priorità agli eventi "principali" di ciascuna
sequenza, con esclusione quindi delle repliche individuate secondo il criterio
adottato per la compilazione dei cataloghi NT. In definitiva, i dati disponibili
sono quelli relativi agli eventi "principali", cioè quelli relativi ai terremoti
inseriti nel predetto catalogo. In totale, utilizzando i dati della banca GNDT la
mappa delle massime intensità osservate può essere prodotta a partire da 943
eventi di intensità epicentrale superiore o uguale alla soglia del danno (Ie ≥V-
VI). Per questi eventi si dispone complessivamente di circa 33.000 osservazioni
riferite a 9070 località, di cui 8518 in territorio italiano.
Il "Catalogo dei Forti Terremoti in Italia" (CFTI), considerando solo
marginalmente le informazioni concernenti terremoti con Ie≤ 8, caratterizza 226
eventi per i quali sono disponibili dati di intensità relativi a circa 8110 località,
di cui circa 7800 in territorio italiano. Di questi eventi circa 215 possono essere
considerate scosse "principali"; per 205 di questi ultimi sono disponibili anche i
dati di intensità della banca dati GNDT, provenienti da studi differenti e
indipendenti.
La disponibilità di una vasta base di informazioni di buona qualità ha dunque
consentito negli ultimi anni di incrementare sensibilmente le conoscenze relative
all’attività sismica nella penisola. Tuttavia, le differenze esistenti tra il catalogo
CFTI e le compilazioni NT e DOM, hanno talvolta reso difficoltosa la scelta dei
94
parametri di riferimento, soprattutto ai fini di interventi di tipo normativo. Di
conseguenza, su richiesta del Dipartimento della Protezione Civile, allo scopo di
superare tali problemi e poter disporre di un catalogo unificato da adottare come
riferimento per il territorio nazionale, è stato di recente pubblicato il “Catalogo
Parametrico dei Terremoti Italiani” (Gruppo di Lavoro CPTI, 1999), risultato
da una complessa integrazione tra le tre compilazioni.
4.2.1.2 La carta delle massime intensità
La compilazione di una mappa affidabile delle massime intensità
macrosismiche, realmente osservate, richiede la disponibilità di una storia
sismica sufficientemente completa nell'arco di tempo prescelto per un insieme di
località abbastanza denso. In passato queste condizioni erano ben lontane
dall'essere soddisfatte. Di conseguenza, la maggior parte delle cosiddette carte
delle "massime intensità osservate" prodotte sia in Italia (PFG, ING/SGA), sia in
Europa, sono basate su dati estrapolati da carte delle isosisme o addirittura
calcolati a partire da un catalogo e da leggi di attenuazione, a loro volta ottenute
da isosisme. Queste carte non rappresentano dunque le massime intensità
"realmente osservate", tant’è che esse non riportano la massima intensità
risentita da ogni singolo centro abitato. Per precisare questo concetto, il PFG
adottò il termine di massime intensità "osservabili", ovvero intensità che si
sarebbero potute osservare, in passato, in assenza di anomalie geologiche locali
o di vulnerabilità, nell'ipotesi che catalogo e leggi di attenuazione scelti fossero
effettivamente rappresentativi delle caratteristiche della sismicità nella regione
di interesse.
Oggi, in Italia, la situazione si presenta abbastanza diversa. Gli studi effettuati
da ENEA, PFG, ENEL, GNDT, ING/SGA e da singoli autori hanno reso
disponibili una grande quantità di osservazioni macrosismiche, la maggior parte
delle quali esprimibili in termini di scale macrosismiche. È dunque pensabile di
poter compilare una mappa di massime intensità osservate che si basi, in misura
prevalente, su valori realmente osservati, ricorrendo ad aggiustamenti solo per
quelle località ove questo si renda necessario, a misura del dettaglio dell'analisi.
95
I dati DOM e CFTI, coprendo un totale di circa 10.000 località, hanno una
copertura geografica sufficientemente omogenea, con distribuzione temporale
che privilegia gli ultimi due secoli. I valori di intensità vengono riferiti al
territorio comunale che è considerato l’unità operativa base per l'attuazione delle
normative. La mappa delle massime intensità osservate è stata quindi compilata
"per comune". Qualora per uno stesso comune siano disponibili dati riferiti a più
località, è stata attribuita all'intero territorio comunale la massima fra le intensità
osservate nelle varie località appartenenti al comune stesso. Questa scelta
rappresenta solo una prima approssimazione. Può infatti risultare penalizzante
per località non soggette a fenomeni sistematici di amplificazione o per porzioni
del territorio comunale molto distanti dalle località alle quali si riferisce il grosso
delle informazioni disponibili. Si nota che tale effetto è tanto più significativo
quanto più il comune è esteso, come ad esempio nel caso di Roma. Occorre
infine osservare che alle cosiddette "isole amministrative" andrebbe attribuito, in
via di principio, un valore di intensità massima osservata coerente con la loro
collocazione geografica piuttosto che con la loro afferenza amministrativa.
Le circa 10.000 località per cui sono disponibili osservazioni ricadono in 5660
comuni, a fronte di 8101 comuni italiani (censimento ISTAT 91). In particolare,
per 4065 comuni esistono dati sia DOM che CFTI, per 950 comuni esistono solo
dati DOM, per 645 comuni esistono solo dati CFTI, mentre per 2441 comuni
non si hanno dati osservati. La maggior parte di questi ultimi comuni si trova in
Sardegna, regione poco sismica, nonché in Piemonte e Lombardia, regioni in cui
si osserva una forte frammentazione con numerosissimi comuni di piccola
superficie.
Nell'elaborazione dei dati, volta alla compilazione della carta delle massime
intensità, sono stati affrontati diversi problemi. Uno di questi è stata la parziale
congruenza tra i dati DOM e CFTI. Un altro è la limitata disponibilità di dati,
limitata per alcuni comuni (poche osservazioni o addirittura una soltanto). Si
tratta in generale di piccoli comuni entrati in gioco solo in occasione di forti
terremoti, o territori comunali in cui sono segnalate intensità basse, per lo più in
occasione di terremoti recenti. Per questi ultimi, l'uso dell'unico dato disponibile,
può risultare non corretto e né tanto meno cautelativo. In questi casi, così come
in quelli in cui l'intensità massima risulta molto più bassa di quanto suggerito dai
valori osservati nei comuni limitrofi, o nei casi estremi in cui non esiste alcun
96
dato osservato, si è proceduto assegnando, comune per comune, un valore
"ponderato" di intensità (Imax/pon), stimato per estrapolazione dai valori
osservati nei comuni limitrofi oppure calcolando un risentimento massimo a
partire dal catalogo NT mediante opportune leggi di attenuazione.
Seguendo un'analoga strategia, oppure in presenza di evidenti imprecisioni nei
dati, in poche decine di casi si è ritenuto opportuno "abbassare" il valore
osservato di Imax. Così non è stato nel caso di alcune grandi città (ad esempio
Roma, Milano, ecc.), in quanto si è ritenuto che l'amplificazione degli effetti
osservati relativamente ai comuni limitrofi possa riflettere una reale e maggior
vulnerabilità complessiva di questo tipo di abitati.
In totale Imax/oss è stata assegnata ai 2441 comuni per i quali non sono
disponibili osservazioni, e ad altri 1810, in relazione alle considerazioni espresse
più sopra. Ad ogni comune risulta quindi associato un valore di intensità
massima osservata (Imax /oss), oppure "ponderata", espresso in una delle cinque
classi seguenti: ≥VI, VII, VIII, IX, ≤X. Ai fini della stesura della Carta delle Imax
non si è ritenuto utile differenziare i valori al di sotto del VI grado ed al di sopra
del X. I valori incerti sono stati associati alla classe superiore (es.: VI-VII è stato
considerato equivalente a VII). Va sottolineato che questa scelta, unitamente a
quella di associare all'intero territorio comunale il valore massimo di intensità
osservata in almeno una località appartenente al comune stesso e di assegnare un
valore "ponderato" nei casi in cui il record storico è molto incompleto,
determina una rappresentazione tendenzialmente "pessimista" degli effetti dei
terremoti del passato. La distribuzione geografica dei risultati è presentata in
Fig. 4.2. Si sottolinea che queste scelte, unitamente a quelle precedentemente
illustrate, di assumere per il comune il valore massimo osservato nel comune
stesso e, nel caso di disponibilità di dati sia DOM che CFTI, di scegliere il
valore più elevato, orientano i risultati in senso cautelativo e possono pertanto
risultare sovrastimati.
Ulteriori informazioni sulla carta delle massime intensità osservate, organizzata
per regione e provincia, è disponibile nel sito Internet:
http://emidius.itim.mi.cnr.it/GNDT/IMAX/imax.html.
97
Fig. 4.2 - Massime intensità macrosismiche osservate nei comuni italiani (dal sito Internet:
http://emidius.itim.mi.cnr.it/GNDT/IMAX/imax.html; dove sono disponibili le carte geografiche
regionali e le tabelle con i dati di Imax per i singolo comune).
4.2.2 La zonazione sismogenetica del territorio nazionale
La zonazione sismogenetica (Scandone et al., 1994) è stata tracciata con lo
scopo prevalente di servire da input per valutazioni di pericolosità sismica
effettuate dal GNDT applicando la metodologia di Cornell o altre metodologie
(metodo "misto", ecc.).
Questa zonazione sismogenetica rappresenta dunque una delle possibili
zonazioni sismogenetiche: lo specifico ruolo rivestito nel calcolo della
pericolosità, insieme al catalogo dei terremoti, alla modalità di valutazione dei
tassi di sismicità e alle leggi di attenuazione utilizzate, ne ha profondamente
determinato le caratteristiche, in particolare per quanto riguarda il numero e le
dimensioni delle zone sismogenetiche.
Il modello sismotettonico adottato nel tracciamento delle zone sismogenetiche
è basato sulla correlazione incrociata di tre basi di dati che riguardano:
98
• il modello strutturale 3D della penisola italiana e mari adiacenti che ha
permesso di ricostruire la geometria delle strutture potenzialmente attive e di
valutare le caratteristiche meccaniche delle rocce alle varie profondità;
• la distribuzione spaziale dei terremoti storici e attuali per le diverse classi di
magnitudo. Particolarmente utili ai fini della zonazione sono risultate le
numerose ricostruzioni di campi macrosismici esistenti. In molti casi sono
state riscontrate strette correlazioni tra strutture geologiche potenzialmente
attive e terremoti;
• in altri casi la ricca documentazione macrosismica disponibile ha indirizzato
la revisione di aree dove non erano state riconosciute strutture attive. In
qualche caso, infine, l'assenza di terremoti documentati in aree caratterizzate
da deformazioni tettoniche recenti ha suggerito ulteriori approfondimenti
nelle ricerche storiche nonché l'applicazione di indagini paleosismologiche;
• il modello cinematico dell'area mediterranea centrale riferito agli ultimi 6
milioni di anni. Il modello ha permesso di ricostruire l'andamento spazio-
temporale di parametri estremamente importanti nell'analisi sismotettonica.
L'approccio strutturale-cinematico, in definitiva, è sembrato il più promettente
per giungere ad un quadro interpretativo coerente della sismicità in una regione
tettonicamente complessa quale l'Italia. In conclusione, la sismicità dell'area
italiana si inserisce in un quadro geodinamico complesso nel quale trovano
coesistenza processi cinematici diversi. La figura 4.3, oltre alla zonazione
sismogenetica, mostra il comportamento cinematico atteso delle strutture
sismogenetiche nelle varie zone del territorio nazionale.
Nelle valutazioni di pericolosità che utilizzano l'approccio Cornell ogni zona
sorgente, rappresentata da un poligono, viene assunta come omogenea.
All'interno di essa i terremoti possono verificarsi in ogni punto con la medesima
probabilità e sono distribuiti casualmente ("spalmatura" degli eventi). È bene
sottolineare che le zone sismogenetiche, concepite in questa prospettiva,
rappresentano una combinazione ragionata di elementi geologici e sismologici e
non, viceversa, un insieme di elementi geologici nel quale si innesta,
successivamente, un catalogo sismico. In altre parole, la geometria delle zone e i
tassi di sismicità sono entrambi elementi costitutivi della zonazione.
Ora, l'assunzione che terremoti di magnitudo medio-alta possano verificarsi
con la stessa probabilità in un punto qualsiasi di una certa zona rappresenta,
99
ovviamente, un’eccessiva semplificazione. Ciascuna zona sismogenetica è
caratterizzata da un sistema di strutture sismogenetiche coerenti al proprio
interno, in termini di geometria e cinematica, con i sistemi tettonici attivi delle
zone adiacenti. Ciascuna zona rappresenta in sostanza la proiezione in superficie
di un segmento, più o meno lungo, di un sistema di faglie attive capaci di
generare terremoti. Ogni zona sismogenetica contiene quindi uno o più segmenti
di faglie maggiori, responsabili degli eventi di più alta energia, e numerose
faglie minori associate, responsabili degli eventi di più bassa energia. In questo
senso i tassi di sismicità di ciascuna zona, comunque vengano calcolati,
rappresentano valori che spesso mediano fra caratteristiche di rilascio
dell'energia molto diverse fra loro. L’eccessiva semplificazione, che è stata
introdotta assumendo zone al loro interno omogenee, ha rappresentato dunque
un prezzo coscientemente pagato per procedere in tempi ragionevoli a
valutazioni di pericolosità relative all'intero territorio nazionale che tenessero
conto in qualche modo delle informazioni allora disponibili.
Va infine osservato che, di fatto, la zonazione sismogenetica adottata identifica
80 zone indipendenti ciascuna dall'altra e che il catalogo sismico, costruito in
stretta connessione con la zonazione, può essere inteso come la somma di 80
sottocataloghi indipendenti (più due riferiti alle zone accessorie di background).
L'operazione di "spalmatura" che viene effettuata nelle procedure di tipo
Cornell fa sì che, a parità di eventi contenuti in catalogo, i valori dei descrittori
dello scuotimento, atteso in un sito in un certo intervallo temporale, varino
sensibilmente al variare della dimensione dell'area sorgente.
Il criterio adottato nell'assegnare alle zone una certa larghezza è stato quello di
mediare tra terremoti maggiori (che potrebbero essere contenuti in poligoni più
stretti) e terremoti minori, ma comunque superiori alla soglia del danno, che
sono di regola circoscritti da zone più larghe. Circa la lunghezza, il criterio
seguito è stato quello geometrico-cinematico (continuità o meno delle strutture e
omogeneità di comportamento cinematico) integrato dalle conoscenze
disponibili sulla distribuzione spazio-temporale della sismicità. Il numero di
zone nelle quali è stato diviso il territorio nazionale è la diretta conseguenza
dell'applicazione di questi criteri e potrebbe variare nelle future revisioni del
modello per future e differenti applicazioni.
100
Fig. 4.3 - Zonazione sismogenetica del GNDT (dal sito Internet: http://emidius.itim.mi.cnr.it/GNDT/P511/home.html).
a. zone legate alla convergenza Adria-Europa. b. Zone di trasferimento Alpi-Appennino e Mar Ligure. c. Zone legate allo sprofondamento passivo della litosfera adriatica sotto il sistema di catena
nell'Arco Appenninico Settentrionale. d. Zone legate alla disattivazione del sistema catena-avanfossa nell'Appennino meridionale e alla
rotazione antioraria dell'Adria. e. Zone dell'Arco Calabro, verosimilmente legate alla subduzione passiva della litosfera ionica, e
Sicilia Settentrionale. f. Zone legate alla divergenza Africa-Adria. g. Zone di avampaese, con diversi comportamenti cinematici. h. Zone in aree vulcaniche attive. i. Zone con comportamento cinematico indefinito.
4.2.3 Le carte di pericolosità
Per il calcolo della pericolosità è stato utilizzato il codice Seisrisk-III, basato
sul metodo di Cornell, che richiede come input i parametri: geometria delle zone
sismogenetiche, sismicità e relazioni di ricorrenza per ciascuna zona
sismogenetica, relazioni di attenuazione. Nonostante il codice consenta la
possibilità di considerare l'incertezza associata alla definizione spaziale delle
101
zone sismogenetiche, attraverso l’opzione "bordi morbidi", è stato deciso di non
utilizzarla.
Il codice Seisrisk-III fornisce come output le frequenze di osservazione
(sismicità macrosismica al sito), le frequenze di eccedenza ed il valore del
periodo medio di ritorno associati a ciascun valore dell'intensità. Va sottolineato
che, sulla base della ipotizzata distribuzione di Poisson, associare ad un evento
un periodo di ritorno di 100 anni, significa dire che in 100 anni tale evento ha
una probabilità di eccedenza uguale a 11 −−−−−−−− e e cioè pari a circa il 63% (si veda
punto V. par. 3.3.3.1). Infatti la probabilità p(1,∆T) di avere almeno un evento,
di periodo medio di ritorno T nel tempo di esposizione ∆∆∆∆T, è data da:
T
T
eTp
∆∆∆∆−−−−
−−−−====∆∆∆∆ 1),1( (4.1)
In base alla (4.1) è possibile calcolare altre statistiche di interesse, come i
valori di accelerazione del suolo aventi una probabilità di eccedenza assegnata
in un certo intervallo di tempo.
La stima della pericolosità è stata effettuata suddividendo il territorio italiano
in maglie geografiche di circa 8 x 10 km e calcolando, per ciascuna maglia, il
valore di intensità MCS o il valore di PGA, che ha una probabilità di non
eccedenza del 90% (o di eccedenza del 10%) in tempi di 10, 50 e 100 anni. Tali
tempi di osservazione, in base alla (4.1), corrispondono rispettivamente a periodi
di ritorno di circa 95, 475, e 950 anni. Le scelte dei periodi di ritorno tengono
conto, sia della copertura temporale e dei periodi di completezza del catalogo
utilizzato, sia dei tempi di vita medi delle strutture normalmente utilizzati in
campo ingegneristico.
Le carte di pericolosità sono state ottenute calcolando le curve di livello che
interpolano i valori delle singole maglie geografiche. I risultati di questa
metodologia sono in genere riferiti ad un certo livello di probabilità in un dato
periodo di tempo. Le figure presentate più avanti illustrano il valore
dell'indicatore di pericolosità che si prevede non venga superato nel 90% dei
casi in 50 anni. I risultati possono anche essere interpretati come quel valore di
scuotimento (in I o PGA) che nel 10% dei casi al massimo si prevede verrà
superato in 50 anni. Questo equivale allo scuotimento sismico che mediamente
si verifica ogni 475 anni (cosiddetto periodo di ritorno). Si tratta di valori
convenzionali utilizzati nel mondo ed in particolare in campo europeo anche
102
come valore di riferimento per l'Eurocodice sismico (EC8). Non corrispondono
pertanto né al massimo valore possibile per la regione, né al massimo valore
osservato storicamente, ma sono ragionevoli compromessi legati alla presunta
vita media delle strutture abitative.
I due indicatori di pericolosità qui utilizzati (PGA e I)rappresentano due aspetti
diversi dello stesso fenomeno. L'accelerazione orizzontale di picco PGA di Fig.
4.4 illustra l'aspetto più propriamente fisico: si tratta di una grandezza di
interesse ingegneristico che viene utilizzata nella progettazione in quanto
definisce le caratteristiche costruttive richieste agli edifici in zona sismica.
L'intensità macrosismica I di Fig. 4.5 rappresenta, invece, in un certo senso le
conseguenze socio-economiche. Descrivendo infatti il grado di danneggiamento
causato dai terremoti, una carta di pericolosità in intensità macrosismica si
avvicina, con le dovute cautele derivate da diverse approssimazioni insite nel
parametro intensità, al concetto di rischio sismico.
Le informazioni che si possono dedurre dalle due carte sono quindi diverse. Va
ricordato che in entrambi i casi, i risultati forniti non contemplano le situazioni
di anomalia particolare, legati a possibili amplificazioni locali dello scuotimento
per caratteristiche geomorfologiche sfavorevoli oppure a situazioni di alta
vulnerabilità degli edifici. Globalmente, comunque, i due prodotti hanno
caratteristiche simili.
Nel dettaglio della Fig. 4.4, i valori massimi di pericolosità (accelerazioni
attese superiori a 0,36 g, dove con g si indica l'accelerazione di gravità) sono
raggiunti in Friuli, in alcune zone dell'Appennino Centrale e Meridionale, lungo
l'arco Calabro fino allo stretto di Messina. Piccole porzioni della penisola (le
zone pianeggianti del Piemonte e Lombardia, l'Alto Adige, il Tavoliere delle
Puglie) e la Sardegna risultano caratterizzate da valori di scuotimento atteso
molto bassi (accelerazioni attese inferiori a 0,08 g). È da segnalare che
l'attenuazione dell'accelerazione di picco selezionata è riferita ad un terreno
medio ed è stata tarata su un vasto parco di dati europei per garantire robustezza
ai risultati. La dinamica della carta d'intensità macrosismica di Fig. 4.5 individua
ancora un'area di elevata pericolosità sismica in Friuli (valori corrispondenti al
IX grado della scala MCS) mentre un massimo interessa questa volta tutta la
parte assiale della penisola, dall'Appennino Umbro-Marchigiano fino a quello
Lucano, per poi proseguire lungo l'arco Calabro fino a Messina. In due fasce
103
costiere calabre vengono raggiunti i valori massimi di pericolosità,
corrispondenti agli effetti del X grado MCS. Va segnalato che la convenzione
utilizzata per la rappresentazione grafica associa i gradi intermedi, solitamente
usati per indicare l'incerta attribuzione tra due classi di intensità, alla classe
superiore. Così, ad esempio, per la maggior parte della Pianura Padana, si
prevede che possano verificarsi mediamente ogni cinque secoli effetti del V-VI
o VI grado MCS, corrispondenti alla soglia dei primi danneggiamenti. La
Sardegna resta sensibilmente meno pericolosa del resto d'Italia.
Ulteriori informazioni si possono trovare nel sito:
http://emidius.itim.mi.cnr.it/GNDT/P511/home.html.
Fig. 4.4 - Mappa della pericolosità sismica in Italia riferita all’accelerazione orizzontale di picco PGA con
periodo medio di ritorno T = 475 anni.
104
Fig. 4.5 - Mappa della pericolosità sismica in Italia riferita all’Intensità macrosismica con periodo medio di
ritorno T = 475 anni.
105
Appendici
Scala MCS (Mercalli - Cancani - Sieberg) di intensità del
terremoto (SIEBERG A., 1930, Geologie der Erdbeben. Handbuch der Geophysik, 2, 4, pp. 550-555)
I grado. Impercettibile: rilevato soltanto da sismografi. II grado. Molto leggero: sentito soltanto da persone estremamente sensibili o nervose, in perfetta quiete e quasi sempre nei piani superiori dei caseggiati. III grado. Leggero: anche in zone densamente abitate viene percepito come terremoto soltanto da una piccola parte degli abitanti nell'interno delle case, come nel caso del passaggio di un pesante mezzo. Da alcuni viene riconosciuto come terremoto soltanto dopo averne parlato con altri. IV grado. Moderato: all'aperto il terremoto è percepito da pochi. Nelle case è notato da numerose persone ma non da tutti, a seguito del tremolio o di oscillazioni leggere di mobili. Cristalleria e vasellame, posti a breve distanza, urtano come al passaggio di un pesante autocarro su strada dissestata. Finestre tintinnano; porte, travi e assi in legno scricchiolano; cricchiano i soffitti. In recipienti aperti, i liquidi vengono leggermente mossi. Si ha la sensazione che in casa si sia rovesciato un oggetto pesante; si oscilla con tutta la sedia o il letto come su una barca. In generale questi movimenti non provocano paura a meno che le persone non si siano innervosite o spaventate a causa di terremoti precedenti. In rari casi i dormienti si svegliano. V grado. Abbastanza forte: nel pieno delle attività giornaliere, il sisma viene percepito da numerose persone nelle strade e se sensibili anche in campo aperto. In casa si avverte in seguito allo scuotere dell'intero edificio. Piante e piccoli rami di cespugli ed alberi si muovono con evidenza, come se ci fosse un vento moderato. Oggetti pendenti come lampade, tendaggi, lampadari non troppo pesanti entrano in oscillazione, campanelle suonano. Gli orologi a pendolo si fermano od oscillano con maggior periodo, a seconda della direzione della scossa se perpendicolare o normale al moto di oscillazione. A volte orologi a pendolo fermi riprendono il movimento. La luce elettrica guizza o viene a mancare in seguito a movimenti della linea. I quadri urtano, battono contro le pareti oppure si spostano; da recipienti colmi e aperti vengono versate piccole quantità di liquido; ninnoli ed oggetti del genere possono cadere come pure gli oggetti addossati alle pareti; arredi leggeri possono essere spostati di poco;
106
mobili rintronano; porte ed imposte sbattono; vetri delle finestre si infrangono. Quasi tutti i dormienti si svegliano. Sporadici gruppi di persone fuggono all'aperto. VI grado. Forte: il terremoto viene notato da tutti con paura, molti fuggono all'aperto, alcuni hanno la sensazione d'instabilità. Liquidi si muovono fortemente; quadri, libri e cose simili cadono dalle pareti e dagli scaffali; porcellane si frantumano; suppellettili assai stabili, e perfino pezzi d'arredo vengono spostati se non rovesciati; piccole campane in cappelle e chiese, e orologi di campanili battono. Case isolate, solidamente costruite subiscono danni leggeri; spaccature all'intonaco, caduta del rinzaffo di soffitti e di pareti. Danni più forti, ma non ancora pericolosi, si hanno sugli edifici mal costruiti. Qualche tegola e pietra di camino cade. VII grado. Molto forte: notevoli danni vengono provocati ad oggetti di arredamento anche di grande peso. Grandi campane rintoccano. Corsi d'acqua, stagni e laghi si agitano e s'intorbidiscono a causa della melma mossa. Qua e là, parte delle sponde di sabbia e ghiaia scivolano via. Varia la portata delle sorgenti. Danni moderati a numerosi edifici costruiti solidamente: piccole spaccature nei muri; caduta di toppe piuttosto grandi dell'incalcinatura e dello stucco, a volte anche di mattoni. Caduta generale di tegole. Molti fumaioli vengono lesi da incrinature. Camini già danneggiati si rovesciano sopra il tetto danneggiandolo. Da torri e costruzioni alte cadono decorazioni mal fissate. Quando la casa è a pareti intelaiate, i danni all'incalcinatura e all'intelaiatura sono più gravi. In casi isolati distruzione di case mal costruite oppure riattate. VIII grado. Rovinoso: interi rami d'albero pendono rotti e perfino si staccano. Anche i mobili più pesanti vengono spostati lontano e a volte rovesciati. Statue, monumenti in chiese, in cimiteri e parchi pubblici, ruotano sul proprio piedistallo oppure si rovesciano. Solidi muri di cinta in pietra si rompono e crollano. Circa un quarto delle case è gravemente leso, alcune crollano, molte diventano inabitabili; gran parte di queste cadono. Negli edifici intelaiati cade gran parte della tamponatura. Case in legno vengono schiacciate o rovesciate. Spesso campanili di chiese e di fabbriche con la loro caduta causano danni agli edifici vicini più di quanto non avrebbe fatto da solo il terremoto. In pendii e terreni acquitrinosi si formano crepe. In terreni bagnati si ha l'espulsione di sabbia e di melma. IX grado. Distruttivo: circa la metà di case in pietra sono distrutte; molte crollano; la maggior parte diviene inabitabile. Case ad intelaiature sono divelte dalle proprie fondamenta e crollano; travi strappate a seconda delle circostanze contribuiscono alla rovina.
107
X grado. Completamente distruttivo: gravissima distruzione di circa 3/4 degli edifici, la maggior parte crolla. Perfino costruzioni solide di legno e ponti subiscono gravi lesioni, alcuni vengono distrutti. Argini e dighe ecc., chi più, chi meno, sono danneggiati notevolmente, binari leggermente piegati e tubature (gas, acqua e scarichi) vengono troncate, rotte e schiacciate. Nelle strade lastricate e asfaltate si formano crepe e per pressione sporgono larghe pieghe ondose. In terreni meno densi e più umidi si creano spaccature fino alla larghezza di più decimetri; si notano parallelamente ai corsi d'acqua spaccature che raggiungono larghezze fino a un metro. Non solo pezzi di terreno scivolano dai pendii, ma interi macigni rotolano a valle. Grossi massi si staccano dagli argini dei fiumi e da coste scoscese; riviere basse subiscono spostamenti di masse sabbiose e fangose, per cui il livello del terreno viene notevolmente variato. Le sorgenti subiscono frequenti cambiamenti di livello dell'acqua. Da fiumi, canali e laghi ecc. le acque vengono gettate contro le sponde. XI grado. Catastrofico: crollo di tutti gli edifici in muratura, resistono soltanto le capanne di legno e le costruzioni ad incastro di grande elasticità. Anche i ponti più sicuri crollano a causa della caduta di pilastri in pietra o del cedimento di quelli in ferro. Binari si piegano fortemente e si spezzano. Tubature interrate vengono spaccate e rese irreparabili. Nel terreno si manifestano vari mutamenti di notevole estensione, a seconda della natura del suolo, si aprono grandi crepe e spaccature; soprattutto in terreni morbidi e acquitrinosi il dissesto è considerevole sia orizzontalmente che verticalmente. Ne segue il trabocco di sabbia e melma con diverse manifestazioni. Sono frequenti lo sfaldamento di terreni e la caduta di massi. XII grado. Grandemente catastrofico: non regge alcuna opera dell'uomo. Lo sconvolgimento del paesaggio assume aspetti grandiosi. Corsi d'acqua sia superficiali che sotterranei subiscono mutamenti vari, si formano cascate, scompaiono laghi, fiumi deviano.
108
Simboli utilizzati
Simbolo Definizione Simbolo Definizione
a Accelerazione pn(I) Densità di probabilità di attribuzione di I
a Media stimata componente orizzontale accelerazione di picco P(Z>z)
Probabilità di eccedenza dell’accelerazione z
A Ampiezza sismogramma pon Parametro Intensità massima al sito ponderata dell’Atlante Imax in Italia
A* Ampiezza sismogramma terremoto standard PSAA Pseudo accelerazione assoluta
A0 Soglia di attenuazione PSRV Pseudo velocità assoluta
C Coefficiente sismico di progetto Q Fattore di Qualità
CAV Velocità Assoluta Cumulativa Q(I0|∆∆∆∆tj ) Probabilità di eccedenza di Io
durante ∩tj
E Energia rilasciata dal terremoto R(I| f(r), Ie ) Funzione densità di probabilità condizionata a r ed Ie
f Funzione generica r Distanza sito-sorgente sismica
g Accelerazione di gravità RD Spostamento relativo del terreno
H(∆∆∆∆Ti) Pericolosità al Sito r(∆∆∆∆Ti) Funzione di completezza
hPGA Picco di accelerazione orizzontale del suolo S Grado di sismicità
H… Intensità di Housner per ∩T=…anni sr Area superficie di rottura
I Intensità macrosismica s(∆∆∆∆tj) Probabilità costanza condizioni geodinamiche
I0 Intensità epicentrale d’interesse SH Onda S polarizzata orizzontalmente
IA Intensità di Arias SV Onda S polarizzata verticalmente
Ie Intensità epicentrale ZS Zona sismogenetica
Imax Massima intensità osservata t o ∆∆∆∆t Tempo o intervallo di tempo
IMCS Intensità MCS T Periodo medio di ritorno
IMM Intensità Mercalli Modificata u Rigetto di faglia
IMSK Intensità MSK v Media stimata componente orizzontale velocità di picco
Is Intensità al sito Vp Velocità di propagazione onde P
LQ Onda di Love VS velocità di propagazione onde S
LR Onda di Rayleigh ∆∆∆∆T Tempo di esposizione
M o ML Magnitudo (Richter) o M. Locale ∆∆∆∆Ti Intervallo di completezza
M0 Momento sismico ∆∆∆∆σσσσ Stress drop
mb Magnitudo onde di volume (P) ΓΓΓΓ Parametro effetti di sito
MS Magnitudo onde di superficie (Rayleigh) µµµµ Modulo di rigidità
MW Magnitudo momento sismico ρρρρ densità
M Magnitudo stimata dall’area di faglia υυυυ Frequenza di oscillazione
oss Parametro Intensità massima al sito osservata dell’Atlante Imax in Italia nυυυυ Frequenza naturale di oscillazione
pe(I) Densità di probabilità di I all’epicentro ΦΦΦΦ/2 Raggio faglia del mod. di Brune
Pn(I) Probabilità di eccedenza al sito di I
109
Letture consigliate ed approfondimenti
� Bender B. e Perkins D.M. (1987) - Seisrisk III : A computer program for seismic hazard estimation., U.S. Geological Survey Bulletin, 1772, 48 pp.
� Bolt B.A. (1982) - I terremoti, Zanichelli � Boschi E. a cura di (1985) - I terremoti, QUADERNI LE SCIENZE n° 24. � Boschi E. a cura di (1991) - Il rischio sismico, QUADERNI LE SCIENZE n°
59 � Boschi E., Gasperini P., Guidoboni E., Smriglio G., Valensise G. (1995) -
Catalogo dei forti terremoti in Italia dal 461 a.C. al 1980, , ING-SGA � Bramerini F., Di Pasquale G., Orsini G., Pugliese A., Romeo R., Sabetta F.
(1995) – Rischio sismico del territorio italiano. Proposta di una metodologia e risultati preliminari, Rapporto tecnico SSN/RT/95/1
� Cornell C.A. (1968) - Engineering seismic risk analysis., Bull. Seism. Soc. Am., 58, pp.1583-1606
� Crespellani T., Nardi R., Simoncini C. (1988) - La liquefazione del terreno in condizioni sismiche, Zanichelli
� Karnik V. (1969) - Seismicity of the european area/I., Reidel Publ. Company, Dordrecht, 364 pp.
� Kasahara K. (1981) - Earthquake mechanics, Cambridge University press. � Lomnitz C. (1974) - Global tectonics and earthquake risk, Elsevier Scientific
Publishing Company � Medvedev S.V. (1962) - Engineering seismology, Israel Program for
Scientific Translation � Medvedev S.V. (1976) - Seismic zoning of the USSR, Israel Program for
Scientific Translation � Postpischl D. (1985) - Catalogo dei terremoti italiani dall’anno 1000 al
1980, PFG � Reiter L. (1990) - Earthquake hazard analysis. Issues and insights ,
Columbia University Press � Scandone P. (1994) - Modello sismotettonico del territorio italiano, Atti del
Convegno "Terremoti in Italia", Acc. Naz. dei Lincei, dicembre 1994, Roma. � Slejko D., Peruzza L., Rebez A., (1998) – Seismic hazard maps of Italy,
Annali di Geofisica, Vol. 41, N. 2
Siti Internet
� American Geophysical Union (AGU): http://earth.agu.org/kosmos/homepage.html � Dipartimento della Protezione Civile: http://www.protezionecivile.it � European Geophysical Society (EGS): http://www.mpae.gwdg.de/EGS/EGS.html � European Union of Geosciences (EUG): http://eost.u-strasbg.fr/EUG/ � Gruppo Nazionale Difesa terremoti: http://emidius.itim.mi.cnr.it/GNDT/
110
� Gruppo nazionale per la difesa dalle catastrofi Idrogeologiche: http://www.gndci.pg.cnr.it/
� Gruppo nazionale per la Vulcanologia: http://server.dst.unipi.it/gnv/ � I.G.G. Seismic Network, Università di Genova:
http://www.dister.unige.it/geofisica � Istituto nazionale di Geofisica: http://www.ingrm.it/ � Ministero per l'Università e la Ricerca Scientifica e Tecnologica (MURST):
http://www.murst.it/ � Osservatorio Geofisico Sperimentale di Macerata: http://www.geofisico.wnt.it � Osservatorio Geofisico Sperimentale di Trieste: http://www.ogs.trieste.it � Seismological Society of America (SSA): http://www.seismosoc.org/ � Servizio Sismico Nazionale: http://www.dstn.it/ssn/ � Storia Geofisica Ambiente s.r.l.: http://www.sga-storiageo.it/sga/index.htm � Surfing the Internet for Earthquake Data by Steve Malone:
http://seismo.ethz.ch/seismosurf/seismobig.html � Università di Bologna Istituto di Fisica Settore Geofisica:
http://ibogfs.df.unibo.it/