Sulla pubblicità dei lavori:
Margiotta Salvatore, Presidente ... 3
INDAGINE CONOSCITIVA SULLO STATO DELLA SICUREZZA SISMICA IN ITALIA
Audizione della professoressa Antonella Peresan, del professor Federico Mazzolani e del professor Carlo Doglioni:
Margiotta Salvatore, Presidente ... 3 13 14 15
Benamati Gianluca (PD) ... 13 15
Doglioni Carlo, Professore ordinario di geodinamica presso l'Università La Sapienza di Roma ... 9 14 15
Mazzolani Federico, Professore ordinario di tecnica delle costruzioni presso l'Università degli studi Federico II di Napoli ... 3 13
Peresan Antonella, Ricercatrice presso il Dipartimento di matematica e geoscienze dell'Università degli studi di Trieste ... 6 14
Sigle dei gruppi parlamentari: Popolo della Libertà: PdL; Partito Democratico: PD; Lega Nord Padania: LNP; Unione di Centro per il Terzo Polo: UdCpTP; Futuro e Libertà per il Terzo Polo: FLpTP; Popolo e Territorio (Noi Sud-Libertà ed Autonomia, Popolari d'Italia Domani-PID, Movimento di Responsabilità Nazionale-MRN, Azione Popolare, Alleanza di Centro-AdC, Democrazia Cristiana): PT; Italia dei Valori: IdV; Misto: Misto; Misto-Alleanza per l'Italia: Misto-ApI; Misto-Movimento per le Autonomie-Alleati per il Sud:
Misto-MpA-Sud; Misto-Liberal Democratici-MAIE: Misto-LD-MAIE; Misto-Minoranze linguistiche: Misto-Min.ling; Misto-Repubblicani-Azionisti: Misto-R-A; Misto-Noi per il Partito del Sud Lega Sud Ausonia: Misto-NPSud; Misto-Fareitalia per la Costituente Popolare: Misto-FCP; Misto-Liberali per l'Italia-PLI: Misto-LI-PLI; Misto-Grande Sud-PPA: Misto-G.Sud-PPA; Misto-Iniziativa Liberale: Misto-IL.
Resoconto stenografico
INDAGINE CONOSCITIVA
La seduta comincia alle 15.
(La Commissione approva il processo verbale della seduta precedente).
PRESIDENTE. Avverto che, se non vi sono obiezioni, la pubblicità dei lavori della seduta odierna sarà assicurata anche attraverso l'attivazione di impianti audiovisivi a circuito chiuso.
(Così rimane stabilito).
PRESIDENTE. L'ordine del giorno reca, nell'ambito dell'indagine conoscitiva sullo stato della sicurezza sismica in Italia, l'audizione della professoressa Antonella Peresan, del professor Federico Mazzolani e del professor Carlo Doglioni.
La professoressa Antonella Peresan è ricercatrice presso il Dipartimento di matematica e geoscienze dell'Università degli studi di Trieste, il professor Federico Mazzolani è professore ordinario di tecnica delle costruzioni presso l'Università degli studi Federico II di Napoli, il professor Carlo Doglioni è professore ordinario di geodinamica presso l'Università La Sapienza di Roma.
Mi piace ricordare che il professore Mazzolani è stato mio docente all'Università di Napoli e che, nel lontano 1986, condusse i suoi studenti a vedere forse uno dei primi esempi di dissipatori o di isolatori, presso la caserma dei Vigili del fuoco, al centro direzionale. All'epoca, era una grandissima novità. Penso, infatti, che egli sia stato il primo a installare quegli impianti. Ritengo, quindi, significativo e utile che, tra gli altri, sia audito anche il professor Mazzolani, cui do subito la parola.
FEDERICO MAZZOLANI, Professore ordinario di tecnica delle costruzioni presso l'università degli studi Federico II di Napoli. Sono molto contento di avere un presidente con il quale ci siamo già conosciuti perché, forse, non ho bisogno di ulteriori presentazioni. Comunque, innanzitutto, vi ringrazio dell'invito.
Ho dato uno sguardo al vostro documento e debbo dire che l'ho trovato molto ben fatto poiché tocca tutti gli aspetti critici della sismicità in Italia. La mia esperienza riguarda il comportamento delle strutture. Vi posso parlare di questo. Prendendo alcuni spunti dal vostro documento, posso dire qualcosa sulla vulnerabilità degli edifici sia nuovi che esistenti, sulla normativa e sulle possibili tecniche di consolidamento e adeguamento sismico. Non so, però, se questi temi rientrano negli interessi di questa Commissione.
Personalmente, mi occupo di terremoti dal 1980, cioè dal terremoto in Campania, che ho vissuto molto intensamente. Da allora, li ho seguiti quasi tutti, non solo in Italia, ma anche all'estero. Noi consideriamo un terremoto come un laboratorio, dove si fanno delle prove in scala reale e dove le strutture non sono dei modelli di laboratorio, ma sono provate attraverso delle azioni dinamiche e cicliche, quindi non possono mentire.
Da ognuno di questi laboratori, cioè da ogni esperienza e comportamento, pos
siamo trarre delle lezioni molto importanti. Se, per esempio, osserviamo un edificio in muratura che crolla miseramente durante un sisma, possiamo comprenderlo, anche se non lo giustifichiamo, perché è stato costruito in epoche in cui non c'era l'ingegneria sismica e con materiali che non hanno nessuna prerogativa di resistere a questo tipo di sollecitazioni. Non può, però, essere accettato che un edificio in cemento armato, costruito nel rispetto formale delle norme, possa crollare miseramente, come è successo nel terremoto dell'Irpinia, in quello dell'Aquila e come continua ad accadere in tutti i terremoti.
Ho svolto una missione in Cile, dopo il terremoto del febbraio 2010. Veniva, dunque, spontaneo fare un confronto con il terremoto dell'Aquila, che era avvenuto soltanto l'anno precedente.
Il territorio interessato dal terremoto dell'Aquila è di 50 per 20 chilometri, quindi 1.000 chilometri quadrati. Invece, il terremoto del Cile ha colpito un'area di 400 per 200 chilometri, ovvero quasi 100.000 chilometri quadri, vale a dire un territorio cento volte superiore.
Guardiamo, ora, l'intensità dei due terremoti. Sapete che normalmente si misura la magnitudo attraverso la Scala Richter, che corrisponde a una valutazione dell'energia che viene liberata dal sisma. Ebbene, all'Aquila la magnitudo è stata di 5.8, in Cile di 8.8. Questi tre punti di intensità non significano, però, che fra i due terremoti c'è una differenza di 100 volte, come per il rapporto fra le aree, ma significano che il terremoto del Cile è stato 100.000 volte superiore a quello dell'Aquila. Sapete, tuttavia, che c'è anche l'altra scala, la vecchia Scala Mercalli, che si basa più sul fatto fisico, ovvero su quello che è successo (si sono formate lesioni, sono caduti soprammobili e così via). Ci aspetteremmo, quindi, che il terremoto del Cile corrisponda a un grado della scala Mercalli superiore a quello dell'Aquila, essendo stato maggiore sia per l'intensità che per lo sviluppo
territoriale. Qui, però, abbiamo la sorpresa: in termini di scala Mercalli, il terremoto del Cile viene classificato al nono grado, mentre quello dell'Aquila al decimo.
In sintesi, questi numeri ci dicono, quindi, che si costruisce meglio in Cile che in Italia.
Ciò premesso, possiamo cercare di comprendere perché succedono queste cose in Italia. La lezione del terremoto dell'Irpinia non è stata affatto appresa, visto che si continua a non mettere le staffe nei nodi delle strutture, quando si sa che sono i punti più vulnerabili, e si continua a usare dei calcestruzzi scadenti. Tutto questo non porta, peraltro, neppure a un guadagno eccezionale; eppure, è così.
Un'altra esperienza. Quando andai in Turchia, nel 1999, dopo il terremoto che afflisse quel Paese, vidi tutti i capannoni prefabbricati in cemento armato a terra. Mi è venuto in mente l'esperienza turca quando sono andato in Emilia e ho visto quello che è successo. Contemporaneamente, però, in Turchia ho visto anche dei capannoni in acciaio che non hanno avuto nessun danno.
Dico questo perché ritengo che bisogna pensare anche ad usare materiali più affidabili. A questo punto, non si può che riconoscere che, se si guarda il panorama internazionale di tutti i terremoti che si sono avuti negli ultimi vent'anni, le strutture in acciaio che hanno avuto danni si contano sulle dita di due mani, mentre, per contro, vi è stata una strage di strutture in cemento armato.
La normativa dovrebbe garantire lo stesso grado di sicurezza per le une e per le altre, ma non è così perché si deve tenere conto anche dell'esecuzione che, nel caso del calcestruzzo, può essere molto artigianale, invece, nel caso dell'acciaio, ha caratteri più industrializzati.
Per esempio, in Giappone, che è il mito nel campo della protezione civile, dal 1923, dopo il terremoto che rase al suolo Tokyo, hanno imparato una lezione, coniugando l'acciaio con i problemi del terremoto. Infatti, se andate in Giappone, vedete che gli edifici di due o tre piani sono ancora in legno, ma poi per il 90
per cento sono in acciaio. Ci sono anche degli edifici in cemento armato, ma sono tutti rigorosamente isolati alla base, cioè hanno tutti un sistema particolare di protezione sismica.
Per quanto riguarda il patrimonio edilizio italiano, nel programma della vostra indagine si dice che circa il 70 per cento dell'edificato, in cui rientrano gli edifici moderni in cemento armato e gli edifici storici in muratura, non è in grado di reggere ai terremoti a cui potrebbe risultare soggetto. In molte città italiane, ci son degli edifici in cemento armato che sono stati progettati soltanto per carichi gravitazionali perché all'epoca non erano in zona sismica. È il caso di Napoli, che prima del 1980 non era zona sismica, poi, dopo il terremoto, è stata inserita nella terza categoria e solo nell'ultima ordinanza del Presidente del consiglio dei Ministri del marzo 2003 è stata «promossa» alla seconda categoria.
Con la politica di tipo consuntivo e non preventivo che si svolge in Italia, inserendo un comune in zona sismica solo dopo che ha avuto i danni del terremoto, succede che ci sono molti edifici in cemento armato che non sono antisismici perché non nascono in aree a rischio e che per questo richiederebbero di essere adeguati, visto che oggi sono inseriti in zone sismiche. A questo riguardo, vorrei dire che ci sono sistemi che lo consentirebbero, come dimostrano alcuni casi che abbiamo sperimentato «dal vero». Abbiamo avuto, infatti, la fortuna di operare su due edifici reali situati nella zona dismessa dello stabilimento Ilva di Bagnoli, sui quali abbiamo sperimentato una decina di sistemi di adeguamento sismico assolutamente efficaci, che hanno dimostrato la possibilità di aumentare la capacità portante alle forze orizzontali addirittura di 4, 5, 8 o 10 volte la resistenza originaria.
Tra l'altro, questi sistemi hanno un costo assolutamente modesto, non sono invasivi e, pertanto, potrebbero essere utilizzati. Sono tutti basati su tecniche che utilizzano la carpenteria metallica, ma purtroppo in Italia domina - e si sa perché - la cultura di tipo «cemento-armatista», che non è giustificata. Se si usasse di più l'acciaio, soprattutto per i nuovi edifici e per quelli che hanno un'importanza strategica nell'ambito della protezione civile, come le scuole, gli ospedali, le caserme e così via, potremmo proteggere sicuramente di più le nuove costruzioni e avremmo, comunque, la possibilità di operare un adeguamento sismico degli edifici esistenti, con dei sistemi molto efficaci, poco invasivi e poco costosi.
Nel programma dell'indagine conoscitiva viene fatto un cenno alle nuove Norme tecniche per le costruzioni (NTC 2008). Si tratta di una normativa molto avanzata e moderna perché finalmente ci si è convinti che bisogna seguire gli Eurocodici. C'è, infatti, una direttiva della Commissione europea, quindi arriverà il giorno in cui tutte le nazioni europee dovranno utilizzare la stessa normativa tecnica, che stabilisce l'obbligo di ottemperare, appunto, alla direttiva sui prodotti da costruzione, che considera anche le strutture un prodotto da costruzione, con la complicazione che ci sono di mezzo anche i problemi di sicurezza.
In effetti, questa nuova normativa tecnica del 2008 nasce da un periodo di oscurantismo. Infatti, fino all'ultimo DM del 1996, la nostra normativa sismica era - lasciatemelo dire - la peggiore del mondo. Quando i miei colleghi stranieri mi chiedevano della normativa sismica italiana, mi vergognavo di parlare di una normativa che non considerava affatto le strutture in acciaio, che semplicemente non esistevano.
Poi, c'è stato il terremoto in Molise, con il crollo dell'edificio che ospitava la scuola elementare di San Giuliano di Puglia e la morte di 25 bambini, la spinta emotiva e quant'altro, da cui l'ordinanza del Presidente del consiglio dei Ministri del 20 marzo 2003, che è stata una grande occasione per scrivere una normativa sismica come si deve, cioè adeguata al livello degli Eorocodici. Anzi,
avendo partecipato a questa operazione, posso dire che è persino migliore degli stessi Eurocodici.
Ci sono, tuttavia, tanti edifici progettati prima di tale ordinanza, con una pessima normativa sismica e con una zonazione sismica non adeguata, che non copriva aree che poi si sono rivelate sismiche.
Mi fermerei qui. Resto in attesa di vostre eventuali richieste di approfondimento sul comportamento delle strutture.
ANTONELLA PERESAN, Ricercatrice presso il Dipartimento di matematica e geoscienze dell'Università degli studi di Trieste. Per quanto mi riguarda, parlerò soprattutto degli aspetti relativi alla definizione della pericolosità sismica, ossia al moto del suolo atteso e ai tempi in cui questo scuotimento è atteso. Quindi, mi riferisco agli aspetti più strettamente previsionali.
In particolare, vorrei illustrarvi il metodo neodeterministico per la definizione della pericolosità sismica e di scenari dipendenti dal tempo, che è stato sviluppato nell'ambito di pluriennali collaborazioni internazionali dal Centro di fisica teorica di Trieste e dall'Università degli Studi di Trieste.
Per capire la motivazione della ricerca di un metodo alternativo, basta guardare questa tabella che riporta l'elenco dei terremoti che hanno causato il maggior numero di vittime, avvenuti a scala globale, a partire dall'anno 2000, che è quello in cui è stata pubblicata la mappa probabilistica globale di pericolosità sismica nell'ambito del programma Globale Seismic Hazard Assessment (GSHAP), che forniva, appunto, per tutto il mondo, le stime di moto del suolo atteso.
Da questa tabella, si vede che tutti i terremoti più forti e più distruttivi avvenuti nell'ultimo decennio hanno avuto un'intensità significativamente superiore a quella prevista delle mappe probabilistiche. Questa tabella si riferisce, è vero, a un sottoinsieme di terremoti, vale a dire a quelli che hanno avuto il maggior numero di vittime, ma è comunque evidente che essa indica la necessità di una verifica e di una validazione oggettiva delle stime di pericolosità sismica.
Un primo studio in questo senso è stato effettuato dal professor Kossobokov dell'Accademia delle scienze russa, che ha analizzato tutti i 1.300 terremoti di magnitudo superiore 6 avvenuti a scala globale, ha confrontato l'accelerazione del suolo osservata con quella prevista e ha effettuato il confronto anche in termini di intensità, proprio per tenere in considerazione le incertezze connesse alla magnitudo. Il risultato delle sue osservazioni lo vediamo in questi diagrammi, dove tutti i punti che stanno al di sopra della linea rossa sono terremoti per i quali lo scuotimento osservato ha superato quello previsto, quindi rappresentano dei fallimenti delle mappe probabilistiche.
In particolare, gli oltre 50 terremoti di magnitudo superiore o uguale a 7.5 hanno superato significativamente il valore previsto, quindi il metodo probabilistico fallisce soprattutto quando si parla di terremoti forti e rari, proprio perché sono associati a una bassa probabilità di occorrenza e quindi tendono a essere trascurati in questo tipo di stima.
Veniamo, dunque, all'alternativa che proponiamo, ossia al metodo neodeterministico. In pratica, esso consente di definire la pericolosità in termini di scuotimento massimo del suolo atteso e non di probabilità di eccedenza di un certo valore. Proprio per le sue caratteristiche, il metodo permette di incorporare in maniera molto semplice e diretta eventuali nuove informazioni disponibili sulla geologia, sulle faglie attive o fornite da osservazioni di natura diversa, come quelle satellitari.
Inoltre, questo metodo permette di considerare proprietà temporali, quali la ricorrenza dei terremoti, o indicazioni spazio-temporali fornite eventualmente da metodi di previsione. Grazie anche alle nuove capacità di calcolo, è anche possibile effettuare un ampio insieme di
test parametrici che consentono di quantificare le incertezze connesse ai diversi modelli possibili.
Questo diagramma di flusso descrive il metodo neodeterministico standard. In sostanza, si considerano informazioni disponibili sulle sorgenti sismiche e quelle sui modelli strutturali del terreno attraverso il quale si propagano le onde sismiche; si calcolano dei sismogrammi sintetici; per ogni sito su una griglia di passo prefissato - come vediamo in questa mappa - viene calcolato un gran numero di sismogrammi sintetici associati a tutte le possibili sorgenti ipotizzabili; dopodiché, si estrae il parametro di moto del suolo che interessa (per esempio, la massima accelerazione attesa, lo spostamento o quant'altro).
Accanto a questo tipo di mappa, che non contiene informazioni temporali, ma è associata all'insieme dei massimi terremoti attesi (Maximum Credible Earthquake, MCE) che possono essere definiti per il territorio italiano, è possibile anche associare le sorgenti stesse, le caratteristiche corrispondenti di ricorrenza oppure è possibile incorporare in questo tipo di schema le informazioni spazio-temporali fornite dalle previsioni dei terremoti.
È stato effettuato un confronto tra la mappa probabilistica e quella neodeterministica per il territorio italiano. La mappa probabilistica è quella corrispondente alla normativa attuale, pubblicata nel 2004. Confrontando i valori di scuotimento associati al 10 per cento di probabilità di eccedenza in 50 anni, ossia un periodo di ritorno di 475 anni, i valori probabilistici risultano significativamente più bassi di quelli neodeterministici soprattutto per i terremoti più forti, dov'è atteso, cioè, lo scuotimento più elevato. Questo è in linea con quanto osservato a scala globale dal professor Kossobokov.
Se andiamo a considerare le mappe probabilistiche con una probabilità di eccedenza del 2 per cento, cioè con valori più conservativi, si osserva che i valori massimi forniti dal metodo probabilistico e deterministico diventano confrontabili (abbiamo, infatti, 0.62 contro 0.56), ma si osserva anche che i valori di scuotimento associati alle aree a bassa sismicità diventano estremamente elevati nel caso del metodo probabilistico, cosa che non è molto favorevole, soprattutto perché ha creato problemi in aree a bassa sismicità dove si voglia costruire in maniera molto conservativa, ad esempio in corrispondenza di siti per centrali nucleari o strutture critiche, laddove considerando probabilità di eccedenza molto basse si ottengono dei valori di scuotimento irrealistici eccessivamente elevati.
Comunque, la mappa che viene utilizzata in Italia come base normativa per la progettazione degli edifici è quella corrispondente al 10 per cento di probabilità di eccedenza. Vediamo, quindi, che il valore massimo definito dalla metodologia probabilistica sul territorio italiano è pari a 0.28, ossia la metà di quello fornito dal metodo neodeterministico.
Questo tipo di osservazione, purtroppo, ha trovato riscontro anche nel recente terremoto dell'Emilia. Vedete, infatti, confrontate le due mappe, quella probabilistica e quella neodeterministica, entrambe pubblicate ben prima del terremoto. La mappa neodeterministica risale al 2001, quella probabilistica al 2004. Possiamo osservare che, nel sito interessato dal terremoto, il metodo probabilistico forniva valori di scuotimento compresi tra 0.125 e 0.150 g, mentre il metodo neodeterministico valori tra 0.2 e 0.35 g. Il valore osservato rientra pienamente nell'intervallo fornito dal metodo neodeterministico, mentre eccede in modo significativo, di un fattore 2, il dato fornito dal metodo probabilistico.
Ciò accade perché, pur essendo stato ipotizzato, alla base di questo tipo di mappa, un terremoto confrontabile con quello che effettivamente si è verificato, il fatto che la probabilità associata a tale terremoto fosse molto bassa, di fatto, lo ha escluso dal computo. Pertanto, sistematicamente, sul territorio italiano possono verificarsi questo tipo di situazioni.
Anche il metodo neodeterministico può considerare la ricorrenza di terremoti. Cerchiamo di spiegare quello che abbiamo visto nel caso del terremoto dell'Emilia. Qui è rappresentata la mappa di pericolosità sismica neodeterministica, dove sono forniti i massimi valori di accelerazione del suolo attesi. Questo tipo di mappa è indipendente dal tempo, ossia non considera le informazioni sulla ricorrenza dei terremoti, ma, come abbiamo detto, a ciascuna sorgente è possibile associare una ricorrenza. A questo tipo di mappa è, dunque, possibile accompagnare una mappa corrispondente, in cui, per ciascun sito, oltre al valore di scuotimento, diamo il corrispondente valore di ricorrenza, ossia, per un dato punto, quante volte tale scuotimento può essere osservato nell'arco, per esempio, di mille anni.
Ovviamente, queste stime sono molto grossolane perché la ricorrenza è uno dei parametri meno noti e caratterizzati da maggiori incertezze per quanto riguarda la stima della pericolosità sismica. Tuttavia, una volta associata allo scuotimento la corrispondente ricorrenza è possibile anche definire delle mappe di pericolosità neodeterministiche con periodo di ritorno prefissato. Vediamo, appunto, le due mappe neodeterministiche con periodo di ritorno di 475 anni e 2.475 anni corrispondenti a quelle probabilistiche 10 per cento e 2 per cento di probabilità di eccedenza.
Se confrontiamo nuovamente i valori forniti dal metodo probabilistico e da quello neodeterministico, qualora si considerino, appunto, le ricorrenze, osserviamo che, in effetti, i valori diventano confrontabili. In altre parole, l'introduzione della probabilità di occorrenza determina questa sottostima sistematica del valore di scuotimento. Rimane, però, il problema associato ai siti a bassa sismicità, per i quali il metodo probabilistico tende a sovrastimare, quando si forniscono delle stime conservative.
Oltre alla ricorrenza, è possibile tenere in considerazione informazioni temporali sui possibili terremoti fornite dalle previsioni dei terremoti. In particolare, quando si parla di previsione dei terremoti è importante tenere presente che i terremoti, allo stato attuale, non si possono prevedere con precisione, ossia non esiste un metodo che consenta di dire esattamente dove e quando il terremoto avverrà, anche perché i terremoti sono degli oggetti di dimensioni finite, quindi, al più, è possibile identificare la faglia dove il terremoto avverrà, ma questa - come nel caso del terremoto del Giappone - può avere dimensioni di centinaia di chilometri. Insomma, il mito della previsione esatta dell'epicentro è da sfatare.
In Italia, ormai da oltre un decennio stiamo sperimentando due metodi per la previsione a medio termine spazio-temporale di terremoti, che si indicano come algoritmi CN e M8S. Questi metodi sono stati sviluppati a scala globale e sono sperimentati da oltre vent'anni. Si tratta di una sperimentazione sistematica in tempo reale. Ciò significa che ogni due mesi le previsioni vengono aggiornate e confrontate con quello che realmente accade. Pertanto, non c'è possibilità di adattamento a posteriori delle previsioni. Questo tipo di analisi ha permesso di valutare la significatività statistica dei risultati ottenuti.
Qui vediamo rappresentate le aree monitorate ed eventualmente allertate dall'algoritmo CN e quelle allertate dall'algoritmo M8S. Vediamo che queste aree hanno dimensioni lineari nell'ordine delle centinaia di chilometri. Tuttavia, queste dimensioni dell'area sono essenziali per tenere in considerazione i processi in atto e per avere una sufficiente statistica per effettuare questo tipo di analisi. La significatività dei risultati è stata, peraltro, riconosciuta anche nel rapporto dell'International Commission on Earthquake Forecasting, che è stata stabilita dopo il terremoto dell'Aquila.
Osserviamo i risultati ottenuti nel caso del terremoto dell'Emilia. Questo era il territorio allertato a partire dal 1o marzo 2012. L'epicentro si è verificato in questa zona. Vediamo come, sempre utilizzando
l'approccio neodeterministico, a questo tipo di area allertata è possibile associare uno scenario di scuotimento atteso, che ha effettivamente previsto lo scuotimento osservato nell'area epicentrale. Questa mappa, che sembra molto estesa, può essere ridotta notevolmente, qualora si considerino scuotimenti superiori a 0.2g, che sono quelli che possono produrre un danno significativo.
Questo, d'altra parte, non è il primo caso di previsione corretta. Dal 1998, ci sono stati sette terremoti, di cui cinque effettivamente avvenuti nelle aree allertate. Il terremoto dell'Aquila è avvenuto con epicentro 10 chilometri fuori dall'area allertata. Sebbene dal punto di vista della previsione questo venga considerato un fallimento perché è al di fuori, anche se di poco, lo scuotimento associato con il metodo neodeterministico ha correttamente descritto quello che poi è stato osservato.
Sulla base di quanto vi ho appena illustrato, ci tengo a concludere dicendo che quando si verifica un terremoto di una certa magnitudo M, questo determina uno scuotimento del suolo che non dipende dal fatto che il terremoto sia un evento raro o meno. Quindi, i parametri che devono essere considerati per la progettazione degli edifici non devono dipendere dalle informazioni temporali e dalla frequenza dell'evento perché il terremoto, anche se molto raro, potrebbe avvenire anche domani. In questo senso, l'esempio dell'Emilia è emblematico, come quello di Tohoku, in Giappone. Possiamo, dunque, considerare la minore ricorrenza e la maggiore sporadicità dell'evento per scegliere il sito più adeguato, ma bisogna comunque progettare con il massimo scuotimento atteso.
Come abbiamo visto, le mappe probabilistiche attualmente valide per il territorio italiano hanno la tendenza a sottostimare, in maniera molto significativa, di un fattore 2, lo scuotimento atteso per i terremoti più forti. Quindi, anche se tali mappe contengono un'informazione sulla minore probabilità di occorrenza dei terremoti rari, che è utile, ad esempio, ai fini assicurativi o per altri tipi di valutazione, risentono comunque negativamente del fatto che le analisi di pericolosità dalle quali sono ricavate sottostimano lo scuotimento sismico. Per questo, ritengo che le mappe probabilistiche non dovrebbero essere utilizzate da sole per la definizione delle norme costruttive.
Questo è già stato in parte recepito, anche se in parte, nella risoluzione parlamentare in materia di isolamento sismico delle costruzioni industriali approvata dalla vostra Commissione a giugno del 2011, di cui avete dunque una conoscenza migliore della mia, nella quale si prevede l'utilizzo congiunto di metodi alternativi.
CARLO DOGLIONI, Professore ordinario di geodinamica presso l'Università La Sapienza di Roma. Non conosco il livello di conoscenza che avete del problema terremoti, per cui riterrei opportuno cominciare la mia relazione con una piccola spiegazione di come si generano e funzionano.
I terremoti si formano dove ci sono i margini di placca, cioè dove il guscio esterno della litosfera si muove. Come vedete dall'immagine, la terra è illuminata da questi pallini gialli, che sono le aree dove c'è la maggiore sismicità, cioè i margini in cui gli ultimi 100 chilometri della terra si muovono gli uni rispetto agli altri.
Oggi, possiamo vedere, anche grazie al GPS, la velocità con cui questi elementi della litosfera si muovono, quindi possiamo stimare le velocità con cui c'è un allontanamento o un avvicinamento tra questi elementi che vengono chiamati «placche». Ora, un terremoto è semplicemente energia. Viene rilasciata, cioè, energia lungo il piano di faglia, vale a dire dove queste placche si muovono l'una rispetto all'altra. Una faglia è semplicemente una rottura nella crosta, che può avvenire in una qualsiasi direzione, ed è l'espressione superficiale di movimento che avviene a circa un centinaio
di chilometri di profondità e che risulta, nella parte alta, con quelle faglie che vedete nella foto in alto.
Se prendiamo un qualsiasi oggetto e lo portiamo in profondità a 10 chilometri, questo avrà una pressione che confina la roccia del peso di 10 chilometri. Quindi, se vogliamo rompere la roccia, ci vuole una forza che è superiore a quella dei 10 chilometri. Più andiamo in profondità e più le rocce sono stabili, pertanto occorre più energia per romperle. Nel grafico a sinistra, potete vedere in scala verticale i chilometri e in scala orizzontale l'energia che è necessaria per rompere le rocce.
Ciò nonostante, quanto più si va in profondità, più aumenta la temperatura e le rocce si comportano esattamente al contrario. Dunque, più aumenta la temperatura, minore è l'energia necessaria per rompere le rocce.
In definitiva, si crea un triangolo - che è rappresentato da questa zona nera - che è l'area in cui le rocce sono stabili. Nella parte nera, le rocce sono in condizione di stabilità. Perciò, nella parte alta, fino ai primi 15 chilometri, si comportano in maniera fragile, mentre nella parte sottostante diventano plastiche. Di conseguenza, la massima energia richiesta per rompere le rocce è intorno ai 15 chilometri.
Vediamo ora cosa succede in natura. Prendiamo, per esempio, il terremoto di cui parlava prima il professor Mazzolani. La sismicità è tutta concentrata nei primi 15 chilometri. Il 90 per cento dell'energia della terra viene rilasciata a circa questa profondità. Il grosso dei terremoti, dunque, si forma qui. La parte sottostante, invece, è silente perché la deformazione avviene in maniera duttile, pertanto non c'è rilascio di energia, pur essendoci, appunto, deformazione.
Allora, proviamo a immaginare una faglia che va dalla superficie e scende a circa 30 chilometri di profondità. La parte sovrastante è nella parte fragile; quella sottostante è nella parte duttile, il che significa che sotto si muove sempre, anche se poco (pochi micron ogni giorno), mentre la parte sovrastante è bloccata. Con il tempo, nel punto in cui avviene la transizione, cioè dove la faglia è bloccata e sotto si muove, si crea una zona di dilatanza; la crosta lentamente si apre fino a quando l'area è talmente debole per cui non è più in grado di sostenere il triangolo che sta al di sopra, che cade. Questo è il momento della rottura. Solo che la fase preparatoria può durare centinaia di anni, mentre la caduta può essere l'effetto di pochi secondi.
Ricapitolando, abbiamo una faglia che va dalla superficie a 30 chilometri di profondità. Nella parte di sopra - quella grigia - è fragile, quindi il movimento avviene a scatti. Può restare ferma per centinaia d'anni, poi si muove, sta di nuovo ferma e così via. Nella parte sottostante, invece, è in regime stazionario. La deformazione avviene in maniera continua. Durante l'intersismico, cioè tra un terremoto e l'altro, nella zona di transizione fra l'ambiente fragile e quello duttile si crea una zona di debolezza, che si dilata. Durante il terremoto, poi, questa zona viene rinchiusa perché non è più in grado di sostenere la crosta sovrastante.
Passiamo al caso dell'Aquila. Se guardate in basso a destra, questi sono i giorni prima del terremoto. Questo filmato parte tre mesi prima del terremoto. C'è una nuvola di terremoti, intorno ai 10 chilometri di profondità, che sono in quest'area bianca, che è una zona indebolita. Non è che manchi la crosta, ma è stirata, quindi indebolita.
I terremoti si concentrano sostanzialmente in questa area. C'è quello che viene chiamato un «cluster», che rappresenta tutta la sismicità che ha preceduto l'evento aquilano prima del 6 aprile. Come vedete, otto giorni prima del terremoto c'era stata una scossa importante. Poi, tre, due e uno. Quindi, avviene il terremoto, si enuclea a circa 10 chilometri di profondità e la faglia si propaga verso l'alto. Durante la fase preparatoria stava cominciando a cedere quest'area, che si stava indebolendo. Il blocco, poi, è caduto e ha generato la sismicità delle settimane e dei mesi successivi
perché era il triangolo sovrastante che, in qualche modo, doveva adagiarsi e ritrovare il suo equilibrio gravitazionale. I pallini rossi rappresentano i terremoti prima dell'evento del 6 aprile; i neri, quelli successivi. La stella denota, invece, l'evento principale.
In un ambiente compressivo, come è stato il caso dell'Emilia Romagna del maggio scorso, accade esattamente il contrario. Alla transizione tra un ambiente duttile sotto e fragile sopra si crea una zona di sovrapressione, dove si accumula energia. È come una batteria, ma invece che essere elettrica, è una batteria di energia elastica, che viene accumulata nei secoli fino al punto in cui quel pezzo di crosta non è più in grado di accumulare quell'energia, per cui la goccia che fa traboccare il vaso fa sì che quel cuneo parta verso l'alto e generi il terremoto.
A parità di movimento di un terremoto, occorre valutare la profondità in cui c'è questa transizione tra un ambiente fragile e uno duttile. In questo caso, abbiamo 75 chilometri quadri con una profondità di 10 chilometri. Ora, più questo limite si abbassa, più grande è il volume che viene coinvolto. In sostanza, la dimensione del terremoto è funzione del volume di crosta che viene coinvolto. Più grande è il volume di crosta, maggiore è il terremoto. Come diceva il professor Mazzolani, nell'area dell'Aquila sono stati interessati 1.000 chilometri quadrati; invece, il territorio di Maule colpito è stato di 800.000 chilometri. Stiamo parlando, cioè, di volumi di rocce che danno la magnitudo, che è proporzionale al volume di rocce che viene coinvolto.
In Italia, sappiamo dove sono le faglie che generano i terremoti. Le conosciamo quasi tutte, anche se non tutte. Pertanto, abbiamo una buona indicazione di dove sono localizzate. Tuttavia, con il terremoto dell'Aquila abbiamo imparato una cosa.
Questa è una mappa dello Strain Rate. In pratica, con il GPS possiamo vedere come si muove la crosta. Per esempio, nella zona dell'Umbria-Marche, le frecce sono grandi, mentre nella zona dell'Aquila sono piccole. Questa è una cosa paradossale che non sapevamo prima del terremoto. In sostanza, significa che qui c'è stato il terremoto 1997-1998, quindi la crosta si è liberata e sta continuando a muoversi, mentre la parte dell'Aquila era bloccata. In realtà, dunque, il terremoto è avvenuto proprio dove non ce lo aspettavamo, cioè dove la zona era più bloccata.
L'intersismico significa tra un terremoto e l'altro. L'ultimo potrebbe essere quello del 1703. Il terremoto è avvenuto in una zona dove la deformazione era più bassa. Durante il terremoto, proprio dove era più bassa, c'è stato come un rimbalzo elastico, che viene chiamato il «cosismico», cioè durante l'evento sismico. La stessa cosa succede praticamente in tutto il mondo.
Questo è il caso del terremoto di Maule. Questa è la deformazione che poteva essere misurata prima del terremoto. Vedete che l'evento si è scatenato proprio in una zona di basso strain rate, come di dice. Questo, invece, è il terremoto dell'Emilia. Possiamo ricostruire la geometria delle strutture che hanno generato il terremoto. Il piano principale di faglia è segnato in verde, sotto. Invece, questi palloni rossi sono gli eventi principali del 20 e del 29 maggio, che sono localizzati lungo queste faglie. Noi sapevamo che quelle strutture erano attive. Infatti, mi sono sempre chiesto come mai ci fosse una carta che dava una probabilità così bassa in quel territorio, visto che dalla geologia sapevamo che era una zona ad alto rischio sismico, anche sul piano dalla sismicità storica. Insomma, c'era qualcosa che non andava.
Potevamo dire che c'era un rischio sia perché ce lo aveva mostrato il terremoto del 1570 - ma noi italiani abbiamo poca memoria su questo - sia perché, grazie ai profili sismici, che sono queste ecografie del sottosuolo, vediamo dove sono posizionate le faglie e quali terreni tagliano, cioè quali rocce dissecano. Quando una faglia arriva fino in superficie vuol dire che è sicuramente attiva
perché ha tagliato il suolo, cioè i sedimenti più recenti, quindi significa che è una struttura che funziona. Queste sono state le reazioni del suolo: un movimento orizzontale di circa 5,3 cm e poi movimenti verticali in salita e in subsidenza. Anche per il caso dell'Emilia, la deformazione è avvenuta in una zona di basso strain rate.
Due anni fa, abbiamo pubblicato un lavoro in cui dicevamo che nel nord Italia ci sono due zone ad alto rischio sismico. Purtroppo, siamo stati profeti per l'area emiliana. Ovviamente, questo è documentato e si può vedere anche da questo video postato dal Museo energia del Vaticano, che è visibile in rete da due anni. Nello specifico, c'è una mia conferenza a Pistoia, in cui questo terremoto era stato previsto se non come posizione, almeno come localizzazione. Era stato previsto in quella zona proprio perché lì c'è un basso strain rate. Difatti, abbiamo misurato la magnitudo dei terremoti in rapporto alla deformazione che osserviamo. Si vede una netta anticorrelazione: più è alto lo strain rate, più è bassa la sismicità che osserviamo. Dunque, nelle zone geologicamente attive, possiamo dire che ci aspettiamo la magnitudo più alta.
Qui abbiamo i terremoti degli ultimi quattro anni in Italia con magnitudo maggiore di 2.2. Abbiamo preso tutti i terremoti di magnitudo maggiore, per esempio, di 3 - come vedete nella carta a sinistra - li abbiamo filtrati e sovrapposti alla carta della deformazione, che possiamo misurare con il GPS. Dalla geologia sappiamo dove sono le faglie, quindi sappiamo che tutta questa zona è attiva. Le aree rosse sono quelle che non sono toccate dai grandi terremoti, cioè di magnitudo maggiore di 4, che avvengono in zone dove lo strain rate è minore di 40.
Ciò significa che abbiamo già una possibilità di dire dove saranno i prossimi terremoti. Sicuramente in Sicilia vi sono zone ad alto rischio sismico perché sono a basso strain rate. Questo conferma, peraltro, anche le previsioni fatte dalla collega Peresan, che faceva vedere altre tecniche e algoritmi diversi che arrivano a soluzioni simili.
Insomma, abbiamo uno strumento per dire dove ci saranno i prossimi eventi. Per esempio, segnaliamo questa zona del nord-est dell'Italia, la Garfagnana, alcune aree del Molise o della Basilicata, il nord della Calabria e altre ancora. Da un punto di vista spaziale, possiamo vedere dunque dove può esserci un prossimo terremoto.
In prossimità di un evento, il triangolo di crosta cade verso il basso. Le rocce sono delle spugne; contengono fluidi. Quindi, nel momento in cui quel triangolo cade spreme qualsiasi fluido contenga la roccia (gas, CO2, acqua, uranio, radon e così via). Nel momento del terremoto, i fluidi vengono espulsi. Per esempio, all'Aquila, nei giorni precedenti l'evento, c'è stata una risalita della portata dell'acquedotto aquilano. Se vediamo il dato del 2 aprile, la portata è salita da 440 fino a 460 litri al secondo. All'evento, c'è stato il grosso picco, proprio perché le rocce hanno espulso l'acqua. Questo, invece, è un caso accaduto a Taiwan, che mostra esattamente il contrario. Siamo in un ambiente compressivo e la falda è caduta di 11 metri. Ciò significa che i fluidi possono diventare un elemento estremamente importante.
Per riassumere, poc'anzi abbiamo visto che con la geologia e con il GPS possiamo individuare le aree dove ci saranno i prossimi terremoti. Inoltre, grazie ai fluidi ci può essere, in certi casi, un allarme di brevissimo termine.
Per esempio, nella Pianura padana, i giorni precedenti ci sono stati degli innalzamenti della falda. Personalmente, se ne fossi stato a conoscenza, avrei dato un allarme perché c'erano tutti i presupposti: erano sopra una struttura attiva e queste variazioni idrologiche non erano legate alla piovosità o ad altro, ma erano, appunto, indipendenti. Nei giorni precedenti vi erano, per esempio, i «fontanazzi» che buttavano fuori fango e sabbia;
ebbene, questo era un indizio che la crosta stava cominciando a comprimersi e a rilasciare fluidi.
In sostanza, abbiamo diversi indicatori indipendenti geologici, geodetici, geofisici e idrogeologici, che messi insieme ci aiutano a dire dove, come e forse anche quando. Non voglio dire che possiamo predire l'ora, ma possiamo avere un allarme importante.
L'ultimo esempio è il terremoto di Izmit del 1999, di cui parlava anche il professor Mazzolani. Il terremoto è avvenuto il 17 agosto. Nei giorni precedenti, in questa immagine radar si vede la variazione della temperatura del suolo. C'è una forte anomalia di temperatura perché il principale conduttore di temperatura al suolo è proprio l'acqua, per cui quando l'acqua viene rialzata, il satellite registra un aumento di temperatura perché l'acqua in profondità è più calda, avendo il calore terrestre. La settimana successiva al terremoto l'anomalia è scomparsa.
Ho concluso. Grazie.
PRESIDENTE. Nella mia città, a Potenza, che è molto fredda, il 23 novembre 1980 fece un caldo insolito, prima del terremoto. Infatti, per molto tempo dopo, quando faceva caldo, la gente si preoccupava.
Do ora la parola ai colleghi che intendano porre quesiti o formulare osservazioni.
GIANLUCA BENAMATI. Innanzitutto, vi ringrazio delle vostre relazioni, che sono state molto interessanti e, da molti punti di vista, istruttive.
Nell'intervento del professore Mazzolani ho colto la questione dell'uso dei materiali come cruciale. Nel nostro Paese, spesso si associa alla scelta tecnologica sbagliata il malaffare, per cui questa è una situazione particolare. Comunque, lei ha citato più volte il tema della normativa, che è sempre di grande interesse. Vorrei chiederle se, con il recepimento della disciplina europea del 2008, ritiene che sia necessario prevedere anche aggiornamenti ciclici costanti, adeguamenti e quant'altro delle norme sulle costruzioni o sui controlli oppure il livello che abbiamo raggiunto è soddisfacente.
Invece, alla professoressa Peresan vorrei rivolgere una domanda sul tema della previsione. Visti gli intervalli spazio-temporali, l'uso combinato - che anche in questa Camera è stato indicato in alcuni atti - dei due metodi, probabilistico e neodeterministico, potrebbe provocare delle confusioni, in quanto vi possono essere sovrapposizioni anche significative di valori. Come pensa, quindi, che potrebbe essere regolata questa questione? È ovvio, infatti, che i due metodi, in alcuni casi, hanno delle discrasie importanti.
Infine, vorrei chiedere al professor Doglioni, sui metodi di allarme e previsione, a parte la questione dei fluidi e del ragionamento generale, se pensa che si possa fare qualcosa in più in termini di allarme concreto, in termini salvaguardia delle popolazioni.
PRESIDENTE. Do ora la parola agli auditi per una breve replica.
FEDERICO MAZZOLANI, Professore ordinario di tecnica delle costruzioni presso l'Università degli studi Federico II di Napoli. Per quanto riguarda la normativa, abbiamo raggiunto un livello ottimale. Abbiamo fatto grandi progressi. Infatti, adesso siamo allineati finalmente con gli Eurocodici. Addirittura, c'è una «cabina di regia» al Ministero che dovrebbe servire per semplificare questa normativa che, sotto molti aspetti, è diventata complessa.
Sappiamo, però, che un conto è la norma, un altro è la sua applicazione ed esecuzione. Ci sono delle tecnologie che si possono prestare anche a essere disattese, come qualità dei materiali (per esempio il cemento armato); altre, invece, sono più affidabili e sicure. Insomma, non basta la normativa; ci vuole qualche cosa di più per poter avere la certezza che le costruzioni siano realizzate come si deve e non diano sorprese nel caso di terremoti.
Quanto ai controlli, il discorso sarebbe lungo e, in ogni caso, la normativa sui controlli è assolutamente esaustiva, ma poi bisogna vedere come si fanno.
ANTONELLA PERESAN, Ricercatrice presso il Dipartimento di matematica e geoscienze dell'Università degli studi di Trieste. Ovviamente, ci siamo già posti il problema di associare, in modo formale, le indicazioni fornite dai due metodi. Mi riferisco all'M8S e al CN, che sono i due algoritmi che utilizziamo. Questi algoritmi si comportano come esperti indipendenti, quindi forniscono dei risultati che non sono correlati. Una possibilità è quella di sovrapporre le due informazioni, ma, chiaramente, avendo un territorio monitorato diverso e un intervallo di magnitudo differente, bisogna restringere il dominio all'area comune, cioè al volume comune spazio, tempo e magnitudo.
Questo fa sì che si riduca la statistica perché dobbiamo considerare solo i terremoti che sono target in entrambi i metodi. Associando i due metodi, si può ridurre significativamente l'estensione spaziale delle aree allertate, ma aumenta anche il numero di fallimenti di previsione. Una possibile soluzione potrebbe essere utilizzare i due metodi, senza andare necessariamente a focalizzarsi solo sulle intersezioni dei due metodi, ma piuttosto associandoli, ossia dando un diverso livello di allerta, per cui se abbiamo l'allerta solo da parte di un algoritmo, sarà un livello 1, mentre se ci sono due algoritmi che «votano» per un'allerta, la preoccupazione sarà maggiore.
Peraltro, questo tipo di schema non deve essere necessariamente ristretto agli algoritmi basati sui pattern di sismicità, ma si può estendere alle osservazioni GPS, alle anomalie di natura diversa, che hanno, però, una differenza sostanziale. Infatti, questi due metodi, pur avendo ampie incertezze, sono validati statisticamente, ossia hanno dimostrato una capacità predittiva. Altri metodi, invece, sono ancora o troppo giovani o applicati su aree specifiche, per cui la correlazione non è ancora dimostrata. In definitiva, possiamo usare questi come una prima indicazione e poi combinarli fra loro o con altri metodi per focalizzare determinate aree.
PRESIDENTE. Professor Doglioni, anch'io ho una curiosità, anche se credo non esaudibile. In quella mappa in cui ci ha fatto vedere, con le chiazze colorate in marroncino, le zone a maggiore rischio, si può fare anche una scala di marroni possibili? Insomma, tra quelle zone ce n'è qualcuna più indiziata o sono più o meno alla pari?
CARLO DOGLIONI, Professore ordinario di geodinamica presso l'Università La Sapienza di Roma. C'è già una scala, anche se non è ben visibile. Qui è segnata solo la differenza tra più e meno 40, ma si può fare una gradazione che va da zero a 100. In generale, più lo strain rate è basso in aree tettonicamente attive, più la magnitudo attesa è alta. In queste zone rosse non è che la sismicità sia assente, ma la magnitudo attesa è più bassa, quindi sono le zone relativamente «più sicure». Questa zona, per esempio, è sicuramente molto vasta, come altre aree che abbiamo visto prima.
Nella mappa che abbiamo pubblicato due anni fa, in cui dicevamo che l'Emilia era una zona a rischio, vi è anche la zona veneta, che è una delle aree più a rischio.
Per di più, una volta a conoscenza del risultato di questo lavoro, abbiamo provato ad allertare le regioni. Un anno fa, per esempio, abbiamo chiesto alla regione Emilia-Romagna di fare un monitoraggio delle falde. Anche alla Regione Veneto abbiamo chiesto di iniziare a monitorare i pozzi, nell'area frontale. Sarebbe bene farlo anche per il Friuli. Se potessi indirizzare una scelta, direi di mettere attorno a un tavolo tutte le ARPA regionali per chiedere loro che vengano scelti dei pozzi da monitorare in continuo. Questi dati, poi, dovrebbero essere immediatamente a conoscenza della Protezione civile, che dovrebbe registrarli.
Ecco, personalmente, farei questo. Tra l'altro, penso che costerebbe pochissimo. Infatti, ci sono già tantissimi pozzi, per cui credo che costi poche migliaia di euro mettere in remoto un piezometro che invia informazioni a una sala operativa.
GIANLUCA BENAMATI. Scusi professore, in base ai suoi dati è possibile parlare di una criticità del sud dell'Italia e in particolare della Sicilia?
CARLO DOGLIONI, Professore ordinario di geodinamica presso l'Università La Sapienza di Roma. Con gli algoritmi del gruppo di Antonella Peresan, Giuliano Panza e Vladimir Kossobokov sono arrivati a dare degli allarmi. Quello è un metodo indipendente. Con un'altra tecnica, che è totalmente diversa, arriviamo a dire la stessa cosa, cioè che la zona vicino a Catania, lo stretto di Messina e altre aree della Sicilia, ma anche una parte della Calabria, sono ad alto rischio sismico, ma non sono le uniche.
PRESIDENTE. Ringrazio, a nome dell'intera Commissione, i nostri auditi e dichiaro conclusa l'audizione.
La seduta termina alle 16.