mercoledì 28 febbraio 2018

Norme Tecniche per le Costruzioni 2018

Much Ado About Nothing

[presentazione del volume NTC 2018, EPC Editore, Roma 2018]
 
di Paolo Rugarli



Dopo 10 anni praticamente esatti dalla emanazione delle Norme Tecniche per le Costruzioni del 2008, vedono quest’anno la luce le NTC 2018.
Nel 2008 questa casa editrice pubblicò il testo della norma con un software allegato, ed in seguito pubblicò il testo della Circolare uscita nel 2009 organizzando i contenuti in modo armonico e coordinato. Al momento in cui esce questo volume, la Circolare relativa alle NTC 2018 non è ancora disponibile.
In quanto segue, ritenendo di fare cosa utile al lettore, verranno riepilogati e sottolineati alcuni aspetti legati alla emissione delle nuove norme, considerati alla luce della situazione attuale del Paese.
Pericolosità sismica della normativa
Nel 2008 fummo i primi a segnalare alcune rilevanti questioni attinenti al modo in cui la pericolosità sismica veniva valutata dalla norma, e segnalammo i problemi derivanti da quelli che furono poi chiamati street effect e room effect (Rugarli 2008), quest’ultimo poi corretto dalla Circolare del 2009. In sostanza le NTC 2008 furono a ragione accusate di essere ingannevolmente “precise”, e di pretendere di calcolare con meticolosità inutile (ancorché “probabilistica”) azioni sismiche derivanti da metodi sostanzialmente imprecisi, incerti e molto discutibili.
Dopo dieci anni e molto studio possiamo anche dire: infondati.
               Da allora, molto lavoro e molti approfondimenti sono stati fatti, e anche qui, per questi stessi tipi, sono stati pubblicati importanti contributi al dibattito in corso sulle normative (Panza e Peresan 2016, Pierotti 2016, Spagnuolo 2014, Rugarli 2014). Molti lavori e articoli scientifici e divulgativi si sono resi disponibili altrove. Se all’inizio del 2008 agli ingegneri preparati balzava all’occhio la evidente discrasia tra la precisione dei numeri in Gazzetta Ufficiale e la traballante fortunosità dei sistemi usati per ottenerli, oggi, nel 2018, lo sconcerto deve purtroppo essere più forte, dato che sono numerosi i nuovi strumenti informativi e divulgativi e le verifiche sperimentali sismiche, a diretta confutazione di quei numeri.
La GU del 4-2-2008 era un tomo pesante 1300 grammi. Delle 653 pagine di quella Gazzetta Ufficiale, circa duecento erano piene di numeri iperrealisticamente precisi e ordinatamente incolonnati, confermati dalla presente normativa 2018. Quei numeri potevano già allora considerarsi stupefacenti, per la loro stessa forma e modalità di presentazione. “Periodi di ritorno” di “101”, “140”, “201”, “475”, “975” o “2475” anni, non uno di più o di meno, scuotimenti con tre o quattro cifre dopo la virgola e formule di interpolazione per distillare altri numeri intermedi: qualcosa di veramente incredibile. Tuttora in vigore.
               Da allora si è verificato un proficuo corto circuito tra ingegneri non soddisfatti della pericolosità sismica delle norme tecniche (è il caso di dire), ed i geofisici, i sismologi ed i geologi ben consapevoli della illusorietà ed inattendibilità della metodologia probabilistica denominata internazionalmente con l’acronimo “PSHA” (Probabilistic Seismic Hazard Assessment), nonché dei suoi apodittici ed non verificati paradigmi pseudo scientifici.
               Ma il normatore italiano è stato, ed è, sordo. Non solo a parte degli studiosi, ma anche ai terremoti.
               Concetti e terminologie del tutto ingannevoli per la popolazione civile ed i non esperti, come “periodo di ritorno”, “vita nominale restante”, “perdita annua media”, “probabilità di superamento”, che sarebbero tutti da abbandonare per essere sostituiti da più serie e sincere metodologie e terminologie, si sono così radicati nella pratica tecnica, e purtroppo siamo stati e siamo, ancora oggi, tutti obbligati a usarli.
Queste normative e quelle che le hanno precedute causeranno un ingente ritardo al Paese, che, a differenza di altri che usano gli stessi metodi errati, e che magari li hanno inventati, è molto vulnerabile ai terremoti. Se non si vuole considerare la realtà di quanto può succedere, come potranno i sistemi strutturali essere efficaci? Se le NTC non calcolano probabilità e scuotimenti attendibili, come esse possono basare tutti i calcoli sismici, persino quelli di consolidamento dell’esistente, su tali “probabilità” e scuotimenti?
Purtroppo non si può nemmeno osservare che “mal comune mezzo gaudio”, non solo perché il Paese è particolarmente vulnerabile, ma anche perché vi è uno specifico della Nazione Italiana ed è il suo gigantesco patrimonio storico e artistico, che viene sistematicamente e colpevolmente lasciato in balia dei sismi sempre “sorprendenti”, a differenza di quanto avviene in Nazioni meno artisticamente ricche, ma più protette (si pensi alla basilica di Norcia o a quella di Assisi, ferite aperte nella coscienza civile del Paese). Inoltre, il conformismo apparentemente molto evoluto di certa parte del corpo accademico, ha ritenuto inevitabilmente necessario accogliere praticamente senza discussione metodologie pensate per edifici regolari in acciaio o cemento armato losangelini, fatti ex novo da esperti, calandole invece su edifici irregolari e vetusti in cemento armato, spesso progettati per le sole azioni verticali, e, soprattutto, sui nostri borghi antichi e sulle nostre città uniche.
               Uno dei primi obiettivi, per curare un male, è diagnosticarne realisticamente la gravità. Ed è appunto qui che i metodi di norma mancano drammaticamente lo scopo. Questa norma, come la precedente del 2008, come anche le precedenti del 2005, del 2003, ed ancora prima del 1996, e via via indietro nel ‘900, non ci dicono la verità in merito alla severità di ciò che può colpirci, né in merito alla possibilità che ciò avvenga domani, o dopodomani o il giorno successivo. La disastrosa presunzione di elencare i comuni “sismici”, tipica delle norme del secolo scorso, è parente stretta della disastrosa presunzione di dare le “probabilità di superamento” di scuotimenti con tre o quattro decimali, o di valutare il “periodo di ritorno” corrispondente a una certa “probabilità”.
               Negli ultimi centocinquant’anni, la tipologia delle costruzioni è drasticamente cambiata (edifici mediamente più alti, a massa elevata benché spesso strutturalmente esili, con più persone, più addossati, costruiti spesso in zone mai edificate nella storia e soggette a fenomeni di amplificazione, con tecniche molto spesso sismicamente del tutto inadeguate), mentre la loro concentrazione è enormemente aumentata (a causa della rapida industrializzazione e dell’inurbamento), così che il Paese semplicemente non può più permettersi di sottostimare azioni che oggi, molto più di ieri, possono causare disastri immani, tali da metterlo in ginocchio.
E’ responsabilità morale e professionale delle persone consapevoli mettere in guardia la società civile, cosa che questa norma a nostro parere non fa. E’ paradossale che proprio le azioni più incerte e potenzialmente disastrose siano quelle per le quali maggiore è la pretesa precisione di input: più cifre significative, formule che legano “probabilità” e “periodi di ritorno”, formule per calcolare le intensità per qualunque “periodo di ritorno” partendo da numeri con tre o quattro cifre significative. Le azioni più incerte e ignote sono quelle definite con più “precisione”.
               Troppe cose si sarebbero dovute cambiare, per voler abbandonare PSHA. Inoltre, l’abitudine e la conseguente semplicità consistente nel ripetere le cose note (pur se notoriamente errate), fanno il resto. Come già spiegato da Kahneman (Kahneman 2011) e ricordato altrove (Rugarli 2014) gli esseri umani sono avari cognitivi, non vogliono faticare per imparare o fare qualcosa di nuovo.
               Totalmente diverso è il metodo neodeterministico NDHSA (Neo Deterministic Seismic Hazard Assessment), messo a punto da una équipe di studiosi della Università di Trieste raccolti intorno al geofisico Giuliano Panza. Questo metodo amplia di molto l’insieme dei fenomeni tenuti in conto, per esempio il percorso sorgente-sito, senza fortunose relazioni di attenuazione (spesso chiamate impropriamente leggi), o le possibili zone sismogenetiche non ancora manifestatesi, e fondatamente e con ragione amplia  di molto la forbice delle incertezze e delle relative cautele facendo uso di inviluppi. La norma, questa norma, ne accenna in un capoverso di tre righe al §3.2.3.6  là dove parla di “storie temporali generate mediante simulazione del meccanismo di sorgente e di propagazione”, consentendone l’uso.
               Anche per questo, alcune amministrazioni pubbliche si sono mosse autonomamente, affiancando ai metodi probabilistici quelli neodeterministici. Per esempio la Provincia di Trieste (Comunicati e Notizie, Società Geologica Italiana, 2015) o la Soprintendenza di Venezia per la biblioteca marciana (Beni Culturali Regione Veneto – Prevenzione Sismica in Area Veneta). Nel corso di importanti convegni pubblici (Accademia Nazionale dei Lincei 2015), si sono potute udire forti critiche a PSHA, anche da un allora membro della Commissione Grandi Rischi, che ha poi rincarato la dose nel 2017 (Mulargia Stark e Geller, 2017).
               Ma soprattutto, più ancora di questo, dal 2008 ad oggi hanno parlato i terremoti.
 L’Aquila: 2009. Emilia: 2012. Amatrice-Norcia-Visso: 2016 e 2017.
Norcia, colpita da un terremoto nel 1979, e poi nel 1997, nell’agosto del 2016 ha subito ancora danni, ed è stata infine ulteriormente colpita da una nuova forte scossa il 30 ottobre 2016. Se dopo i sismi del 1979 e del 1997 si fosse consolidato con valutazioni più realistiche delle intensità attese, i danni attuali sarebbero stati minori. NDSHA ha indicato con buon accordo quanto registrato il 30 ottobre (Fasan et al. 2016). I modelli probabilistici hanno invece completamente fallito, sia in merito alla severità sia in merito alla frequenza delle azioni sismiche.
Dal 2008 ad oggi ciò è accaduto anche all’estero in moltissimi casi, i più rilevanti dei quali sono indicati nella tabella 1. Si ricorda che una differenza di 1 in magnitudo corrisponde a energie liberate 32 volte superiori, una differenza di 2 una differenza di 1000 volte.
Data
Luogo
Morti
DM
12 maggio 2008
Wenchuan (Sinchian, Cina)
75000
1.9
30 settembre 2009
Padang (Sumatra meridionale, Indonesia)
1100
1.3
12 gennaio 2010
Port Au Prince (Haiti)
220000
1.2
13 aprile 2010
Qinghai, Cina
3000
1.4
11 marzo 2011
Töhoku (Giappone)
20000
2.2
Tabella 1. Sismi catastrofici dal 2008 ad oggi: data, luogo numero di morti. DM è qui la differenza tra magnitudo misurata e quella indicata con i metodi probabilistici PSHA da GSHAP, Global Seismic Hazard Assessment Program (dati citati da Panza e Peresan 2016, tratti da Kossobokov e Nekrasova, 2012)
               Ed è precisamente qui che il dovere professionale obbliga a prendere una posizione netta ed impedisce di volgere lo sguardo altrove.
               In Italia gli scuotimenti misurati sono stati molto superiori a quelli indicati come riferimento dalla norma, come intensità e come frequenza. A questa circostanza oggettiva alcuni hanno opposto fumosi ragionamenti probabilistici, sostenendo che sì, c’era pur sempre una certa “probabilità” che ciò avvenisse, in tutti i casi; e sostenendo che per poter dire che i metodi di norma sbagliano sarebbero necessarie altre migliaia di anni. Singolare ragionamento che blinda a vita ogni errore rendendolo di fatto non contrastabile.
Noi riteniamo invece che ci si debba appellare al rasoio di Occam, che impone di scegliere la soluzione più semplice e nitida: che si debba chiaramente dire che le norme sono sbagliate. Né possiamo attendere migliaia di anni perché venga riconosciuto l’ovvio. Se normative di ingegneria civile fissano delle azioni che vengono gravemente superate a uno, quattro ed otto anni di distanza dalla loro emanazione, è necessario prendere atto che le norme sono ottimistiche e che devono essere cambiate.
               Ma le norme 2018 che qui stampiamo non hanno cambiato nulla di tutto questo.
Gli esperti consapevoli della gravità della situazione dovrebbero prendere risolute iniziative tese a preparare, sin da subito, norme di tipo diverso. I politici dovrebbero ascoltare.
               Né a qualcosa vale dire che la emanazione delle nuove norme, e dei rispettivi livelli di scuotimento, non può influire sulle prestazioni degli edifici esistenti. Infatti, lo Stato sta cercando di investire molti soldi pubblici per favorire azioni di consolidamento basate su valutazioni spesso molto ottimistiche, e quindi si può ben dire che tali azioni di consolidamento, basate su input sismici probabilistici, costituiscono un grave rischio ed un potenziale spreco di risorse, come si è visto a Norcia, nuovamente da ricostruire. Inoltre, anche a prescindere dalle azioni di consolidamento, il livello di scuotimento di riferimento dà una chiara indicazione alla popolazione civile e contribuisce, insieme con la terminologia delle norme, che dovrebbe essere trasparente e sincera, e non ingannevole, a costituire quella consapevolezza civile del pericolo che è alla base di ogni futura azione di mitigazione.
               E’ stato detto che la norma attuale garantisce “meno rischi per tutti anziché più sicurezza per pochi”. Ma i rischi non sono eguali per tutti, e diminuire un rischio basso o bassissimo non è come diminuire un rischio alto o altissimo. Il rischio sismico non è “democratico”, esistono priorità e urgenze che andrebbero valutate con criteri generali prudenziali e non illusoriamente precisi. Inoltre un tale slogan, di sapore vagamente sessantottino, mal si coniuga con la certezza che i metodi probabilistici della normativa sono, sic et simpliciter, sbagliati. La dispersione di denaro pubblico al fine di disseminare a pioggia interventi anche di mero maquillage basati su azioni errate perché spesso sottostimate, è un grave danno. E’ giusto consolidare e incentivare i consolidamenti, ma sulla base di informazioni realistiche.
               La politica sostanzialmente seguita dallo Stato nell’impiegare PSHA (e prima di esso la classificazione sismica basata sui meri cataloghi storici) è stata la seguente: assumere che su grandi numeri, progettare scommettendo sulla rarità dei terremoti e sulla loro intensità “probabilistica” avrebbe garantito ampi risparmi. Infatti, secondo questo cinico ragionamento, se è vero che ogni tanto qualche centro è colpito dal terremoto, e per esso le progettazioni di norma possono rivelarsi inefficaci, è anche vero che per tutti gli altri centri non colpiti il ragionamento comporta elevati risparmi.
Questo ragionamento è sbagliato almeno per queste ragioni.
               In primo luogo la stima probabilistica PSHA è fallata ed inattendibile. Di conseguenza sono inattendibili tutte le valutazioni globali di costi e risparmi basate su di essa. In particolare, lo stesso concetto di “perdita annua media”, applicato a un fenomeno intrinsecamente singolare e distruttivo, appare risibile.
               In secondo luogo, i costi complessivi necessari a creare ex novo edifici antisismici dipendono solo blandamente dalla severità del sisma. Allo stesso modo, un adeguamento a valori più alti di scuotimento non comporta uno stravolgimento dei costi. Sempre più ciò sarà vero tanto più sarà incentivata la ricerca in questo settore, pensando allo specifico italiano e non alle situazioni verificabili altrove (il tema per noi è: proteggere edifici esistenti irregolari, fragili ed in calcestruzzo armato, progettati con N/A<sadm o poco più, e proteggere edifici in muratura).
               In terzo luogo, lo Stato si è sostituito al Cittadino, fornendogli informazioni scorrette. I privati o gli imprenditori che ritengono utile spendere di più, per avere costruzioni e stabilimenti produttivi propri più sicuri, sono indotti in errore da normative non adeguatamente sincere sulla gravità del pericolo. Si tratta, in quel caso, di soldi privati, e non si soldi dello Stato, che anzi avrebbe un ritorno nell’incentivare soluzioni più sicure. Infatti è lo Stato che deve poi intervenire, non i privati. Dunque il ragionamento economico non quadra perché quando si costruisce non è quasi mai dei soldi dello Stato che si parla. Inoltre, si pone un problema di trasparenza verso i Cittadini, che non sono adeguatamente informati, ma anzi, sono indotti in errore dalla terminologia della norma e dal fiorire di apparente precisione collegata ad essa: di qui le tanto criticate sentenze della magistratura.
               In quarto luogo, un effetto collaterale della sottovalutazione probabilistica, è che in Italia non vi è la percezione del rischio sismico. A parte le popolazioni colpite, che si trovano in situazioni difficilissime, nel normale sentire il pericolo sismico non esiste. I calcoli “antisismici” sono ancora visti come una cosa esotica e sperimentale che può essere elusa, e chi ne invoca la necessità nella quiete del tran tran di tutti i giorni è considerato uno iettatore o un seccatore. Il sisma è “improbabile”, ha lunghi “periodi di ritorno”, e quindi non esiste.
               In quinto luogo, i costi complessivi non sono lineari, non derivano dalla sommatoria di costi sempre sopportabili. Non è detto che ci siano sempre centri piccoli o medio piccoli ad essere colpiti, qui e là. Se fosse severamente colpita una città di media o grande importanza, con molti abitanti, il danno allo Stato potrebbe essere così alto da far saltare il banco (l’Aquila, pur importantissima, aveva “solo” 70.000 abitanti al momento del sisma). Un simile rischio è semplicemente troppo alto da accettare per un Paese avanzato.
               In sesto ed ultimo luogo, il tempo gioca per i terremoti, non per la Repubblica. Sia perché scosse piccole o medie ripetute possono avere sulle costruzioni effetti cumulativamente disastrosi (un fatto, questo, assai poco indagato), sia perché la vita reale delle costruzioni è molto, molto più lunga di quella convenzionale delle NTC e in Italia l’abbattimento di edifici vetusti è quasi assente.
               E’ dunque necessaria ed urgente una inversione di rotta.
               Nell’intento di fornire ai nostri lettori un’informazione più completa nella direzione necessaria, abbiamo deciso, non senza attente riflessioni, di fornire in questo stesso testo informazioni alternative. Quindi, nell’appendice di questo volume è fornita una mappa neo-deterministica degli scuotimenti di riferimento al substrato roccioso, ed il software che già nel 2008 fu allegato al volume è stato aggiornato per fornire, oltre ed a fianco della valutazione della PGA probabilistica, la stima neo-deterministica dell’intervallo di accelerazioni di progetto, al bedrock.
Viene fornito un intervallo e non numero preciso, perché se si vuole essere franchi esistono ineludibili incertezze che non consentono di varcare certe precisioni; intervalli, e non valori precisi, perché solo tenendo in conto appropriatamente anche degli strati superficiali del sito è possibile ottenere in ambito NDSHA spettri di inviluppo utilizzabili per il progetto e denominati MCSI, Maximum Credible Seismic Input (Fasan et al. 2015 e 2017).
               Nel far questo riteniamo utile che i progettisti possano avere più informazioni e che possano, se lo ritengono, integrare le azioni valutate con i criteri probabilistici della normativa, con criteri di ben diversa solidità fisica e capacità di inviluppo.
La NTC 2018 nel contesto generale del Paese
Come già argomentato altrove (Rugarli 2014) le nostre norme tecniche hanno questa specifica caratteristica, tutta italiana: da un lato esse vogliono essere precise, in linea con i metodi più recenti e con i formati delle normative europee, dall’altro esse possono essere applicate praticamente da chiunque sia dotato di una opportuna protesi software.
Senza software, il Convitato di Vetro (Spagnuolo 2014), non si fa un bel nulla, e questo fatto è ormai accettato senza peraltro che siano presi provvedimenti atti a favorire la programmazione in software delle norme in modo corretto e generale. In effetti, questo delicato lavoro, che spesso cozza contro paragrafi inapplicabili perché scritti male, è interamente demandato alle software house del Paese. Talvolta insufficienti, altre volte eroiche.
               Dato che nel nostro Paese i veri esperti di ingegneria strutturale sono una modesta minoranza, sarebbe stato abbastanza utile predisporre due strategie contemporanee adatte alle specificità del Paese: in primo luogo formare più ingegneri strutturisti o assimilati, in secondo luogo predisporre norme o regolamenti di più facile uso, limitandone la applicazione a strutture più semplici, o standardizzabili, o di minor rischio.
Nulla di tutto questo.
               Da questo punto di vista le NTC 2018 non muovono un passo. E’ considerato di fatto preferibile che usando opportuni strumenti software dei quali spesso non viene compreso gran che, le più disparate figure professionali eseguano complessi calcoli sismici dei quali difficilmente viene compreso il reale significato, anche là dove, a ben vedere, basterebbero calcoli molto più semplici e regole standard alle quali uniformarsi.
               Questa circostanza, coniugata con il fatto che lo Stato sana periodicamente costruzioni abusive prive di alcun progetto (le ultime ed ennesime proposte elettorali di sanatoria sono recentissime), e delle quali non si sa nulla, porta ad un notevole sconcerto per l’evidente strabismo con cui viene considerato il problema della sicurezza strutturale in Italia. A riprova di ciò, i frequenti crolli dei quali è punteggiata la cronaca degli ultimi anni, e che testimoniano indirettamente uno stato di cose abbastanza grave, verso il quale ben poco sembra essere stato fatto.
               Sempre più chiusi nella loro torre di avorio che indica discutibili e complesse procedure atte a ottenere certe prestazioni strutturali, i normatori italiani non sembrano essersi accorti o non considerano come un loro problema il fatto che fuori, in Italia, sia il Far West, e che tutte le dettagliatissime prescrizioni (in una norma detta prestazionale), servano a ben poco se poi il resto è in dissesto.
               Sarebbe quindi meglio, per il nostro complicato Paese:
  1. Come normative di riferimento di dettaglio riferirsi agli Eurocodici ed ai relativi annessi nazionali, senza costosi ed inutili distinguo se non là dove necessario (ad esempio per la pericolosità sismica, gli edifici esistenti o la tutela del patrimonio artistico e monumentale, qui è necessario). Quindi, abolire le NTC così per come sono oggi concepite, e sostituirle con “Si adottano gli Eurocodici Strutturali e i relativi Annessi Nazionali, ad eccezione di questi e questi punti”.
  2. Emanare linee guida, non leggi, come riferimento per classi di strutture semplici e ben delimitate, che possano essere applicate e verificate a mano o quasi, senza l’ausilio di alcuno strumento software complicato, tenendo conto delle professionalità che il Paese si ritrova davvero a disposizione, e non delle poche centinaia di veri esperti. Quindi, generare svariate linee guida specifiche e dichiaratamente semplificate. Contrariamente alle apparenze, ciò migliorerebbe e non peggiorerebbe moltissimi calcoli e progetti.
  3. Emanare dettagliate e comprensibili linee guida o commentari che uniformino l’interpretazione da dare agli Eurocodici e siano di riferimento per le software house che sostengono il fondamentale compito di rendere applicabili le disposizioni di legge. Tali linee guida dovrebbero essere redatte da gruppi di lavoro prescelti solo in base alle competenze effettivamente dimostrate sul campo, e non in base ad altri discutibili criteri. Molte software house sono perfettamente in grado di implementare le norme seguendo interpretazioni ragionevoli, ma ciò non garantisce la uniformità.
 
Il raffronto tra versioni diverse della normativa
Sebbene non si possa dire che le norme NTC 2018 costituiscano uno stravolgimento rispetto alle NTC 2008, perché gli aspetti di maggiore importanza, quelli che veramente avrebbero potuto cambiare significativamente le cose, come abbiamo visto, sono rimasti sostanzialmente inalterati (Much Ado about Nothing: Molto Rumore per Nulla), l’esame comparato dei due testi mostra una miriade di variazioni, non sempre realmente significative, anzi spesso puramente estetiche, ma talvolta assai significative, che stanno ad indicare un protratto lavoro di cesello, anche su questioni che dovrebbero essere chiare da tempo.
Qualcuno ha già cercato di enumerare le principali differenze, e quindi si è detto ad esempio della (benvenuta) definizione di robustezza e durabilità, della abolizione delle tensioni ammissibili, dell’atteso adeguamento del minimo per il fattore di comportamento a q=1,5 come da anni nell’Eurocodice 8, e della definitiva cancellazione dei riferimenti alle zone sismiche, ma su cosa sia una differenza “principale” è lecito opinare. Preferiamo quindi non enumerare le “principali differenze”, perché potremmo omettere delle differenze sostanziali per qualche lettore, come gli esempi seguenti dimostrano. Talvolta piccole modifiche portano a grandi conseguenze.
               Per favorire i lettori della norma, certo anche alle prese con un periodo di interregno tra le due NTC, abbiamo posto nel CD allegato dei file PDF ottenuti confrontando capitolo per capitolo il testo del 2008 con il testo del 2018. Comparando attentamente i due testi, si possono fare scoperte interessanti. Ovviamente non è questa la sede per enumerare la foresta delle variazioni: ciascuno, grazie ai file sul CD, lo potrà fare nelle aree di proprio interesse.
               Al fine di illustrare la natura delle osservazioni fatte poc’anzi, valgano alcuni esempi tratti dai capitoli 2 e 3.
 
§2.3 NTC 2008: Per la valutazione della sicurezza delle costruzioni si devono adottare criteri probabilistici scientificamente comprovati.
§2.3 NTC2018: cancellato.
Non è più necessario che i metodi probabilistici siano scientificamente comprovati. Si possono dunque usare metodi probabilistici scientificamente infondati, o semplicemente metodi probabilistici. Dato che le NTC 2008 riportavano esplicitamente il requisito della “scientificità” e ora non più i casi sono tre:
  1. Si è ritenuto che la scientificità fosse ovvia precondizione e si è tolto un paragrafo ridondante. Strano ma possibile.
  2. Si è ritenuto che fosse ormai comprovata la non scientificità di alcuni dei metodi in uso e si è corsi ai ripari: verosimile.
  3. Si è ritenuto che la scientificità fosse una condizione in generale opzionabile o discutibile (cosa è scientifico? Chi siamo? Dove andiamo?). Quindi la si è tolta di mezzo.
Al lettore il giudizio.
 
§2.3 NTC2008: nulla
§2.3 NTC2018: Il valore di progetto delle azioni agenti sulla struttura Fd è ottenuto dal suo valore caratteristico Fk inteso come frattile della distribuzione statistica o come valore caratterizzato da un assegnato periodo di ritorno […].
Il “periodo di ritorno” viene quindi ad essere formalmente definito come alternativa valida al valore caratteristico, introducendo in modo solenne, a livello di definizione delle azioni, il concetto che queste possano soddisfare questo discutibile modello pseudo scientifico. E’ quindi fatto assurgere a livello di definizione generale delle azioni, nella Gazzetta Ufficiale della Repubblica, il pregiudizio del tacchino induttivista di Russel, per di più in totale assenza di dati atti a consentire la induzione. La realtà è dunque forzata per legge ad adempiere al modello.
 
§2.4.1 NTC2008: La vita nominale di progetto di un’opera strutturale VN è intesa come il numero di anni nel quale la struttura, purché soggetta alla manutenzione ordinaria, deve poter essere usata per lo scopo al quale è destinata.
§2.4.1 NTC2018: La vita nominale di progetto VN di un’opera è convenzionalmente definita come il numero di anni nel quale è previsto che l’opera, purché soggetta alla necessaria manutenzione, mantenga specifici livelli prestazionali.
Si aggiunge il “convenzionalmente” che tradotto vuol dire “è ovvio che la vita reale della costruzione non c’entra nulla”. Si accenna ai “livelli prestazionali” per ossequio al fatto che le norme sono appunto “prestazionali”. Cosa vuol dire questo nel caso sismico, dato che tutte le “probabilità” e gli scuotimenti sono affetti da errori di base significativi ? Che la norma fissa livelli di azioni arbitrari, che poi servono a misurare le “prestazioni” delle strutture rispetto ad essi. Se sono infondate o puramente convenzionali le azioni, e lo sono, è anche infondato o puramente convenzionale il calcolo delle “prestazioni”.
 
§2.4.1 NTC2008: nulla.
§2.4.1 NTC2018: Le verifiche sismiche di opere di tipo 1 o in fase di costruzione possono omettersi quando il progetto preveda che tale condizione permanga per meno di 2 anni.
La indicazione era presente nella Circolare del 2009 (C.2.4.3), ma non nella normativa. Ora invece è accolta nel testo della norma, insieme con la cancellazione della vita di riferimento minima di 35 anni (vedi sotto).
Ciò è da notare perché implicitamente fa entrare le “probabilità” in senso potenzialmente disastroso: implica che per queste strutture di tipo 1 temporaneo o provvisorio (o per le strutture in fase di costruzione), il terremoto non arriverà di sicuro (in senso probabilistico). Poniamo che fosse stata costruita una cosa simile a meno di due anni dal sisma de L’Aquila, o dell’Emilia o di Amatrice Norcia Visso, in quei siti. Nessuna verifica sismica da fare. Ciò ricorda il tragico “è improbabile che ci sia a breve una scossa come quella del 1703 pur se non si può escludere in maniera assoluta” (31-3-2009 verbale della Commissione Grandi Rischi riunitasi a L’Aquila. Il terremoto arrivò sei giorni dopo). Qui invece è stato escluso in maniera assoluta. Perché questa temerarietà? Perché la “probabilità” che avvenga un sisma con “periodo di ritorno” di 475 anni nei prossimi due anni è bassa, secondo il paradigma di norma. E perché? Perché se la “probabilità” è del 10% in 50 anni, essa, grosso modo, è dello 0.4% circa in due anni. Come dire che tirando un dado con 475 facce (e “periodo di ritorno” 475 lanci) la probabilità che esca il numero 2 in due lanci è circa 0.4%, mentre se lo tiro cinquanta volte è circa 0.1[1]. In alternativa a questo ragionamento con dado “pesante” da 475 facce (un sisma severo), si può fare un ragionamento probabilistico su un dado “leggero” a due facce (“periodo di ritorno” due lanci, un sisma blando). Qui il numero 2 uscirà in due lanci con il 75% di probabilità[2], ed il quattro lanci con il 93,75% di probabilità. Ma è un sisma/dado piccolo, e quindi sopportabile. E’ appena il caso di dire che i fenomeni sismici non giocano ai dadi, non seguono le regole dei dadi che invece la normativa segue. I sismi arrivano quando lo decidono loro, non quando lo decidono le NTC.
 
§2.4.3 NTC2008: Se VR [la vita di riferimento per il calcolo delle azioni sismiche] è minore di 35 anni, si pone comunque VR = 35 anni.
§2.3 NTC2018: Nulla.
Nella Circolare del 2009 era scritto che la prescrizione era stata messa “per assicurare alle costruzioni un livello di sicurezza antisismica minimo irrinunciabile” (C2.4.3). A distanza di nove anni vi si è rinunciato. In questo modo si possono gestire vite di riferimento a fini sismici di 15 o 10 anni, o anche meno (sino a 5), con conseguente ulteriore diminuzione delle azioni sismiche stesse. Tale diminuzione delle azioni sismiche di norma, a sua volta, potrà più facilmente consentire di considerare adeguate o migliorate strutture in realtà a rischio. La direzione è dunque quella di creare molti calcoli ingannevoli, tesi a sdoganare situazioni che altrimenti diventerebbero difficili e richiederebbero appunto di fare quello che manca al Paese: considerare le azioni sismiche normali azioni come tutte le altre. Questo trucco computazionale consente di non porsi il problema sismico in molti casi.
 
§3.2 NTC2008: Le azioni sismiche di progetto, in base alle quali valutare il rispetto dei diversi stati limite considerati, si definiscono a partire dalla “pericolosità sismica di base” del sito di costruzione. Essa costituisce l’elemento di conoscenza primario per la determinazione delle azioni sismiche.
§3.2 NTC2018: Le azioni sismiche di progetto, in base alle quali valutare il rispetto dei diversi stati limite considerati, si definiscono a partire dalla “pericolosità sismica di base” del sito di costruzione e sono funzione delle caratteristiche morfologiche e stratigrafiche che determinano la risposta sismica locale.
La pericolosità sismica di base del sito di costruzione non è più “l’elemento di conoscenza primario”. In effetti, se si usano terremoti presi da banche dati internazionali, riscalati e modificati con procedure numeriche della più varia specie e tipo, sarebbe lecito chiedersi se e quanto resti della “pericolosità sismica di base” proprio del sito di costruzione. La cancellazione della specifica rende oggettivamente più libera la scelta di un input sismico. Solo gli effetti locali, e non gli specifici effetti legati al tragitto sorgente-sito, sono considerati influenti, ma non è così.
 
§3.2.3.6 NTC2008: L’uso di accelerogrammi generati mediante simulazione del meccanismo di sorgente e della propagazione è ammesso a condizione che siano adeguatamente giustificate le ipotesi relative alle caratteristiche sismogenetiche della sorgente e del mezzo di propagazione.
§3.2.3.6 NTC2018: L’uso di storie temporali del moto del terreno generate mediante simulazione del meccanismo di sorgente e della propagazione è ammesso a condizione che siano adeguatamente giustificate le ipotesi relative alle caratteristiche sismogenetiche della sorgente e del mezzo di propagazione, e che negli intervalli di periodo sopraindicati, l’ordinata spettrale media non presenti uno scarto in difetto superiore al 20% rispetto alla corrispondente componente dello spettro elastico.
Questo paragrafo consente l’uso dei sistemi neodeterministici, ma ora impedisce che questi diano scarti medi superiori del 20% rispetto allo spettro elastico di norma (“probabilistico”, con un dato “periodo di ritorno”, tutto da stabilire), in tutto un vasto intervallo di periodi. La delimitazione del 20% è stata aggiunta per eliminare quei casi, pur esistenti, in cui le valutazioni prudenziali di tipo neodeterministico portavano ad azioni sismiche significativamente inferiori a quelle di norma. Un tale criterio di salvaguardia potrebbe essere considerato a favore di sicurezza. Purtroppo non vale il viceversa. E’ da notare che uno scarto medio non vuole dire gran che, dato che si può ottenere con segnali aventi spettri profondamente diversi. E’ interessante osservare che a un capoverso seguente viene detto invece, per segnali “più eguali degli altri”:
 
§3.2.3.6 NTC2008: Gli accelerogrammi registrati devono essere selezionati e scalati in modo da approssimare gli spettri di risposta nel campo di periodi di interesse del problema in esame.
§3.2.3.6. NTC2018: Le storie temporali del moto del terreno registrate devono essere selezionate e scalate in modo che i relativi spettri di risposta approssimino gli spettri di risposta elastici nel campo dei periodi propri di vibrazione di interesse per il problema in esame.
Le storie registrate, sono i terremoti avvenuti in altre parti del globo per esempio in Cina o in Cile, e che hanno in comune la magnitudo la profondità e la distanza con lo scenario preso in considerazione per il sito italiano in esame (con notevoli incertezze legate alla profondità dell’ipocentro e alla magnitudo), ma non, evidentemente, gli strati presenti tra sorgente e sito, e non gli strati superficiali. Questi segnali possono essere riscalati e trattati numericamente per adattarsi agli spettri (“approssimino”), ma senza alcuna limitazione a differenza di tutti gli altri, e senza tener conto dei periodi propri di interesse se non in modo generico. Non ci sono intervalli numerici da rispettare. Quindi: a) i segnali effettivamente ancorati alle caratteristiche specifiche del sito e del percorso sorgente-sito, quelli neodeterministici, devono rispettare stringenti controlli di prossimità con gli spettri probabilistici di norma; b) i segnali presi da chi sa dove e opportunamente trattati numericamente, invece, no. Per loro i criteri sono più laschi.
 
Le appendici a questo volume
Nelle appendici a questo volume vengono date informazioni introduttive su NDSHA nonché la mappa NDSHA del 2012, ed è spiegato il funzionamento della nuova versione del software NTCSISMA.
Buona lettura.
Milano 6 febbraio 2018
Il curatore
Paolo Rugarli
Ingegnere Strutturista
Riferimenti
Accademia Nazionale dei Lincei, La Resilienza delle Città d’Arte ai Terremoti, 3-4/11/2015 Roma.
Beni Culturali Regione Veneto, Prevenzione Sismica in Area Veneta
Fasan, M., C. Amadio, S. Noè, G. F. Panza, A. Magrin, F. Romanelli, and F. Vaccari. 2015. A new design strategy based on a deterministic definition of the seismic input to overcome the limits of design procedures based on probabilistic approaches. Pages 1–11, XVI Convegno ANIDIS. L’Aquila.
Fasan, M., A. Magrin, C. Amadio, F. Romanelli, F. Vaccari, and G. F. Panza. 2016. A seismological and engineering perspective on the 2016 Central Italy earthquakes. International Journal of Earthquake and Impact Engineering 1:395–420.
Fasan, M., A. Magrin, C. Amadio, G. F. Panza, F. Romanelli, and F. Vaccari. 2017. A possible revision of the current seismic design process. Pages 1–12 16th World Conference on Earthquake Engineering. Santiago, Chile.
Kahneman D, 2011, Thinking Fast and Slow, Macmillan (in Italiano Pensieri Lenti e Veloci, Saggi Mondadori 2012)
Kossobokov, V. e Nekrasova, A., 2012, Global Seismic Hazard Assessment Program Maps Are Erroneous, Seismic Instrum., 48, 162-170, Allerton Press, Inc., doi: 10.3103/S0747923912020065.
Mulargia F., Stark P. B., Geller R. J., Why is Probabilistic Seismic Hazard Analysis (PSHA) still used?, Physics of the Earth and Planetary Interiors, 264, Marzo 2017, https://doi.org/10.1016/j.pepi.2016.12.002
Panza P, Peresan A, 2016, Difendersi dal Terremoto Si Può, I Diagonali, EPC, Roma
Pierotti P, 2016, Sismografia Storica, I Diagonali, EPC, Roma
Rugarli P, 2008, Zone Griglie o…Stanze, Ingegneria Sismica, 1
Rugarli P, 2014, Validazione Strutturale, I Diagonali, EPC, Roma
Società Geologica Italiana, Comunicati e Notizie, 14/9/2015
Spagnuolo R, 2014, Il Convitato di Vetro, I Diagonali, EPC, Roma



[1]1-(1-1/475)50 ≈ 0.1
[2] 1-(1-1/2)2 = 3/4

15 commenti:

  1. Salve,
    articolo assolutamente interessante, molto preciso e sincero. D’accordo in linea di principio su tutto, in particolare, pienamente d’accordo su quanto riportato al punto 1, quando propone di “virare” definitivamente sugli Eurocodici strutturali. Aggiungerei qualche piccola osservazione (personale, ovviamente): la definizione di “tempo di ritorno” riportata dalle NTC, è notoriamente dedotta da una distribuzione poissoniana delle probabilità. In ogni caso, essa mette ugualmente in relazione eventi (qui intenderei, propriamente geologici) stocasticamente indipendenti, e quindi - a mio avviso - l’utilizzo del concetto di “tempo di ritorno” così come richiamato dalle NTC potrebbe considerarsi ragionevole/accettabile forse nel “breve periodo” (per capirci: nell’arco di qualche migliaio di anni per via della probabile costanza e immutabilità delle velocità e dei meccanismi di interazione delle faglie in un tale lasso di tempo). Personalmente, forse, si potrebbe parlare più propriamente di tempo “medio” di ritorno “accettato” (per tenere così conto anche dell’eventuale serie di dati sismici a disposizione per un dato sito). Se posso concedermi una “licenza”, mi verrebbe da dire che - per come stanno le cose secondo le NTC, almeno dal punto di vista probabilistico - è come se gli eventi sismici venissero imposti (almeno formalmente) come processi stocastici markoviani. Di conseguenza, sono d’accordo con le importanti osservazioni e critiche sollevate già da tempo dai Tecnici Geologi. È mio modesto parere, infatti, che il nodo cruciale non sia tanto il numero di cifre significative da mettere in input nel software di turno (che ovviamente non è influente perché dei calcoli si devono pur fare per trarre conclusioni oggettive) ma la reale conoscenza della geologia del territorio e una vera e sentita “sensibilità” nei confronti della stessa (da parte di tutti gli attori coinvolti, in senso lato… evitando subito a priori, diatribe e polemiche di tutti i tipi).
    Ovviamente, quanto appena detto non è in contrasto con l’osservazione che tutta quella mole di numeri tabellati e riportati nelle NTC siano più che altro “rumore statistico” e quindi (di fatto) poco utilizzabili (appunto perché portano con sé componenti inspiegabili)…
    Concludo, esprimendo forte perplessità su come potrà evolvere l’atteggiamento mentale in futuro da parte di tutti: comunque si guardi la questione, le variabili in gioco sono sempre tante e difficili da delineare completamente e questo - temo - porterà sempre a ripiegare verso un atteggiamento mentale di questo tipo: “se tante cose si possono prevedere fino a un certo punto e se le incertezze su tantissime grandezze sono così tante…allora inutile voler “spaccare il capello in quattro”. Se non cambia questo retaggio culturale, potremmo ancora vedere numerose versioni di norme più o meno vecchie o nuove (anche solo formalmente prestazionali) e rimanere sempre al punto di partenza. Ovviamente, questa è la mia opinione, sicuramente densa di critiche visto l’argomento così delicato e cruciale. Ma vista la possibilità di poter lasciare un parere, non vedo perché non averlo fatto. Grazie quindi dello spazio concesso. Un saluto a tutti.

    RispondiElimina
  2. Grazie per il contributo.
    La NTC parla proprio di "periodo di ritorno", non di "tempo di ritorno" e men che meno di "tempo di ritorno medio" quando introduce le azioni sismiche(cfr. par. 3.2.1).
    Il modello poissoniano, come spiegano i geofisici, non è verificato per i terremoti, e quindi la sua applicazione infondata. Sia nel lungo che nel breve periodo. Io sto a quanto dicono geofisici e i sismologi, e non mi fido di modelli inventati a tavolino.
    Infine, non ho forse capito: che non si possa spaccare il capello in quattro a me pare giusto, e non credo che questo vada a discapito della sicurezza strutturale, anzi. Ingegneria strutturale non vuol dire spaccare il capello in quattro.

    RispondiElimina
  3. Prego, approfitto per chiedere scusa. Mi sono evidentemente espresso male. Ho utilizzato il termine "tempo di ritorno" per significare il concetto di "periodo di ritorno" di un evento (in statistica, solo formalente differente, credo). Quando ho parlato di tempo "medio" di ritorno "accettato" esprimevo solo un mio concetto assolutamente non condivisibile, non certo facevo riferimento a termini menzionati o coniati in qualche punto delle NTC (spero questa mia precisazione passi scontata, perché veramente palese). Passando al concreto, in merito alla Sua osservazione dell'infondatezza di un medello poissoniano sia sul lungo quanto (e soprattutto) sul breve periodo, con tutto il rispetto, mi sento un minimo di dissentire (o almeno di conservare qualche minimo dubbio) proprio in virtù di quanto affermato da alcuni studiosi relativamente all'evoluzione dei fenomeni geologici quando analizzati in un arco temporare di soli qualche megliaio di anni (è proprio in un arco temporale geologicamente relativamente così breve, infatti, che si può ritenere minimamente accettabile il teorema delle probabilità composte (da cui, infine, la nota formula operativa del "periodo di ritorno" nelle NTC; a mio avviso quindi dai connotati statistici markoviani): in un arco temporale geologicamente breve qualsiasi considerazione sulle evoluzioni geologiche di un dato sito possono considerarsi basate su ipotesi di eventi statistici casuali e stocasticamente indipendenti (ecco, quando mi riferisco al "breve periodo"). In altre parole, quindi, sono assolutamente d'accordo con Lei per quanto riguarda l'inadeguatezza del modello poissoniano (ma, senza alcun dubbio, SOLO nel "lungo periodo"). Concludo: "spaccare il capello in quattro" per evidenziare un atteggiamento - a mio avviso - pericoloso a cui tutti tendiamo naturalmente quando, nello studio di un qualsiasi problema governato da tantissime incognite e denso di incertezze, ci si rende conto che non si possono avere sempre e soltanto conclusioni certe e ben delineate. In altre parole, forse, proprio questo approccio mentale ha portato all'elaborazione (e quindi all'accettazione?) di una mole di numeri solo all'apparenza preciso. Come era nella mia prima premessa, ho voluto solo esprimere la mia opinione, su un argomento così affascinante, che davo per scontato essere assolutamente criticabile. In questo ultimo intervento, ho "approfittato" unicamente per precisare alcuni punti evidentemente da me espressi male, rimanendo implicita qualsiasi critica. Grazie comunque della sua gentile e celere risposta. Non era mia intenzione fare della polemica. Grazie per il suo pregevole articolo.

    RispondiElimina
    Risposte
    1. Grazie per la risposta, ma, senza voler fare polemica, non mi ha proprio convinto (la sua sicurezza in ambito geofisico, da cosa deriva?).
      Suggerisco di leggere la bibliografia citata per approfondire l'argomento (ed in particolare Panza e Peresan, geofisici, non ingegneri) e di non fidarsi troppo di quanto sostenuto da studiosi che sono dentro a PSHA fino ai capelli. La geofisica non è degli ingegneri. La terra non obbedisce alle regole studiate a tavolino dagli ingegneri.

      Elimina
  4. Prego, si figuri nessuna polemica. Anzi grazie per l’invito. Non so se ho dato l’impressione di esternare qualche sicurezza in ambito geofisico, o forse più propriamente sismologico (o anche paleosismologico, visto l’argomento specifico). Cercherò subito di rispondere alla sua domanda premettendo, e ribadendo in altri termini, che sono in linea sul fatto che gli eventi sismici che hanno sortito i maggiori danni in senso lato sono stati sottostimati dai metodi probabilistici, diciamo tradizionali (scuotimento atteso). Alla stessa maniera, premetto che siamo tutti d’accordo che le mappe PSHA poggiano le premesse sull’incerta valutazione della ricorrenza di forti terremoti. Concludo, quindi, la risposta alla domanda: in aggiunta alle due suddette premesse, l’ulteriore osservazione - forse banale - in merito al “periodo di ritorno” era ANCHE per sottolineare che, a mio avviso, forse esistono incertezze già sulla determinazione o sulla scelta di alcuni parametri probabilistici significativi su un problema sostanzialmente aleatorio già dalle condizioni al contorno.
    Ora una mia semplice impressione-osservazione. Mi è sembrato di capire che fra le conclusioni più significative, a mio modesto avviso, del lavoro della Dott.ssa Antonella Peresan sia quello di voler porre l’attenzione anche sul fatto che, a parità di magnitudo, sia necessaria una conoscenza il più possibile precisa della frequenza di accadimento di un evento sismico. Personalmente mi sono sentito di interpretarla anche così: costruire non dappertutto e in maniera indiscriminata (quindi, a questo punto, le possibili implicazioni sono prettamente di natura socio-umana e politica…qui di dubbi ne avrei non pochi!). In merito poi alla norma di calcolo, relativamente a quanto indicato sempre dalla Peresan, la progettazione rimarrebbe legata praticamente alla magnitudo e su questo siamo ancora tutti d’accordo. E d’accordo anche sul (troppo) “rumore statistico”.
    Concludo il mio pensiero: la Dot.ssa Peresan afferma che i parametri di progettazione antisismica non debbano essere scalati in funzione della maggiore o minore sporadicità dell’evento. Su questa affermazione non avrei in linea di principio nulla da obbiettare ma - di nuovo per rispondere alla sua domanda - mi viene il dubbio su come valutare (in maniera quantitativa a questo punto) la “minore” dalla “maggiore sporadicità” di un evento. Era infatti qui il nocciolo del discorso quando parlavo più sopra del “breve” e “lungo” periodo, per capire in quale arco temporale (geologico s’intende) sia possibile (in termini evidentemente probabilistici) ritenere costanti e immutabili (o meno!) le velocità e i meccanismi di interazione nelle faglie). Dico semplicemente che questa mi appare un’ulteriore perplessità.
    Conseguentemente, tirando le somme, non posso che ritenere, d’accordo con l’evidenza dei fatti, che tali problematiche non possano coinvolgere solo ingegneri ma le figure fra i più svariati campi (a questo punto direi anche propri della geofisica).
    ------------------
    Scherzando: mi sembra che siamo arrivati a quello stesso bivio che ha fatto nascere dalla Fisica classica l’Elettrodinamica quantistica.

    RispondiElimina
  5. A quale lavoro della Dott.ssa Peresan si riferisce? Io ho citato un libro del Prof. Panza e della Dott.ssa Peresan, assieme. Si riferisce a quello?

    Cosa la ha indotta a scrivere: "Mi è sembrato di capire che fra le conclusioni più significative, a mio modesto avviso, del lavoro della Dott.ssa Antonella Peresan sia quello di voler porre l’attenzione anche sul fatto che, a parità di magnitudo, sia necessaria una conoscenza il più possibile precisa della frequenza di accadimento di un evento sismico"? A me non risulta.

    Dice poi anche: "Concludo il mio pensiero: la Dot.ssa Peresan afferma che i parametri di progettazione antisismica non debbano essere scalati in funzione della maggiore o minore sporadicità dell’evento."

    Non solo la Dott.ssa Peresan. Guardi ad esempio qui

    https://www.ingenio-web.it/19118-un-piano-marshall-per-ladeguamento-delle-costruzioni-esistenti-in-zona-sismica


    Poi prosegue: "Su questa affermazione non avrei in linea di principio nulla da obbiettare ma - di nuovo per rispondere alla sua domanda - mi viene il dubbio su come valutare (in maniera quantitativa a questo punto) la “minore” dalla “maggiore sporadicità” di un evento."

    Ma se non è necessario valutarlo, e il Prof. Panza e la Dott.ssa Peresan dicono che in molti casi non è possibile e, quando è possibile, estremamente incerto, perché la vuole valutare quantitativamente per forza?

    Non capisco. Mi pare attribuisca al Prof. Panza ed alla Dott.ssa Peresan cose che non hanno detto. Se non si hanno i dati e se il fenomeno non è periodico, e non lo è, perché vuole calcolare per forza una "frequenza"? Che senso può avere fare la media su pochissimi incerti numeri, tutti diversi tra loro?

    Cordiali saluti
    Paolo Rugarli

    RispondiElimina
  6. Mi dispiace che abbia dato l'impressione di intavolare una polemica con Lei personalmente e anzi approfitto subito per ringraziarla ancora dello spazio concessomi sul suo Blog (anche troppo, mi sembra).

    Quanto da me scritto - e semplicemente ricordato qui - trova palese riscontro fra gli argomenti esposti in un convegno (ENEA) sulla "Sicurezza sismica degli impianti chimici a rischio di indidente rilevante" del 2013 tenuto a Roma dalla sismologa Peresan.

    Per cui - e qui proprio concludo - nella maniera più assoluta non ho attribuito alla Dott.ssa Peresan (in particolare) cose che non ha detto. Se ho citato nomi e cognomi, vuole dire che mi sono anche documentato, se non altro per una mera forma di educazione e rispetto nel citare nomi:(http://www.enea.it/it/seguici/events/sicurezza-sismica/20130207ENEAPeresanA.pdf). Quando ho espresso mie opinioni, ho sempre premesso che si trattava di argomentazioni opinabili e implicitamente discutibili.

    Un saluto, di nuovo grazie.
    C. Sigmund



    RispondiElimina
  7. Se Lei non cita il lavoro da cui attinge, ed il contesto e problema totalmente diverso al quale questo lavoro si riferisce, come si può capire che è uno diverso da quelli citati in precedenza? Ciò aumenta la confusione e rende impossibile capire.

    Le "previsioni a medio termine spazio temporale" sono una cosa totalmente diversa da quello di cui si è discusso nel mio post e fanno uso di metodologie suppletive rispetto al metodo NDHSA proposto per la determinazione della pericolosità sismica utile a fini di progettazione strutturale.

    Questi lavori hanno uno scopo ed un ambito di applicazione completamente diverso. Lo spiegano Panza e Peresan nel libro citato (non in un power point).

    In ogni caso, nel power point citato non trovo la affermazione secondo la quale la Peresan avrebbe detto che "a parità di magnitudo, sia necessaria una conoscenza il più possibile precisa della frequenza di accadimento di un evento sismico".

    Trovo invece scritto, nelle conclusioni:

    "Se si considerano dunque due siti A e B possibili sedi di terremoti della stessa magnitudo M, ovvero proni agli stessi effetti, a parità di tutte le altre condizioni, il sito dove la frequenza è minore risulta naturalmente preferibile. I parametri di riferimento della progettazione antisismica devono comunque essere uguali nei due siti, dato che la magnitudo da cui ci si deve difendere è la stessa"

    "Le mappe PSHA risultano fortemente dipendenti dalle
    ipotesi sulla ricorrenza dei forti terremoti, che sono
    caratterizzate da notevoli incertezze e spesso si rivelano
    errate."

    "Considerare la minore probabilità di occorrenza dei
    terremoti caratterizzati da un lungo periodo di ritorno è
    certamente un elemento interessante nella formulazione di
    strategie economicamente convenienti – tuttavia sottostima
    lo scuotimento sismico qualora si verifichi il forte terremoto"

    ---
    Questo cinque anni fa, prima dei sismi di Ischia e Amatrice-Norcia.
    In Panza e Peresan trovo scritto:

    "Se il numero delle osservazioni è basso, sebbene
    sia sempre possibile calcolare delle frequenze (come rapporto tra eventi aventi una certa natura e numero di eventi scambiabili totali), la significatività della promozione della mera frequenza a probabilità scema, e scema tanto più quanto più ridotto è il numero delle osservazioni."

    "Un’altra importante relazione dovuta Gutenberg e Richter lega il numero N di terremoti alla magnitudo, M. Tale relazione è alla base di tutte le stime di pericolosità di tipo PSHA. La relazione fra la frequenza e la magnitudo degli eventi (legge di Gutenberg-Richter) è ben nota e risulta soddisfatta, come legge, solo su scala globale. L’utilizzo di tale legge per la caratterizzazione dell’attività sismica in un volume spazio-temporale limitato risulta, infatti, molto problematico."

    ---
    Se ha interesse per meglio capire come funzionino le "previsioni a medio termine spazio-temporale" le suggerisco di leggere quando ha tempo il libro (non il power point) del Prof. Panza e della Dott.ssa Peresan pubblicato da EPC nella collana da me curata I Diagonali.

    Cordiali saluti
    Paolo Rugarli

    RispondiElimina
  8. Sicuramente ho frainteso il senso e lo scopo del suo Blog. Chiedo scusa.
    Devo ammettere che - pur volendo prescindere dai molti virgolettati e dai riferimenti ad altri lavori (che si potrebbero approvare al momento senza riserve perché ora degni non solo di nota) - non sono riuscito a capire il suo spassionato giudizio in merito o almeno una qualche sua critica perplessità; anche ad esempio solo qualitativa sul lavoro dei due studiosi che ha citato. Sarei (forse) portato a dedurre che Lei è pienamente d'accordo e non nutre il benché minimo dubbio o incertezza su quanto è in pubblicazione dalla EPC (?)

    Indiscutibilmente un perentorio giudizio apprezzabilissimo mi sembra che l'ha però dato, enfatizzando il fatto che basta un lustro per cambiare le premesse (dettate dagli stessi Autori). E già questo ha implicazioni interessanti su quanto di nuovo può essere in programma...

    Mi spiace solo di una cosa: tantissime righe di commento per non dirsi praticamente nulla di nuovo o di ulteriormente interessante (su quest'ultimo giudizio - personale - le chiedo subito scusa). Forse che bastava sistemare una bibliografia aggiornata o un bollettino per aggiornarci e sensibilizzarci tutti? Se la Geofisica - come afferma Lei - non è degli ingegneri, allora mi chiedo: che senso ha una sezione "commenti" su questo Blog? Personalmente, infatti, dubito fortemente che un commento lasciato su Blog (o su un Forum) possa avere la valenza di un articolo scientifico, ma sono sicuro che può dare impulso a un senso più critico anche agli Ingegneri (e forse, in questo caso, sarebbe veramente opportuno) oltre che ai Sismologi, Geologi, etc.

    In ogni caso, mi sento di ringraziarla delle precisazioni, sarà mio dovere tenerne conto. Approfitto anche per ringraziarla nuovamente per la sua gentile disponibilità.

    Cordiali saluti.
    Carlo Sigmund

    RispondiElimina
  9. Direi che basta, io ci rinuncio.

    RispondiElimina
    Risposte
    1. Spero che almeno le rimanga una po' di simpatia per me che le ho intasato il Blog...Sicuramente alla fine è stato utile, almeno per me: era da un po' che avevo perso l'incentivo a comprarmi qualche nuovo libro. :-)

      Elimina
  10. Bellissimo lavoro, seguo da qualche anno con interesse le sue pubblicazioni. Mondo accademico a parte, Lei sa benissimo che in trincea si combattono ben altre battaglie, forse più circoscritte ma altrettanto significative. Ce n'è per tutti i gusti, da "ingegne' quanto ferro mi hai fatto mettere" a "ingegne' l'altro tecnico metteva i pilastri 30 30", al mitico pollice down del carpentiere rivolto al manovratore dell'autobetoniera. Un popolo di tecnici e costruttori ha le norme che si meritano. Dopo 25 anni di difficile mestiere, ho capito che, una volta soddisfatte le fameliche prescrizioni di Legge, può finalmente cominciare l'opera di ingegno, momento in cui noi tecnici possiamo fare davvero la differenza nei confronti della natura.

    RispondiElimina
  11. Sono anche io del parere che la colpa è nostra. In un altro Paese, da tempo le cose sarebbero cambiate. La rassegnazione da una parte, la mal interpretata convenienza dall'altra, paralizzano ogni reazione.

    RispondiElimina
  12. Ing. Rugarli buongiorno,
    condivido pienamente il suo articolo, vorrei solo aggiungere che con la perdita della consapevolezza dei fenomeni fisici alla base del funzionamento di una struttura, alla quale siamo spinti dall'utilizzo di indecifrabili NTC e software col tempo si sta perdendo anche il Know How in campo strutturale del Paese.
    Ing. Danilo Di Senso

    RispondiElimina
    Risposte
    1. Sì, sono d'accordo anche su questo. Penso che tra qualche tempo (anno, lustro) se ne vedranno gli effetti.

      Elimina