martedì 18 settembre 2018

Le strane regole deontologiche degli ingegneri



Dopo il crollo del viadotto Morandi si sono aperte numerose questioni che necessitano di attente riflessioni e di drastici cambiamenti. Una di queste è il codice deontologico degli ingegneri.

   Esaminando le regole deontologiche degli ingegneri, si ha la sensazione che siano fatte più che altro per tutelare i committenti e per evitare che la categoria possa mai essere messa in discussione, obiettivo raggiunto frapponendo una nutrita serie di inutili paletti deontologici alla attività professionale.
   Il codice deontologico approvato dal Consiglio Nazionale degli Ingegneri, ed attualmente in vigore (reperibile qui), è una lettura sorprendente per chi non l'abbia ancora fatta e voglia calare queste regole nella trafila degli accadimenti che hanno preceduto il crollo del viadotto Morandi.
   Invano si cercherebbe una regola, da mettere certo tra le prime, che imponga all'ingegnere che per qualsiasi motivo sia venuto a conoscenza di una situazione pericolosa di darne immediata notizia alle autorità competenti. Al contrario, si trova una fitta rete di paletti che induce a più miti consigli chi avesse mai un simile desiderio.
   Io credo che questo codice deontologico debba essere immediatamente cambiato. Il primo dovere di un professionista competente che si imbatta in una situazione pericolosa, per qualsivoglia motivo, anche al di fuori di un incarico professionale,  deve essere dare immediata notizia del potenziale pericolo (anche ad una autorità pubblica, non solo ai proprietari o responsabili). E dovrebbe essere messo a punto un registro di queste segnalazioni. L'esistenza di una segnalazione inascoltata dovrebbe essere aggravante per i responsabili in caso di crollo.
   Non si può ragionare in termini di concorrenza quando c'è di mezzo la sicurezza. Invece, il codice dà proprio questa impressione.
   Ancora oggi manca, nella formazione dell’ingegnere, e nei suoi doveri deontologici, una indicazione sul comportamento da assumere quando per fondati motivi ritenga che esista un qualche pericolo, anche in assenza di uno specifico incarico. Solo al punto 18 dell’attuale codice deontologico del Consiglio Nazionale degli Ingegneri (dico diciotto) si legge (corsivo mio)
L’ingegnere è personalmente responsabile della propria opera nei confronti della committenza e la sua attività professionale deve essere svolta tenendo conto preminentemente della tutela della collettività.
Mentre, ben prima nel documento, è ben chiarito che un professionista non può mettere in cattiva luce un collega o la categoria. Nella sezione relativa ai doveri, al primo punto leggo (par. 3.1):
L’ingegnere sostiene e difende il decoro e la reputazione della propria professione.
Cosa che infatti sta accadendo in questi giorni, in cui il mondo professionale sembra più interessato alla difesa corporativistica della professione che all'accertamento della verità dei fatti. Ed ancora leggo:
L’ingegnere deve mantenere il segreto professionale sulle informazioni assunte nell’esecuzione dell’incarico professionale.
L’ingegnere è tenuto a garantire le condizioni per il rispetto del dovere di riservatezza a coloro che hanno collaborato alla prestazione professionale
E leggo ancora:
L’incarico professionale deve essere svolto compiutamente, con espletamento di tutte le prestazioni pattuite, tenendo conto degli interessi del committente.
E bisogna stare molto attenti a criticare i colleghi:
L’ingegnere deve astenersi dal porre in essere azioni che possano ledere, con critiche denigratorie o in qualsiasi altro modo, la reputazione di colleghi o di altri professionisti.
Ed inoltre:
In caso di subentro ad altri professionisti in un incarico l’ingegnere subentrante deve fare in modo di non arrecare danni alla committenza ed al collega a cui subentra.
Come sarebbe possibile per il professionista Rossi, porre rimedio ai guai del professionista Verdi? E per quale motivo se Verdi ha fatto gravi errori, si è dimostrato incompetente o temerario, Rossi dovrebbe evitare di danneggiarlo? Chi tutela questa regola, gli ingegneri competenti o quelli incompetenti (che esistono)?
   Questo codice deontologico tutela la categoria ed i committenti, non tutela in modo sufficiente i cittadini. Esso è incompatibile con uno Stato moderno, dove la trasparenza e la circolazione delle informazioni sono fondamentali. 


domenica 12 agosto 2018

Un nuovo inizio

Chi ha per molto tempo studiato una disciplina, passando ore ed ore sui libri, sperimentando nuove soluzioni, rendendosi conto di come funzionano quelle esistenti, ed approfondendo la comprensione delle regole che governano lo svolgersi di certi fenomeni, può avere la stessa autorevolezza e lo stesso identico diritto di parola, lo stesso peso specifico di chi, di quella disciplina, parla solo per aver orecchiato qualcosa qui e là, o magari letto su internet nei tre mesi precedenti?

Anche Homer Simson, se segue i corsetti di aggiornamento, può diventare un "ottimo professionista".


Nel nostro Paese, in questi tempi, sembra si siano smarriti i più elementari concetti di normale intelligenza, e così assistiamo a esperti medici immunologi costretti a difendersi da una massa di aggressioni sui social, ministri che coniano locuzioni contraddittorie come "obbligo flessibile", semi analfabeti che discettano di spread e di PIL, esperti in nulla che danno la linea a masse di persone disinformate.

La tendenza dura da decenni, ma il crescendo non ha sosta.

Qualcuno già sostiene che il problema è la democrazia, e si appresta a dimenticare le disastrose esperienze del '900, forse del resto neppure conosciute, riecheggiando slogan, idee, proposte e persino atteggiamenti che già comparvero ottanta o novanta anni fa, ignaro del disastro che poi seguì.

Forse la soluzione al dilemma è nella sostanziale differenza tra democrazia diretta e democrazia rappresentativa. La democrazia diretta è la incompetenza al potere. Miele per chi dispone degli strumenti per pilotare le masse ignoranti. D'altro canto, la democrazia rappresentativa in Italia è in crisi perché i rappresentanti hanno rappresentato se stessi, i loro parenti ed amici, non i loro elettori. Con risultati spaventosi, ovvero con lo slittamento verso forme di democrazia semplicistiche e sostanzialmente dannose.

L'arraffamento della Cosa Pubblica per utile personale è talmente diffuso, nel Paese, che non si poteva pensare che i Rappresentanti ne fossero immuni. Ma, almeno, questi Rappresentanti, una volta erano competenti, mentre da decenni in qua non lo sono più.

Io credo che sia ormai necessaria una crisi spaventosa come già in passato, affinché vengano ripristinate le corrette linee di precedenza, e le numerose persone serie e preparate nei loro rispettivi campi possano finalmente avere un peso nella decisione delle regole e della loro applicazione.

Una crisi che faccia comprendere a chi ha dimenticato che la competenza è fondamentale, alcuni semplici concetti, e che ripristini l'ovvio: le persone incompetenti devono tacere se dell'argomento di cui si parla non hanno conoscenza.

Così, in un battibaleno, l'ottanta per cento dei posti dovrebbe essere riassegnato, giacché siamo pieni  di persone incompetenti nei posti di comando.

L'ingegneria non fa eccezione, ma questo discorso non è specificamente legato al mondo ingegneristico, o ai Ministri per le Infrastrutture, o alle altre strutture dello Stato deputate alla cura ed emanazione delle normative.

Ormai questo discorso riguarda tutti i settori del Paese. E' urgente che una grave crisi porti a comprendere che non si può affidare la complessità alle sovra semplificazioni, agli slogan, e che non possiamo più permetterci di prendere a calci nel sedere le nostre menti più brillanti.

Solo uno shock potrà ormai far comprendere a quanti credono nelle soluzioni semplicistiche che le loro soluzioni sono inadeguate e che peggiorano la situazione. Un grave shock, che però, come la Storia insegna, potrebbe anche portare a qualcosa di molto brutto. Sono tra quelli che pensano che la mina del debito pubblico stia per scoppiare, e che in questo apparentemente cheto Paese possano nuovamente scatenarsi forze bestiali e prive di controllo.

Non ci sono politici in vista che siano realmente credibili. Ma ci sono moltissime persone per bene e competenti che potrebbero fare bene al Paese, e che, nel momento del disastro, potrebbero finalmente essere chiamate a svolgere un ruolo, come del resto avvenne dopo il 25 Aprile 1945.


mercoledì 28 febbraio 2018

Norme Tecniche per le Costruzioni 2018

Much Ado About Nothing

[presentazione del volume NTC 2018, EPC Editore, Roma 2018]
 
di Paolo Rugarli



Dopo 10 anni praticamente esatti dalla emanazione delle Norme Tecniche per le Costruzioni del 2008, vedono quest’anno la luce le NTC 2018.
Nel 2008 questa casa editrice pubblicò il testo della norma con un software allegato, ed in seguito pubblicò il testo della Circolare uscita nel 2009 organizzando i contenuti in modo armonico e coordinato. Al momento in cui esce questo volume, la Circolare relativa alle NTC 2018 non è ancora disponibile.
In quanto segue, ritenendo di fare cosa utile al lettore, verranno riepilogati e sottolineati alcuni aspetti legati alla emissione delle nuove norme, considerati alla luce della situazione attuale del Paese.
Pericolosità sismica della normativa
Nel 2008 fummo i primi a segnalare alcune rilevanti questioni attinenti al modo in cui la pericolosità sismica veniva valutata dalla norma, e segnalammo i problemi derivanti da quelli che furono poi chiamati street effect e room effect (Rugarli 2008), quest’ultimo poi corretto dalla Circolare del 2009. In sostanza le NTC 2008 furono a ragione accusate di essere ingannevolmente “precise”, e di pretendere di calcolare con meticolosità inutile (ancorché “probabilistica”) azioni sismiche derivanti da metodi sostanzialmente imprecisi, incerti e molto discutibili.
Dopo dieci anni e molto studio possiamo anche dire: infondati.
               Da allora, molto lavoro e molti approfondimenti sono stati fatti, e anche qui, per questi stessi tipi, sono stati pubblicati importanti contributi al dibattito in corso sulle normative (Panza e Peresan 2016, Pierotti 2016, Spagnuolo 2014, Rugarli 2014). Molti lavori e articoli scientifici e divulgativi si sono resi disponibili altrove. Se all’inizio del 2008 agli ingegneri preparati balzava all’occhio la evidente discrasia tra la precisione dei numeri in Gazzetta Ufficiale e la traballante fortunosità dei sistemi usati per ottenerli, oggi, nel 2018, lo sconcerto deve purtroppo essere più forte, dato che sono numerosi i nuovi strumenti informativi e divulgativi e le verifiche sperimentali sismiche, a diretta confutazione di quei numeri.
La GU del 4-2-2008 era un tomo pesante 1300 grammi. Delle 653 pagine di quella Gazzetta Ufficiale, circa duecento erano piene di numeri iperrealisticamente precisi e ordinatamente incolonnati, confermati dalla presente normativa 2018. Quei numeri potevano già allora considerarsi stupefacenti, per la loro stessa forma e modalità di presentazione. “Periodi di ritorno” di “101”, “140”, “201”, “475”, “975” o “2475” anni, non uno di più o di meno, scuotimenti con tre o quattro cifre dopo la virgola e formule di interpolazione per distillare altri numeri intermedi: qualcosa di veramente incredibile. Tuttora in vigore.
               Da allora si è verificato un proficuo corto circuito tra ingegneri non soddisfatti della pericolosità sismica delle norme tecniche (è il caso di dire), ed i geofisici, i sismologi ed i geologi ben consapevoli della illusorietà ed inattendibilità della metodologia probabilistica denominata internazionalmente con l’acronimo “PSHA” (Probabilistic Seismic Hazard Assessment), nonché dei suoi apodittici ed non verificati paradigmi pseudo scientifici.
               Ma il normatore italiano è stato, ed è, sordo. Non solo a parte degli studiosi, ma anche ai terremoti.
               Concetti e terminologie del tutto ingannevoli per la popolazione civile ed i non esperti, come “periodo di ritorno”, “vita nominale restante”, “perdita annua media”, “probabilità di superamento”, che sarebbero tutti da abbandonare per essere sostituiti da più serie e sincere metodologie e terminologie, si sono così radicati nella pratica tecnica, e purtroppo siamo stati e siamo, ancora oggi, tutti obbligati a usarli.
Queste normative e quelle che le hanno precedute causeranno un ingente ritardo al Paese, che, a differenza di altri che usano gli stessi metodi errati, e che magari li hanno inventati, è molto vulnerabile ai terremoti. Se non si vuole considerare la realtà di quanto può succedere, come potranno i sistemi strutturali essere efficaci? Se le NTC non calcolano probabilità e scuotimenti attendibili, come esse possono basare tutti i calcoli sismici, persino quelli di consolidamento dell’esistente, su tali “probabilità” e scuotimenti?
Purtroppo non si può nemmeno osservare che “mal comune mezzo gaudio”, non solo perché il Paese è particolarmente vulnerabile, ma anche perché vi è uno specifico della Nazione Italiana ed è il suo gigantesco patrimonio storico e artistico, che viene sistematicamente e colpevolmente lasciato in balia dei sismi sempre “sorprendenti”, a differenza di quanto avviene in Nazioni meno artisticamente ricche, ma più protette (si pensi alla basilica di Norcia o a quella di Assisi, ferite aperte nella coscienza civile del Paese). Inoltre, il conformismo apparentemente molto evoluto di certa parte del corpo accademico, ha ritenuto inevitabilmente necessario accogliere praticamente senza discussione metodologie pensate per edifici regolari in acciaio o cemento armato losangelini, fatti ex novo da esperti, calandole invece su edifici irregolari e vetusti in cemento armato, spesso progettati per le sole azioni verticali, e, soprattutto, sui nostri borghi antichi e sulle nostre città uniche.
               Uno dei primi obiettivi, per curare un male, è diagnosticarne realisticamente la gravità. Ed è appunto qui che i metodi di norma mancano drammaticamente lo scopo. Questa norma, come la precedente del 2008, come anche le precedenti del 2005, del 2003, ed ancora prima del 1996, e via via indietro nel ‘900, non ci dicono la verità in merito alla severità di ciò che può colpirci, né in merito alla possibilità che ciò avvenga domani, o dopodomani o il giorno successivo. La disastrosa presunzione di elencare i comuni “sismici”, tipica delle norme del secolo scorso, è parente stretta della disastrosa presunzione di dare le “probabilità di superamento” di scuotimenti con tre o quattro decimali, o di valutare il “periodo di ritorno” corrispondente a una certa “probabilità”.
               Negli ultimi centocinquant’anni, la tipologia delle costruzioni è drasticamente cambiata (edifici mediamente più alti, a massa elevata benché spesso strutturalmente esili, con più persone, più addossati, costruiti spesso in zone mai edificate nella storia e soggette a fenomeni di amplificazione, con tecniche molto spesso sismicamente del tutto inadeguate), mentre la loro concentrazione è enormemente aumentata (a causa della rapida industrializzazione e dell’inurbamento), così che il Paese semplicemente non può più permettersi di sottostimare azioni che oggi, molto più di ieri, possono causare disastri immani, tali da metterlo in ginocchio.
E’ responsabilità morale e professionale delle persone consapevoli mettere in guardia la società civile, cosa che questa norma a nostro parere non fa. E’ paradossale che proprio le azioni più incerte e potenzialmente disastrose siano quelle per le quali maggiore è la pretesa precisione di input: più cifre significative, formule che legano “probabilità” e “periodi di ritorno”, formule per calcolare le intensità per qualunque “periodo di ritorno” partendo da numeri con tre o quattro cifre significative. Le azioni più incerte e ignote sono quelle definite con più “precisione”.
               Troppe cose si sarebbero dovute cambiare, per voler abbandonare PSHA. Inoltre, l’abitudine e la conseguente semplicità consistente nel ripetere le cose note (pur se notoriamente errate), fanno il resto. Come già spiegato da Kahneman (Kahneman 2011) e ricordato altrove (Rugarli 2014) gli esseri umani sono avari cognitivi, non vogliono faticare per imparare o fare qualcosa di nuovo.
               Totalmente diverso è il metodo neodeterministico NDHSA (Neo Deterministic Seismic Hazard Assessment), messo a punto da una équipe di studiosi della Università di Trieste raccolti intorno al geofisico Giuliano Panza. Questo metodo amplia di molto l’insieme dei fenomeni tenuti in conto, per esempio il percorso sorgente-sito, senza fortunose relazioni di attenuazione (spesso chiamate impropriamente leggi), o le possibili zone sismogenetiche non ancora manifestatesi, e fondatamente e con ragione amplia  di molto la forbice delle incertezze e delle relative cautele facendo uso di inviluppi. La norma, questa norma, ne accenna in un capoverso di tre righe al §3.2.3.6  là dove parla di “storie temporali generate mediante simulazione del meccanismo di sorgente e di propagazione”, consentendone l’uso.
               Anche per questo, alcune amministrazioni pubbliche si sono mosse autonomamente, affiancando ai metodi probabilistici quelli neodeterministici. Per esempio la Provincia di Trieste (Comunicati e Notizie, Società Geologica Italiana, 2015) o la Soprintendenza di Venezia per la biblioteca marciana (Beni Culturali Regione Veneto – Prevenzione Sismica in Area Veneta). Nel corso di importanti convegni pubblici (Accademia Nazionale dei Lincei 2015), si sono potute udire forti critiche a PSHA, anche da un allora membro della Commissione Grandi Rischi, che ha poi rincarato la dose nel 2017 (Mulargia Stark e Geller, 2017).
               Ma soprattutto, più ancora di questo, dal 2008 ad oggi hanno parlato i terremoti.
 L’Aquila: 2009. Emilia: 2012. Amatrice-Norcia-Visso: 2016 e 2017.
Norcia, colpita da un terremoto nel 1979, e poi nel 1997, nell’agosto del 2016 ha subito ancora danni, ed è stata infine ulteriormente colpita da una nuova forte scossa il 30 ottobre 2016. Se dopo i sismi del 1979 e del 1997 si fosse consolidato con valutazioni più realistiche delle intensità attese, i danni attuali sarebbero stati minori. NDSHA ha indicato con buon accordo quanto registrato il 30 ottobre (Fasan et al. 2016). I modelli probabilistici hanno invece completamente fallito, sia in merito alla severità sia in merito alla frequenza delle azioni sismiche.
Dal 2008 ad oggi ciò è accaduto anche all’estero in moltissimi casi, i più rilevanti dei quali sono indicati nella tabella 1. Si ricorda che una differenza di 1 in magnitudo corrisponde a energie liberate 32 volte superiori, una differenza di 2 una differenza di 1000 volte.
Data
Luogo
Morti
DM
12 maggio 2008
Wenchuan (Sinchian, Cina)
75000
1.9
30 settembre 2009
Padang (Sumatra meridionale, Indonesia)
1100
1.3
12 gennaio 2010
Port Au Prince (Haiti)
220000
1.2
13 aprile 2010
Qinghai, Cina
3000
1.4
11 marzo 2011
Töhoku (Giappone)
20000
2.2
Tabella 1. Sismi catastrofici dal 2008 ad oggi: data, luogo numero di morti. DM è qui la differenza tra magnitudo misurata e quella indicata con i metodi probabilistici PSHA da GSHAP, Global Seismic Hazard Assessment Program (dati citati da Panza e Peresan 2016, tratti da Kossobokov e Nekrasova, 2012)
               Ed è precisamente qui che il dovere professionale obbliga a prendere una posizione netta ed impedisce di volgere lo sguardo altrove.
               In Italia gli scuotimenti misurati sono stati molto superiori a quelli indicati come riferimento dalla norma, come intensità e come frequenza. A questa circostanza oggettiva alcuni hanno opposto fumosi ragionamenti probabilistici, sostenendo che sì, c’era pur sempre una certa “probabilità” che ciò avvenisse, in tutti i casi; e sostenendo che per poter dire che i metodi di norma sbagliano sarebbero necessarie altre migliaia di anni. Singolare ragionamento che blinda a vita ogni errore rendendolo di fatto non contrastabile.
Noi riteniamo invece che ci si debba appellare al rasoio di Occam, che impone di scegliere la soluzione più semplice e nitida: che si debba chiaramente dire che le norme sono sbagliate. Né possiamo attendere migliaia di anni perché venga riconosciuto l’ovvio. Se normative di ingegneria civile fissano delle azioni che vengono gravemente superate a uno, quattro ed otto anni di distanza dalla loro emanazione, è necessario prendere atto che le norme sono ottimistiche e che devono essere cambiate.
               Ma le norme 2018 che qui stampiamo non hanno cambiato nulla di tutto questo.
Gli esperti consapevoli della gravità della situazione dovrebbero prendere risolute iniziative tese a preparare, sin da subito, norme di tipo diverso. I politici dovrebbero ascoltare.
               Né a qualcosa vale dire che la emanazione delle nuove norme, e dei rispettivi livelli di scuotimento, non può influire sulle prestazioni degli edifici esistenti. Infatti, lo Stato sta cercando di investire molti soldi pubblici per favorire azioni di consolidamento basate su valutazioni spesso molto ottimistiche, e quindi si può ben dire che tali azioni di consolidamento, basate su input sismici probabilistici, costituiscono un grave rischio ed un potenziale spreco di risorse, come si è visto a Norcia, nuovamente da ricostruire. Inoltre, anche a prescindere dalle azioni di consolidamento, il livello di scuotimento di riferimento dà una chiara indicazione alla popolazione civile e contribuisce, insieme con la terminologia delle norme, che dovrebbe essere trasparente e sincera, e non ingannevole, a costituire quella consapevolezza civile del pericolo che è alla base di ogni futura azione di mitigazione.
               E’ stato detto che la norma attuale garantisce “meno rischi per tutti anziché più sicurezza per pochi”. Ma i rischi non sono eguali per tutti, e diminuire un rischio basso o bassissimo non è come diminuire un rischio alto o altissimo. Il rischio sismico non è “democratico”, esistono priorità e urgenze che andrebbero valutate con criteri generali prudenziali e non illusoriamente precisi. Inoltre un tale slogan, di sapore vagamente sessantottino, mal si coniuga con la certezza che i metodi probabilistici della normativa sono, sic et simpliciter, sbagliati. La dispersione di denaro pubblico al fine di disseminare a pioggia interventi anche di mero maquillage basati su azioni errate perché spesso sottostimate, è un grave danno. E’ giusto consolidare e incentivare i consolidamenti, ma sulla base di informazioni realistiche.
               La politica sostanzialmente seguita dallo Stato nell’impiegare PSHA (e prima di esso la classificazione sismica basata sui meri cataloghi storici) è stata la seguente: assumere che su grandi numeri, progettare scommettendo sulla rarità dei terremoti e sulla loro intensità “probabilistica” avrebbe garantito ampi risparmi. Infatti, secondo questo cinico ragionamento, se è vero che ogni tanto qualche centro è colpito dal terremoto, e per esso le progettazioni di norma possono rivelarsi inefficaci, è anche vero che per tutti gli altri centri non colpiti il ragionamento comporta elevati risparmi.
Questo ragionamento è sbagliato almeno per queste ragioni.
               In primo luogo la stima probabilistica PSHA è fallata ed inattendibile. Di conseguenza sono inattendibili tutte le valutazioni globali di costi e risparmi basate su di essa. In particolare, lo stesso concetto di “perdita annua media”, applicato a un fenomeno intrinsecamente singolare e distruttivo, appare risibile.
               In secondo luogo, i costi complessivi necessari a creare ex novo edifici antisismici dipendono solo blandamente dalla severità del sisma. Allo stesso modo, un adeguamento a valori più alti di scuotimento non comporta uno stravolgimento dei costi. Sempre più ciò sarà vero tanto più sarà incentivata la ricerca in questo settore, pensando allo specifico italiano e non alle situazioni verificabili altrove (il tema per noi è: proteggere edifici esistenti irregolari, fragili ed in calcestruzzo armato, progettati con N/A<sadm o poco più, e proteggere edifici in muratura).
               In terzo luogo, lo Stato si è sostituito al Cittadino, fornendogli informazioni scorrette. I privati o gli imprenditori che ritengono utile spendere di più, per avere costruzioni e stabilimenti produttivi propri più sicuri, sono indotti in errore da normative non adeguatamente sincere sulla gravità del pericolo. Si tratta, in quel caso, di soldi privati, e non si soldi dello Stato, che anzi avrebbe un ritorno nell’incentivare soluzioni più sicure. Infatti è lo Stato che deve poi intervenire, non i privati. Dunque il ragionamento economico non quadra perché quando si costruisce non è quasi mai dei soldi dello Stato che si parla. Inoltre, si pone un problema di trasparenza verso i Cittadini, che non sono adeguatamente informati, ma anzi, sono indotti in errore dalla terminologia della norma e dal fiorire di apparente precisione collegata ad essa: di qui le tanto criticate sentenze della magistratura.
               In quarto luogo, un effetto collaterale della sottovalutazione probabilistica, è che in Italia non vi è la percezione del rischio sismico. A parte le popolazioni colpite, che si trovano in situazioni difficilissime, nel normale sentire il pericolo sismico non esiste. I calcoli “antisismici” sono ancora visti come una cosa esotica e sperimentale che può essere elusa, e chi ne invoca la necessità nella quiete del tran tran di tutti i giorni è considerato uno iettatore o un seccatore. Il sisma è “improbabile”, ha lunghi “periodi di ritorno”, e quindi non esiste.
               In quinto luogo, i costi complessivi non sono lineari, non derivano dalla sommatoria di costi sempre sopportabili. Non è detto che ci siano sempre centri piccoli o medio piccoli ad essere colpiti, qui e là. Se fosse severamente colpita una città di media o grande importanza, con molti abitanti, il danno allo Stato potrebbe essere così alto da far saltare il banco (l’Aquila, pur importantissima, aveva “solo” 70.000 abitanti al momento del sisma). Un simile rischio è semplicemente troppo alto da accettare per un Paese avanzato.
               In sesto ed ultimo luogo, il tempo gioca per i terremoti, non per la Repubblica. Sia perché scosse piccole o medie ripetute possono avere sulle costruzioni effetti cumulativamente disastrosi (un fatto, questo, assai poco indagato), sia perché la vita reale delle costruzioni è molto, molto più lunga di quella convenzionale delle NTC e in Italia l’abbattimento di edifici vetusti è quasi assente.
               E’ dunque necessaria ed urgente una inversione di rotta.
               Nell’intento di fornire ai nostri lettori un’informazione più completa nella direzione necessaria, abbiamo deciso, non senza attente riflessioni, di fornire in questo stesso testo informazioni alternative. Quindi, nell’appendice di questo volume è fornita una mappa neo-deterministica degli scuotimenti di riferimento al substrato roccioso, ed il software che già nel 2008 fu allegato al volume è stato aggiornato per fornire, oltre ed a fianco della valutazione della PGA probabilistica, la stima neo-deterministica dell’intervallo di accelerazioni di progetto, al bedrock.
Viene fornito un intervallo e non numero preciso, perché se si vuole essere franchi esistono ineludibili incertezze che non consentono di varcare certe precisioni; intervalli, e non valori precisi, perché solo tenendo in conto appropriatamente anche degli strati superficiali del sito è possibile ottenere in ambito NDSHA spettri di inviluppo utilizzabili per il progetto e denominati MCSI, Maximum Credible Seismic Input (Fasan et al. 2015 e 2017).
               Nel far questo riteniamo utile che i progettisti possano avere più informazioni e che possano, se lo ritengono, integrare le azioni valutate con i criteri probabilistici della normativa, con criteri di ben diversa solidità fisica e capacità di inviluppo.
La NTC 2018 nel contesto generale del Paese
Come già argomentato altrove (Rugarli 2014) le nostre norme tecniche hanno questa specifica caratteristica, tutta italiana: da un lato esse vogliono essere precise, in linea con i metodi più recenti e con i formati delle normative europee, dall’altro esse possono essere applicate praticamente da chiunque sia dotato di una opportuna protesi software.
Senza software, il Convitato di Vetro (Spagnuolo 2014), non si fa un bel nulla, e questo fatto è ormai accettato senza peraltro che siano presi provvedimenti atti a favorire la programmazione in software delle norme in modo corretto e generale. In effetti, questo delicato lavoro, che spesso cozza contro paragrafi inapplicabili perché scritti male, è interamente demandato alle software house del Paese. Talvolta insufficienti, altre volte eroiche.
               Dato che nel nostro Paese i veri esperti di ingegneria strutturale sono una modesta minoranza, sarebbe stato abbastanza utile predisporre due strategie contemporanee adatte alle specificità del Paese: in primo luogo formare più ingegneri strutturisti o assimilati, in secondo luogo predisporre norme o regolamenti di più facile uso, limitandone la applicazione a strutture più semplici, o standardizzabili, o di minor rischio.
Nulla di tutto questo.
               Da questo punto di vista le NTC 2018 non muovono un passo. E’ considerato di fatto preferibile che usando opportuni strumenti software dei quali spesso non viene compreso gran che, le più disparate figure professionali eseguano complessi calcoli sismici dei quali difficilmente viene compreso il reale significato, anche là dove, a ben vedere, basterebbero calcoli molto più semplici e regole standard alle quali uniformarsi.
               Questa circostanza, coniugata con il fatto che lo Stato sana periodicamente costruzioni abusive prive di alcun progetto (le ultime ed ennesime proposte elettorali di sanatoria sono recentissime), e delle quali non si sa nulla, porta ad un notevole sconcerto per l’evidente strabismo con cui viene considerato il problema della sicurezza strutturale in Italia. A riprova di ciò, i frequenti crolli dei quali è punteggiata la cronaca degli ultimi anni, e che testimoniano indirettamente uno stato di cose abbastanza grave, verso il quale ben poco sembra essere stato fatto.
               Sempre più chiusi nella loro torre di avorio che indica discutibili e complesse procedure atte a ottenere certe prestazioni strutturali, i normatori italiani non sembrano essersi accorti o non considerano come un loro problema il fatto che fuori, in Italia, sia il Far West, e che tutte le dettagliatissime prescrizioni (in una norma detta prestazionale), servano a ben poco se poi il resto è in dissesto.
               Sarebbe quindi meglio, per il nostro complicato Paese:
  1. Come normative di riferimento di dettaglio riferirsi agli Eurocodici ed ai relativi annessi nazionali, senza costosi ed inutili distinguo se non là dove necessario (ad esempio per la pericolosità sismica, gli edifici esistenti o la tutela del patrimonio artistico e monumentale, qui è necessario). Quindi, abolire le NTC così per come sono oggi concepite, e sostituirle con “Si adottano gli Eurocodici Strutturali e i relativi Annessi Nazionali, ad eccezione di questi e questi punti”.
  2. Emanare linee guida, non leggi, come riferimento per classi di strutture semplici e ben delimitate, che possano essere applicate e verificate a mano o quasi, senza l’ausilio di alcuno strumento software complicato, tenendo conto delle professionalità che il Paese si ritrova davvero a disposizione, e non delle poche centinaia di veri esperti. Quindi, generare svariate linee guida specifiche e dichiaratamente semplificate. Contrariamente alle apparenze, ciò migliorerebbe e non peggiorerebbe moltissimi calcoli e progetti.
  3. Emanare dettagliate e comprensibili linee guida o commentari che uniformino l’interpretazione da dare agli Eurocodici e siano di riferimento per le software house che sostengono il fondamentale compito di rendere applicabili le disposizioni di legge. Tali linee guida dovrebbero essere redatte da gruppi di lavoro prescelti solo in base alle competenze effettivamente dimostrate sul campo, e non in base ad altri discutibili criteri. Molte software house sono perfettamente in grado di implementare le norme seguendo interpretazioni ragionevoli, ma ciò non garantisce la uniformità.
 
Il raffronto tra versioni diverse della normativa
Sebbene non si possa dire che le norme NTC 2018 costituiscano uno stravolgimento rispetto alle NTC 2008, perché gli aspetti di maggiore importanza, quelli che veramente avrebbero potuto cambiare significativamente le cose, come abbiamo visto, sono rimasti sostanzialmente inalterati (Much Ado about Nothing: Molto Rumore per Nulla), l’esame comparato dei due testi mostra una miriade di variazioni, non sempre realmente significative, anzi spesso puramente estetiche, ma talvolta assai significative, che stanno ad indicare un protratto lavoro di cesello, anche su questioni che dovrebbero essere chiare da tempo.
Qualcuno ha già cercato di enumerare le principali differenze, e quindi si è detto ad esempio della (benvenuta) definizione di robustezza e durabilità, della abolizione delle tensioni ammissibili, dell’atteso adeguamento del minimo per il fattore di comportamento a q=1,5 come da anni nell’Eurocodice 8, e della definitiva cancellazione dei riferimenti alle zone sismiche, ma su cosa sia una differenza “principale” è lecito opinare. Preferiamo quindi non enumerare le “principali differenze”, perché potremmo omettere delle differenze sostanziali per qualche lettore, come gli esempi seguenti dimostrano. Talvolta piccole modifiche portano a grandi conseguenze.
               Per favorire i lettori della norma, certo anche alle prese con un periodo di interregno tra le due NTC, abbiamo posto nel CD allegato dei file PDF ottenuti confrontando capitolo per capitolo il testo del 2008 con il testo del 2018. Comparando attentamente i due testi, si possono fare scoperte interessanti. Ovviamente non è questa la sede per enumerare la foresta delle variazioni: ciascuno, grazie ai file sul CD, lo potrà fare nelle aree di proprio interesse.
               Al fine di illustrare la natura delle osservazioni fatte poc’anzi, valgano alcuni esempi tratti dai capitoli 2 e 3.
 
§2.3 NTC 2008: Per la valutazione della sicurezza delle costruzioni si devono adottare criteri probabilistici scientificamente comprovati.
§2.3 NTC2018: cancellato.
Non è più necessario che i metodi probabilistici siano scientificamente comprovati. Si possono dunque usare metodi probabilistici scientificamente infondati, o semplicemente metodi probabilistici. Dato che le NTC 2008 riportavano esplicitamente il requisito della “scientificità” e ora non più i casi sono tre:
  1. Si è ritenuto che la scientificità fosse ovvia precondizione e si è tolto un paragrafo ridondante. Strano ma possibile.
  2. Si è ritenuto che fosse ormai comprovata la non scientificità di alcuni dei metodi in uso e si è corsi ai ripari: verosimile.
  3. Si è ritenuto che la scientificità fosse una condizione in generale opzionabile o discutibile (cosa è scientifico? Chi siamo? Dove andiamo?). Quindi la si è tolta di mezzo.
Al lettore il giudizio.
 
§2.3 NTC2008: nulla
§2.3 NTC2018: Il valore di progetto delle azioni agenti sulla struttura Fd è ottenuto dal suo valore caratteristico Fk inteso come frattile della distribuzione statistica o come valore caratterizzato da un assegnato periodo di ritorno […].
Il “periodo di ritorno” viene quindi ad essere formalmente definito come alternativa valida al valore caratteristico, introducendo in modo solenne, a livello di definizione delle azioni, il concetto che queste possano soddisfare questo discutibile modello pseudo scientifico. E’ quindi fatto assurgere a livello di definizione generale delle azioni, nella Gazzetta Ufficiale della Repubblica, il pregiudizio del tacchino induttivista di Russel, per di più in totale assenza di dati atti a consentire la induzione. La realtà è dunque forzata per legge ad adempiere al modello.
 
§2.4.1 NTC2008: La vita nominale di progetto di un’opera strutturale VN è intesa come il numero di anni nel quale la struttura, purché soggetta alla manutenzione ordinaria, deve poter essere usata per lo scopo al quale è destinata.
§2.4.1 NTC2018: La vita nominale di progetto VN di un’opera è convenzionalmente definita come il numero di anni nel quale è previsto che l’opera, purché soggetta alla necessaria manutenzione, mantenga specifici livelli prestazionali.
Si aggiunge il “convenzionalmente” che tradotto vuol dire “è ovvio che la vita reale della costruzione non c’entra nulla”. Si accenna ai “livelli prestazionali” per ossequio al fatto che le norme sono appunto “prestazionali”. Cosa vuol dire questo nel caso sismico, dato che tutte le “probabilità” e gli scuotimenti sono affetti da errori di base significativi ? Che la norma fissa livelli di azioni arbitrari, che poi servono a misurare le “prestazioni” delle strutture rispetto ad essi. Se sono infondate o puramente convenzionali le azioni, e lo sono, è anche infondato o puramente convenzionale il calcolo delle “prestazioni”.
 
§2.4.1 NTC2008: nulla.
§2.4.1 NTC2018: Le verifiche sismiche di opere di tipo 1 o in fase di costruzione possono omettersi quando il progetto preveda che tale condizione permanga per meno di 2 anni.
La indicazione era presente nella Circolare del 2009 (C.2.4.3), ma non nella normativa. Ora invece è accolta nel testo della norma, insieme con la cancellazione della vita di riferimento minima di 35 anni (vedi sotto).
Ciò è da notare perché implicitamente fa entrare le “probabilità” in senso potenzialmente disastroso: implica che per queste strutture di tipo 1 temporaneo o provvisorio (o per le strutture in fase di costruzione), il terremoto non arriverà di sicuro (in senso probabilistico). Poniamo che fosse stata costruita una cosa simile a meno di due anni dal sisma de L’Aquila, o dell’Emilia o di Amatrice Norcia Visso, in quei siti. Nessuna verifica sismica da fare. Ciò ricorda il tragico “è improbabile che ci sia a breve una scossa come quella del 1703 pur se non si può escludere in maniera assoluta” (31-3-2009 verbale della Commissione Grandi Rischi riunitasi a L’Aquila. Il terremoto arrivò sei giorni dopo). Qui invece è stato escluso in maniera assoluta. Perché questa temerarietà? Perché la “probabilità” che avvenga un sisma con “periodo di ritorno” di 475 anni nei prossimi due anni è bassa, secondo il paradigma di norma. E perché? Perché se la “probabilità” è del 10% in 50 anni, essa, grosso modo, è dello 0.4% circa in due anni. Come dire che tirando un dado con 475 facce (e “periodo di ritorno” 475 lanci) la probabilità che esca il numero 2 in due lanci è circa 0.4%, mentre se lo tiro cinquanta volte è circa 0.1[1]. In alternativa a questo ragionamento con dado “pesante” da 475 facce (un sisma severo), si può fare un ragionamento probabilistico su un dado “leggero” a due facce (“periodo di ritorno” due lanci, un sisma blando). Qui il numero 2 uscirà in due lanci con il 75% di probabilità[2], ed il quattro lanci con il 93,75% di probabilità. Ma è un sisma/dado piccolo, e quindi sopportabile. E’ appena il caso di dire che i fenomeni sismici non giocano ai dadi, non seguono le regole dei dadi che invece la normativa segue. I sismi arrivano quando lo decidono loro, non quando lo decidono le NTC.
 
§2.4.3 NTC2008: Se VR [la vita di riferimento per il calcolo delle azioni sismiche] è minore di 35 anni, si pone comunque VR = 35 anni.
§2.3 NTC2018: Nulla.
Nella Circolare del 2009 era scritto che la prescrizione era stata messa “per assicurare alle costruzioni un livello di sicurezza antisismica minimo irrinunciabile” (C2.4.3). A distanza di nove anni vi si è rinunciato. In questo modo si possono gestire vite di riferimento a fini sismici di 15 o 10 anni, o anche meno (sino a 5), con conseguente ulteriore diminuzione delle azioni sismiche stesse. Tale diminuzione delle azioni sismiche di norma, a sua volta, potrà più facilmente consentire di considerare adeguate o migliorate strutture in realtà a rischio. La direzione è dunque quella di creare molti calcoli ingannevoli, tesi a sdoganare situazioni che altrimenti diventerebbero difficili e richiederebbero appunto di fare quello che manca al Paese: considerare le azioni sismiche normali azioni come tutte le altre. Questo trucco computazionale consente di non porsi il problema sismico in molti casi.
 
§3.2 NTC2008: Le azioni sismiche di progetto, in base alle quali valutare il rispetto dei diversi stati limite considerati, si definiscono a partire dalla “pericolosità sismica di base” del sito di costruzione. Essa costituisce l’elemento di conoscenza primario per la determinazione delle azioni sismiche.
§3.2 NTC2018: Le azioni sismiche di progetto, in base alle quali valutare il rispetto dei diversi stati limite considerati, si definiscono a partire dalla “pericolosità sismica di base” del sito di costruzione e sono funzione delle caratteristiche morfologiche e stratigrafiche che determinano la risposta sismica locale.
La pericolosità sismica di base del sito di costruzione non è più “l’elemento di conoscenza primario”. In effetti, se si usano terremoti presi da banche dati internazionali, riscalati e modificati con procedure numeriche della più varia specie e tipo, sarebbe lecito chiedersi se e quanto resti della “pericolosità sismica di base” proprio del sito di costruzione. La cancellazione della specifica rende oggettivamente più libera la scelta di un input sismico. Solo gli effetti locali, e non gli specifici effetti legati al tragitto sorgente-sito, sono considerati influenti, ma non è così.
 
§3.2.3.6 NTC2008: L’uso di accelerogrammi generati mediante simulazione del meccanismo di sorgente e della propagazione è ammesso a condizione che siano adeguatamente giustificate le ipotesi relative alle caratteristiche sismogenetiche della sorgente e del mezzo di propagazione.
§3.2.3.6 NTC2018: L’uso di storie temporali del moto del terreno generate mediante simulazione del meccanismo di sorgente e della propagazione è ammesso a condizione che siano adeguatamente giustificate le ipotesi relative alle caratteristiche sismogenetiche della sorgente e del mezzo di propagazione, e che negli intervalli di periodo sopraindicati, l’ordinata spettrale media non presenti uno scarto in difetto superiore al 20% rispetto alla corrispondente componente dello spettro elastico.
Questo paragrafo consente l’uso dei sistemi neodeterministici, ma ora impedisce che questi diano scarti medi superiori del 20% rispetto allo spettro elastico di norma (“probabilistico”, con un dato “periodo di ritorno”, tutto da stabilire), in tutto un vasto intervallo di periodi. La delimitazione del 20% è stata aggiunta per eliminare quei casi, pur esistenti, in cui le valutazioni prudenziali di tipo neodeterministico portavano ad azioni sismiche significativamente inferiori a quelle di norma. Un tale criterio di salvaguardia potrebbe essere considerato a favore di sicurezza. Purtroppo non vale il viceversa. E’ da notare che uno scarto medio non vuole dire gran che, dato che si può ottenere con segnali aventi spettri profondamente diversi. E’ interessante osservare che a un capoverso seguente viene detto invece, per segnali “più eguali degli altri”:
 
§3.2.3.6 NTC2008: Gli accelerogrammi registrati devono essere selezionati e scalati in modo da approssimare gli spettri di risposta nel campo di periodi di interesse del problema in esame.
§3.2.3.6. NTC2018: Le storie temporali del moto del terreno registrate devono essere selezionate e scalate in modo che i relativi spettri di risposta approssimino gli spettri di risposta elastici nel campo dei periodi propri di vibrazione di interesse per il problema in esame.
Le storie registrate, sono i terremoti avvenuti in altre parti del globo per esempio in Cina o in Cile, e che hanno in comune la magnitudo la profondità e la distanza con lo scenario preso in considerazione per il sito italiano in esame (con notevoli incertezze legate alla profondità dell’ipocentro e alla magnitudo), ma non, evidentemente, gli strati presenti tra sorgente e sito, e non gli strati superficiali. Questi segnali possono essere riscalati e trattati numericamente per adattarsi agli spettri (“approssimino”), ma senza alcuna limitazione a differenza di tutti gli altri, e senza tener conto dei periodi propri di interesse se non in modo generico. Non ci sono intervalli numerici da rispettare. Quindi: a) i segnali effettivamente ancorati alle caratteristiche specifiche del sito e del percorso sorgente-sito, quelli neodeterministici, devono rispettare stringenti controlli di prossimità con gli spettri probabilistici di norma; b) i segnali presi da chi sa dove e opportunamente trattati numericamente, invece, no. Per loro i criteri sono più laschi.
 
Le appendici a questo volume
Nelle appendici a questo volume vengono date informazioni introduttive su NDSHA nonché la mappa NDSHA del 2012, ed è spiegato il funzionamento della nuova versione del software NTCSISMA.
Buona lettura.
Milano 6 febbraio 2018
Il curatore
Paolo Rugarli
Ingegnere Strutturista
Riferimenti
Accademia Nazionale dei Lincei, La Resilienza delle Città d’Arte ai Terremoti, 3-4/11/2015 Roma.
Beni Culturali Regione Veneto, Prevenzione Sismica in Area Veneta
Fasan, M., C. Amadio, S. Noè, G. F. Panza, A. Magrin, F. Romanelli, and F. Vaccari. 2015. A new design strategy based on a deterministic definition of the seismic input to overcome the limits of design procedures based on probabilistic approaches. Pages 1–11, XVI Convegno ANIDIS. L’Aquila.
Fasan, M., A. Magrin, C. Amadio, F. Romanelli, F. Vaccari, and G. F. Panza. 2016. A seismological and engineering perspective on the 2016 Central Italy earthquakes. International Journal of Earthquake and Impact Engineering 1:395–420.
Fasan, M., A. Magrin, C. Amadio, G. F. Panza, F. Romanelli, and F. Vaccari. 2017. A possible revision of the current seismic design process. Pages 1–12 16th World Conference on Earthquake Engineering. Santiago, Chile.
Kahneman D, 2011, Thinking Fast and Slow, Macmillan (in Italiano Pensieri Lenti e Veloci, Saggi Mondadori 2012)
Kossobokov, V. e Nekrasova, A., 2012, Global Seismic Hazard Assessment Program Maps Are Erroneous, Seismic Instrum., 48, 162-170, Allerton Press, Inc., doi: 10.3103/S0747923912020065.
Mulargia F., Stark P. B., Geller R. J., Why is Probabilistic Seismic Hazard Analysis (PSHA) still used?, Physics of the Earth and Planetary Interiors, 264, Marzo 2017, https://doi.org/10.1016/j.pepi.2016.12.002
Panza P, Peresan A, 2016, Difendersi dal Terremoto Si Può, I Diagonali, EPC, Roma
Pierotti P, 2016, Sismografia Storica, I Diagonali, EPC, Roma
Rugarli P, 2008, Zone Griglie o…Stanze, Ingegneria Sismica, 1
Rugarli P, 2014, Validazione Strutturale, I Diagonali, EPC, Roma
Società Geologica Italiana, Comunicati e Notizie, 14/9/2015
Spagnuolo R, 2014, Il Convitato di Vetro, I Diagonali, EPC, Roma



[1]1-(1-1/475)50 ≈ 0.1
[2] 1-(1-1/2)2 = 3/4