venerdì 2 novembre 2018

Ponte Morandi: la crisi di un sistema

Nel precedente post ho esaminato in dettaglio la natura del sistema bilanciato del ponte Morandi, per far comprendere a chiunque che si trattava di un'opera al di fuori dei canoni di sicurezza che oggi sarebbero considerati minimi (percentuali di armatura, ridondanza, robustezza, ispezionabilità, resistenza al sisma, distanza dagli edifici, eccetera).
Chiunque avesse studiato a fondo il sistema bilanciato disponendo delle necessarie competenze tecniche avrebbe compreso che era un sistema a scatto con timer.
Il conto alla rovescia era legato alla esistenza della corrosione nei cavi principali degli stralli, ma era anche legato al possibile distacco e alla possibile caduta della trave tampone (quella che collega due sistemi bilanciati successivi in semplice appoggio), sorretta soltanto dalle selle Gerber, sistemi notoriamente soggetti a degrado per aggressione chimico-fisica.
Era quindi ovvio, e altrettanto necessario e imprescindibile, intervenire con tempestività prima che la molla scattasse.
Sebbene non fosse nota la estensione della corrosione (anche per la carenza di adeguate indagini ispettive), era noto da anni, anni ed anni che la corrosione fosse iniziata. Era noto a tutti.
Gli attori coinvolti - in 50 anni - furono grosso modo tre: il concessionario, il concedente, i vari consulenti.
Il lasso di tempo passato dalla costruzione è troppo lungo per poter pensare che le disfunzioni che hanno consentito che alla fine la molla scattasse siano episodiche e limitate. Una tale impressione si coniuga perfettamente con la vivida sensazione che i sistemi deputati alla progettazione, controllo, manutenzione, ispezione ed analisi delle strutture civili siano in questo Paese gravemente ed urgentemente bisognosi di una profonda riforma.

Questa era la conclusione alla quale ero giunto, più di quattro anni fa, quando scrissi il mio libro Validazione Strutturale, un libro che si è rivelato tragicamente profetico.

Se dopo il crollo del sistema bilanciato 9 del viadotto sul Polcevera, tutto quello che succederà sarà la messa in stato di accusa e la condanna di un gruppo di persone, il vero problema chiaramente denunciato dal crollo non sarà stato affrontato.

Qui c'è da cambiare quasi tutto.

La prima cosa che manca, e che è urgente ripristinare mediante specifiche azioni di governo, è la consapevolezza di una serie di verità ovvie che nella pratica si è persa, anche a causa di una serie di normative sbagliate, unite a malcostume. Queste ovvie verità sono le seguenti:

  1. Le strutture civili sono fondamentali e possono mettere a rischio la vita delle persone ed i sistemi economici di borghi, città, province e persino regioni. Il Paese non può permettersi che vadano in rovina.
  2. Non è accettabile alcuna situazione di degrado diffuso in opere di ingegneria civile (edifici, ponti, stabilimenti produttivi, strade), né il loro stato di abbandono. Ogni opera deve essere soggetta a valutazione e manutenzione e qualcuno competente deve essere responsabile di tale manutenzione.
  3. Gli interventi (che spesso sono manomissioni) su strutture di ingegneria civile, devono essere fatti solo da persone competenti. Il Far West delle ristrutturazioni e degli abusivismi deve finire subito.
  4. L'abusivismo e la sua sanatoria implicano la accettazione implicita della pericolosità ed insicurezza delle strutture, nonché la violazione delle norme tecniche, e quindi contribuiscono in modo determinante a diffondere idee sub culturali e arcaiche in merito a cosa sia la sicurezza strutturale, e a cosa possa essere considerato sicuro o no.
  5. L'ingegneria strutturale (ormai tra l'altro sempre sismica) è una branca specifica della ingegneria civile che richiede veri specialisti. Non è sufficiente una laurea breve. Non è sufficiente una laurea in architettura senza documentati e seri studi ulteriori. Non è sufficiente una laurea in ingegneria. Ciò implica una profonda riforma del sistema delle competenze e degli ordini professionali. Non tutti possono fare tutto. Il sistema attuale è profondamente inadeguato.

giovedì 25 ottobre 2018

Il ponte Morandi era un ponte sbagliato e pericoloso, ab initio

Dettagli evidenziati: a sinistra una sezione di calcestruzzo praticamente priva di acciaio di armatura, il bordo liscio fa pensare a  una importante discontinuità di costruzione (ripresa di getto); a destra la incredibile sottigliezza delle pareti del cassone pluricellulare che costituiva il biscotto Morandi. Ogni rettangolo è circa 3 metri di larghezza per 4-4,5 di altezza, lo spessore era di 16 cm al lembo superiore e a quello inferiore.
Sono due mesi che quando posso continuo a studiare il sistema bilanciato del ponte Morandi. Ormai credo di essermi fatto una idea piuttosto precisa non solo di come funzionasse veramente, ma anche di tutti i suoi numerosissimi limiti, e ciò senza pregiudicare alcuna altra considerazione in merito alla mancata o errata manutenzione di questo ponte, che sicuramente stando a quanto si è letto ha avuto molta importanza. 

Io qui vorrei esaminare l'opera per come era.


Le foto lo indicano chiaramente, che di acciaio ce n'era pochissimo. Che i cassoni dell'impalcato erano sottilissimi. E il prof. Morandi, di aver usato poco acciaio dà precisa notizia (1)(2), considerando questo, evidentemente, un buon risultato. 
Si è rotto come una costruzione di  biscotti spezzati uno dopo l'altro, il suo ponte, senza nessuna duttilità. Nessuna capacità di adattamento: un intero sistema bilanciato è crollato tutto, e non si è salvato nulla.
Dicono, per difendere questo ponte, che allora non si usava fare le strutture duttili, che allora era normale non farle ridondanti, che era normale costruirle sulla testa delle persone. Allora.
Ma una volta era normale anche usare il lavoro minorile, e i ragazzini portavano i pesi a sette anni. Una volta c'era lo schiavismo. Una volta gli operai andavano su, nei cantieri, senza nessuna protezione. E una volta - negli anni '50 - si provavano farmaci potenzialmente pericolosi sui malati di mente.
Tuttavia, non tutti i medici facevano quegli esperimenti, non in tutti i cantieri gli operai andavano senza protezione. E non tutte le famiglie povere mandavano i figli a lavorare a sette anni. Non tutte le imprese li utilizzavano. E non tutti i ponti sono stati costruiti, settanta o cento anni fa, con i criteri usati da Riccardo Morandi, assolutamente sconsigliabili e errati, per diverse ragioni.

Qualcuno vorrebbe che il ponte fosse ricostruito identico e lo considera un monumento, un'opera d'arte da conservare: ma secondo me sarebbe uno sfregio ai morti e alla città di Genova, e inoltre un pessimo insegnamento per le scuole di ingegneria del Paese. Invece, da questo crollo, noi dobbiamo trarre tutti i necessari insegnamenti e non dobbiamo farci arrestare da nessun timore reverenziale, andando a scovare tutte le criticità, nessuna esclusa. Tra le criticità c'è anche un ponte mal concepito, esasperatamente volto al risparmio di materiale in un momento, la metà degli anni '60, in cui il Paese era ormai ben lontano dalle stringenti esigenze del dopoguerra, quando occorreva spesso fare di necessità virtù.

Abbiamo il dovere di dire che nello spingere il risparmio di materiale al massimo, e nel concepire sistemi così fragili, Morandi era suo malgrado un cattivo maestro, e la sua ingegneria nel viadotto sul Polcevera, suo malgrado, una pessima e mal riuscita ingegneria. Dobbiamo proteggerci dai cattivi esempi e dobbiamo metterli chiaramente in luce, senza possibili equivoci e senza il rischio di lodare soluzioni sbagliate. Progettare come fece il professor Morandi è pericoloso e sbagliato, nessuno deve progettare in questo modo. Questo si deve dire. Questo va detto.

Il ponte sul Polcevera è simbolo di calcolo a senso unico, di eccesso di fiducia nella validità assoluta delle proprie assunzioni, di futile risparmio, e a causa di tutto ciò, di una sostanziale mancanza di autentico riguardo verso la popolazione civile (soprastante e sottostante), che era esposta a un rischio considerevole, sempre maggiore con il passare del tempo (i lustri e lustri di vita che una tale opera implicitamente doveva avere e dei quali il progettista doveva tener conto).

In questo senso, il ponte Morandi è sì un simbolo, ma in negativo. Un'opera di ingegneria civile deve sempre avere in mente la popolazione che la usa, ed il criterio della sicurezza deve sempre prevalere su quello del risparmio. Invece qui si ha l'impressione che si sia voluto spingere il risparmio di materiale ben al di là del lecito, quasi ci fosse una competizione a riguardo e un premio da vincere. Il che è contrario ai principi di base di ogni buona opera di ingegneria civile. E poi: perché? Quale la ragione prima di una tale corsa al risparmio?

Si resta sconcertati nell'apprendere che per decenni questo ponte sia stato considerato un alto esempio di ingegneria, e che ancora oggi qualcuno lo consideri tale. Evidentemente, questo qualcuno, o non dispone delle conoscenze tecniche necessarie a comprendere come funzioni veramente questo ponte,  o non ne ha studiato i dettagli anche guardando con attenzione le foto delle macerie, o è obnubilato tanto da non vedere i suoi enormi difetti. E così è stato per decenni: come è possibile? Cosa viene effettivamente insegnato?

Io non lo conoscevo, questo ponte, e ho cominciato a studiarlo dopo il crollo, rimanendo giorno dopo giorno sempre più stupefatto delle sue numerosissime mancanze, della sua temeraria incoscienza. Qualcuno deve prendere le parti delle persone che lo hanno usato, che lo hanno avuto sulla testa, quel ponte. Un'opera di ingegneria civile non è un esercizio di meccanica razionale o di scienza delle costruzioni. Le opere di ingegneria civile servono le persone, non il contrario. Nel progettarle, prudenza, dubbio sistematico e temperanza sono obbligatori. Oggi, ma anche ieri. A mio parere questa prudenza e questo dubbio sistematico non ci sono nel progetto del viadotto sul Polcevera.

Io, in questo post, vorrei spiegare come il sistema bilanciato funzionasse nel modo più chiaro possibile, in modo che tutti possano capire quanto fosse azzardato e incosciente. Userò quindi una terminologia domestica, e non starò a riempire il testo di citazioni e virgolettati. Tutto quanto scrivo, comunque, è suffragato da riscontri.


Se prendiamo un biscotto e lo flettiamo, questo si spezza facilmente perché non resiste a trazione, come il calcestruzzo. Se lo tiriamo, idem: si spezza. Se invece lo comprimiamo tra pollice ed indice, non troppo, resiste. Se è tozzo resiste anche bene. Questo è il principio alla base delle strutture in calcestruzzo armato precompresso, aggiungere una compressione a una trazione, in modo che la trazione sparisca. Infatti il calcestruzzo non armato, come il biscotto, non resiste a trazione e, per sopperire a questo inconveniente, o lo si precomprime, o lo si infarcisce di barre di acciaio, affidando a loro il compito di resistere alla trazione.

Un pesante biscotto quasi non armato lungo 170 metri circa, sostenuto in 4 punti: l'impalcato del sistema bilanciato. Qui sopra passavano macchine e camion, da 50 anni.


Il sistema bilanciato del ponte Morandi è un lungo e pesante biscotto di calcestruzzo che si appoggia in quattro punti. Due punti sono costituiti da strutture sottostanti, in cemento armato, esiline e poco armate, ma alte 40 metri. Gli altri due, alle due estremità, sono appoggi strani: il ponte-biscotto si appoggia a degli "stralli", ovvero a dei cavi principali tesi, che lo tirano su, lui che vorrebbe andare giù e piegarsi a causa del suo enorme peso.

Molta gente, ingannata dal fatto che Morandi parla di stralli precompressi, ha creduto che gli stralli fossero sostanzialmente compressi, ma non è assolutamente vero (la questione degli stralli compressi la spiego tra poco). In buona sostanza la parte più importante degli stralli, ovvero la loro anima costituita da 352 trefoli di acciaio, era tesa come una qualsiasi corda, e questa tensione sosteneva tutto l'enorme peso della parte a sbalzo ponte. Se lo strallo fosse stato compresso, avrebbe tirato giù il ponte, non lo avrebbe sostenuto.

Una pila di monete compresse può sostenere un peso: tolta la compressione cade tutto

Questa trazione dei cavi principali era però inclinata, e quindi si trasformava da una parte in una forza verso l'alto che sosteneva il ponte-biscotto, dall'altro in una forza che comprimeva il ponte-biscotto stesso.

Benissimo, dice il progettista: dato che il mio ponte ora è compresso, lo posso inflettere senza molti problemi, proprio come avviene quando prendo una pila di monete e la schiaccio tra pollice e indice: le monete possono sostenere un peso. E l'impalcato del ponte Morandi, ovvero la strada sui cui passavano le macchine e i camion e che doveva sostenere il suo enorme peso, "risulta praticamente privato di armatura" (3) come dice orgogliosamente Morandi, per il quale evidentemente aver risparmiato sull'acciaio era un bel risultato. L'armatura era sostanzialmente applicata solo alle zone di appoggio.


Blocchi di calcestruzzo privi di armatura. Dettaglio di cassone pluricellulare, pareti senza armatura visibile


Quindi possiamo comprendere che l'impalcato del sistema bilanciato del ponte Morandi, era un pesante biscotto quasi privo di armatura lungo circa 170 metri ed alto tra 4.5 metri e poco meno di 4 metri, che stava su solo perché era compresso a causa della trazione dei cavi, e sostenuto sempre dalla trazione dei cavi. La trazione dei cavi dello strallo aveva due effetti fondamentali:
  1. esercitava una forza verticale verso l'alto sul ponte, proprio come se fosse un appoggio.
  2. esercitava una forza di compressione sul calcestruzzo, donandogli una resistenza alla flessione che da solo senza una ingente armatura mai avrebbe avuto, proprio come un biscotto.

Finché durava.

Perché proprio come smettendo di schiacciare le monete queste cadono giù, così il biscotto-Morandi, se non fosse più stato schiacciato, sarebbe venuto giù. Non sarebbe stato necessario che la (pre)compressione cessasse del tutto: sarebbe stato sufficiente che diminuisse un po', per esempio del 10, del 20 o del 30%. In questo caso, le monete sarebbero lo stesso cadute giù.

Quindi c'era una doppia causa scatenante il crollo, se quei tiranti avessero smesso di tirare quanto dovevano.


Il sistema bilanciato è un arco che incassa la freccia e non la scocca. I 4 triangoli sono un simbolo che vuol dire "appoggio" (immagine tratta dalla relazione del MIT, opportunamente modificata).

Passiamo ora a esaminare come gli stralli erano effettivamente costruiti. In primo luogo - su ogni lato del ponte: Sud/Mare, Nord/Valle-, non c'erano due stralli ma sostanzialmente uno strallo solo. Infatti, i cavi principali erano fatti passare sopra la pila, come in un gigantesco arco che, anziché scoccare la freccia, la incassa. La pila agiva come una freccia sospinta verso l'alto dalle reazioni esercitate dal terreno, 90 metri più in basso.
Il fatto che vi fosse continuità nello strallo GE-SV, su ciascun lato (Sud/Nord), voleva dire che un qualsiasi problema a un trefolo in un qualsiasi punto lungo i suoi 180 metri di sviluppo, si sarebbe trasformato nella totale inattivazione del trefolo, sia sul lato Genova che sul lato Savona. Quindi, tutto il vitale sistema che sorreggeva il ponte-biscotto era un unico sistema, e un danno in un qualsiasi suo punto avrebbe inattivato la parte attaccata lungo tutto il suo sviluppo.
Per poter essere ben teso, l'arco riceve una spinta verso l'alto dalla freccia-pila, che a sua volta è spinta verso il basso dallo strallo-corda e quindi fortemente compressa.
Spezzone del grissino-pila praticamente privo di armatura e in più, cavo. Le frecce bianche indicano l'armatura perimetrale, tra l'altro quasi priva di copriferro. I cerchi rossi indicano che il calcestruzzo, all'interno, non era affatto armato. 

Uhm, altra compressione, questa volta nella pila. Allora: poca armatura! E infatti le fotografie delle rovine mostrano che le gambe delle V capovolte che formano la pila, erano pochissimo armate, e per di più cave. Erano, a loro volta, degli enormi biscotti compressi, o forse, meglio, dei giganteschi grissini.
Se per qualche motivo avessero dovuto resistere a un po' di flessione, per esempio per un tiro sbilanciato degli stralli, ebbene, si sarebbero rotte come giganteschi grissini: come infatti è avvenuto.
Le pile-grissini, non erano collegate all'impalcato (la strada). Erano due V capovolte, e inclinate su un piano verticale, collegate in cima da un traversone.

Fino a questo momento abbiamo visto montare una gigantesca molla-arco, caricata da grossi grissini-freccia, e sorreggente un pesante biscotto di 170 metri. Il tutto, lo ricordo, montato sopra le teste di ignari cittadini che abitavano i palazzi ora evacuati.
Precompressione del calcestruzzo grazie alla trazione dei cavi secondari

Veniamo ora a comprendere l'altra specifica invenzione, fatta da Morandi: gli stralli precompressi.
Dato che uno dei timori per l'acciaio è che la ruggine lo corroda, Morandi inventa una specie di involucro in calcestruzzo che vuole a tenuta d'umidità e acqua.

Le forze rosse sono di trazione. Le forze verdi di compressione. Il calcestruzzo è compresso. I cavi secondari tesi. La somma della compressione nel calcestruzzo e della trazione nei cavi secondari dà zero. Lo strallo è quindi complessivamente teso, grazie alla trazione dei cavi principali.
Quindi avvolge i cavi principali tesi da questo involucro e applica, alle due estremità dell'involucro, una forza che schiaccia l'involucro comprimendolo. In questo modo, secondo lui, i cavi principali d'acciaio, che reggono lo ricordo tutto quanto, vengono ad essere protetti da uno scafandro impenetrabile alla umidità e all'acqua. Quindi, pensa Morandi, i cavi d'acciaio non si corroderanno mai.

Questa idea era sbagliata.

Già negli anni '40 Sandro Dei Poli aveva pubblicato un libro, in Italia, in italiano, - Crolli e Lesioni di Strutture 1942-XX, Hoepli-, recentemente ripubblicato da EPC, nel quale si mettevano in evidenza i danni causati - a Giava - dagli ambienti marini sul calcestruzzo armato. Pochi in Italia lo avevano letto, e quindi quasi tutti, incluso Morandi, nel 1968 ancora credevano alla favola del calcestruzzo inattaccabile quando ben bene compresso.
Iniezione dei cavi. Da quel momento in poi - in teoria - l'applicazione di ulteriori carichi avrebbe visto reagire lo strallo omogeneizzato come un tutt'uno.

Dopo aver compresso lo scafandro in calcestruzzo il sistema Morandi prevede di iniettare i cavi, vale a dire che i vuoti intorno ai trefoli di acciaio (principali e secondari) vengono riempiti. Almeno: in teoria. Ci sono infatti fondati motivi per ritenere che i cavi principali del Polcevera non siano stati iniettati e che siano rimasti liberi dentro una cavità protetta da un lamierino.

Da quel momento in poi, dato che - in teoria - la iniezione garantisce la solidarietà tra le varie parti, ogni ulteriore carico volto a tendere lo strallo, avrebbe visto reagire il sistema complessivo. Il calcestruzzo si sarebbe un po' decompresso, i cavi si sarebbero tesi un altro pochettino. La grande rigidezza dello strallo avrebbe fatto sì che le variazioni di tensione nei cavi, dovute ai carichi mobili, sarebbero state minime, il grosso lo avrebbe sostenuto la decompressione del calcestruzzo. Quindi, la fatica dell'acciaio non sarebbe esistita. Infatti l'acciaio sarebbe rimasto a una tensione grosso modo quasi costante, dovuta essenzialmente:
  • per i cavi principali, al peso del ponte.
  • per i cavi secondari, alla trazione iniziale a loro assegnata per precomprimere lo scafandro.

In realtà l'iniezione dei cavi è una procedura difficile e molto spesso inadeguata. Se l'iniezione è parziale ciò lascia i cavi all'aria e li espone agli attacchi della corrosione. Inoltre diventa molto difficile prevedere il comportamento di un sistema parzialmente iniettato e parzialmente no.

Dato che l'idea principale di usare il calcestruzzo per proteggere l'acciaio dalla corrosione era sbagliata, la corrosione dei cavi, dapprima secondari, poi principali, iniziò praticamente sin da subito. Nel 1992 (circa 25 anni dopo la costruzione), fu trovata una estesa corrosione negli stralli del sistema bilanciato 11, e secondo svariate fonti, anche in quelli 9 e 10. Ma fu riparato solo il sistema 11.

Uno degli aspetti deleteri del sistema Morandi, è che se da una parte lo scafandro non serve a proteggere un bel nulla, esso serve molto bene a rendere difficile la ispezione dei cavi, che sono sepolti dentro lo scafandro e sostanzialmente inaccessibili.

Il crollo del viadotto Morandi è stato causato molto probabilmente dalla forte sottostima della corrosione dei cavi principali.

Corrosione nei cavi: cosa provoca?

Immaginando che si corrodano per primi i cavi più esterni, quelli secondari, la prima cosa che succede è che la precompressione del calcestruzzo (dello scafandro) sparisce. Questo provoca seri problemi? No, niente affatto. Infatti sono i cavi principali a sostenere tutto, e possono anche tranquillamente sostenere il peso dei veicoli, che sono una cosa modesta rispetto all'enorme peso del ponte.

Invece, i guai seri cominciano quando i cavi principali cominciano a corrodersi. Essi, lo abbiamo visto, tengono tutto. Sono 352 trefoli. Prima si corrode uno, e cede. Poi un altro, e cede. Poi un altro ancora, così per 50 anni.

All'aumentare della corrosione dei cavi principali, il ponte-biscotto si sarebbe gradualmente caricato di sforzi maggiori, andando pericolosamente a raggiungere la zona delle impossibili trazioni, o delle insostenibili compressioni. Infatti la precompressione del biscotto sarebbe diminuita, mentre al tempo stesso la forza di sostegno alle sue estremità sarebbe diminuita anch'essa. Contemporaneamente, lo sforzo (forza diviso area) della parte residua (ovvero non corrosa) dei cavi principali sarebbe aumentato, dai 70 Kg/mmq iniziali, su, su, e ancora su, verso i 170 che erano il limite fisico del sistema.

In base a simulazioni numeriche eseguite, quando la corrosione avesse intaccato il 65% dei cavi, la loro forza sarebbe diminuita del 30% (e così il sostegno e la precompressione da essi esercitata), mentre il loro sforzo sarebbe aumentato del 100%, circa (da 70 a 140 kg/mmq).

Finché alle 11:36 del 14 Agosto 2018 si è raggiunto il limite. E il sistema è esploso come una costruzione fatta di grissini e biscotti, quale essa era.

Possiamo davvero pensare di ricostruirlo eguale, o di conservarne la memoria come se fosse stata un'opera geniale?

Io non credo.



________________________________

(1) "En efecto, en el viaducto de Polcevera, incluidos lor tirantes, ha sido puesta en obra una cantidad de acero (per m2 de tablero), en paridad de luz, como ya se ha indicado, de casi 1/3 de la empleada en el puente de Benford; esto, habiendo cuidado mucho las diferents tensiones maximas en las que dicho acero esta solicitado en estas dos obras de arte"
 Forse "Benford" è un refuso e in realtà è Bendorf
Morandi R., Viaducto sobre el Polcevera, en Génova-Italia, Informes de la Construccion, Vol. 21, n° 200, Mayo 1968 ".
(2)  "The structure has been designed to show maximum efficiency under the applied loads which will act on it, and this has saved a considerable amount of material".
Morandi R., Viaducto sobre el Polcevera, en Génova-Italia, Informes de la Construccion, Vol. 21, n° 200, Mayo 1968 " (riassunto dell'articolo in inglese)
(3)  "mientras el entramado resulta praticamente privado de armadura longitudinal, e exception del extremo del salto y de la zona proxima a los apoyos intermedios".
Morandi R., Viaducto sobre el Polcevera, en Génova-Italia, Informes de la Construccion, Vol. 21, n° 200, Mayo 1968 "








venerdì 21 settembre 2018

Sul crollo del viadotto Morandi: alcune domande

1. La prassi seguita da decenni è stata quella di accettare un "certo livello" di degrado nei ponti (e non solo, tutti hanno visto ferri di armatura corrosi), perché non reputato pericoloso. Questa prassi è accettabile ?

2. Alcune delle conclusioni alle quali sono arrivati in passato valenti esperti sono basate su regole di calcolo "leggi empiriche" che consentivano di estrapolare per decenni. Non solo "sono valide quelle formule", ma, "è un modo corretto di fare ingegneria, questo?". Meglio ancora: è questa l'Ingegneria Civile? E' solo questo? Formule, estrapolazioni, diagrammi a colori?

3. E' stato detto che non si disponeva del tutto di certe conoscenze (degrado del calcestruzzo in ambiente marino). E' vero? Esistono infatti sia testi che opere che indicano il contrario (Dei Poli Crolli e Lesioni di Strutture, 1942, Ponte Arrabida, Porto, 1965, tutto verniciato per proteggerlo).

4. Appare che il risparmio di materiale sia stato uno dei criteri seguiti dal progettista (infatti se ne fa merito quando racconta le caratteristiche del suo progetto). E' un approccio seguito ancora oggi? E' questo un corretto modo di fare ingegneria - ieri - e oggi? Possono le soluzioni progettuali essere dettate prevalentemente dalla necessità di risparmiare il materiale? Come coniugare in modo accettabile l'esigenza di realizzare opere al giusto costo, e l'esigenza di salvaguardare sempre e comunque la popolazione civile?

5. E' stato evidenziato molto opportunamente (qui) che in realtà ogni cavalletto non aveva 4 "stralli", ma solo due cavi, uno per carreggiata. Ciò assimila il cavalletto di Morandi ad un arco teso che anziché scoccare la freccia (la pila) la incamera. Al netto del fatto che secondo alcuni all'epoca non esisteva il concetto di struttura robusta e ridondante (una cosa tutta da verificare consultando la bibliografia italiana ma soprattutto estera, ed esaminando strutture antecedenti), possiamo accettare che un'opera di Ingegneria Civile sia una molla pronta a scattare, oggi, e potevano accettarlo ieri, in Italia ed all'Estero?

6. Fino a che punto e con quali precauzioni possiamo fidarci - oggi - dei nostri metodi e dei nostri sistemi di calcolo, anche in merito alla diagnostica? Ci vuole o no qualcosa in più?

7. Quando possiamo fidarci di un materiale o di una tecnica innovativa? Che cautele dovremmo adoperare, oggi, non ieri? Le regole attuali ci tutelano a riguardo ?

8. Le leggi attuali sono pertinenti rispetto a quanto è avvenuto? In altre parole, aiutano ad evitare casi come questo (pensando a tutta la catena dei fatti e non solo al progetto)? Ad esempio: ha senso dire che la vita utile è di 50 anni e non prescrivere alcun obbligo al termine dei cinquanta anni?

9. Una maggior cautela di progettista avrebbe aiutato l'opera di Morandi? Questa cautela era dovuta o no? Ed oggi, nel nostro lavoro, questa cautela è dovuta o no? Esempio: assumere che siccome il 20% soltanto dell'area dei cavi è corrosa mentre secondo i calcoli ne basta il 50% è un ragionamento corretto come Ingegnere Civile? 

10. Quanta "fallacia genetica" c'è nella storia del viadotto Morandi? Ovvero, quanto ha giocato la intangibilità della figura di Riccardo Morandi e della sua opera nella storia di quel viadotto? Questa intangibilità (non il ricordo, che è altra cosa) è cultura o sottocultura ? E' utile che ci siano figure intoccabili?

11. Ingegneria Civile è "memento audere semper" (come qualcuno ha sostenuto facesse Morandi, qui)? Che concezione ingegneristica sta dietro una tale idea, che è stata espressa oggi, non nel 1936?

12. Qual è il compito della Ingegneria Civile? Quali sono le priorità di un Ingegnere Civile?

13. E' forse tempo di avere anche noi, come i medici, una specie di giuramento di Ippocrate? che regole deontologiche dovremmo applicare nei casi dubbi?


A. Come esce il Ministero delle Infrastrutture da questa vicenda? Possiamo fidarci di quelle strutture ministeriali? Hanno titolo a decidere?

B. Quali sistemi di controllo sono mancati che avrebbero potuto scongiurare non solo il crollo ma anche tutti i problemi già certamente provati dai documenti sin qui usciti? E che figure professionali avrebbero dovuto esercitarli, con quali specifiche competenze?

C. Cosa ha indotto nei tecnici deputati la certezza che non sarebbe successo nulla? La loro pratica ed esperienza ha agito in senso positivo o in senso negativo? Perché non c'è stato nessuno che abbia scritto chiaramente che il ponte era pericoloso (che lo fosse è ormai già stato provato dai documenti già usciti, e non solo dal crollo) ? 

D. Se sarà provato - come teoricamente possibile ([15], [16]) - che è stato un fulmine a far esplodere uno "strallo" , o se sarà provato che la costruzione non rispettava il progetto (Secolo XIX) - allora tutto il resto che è venuto fuori e sta venendo fuori è ininfluente?

E. Possiamo accettare che le competenze necessarie per assumere ruoli dirigenziali strettamente legati al controllo ingegneristico siano coperti da inesperti? E' mancato, sta mancando e mancherà, a riguardo, un autorevole intervento di chi in teoria dovrebbe rappresentare non solo gli interessi degli ingegneri, ma più ancora quelli del Paese?

F. Possiamo considerare autorevoli i nostri rappresentanti del CNI, ovvero, quello che dicono e come lo dicono è sempre appropriato ? Se no: come possiamo fare a cambiarli?

G. E' sufficiente una laurea in ingegneria, senza ulteriori specificazioni, ad occuparsi di ingegneria strutturale? E di Architettura?

H. Quali sistemi di controllo hanno messo in piedi gli Ordini sui loro iscritti, relativamente al problema delle competenze? In attesa della riforma del settore (attesa lunga) cosa potrebbero fare gli Ordini Professionali, e non hanno fatto? E lo Stato: cosa potrebbe fare, e non ha fatto ?

I. Il sistema dell'aggiornamento professionale attualmente praticato come obbligatorio, funziona? E' pertinente? E' utile? A chi giova?

L. L'ingegneria strutturale, in Italia, è una cosa seria?




martedì 18 settembre 2018

Le strane regole deontologiche degli ingegneri



Dopo il crollo del viadotto Morandi si sono aperte numerose questioni che necessitano di attente riflessioni e di drastici cambiamenti. Una di queste è il codice deontologico degli ingegneri.

   Esaminando le regole deontologiche degli ingegneri, si ha la sensazione che siano fatte più che altro per tutelare i committenti e per evitare che la categoria possa mai essere messa in discussione, obiettivo raggiunto frapponendo una nutrita serie di inutili paletti deontologici alla attività professionale.
   Il codice deontologico approvato dal Consiglio Nazionale degli Ingegneri, ed attualmente in vigore (reperibile qui), è una lettura sorprendente per chi non l'abbia ancora fatta e voglia calare queste regole nella trafila degli accadimenti che hanno preceduto il crollo del viadotto Morandi.
   Invano si cercherebbe una regola, da mettere certo tra le prime, che imponga all'ingegnere che per qualsiasi motivo sia venuto a conoscenza di una situazione pericolosa di darne immediata notizia alle autorità competenti. Al contrario, si trova una fitta rete di paletti che induce a più miti consigli chi avesse mai un simile desiderio.
   Io credo che questo codice deontologico debba essere immediatamente cambiato. Il primo dovere di un professionista competente che si imbatta in una situazione pericolosa, per qualsivoglia motivo, anche al di fuori di un incarico professionale,  deve essere dare immediata notizia del potenziale pericolo (anche ad una autorità pubblica, non solo ai proprietari o responsabili). E dovrebbe essere messo a punto un registro di queste segnalazioni. L'esistenza di una segnalazione inascoltata dovrebbe essere aggravante per i responsabili in caso di crollo.
   Non si può ragionare in termini di concorrenza quando c'è di mezzo la sicurezza. Invece, il codice dà proprio questa impressione.
   Ancora oggi manca, nella formazione dell’ingegnere, e nei suoi doveri deontologici, una indicazione sul comportamento da assumere quando per fondati motivi ritenga che esista un qualche pericolo, anche in assenza di uno specifico incarico. Solo al punto 18 dell’attuale codice deontologico del Consiglio Nazionale degli Ingegneri (dico diciotto) si legge (corsivo mio)
L’ingegnere è personalmente responsabile della propria opera nei confronti della committenza e la sua attività professionale deve essere svolta tenendo conto preminentemente della tutela della collettività.
Mentre, ben prima nel documento, è ben chiarito che un professionista non può mettere in cattiva luce un collega o la categoria. Nella sezione relativa ai doveri, al primo punto leggo (par. 3.1):
L’ingegnere sostiene e difende il decoro e la reputazione della propria professione.
Cosa che infatti sta accadendo in questi giorni, in cui il mondo professionale sembra più interessato alla difesa corporativistica della professione che all'accertamento della verità dei fatti. Ed ancora leggo:
L’ingegnere deve mantenere il segreto professionale sulle informazioni assunte nell’esecuzione dell’incarico professionale.
L’ingegnere è tenuto a garantire le condizioni per il rispetto del dovere di riservatezza a coloro che hanno collaborato alla prestazione professionale
E leggo ancora:
L’incarico professionale deve essere svolto compiutamente, con espletamento di tutte le prestazioni pattuite, tenendo conto degli interessi del committente.
E bisogna stare molto attenti a criticare i colleghi:
L’ingegnere deve astenersi dal porre in essere azioni che possano ledere, con critiche denigratorie o in qualsiasi altro modo, la reputazione di colleghi o di altri professionisti.
Ed inoltre:
In caso di subentro ad altri professionisti in un incarico l’ingegnere subentrante deve fare in modo di non arrecare danni alla committenza ed al collega a cui subentra.
Come sarebbe possibile per il professionista Rossi, porre rimedio ai guai del professionista Verdi? E per quale motivo se Verdi ha fatto gravi errori, si è dimostrato incompetente o temerario, Rossi dovrebbe evitare di danneggiarlo? Chi tutela questa regola, gli ingegneri competenti o quelli incompetenti (che esistono)?
   Questo codice deontologico tutela la categoria ed i committenti, non tutela in modo sufficiente i cittadini. Esso è incompatibile con uno Stato moderno, dove la trasparenza e la circolazione delle informazioni sono fondamentali. 


domenica 12 agosto 2018

Un nuovo inizio

Chi ha per molto tempo studiato una disciplina, passando ore ed ore sui libri, sperimentando nuove soluzioni, rendendosi conto di come funzionano quelle esistenti, ed approfondendo la comprensione delle regole che governano lo svolgersi di certi fenomeni, può avere la stessa autorevolezza e lo stesso identico diritto di parola, lo stesso peso specifico di chi, di quella disciplina, parla solo per aver orecchiato qualcosa qui e là, o magari letto su internet nei tre mesi precedenti?

Anche Homer Simson, se segue i corsetti di aggiornamento, può diventare un "ottimo professionista".


Nel nostro Paese, in questi tempi, sembra si siano smarriti i più elementari concetti di normale intelligenza, e così assistiamo a esperti medici immunologi costretti a difendersi da una massa di aggressioni sui social, ministri che coniano locuzioni contraddittorie come "obbligo flessibile", semi analfabeti che discettano di spread e di PIL, esperti in nulla che danno la linea a masse di persone disinformate.

La tendenza dura da decenni, ma il crescendo non ha sosta.

Qualcuno già sostiene che il problema è la democrazia, e si appresta a dimenticare le disastrose esperienze del '900, forse del resto neppure conosciute, riecheggiando slogan, idee, proposte e persino atteggiamenti che già comparvero ottanta o novanta anni fa, ignaro del disastro che poi seguì.

Forse la soluzione al dilemma è nella sostanziale differenza tra democrazia diretta e democrazia rappresentativa. La democrazia diretta è la incompetenza al potere. Miele per chi dispone degli strumenti per pilotare le masse ignoranti. D'altro canto, la democrazia rappresentativa in Italia è in crisi perché i rappresentanti hanno rappresentato se stessi, i loro parenti ed amici, non i loro elettori. Con risultati spaventosi, ovvero con lo slittamento verso forme di democrazia semplicistiche e sostanzialmente dannose.

L'arraffamento della Cosa Pubblica per utile personale è talmente diffuso, nel Paese, che non si poteva pensare che i Rappresentanti ne fossero immuni. Ma, almeno, questi Rappresentanti, una volta erano competenti, mentre da decenni in qua non lo sono più.

Io credo che sia ormai necessaria una crisi spaventosa come già in passato, affinché vengano ripristinate le corrette linee di precedenza, e le numerose persone serie e preparate nei loro rispettivi campi possano finalmente avere un peso nella decisione delle regole e della loro applicazione.

Una crisi che faccia comprendere a chi ha dimenticato che la competenza è fondamentale, alcuni semplici concetti, e che ripristini l'ovvio: le persone incompetenti devono tacere se dell'argomento di cui si parla non hanno conoscenza.

Così, in un battibaleno, l'ottanta per cento dei posti dovrebbe essere riassegnato, giacché siamo pieni  di persone incompetenti nei posti di comando.

L'ingegneria non fa eccezione, ma questo discorso non è specificamente legato al mondo ingegneristico, o ai Ministri per le Infrastrutture, o alle altre strutture dello Stato deputate alla cura ed emanazione delle normative.

Ormai questo discorso riguarda tutti i settori del Paese. E' urgente che una grave crisi porti a comprendere che non si può affidare la complessità alle sovra semplificazioni, agli slogan, e che non possiamo più permetterci di prendere a calci nel sedere le nostre menti più brillanti.

Solo uno shock potrà ormai far comprendere a quanti credono nelle soluzioni semplicistiche che le loro soluzioni sono inadeguate e che peggiorano la situazione. Un grave shock, che però, come la Storia insegna, potrebbe anche portare a qualcosa di molto brutto. Sono tra quelli che pensano che la mina del debito pubblico stia per scoppiare, e che in questo apparentemente cheto Paese possano nuovamente scatenarsi forze bestiali e prive di controllo.

Non ci sono politici in vista che siano realmente credibili. Ma ci sono moltissime persone per bene e competenti che potrebbero fare bene al Paese, e che, nel momento del disastro, potrebbero finalmente essere chiamate a svolgere un ruolo, come del resto avvenne dopo il 25 Aprile 1945.


mercoledì 28 febbraio 2018

Norme Tecniche per le Costruzioni 2018

Much Ado About Nothing

[presentazione del volume NTC 2018, EPC Editore, Roma 2018]
 
di Paolo Rugarli



Dopo 10 anni praticamente esatti dalla emanazione delle Norme Tecniche per le Costruzioni del 2008, vedono quest’anno la luce le NTC 2018.
Nel 2008 questa casa editrice pubblicò il testo della norma con un software allegato, ed in seguito pubblicò il testo della Circolare uscita nel 2009 organizzando i contenuti in modo armonico e coordinato. Al momento in cui esce questo volume, la Circolare relativa alle NTC 2018 non è ancora disponibile.
In quanto segue, ritenendo di fare cosa utile al lettore, verranno riepilogati e sottolineati alcuni aspetti legati alla emissione delle nuove norme, considerati alla luce della situazione attuale del Paese.
Pericolosità sismica della normativa
Nel 2008 fummo i primi a segnalare alcune rilevanti questioni attinenti al modo in cui la pericolosità sismica veniva valutata dalla norma, e segnalammo i problemi derivanti da quelli che furono poi chiamati street effect e room effect (Rugarli 2008), quest’ultimo poi corretto dalla Circolare del 2009. In sostanza le NTC 2008 furono a ragione accusate di essere ingannevolmente “precise”, e di pretendere di calcolare con meticolosità inutile (ancorché “probabilistica”) azioni sismiche derivanti da metodi sostanzialmente imprecisi, incerti e molto discutibili.
Dopo dieci anni e molto studio possiamo anche dire: infondati.
               Da allora, molto lavoro e molti approfondimenti sono stati fatti, e anche qui, per questi stessi tipi, sono stati pubblicati importanti contributi al dibattito in corso sulle normative (Panza e Peresan 2016, Pierotti 2016, Spagnuolo 2014, Rugarli 2014). Molti lavori e articoli scientifici e divulgativi si sono resi disponibili altrove. Se all’inizio del 2008 agli ingegneri preparati balzava all’occhio la evidente discrasia tra la precisione dei numeri in Gazzetta Ufficiale e la traballante fortunosità dei sistemi usati per ottenerli, oggi, nel 2018, lo sconcerto deve purtroppo essere più forte, dato che sono numerosi i nuovi strumenti informativi e divulgativi e le verifiche sperimentali sismiche, a diretta confutazione di quei numeri.
La GU del 4-2-2008 era un tomo pesante 1300 grammi. Delle 653 pagine di quella Gazzetta Ufficiale, circa duecento erano piene di numeri iperrealisticamente precisi e ordinatamente incolonnati, confermati dalla presente normativa 2018. Quei numeri potevano già allora considerarsi stupefacenti, per la loro stessa forma e modalità di presentazione. “Periodi di ritorno” di “101”, “140”, “201”, “475”, “975” o “2475” anni, non uno di più o di meno, scuotimenti con tre o quattro cifre dopo la virgola e formule di interpolazione per distillare altri numeri intermedi: qualcosa di veramente incredibile. Tuttora in vigore.
               Da allora si è verificato un proficuo corto circuito tra ingegneri non soddisfatti della pericolosità sismica delle norme tecniche (è il caso di dire), ed i geofisici, i sismologi ed i geologi ben consapevoli della illusorietà ed inattendibilità della metodologia probabilistica denominata internazionalmente con l’acronimo “PSHA” (Probabilistic Seismic Hazard Assessment), nonché dei suoi apodittici ed non verificati paradigmi pseudo scientifici.
               Ma il normatore italiano è stato, ed è, sordo. Non solo a parte degli studiosi, ma anche ai terremoti.
               Concetti e terminologie del tutto ingannevoli per la popolazione civile ed i non esperti, come “periodo di ritorno”, “vita nominale restante”, “perdita annua media”, “probabilità di superamento”, che sarebbero tutti da abbandonare per essere sostituiti da più serie e sincere metodologie e terminologie, si sono così radicati nella pratica tecnica, e purtroppo siamo stati e siamo, ancora oggi, tutti obbligati a usarli.
Queste normative e quelle che le hanno precedute causeranno un ingente ritardo al Paese, che, a differenza di altri che usano gli stessi metodi errati, e che magari li hanno inventati, è molto vulnerabile ai terremoti. Se non si vuole considerare la realtà di quanto può succedere, come potranno i sistemi strutturali essere efficaci? Se le NTC non calcolano probabilità e scuotimenti attendibili, come esse possono basare tutti i calcoli sismici, persino quelli di consolidamento dell’esistente, su tali “probabilità” e scuotimenti?
Purtroppo non si può nemmeno osservare che “mal comune mezzo gaudio”, non solo perché il Paese è particolarmente vulnerabile, ma anche perché vi è uno specifico della Nazione Italiana ed è il suo gigantesco patrimonio storico e artistico, che viene sistematicamente e colpevolmente lasciato in balia dei sismi sempre “sorprendenti”, a differenza di quanto avviene in Nazioni meno artisticamente ricche, ma più protette (si pensi alla basilica di Norcia o a quella di Assisi, ferite aperte nella coscienza civile del Paese). Inoltre, il conformismo apparentemente molto evoluto di certa parte del corpo accademico, ha ritenuto inevitabilmente necessario accogliere praticamente senza discussione metodologie pensate per edifici regolari in acciaio o cemento armato losangelini, fatti ex novo da esperti, calandole invece su edifici irregolari e vetusti in cemento armato, spesso progettati per le sole azioni verticali, e, soprattutto, sui nostri borghi antichi e sulle nostre città uniche.
               Uno dei primi obiettivi, per curare un male, è diagnosticarne realisticamente la gravità. Ed è appunto qui che i metodi di norma mancano drammaticamente lo scopo. Questa norma, come la precedente del 2008, come anche le precedenti del 2005, del 2003, ed ancora prima del 1996, e via via indietro nel ‘900, non ci dicono la verità in merito alla severità di ciò che può colpirci, né in merito alla possibilità che ciò avvenga domani, o dopodomani o il giorno successivo. La disastrosa presunzione di elencare i comuni “sismici”, tipica delle norme del secolo scorso, è parente stretta della disastrosa presunzione di dare le “probabilità di superamento” di scuotimenti con tre o quattro decimali, o di valutare il “periodo di ritorno” corrispondente a una certa “probabilità”.
               Negli ultimi centocinquant’anni, la tipologia delle costruzioni è drasticamente cambiata (edifici mediamente più alti, a massa elevata benché spesso strutturalmente esili, con più persone, più addossati, costruiti spesso in zone mai edificate nella storia e soggette a fenomeni di amplificazione, con tecniche molto spesso sismicamente del tutto inadeguate), mentre la loro concentrazione è enormemente aumentata (a causa della rapida industrializzazione e dell’inurbamento), così che il Paese semplicemente non può più permettersi di sottostimare azioni che oggi, molto più di ieri, possono causare disastri immani, tali da metterlo in ginocchio.
E’ responsabilità morale e professionale delle persone consapevoli mettere in guardia la società civile, cosa che questa norma a nostro parere non fa. E’ paradossale che proprio le azioni più incerte e potenzialmente disastrose siano quelle per le quali maggiore è la pretesa precisione di input: più cifre significative, formule che legano “probabilità” e “periodi di ritorno”, formule per calcolare le intensità per qualunque “periodo di ritorno” partendo da numeri con tre o quattro cifre significative. Le azioni più incerte e ignote sono quelle definite con più “precisione”.
               Troppe cose si sarebbero dovute cambiare, per voler abbandonare PSHA. Inoltre, l’abitudine e la conseguente semplicità consistente nel ripetere le cose note (pur se notoriamente errate), fanno il resto. Come già spiegato da Kahneman (Kahneman 2011) e ricordato altrove (Rugarli 2014) gli esseri umani sono avari cognitivi, non vogliono faticare per imparare o fare qualcosa di nuovo.
               Totalmente diverso è il metodo neodeterministico NDHSA (Neo Deterministic Seismic Hazard Assessment), messo a punto da una équipe di studiosi della Università di Trieste raccolti intorno al geofisico Giuliano Panza. Questo metodo amplia di molto l’insieme dei fenomeni tenuti in conto, per esempio il percorso sorgente-sito, senza fortunose relazioni di attenuazione (spesso chiamate impropriamente leggi), o le possibili zone sismogenetiche non ancora manifestatesi, e fondatamente e con ragione amplia  di molto la forbice delle incertezze e delle relative cautele facendo uso di inviluppi. La norma, questa norma, ne accenna in un capoverso di tre righe al §3.2.3.6  là dove parla di “storie temporali generate mediante simulazione del meccanismo di sorgente e di propagazione”, consentendone l’uso.
               Anche per questo, alcune amministrazioni pubbliche si sono mosse autonomamente, affiancando ai metodi probabilistici quelli neodeterministici. Per esempio la Provincia di Trieste (Comunicati e Notizie, Società Geologica Italiana, 2015) o la Soprintendenza di Venezia per la biblioteca marciana (Beni Culturali Regione Veneto – Prevenzione Sismica in Area Veneta). Nel corso di importanti convegni pubblici (Accademia Nazionale dei Lincei 2015), si sono potute udire forti critiche a PSHA, anche da un allora membro della Commissione Grandi Rischi, che ha poi rincarato la dose nel 2017 (Mulargia Stark e Geller, 2017).
               Ma soprattutto, più ancora di questo, dal 2008 ad oggi hanno parlato i terremoti.
 L’Aquila: 2009. Emilia: 2012. Amatrice-Norcia-Visso: 2016 e 2017.
Norcia, colpita da un terremoto nel 1979, e poi nel 1997, nell’agosto del 2016 ha subito ancora danni, ed è stata infine ulteriormente colpita da una nuova forte scossa il 30 ottobre 2016. Se dopo i sismi del 1979 e del 1997 si fosse consolidato con valutazioni più realistiche delle intensità attese, i danni attuali sarebbero stati minori. NDSHA ha indicato con buon accordo quanto registrato il 30 ottobre (Fasan et al. 2016). I modelli probabilistici hanno invece completamente fallito, sia in merito alla severità sia in merito alla frequenza delle azioni sismiche.
Dal 2008 ad oggi ciò è accaduto anche all’estero in moltissimi casi, i più rilevanti dei quali sono indicati nella tabella 1. Si ricorda che una differenza di 1 in magnitudo corrisponde a energie liberate 32 volte superiori, una differenza di 2 una differenza di 1000 volte.
Data
Luogo
Morti
DM
12 maggio 2008
Wenchuan (Sinchian, Cina)
75000
1.9
30 settembre 2009
Padang (Sumatra meridionale, Indonesia)
1100
1.3
12 gennaio 2010
Port Au Prince (Haiti)
220000
1.2
13 aprile 2010
Qinghai, Cina
3000
1.4
11 marzo 2011
Töhoku (Giappone)
20000
2.2
Tabella 1. Sismi catastrofici dal 2008 ad oggi: data, luogo numero di morti. DM è qui la differenza tra magnitudo misurata e quella indicata con i metodi probabilistici PSHA da GSHAP, Global Seismic Hazard Assessment Program (dati citati da Panza e Peresan 2016, tratti da Kossobokov e Nekrasova, 2012)
               Ed è precisamente qui che il dovere professionale obbliga a prendere una posizione netta ed impedisce di volgere lo sguardo altrove.
               In Italia gli scuotimenti misurati sono stati molto superiori a quelli indicati come riferimento dalla norma, come intensità e come frequenza. A questa circostanza oggettiva alcuni hanno opposto fumosi ragionamenti probabilistici, sostenendo che sì, c’era pur sempre una certa “probabilità” che ciò avvenisse, in tutti i casi; e sostenendo che per poter dire che i metodi di norma sbagliano sarebbero necessarie altre migliaia di anni. Singolare ragionamento che blinda a vita ogni errore rendendolo di fatto non contrastabile.
Noi riteniamo invece che ci si debba appellare al rasoio di Occam, che impone di scegliere la soluzione più semplice e nitida: che si debba chiaramente dire che le norme sono sbagliate. Né possiamo attendere migliaia di anni perché venga riconosciuto l’ovvio. Se normative di ingegneria civile fissano delle azioni che vengono gravemente superate a uno, quattro ed otto anni di distanza dalla loro emanazione, è necessario prendere atto che le norme sono ottimistiche e che devono essere cambiate.
               Ma le norme 2018 che qui stampiamo non hanno cambiato nulla di tutto questo.
Gli esperti consapevoli della gravità della situazione dovrebbero prendere risolute iniziative tese a preparare, sin da subito, norme di tipo diverso. I politici dovrebbero ascoltare.
               Né a qualcosa vale dire che la emanazione delle nuove norme, e dei rispettivi livelli di scuotimento, non può influire sulle prestazioni degli edifici esistenti. Infatti, lo Stato sta cercando di investire molti soldi pubblici per favorire azioni di consolidamento basate su valutazioni spesso molto ottimistiche, e quindi si può ben dire che tali azioni di consolidamento, basate su input sismici probabilistici, costituiscono un grave rischio ed un potenziale spreco di risorse, come si è visto a Norcia, nuovamente da ricostruire. Inoltre, anche a prescindere dalle azioni di consolidamento, il livello di scuotimento di riferimento dà una chiara indicazione alla popolazione civile e contribuisce, insieme con la terminologia delle norme, che dovrebbe essere trasparente e sincera, e non ingannevole, a costituire quella consapevolezza civile del pericolo che è alla base di ogni futura azione di mitigazione.
               E’ stato detto che la norma attuale garantisce “meno rischi per tutti anziché più sicurezza per pochi”. Ma i rischi non sono eguali per tutti, e diminuire un rischio basso o bassissimo non è come diminuire un rischio alto o altissimo. Il rischio sismico non è “democratico”, esistono priorità e urgenze che andrebbero valutate con criteri generali prudenziali e non illusoriamente precisi. Inoltre un tale slogan, di sapore vagamente sessantottino, mal si coniuga con la certezza che i metodi probabilistici della normativa sono, sic et simpliciter, sbagliati. La dispersione di denaro pubblico al fine di disseminare a pioggia interventi anche di mero maquillage basati su azioni errate perché spesso sottostimate, è un grave danno. E’ giusto consolidare e incentivare i consolidamenti, ma sulla base di informazioni realistiche.
               La politica sostanzialmente seguita dallo Stato nell’impiegare PSHA (e prima di esso la classificazione sismica basata sui meri cataloghi storici) è stata la seguente: assumere che su grandi numeri, progettare scommettendo sulla rarità dei terremoti e sulla loro intensità “probabilistica” avrebbe garantito ampi risparmi. Infatti, secondo questo cinico ragionamento, se è vero che ogni tanto qualche centro è colpito dal terremoto, e per esso le progettazioni di norma possono rivelarsi inefficaci, è anche vero che per tutti gli altri centri non colpiti il ragionamento comporta elevati risparmi.
Questo ragionamento è sbagliato almeno per queste ragioni.
               In primo luogo la stima probabilistica PSHA è fallata ed inattendibile. Di conseguenza sono inattendibili tutte le valutazioni globali di costi e risparmi basate su di essa. In particolare, lo stesso concetto di “perdita annua media”, applicato a un fenomeno intrinsecamente singolare e distruttivo, appare risibile.
               In secondo luogo, i costi complessivi necessari a creare ex novo edifici antisismici dipendono solo blandamente dalla severità del sisma. Allo stesso modo, un adeguamento a valori più alti di scuotimento non comporta uno stravolgimento dei costi. Sempre più ciò sarà vero tanto più sarà incentivata la ricerca in questo settore, pensando allo specifico italiano e non alle situazioni verificabili altrove (il tema per noi è: proteggere edifici esistenti irregolari, fragili ed in calcestruzzo armato, progettati con N/A<sadm o poco più, e proteggere edifici in muratura).
               In terzo luogo, lo Stato si è sostituito al Cittadino, fornendogli informazioni scorrette. I privati o gli imprenditori che ritengono utile spendere di più, per avere costruzioni e stabilimenti produttivi propri più sicuri, sono indotti in errore da normative non adeguatamente sincere sulla gravità del pericolo. Si tratta, in quel caso, di soldi privati, e non si soldi dello Stato, che anzi avrebbe un ritorno nell’incentivare soluzioni più sicure. Infatti è lo Stato che deve poi intervenire, non i privati. Dunque il ragionamento economico non quadra perché quando si costruisce non è quasi mai dei soldi dello Stato che si parla. Inoltre, si pone un problema di trasparenza verso i Cittadini, che non sono adeguatamente informati, ma anzi, sono indotti in errore dalla terminologia della norma e dal fiorire di apparente precisione collegata ad essa: di qui le tanto criticate sentenze della magistratura.
               In quarto luogo, un effetto collaterale della sottovalutazione probabilistica, è che in Italia non vi è la percezione del rischio sismico. A parte le popolazioni colpite, che si trovano in situazioni difficilissime, nel normale sentire il pericolo sismico non esiste. I calcoli “antisismici” sono ancora visti come una cosa esotica e sperimentale che può essere elusa, e chi ne invoca la necessità nella quiete del tran tran di tutti i giorni è considerato uno iettatore o un seccatore. Il sisma è “improbabile”, ha lunghi “periodi di ritorno”, e quindi non esiste.
               In quinto luogo, i costi complessivi non sono lineari, non derivano dalla sommatoria di costi sempre sopportabili. Non è detto che ci siano sempre centri piccoli o medio piccoli ad essere colpiti, qui e là. Se fosse severamente colpita una città di media o grande importanza, con molti abitanti, il danno allo Stato potrebbe essere così alto da far saltare il banco (l’Aquila, pur importantissima, aveva “solo” 70.000 abitanti al momento del sisma). Un simile rischio è semplicemente troppo alto da accettare per un Paese avanzato.
               In sesto ed ultimo luogo, il tempo gioca per i terremoti, non per la Repubblica. Sia perché scosse piccole o medie ripetute possono avere sulle costruzioni effetti cumulativamente disastrosi (un fatto, questo, assai poco indagato), sia perché la vita reale delle costruzioni è molto, molto più lunga di quella convenzionale delle NTC e in Italia l’abbattimento di edifici vetusti è quasi assente.
               E’ dunque necessaria ed urgente una inversione di rotta.
               Nell’intento di fornire ai nostri lettori un’informazione più completa nella direzione necessaria, abbiamo deciso, non senza attente riflessioni, di fornire in questo stesso testo informazioni alternative. Quindi, nell’appendice di questo volume è fornita una mappa neo-deterministica degli scuotimenti di riferimento al substrato roccioso, ed il software che già nel 2008 fu allegato al volume è stato aggiornato per fornire, oltre ed a fianco della valutazione della PGA probabilistica, la stima neo-deterministica dell’intervallo di accelerazioni di progetto, al bedrock.
Viene fornito un intervallo e non numero preciso, perché se si vuole essere franchi esistono ineludibili incertezze che non consentono di varcare certe precisioni; intervalli, e non valori precisi, perché solo tenendo in conto appropriatamente anche degli strati superficiali del sito è possibile ottenere in ambito NDSHA spettri di inviluppo utilizzabili per il progetto e denominati MCSI, Maximum Credible Seismic Input (Fasan et al. 2015 e 2017).
               Nel far questo riteniamo utile che i progettisti possano avere più informazioni e che possano, se lo ritengono, integrare le azioni valutate con i criteri probabilistici della normativa, con criteri di ben diversa solidità fisica e capacità di inviluppo.
La NTC 2018 nel contesto generale del Paese
Come già argomentato altrove (Rugarli 2014) le nostre norme tecniche hanno questa specifica caratteristica, tutta italiana: da un lato esse vogliono essere precise, in linea con i metodi più recenti e con i formati delle normative europee, dall’altro esse possono essere applicate praticamente da chiunque sia dotato di una opportuna protesi software.
Senza software, il Convitato di Vetro (Spagnuolo 2014), non si fa un bel nulla, e questo fatto è ormai accettato senza peraltro che siano presi provvedimenti atti a favorire la programmazione in software delle norme in modo corretto e generale. In effetti, questo delicato lavoro, che spesso cozza contro paragrafi inapplicabili perché scritti male, è interamente demandato alle software house del Paese. Talvolta insufficienti, altre volte eroiche.
               Dato che nel nostro Paese i veri esperti di ingegneria strutturale sono una modesta minoranza, sarebbe stato abbastanza utile predisporre due strategie contemporanee adatte alle specificità del Paese: in primo luogo formare più ingegneri strutturisti o assimilati, in secondo luogo predisporre norme o regolamenti di più facile uso, limitandone la applicazione a strutture più semplici, o standardizzabili, o di minor rischio.
Nulla di tutto questo.
               Da questo punto di vista le NTC 2018 non muovono un passo. E’ considerato di fatto preferibile che usando opportuni strumenti software dei quali spesso non viene compreso gran che, le più disparate figure professionali eseguano complessi calcoli sismici dei quali difficilmente viene compreso il reale significato, anche là dove, a ben vedere, basterebbero calcoli molto più semplici e regole standard alle quali uniformarsi.
               Questa circostanza, coniugata con il fatto che lo Stato sana periodicamente costruzioni abusive prive di alcun progetto (le ultime ed ennesime proposte elettorali di sanatoria sono recentissime), e delle quali non si sa nulla, porta ad un notevole sconcerto per l’evidente strabismo con cui viene considerato il problema della sicurezza strutturale in Italia. A riprova di ciò, i frequenti crolli dei quali è punteggiata la cronaca degli ultimi anni, e che testimoniano indirettamente uno stato di cose abbastanza grave, verso il quale ben poco sembra essere stato fatto.
               Sempre più chiusi nella loro torre di avorio che indica discutibili e complesse procedure atte a ottenere certe prestazioni strutturali, i normatori italiani non sembrano essersi accorti o non considerano come un loro problema il fatto che fuori, in Italia, sia il Far West, e che tutte le dettagliatissime prescrizioni (in una norma detta prestazionale), servano a ben poco se poi il resto è in dissesto.
               Sarebbe quindi meglio, per il nostro complicato Paese:
  1. Come normative di riferimento di dettaglio riferirsi agli Eurocodici ed ai relativi annessi nazionali, senza costosi ed inutili distinguo se non là dove necessario (ad esempio per la pericolosità sismica, gli edifici esistenti o la tutela del patrimonio artistico e monumentale, qui è necessario). Quindi, abolire le NTC così per come sono oggi concepite, e sostituirle con “Si adottano gli Eurocodici Strutturali e i relativi Annessi Nazionali, ad eccezione di questi e questi punti”.
  2. Emanare linee guida, non leggi, come riferimento per classi di strutture semplici e ben delimitate, che possano essere applicate e verificate a mano o quasi, senza l’ausilio di alcuno strumento software complicato, tenendo conto delle professionalità che il Paese si ritrova davvero a disposizione, e non delle poche centinaia di veri esperti. Quindi, generare svariate linee guida specifiche e dichiaratamente semplificate. Contrariamente alle apparenze, ciò migliorerebbe e non peggiorerebbe moltissimi calcoli e progetti.
  3. Emanare dettagliate e comprensibili linee guida o commentari che uniformino l’interpretazione da dare agli Eurocodici e siano di riferimento per le software house che sostengono il fondamentale compito di rendere applicabili le disposizioni di legge. Tali linee guida dovrebbero essere redatte da gruppi di lavoro prescelti solo in base alle competenze effettivamente dimostrate sul campo, e non in base ad altri discutibili criteri. Molte software house sono perfettamente in grado di implementare le norme seguendo interpretazioni ragionevoli, ma ciò non garantisce la uniformità.
 
Il raffronto tra versioni diverse della normativa
Sebbene non si possa dire che le norme NTC 2018 costituiscano uno stravolgimento rispetto alle NTC 2008, perché gli aspetti di maggiore importanza, quelli che veramente avrebbero potuto cambiare significativamente le cose, come abbiamo visto, sono rimasti sostanzialmente inalterati (Much Ado about Nothing: Molto Rumore per Nulla), l’esame comparato dei due testi mostra una miriade di variazioni, non sempre realmente significative, anzi spesso puramente estetiche, ma talvolta assai significative, che stanno ad indicare un protratto lavoro di cesello, anche su questioni che dovrebbero essere chiare da tempo.
Qualcuno ha già cercato di enumerare le principali differenze, e quindi si è detto ad esempio della (benvenuta) definizione di robustezza e durabilità, della abolizione delle tensioni ammissibili, dell’atteso adeguamento del minimo per il fattore di comportamento a q=1,5 come da anni nell’Eurocodice 8, e della definitiva cancellazione dei riferimenti alle zone sismiche, ma su cosa sia una differenza “principale” è lecito opinare. Preferiamo quindi non enumerare le “principali differenze”, perché potremmo omettere delle differenze sostanziali per qualche lettore, come gli esempi seguenti dimostrano. Talvolta piccole modifiche portano a grandi conseguenze.
               Per favorire i lettori della norma, certo anche alle prese con un periodo di interregno tra le due NTC, abbiamo posto nel CD allegato dei file PDF ottenuti confrontando capitolo per capitolo il testo del 2008 con il testo del 2018. Comparando attentamente i due testi, si possono fare scoperte interessanti. Ovviamente non è questa la sede per enumerare la foresta delle variazioni: ciascuno, grazie ai file sul CD, lo potrà fare nelle aree di proprio interesse.
               Al fine di illustrare la natura delle osservazioni fatte poc’anzi, valgano alcuni esempi tratti dai capitoli 2 e 3.
 
§2.3 NTC 2008: Per la valutazione della sicurezza delle costruzioni si devono adottare criteri probabilistici scientificamente comprovati.
§2.3 NTC2018: cancellato.
Non è più necessario che i metodi probabilistici siano scientificamente comprovati. Si possono dunque usare metodi probabilistici scientificamente infondati, o semplicemente metodi probabilistici. Dato che le NTC 2008 riportavano esplicitamente il requisito della “scientificità” e ora non più i casi sono tre:
  1. Si è ritenuto che la scientificità fosse ovvia precondizione e si è tolto un paragrafo ridondante. Strano ma possibile.
  2. Si è ritenuto che fosse ormai comprovata la non scientificità di alcuni dei metodi in uso e si è corsi ai ripari: verosimile.
  3. Si è ritenuto che la scientificità fosse una condizione in generale opzionabile o discutibile (cosa è scientifico? Chi siamo? Dove andiamo?). Quindi la si è tolta di mezzo.
Al lettore il giudizio.
 
§2.3 NTC2008: nulla
§2.3 NTC2018: Il valore di progetto delle azioni agenti sulla struttura Fd è ottenuto dal suo valore caratteristico Fk inteso come frattile della distribuzione statistica o come valore caratterizzato da un assegnato periodo di ritorno […].
Il “periodo di ritorno” viene quindi ad essere formalmente definito come alternativa valida al valore caratteristico, introducendo in modo solenne, a livello di definizione delle azioni, il concetto che queste possano soddisfare questo discutibile modello pseudo scientifico. E’ quindi fatto assurgere a livello di definizione generale delle azioni, nella Gazzetta Ufficiale della Repubblica, il pregiudizio del tacchino induttivista di Russel, per di più in totale assenza di dati atti a consentire la induzione. La realtà è dunque forzata per legge ad adempiere al modello.
 
§2.4.1 NTC2008: La vita nominale di progetto di un’opera strutturale VN è intesa come il numero di anni nel quale la struttura, purché soggetta alla manutenzione ordinaria, deve poter essere usata per lo scopo al quale è destinata.
§2.4.1 NTC2018: La vita nominale di progetto VN di un’opera è convenzionalmente definita come il numero di anni nel quale è previsto che l’opera, purché soggetta alla necessaria manutenzione, mantenga specifici livelli prestazionali.
Si aggiunge il “convenzionalmente” che tradotto vuol dire “è ovvio che la vita reale della costruzione non c’entra nulla”. Si accenna ai “livelli prestazionali” per ossequio al fatto che le norme sono appunto “prestazionali”. Cosa vuol dire questo nel caso sismico, dato che tutte le “probabilità” e gli scuotimenti sono affetti da errori di base significativi ? Che la norma fissa livelli di azioni arbitrari, che poi servono a misurare le “prestazioni” delle strutture rispetto ad essi. Se sono infondate o puramente convenzionali le azioni, e lo sono, è anche infondato o puramente convenzionale il calcolo delle “prestazioni”.
 
§2.4.1 NTC2008: nulla.
§2.4.1 NTC2018: Le verifiche sismiche di opere di tipo 1 o in fase di costruzione possono omettersi quando il progetto preveda che tale condizione permanga per meno di 2 anni.
La indicazione era presente nella Circolare del 2009 (C.2.4.3), ma non nella normativa. Ora invece è accolta nel testo della norma, insieme con la cancellazione della vita di riferimento minima di 35 anni (vedi sotto).
Ciò è da notare perché implicitamente fa entrare le “probabilità” in senso potenzialmente disastroso: implica che per queste strutture di tipo 1 temporaneo o provvisorio (o per le strutture in fase di costruzione), il terremoto non arriverà di sicuro (in senso probabilistico). Poniamo che fosse stata costruita una cosa simile a meno di due anni dal sisma de L’Aquila, o dell’Emilia o di Amatrice Norcia Visso, in quei siti. Nessuna verifica sismica da fare. Ciò ricorda il tragico “è improbabile che ci sia a breve una scossa come quella del 1703 pur se non si può escludere in maniera assoluta” (31-3-2009 verbale della Commissione Grandi Rischi riunitasi a L’Aquila. Il terremoto arrivò sei giorni dopo). Qui invece è stato escluso in maniera assoluta. Perché questa temerarietà? Perché la “probabilità” che avvenga un sisma con “periodo di ritorno” di 475 anni nei prossimi due anni è bassa, secondo il paradigma di norma. E perché? Perché se la “probabilità” è del 10% in 50 anni, essa, grosso modo, è dello 0.4% circa in due anni. Come dire che tirando un dado con 475 facce (e “periodo di ritorno” 475 lanci) la probabilità che esca il numero 2 in due lanci è circa 0.4%, mentre se lo tiro cinquanta volte è circa 0.1[1]. In alternativa a questo ragionamento con dado “pesante” da 475 facce (un sisma severo), si può fare un ragionamento probabilistico su un dado “leggero” a due facce (“periodo di ritorno” due lanci, un sisma blando). Qui il numero 2 uscirà in due lanci con il 75% di probabilità[2], ed il quattro lanci con il 93,75% di probabilità. Ma è un sisma/dado piccolo, e quindi sopportabile. E’ appena il caso di dire che i fenomeni sismici non giocano ai dadi, non seguono le regole dei dadi che invece la normativa segue. I sismi arrivano quando lo decidono loro, non quando lo decidono le NTC.
 
§2.4.3 NTC2008: Se VR [la vita di riferimento per il calcolo delle azioni sismiche] è minore di 35 anni, si pone comunque VR = 35 anni.
§2.3 NTC2018: Nulla.
Nella Circolare del 2009 era scritto che la prescrizione era stata messa “per assicurare alle costruzioni un livello di sicurezza antisismica minimo irrinunciabile” (C2.4.3). A distanza di nove anni vi si è rinunciato. In questo modo si possono gestire vite di riferimento a fini sismici di 15 o 10 anni, o anche meno (sino a 5), con conseguente ulteriore diminuzione delle azioni sismiche stesse. Tale diminuzione delle azioni sismiche di norma, a sua volta, potrà più facilmente consentire di considerare adeguate o migliorate strutture in realtà a rischio. La direzione è dunque quella di creare molti calcoli ingannevoli, tesi a sdoganare situazioni che altrimenti diventerebbero difficili e richiederebbero appunto di fare quello che manca al Paese: considerare le azioni sismiche normali azioni come tutte le altre. Questo trucco computazionale consente di non porsi il problema sismico in molti casi.
 
§3.2 NTC2008: Le azioni sismiche di progetto, in base alle quali valutare il rispetto dei diversi stati limite considerati, si definiscono a partire dalla “pericolosità sismica di base” del sito di costruzione. Essa costituisce l’elemento di conoscenza primario per la determinazione delle azioni sismiche.
§3.2 NTC2018: Le azioni sismiche di progetto, in base alle quali valutare il rispetto dei diversi stati limite considerati, si definiscono a partire dalla “pericolosità sismica di base” del sito di costruzione e sono funzione delle caratteristiche morfologiche e stratigrafiche che determinano la risposta sismica locale.
La pericolosità sismica di base del sito di costruzione non è più “l’elemento di conoscenza primario”. In effetti, se si usano terremoti presi da banche dati internazionali, riscalati e modificati con procedure numeriche della più varia specie e tipo, sarebbe lecito chiedersi se e quanto resti della “pericolosità sismica di base” proprio del sito di costruzione. La cancellazione della specifica rende oggettivamente più libera la scelta di un input sismico. Solo gli effetti locali, e non gli specifici effetti legati al tragitto sorgente-sito, sono considerati influenti, ma non è così.
 
§3.2.3.6 NTC2008: L’uso di accelerogrammi generati mediante simulazione del meccanismo di sorgente e della propagazione è ammesso a condizione che siano adeguatamente giustificate le ipotesi relative alle caratteristiche sismogenetiche della sorgente e del mezzo di propagazione.
§3.2.3.6 NTC2018: L’uso di storie temporali del moto del terreno generate mediante simulazione del meccanismo di sorgente e della propagazione è ammesso a condizione che siano adeguatamente giustificate le ipotesi relative alle caratteristiche sismogenetiche della sorgente e del mezzo di propagazione, e che negli intervalli di periodo sopraindicati, l’ordinata spettrale media non presenti uno scarto in difetto superiore al 20% rispetto alla corrispondente componente dello spettro elastico.
Questo paragrafo consente l’uso dei sistemi neodeterministici, ma ora impedisce che questi diano scarti medi superiori del 20% rispetto allo spettro elastico di norma (“probabilistico”, con un dato “periodo di ritorno”, tutto da stabilire), in tutto un vasto intervallo di periodi. La delimitazione del 20% è stata aggiunta per eliminare quei casi, pur esistenti, in cui le valutazioni prudenziali di tipo neodeterministico portavano ad azioni sismiche significativamente inferiori a quelle di norma. Un tale criterio di salvaguardia potrebbe essere considerato a favore di sicurezza. Purtroppo non vale il viceversa. E’ da notare che uno scarto medio non vuole dire gran che, dato che si può ottenere con segnali aventi spettri profondamente diversi. E’ interessante osservare che a un capoverso seguente viene detto invece, per segnali “più eguali degli altri”:
 
§3.2.3.6 NTC2008: Gli accelerogrammi registrati devono essere selezionati e scalati in modo da approssimare gli spettri di risposta nel campo di periodi di interesse del problema in esame.
§3.2.3.6. NTC2018: Le storie temporali del moto del terreno registrate devono essere selezionate e scalate in modo che i relativi spettri di risposta approssimino gli spettri di risposta elastici nel campo dei periodi propri di vibrazione di interesse per il problema in esame.
Le storie registrate, sono i terremoti avvenuti in altre parti del globo per esempio in Cina o in Cile, e che hanno in comune la magnitudo la profondità e la distanza con lo scenario preso in considerazione per il sito italiano in esame (con notevoli incertezze legate alla profondità dell’ipocentro e alla magnitudo), ma non, evidentemente, gli strati presenti tra sorgente e sito, e non gli strati superficiali. Questi segnali possono essere riscalati e trattati numericamente per adattarsi agli spettri (“approssimino”), ma senza alcuna limitazione a differenza di tutti gli altri, e senza tener conto dei periodi propri di interesse se non in modo generico. Non ci sono intervalli numerici da rispettare. Quindi: a) i segnali effettivamente ancorati alle caratteristiche specifiche del sito e del percorso sorgente-sito, quelli neodeterministici, devono rispettare stringenti controlli di prossimità con gli spettri probabilistici di norma; b) i segnali presi da chi sa dove e opportunamente trattati numericamente, invece, no. Per loro i criteri sono più laschi.
 
Le appendici a questo volume
Nelle appendici a questo volume vengono date informazioni introduttive su NDSHA nonché la mappa NDSHA del 2012, ed è spiegato il funzionamento della nuova versione del software NTCSISMA.
Buona lettura.
Milano 6 febbraio 2018
Il curatore
Paolo Rugarli
Ingegnere Strutturista
Riferimenti
Accademia Nazionale dei Lincei, La Resilienza delle Città d’Arte ai Terremoti, 3-4/11/2015 Roma.
Beni Culturali Regione Veneto, Prevenzione Sismica in Area Veneta
Fasan, M., C. Amadio, S. Noè, G. F. Panza, A. Magrin, F. Romanelli, and F. Vaccari. 2015. A new design strategy based on a deterministic definition of the seismic input to overcome the limits of design procedures based on probabilistic approaches. Pages 1–11, XVI Convegno ANIDIS. L’Aquila.
Fasan, M., A. Magrin, C. Amadio, F. Romanelli, F. Vaccari, and G. F. Panza. 2016. A seismological and engineering perspective on the 2016 Central Italy earthquakes. International Journal of Earthquake and Impact Engineering 1:395–420.
Fasan, M., A. Magrin, C. Amadio, G. F. Panza, F. Romanelli, and F. Vaccari. 2017. A possible revision of the current seismic design process. Pages 1–12 16th World Conference on Earthquake Engineering. Santiago, Chile.
Kahneman D, 2011, Thinking Fast and Slow, Macmillan (in Italiano Pensieri Lenti e Veloci, Saggi Mondadori 2012)
Kossobokov, V. e Nekrasova, A., 2012, Global Seismic Hazard Assessment Program Maps Are Erroneous, Seismic Instrum., 48, 162-170, Allerton Press, Inc., doi: 10.3103/S0747923912020065.
Mulargia F., Stark P. B., Geller R. J., Why is Probabilistic Seismic Hazard Analysis (PSHA) still used?, Physics of the Earth and Planetary Interiors, 264, Marzo 2017, https://doi.org/10.1016/j.pepi.2016.12.002
Panza P, Peresan A, 2016, Difendersi dal Terremoto Si Può, I Diagonali, EPC, Roma
Pierotti P, 2016, Sismografia Storica, I Diagonali, EPC, Roma
Rugarli P, 2008, Zone Griglie o…Stanze, Ingegneria Sismica, 1
Rugarli P, 2014, Validazione Strutturale, I Diagonali, EPC, Roma
Società Geologica Italiana, Comunicati e Notizie, 14/9/2015
Spagnuolo R, 2014, Il Convitato di Vetro, I Diagonali, EPC, Roma



[1]1-(1-1/475)50 ≈ 0.1
[2] 1-(1-1/2)2 = 3/4