lunedì 4 novembre 2024

La modellazione dello smorzamento

Introduzione


Questo post nasce dalle domande fatte dall'ing. Carlo Sigmund in un commento a questo post su Linkedin


1) Pongo un quesito all’ing. Rugarli. Se si esegue un’analisi dinamica modale su un viadotto con sistemi di isolamento (che hanno coeff. di smorzamento viscoso equivalente > 5%) in testa alle sottostrutture, è giusto considerare per le verifiche di resistenza delle pile direttamente le sollecitazioni inviluppo che il software di calcolo riporta in output, (input di spettro scalato per T >= 0.8Tis)? In altre parole, può il diretto risultato di un’analisi dinamica modale (escludendo per semplicità effetti di interazione/deformabilità terreno-fondazioni, deformazioni anelastiche sezioni di connessione, effetti del II ordine, ecc.) essere rappresentativo per “estrarre” le sollecitazioni N, M, V, T ad esempio sulla sezione di spiccato di una pila (soprattutto nel caso di pile di altezza molto diversa fra loro)?

2) Sembrerebbe che i software di calcolo al momento disponibili non permettano di differenziare, almeno nelle analisi modali lineari, i “damping ratios” di tutti gli elementi presenti nel modello (in generale, le pile in condizioni di fessurazione, le fondazioni stesse, i terreni e gli apparecchi di appoggio stessi) e che il calcolo utilizzi lo stesso “damping ratio” fissato negli spettri con ramo scalato (quindi in funzione dei soli apparecchi di appoggio). La domanda: è sbagliato analizzare la pila e l’interazione terreno-fondazioni con un modello SDOF utilizzando in input gli scarichi “scalati” provenienti dall’impalcato (da analisi modale modello 3D)? E così poter calcolare, utilizzando per la pila e l’interazione suolo-fondazioni, differenti valori di “damping ratio”? La domanda mi appare ancora più pressante se nel viadotto ci sono pile molto alte.


L'argomento e le domande poste dal collega sono molto interessanti, per rispondere però c'è bisogno di più spazio. Ecco quindi che qui do il mio punto di vista sulla questione, rifacendo il punto sulla questione smorzamento anche per i non strettamente addentro ai problemi di calcolo e sviluppo.


Lo smorzamento

E' importante dire che lo smorzamento in tutte le analisi dinamiche gioca un ruolo fondamentale. Una differenza nel valore di smorzamento può fare la differenza tra la vita e la morte, per una struttura. D'altro canto, sia per ragioni fisiche che per ragioni numeriche, la modellazione dello smorzamento è molto complicata e presenta aspetti incerti e di difficile valutazione.
Influiscono sullo smorzamento:
  1. La ampiezza delle oscillazioni.
  2. Le parti non strutturali e non modellate: partizioni, infissi, masse in moto attritivo.
  3. Lo smorzamento interno agli elementi strutturali, che può essere:
    1. Isteretico (legato a cicli di plasticizzazioni e scarichi), con o senza degrado ciclico
    2. Attritivo
    3. Legato a microfessurazioni o vere e proprie fratturazioni
  4. Lo smorzamento legato alla interazione delle fondazioni con il suolo.
  5. Radiation damping
  6. Lo smorzamento legato alla interazione della struttura con l'aria o coi i fluidi in cui è immersa.
  7. ....

Da un punto di vista numerico, lo smorzamento di gran lunga più usato è quello viscoso, in cui le forze di smorzamento sono direttamente proporzionali alla velocità. E' detto "equivalente" perché spesso è tarato in modo da comportare una dissipazione equivalente a quella che si vuole modellare.

Quando non si può, non si vuole o non si riesce a modellare in modo dettagliato lo smorzamento con appropriate leggi costitutive (smorzamenti 3 e 4, pur con le incognite legate alla modellazione del suolo, anche per mezzo di elementi concentrati), si ricorre allo smorzamento viscoso. Che è un "trucco" perché non tutti gli smorzamenti sono viscosi (ma qualcuno sì).

Si ricorre anche allo smorzamento viscoso per la modellazione di smorzamenti che sarebbe impossibile modellare esplicitamente (smorzamento 2 e 6). In letteratura tale smorzamento si chiama "inherent damping" o "unmodelled damping".

Se non si riesce a modellarli (per qualche ragione) anche gli smorzamenti 3, 4 e 5 e 6 vengono talvolta tenuti in conto con lo smorzamento viscoso.

In tutti i casi (anche i casi 3) la modellazione dello smorzamento (e del degrado ciclico) è complicata e presenta una incognita rispetto al reale comportamento sperimentale, in specie per le strutture esistenti, nelle quali non esistano dispositivi appositamente progettati allo scopo di dissipare energia.


La decomposizione modale

Perché si possa fare una analisi modale, il sistema deve essere disaccoppiabile. Se il sistema non è smorzato, è sempre disaccoppiabile. Se il sistema è smorzato, esso è disaccoppiabile solo quando lo smorzamento è viscoso (e basta) e la matrice dello smorzamento C presenta certe ben precise caratteristiche.

Quando lo smorzamento è tale da consentire il disaccoppiamento è detto "classico".

A livello di analisi modale, tre sono le tecniche classicamente in uso per disaccoppiare il sistema:
  1. Smorzamento alla Rayleigh : C = ɑM + 𝛽K.
  2. Smorzamento alla Caughey che è una estensione del precedente
  3. Smorzamento "modale" o alla Wilson-Penzien, o "light damping approximation"




Lo smorzamento alla Rayleigh contente di specificare il valore di smorzamento relativo al critico solo di due modi (il cui smorzamento è imposto, o "collocato"). Gli smorzamenti degli altri modi derivano direttamente da una formula ben precisa, che dà lo smorzamento in funzione di ɑ di 𝛽 e delle frequenze dei due modi collocati. Il risultato è che lo smorzamento degli altri modi può essere completamente sbagliato, e in particolare, troppo alto. Quindi i modi ad alta frequenza possono essere smorzati via (damped out) dalla risposta, che può così venire a perdere parti importanti.

Lo smorzamento alla Caughey è computazionalmente molto più oneroso di quello alla Rayleigh, e comunque, dato che una struttura può avere dozzine di modi, può di fatto essere impiegato, ancora una volta, solo con precisione su alcuni.

Lo smorzamento alla Wilson-Penzien, di fatto ragiona in questo modo: a ogni modo estratto con i metodi normali, viene associato un certo smorzamento relativo al critico. Esiste una certa matrice di smorzamento viscoso C che dà luogo a questo risultato (tale C non è sparsa, il che ha ricadute sulle TH). Nelle analisi modali, tale matrice non è però calcolata, di fatto si utilizzano gli stessi modi. Da notare che la equazione del singolo oscillatore, ma viscosamente smorzato, presenta un periodo diverso da quello dell'oscillatore libero. Il termine per cui bisogna moltiplicare la pulsazione ⍵ è pari a sqrt(1-𝛎2), che, se lo smorzamento è piccolo, è praticamente pari a 1, ma che, se lo smorzamento è grande, può differire un po' più (con 𝛎 = 0.2 vale 0.98).

Questo ultimo tipo di smorzamento, è fattibile numericamente, ma non è detto che sia giustificato fisicamente: non è detto che il sistema sia veramente disaccoppiabile. In particolare, la presenza di smorzatori viscosi concentrati (tipicamente smorzatori in fondazione o isolatori), il sistema tipicamente non è disaccoppiabile.

Anche se si attribuisce agli elementi un certo smorzamento elementare, per esempio alla Rayleigh, per tener conto del diverso smorzamento in diverse parti della struttura, la matrice di smorzamento che si ottiene non è disaccoppiabile (cfr. infra).


Analisi a spettro di risposta (RS)

Lo smorzamento adoperato nella RS

Nella analisi a spettro di risposta viene normalmente impiegato uno spettro unico, con un dato smorzamento. Dello smorzamento si tien conto tramite la modifica dello spettro elastico con un certo smorzamento. Da quanto abbiamo visto prima, si capisce che tale assunzione coincide di fatto con uno smorzamento alla Wilson-Penzien in cui tutti i modi abbiano lo stesso smorzamento, quello dello spettro.

Tale assunzione è giustificata?

Se si fa una analisi modale con una struttura in cui siano presenti degli isolatori, ci saranno dei modi che sperabilmente saranno i primi, a periodo lungo, in cui la struttura tenderà a muoversi come corpo rigido sull'isolatore. Ci saranno poi dei modi a periodo più breve, sperabilmente ben distaccati dai primi, in cui la struttura si deformerà.

Nei primi modi, lo smorzamento da associare sarebbe quello degli smorzatori. Smorzamenti relativi al critico alti.

Nel secondi modi, lo smorzamento da associare sarebbe quello tipico della struttura, per esempio 5%.

Lo spettro di risposta da usare per questi modi, dovrà essere a rigore diverso. Non per la forma o per la PGA di ancoraggio (comunque assai discutibili), ma per lo smorzamento.

Dato che nella RS gli effetti dei modi vengono computati singolarmente, e poi combinati (con CQC o altro) a valle, nulla vieta di usare spettri con smorzamento diverso per modi diversi, ovvero spettri modali (potrebbe essere il metodo degli spettri di risposta modali). La norma al punto 7.10.5.3.2. dice che lo spettro di risposta elastico va ridotto con lo smorzamento del sistema di isolamento, solo per il campo di periodi corrispondente a T > 0.8sec. Il che è un modo per applicare due spettri di risposta diversi a seconda dei periodi. Più logico sarebbe applicare lo smorzamento in funzione della forma dei modi: per i modi che lasciano la struttura indeformata, lo smorzamento dell'isolatore, per i modi che la deformano, lo smorzamento del 5% o comunque quello "strutturale" (il 5% è uno smorzamento strutturale alto e tiene conto di un elevato livello di spostamento, ovvero di oscillazioni ampie). Nella speranza/esigenza che i due insiemi di modi non si presentino assieme.

Il problema è appunto che un qualche accoppiamento c'è quasi sempre. Se non ci fosse accoppiamento il periodo del modo traslazionale coinvolgente l'isolatore sarebbe quello dell'oscillatore di massa eguale alla massa totale della struttura e rigidezza pari alla sola rigidezza traslazionale dinamica degli isolatori. Se il periodo è più lungo, allora la struttura in qualche modo si deforma pure lei, e quindi vi è accoppiamento. La struttura non trasla rigidamente.

Due deformate modali. La seconda, in basso, rigorosamente disaccoppiata, la prima in alto, non proprio.



Quando sarebbe giustificato usare comunque un solo spettro, con uno smorzamento alto, nel caso di modellazione di struttura con smorzatori?

Sarebbe giustificato solo se il fattore di partecipazione dei modi coinvolgenti la struttura e che la vedano deformarsi, senza coinvolgimento degli isolatori, fosse molto basso, trascurabile, ovvero solo se ci fosse un disaccoppiamento totale, e effettivamente i modi deformativi della struttura fossero completamente ininfluenti. 

Se ciò non avviene, assegnare a tali modi, non coinvolgenti gli isolatori, lo smorzamento degli isolatori non è a favore di sicurezza. Ma la norma consente di farlo solo per periodi maggiori di 0.8 secondi, come si è visto. Tali modi, con un isolatore, dovrebbero coinvolgere il solo isolatore.

Anche nel caso di modi misti, ovvero in cui si deformano sia le molle al piede simulanti gli isolatori, sia in qualche modo la struttura, la assegnazione di un unico smorzamento a quel modo pare discutibile.


Modi ad alta frequenza

I modi ad alta frequenza possono essere o no importanti.

Non sono importanti, ed anzi sarebbe meglio non considerarli, quando sono il risultato di atti di moto locali, favoriti e computati con una mesh localmente insufficiente. In questo caso la loro è una esistenza puramente numerica, nel senso che i modi locali, quando calcolati appropriatamente infittendo localmente la mesh, avrebbero forme e periodi diversi.

Sono importanti quando sono la corretta risposta di parti della struttura per le quali siano effettivamente presenti oscillazioni locali ad alta frequenza che, pur non essendo importanti globalmente, possono dare un contributo significativo localmente. E magari scatenare una crisi.

Nel primo caso, la loro sparizione per eccesso di smorzamento può essere un fatto positivo. Ciò può avvenire con lo smorzamento alla Rayleigh, che colloca solo i due modi più importanti, o con smorzamenti alla Wilson-Penzien variabili linearmente con la frequenza; può anche avvenire, nelle time history, quando il dT della analisi è paragonabile al T del modo in questione, e con certe tecniche numeriche piuttosto che altre (per esempio, il metodo Wilson-Θ, se il dT non è sufficientemente piccolo rispetto al periodo di un modo, lo fa sparire dalla risposta).

Dipende.

Time History Modale (THM)

La THM richiede il disaccoppiamento dei modi, e quindi impone che lo smorzamento sia classico:

  • Alla Rayleigh
  • Alla Caughey
  • Alla Wilson-Penzien
Tutti questi smorzamenti esprimono condizioni sulla C globale assemblata e non usano smorzamento elementare.

Se ci sono altre fonti di smorzamento (isteresi, attrito), o se lo smorzamento non modellato non è del tipo indicato, la modale non si può fare e non si può nemmeno fare la THM. Però la THM continua ad avere valore per molte ragioni:

  1. E' utilizzabile per strutture lineari e con smorzamento classico (viscoso disaccoppiabile).
  2. Consente di studiare la energia elastica entrante nel sistema.
  3. Consente di prevedere picchi di risposta e di scegliere gli accelerogrammi (EDEM).

Time History con integrazione diretta, Lineare o Non Lineare (THL, THNL).

In questo caso i modi non servono. Però, serve un'altra cosa, che per la analisi di strutture realistiche non è meno importante: la sparsità di C.
    Se C non è sparsa, la occupazione di memoria e il tempo di calcolo possono essere molto significativi o addirittura proibitivi. Le tecniche di integrazione (Newmark, Wilson-Θ), ricordo, perturbano la matrice di rigidezza (a ogni passo in campo NL), con contributi funzione della matrice delle masse M e della matrice di smorzamento C. Se questa non è sparsa, sono guai.
    Ne consegue che, ad esempio, lo smorzamento alla Wilson-Penzien, che sarebbe auspicabile, non è di fatto utilizzabile (se non a un costo computazionale molto elevato quando ci sono tanti GDL) nelle THL e THNL, poiché conduce a una C non sparsa.
    In tempi relativamente recenti (2016), nell'ambito delle THL e NL, è stato proposto lo smorzamento elementare, come tecnica atta a tener conto in modo puntuale del diverso smorzamento in diverse parti della struttura, in funzione del materiale e/o della zona (Puthanpurayil et al, 2016).
    Non si sta parlando dello smorzamento isteretico o attritivo, seguito integrando le leggi costitutive nel tempo. Si sta parlando di un mezzo semplificato per tener conto dello smorzamento non modellato direttamente con le tecniche di integrazione della legge costitutiva. Di solito, uno smorzamento viscoso equivalente, che concorre all'assemblaggio della C globale.    
    
    Purtroppo, queste tecniche hanno mostrato limiti forti legati (Lee et al. 2023):

  • Al fatto che si perde il significato fisico di quello che si sta facendo. Per avere smorzamenti globali decenti possono essere necessari smorzamenti elementari altissimi.
  • Al fatto che non è accettabile che sia necessario smorzare anche gli atti di moto rigidi dell'elemento.
  • Al fatto che la matrice C, benché sparsa, porti a sistemi non disaccoppiabili.

In tempi molto più recenti il meraviglioso lavoro di Lee (davvero straordinario), ha condotto a una completa ridefinizione del problema (Lee 2020).

Inizialmente le nuove tecniche hanno riguardato le tecniche classiche, con il particolare obiettivo di avere uno smorzamento globale alla Wilson-Penzien, ma con matrici sparse. La tecnica proposta nel 2020 fa uso di un assemblaggio completamente diverso e aggiunge altri nuovi gradi di libertà di appoggio. Lo smorzamento è modellato con "bell functions", che hanno generalità e flessibilità.

In un secondo tempo (Lee et al. 2023) l'approccio è stato esteso allo smorzamento elementare, risolvendo a quanto pare tutti i relativi problemi.

Al momento, pare di poter dire che l'approccio di Lee e del gruppo di studiosi neozelandesi è quanto di meglio esista per la modellazione dell'inherent damping viscoso.


Riepilogo smorzamenti

In presenza di smorzatori concentrati o di smorzamento isteretico o attritivo, non c'è mai la disaccoppiabilità, quindi tecniche modali non sembrano essere adeguate.

Allo stato attuale la situazione pare essere questa:


Smorzamento                Disaccoppiabilità        Sparsità        Precisione Smorzamento

Rayleigh                                                            sì                                no
Caughey                                                            sì                                no
Wilson-Penzien                                                 no                               sì
Elementare  Rayleigh(*)           no                       sì                                no - perdita significato fisico
Elementare Bell Shaped (**)    no                       no                               sì
Elementare Bell shaped (***)   sì                        sì                                sì

(*)          Ogni elemento ha il suo smorzamento alla Rayleigh
(**)        Ogni elemento ha il suo smorzamento bell shaped, e l'assemblaggio è classico
(***)      Ogni elemento ha il suo smorzamento bell shaped, e l'assemblaggio è alla Lee con nuovi gradi di libertà (Lee 2020)

Risposte ai quesiti dell'ing. Sigmund

Ora, chiarite un po' di cose, anche per utilità generale, posso provare a rispondere ai quesiti.

A mio parere dunque, a rigore la risposta alla domanda dell'ing. Carlo Sigmund numero 1) è "NO".
In presenza di smorzatori concentrati, la matrice di smorzamento C non ha la forma né dello smorzamento alla Rayleigh, né dello smorzamento alla Caughey, né di quello alla Wilson-Penzien. Pertanto una analisi "dinamica modale", fosse anche una THM e non una RS, non può dirsi un calcolo rigoroso.

Semplicemente, in presenza di smorzatori concentrati, il sistema non è disaccoppiabile.

A mio parere, se il sistema di smorzare i modi che presentino uno spostamento strutturale rigido (ammesso che esistano) con lo smorzamento dell'isolatore può essere un buon escamotage, io non lo adotterei in presenza di strutture molto importanti come forse un ponte con varie pile e per di più di diversa altezza.

Meno che meno adotterei uno smorzamento alto indiscriminatamente per tutti i modi. Se un modo presenta deformazione strutturale (indipendentemente dal suo periodo secondo me) lo smorzamento afds non può essere che quello della struttura. Se no, le corrispondenti azioni interne sono sottostimate.

In questi casi bisogna fare una integrazione nel tempo e quindi integrare il sistema.

Relativamente alla premessa del quesito 2), io non so dire cosa facciano i software perché il mio è un lavoro di sviluppo dei miei. Lo smorzamento "elementare" è stato inteso in letteratura come un modo per tener conto dello smorzamento non modellabile o "inerente" (non quello isteretico, non quello attritivo, che si modella integrando la legge costitutiva NL), in modo da differenziarlo da materiale a materiale e da zona a zona nella struttura. Tali tecniche presentano problemi perché è difficile mettere in relazione lo smorzamento degli elementi con quello globale, perché il sistema risulta non disaccoppiabile e perché si perde il significato fisico di quello che si sta facendo (Lee et al. 2023). Dato che l'assemblaggio di C elementari diverse (Ce) dà luogo a una C che accoppia il  problema, le tecniche di smorzamento elementare non sono applicabili alla analisi modale (se non con speciali tecniche di assemblaggio introdotte dall'importante lavoro di Lee, e con la aggiunta di nuovi dof). 

Lo smorzamento isteretico, quello attritivo, e quello degli smorzatori concentrati viscosi, non potrà mai, a mio parere, essere modellato in modo accurato con tecniche di decomposizione modale: è necessaria una analisi al passo che, a causa della natura del problema, non può che essere non lineare.

Le THNL rappresentano oggi quello che dobbiamo fare, per liberarci di lacci e lacciuoli che sono ormai non più necessari. Anche se, per moltissime ragioni, avremo comunque sempre e solo approssimazioni del comportamento reale e non precise simulazioni (magari apparentemente precise). In specie sulle costruzioni esistenti.

La risposta al quesito 2) (se ho capito bene) è che quello che si cerca di fare è di fatto disaccoppiare il moto facendo prima "alto" e poi "basso". Io semmai farei prima "basso" e poi "alto", ma non so se ho capito bene. Può darsi che questo in certi casi sia possibile, ma non credo che sia possibile in senso generale, in tutti i casi. Non vedo giustificazioni teoriche per fare una cosa del genere in generale, anzi vedo ostacoli legati all'accoppiamento. Forse si potrebbe procedere disaccoppiando quando una analisi modale mostri davvero che quando si deformano gli isolatori la struttura non si deforma (ma trasla a corpo rigido) e viceversa. Ma ho la sensazione che sia una situazione assai difficile da ottenere con rigore. In quel caso, uno in teoria potrebbe:

  • studiare la risposta di un oscillatore semplice al segnale, tenendo conto della rigidezza locale dell'isolatore, della massa totale, e dello smorzamento locale.
  • usare la risposta di questo oscillatore (la accelerazione in funzione del tempo) come segnale da applicare alla struttura su appoggi rigidi, e con il suo smorzamento inerente.
Ciò però implica assumere che quando si deforma l'isolatore la struttura resti rigorosamente indeformata il che penso sia raramente verificato.

La risposta al problema, capisco non troppo soddisfacente, secondo me è: THNL con:
  1. Modellazione dello smorzamento isteretico e attritivo per integrazione diretta delle leggi costitutive (includendo il degrado ecc.).
  2. Assemblaggio dello smorzamento viscoso degli smorzatori concentrati alla matrice C.
  3. Modellazione dell'inherent damping o con Rayleigh, o con smorzamento elementare nella modalità di Lee, per formare una matrice globale C che sia sparsa.

Le tecniche modali, temo, non sono sufficienti per modellare cose così complesse.

Comunque, lo studio procede e farò degli esperimenti numerici per ulteriore sicurezza. Le THNL sono attualmente un campo aperto di studio e ricerca, lo dimostrano l'articolo di solo un anno fa di Lee et al., che, mi pare, rivoluziona il campo.

Riferimenti


Lee C-L, (2020) Sparse proportional viscous damping model for structures with large number of degrees of freedom, Journal of Sound and Vibration, 478, 2020

Lee C-L., Chang T. L., Carr A J., (2023) Consistent Assembly method for elemental damping, Computers and Structures, 289, 2023

Puthanpurayl AM, Lavan O, Carr AJ e Dhakal RP (2016), Elemental Damping formulation: an alternative modelling of inherent damping in nonlinear dynamic analysis, Bul, Earth. Eng., 14(8)

mercoledì 26 agosto 2020

14 Agosto 2020


Qui l'intervento integrale di Egle Possetti, Presidente del Comitato delle Vittime del Ponte Morandi, pronunciato il 14 agosto 2020 a Genova, non facilmente reperibile nei media e riproposto solo per estratti dagli organi di stampa (quotidiani e settimanali).

Discorso del 14 Agosto 2020

Al termine di questo intervento, i presenti lo hanno applaudito lungamente alzandosi tutti in piedi.


lunedì 14 ottobre 2019

Coefficienti di sicurezza, realtà e miti

Di recente mi sono trovato coinvolto in una discussione che ha riguardato, tra l'altro, i coefficienti di sicurezza delle costruzioni rispetto ai terremoti.

I miei interlocutori hanno sostenuto che se una struttura è progettata in accordo alle normative NTC 2008-2018, e in accordo agli scuotimenti di progetto ivi previsti, allora non ci sarebbe da temere un crollo anche se gli scuotimenti effettivi fossero sensibilmente superiori. Qualcuno ha detto che tanto ci sono coefficienti di sicurezza del 300%.

A me questa cosa è parsa grave, anche perché i miei interlocutori non erano persone sprovvedute, ma erano entrambi, nei rispettivi ambiti, assai influenti.

La questione ha poi dato luogo alla richiesta, da parte mia, di un parere formale all'Ordine di mia appartenenza (quello di Milano). Il parere è arrivato e mi ha pienamente soddisfatto, nel senso che mi sono trovato sostanzialmente d'accordo con quanto hanno scritto i miei colleghi.

Adesso io ne approfitto per discutere del problema dei coefficienti di sicurezza in modo più generale, dato che mi pare che ve ne sia un gran bisogno.

In primo luogo, perché li usiamo? E poi, quali rischi coprono? E in che modo possiamo interpretarne il significato? 

Cominciamo col dire che se potessimo sapere tutto e valutare tutto, non avremmo bisogno di coefficienti di sicurezza. La realtà è molto meno eroica. Sappiamo certe cose, a patto che siano rispettate certe condizioni al contorno. In vitro, diciamo così, possiamo stabilire certe relazioni e possiamo anche ripetere esperimenti che dovrebbero in teoria essere identici e scambiabili. Se gli esperimenti sono controllati, possiamo trarre certe conclusioni. Ma quando ci riferiamo alla realtà di una costruzione, le cose sono molto molto più complicate. Ciò vale anche per le costruzioni nuove, per le quali in teoria dovremmo essere in grado di valutare "tutto", ma evidentemente vale a maggiore ragione per le costruzioni esistenti, vecchie magari di decenni, e che hanno avuto una complicata vita precedente.

Queste non sono le condizioni di un esperimento controllato, ripetibile e scambiabile con centinaia di altri. Anche se ci riferiamo a costruzioni nuove, queste presentano sempre situazioni per le quali i nostri modelli "teorici" fanno fatica a seguire. Le ipotesi di base che si devono sempre fare per mettere in piedi un modello sono sempre verificate solo in parte. In certi disgraziati casi non sono verificate affatto. E noi non sappiamo valutare con esattezza quanto aver applicato un modello solo in parte applicabile possa comportare, né come interferisca questa scelta, fatta in un ambito, con altre scelte similmente un po' forzate, fatte in altri ambiti.

Ne consegue che i nostri modelli perdono di pregnanza, diventano via via meno credibili, e dobbiamo pertanto cautelarci aumentando le azioni, diminuendo le resistenze, e magari prendendo in considerazione approcci di tipo non strettamente quantitativo, ma che hanno mostrato, in passato, di avere una qualche utilità.

In certi casi, quando si sono abbandonate le minime condizioni di applicabilità, dovremmo rifiutarci di applicarli, i modelli, perché i risultati che ne trarremmo sarebbero ingannevoli. Fare questo però implica da un lato ammettere la propria impotenza, dall'altro ripristinare le condizioni minime tali per le quali i nostri semplici modelli possano essere applicati. Il che, talvolta, ha un costo molto forte.

Si dirà che i nostri modelli non sono affatto semplici, che alcuni di loro risolvono problemi complessi, equazioni differenziali, integrali, sistemi di migliaia di equazioni. Ebbene, la verità è che alla origine di questi modelli, per quanto complicata possa essere la loro matematica, ci sono sempre semplificazioni drastiche, che poco hanno a che fare con la realtà fisica, a meno che questa non venga attentamente modificata e confinata, in modo da rispettare le ipotesi di applicabilità dei semplici modelli che usiamo. Basti pensare alla enorme complicazione del calcolo delle orbite dei pianeti, che però deriva tutta da una semplice equazione (e modello), che dice che l'attrazione gravitazionale è proporzionale alle masse, inversamente proporzionale al quadrato della distanza, con un fattore moltiplicativo costante che aggiusta le cose: la legge di gravitazione universale di Newton. In quel caso, però, stiamo parlando di leggi fisiche, non di ingegneria dei manufatti per le costruzioni, che sono decisamente più imperfetti e soggetti a variazioni del moto dei pianeti.

Dal momento in cui si abbandona la realtà fisica nella sua infinita variabilità e complessità, e si entra nel mondo dei modelli, si è persa per strada una enorme quantità di informazione, e si è scelto di lavorare con un modesto sottoinsieme di parametri e caratteristiche.

Il peggior errore che possiamo fare è dimenticarci che abbiamo introdotto delle ipotesi e delle semplificazioni rispetto alla realtà fisica. Quanto ci diranno i nostri modelli deve essere considerato alla modesta luce della loro applicabilità, pregnanza, esaustività e completezza.

I coefficienti di sicurezza sono convenzionalmente assegnati a questa o a quella parte della nostra modellazione. In ingegneria strutturale abbiamo i γq, i γM, e altri vari fattori di sicurezza, assegnati ora a questo ora a quello.

I valori che accrescono le azioni tengono conto del fatto che le azioni potrebbero essere maggiori di quanto altrimenti stimato. Ma è capitato che le azioni fossero molto maggiori di quanto in precedenza stimato, ad esempio col vento o con la neve. Quindi, se i valori di partenza fossero sottostimati, automaticamente un fattore amplificativo di sicurezza pari a 1,5 (che è quello che ci impongono le norme), non sarebbe sufficiente. Quando le situazioni sono considerate eccezionali, le azioni non vengono amplificate. Non ci sono margini. In più, in concomitanza ai valori della azione eccezionale (il sisma, l'esplosione), si prendono valori ridotti delle altre azioni. Ad esempio, sotto i 1000 m sul livello del mare le nostre norme assumono che se arriva il terremoto allora sui tetti non c'è neve.

I valori che diminuiscono le resistenze tengono conto che per varie ragioni queste potrebbero non essere quelle caratteristiche, ma minori. Ad esempio per il calcestruzzo armato il fattore riduttivo è 1,5, per l'acciaio delle armature è 1,15. Partite difettose, errati confezionamenti, provini sfortunati. Sempre escludendo, naturalmente, il dolo.

Ma le nostre incertezze ed ignoranze non si limitano al valore delle resistenze ed al valore delle azioni. Ce ne sono moltissime altre. Che non possiamo nemmeno enumerare. Tra queste, il fatto che il nostro modello potrebbe non essere adeguato.

Se il modello non è adeguato, gli errori possono essere molto forti, e i fattori di sicurezza apparentemente alti usati per ampliare le forze e ridurre le resistenze, insufficienti. Molto insufficienti.

In qual caso, è compito dell'esperto riconoscere il problema e, se necessario, ripristinare le condizioni tali per cui il modello possa essere usato. 



mercoledì 20 marzo 2019

Edizione a stampa delle NTC - Pessima qualità delle figure

Mi è giunto per posta il pacco con alcune copie della edizione delle NTC 2018 e relativa Circolare, da me curata.

Inizialmente sono stato contento, perché il volume si presentava bene.

Uno stimato collega genovese mi ha chiamato, e mi ha fatto notare che a pagina 165 c'è una tabella evidentemente sbagliata. Questa:



e tale tabella si presenta identica nel testo posto in Gazzetta Ufficiale. Confesso che non me ne ero accorto. Non ho infatti sfogliato, no, a una a una tutte le mille pagine per verificare cose come questa. Una tale operazione di capillare controllo della norma avrebbe richiesto più persone, esperte in vari campi, e molto molto tempo.

Ma se anche mi fossi accorto del problema (come mi sono accorto di altri problemi) potevamo noi correggere la tabella? No, non potevamo. Anche se ce ne fossimo accorti, tutto quello che avremmo potuto fare è segnalare a piè di pagina l'erroneità della tabella e la sua possibile correzione, come fatto in altre note a piè di pagina.

Poi per caso vedo in un forum che frequento una chat volatile, in cui un altro stimato e a me noto collega fa notare che le immagini della Circolare sono pessime. Naturalmente sono andato a vedere.

Con molto dispiacere devo dire che il collega ha ragione: la qualità delle figure della Circolare è generalmente scarsa, e in alcuni casi pessima, tanto che in certi casi le scritte sono illeggibili.

Ma anche in questo caso, nonostante molte figure siano state riprese e migliorate, a quanto mi hanno detto, l'editore non avrebbe potuto fare gran che, se non modificare il formato complessivo del volume, il che però avrebbe avuto altri problemi. Infatti:
  1. Non avrebbe potuto prendere le immagini dagli Eurocodici, ammesso che fossero eguali, perché avrebbe violato un copyright CEN. Se è vero che nella pratica corrente le immagini vengono utilizzate in violazione di ogni copyright, un editore strutturato non può fare una cosa del genere perché rischierebbe di essere chiamato in giudizio.
  2. Non avrebbe potuto rifare le immagini, e men che meno farle rifare "da un ragazzino" per queste ragioni:
    1. Una norma pubblicata in Gazzetta Ufficiale può essere riprodotta da un editore prendendo il testo della Gazzetta Ufficiale come punto di partenza e aggiungendo a sua scelta altro che possa essere utile. Certo un editore non può modificare testo o figure. L'editore non può modificare la norma (anche correggendola) o le sue figure perché potrebbero darsi conseguenze civili e penali imprevedibili che nessun editore può correre il rischio di prendersi. La figura, una volta pubblicata in Gazzetta, diventa in ogni sua parte un documento ufficiale. Anche se è molto molto scadente.
    2. Le immagini spesso contengono abachi e curve che possono essere anche usate per leggere dei valori direttamente. Quindi queste immagini non possono essere rifatte "a occhio" o da un "ragazzino" ma devono essere rifatte in modo vettoriale da personale tecnico competente. Ciò richiede fogli di lavoro, introduzione di formule, loro controllo ecc., tutte attività non certo scontate né banali. Certamente fuori dalla portata di un editore che non ha personale tecnico preparato a riguardo, e certamente molto onerose e tali da richiedere molto tempo. Certamente anche al di fuori dei compiti di un curatore, che semmai dovrebbe controllare un ipotetico lavoro fatto da terzi.

Questi sono alcuni effetti collaterali del volersi ostinare a fare norme tecniche emesse come decreti ministeriali e pubblicate in Gazzetta Ufficiale, soprattutto se gli Uffici Tecnici ministeriali non producono documenti di qualità sufficiente.

La ragione per la quale sul frontespizio di questa edizione c'è scritto "a cura di Paolo Rugarli", è che questa edizione contiene svariate cose che non sono le NTC o la Circolare, e che richiedevano e richiedono un competente giudizio professionale. 

Le enumero:
  • L'indice analitico (più di cento pagine), che nella norma non c'è.
  • Le prefazioni fortemente critiche nei riguardi della normativa, argomentate e dettagliate. Possono anche non piacere, ma sono documenti di una certa importanza, io credo.
  • Il programma NTCSISMA, sviluppato nel 2008 e poi aggiornato anche per il metodo neo-deterministico. Ricordo che grazie a quel programma furono evidenziati, nel 2008, il room effect e lo street effect. Il room effect fu poi corretto appositamente dalla Circolare del 2009 (interpolazione con quadrica rigata). Ebbene, fu proprio la prima edizione EPC delle NTC 2008 a mettere in luce tutti questi problemi, che furono poi illustrati in dettaglio in un articolo uscito su Ingegneria Sismica.
  • I documenti di spiegazione del programma e i commenti sui dettati di legge, con alcune comparazioni tra 2008 e 2018.
  • La spiegazione di base del metodo neo-deterministico.
  • La scelta dei documenti suppletivi da mettere sul CD, ovvero articoli, documenti e altro relativi alla pericolosità sismica, anche tratti da importanti convegni nazionali.
  • L'indicazione, quando possibile, quando reperiti, di probabili errori di stampa già presenti nella Gazzetta Ufficiale.
  • La scelta di una rosa di immagini di copertina, tra le quali l'editore ha poi scelto quella finale. Tale immagine dice già molto e non è certamente casuale.


Per la produzione di questa edizione sono state usate le stesse tecniche, formato, personale e strumenti usati per tutte le precedenti edizioni.
Penso sia mio dovere nei riguardi del personale EPC, sottolineare che svariate persone hanno lavorato a questo testo con dedizione e attenzione, e con la massima cura. Le parti che erano in loro dominio sono state fatte, nel rispetto dei tempi necessari, con la massima attenzione e con il massimo scrupolo. Possono esserci errori, sviste, mancanze, certo. Ma questa edizione non è il semplice riversamento di un documento nell'altro.

Purtroppo alcune cose erano e restano, sono e saranno al di fuori del loro e del mio dominio, semplicemente tali e quali sono state emesse ufficialmente dai competenti uffici della Repubblica Italiana.

Il risultato finale delle immagini della Circolare non è soddisfacente. E' vero.

In tempi più lunghi, si cercherà di rimediare per quanto e là dove possibile. Altro purtroppo non si può fare.


giovedì 28 febbraio 2019

La fede è fede

La fede è fede

[presentazione del volume NTC 2018 e Circolare 2019, EPC Editore, Roma 2019]
Norme Tecniche per le Costruzioni integrate con la circolare applicativa, EPC Editore, marzo 2019 (V ed.), a cura di Paolo Rugarli
In copertina: il tempio di Amon-Ra, Luxor (Tebe), Egitto


Premessa

Pubblichiamo come già nel 2009, il testo delle NTC 2018 coordinato con quello della Circolare del 2019. Il precedente volume fu molto gradito, ed abbiamo quindi mantenuto il formato già usato in passato.
Come già per il testo della sola norma, pubblicato un anno fa, e già dalla edizione del 2008, questo volume è arricchito da considerazioni e riflessioni a commento della Norma e della Circolare, segnatamente nella parte relativa alla determinazione delle azioni sismiche, considerazioni e riflessioni ulteriormente affiancate da alcuni documenti tecnici reperibili su CD.
Si tratta di articoli ed interventi che sono stati precedentemente pubblicati o diffusi, e che possono aiutare il lettore a farsi una idea delle considerevoli criticità connesse all’attuale impianto della norma, nella parte relativa alla determinazione della pericolosità sismica. Nella bibliografia di questi documenti, si trovano ulteriori possibili fonti di approfondimento. Tra questi documenti figurano alcune memorie tratte dagli Atti di due convegni tenutisi presso l’Accademia Nazionale dei Lincei, che ringraziamo sentitamente con l’editore Bardi per l’assenso alla diffusione nel CD allegato.
Sono ormai più di dieci anni che segnaliamo e sottolineiamo, in tanti modi diversi, le gravi e perduranti mancanze delle NTC in merito alla valutazione della pericolosità sismica, un tassello fondamentale per conseguire la sicurezza. Continuiamo a farlo nella consapevolezza di rendere un servizio utile al Paese e per dovere morale e professionale.
Questo volume conserva, per il suo valore di testimonianza chiara e cronologicamente antecedente, la prefazione alla edizione uscita un anno fa, aggiungendone anche una nuova che mette ulteriormente a fuoco la questione, commentando alcuni passi chiave della Circolare anche con riferimento a recenti sviluppi che sembrano indicare, finalmente, una maggior diffusione della critica anche in ambito accademico.
Per quanto riguarda le appendici e il funzionamento del programma allegato al CD, vale quanto già scritto un anno fa, e qui riportato integralmente al termine del volume.

Il curatore




___________________________________________



La fede è fede
di Paolo Rugarli
Ingegnere Strutturista

Con la Circolare del Consiglio Superiore dei Lavori Pubblici n° 7 del 21 Gennaio 2019, la Repubblica italiana ha raggiunto un altro traguardo che, nella patria di Galileo, può essere considerato degno della massima nota: aver di fatto trasformato parti di un documento tecnico in un testo di natura religiosa.
     Come per tutti i testi religiosi che si rispettino, nelle parti relative alla pericolosità sismica la Circolare non deve essere letta utilizzando la logica, la coerenza, la verosimiglianza e il rispetto dei fatti. Essa deve piuttosto essere letta come la narrazione di un sistema di credenze che si auto sostengono e si auto giustificano, senza nessun addentellato con la realtà.
     Né l’esercizio decennale e con tutti i dovuti modi del ragionamento e della persuasione ha portato ad alcun cambiamento, perché se si tratta di fede non è il ragionamento che conta (tra i numerosissimi interventi nazionali ed internazionali si citano [1]-[15], incluso un convegno presso l’Accademia Nazionale dei Lincei dove da più e più voci sono piovute critiche sostanziali ai metodi di normativa).
     La norma del resto, investita per definizione di un ruolo non discutibile, non darà mai conto delle sue contraddizioni, perché una fede, come una legge, non si avvale necessariamente della verifica sperimentale e della non contraddittorietà ([14]). Alcune cose vanno credute. Anzi: tutto va creduto, e nulla può dissuadere chi ha una vera fede, lo sappiamo dai libri di storia. Si creano abitudini indiscutibili e quasi inamovibili, anche perché rimuoverle è faticoso, costoso, e incontra forti resistenze non necessariamente legate ai contenuti.
     A rendere la situazione più confusa, questa nuova religione dice di essere Scienza. Come in un film di controspionaggio, in cui nessuno è più veramente sicuro di cosa sia cosa, chiamare Scienza degli atti di fede porta ad un interessante e diffuso gioco di società, nel quale il pubblico non sa più bene chi stia usando la scienza, e chi la fede.
     Qualcuno usa un test speditivo: parlare seriamente di periodo di ritorno di un sisma è un atto di fede. Infatti, nel ricevere, primo geofisico italiano, un importante premio internazionale dall’American Geophysical Union, il nostro autorevole sismologo prof. Panza ha recentemente confermato che il periodo di ritorno dei sismi non esiste e che le parti relative alla pericolosità sismica delle NTC, le quali utilizzano “effettivamente e non per scherzo le regole del lotto”, sono per logica e involontaria conseguenza “da buttare” ([18]). Una riflessione pubblicata sul Giornale dell’Ingegnere, dura ma efficace.
    Purtroppo la ripetizione all’infinito di affermazioni fantastiche, di terminologie vuote ma sfarzose, di formule matematiche esoteriche che nascondono l’arbitrio, muta il piombo in oro, e fa credere ai nostri disgraziati concittadini e anche ai politici – ingannandoli – di avere leggi che li proteggano dai terremoti e che implichino costruzioni sicure.
   Ahinoi, non è vero: se le azioni sono fortemente sottostimate le costruzioni non possono essere sicure.
    Come ogni testo religioso, anche la Circolare è stata scritta in tempi diversi da mani diverse. Alcune parti applicano pertinentemente i metodi probabilistici e risultano credibili. Ma, poiché nelle NTC e nel Paese sono trasversali e sempre di maggiore importanza le questioni legate alla sismicità ed alla salvaguardia del patrimonio edilizio esistente dal rischio sismico, sono questi gli aspetti della Circolare sui quali maggiormente ci soffermeremo.
     Qui i credenti possono veramente mettersi alla prova, perché quanto la Circolare racconta richiede l’abbandono totale della verosimiglianza e della verifica sperimentale.
    Prendiamo ad esempio questa meravigliosa frullatura inserita nella Circolare come riferimento positivo e condotta avendo come obiettivo spettri che non c’entrano con il problema in esame. C’entrano infatti solo prendendo per buona tutta la precedente narrazione della disaggregazione, dei percentili, dell’albero logico (che dà 16 pomi probabilistici multi-soggettivi ma esperti che, mediati, secernono argento, il valor medio, oro, i percentili, e platino, le quattro-cifre-significative ([1], [6], [7], [14]) che si ottengono mediando gli un-terzo, un-mezzo e un-quarto della previsione probabilistica soggettiva: da qui lo spettro obiettivo). Una metamorfosi degna di Ovidio:

1.per ogni coppia di registrazioni orizzontali, si costruisce uno spettro SRSS, dato dalla radice quadrata della somma dei quadrati degli spettri di ogni componente;
2.lo “spettro medio SRSS” è pari alla media degli spettri SRSS di ciascuna coppia di accelerogrammi, appartenente al medesimo gruppo di storie temporali;
3.le coppie di registrazioni, nel numero indicato dalla norma, devono essere selezionate e scalate in modo tale che lo spettro medio SRSS approssimi, secondo i criteri di coerenza spettrale di norma, lo “spettro di riferimento”, dato dal prodotto dello spettro elastico di progetto per un opportuno coefficiente a.
(Circolare C3.2.3.6)

Qui l’uomo di fede veramente roccioso sopporta e scaccia le tentazioni del maligno, che gli suggeriscono che, dopo cotanta frullatura, non resti più assolutamente nulla, della fisica del problema, ma solo, come attraverso una lastra di carta velina offuscata dalla fuliggine di anni in una sera d’inverno, pallide ombre. Qui l’uomo di fede si caricherà le terne di accelerogrammi nel software preferito, e… spingerà un tasto. Mirabile effetto, piogge dorate di numeri transustanzieranno la frullatura in una analisi sismica non lineare con accelerogramma spettrocompatibile. Questa è la potenza della religione.
     Prendiamo quest’altro significativo passaggio:

Il periodo di ritorno dell’azione sismica agente sulla costruzione, invece, è funzione anche della vita nominale della costruzione, oltre che della classe d’uso, del tipo di terreno e della pericolosità del sito.
(Circolare C2.4.1)

Scacciate da voi – peccatori – l’idea perniciosa che dire che il periodo di ritorno del terremoto lo stabilisce la vita nominale della costruzione (ad esempio 35, 50, 75 o 100 anni) sia come pretendere di dire alla Terra come si deve comportare, sulla base di come voi e Don Ciccio vi siete accordati in merito a come costruire l’albergo vista mare.
     La religione della Circolare e delle NTC ci dice che c’è un supermarket dei terremoti ([11]) e noi possiamo prendere quello che ci aggrada. Serve un terremoto con periodo di ritorno di 392,8 anni? C’è. 117,4? C’è. 47,8? C’è. 407.92? C’è. 276,4? C’è.
     E c’è dovunque, basta usare le equazioni: Capua, Sondrio, Palermo, Aosta, Pordenone, Isernia o Perugia. Tutte queste città hanno, volendo, il loro terremoto con periodo di ritorno di 276,4 anni e il loro corrispondente scuotimento sismico, che segue docile, con tre o quattro cifre decimali. Non è una mirabilia? Cos’è questa se non è fede? E’ questa la meraviglia della fede sismica della Repubblica Italiana, emanata per decreto ministeriale, è questo il credo che ci viene imposto per legge.
     E non siamo soli, no, non siamo soli. Questo è un credo iniziato da un ingegnere verso la fine degli anni ’60, e presso le più famose università statunitensi, una garanzia di qualità, come si dice, a prescindere. Tutto quello che arriva dagli Stati Uniti è oro colato. Queste cose arrivano dagli Stati Uniti. Queste cose sono oro colato. Questa è, nella sostanza, una delle ragioni per cui siamo obbligati a usarle per decidere come curare Palazzo Vecchio e Santa Maria del Fiore. E anche casa nostra.
     Noi abbiamo avuto, sì, abbiamo avuto qualche problema: a l’Aquila, in Emilia. Amatrice, Norcia. Ischia. La zona etnea. Qualcuno ha paragonato lo spettro misurato (spettro fattosi reale) con quello della norma, in tutti questi casi. E qualcuno ha scandito ricordando ancora Galileo “ve-ri-fi-ca spe-ri-men-ta-le. Infatti, come talvolta succede con le profezie di Nostradamus, la norma non ci ha preso. Alcuni hanno pazientemente spiegato che no: serviranno altri dodicimila anni per dimostrare che quanto è nella Norma è assimilabile dai miscredenti a una profezia di Nostradamus.
     Altri hanno osservato che la pretesa che la Norma desse valori di scuotimento affidabili proprio lì, dove c’era stato il terremoto, era una pretesa eccessiva: solo ad almeno qualche decina di chilometri dall’epicentro la norma si può applicare. Bisogna dunque come minimo credere di vivere a più di qualche decina di chilometri da un futuro epicentro. Per gli altri, al momento: amen.
   I soliti miscredenti hanno visto valori di norma fortemente superati. Differenze tali da far impallidire tutti i coefficientini da farmacista, per non parlare delle quattro cifre significative della Gazzetta Ufficiale della Repubblica. Le NTC 2008 divennero rosse per la vergogna. Ma l’ha visto solo qualcuno.
    Sebbene la Circolare sia un atto di fede, traspare in essa talvolta un fremito di dubbio che le lunghe pratiche non hanno potuto eliminare.

Tale approccio, che rappresentava una delle principali novità delle NTC 2008, rimane invariato nell’attuale versione e dovrebbe condurre in media, sull’intero territorio nazionale, ad una significativa ottimizzazione dei costi delle costruzioni antisismiche, a parità di sicurezza.
(Circolare C3.2)

Qui si vede che il tarlo del dubbio ha toccato anche chi l’ha scritta, questa Circolare. “Dovrebbe”, ma lo scopriremo solo nei prossimi dodicimila anni. Infatti, squadra che vince non si cambia, e dato che le NTC 2008 si erano distinte nella sismica, giustamente la Repubblica le ha confermate in toto, proprio nella sismica. Un loro sovvertimento avrebbe provocato infatti sconcerto. Le masse si sarebbero trovate di fronte a una realtà troppo cruda da affrontare, che avrebbe richiesto, per la prima volta nella nostra storia, azioni preventive serie dettate da una sana paura: il terremoto arriva dove e come vuole lui, Don Ciccio non decide nulla.
     Ma in Italia prima è stato spiegato per decenni che i comuni erano non sismici, poi è stato spiegato che i sismi ritornano regolarmente, e che hanno valori di scuotimento prevedibili con tre o quattro cifre, e infine che c’è la vita nominale restante degli edifici esistenti: è chiaro che la popolazione non crede che un terremoto la colpirà mai, e crede invece che quelli colpiti siano stati particolarmente sfortunati. Ciò anche spiega perché il sisma bonus non sembra aver incontrato favore: il rischio sismico non è percepito affatto.
     
Come ogni religione ha il suo Centro Irradiatore, così la fede nel terremoto con periodo di ritorno, come l’autobus, si irradia in Italia da un Ente Superiore:

Il dato di partenza per la definizione dell’azione sismica rimane sempre lo studio di pericolosità sismica italiana di base, i cui risultati sono stati prodotti e messi in rete dall’Istituto Nazionale di Geofisica e Vulcanologia (INGV). […]
(Circolare C3.2)

     Dobbiamo dunque essere grati all’INGV, che recentemente, per la penna di un suo autorevole esponente, ci ha spiegato tra l’altro che la nuova mappa probabilistica che è arrivata, ed alla quale hanno collaborato ben 150 persone, non utilizza il verde per non dare l’errata idea che si siano zone sicure. Una cosa che ha rassicurato molti di noi, che hanno visto in questa scelta un gesto provvidenziale, atto a non indurci a confondere la mappa di pericolosità con il semaforo sotto casa. Quanta paternale saggezza.
     Certo, alla prossima presenza nel più noto e longevo dei salotti televisivi italiani, significativamente ricordata dall’esponente di INGV come prova della diffusione e del successo della precedente mappa, i colori si vedranno meno bene senza il verde: ma hanno già fatto in passato il plastico 3D della mappa col polistirolo e quindi non ci saranno problemi.
Questa mappa deve essere l’oggetto della nostra fede e va creduta: vederla appoggiata su un tavolino, tridimensionale, colorata e spigolosa, aiuta a credere che sia vera. La tocco: quindi c’è. E se c’è, è vera. E se è vera è esatta, tanto da utilizzarla per decidere come spendere enormi capitali pubblici e privati.
Alcune settimane fa, un nutrito gruppo di autorevoli studiosi – per lo più, ed è una novità, professori universitari – , si è lamentato con un documento ufficiale firmato della assurdità del sisma bonus (un nome così infelice e lunare che basterebbe solo questo a imporre delle modifiche) e del fatto che i soldi pubblici vengano dissipati senza una reale priorità, né un criterio condivisibile in merito alla diversa urgenza e importanza che i diversi provvedimenti comportano.
Infatti, il sisma bonus è un fai-da-te: chiunque, dotato di ingegnere al seguito, e usando le equazioni pseudo-scientifiche introdotte come naturale prolungamento delle NTC, può calcolare la perdita annua media legata alle diverse “frequenze medie del terremoto” ed ai diversi scuotimenti, e chiedere uno sgravio fiscale assai corposo. Il documento ha avuto una vasta eco, tanto che lo stesso Corriere della Sera se ne è occupato ([20]) e più recentemente anche La Repubblica ([21]).
         Vale dunque la pena di approfondire la discussione, poiché questo fatto è strettamente correlato alle NTC ed alla Circolare e quanto scritto dagli studiosi importante, sebbene a nostro parere incompleto.
       Dicono tra le altre cose gli estensori del documento (al quale ha aderito anche il Presidente di INGV):

Ciò che manca è una strategia di contenimento del rischio all’altezza di un paese moderno.
[…]
Viene così enfatizzato [da una campagna televisiva che pubblicizzava il sisma bonus] ciò che in realtà rappresenta un disvalore e cioè l’assenza di indispensabili valutazioni di priorità, mettendo sullo stesso piano il rischio che grava sugli abitanti di Sondrio e quelli di Lamezia, su quelli di Milano e quelli di Catania. Un’agevolazione quindi indifferenziata, staccata dal contesto fisico e sociale del Paese, che non distingue le zone ad alto rischio sismico e quelle a basso rischio […].
[…]
Il progetto è stato presentato come multigenerazionale, […], per arrivare ad un risultato comunque casuale e indeterminato anche nel costo.
[…]
Si rischia infine di creare nell’opinione pubblica e nei futuri governi il falso convincimento che sia già stato messo in atto un efficace antidoto contro il rischio sismico, un tipo di rischio reale che, in apparente controtendenza rispetto ad altre tipologie di rischio sovradimensionate rispetto alla realtà, viene percepito nel nostro Paese largamente al di sotto del suo effettivo peso.
[…]
Si è scelto insomma di non tener conto di priorità drammatiche, per i cittadini residenti in “zone 1 e 2”, evidenziate con gli ultimi terremoti da crolli rovinosi favoriti da recenti inidonei interventi edilizi. Su questa linea, un altro indizio di un pensiero di base debole sta nella validità economica della operazione.
[…]
Temiamo fortemente che la classe politica non si renda sufficientemente conto della gravità della situazione e sottovaluti gli altissimi costi del “non prevenire”.
(La prevenzione sismica in Italia: una sconfitta culturale, un impegno inderogabile [19])

Si tratta di affermazioni molto gravi. Lette con molta attenzione e considerando le parole usate danno i brividi.
    Esse sono del tutto condivisibili a parte l’ultima, che sembra dare la responsabilità ai politici: in realtà la classe politica non ne sa nulla di ingegneria sismica, spetta agli studiosi e ai tecnici spiegare correttamente i problemi ai politici. Ma se gli studiosi e i tecnici accettano da anni e anni aberrazioni palesi sino a farle arrivare in Gazzetta Ufficiale, e senza proferire parola, i politici possono solo prendere atto[1].
     Gli studiosi del documento [19] sostengono che il meccanismo del sisma bonus non tiene conto del diverso grado di rischio presente nelle varie parti del Paese.
    Tuttavia, se si esamina in dettaglio il decreto ministeriale sul sisma bonus ([16]) e il documento esplicativo del Consiglio Superiore dei Lavori Pubblici ([17]), si resta stupiti nel vedere che in realtà è proprio del rischio che il decreto sul sisma bonus dice di tener conto. In altre parole, i metodi proposti dovrebbero tenere già conto della differenza tra Milano e Catania o tra Sondrio e Lamezia.
    Bisogna allora osservare che i metodi usati dal decreto sul sisma bonus sono esattamente quelli delle NTC e della Circolare, né più né meno, sono solo lo svolgimento formale dei principi di fede enunciati dalle NTC e ora ulteriormente puntellati dalla Circolare.
     Dice infatti il Decreto sul sisma bonus (enfasi nostre):

“Il metodo convenzionale […] è basato sull’applicazione dei normali metodi di analisi previsti dalle attuali Norme Tecniche
[…]
Per il calcolo di tali parametri […] è necessario calcolare […] le accelerazioni di picco al suolo per le quali si raggiungono gli stati limite SLO, SLD, SLV ed SLC, utilizzando le usuali verifiche di sicurezza agli stati limite previste dalle Norme Tecniche per le Costruzioni.
(Linee Guida per la Classificazione del Rischio Sismico delle Costruzioni, [16])

E il Consiglio Superiore chiarisce ulteriormente:

Metodo convenzionale: applicabile a qualsiasi tipologia di costruzione, basato sull’applicazione dei normali metodi di analisi previsti dalle attuali Norme Tecniche.
[…]
(Al via la Classificazione del Rischio Sismico delle Costruzioni per prevenzione e Sismabonus [17])

Ed en passant andava bene a tutti i membri del Consiglio Superiore:

Il 20 febbraio 2017 l’Assemblea Generale del Consiglio Superiore dei Lavori Pubblici ha espresso all’unanimità parere favorevole al testo delle “Linee Guida per la Classificazione del Rischio Sismico delle Costruzioni”.
(Al via la Classificazione del Rischio Sismico delle Costruzioni per prevenzione e Sismabonus [17])

Se si crede di poter “calcolare” gli scuotimenti associati alle “probabilità” tramite il “periodo di ritorno” con quattro cifre significative (“probabilità” ormai pacificamente date per “costruite dal nulla” anche in ambiti non ingegneristici [22]); se si crede che l’accelerazione di picco sia l’unico indice di severità della azione sismica; se si crede alle forme degli spettri della normativa e alle loro accelerazioni di ancoraggio; se si crede alle percentuali di spesa per la ricostruzione associate agli “stati limite SLO, SLD, SLV ed SLC” messe nel decreto, e valide per ogni costruzione!, e se si crede che si possa linearizzare tra una e l’altra in funzione delle “frequenze medie dei sismi”; se si crede di poter manipolare calcolando gli uni dagli altri i “periodi di ritorno” e accelerazioni di picco, con una formuletta messa nel decreto; e se e se e se … allora tutto diventa possibile. E sulla base del risultato, si può orientare tutta la politica di prevenzione di uno Stato.
    Infatti, in questa distorta logica attuariale, perché dovrei distinguere tra Milano e Catania, se la “perdita annua media” fosse la stessa[2]? E perché dovrei distinguere tra il passare da una classe di rischio F a una E, ed il passare da una classe C e una B se il guadagno in termine di minor “perdita annua media” fosse lo stesso? Se passo dal 5% al 4% di “perdita annua media” o dal 2% all’ 1%, non sto sempre guadagnando un 1% di “perdita annua media”?
     E se per una casa a Catania si ha una classe di rischio G e si passa alla F, riducendo il rischio legato alla salvaguardia della vita, mentre a Milano si passa dalla C alla B, riducendo la perdita annua media, e quindi il rischio per il portafogli senza nessun rischio per la vita, ebbene, questo o quello pari sono: le vite umane catanesi sono perfettamente e attuarialmente assimilate al costo degli interventi di manutenzione per violazione dello stato limite di danno milanesi.
     La perdita dei muri di tamponamento è misurata in modo omogeneo alla perdita delle vite umane. Ciò rappresenta, nero su bianco, una scelta della quale non ci sembra i decisori politici siano compiutamente stati informati. Gli studiosi non allineati hanno a nostro parere il dovere di farlo.
     Per comprendere la profonda stortura di questi decreti bisogna comprendere fino in fondo la fede che implicano, ed i sordi automatismi che, partendo da premesse del tutto errate, e da una apparente assenza di dubbi o di mitigazioni, o di confronto con le conseguenze, arrivano come orologi svizzeri alle conclusioni più assurde e inique, come giustamente segnalato anche dagli studiosi del documento di critica al sisma bonus, senza curarsi della dissipazione di denaro pubblico e del sostanziale abbandono dei cittadini alla loro condizione di alto rischio, anche causata da quella dissipazione.
     Nel testo della Circolare troviamo limpidi echi che risuonano con i principi del sisma bonus, echi che esplicitano la purissima fede nelle procedure totalmente infondate che contraddistinguono le NTC:

La diversità di trattamento tra nuovo ed esistente (sull’intero territorio nazionale) è motivata dalla volontà di perseguire, in un regime di risorse limitate, la massima riduzione possibile del rischio sismico medio. Così facendo si interviene, a parità di risorse pubbliche impiegate, su un numero di costruzioni esistenti molto maggiore di quello che si avrebbe allineando la sicurezza minima dell’esistente a quella del nuovo.
(Circolare C1.1)

Ma cosa vuol dire, veramente, ridurre il rischio sismico medio? Chi crede di poterlo calcolare, o addirittura minimizzare (“massima riduzione possibile del rischio sismico medio”), se non il credente in una fede religiosa privo di dubbi, privo di confronto con la realtà?
     Pretendere di saperlo minimizzare nel miglior modo possibile o anche solo stimare, nel Paese dove nemmeno il catasto è aggiornato, vuol dire accettare come giusto o anche solo utile, oltre a quanto già detto, tutto l’armamentario di:


  • ipotesi sicuramente già sperimentalmente non verificate,
  • formule matematiche magiche basate su queste,
  • medie di alberi logici con giudizi esperti,
  • percentili basati su questi e promossi a intervalli di confidenza,
  • estrapolazioni fuori dall’ambito di applicabilità di leggi geofisiche valide su scala globale,
  • pregiudizi sul comportamento sperimentale in assenza di prove sperimentali,
  • fortunose interpolazioni in piani logaritmici con errori spaventosi,
  • distribuzioni di probabilità lognormali assunte a priori,
  • ricostruzione di magnitudo con tre decimali dai registri parrocchiali medioevali,
  • brutali semplificazioni dei costi e dei benefici, del valore delle città e dei borghi,
  • e ancora, ancora e ancora. 


E tutto ciò arriva sino al picco aberrante di escludere attività sicuramente utili, perché non ancora ricomprese nei modelli pseudo scientifici che la norma implementa:

Tali interventi, come ad esempio un’idonea sistemazione dei controsoffitti al fine di scongiurarne la caduta in caso di sisma, ecc., sono auspicabili e auspicati ma l’attuale mancanza di procedure omogenee che ne quantifichino i contributi positivi, in termine sia di perdite (economiche) annue medie attese sia di incidenza sulla salvaguardia della vita, non ne consente al momento la trattazione. Anche per questi casi, comunque, è possibile ricorrere agli sgravi fiscali minimi già previsti dalle norme di agevolazione.
(Linee Guida per la Classificazione del Rischio Sismico delle Costruzioni, [16])

Siamo dunque nelle mani di una normativa che ha eletto quattro formulette prive di alcun fondamento fisico a dogma, e che da queste deriva tutta la politica di prevenzione e messa in sicurezza sismica del Paese. Se le formulette non riescono a fare il verso alla realtà, non vengono scartate o messe da parte temporaneamente le formulette: viene messa da parte la realtà.
     Il testo principale di questa fede, in Italia, non è il decreto per il sisma bonus, il testo sacro di questa fede sono le NTC e ora la Circolare, e tutto l’approccio probabilistico connesso alla valutazione della pericolosità sismica. Questo ha stravolto il nostro modo di ragionare e progettare ed è del tutto inidoneo alla protezione sismica del nostro meraviglioso e unico Paese. E’ quindi gravissimo che dopo undici anni nulla sia migliorato, ma solo peggiorato.

Noi crediamo che il documento firmato da quel nutrito drappello di esperti sia un segno importante. Apparentemente manca, in quel documento, la presa di coscienza che le aberrazioni del sisma bonus non sono altro che il “logico” svolgimento delle aberrazioni presenti nelle NTC 2008 e 2018, comunque quel documento rappresenta un passo avanti, perché è una parte del mondo accademico a parlare.
     Speriamo che nei prossimi mesi e anni questa parte del mondo accademico rompa il silenzio anche nelle sedi deputate. Diversamente sarà stato inutile.
     Nella parte relativa alla determinazione della pericolosità sismica e delle azioni sismiche, le NTC descrivono una pericolosa fede. Se non ci fosse di mezzo la pubblica incolumità e il denaro pubblico, non ci sarebbe nulla da dire. Ciascuno può credere in quel che vuole. Ma poiché è della vita delle persone, delle corrette informazioni ai cittadini e ai professionisti, e dei soldi pubblici che si sta parlando, risulta particolarmente odiosa la imposizione di una fede religiosa a chi vuole conservare l’esercizio della ragione, nell’interesse del proprio Paese.



__________________________________________


Riferimenti


[1] Rugarli P, 2008, Zone Griglie o…Stanze, Ingegneria Sismica, 1
[2] Risoluzione Benamati, Commissione Permanente Ambiente Territorio e Lavori Pubblici, 7/00414, 14/10/2010
[3] Panza GF, Scenari di Pericolosità Sismica, Audizione presso la Camera dei Deputati, VIII Commissione Permanente Ambiente, Territorio e Lavori Pubblici, 15/2/2011, Slide di presentazione, qui su CD
[4] Panza GF, Scenari di Pericolosità Sismica, Audizione presso la Camera dei Deputati, VIII Commissione Permanente Ambiente, Territorio e Lavori Pubblici, 15/2/2012, Slide di presentazione, qui su CD. Resoconto stenografico, qui su CD
[5] Lettera aperta al Presidente del CNR, “Richiesta di chiarimenti pubblici su CNR DT 212/2013” [qui su CD]
[6] Rugarli P, 2014, Validazione Strutturale, I Diagonali, EPC, Roma [cap. 9, Il Caso delle Normative sismiche, qui su CD]
[7] Guimarães Pereira, Â., Ravetz, J., Saltelli, A. 2015. Significant Digits: Responsible Use of Quantitative Information. European Commission. Doi 10.2760/9793
[8] Accademia Nazionale dei Lincei, La Resilienza delle Città d’Arte ai Terremoti, 3-4/11/2015 Roma.
[9] R.J. Geller, F. Mulargia, P. B. Stark, 2015, “Why We Need a New Paradigm of Earthquake Occurence”. http://onlinelibrary.wiley.com/doi/10.1002/9781118888865.ch10/summary
[10] Rugarli P, 2015, The role of the standards in the Invention of the Truth, Accademia Nazionale dei Lincei, Atti del Convegno La Resilienza delle Città d’Arte ai Terremoti, Bardi Editore [qui sul CD]
[11] Rugarli P, 2015, Primum: non nocere, Accademia Nazionale dei Lincei, Atti del Convegno La Resilienza delle Città d’Arte ai Terremoti, Bardi Editore [qui sul CD]
[12] Panza GF, Romanelli F, Vaccari F, Altin G, Stolfo P, Vademecum for the seismic verification of existing buildings: application to some relevant buildings of the Trieste Province, Atti del Convegno La Resilienza delle Città d’Arte ai Terremoti, Bardi Editore [qui sul CD]
[13] Panza P, Peresan A, 2016, Difendersi dal Terremoto Si Può, I Diagonali, EPC, Roma [cap. 7, Applicazioni di NDSHA a Scuole ed Edifici Strategici, qui sul CD]
[14] Panza G F, Rugarli P, 2016, Giurisprudenza e Scienza: Les Liaisons Dangereuses, Accademia Nazionale dei Lincei, Atti del Convegno Giurisprudenza e Scienza, Bardi Editore [qui sul CD]
[15] Mulargia F., Stark P. B., Geller R. J., Why is Probabilistic Seismic Hazard Analysis (PSHA) still used?, Physics of the Earth and Planetary Interiors, 264, Marzo 2017, https://doi.org/10.1016/j.pepi.2016.12.002
[16] D.M. 65, 7/3/2017, Allegato A, “Linee Guida per la Classificazione del Rischio Sismico delle Costruzioni”,  http://www.mit.gov.it/normativa/decreto-ministeriale-numero-65-del-07032017
[17] C.S.LL.PP. “Al via la Classificazione del Rischio Sismico delle Costruzioni per prevenzione e Sismabonus”, http://www.mit.gov.it/sites/default/files/media/normativa/2017-05/20170228%20Classi%20Rischio%20Sismico%20e%20Sismabonus%20-%20slide.pdf
 [19] AA.VV., Dicembre 2018, La prevenzione sismica in Italia: una sconfitta culturale, un impegno inderogabile, http://www.sigeaweb.it/documenti/prevenzione-sismica-italia.pdf
[20] Stella, G A, 2018, Prendersi Cura del Paese, Corriere della Sera 29/12/2018, https://www.corriere.it/opinioni/18_dicembre_29/prendersi-cura-paese-13a31bae-0bb6-11e9-aa07-eb4c2c5595dd.shtml
[21] Nasso M, “Sisma Bonus, l’allarme degli esperti: ‘Una Misura Insostenibile’”, La Repubblica, 12/2/2019, https://www.repubblica.it/economia/2019/02/12/news/sisma_bonus_l_allarme_degli_esperti_una_misura_insostenibile_-218621904/
[22] Saltelli A., Stark P, Statistiche al tempo della Crisi, EPICHANGE

_______________________________________________________

Documenti presenti sul CD
Audizioni e Atti Parlamentari
Benamati G, Risoluzione in Commissione Parlamentare Ambiente Territorio e Lavori Pubblici, 7/00414, 14/10/2010
Panza GF, Scenari di Pericolosità Sismica, Audizione presso la Camera dei Deputati, VIII Commissione Permanente Ambiente, Territorio e Lavori Pubblici, 15/2/2011, Slide di presentazione
Panza GF, Scenari di Pericolosità Sismica, Audizione presso la Camera dei Deputati, VIII Commissione Permanente Ambiente, Territorio e Lavori Pubblici, 15/2/2012, Resoconto stenografico
e Slide di presentazione
Estratti dagli atti di convegni presso l’Accademia Nazionale dei Lincei
Accademia Nazionale dei Lincei, Indice Atti del Convegno La Resilienza delle Città d’Arte ai Terremoti, Bardi Editore
Accademia Nazionale dei Lincei, Indice Atti del Convegno Giurisprudenza e Scienza, Bardi Editore
Rugarli P, 2015, The role of the standards in the Invention of the Truth, Accademia Nazionale dei Lincei, Atti del Convegno La Resilienza delle Città d’Arte ai Terremoti, Bardi Editore
Rugarli P, 2015, Primum: non nocere, Accademia Nazionale dei Lincei, Atti del Convegno La Resilienza delle Città d’Arte ai Terremoti, Bardi Editore
Panza GF, Romanelli F, Vaccari F, Altin G, Stolfo P, Vademecum for the seismic verification of existing buildings: application to some relevant buildings of the Trieste Province, Atti del Convegno La Resilienza delle Città d’Arte ai Terremoti, Bardi Editore
Panza G F, Rugarli P, 2016, Giurisprudenza e Scienza: Les Liaisons Dangereuses, Accademia Nazionale dei Lincei, Atti del Convegno Giurisprudenza e Scienza, Bardi Editore
Estratti da libri
Panza P, Peresan A, 2016, Difendersi dal Terremoto Si Può, I Diagonali, EPC, Roma [cap. 7, Applicazioni di NDSHA a Scuole ed Edifici Strategici]
Rugarli P, 2014, Validazione Strutturale, I Diagonali, EPC, Roma [cap. 9, Il Caso delle Normative sismiche]
Lettere aperte
Lettera aperta al Presidente del CNR, “Richiesta di chiarimenti pubblici su CNR DT 212/2013”




[1] Si veda anche l’intervento del Prof. Mulargia, allora membro della Commissione Grandi Rischi, al convegno [8] (minuto 1:38 parte 2). I politici devono tener conto della maggioranza, ma la Scienza, quella no, non è democratica.
[2] La perdita annua media, lo ricordiamo, è un arzigogolo privo di fondamento fisico. Essa è priva di fondamento fisico perché basata sul concetto di “periodo di ritorno”, che non ha base fisica e di “frequenza media” ottenuta come inverso di tale “periodo di ritorno”. Essa si ottiene facendo la somma integrale dei contributi dei sismi aventi tutti i “periodi di ritorno” ricompresi tra due limiti. Il limite che comporta uno scuotimento atto a generare una situazione per la quale si abbia la convenienza a demolire e ricostruire (supponiamo per l’edificio in esame un “periodo di ritorno” di 400 anni); e il limite che comporta uno scuotimento atto a generare un “inizio di danno non strutturale” (fissato come un “periodo di ritorno” di 10 anni). Tra uno stato limite e l’altro, si applica una formula lineare, in modo che se il costo per un sisma con “periodo di ritorno” di 300 anni è il 30% del valore della costruzione, e il costo per un sisma con “periodo di ritorno” di 100 anni è del 20%, il costo per un sisma con “periodo di ritorno” di 200 anni sarebbe determinato linearizzando nel piano “frequenze medie”-“costi percentuali”, dove – come detto – per chi ci crede l’inverso del “periodo di ritorno” è una “frequenza media”. La perdita annua media si ottiene sommando tutti i contributi di tutti gli infiniti sismi aventi i “periodi di ritorno” ricompresi tra 400 anni e 10 anni. Tutti questi infiniti sismi entrano a far parte del conteggio, con disgiunto e sommato effetto sulla “perdita annua media”.