[di Sergio Maset – L’articolo è stato pubblicato il 26 settembre 2024 su Corriere del Veneto]
Nell’infinito dibattitto tra federalismo e centralismo ha ripreso vigore la discussione sulla gestione delle infrastrutture autostradali. Ed è partita proprio dalla considerazione sui diversi prezzi applicati ai viaggiatori per percorrere corridoi simili su reti autostradali diversi – ad esempio la BreBeMi e la Superstrada Pedemontana Veneta (SPV) rispetto alla storica autostrada A4 (Torino – Trieste). Ora, siamo così sicuri che il problema stia nel federalismo regionale?
Facciamo un esempio: immaginiamo che in un comune ci sia un solo panificio, insufficiente a servire tutta la popolazione, con il risultato che il pane finisce sempre troppo presto. Il comune autorizza, per garantire a tutti un agevole accesso al pane, l’apertura di un secondo forno. Il nuovo fornaio, per rientrare rapidamente dei costi e abbattere il mutuo, decide di applicare un sovrapprezzo a tal punto elevato che in molti decidono di non comprarlo con il risultato che in molti restano ancora senza pane. Di chi è l’interesse a che vi sia pane accessibile per tutti?
Nel caso delle infrastrutture che possono costituire un’alternativa ad altre (il nuovo forno) il problema è molto simile. Pensiamo alle autostrade: l’automobilista che da Brescia deve andare a Milano percorrerà la BreBeMi più costosa ma vuota o la A4 trafficata ma meno costosa? Difficile trovare la risposta. Proviamo allora a cambiare la domanda: se la A4 è trafficata, lenta, incidentata, il problema è solo dell’automobilista e del camionista che la percorrono o è un problema collettivo? La rapidità e la sicurezza delle reti stradali sono o dovrebbero essere un interesse generale. Il ragionamento vale anche per altre reti di trasporto. Pensiamo ad esempio allo sviluppo dell’alta velocità rispetto all’aereo: se il costo dello sviluppo della rete ferroviaria ad alta velocità fosse ricompreso nel costo del biglietto del treno, probabilmente converrebbe viaggiare in first class su qualsiasi aereo anche per fare la tratta Venezia – Milano piuttosto che prendere una Freccia, tanto sarebbe il costo. Dunque, se l’obiettivo è quello di ridurre la congestione e l’inquinamento e aumentare la rapidità e la sicurezza, il costo dello sviluppo dell’alternativa deve essere sostenuto collettivamente, da entrambe le infrastrutture.
Non si tratta, pertanto, di un problema di regionalismo quanto di regolazione delle reti. Certamente un localismo spinto non aiuta, ma un centralismo senza dei criteri di gestione strategica delle reti comporterebbe gli stessi problemi. La SPV non nasce come idea progettuale nella recente stagione ma è presente nella programmazione strategica sin dagli anni ’60. Dunque, se si vuole sgravare rapidamente la A4, che sia in Veneto, Lombardia o Friuli-Venezia Giulia, parte del costo delle alternative (BreBeMi, SPV, ecc.) deve essere ammortizzato dall’intera rete. Lo stesso vale infatti per il tratto a Est della A4.
In questo momento sono ancora (!) in corso i lavori per la terza corsia da Venezia a Trieste: l’adeguamento serve solo per gestire l’emergenza di un tratto interessato troppe volte da incidenti. L’alternativa di sviluppo, spesso ipotizzata anche in Friuli Venezia Giulia, è quella di completare un asse alto, da Pordenone in direzione Tarvisio. Da Verona a Pordenone il corridoio autostradale con la SPV è completato e potrebbe (dovrebbe) dunque proseguire verso l’Austria. Si può fare, certo. Il problema non è federalismo sì o federalismo no, bensì governare le scelte strategiche sui corridoi infrastrutturali come beni pubblici e non come singole imprese.
I problemi legati alla scarsità delle risorse idriche sono rimasti a lungo al di fuori del dibattito pubblico del nostro Paese. La situazione sta tuttavia rapidamente cambiando negli ultimi anni. Se tematiche di questo tipo venivano relegate, almeno nell’immaginario collettivo, a latitudini del mondo decisamente più a sud, ora non sembra più esser così. Non solo le testate giornalistiche italiane, ma anche vari report di istituzioni internazionali, dipingono un quadro sempre più critico, legato soprattutto al riscaldamento climatico. Le Nazioni Unite mostrano che l’indicatore di water stress, ovvero il rapporto tra i prelievi di acqua rispetto alla quantità di risorsa rinnovabile, è critico non solo nelle zone del mondo prima citate, ma anche nella maggior parte dei paesi dell’Europa meridionale, Italia compresa. In aggiunta, gli studi del World Weather Attribution dimostrano come le ondate di calore registrate in Europa negli ultimi anni siano conseguenze del cambiamento climatico. Se ne desume quindi che questi fenomeni non siano probabilmente da considerarsi come un’eccezione, una singolarità, ma come eventi che sempre più influenzeranno le nostre società.
Non è solo un problema di tipo climatico.
Secondo un recente report di Istat, l’Italia risulta essere il terzo paese europeo per prelievi di acqua dolce per uso potabile pro capite, con 155 metri cubi annui. Questo alto valore è da attribuire in parte anche all’inefficienza della rete di distribuzione: nel 2022 il volume delle perdite idriche totali ammonta a 3,4 miliardi di metri cubi, ovvero il 42,4% dell’acqua immessa in rete. In altri termini, la quantità che viene persa nel sistema sarebbe sufficiente a soddisfare le esigenze idriche di altri 43,4 milioni di persone per un interno anno.
Istat cita anche le causa di un tale livello di perdite: oltre ai fattori fisiologici – non esiste un sistema a perdite zero – vengono menzionate le rotture nelle condotte, la vetustà degli impianti, errori di misura dei contatori e usi non autorizzati. Anche in questo caso però, il tasso di dispersione non è uguale in tutte le regioni, e traccia una divisione tra le regioni del Centro-Nord e quelle del Sud. Quest’ultime si ritrovano tutte al di sopra del dato nazionale in termini di perdite, con i valori più alti in Basilicata (65,5%), Abruzzo (62,5%), Molise (53,9%), Sardegna (52,8%) e Sicilia (51,6%).
Gli acquedotti in Italia si sviluppano per circa 500mila chilometri. Di questi, il 60% è stato installato oltre 30 anni fa e il 25% supera i 50 anni. D’altro canto, il tasso nazionale di rinnovo è pari a 3,8 metri di condotte per ogni chilometro di rete: a questo ritmo sarebbero necessari 250 anni per sostituire l’intera rete (fonte FAI).
Dal problema alla soluzione: un passo tutt’altro che breve
Se la problematica sembra quindi facilmente ascrivibile all’inefficienza della rete, non altrettanto facile risulta essere la soluzione.Si stima infatti che l’investimento per adeguare e mantenere la rete idrica nazionale ammonti a circa 5 miliardi all’anno, risorse che attualmente non sono alla portata delle finanze italiane (fonte Utilitalia). Difatti, se in media i paesi europei spendono 82 euro per abitante l’anno in investimenti da parte dei gestori, il livello italiano si ferma a 38 (dati riferiti al 2021, fonte Utilitalia). Questi dati sottolineano da un lato l’importanza che rivestono gli investimenti nell’efficientamento della rete, dall’altro la difficoltà nel reperire le risorse per attuarli. Questo mismatch è indicatore del fatto che il problema legato alla dispersione idrica non sarà facilmente risolvibile nell’immediato futuro, nonostante le risorse messe in campo attraverso dei piani europei (React-Eu) e il PNRR, divise in 4 linee di intervento:
Infrastrutture idriche primarie per la sicurezza dell’approvvigionamento idrico;
Riduzione delle perdite nelle reti di distribuzione dell’acqua;
Investimenti nella resilienza dell’agrosistema irriguo per una migliore gestione delle risorse idriche;
Investimenti in fognatura e depurazione.
Gli eventi siccitosi e le conseguenti criticità legate alla fornitura di acqua alla popolazione, intensificatesi negli ultimi anni, dimostrano come ormai la situazione non possa più essere ricompresa nel termine “emergenza”, nel senso di circostanza imprevista, che porta tutt’al più a soluzioni temporanee e sicuramente non ideali per la popolazione. Ne sono un esempio le recenti misure di razionamento imposte in alcune regioni del Mezzogiorno piuttosto che la grave siccità che ha colpito il fiume Po nel 2022.
Guardare all’esperienze di altre regioni del mondo può avere senso?
E’ opportuno chiedersi se non ci siano lezioni o moniti di cui tenere traccia dai Paesi che già hanno dovuto fronteggiare gravi carenze idriche. Ne sono esempio alcuni paesi del Sud del mondo, come quelli dell’Africa Sub-Sahariana. Quest’ultima è una delle zone in cui si registrano i più alti tassi di crescita della popolazione. Quest’aumento va di pari passo con quello della componente urbana, che negli ultimi trent’anni ha dato una forte spinta alla nascita di diverse metropoli, in cui oggigiorno convivono, a pochi chilometri di distanza, ambasciate ed insediamenti informali. Proprio quest’ultimi sono il simbolo di una pianificazione urbana e infrastrutturale che non ha mantenuto il passo della crescita demografica.
Esempio lampante di queste trasformazioni è Nairobi, capitale del Kenya. Ad oggi, la disponibilità idrica della città riesce a soddisfare solo circa il 64% della propria domanda. Nel 2009 sono quindi partiti i primi studi di fattibilità su un progetto per raccogliere più acqua dai fiumi che scorrono a nord della città, in modo da poter stare al passo con la domanda dei prossimi decenni. Tale progetto è un esempio di strategia di gestione delle risorse idriche basata sul lato dell’offerta, che appunto prevede lo sfruttamento di nuove fonti ancora vergini per far fronte al fabbisogno cittadino. Tuttavia, la letteratura è ormai critica nei confronti di questa visione, non sostenibile nel lungo periodo, specialmente in un contesto come il Kenya, dove l’esponenziale crescita della popolazione urbana e gli effetti del riscaldamento climatico stanno mettendo a dura prova le già scarse risorse idriche del Paese.
L’azienda responsabile della distribuzione idrica per la città, la Nairobi City Water and Sewerage Company (NCWSC) ha adottato un programma di razionamento, in modo da poter raggiungere i cittadini della capitale in modo più equo. Nonostante ciò, determinate parti della città e fasce della popolazione rimangono spesso non servite. La scarsità della risorsa fa sì che i singoli utenti competano per quest’ultima con investimenti propri: installazione di pompe elettriche, cisterne, fonti alternative quali il traforo di pozzi privati e la distribuzione tramite autocisterne, sempre private. L’adozione di questi sistemi dipende però dalla disponibilità economica dell’utenza. La distribuzione torna, quindi, ad essere diseguale, nonostante i tentativi delle autorità di servire ogni cittadino di Nairobi. Ne è testimone il fatto che nei quartieri più abbienti della città vi è un consumo che varia dai 200 ai 300 litri a persona, mentre negli insediamenti informali si aggira intorno ai 20 litri.
Fortunatamente in Italia le problematiche hanno al giorno d’oggi una magnitudo diversa da quella kenyota. Vi sono meno disparità economiche, una maggiore presenza delle istituzioni e una rete idrica già strutturata, solo per citare alcune differenze. Detto ciò, la situazione nella capitale kenyota è una chiara dimostrazione delle conseguenze che possono emergere nel caso in cui il fenomeno non venisse efficacemente fronteggiato dalle amministrazioni.
Ora, dato che le soluzioni di tipo infrastrutturale richiedono ingenti investimenti e tempi lunghi, è possibile immaginare che situazioni di criticità emergeranno anche in futuro. Com’è possibile quindi affrontare la problematica con soluzioni economiche con un impatto a breve termine?
Rimanendo nel Sud del mondo, è emblematico il caso di Città del Capo. Tra il 2015 e il 2018 la grave siccità ha più volte minacciato la città di 4,6 milioni di abitanti con il Day Zero, ovvero il taglio completo della fornitura idrica. Questo evento è stato evitato attraverso una costante campagna di informazione da parte delle autorità, mirante a ridurre i consumi da parte dei propri cittadini. Per quanto estremo, questo esempio ci dà due suggerimenti. Il primo: attraverso un approccio comunitario è possibile raggiungere in modo molto più efficace determinati obiettivi. Il secondo: la gestione del comportamento delle persone può avere effetti tangibili. Difatti, il caso rientra nelle misure che vengono definite in letteratura demand-driven, ovvero di gestione della risorsa idrica attraverso un suo consumo più efficiente. Delle politiche pubbliche cosiddette comportamentali, possono essere un prezioso strumento per questo fine. Questo approccio si basa sul capire quali sono i fattori che portano ad un consumo non efficiente e a creare delle politiche che agiscano su di essi.
In conclusione, è chiaro quindi che l’acqua non possa più essere trattata come una risorsa illimitata, sia dalla popolazione che dalle istituzioni. D’altro canto, nei periodi in cui le quantità disponibili si riducono drasticamente, come si osserva sempre più spesso, non è né sostenibile né efficiente una gestione emergenziale o peggio ancora lasciata ai singoli cittadini. Viste le difficoltà tecniche ed economiche sopra citate, vi è bisogno di un approccio che diventi quanto più possibile strategico, che non si limiti ad un singolo intervento “calato dall’alto” ma che coinvolga più attori e più soluzioni. In primis, deve però esserci la presa di coscienza del problema e della sua portata, nonché la volontà di affrontarlo e non di essere in balia di quest’ultimo.
[di Sergio Maset – L’articolo è stato pubblicato il 17 settembre 2022 su Corriere del Veneto]
La digitalizzazione è certamente un processo rivoluzionario e richiede grandi investimenti materiali e culturali. Alcuni procedono per una spinta propria del mercato: altri richiedono invece una maggiore attenzione e definizione in relazione alla qualità della vita delle persone.
La transizione digitale così come la transizione energetica sono fatti sociali oltre che tecnologici e (anche) la dimensione sociale influenza la nostra capacità di governare piuttosto che essere governati da questi processi. Il fattore tempo è importante e determinerà quale ruolo avranno l’Italia e l’Europa nei prossimi decenni a livello globale. Per rendere sostenibili transizioni rapide bisogna però porsi nella prospettiva delle persone e comprendere come vengono vissute le trasformazioni. L’opportunità dal punto di vista di qualcuno potrebbe infatti essere vissuta come un rischio per il lavoro e le sicurezze di altri. Serve dunque una grande capacità di ascolto empatico dei lavoratori – autonomi, imprenditori, dipendenti che siano – e di valutazione degli scenari, per governare le possibili conflittualità sociali. Tutto ciò al fine di evitare che l’allungamento dei tempi giochi a sfavore della competitività di un paese democratico quale è il nostro.
È evidente che è in corso da diversi anni un enorme processo di alfabetizzazione digitale. Il punto è che questo è in larga parte condotto direttamente dagli operatori del mercato. Le smartTv, i dispositivi come Alexa, i social network, l’infomobilità, gli smartwatch, l’intrattenimento on line, tutti funzionano da strumenti “didattici” con cui l’alfabetizzazione digitale viene portata avanti. Lo stesso mercato, che si muove e crea l’ecosistema digitale, investe per renderci sempre più abili a vivere in un mondo in cui praticamente ogni ambito della nostra quotidianità viene interessato da processi di virtualizzazione e dematerializzazione. Da che Steve Jobs negli anni ’80 lanciò sul mercato il Macintosh con l’interfaccia grafica e il mouse gli investimenti sono stati focalizzati sulla semplificazione e appagamento dell’esperienza dell’utilizzatore. Le app commerciali oggi sono quanto di più semplice vi possa essere per lo svolgimento di operazioni complicate o macchinose. In Italia ognuno ha uno smartphone e l’esperienza con questi dispositivi è più facile, immediata e intuitiva oggi di quanto non lo fosse vent’anni fa quella con un cellulare che serviva solo per telefonare e scrivere sms.
Il punto su cui concentrarsi non è tanto quello di spiegare ai cittadini a muoversi in un mondo di applicazioni digitali, dato che queste sono congegnate proprio per essere utilizzate senza bisogno di altro aiuto. La questione è come fare in modo che con queste tecnologie le persone vivano meglio. Per questo serve portare nel dibattito politico gli elementi fondamentali della transizione digitale e di governo dell’ecosistema digitale. Come estenderlo rapidamente ai vari ambiti del sociale, dall’assistenza agli anziani all’inclusione dei disabili e alla telemedicina? Quali aspetti deve regolare lo Stato, ad esempio sul tema degli open data? Dove è opportuno o necessario che intervenga economicamente in via diretta? Come sfruttare l’ecosistema digitale per rendere più semplice la nostra vita oltre che più immediati gli acquisti e i consumi per il tempo libero?
Sondaggio Edilportale e Idea Tolomeo: i sistemi domotici possono migliorare l’autonomia di anziani e disabili ma occorre sviluppare la cultura.]
Uno dei prodotti mainstream di questo Natale 2018 è stato Amazon Echo, un dispositivo che con il suo alter ego Alexa porta nelle case l’intelligenza artificiale in una forma snella ed economicamente accessibile. E’ interessante osservare come il prodotto, così come il suo analogo Google Home, è stato posto infatti sul mercato contestualmente ad interruttori wireless offerti a prezzi nell’ordine di poche decine di euro. Non si tratta più dunque di domandarsi quando l’intelligenza artificiale sarà accessibile alla stragrande maggioranza delle famiglie, ma in che modo è concretamente possibile utilizzarla per semplificare la vita delle persone. È proprio su questi aspetti che si è concentrato un sondaggio on -line promosso da Edilportale in collaborazione con IDEA TOLOMEO[1].
Come cambia la domanda di domotica da parte dei clienti finali?
La prima parte del sondaggio[2] è stata dedicata ad una valutazione sulla domanda attuale e futura di sistemi domotici. Rispetto a sei diversi ambiti di applicazione sottoposti all’attenzione degli intervistati, è stata ritenuta molto o abbastanza elevata la domanda attuale per quattro di essi: la rilevazione e segnalazione di intrusioni (88%), il controllo dell’ambiente domestico (73%), l’ausilio alla mobilità e vita quotidiana per persone con disabilità e anziane (69%) e la prevenzione di eventi accidentali (67%). Non superano invece il 50% il controllo degli elettrodomestici (47%) e la segnalazione di incidenti domestici (41%). Emerge dunque una valutazione di prevalenza della domanda sulla dimensione della security (rilevazione e segnalazione intrusioni) prima ancora che della safety (prevenzione eventi e segnalazione incidenti).
Volgendo lo sguardo al futuro prossimo, la maggioranza degli intervistati si aspetta che cresca molto o abbastanza il ricorso alla domotica in tutti questi ambiti. L’attesa è di forte crescita di domanda per applicazioni funzionali al controllo dell’ambiente domestico, alla rilevazione e segnalazione di intrusioni e per l’ausilio alla mobilità e vita quotidiana per persone con disabilità e anziane.
Che cosa rappresenta la domotica per gli operatori?
Per ciascuno di questi ambiti è stato quindi chiesto agli intervistati quale fosse, tra alcuni aggettivi proposti, quello che meglio lo rappresentasse. Risultano essere due, in particolare, i termini maggiormente ricorrenti: “utile”, da un lato, e “rassicurante” dall’altro. Ecco dunque che l’aggettivo “utile” prevale per il controllo degli elettrodomestici (52%), l’ausilio alla mobilità e vita quotidiana per persone con disabilità e anziane (50%) e il controllo dell’ambiente domestico (39%). L’aggettivo “rassicurante” è invece più frequentemente utilizzato in relazione alla rilevazione e segnalazione di intrusioni (49%), alla prevenzione di eventi accidentali (45%) e alla segnalazione di incidenti domestici (44%).
È possibile approfondire l’analisi mettendo in evidenza quali termini si associno in modo più caratteristico, rispetto alla media complessiva, a ciascuno di questi ambiti. L’aggettivo “rassicurante” caratterizza specificatamente la rilevazione e segnalazione di intrusioni e la prevenzione di eventi accidentali (vicine tra loro), ma anche la segnalazione di incidenti domestici come le cadute. È possibile apprezzare inoltre come il termine “intelligente” si associ in modo più specifico al controllo degli elettrodomestici e dell’ambiente domestico. I termini “utile” e “gratificante” caratterizzano maggiormente l’ausilio alla mobilità e vita quotidiana per persone con disabilità e anziane.
Il grafico va letto guardando alle linee che congiungono i punti con l’origine degli assi (la coordinata 0,0). È l’angolo tra queste linee a determinare l’intensità del legame (della corrispondenza) tra ambiti e aggettivi: un piccolo angolo indica una forte corrispondenza.
È stato poi chiesto agli intervistati di associare liberamente un termine che si accompagni a “domotica”. Il 29% delle risposte ha riguardato elementi di immagine, con termini come “futuro”, “intelligenza”, “innovazione”; il 27% modalità e strumenti di applicazione come “automazione”, “controllo”, “connessione”; il 26% attese di risultato come “comfort”, “risparmio” “semplificazione”. Per un altro 4% la domotica richiama un aggettivo positivo (es. “smart”, “interessante”) e per l’8% un attributo negativo (es. “costo”, “complessità”). Nella sostanziale tripartizione delle risposte si coglie l’intensità delle attese intorno al fenomeno della diffusione dell’intelligenza artificiale nelle abitazioni: un insieme di technicalities dai forti contenuti sociali e simbolici.
In quali ambiti possiamo attenderci i maggiori risultati?
Il sondaggio ha dunque indagato, secondo la percezione degli intervistati, il contributo della domotica per diversi possibili obiettivi. Considerando solo le risposte “Molto” troviamo al primo posto il contribuire a migliorare il comfort delle abitazioni; al secondo la possibilità di migliorare l’autonomia delle persone anziane e disabili, seguita dall’aumentare la sicurezza della casa e dei beni in essa custoditi.
Le attese dei consumatori nei confronti della domotica, sempre secondo gli interpellati, si concentrano su “semplificare la vita quotidiana delle persone” (37%), seguita da migliorare il comfort delle abitazioni (32%) e, secondariamente, far risparmiare le famiglie (15%).
La domotica per l’autonomia delle persone anziane e con disabilità
Migliorare l’autonomia di anziani e disabili è quindi al contempo ai primi posti come obiettivo a cui la domotica può rispondere e tuttavia ritenuto ancora poco significativo circa le attese dei consumatori finali. Eppure L’Italia è uno dei Paesi più vecchi al mondo: l’indice di vecchiaia, che misura il rapporto tra la popolazione anziana (65 anni e oltre) e la popolazione più giovane (0-14 anni), è nel 2018 pari al 168,9% ovvero, come sottolinea Istat, il secondo più elevato su scala globale dopo il Giappone (200% nel 2015). Nel prossimo futuro, il quadro di una popolazione sempre più vecchia è destinato a rafforzarsi: secondo Istat la popolazione di 65 anni e più crescerà dall’attuale 22,6% fino al 32,1% nel 2040 e al 33,3% nel 2065 (con poco meno di un decimo della popolazione oltre gli 84 anni).
Al tema dell’invecchiamento si accompagna ovviamente quello della salute e c’è un dato, tra i tanti, che colpisce. Rispetto al rischio di incidente domestico gli anziani rappresentano una delle categorie più a rischio: secondo la rilevazione condotta da Istat nel 2017, 24 anziani su mille dichiaravano di aver subito un incidente domestico nei 3 mesi precedenti l’intervista, contro un dato medio, relativo alla popolazione di tutte le età, di 14 persone su mille. Un rischio che aumenta al crescere dell’età anziana, con le cadute a rappresentare la dinamica più ricorrente, e che è maggiore per le donne, per le quali si traduce inoltre in una maggiore gravità degli infortuni e maggiori limitazioni.
Pensando dunque alle applicazioni della domotica per consentire una maggiore autonomia delle persone anziane, gli intervistati sono quasi all’unanimità (95%) molto o abbastanza concordi che esse possano rappresentare un valido aiuto, con un 48% molto concorde. L’84% è molto o abbastanza concorde nel ritenerle tecnologicamente avanzate, il 61% nel ritenerle semplici da utilizzare. Non vi è invece accordo nel ritenerle accessibili da un punto di vista economico (solo il 35% è molto o abbastanza d’accordo) e conosciute da anziani e disabili (11%), con un 32% molto in disaccordo con questa affermazione.
Congruentemente con quest’ultimo punto, il 70% degli intervistati ritiene che per aumentare la diffusione della domotica in ausilio a persone anziane e disabili occorra soprattutto lavorare sulla domanda da parte dei consumatori, ad esempio facendo conoscere più approfonditamente i bisogni a cui può dare risposta la domotica.
La domotica: non rende più giovani …ma può aiutare ad invecchiare meglio.
Sembra dunque emergere dalle risposte degli intervistati uno spazio di mercato in cui i sistemi domotici hanno un elevato potenziale in termini di capacità di incidere positivamente sull’autonomia delle persone anziane e disabili, ma basse aspettative da parte dei consumatori finali. È fondamentale dunque lavorare tanto sui consumatori che sull’integrazione con la rete dei servizio sociali e sanitari territoriali, sviluppando cultura, politiche pubbliche e prassi amministrative e gestionali. L’Unione Europea stessa ha dato attenzione al tema della salute degli anziani e delle persone con disabilità facendone uno degli ambiti cui è dedicato Horizon 2020, e confermandolo anche per il periodo 2021-2027. Le soluzioni ICT non rappresentano certamente l’unica risorsa a cui fare riferimento nel ricercare delle soluzioni per la cura della fascia di popolazione in età più matura, ma come ricorda la European Innovation Partnership sull’invecchiamento attivo e in buona salute esse possono aiutare le persone anziane ad avere uno stile di vita indipendente ed estendere gli anni di vita autonoma.
[1] Idea è una società che opera nel campo della ricerca sociale ed economica e fornisce consulenza ad aziende, associazioni, istituzioni ed enti locali, per la valutazione e il monitoraggio di politiche pubbliche, l’analisi di impatto economico e sociale e indagini di mercato.
[2] Il sondaggio si è basato su una rilevazione on line, tramite la piattaforma EDILPORTALE. Hanno risposto 138 operatori e professionisti, tra cui ingegneri (20%), architetti (16%), geometri (16%), periti industriali (12%) e altre tipologie di lavoratori distribuiti su tutto il territorio nazionale.
La grande finanza, spesso vista come contrapposta all’”economia reale”, non gode certo delle immediate simpatie della maggioranza della popolazione. Può suscitare dunque non poco stupore l’affermazione di Jean Pierre Mustier, ad di Unicredit, il quale quest’estate ha accusato Facebook di “scarsa eticità” nell’uso dei dati degli utenti ed ha annunciato di aver “bloccato ogni interazione con Facebook” per attività di business quali le inserzioni pubblicitarie e le campagne di marketing. Il proverbiale “bue che dà del cornuto all’asino”, direbbe l’”uomo della strada”. Ma come? Il massimo dirigente della quinta banca europea per capitalizzazione che impartisce patenti di “eticità” a Facebook, la quale a sua volta, dopo lo scandalo di Cambridge Analytica, non gode certo delle simpatie popolari ma pare comunque più apprezzata di qualsiasi istituzione finanziaria?
E perché questo attacco? È forse un tentativo per associare in una stessa frase “grande finanza” ed “etica”? Forse si, ma anche no. In realtà, il confronto fra Unicredit e Facebook si inserisce in un contesto in cui le grandi piattaforme web – Apple, Facebook e Google – rivaleggiano con le istituzioni finanziarie tradizionali nel “core-business” di queste ultime. Banche ed istituti finanziari rilevano costantemente enormi quantità di informazioni sul comportamento dei clienti. Ma ancora maggiore è la capacità e potenza di monitoraggio dei comportamenti e delle preferenze che mettono in campo Google, Apple e Facebook. E’ inoltre sostanziale la differenza nel tipo di informazioni a cui possono accedere questi due gruppi: mentre i primi – le banche per intendersi -possono rilevare alcuni elementi del comportamento economico e finanziario dei clienti, i secondi possono mettere in relazione il comportamento nella molteplicità di ambiti in cui ciascuno di noi si muove. In qualche modo, possono statisticamente spiegare il “perché” di certi nostri comportamenti. Tutto un altro paio di maniche. Ora, con buona pace della nostra privacy, la compenetrazione fra i due mondi (social network e finanza) è ormai totale: Facebook, ad esempio, ha ammesso di aver effettuato, con successo, un forte pressing su diversi istituti finanziari affinché condividessero le comunicazioni fra banche e clienti effettuate via Messenger.
Da queste considerazioni si possono trarre, com’è ovvio, molteplici spunti di riflessione, sul piano politico e sociale. Primo aspetto. Stiamo già ampiamente assistendo alla contrapposizione di blocchi di potere nell’enorme mercato del controllo delle informazioni e, finalmente, sta crollando la patina di amichevole leggerezza che, con una attentissima e programmata liturgia, avevano costruito intorno a sé Google, Apple, Facebook & Co. E questo per effetto della messa in discussione operata, guarda caso, da altre élite così come nell’esempio della banca. La creazione di blocchi web-finanza, in cui la parte del leone la fanno le grandi piattaforme web, mentre banche ed istituti finanziari si vedono “costretti” ad allearsi ad una piattaforma o ad un’altra, rappresenta uno scenario affascinante e certo non peregrino. Si tratterebbe di uno scenario in cui, in assenza di un attore economico chiaramente egemone rispetto agli altri, si genererebbe una sorta di balance of power all’interno di un mondo multipolare. In cui, fintantoché un attore non prevarrà sugli altri, si assisterà a comportamenti dei singoli attori “minori” (fra virgolette, perché stiamo parlando di grandi corporation finanziarie) vòlti a “bilanciare” e contrarrestare gli eventuali tentativi “egemonici” degli altri blocchi.
La seconda considerazione è che non è ancora maturata una sufficiente consapevolezza della natura pubblica del ruolo giocato dalle reti digitali facendo emergere ampi vuoti di rappresentanza degli interessi sia generali sia specifici, di imprese e consumatori. L’accusa di “scarsa eticità” rivolta a Facebook, fa leva su argomentazioni appunto di tipo etico, che, ai giorni nostri, assumono un significato assolutamente politico. La “politicità” dell’accusa risiede nella ricerca di consenso presso un pubblico più vasto. E risiede anche nella richiesta, pur se in nuce ed interpretabile in modi diversissimi, di una diversa regolamentazione dell’arena digitale. Estremizzando, taluni basano le loro argomentazioni sulla sovranità della protezione dei dati sensibili dell’utente; altri sulla prevalenza dell’interesse del consumatore verso una migliore e più accattivante esperienza di acquisto. Ma se non si tratta (solamente) di una guerra commerciale fra potenze economiche per il controllo di fette di mercato, e se quindi emerge la necessità di argomentare la questione sul piano etico allora siamo di fronte ad uno scenario che richiede di comprendere come si articola la platea degli interessati e di comporre e rappresentarne l’interesse.
Insomma, bisogna essere consapevoli che le decisioni in materia di uso delle informazioni vanno ad incidere su aspetti fondamentali nella vita di ciascuno di noi, tanto quanto lo è, ad esempio, decidere la quantità di risorse da destinare alla sanità pubblica o all’istruzione. Dunque, parliamo di un’arena nella quale, per poter influire, bisogna anche raccogliere il consenso.
Articolo pubblicato su La Tribuna di Treviso il 20 novembre 2016]
Nel ricorrente dibattito sul closing finanziario della Superstrada Pedemontana è recentemente entrato di prepotenza il tema delle stime di traffico. A quanto pare dati aggiornati direbbero che il traffico non sarà quello a suo tempo stimato, bensì enormemente inferiore. Da questo scenario discenderebbero due emergenze. Primo, la Regione Veneto dovrà sborsare un sacco di soldi compromettendo così il suo bilancio per decenni; secondo, poiché gli uomini della cassaforte dello Stato – la Cassa Depositi e Prestiti – non si fiderebbero della sostenibilità dell’opera, tanto meno dovrebbero investirci i privati, dunque niente soldi per finire i lavori. Insomma, due conclusioni catastrofiche per l’amministrazione delle risorse pubbliche.
Prima di ragionare su questi due rischi è meglio però provare fare un attimo di chiarezza. Punto primo: le stime sono una cosa, le decisioni sono un’altra. L’opera è partita per cui a questo punto se un problema c’è non è più nelle stime (di allora) ma nella decisione a suo tempo avvallata, rettificata, autorizzata a qualsiasi livello e tavolo. Quindi se errore ci fosse mai stato a suo tempo, la responsabilità risale la china della sequenza delle autorità amministrative. Della serie, non può essere accettato uno scaricabarile stato-regione.
Secondo punto: si negoziano le decisioni, non le stime. È solo in un mondo ottusamente tecnocratico ed elitario che si negoziano le stime per giustificare le scelte politiche. Le stime si valutano, si confrontano e si argomentano: le decisioni si negoziano. Della serie, se intendi negoziare sulle stime, allora non nominarle nemmeno e assumiti le responsabilità.
Terzo punto. Non c’è bisogno di essere dei volponi navigati per capire che quando ci sono in gioco cifre di miliardi di euro è irrilevante l’autorevolezza di chi fornisce le stime. Ovvero: buonsenso e mestiere ci insegnano che non posso mai basarmi su una sola fonte, ma dovrò metterla a confronto con altre. Ora, dopo sei mesi in cui si parla di stime, delle due l’una: o la questione dei dati è un pretesto oppure dobbiamo accettare che il nostro paese sia rimasto ai tempi dell’allegra commissione raccontata da Paolini, che da Roma saliva al Vajont per certificarne i lavori.
Come se ne viene fuori? Tre proposte. Primo, per quanto riguarda la questione delle stime, se mai davvero il problema fosse lì, meglio affrontarlo con la dovuta chiarezza: quattro docenti di pianificazione dei trasporti (non progettisti di strade, grazie), magari due italiani e due stranieri e un mese di tempo. Tanto di più non serve. Secondo, provare a fare un esercizio anche giornalistico: anziché concentrarsi esclusivamente sui rischi e su chi li corre, provare anche a chiedersi se e quali sarebbero le opportunità (e per chi) derivanti da una ridefinizione della partita attuale della compagine finanziaria della Pedemontana. Ultimo, ma non ultimo: facciamo, come paese, un bilancio serio sull’esperienza delle concessioni autostradali e delle privatizzazioni.
Articolo pubblicato su Monitor di VeneziePost – 22 Marzo 2015]
La discussione sullo sviluppo insediativo, residenziale e produttivo nella provincia di Treviso ha ormai raggiunto i vent’anni. Nella seconda metà degli anni Novanta, i riflettori mediatici si sono accesi sul fenomeno Nordest e accanto alle evidenze macroeconomiche ha iniziato a prendere piede un dibattito, spesso sterile, sui costi di questo sviluppo. La provincia di Treviso – e così tutto l’arco pedemontano, da Verona a Pordenone – in cinquant’anni ha visto crescere la popolazione di circa 270 mila abitanti, aumentata del 44%; si è compiuta una conversione da un’economia ancora ampiamente agricola a una pienamente manifatturiera (oggi è ancor più corretto parlare di “manifatturiero terziarizzato”); inoltre, a dispetto delle profezie di declino industriale (pre-crisi e nel corso della crisi), Treviso si attesta ottava provincia esportatrice in Italia (dati Istat) e settima in Europa per vocazione industriale (secondo una recente ricerca della Fondazione Edison) in una graduatoria che vede ai primi tre posti, nell’ordine, Brescia, Bergamo e il territorio di Wolfsburg.
Che il paesaggio si sia fortemente trasformato è evidente. Generalmente le valutazioni di questa trasformazione sono negative senza però andare oltre a una lettura superficiale. Oggi possiamo hiederci dato il momento storico, in questa provincia poteva realisticamente andare diversamente? Se si va a vedere altri territori con analoga vocazione industriale, tassi di crescita economica e demografica simili, il panorama non sembra molto diverso. Detto in altri termini, sarebbe stato difficile non attendersi una proliferazione di zone industriali (oggi sono 1077 distribuite in 95 comuni), in un contesto di decentramento “in orizzontale” della storica impresa fordista, con una forte domanda di territorio da parte di un’imprenditoria di piccola dimensione (si ricorda soltanto che a Treviso, tra il 1971 e il ‘91, il numero delle unità locali operanti nell’industria più che raddoppia, passando da circa 10 mila a oltre 23 mila), con un assetto normativo quale quello italiano in cui i comuni hanno piena autonomia in materia urbanistica.
Ora, la realtà ci restituisce un quadro sociale ed economico più complesso di quello di 20 anni fa. Convivono diverse istanze che agiscono sul territorio – dalla attesa di (ri)messa a valore dei capannoni dismessi, alle richieste di ampliamento delle imprese, dalla domanda di occupazione a quella di riqualificazione del paesaggio, dalle richieste di nuove aree produttive alle istanze di salvaguardia del terreno agricolo. Una ricerca dell’Osservatorio Economico e Sociale della provincia di Treviso presentata in questi giorni, ha evidenziato che anche in un contesto ad alta frammentazione quale quello trevigiano, circa il 60% delle superfici produttive è concentrato in 28 piattaforme e che all’opposto, la percezione di disordine insediativo appare riconducibile al 15% della superficie produttiva, distribuito però in zone pulviscolari. I cluster produttivi che emergono dall’analisi sono in larga parte di natura sovracomunale, ovvero si sviluppano a cavallo di più comuni. Rispetto poi al tema del patrimonio immobiliare inutilizzato, un approfondimento su tre aree interessate da altrettante piattaforme ha rilevato che l’incidenza degli immobili produttivi inutilizzati varia, tra i casi, dal 10% sino al 20%. Un fenomeno dunque di assoluto rilievo.
Partendo da questi dati e lasciando da parte le retoriche del ripiegamento e della decrescita, si tratta evidentemente di riflettere se, a fronte di un quadro più articolato culturalmente, politicamente ed economicamente, sono ancora attuali gli strumenti normativi e regolativi e i livelli di attribuzioni delle competenze. Alcuni punti sono da subito individuabili e andrebbero affrontati. Bisogna domandarsi sino a che punto ha ancora senso una rigida classificazione per destinazioni d’uso in tutte quelle situazioni in cui non sono presenti attività o ad elevato rischio o ad intrinseca attrazione di grandi volumi di traffico. La compresenza di attività artigianali, terziarie ed industriali è possibile senza che da tale mescolanza si generino esternalità negative.
Nell’esperienza comune – inoltre – si vedono spesso piccoli fazzoletti di verde tra i capannoni. Derivano in molti casi dall’applicazione di standard, di cui si fatica a coglierne la razionalità. Gli spazi verdi richiedono una estensione adeguata per poter assumere e far percepire un reale valore. Il criterio convenzionale di distribuzione di parcelle di verde a standard nell’ambito di una pianificazione comunale non ha generato ampi corridoi verdi – che mancano nei contesti più urbanizzati – ma fazzoletti di degrado e abbandono. La responsabilità delle scelte in materia urbanistica resta incardinata in capo alle amministrazioni e agli uffici comunali e le recenti riforme sugli enti locali non hanno toccato l’impianto delle competenze. Far affidamento alla volontarietà delle singole amministrazioni di cooperare è irrealistico prima ancora che illusorio. Se si vuole oggi coordinare il nuovo sviluppo con la riqualificazione, la scala di pianificazione generale e di valutazione delle leve perequative e compensative in materia di insediamenti produttivi deve essere sovra comunale, quanto meno a livello di ambito distrettuale.
Un ulteriore elemento, strettamente connesso ai precedenti, riguarda la questione della semantica dei piani e dei regolamenti. I piani comunali sono costruiti solo in parte adottando denominazioni e classificazioni comuni. La composizione di un piano sovra comunale richiede, stanti le differenze semantiche, una attività di normalizzazione spesso non banale in ordine di tempo e di costi operativi. Analogamente avviene per i regolamenti edilizi, esito di sedimentazioni successive proprie per ciascun comune. Il risultato è che una attività di programmazione intercomunale, che consenta anche una valutazione integrata di oneri, perequazioni e compensazioni risulta forzatamente rallentata a prescindere dalla volontà politica delle amministrazioni. Si tratta di provare, fuori di retorica, ad essere davvero smart.
Un’ultima considerazione riguarda l’obiettivo generale a cui tendere. I processi di riqualificazione, rigenerazione e, più in generale, il perseguire un miglioramento della qualità complessiva del territorio, richiedono di riuscire ad utilizzare come leve non solo il ruolo regolatore delle amministrazioni ma anche e soprattutto l’interesse privato. Stante le caratteristiche del sistema economico provinciale, qualsiasi scenario si voglia disegnare deve comunque rispondere a un obiettivo di rafforzamento della capacità produttiva manifatturiera di generare valore aggiunto ed esportazioni, elementi questi che si riflettono sull’occupazione diretta, indiretta e indotta. Bisogna dunque capire come evolvono gli spazi fisici entro i quali si realizza la produzione, quali sono le forme e le dimensioni che chiede il sistema produttivo del 2020.
Articolo pubblicato su Monitor di VeneziePost – 11 Gennaio 2015]
C’è qualcuno che conosce la contea di Clark negli Stati Uniti? Probabilmente (quasi) nessuno. Eppure il presidente della contea di Clark, l’equivalente territoriale di una nostra provincia, è anche il presidente di uno dei più interessanti casi a livello mondiale di Organizzazione di Gestione della destinazione: il Las Vegas Convention and Visitors Authority.
Il termine Organizzazione di Gestione della destinazione (ODG) dovrebbe suonare familiare, visto che è stata introdotta dalla legge regionale del Veneto n° 11 del 2013. Si tratta di organizzazioni responsabili del management e del marketing turistico, i cui obiettivi sono la governance turistica delle destinazioni, la gestione dell’informazione turistica, la qualificazione dei servizi e dei prodotti, la creazione e lo sviluppo di sinergie e forme di cooperazione tra soggetti pubblici e privati nel governo della destinazione e dei prodotti turistici.
Ora, ci sono almeno tre buone ragioni per guardare all’esperienza del LVCVA e tutte e tre rimandano ad una insuperabile capacità degli americani di parlare chiaro e comunicare efficacemente.
La prima riguarda la sua missione. L’authority è il soggetto che ha il compito di attrarre visitatori promuovendo Las Vegas come “la più desiderabile meta per il tempo libero e il turismo d’affari”. E continua a farlo ininterrottamente dal 1955. Negli anni 50 Las Vegas era già una destinazione affermata scelta da milioni di visitatori per il tempo libero. Tuttavia questo tipo di turismo presentava un andamento ciclico, con un calo di visitatori nei weekend, durante l’estate e le feste natalizie. Venne dunque identificato un nuovo mercato per i periodi di bassa stagione, l’attività congressuale. Lo stato del Nevada autorizzò dunque la contea di Clark a finanziare con l’introduzione di una imposta di soggiorno la costruzione del Las Vegas Convention Center e l’avvio di un programma di marketing della destinazione. Adesso Las Vegas ospita 22 mila congressi ogni anno con più di 5 milioni di partecipanti. Il volume complessivo è di oltre 40 milioni di turisti con quasi 50 milioni di stanze-notte occupate (in provincia di Venezia, nel 2013, gli arrivi sono stati circa 8,2 milioni e le presenze nell’ordine dei 34 milioni). Le attività di marketing dell’LVCVA interessano gli hotel e motel del Sud Nevada: oltre alla città di Las Vegas, anche Laughlin, Boulder City, Jean, Primm, Henderson, North Las Vegas and Mesquite.
Il secondo aspetto che vale la pena segnalare è il modello di Governance adottato. L’economia del sud del Nevada è fortemente dipendente del turismo: hotel, casinò e industria congressuale. Questi settori occupano più di un quarto della forza lavoro complessiva. La sostenibilità dell’economia della contea di Clark dipende dal volume di visitatori della regione. Per quanto possa sembrare strano il LVCVA è una agenzia governativa, istituita per legge nazionale. L’agenzia è governata da un consiglio di amministrazione autonomo che ha come obiettivo definire le politiche per attrarre un sempre maggior numero di visitatori. Il consiglio di Amministrazione è costituito da 14 membri: 2 della contea, 2 della città di Las Vegas, un membro ciascuno per le città di North Las Vegas, Henderson, Mesquite and Boulder City. Il settore privato esprime sei membri, nominati dalla camera di commercio di Las Vegas e dall’associazione albergatori del Nevada.
Il terzo elemento degno di nota riguarda il livello di rendicontazione delle decisioni assunte e dei risultati conseguiti, con una estrema chiarezza sui ricavi complessivi della tassa di soggiorno, le altre fonti, sulle spese e gli investimenti. A questo si accompagna una rigorosa attività di informazione in merito al profilo dei viaggiatori, provenienza, permanenza, quanti arrivano in aereo e quanti in auto, livello di spesa, tipo di spesa, modalità di prenotazione ecc.
Si potrebbe dire sbrigativamente che l’Italia non sono gli Stati Uniti e Venezia non è Las Vegas. E dunque? C’è ad esempio molto da imparare sulla capacità di sintetizzare in due righe la mission di una agenzia o di una organizzazione di gestione della destinazione. Ora, per effetto della legge regionale, verranno istituite le organizzazioni di gestione delle destinazione. Ma saranno altrettanto in grado di spiegare in venti parole perché esistono e quale è il loro obiettivo? Ancora, dovremmo guardare con attenzione al fatto che è possibile avere una agenzia governativa, costituita secondo principi di partenariato pubblico privato, in cui entrambe le componenti siedono nel consiglio di amministrazione. E’ inoltre evidente che nessuno mette in discussione la primazia di Las Vegas, ma vi sono rappresentate anche altre città con 4 posti in consiglio e la contea con 2 posti.
Nel corso del 2014 LVCA ha raccolto 285 milioni di dollari di cui: circa 220 milioni dalle tasse di soggiorno, 57 milioni sono ricavi dall’utilizzo delle sue strutture, 3,8 milioni da altri servizi forniti per gli eventi. Nel 2014 le uscite del LVCA ammontano a circa 211 milioni di dollari di cui 28 in marketing, 92 milioni in pubblicità, circa 45 milioni per il Global Business Distric, il rinnovato convention center di Las Vegas. Ora, sfido chiunque a visitare il sito dell’LVCVA e poi a guardarsi i bilanci dei comuni e di una qualsiasi provincia e provare a trovare con altrettanta facilità le stesse informazioni.
Lungi dal voler mutuare in toto il modello Las Vegas nel caso Veneto, restano però alcuni punti su cui riflettere seriamente. L’obiettivo delle organizzazioni di Gestione della destinazione dovrà essere espresso in termini chiari e – ça va sans dire – dovrà essere valutabile, anno per anno il raggiungimento dello stesso. Questo vale per la città di Venezia: si vuole che i visitatori, gli arrivi, le presenze aumentino, che calino (?), che si redistribuiscano nell’arco dall’anno o cos’altro. Ma vale anche per tutte le altre località della riviera veneziana.
Che fare dunque? Certamente non ha senso per Venezia preoccuparsi del fatto che a Jesolo si sia costituita l’associazione Imprese Turistiche Jesolo Venice. E’ certamente vero che una parte importante di visitatori di Venezia soggiorna in strutture ricettive all’esterno del comune di Venezia e che poi fruisce della città. Ma, da questo punto di vista è difficile dare torto tanto agli operatori che ai turisti i quali, magari, dormono a Mogliano Veneto e prendono l’autobus dell’Actv per arrivare a Piazzale Roma. In realtà stupisce di più che solo ora una località come Jesolo abbia realizzato che la sua grande vicina costituisce una leva di marketing da spendere anche per promuovere se stessa.
La questione sostanziale è che il terminal croceristico, l’aeroporto, Venezia stessa, i comuni di cintura, le città costiere, Marghera sono tutti potenziali partner e che al contempo una gestione scoordinata dei flussi di visitatori tra questi sistemi comporta dei costi elevati, per i residenti, per le mancate opportunità di business e di efficacia nei servizi forniti al turista. Il metter ordine al tema del governo dei flussi turistici nel sistema veneziano costituisce una sfida più che nobile per l’amministrazione metropolitana. E se Venezia deve (giustamente) farsi pagare la sua manutenzione, dovrà per forza pensare ad introiettare nel prezzo dei mezzi di trasporto per raggiungerla – siano essi via mare o via terra – la sua imposta di accesso. Ma in una prospettiva diversa rispetto ad oggi, in cui quando il turista è arrivato a piazzale Roma o alla stazione di Santa Lucia il gioco è già bell’e fatto e arrivare a Venezia costa poco più che un caffè. Metti mai che sia anche una buona occasione per arrivare ad un sistema di bigliettazione integrato del trasporto pubblico locale.
Articolo pubblicato su VeneziePost – 11 Dicembre 2014]
Sono di oggi i dati che indicano il continuo deterioramento del comparto dell’edilizia in Veneto, alimentando il dibattito su come riattivare il mercato immobiliare. Una discussione che contiene al suo interno due grandi mainstream: la qualità paga sempre, ma cosa intendiamo per qualità? La ricerca dell’elemento di distinvità a ogni costo, in termini di materiali e soluzioni avanzate, non è detto che si collochi nell’ambito dell’ottimale. L’altro elemento che torna sempre gioco in questo contesto è l’edilizia sociale, non più popolare ma sostenibile e accessibile, e la domanda che ritorna è: come faccio ad avere delle abitazioni a un prezzo più basso?
E’ almeno dal terremoto dell’Aquila che si ripete come un mantra la storia delle case a 1000 euro al metro quadro. L’esperienza del low cost nell’edilizia, almeno in Italia, appare complessivamente abbastanza noiosa. È evidente che gran parte del ‘low cost’ è stato creato agendo su logiche fondiarie ovvero sul valore dell’area; in alcuni casi edificando in ambiti decentrati, in altri attraverso il calmieramento dato da cessione di lotti o fabbricati di proprietà pubblica.
Per vivacizzare il mercato la questione non è tanto quella di individuare aree a basso prezzo ma ridurre sensibilmente i costi complessivi di costruzione. Da questo punto di vista è abbastanza evidente che non si tratta di ricercare tecnologie sulla frontiera dell’innovazione, quanto di muoversi verso un aumento della quota di lavoro realizzata all’interno di stabilimenti manifatturieri e ridurre quella di cantiere. Con un ricorso maggiore alla prefabbricazione. Come spesso accade quando non si sa da che parte affrontare un problema si tende a chiamare in causa fattori culturali: «le famiglie devono cambiare mentalità, i progettisti devono cambiare metodo, i costruttori devono riorganizzarsi». Questa prospettiva difficilmente porta da qualche parte. Se si tratta di introdurre un nuovo paradigma questo non può che avvenire attraverso una vera e propria competizione. E il concetto di competizione ruota intorno agli attori, alle loro visioni e interessi. La domanda dunque è: chi sono gli attori?
Se diamo per buono l’assunto che i costi di costruzione si riducono attraverso un ribilanciamento tra fasi di stabilimento e fasi di cantiere allora dobbiamo concludere che l’attore primo di questa competizione è da ricercarsi nell’ambito della manifattura, mentre i costruttori dovranno essere in grado di interpretare e trarre vantaggio da questo nuovo paradigma. Un processo di questo tipo darebbe sicuramente un senso maggiormente tangibile al concetto di filiera dell’abitare, individuando concretamente in questo binomio – manifattura e costruttori – il motore per agire nell’ambito del sustainable living. Per gli architetti ci sono ampi margini di sperimentazione di un linguaggio moderno puntando sulla semplificazione nella scelta dei materiali.
Da questo punto di vista, per quanto possa far arricciare il naso a qualcuno, la libreria Billy di Ikea costituisce un esempio paradigmatico per un ragionamento che vuole rivolgersi a un mercato accessibile ad una platea allargata dei consumatori. In ultima considerazione la sfida che il binomio – manifattura e costruttori – dovrà affrontare sarà quella di costruire fabbricati residenziali ambientalmente efficienti a basso costo e che prevedono il riciclo dei moduli abitativi per convertirli a nuovi usi. Non si tratta certamente di edificare case green di lusso, come nel caso del quartiere Le Albere di Trento, che rimangono inaccessibili ai più, bensì di costruire case sostenibili da piu punti di vista – ambientale, sociale ed economico – e la cui collocazione sul mercato incontrerà le esigenze di un pubblico più vasto.
Articolo pubblicato su VeneziePost – 12 Novembre 2014]
Tra il 1961 e il 2001 la popolazione dei 5 capoluoghi più popolosi del Veneto (Venezia, Verona, Padova, Vicenza e Treviso) è rimasta sostanzialmente stabile mentre quella delle loro prime cinture è cresciuta dell’85%. Ancora, nel decennio tra il 2001 e il 2011 le prime cinture sono cresciute di circa il 15% mentre i capoluoghi solo del 3,5%. Fin qui nulla di nuovo: il fenomeno è stato anche troppo descritto e interpretato. Il problema è che quasi sempre la lettura si è limitata a ipotizzare una sorta di attrazione dell’ambiente (pseudo)rurale: «le gente vuole vivere nelle case a schiera in mezzo alla campagna. Ma se davvero la città attrae meno, come mai la popolazione si è accalcata intorno ai suoi confini? Con tutti i distinguo del caso, l’immagine mi ricorda le scene dei profughi ai valichi di frontiera. Davvero la gente non vuole vivere in città?
Se si va a vedere cosa è successo nelle province venete in cui non c’è stata esplosione demografica (Belluno e Rovigo) tra il 1962 e il 2001 la popolazione dei capoluoghi è cresciuta mentre quella delle loro cinture è calata; nel decennio successivo le cinture sono cresciute ma comunque meno dei capoluoghi. Si potrebbe dire che Belluno e Rovigo sono più piccole degli altri capoluoghi e che per questo sono state meno repulsive. Falso! La stessa dinamica di crescita è accaduta anche nei suoi centri medi: ad esempio Conegliano e Castelfranco, simili per dimensione a Belluno e Rovigo. Anche qui la popolazione si è addensata intorno ai comuni di cintura, replicando a scala ridotta quanto accaduto nei centri maggiori. Tutto questo dovrebbe suggerirci una conclusione: la gente è attratta dalla città e se non ci vive è (anche) perché a parità di costo non riesce a trovare un’offerta rispondente alle sue esigenze, ma cerca di restarvi il più vicino possibile perché nelle città più grandi si trovano i servizi che non si hanno nel resto del territorio. Alla fin fine non è altro che quello che l’Europa intende quando parla di città come motori dello sviluppo. Ciò dovrebbe far riflettere per il futuro. Se si accetta l’idea che il mercato non è così inesorabilmente attratto dalle villettopoli, forse, per la generazione che cercherà casa oggi e nei prossimi anni, la città è il luogo in cui desiderare di vivere. A condizione di potervi accedere a un costo che non può essere quello riservato al mercato ricco. Ora, siamo sicuri che anche nell’offerta immobiliare non ci sia un problema di incontro domanda-offerta? Si dirà: «è ovvio che c’è, le case non si vendono». Non è di questo che parlo. La domanda è: siamo sicuri che i contenuti dell’offerta vengano sempre considerati dai potenziali acquirenti come dei contenuti rilevanti e non piuttosto dei frills (degli sfronzoli) che aumentano il costo più di quanto non aumentino il valore? Per capirci, in un quartiere tutt’altro che “affluent” di un capoluogo veneto stanno costruendo un complesso residenziale con piscina, affaccio diretto su un vecchio e grande complesso di edilizia popolare e con la piscina comunale a 500 metri. In bocca al lupo ovviamente per l’iniziativa, ma, in generale, non è certo aumentando i costi di gestione degli immobili che posso incentivare l’acquisto.
Secondo esempio. Gli annunci immobiliari continuano a traboccare di inserzioni con foto invisibili e messaggi del tipo “travi a vista”, fregi in gesso sul frontale e giardino privato: poi magari l’appartamento è di 50 metri quadri e il giardino è più piccolo dell’appartamento. Terzo esempio. La ricerca spinta di certificazioni costa in termini di progettazione, realizzazione e manutenzione. C’è il rischio che nella rincorsa dell’ottimo (la casa iper-efficiente) si introducono fattori di costo che respingano ancora una volta anziché attrarre nelle città. Su questi punti varrebbe la pena riflettere seriamente nell’apprestarsi a metter mano alla riqualificazione di aree e immobili nelle città.