55
PREPARAZIONE ESAMI DI STATO PRESSO LA FACOLTA’ DI ARCHITETTURA DI ROMATRE LARGO GIOVANNI BATTISTA MARZI ,10 – PONTE TESTACCIO SEMINARIO 8 –AULA ERSOCH– 7 MAGGIO 2014 ore 16,30 -18,00 LA STIMA ECONOMICA IN EDILIZIA” A CURA DEL PROF. ARCH. ALBERTO D’AGOSTINO ________________________________________________ INTERVERRA’ PER GLI ASPETTI ETICO-GIURIDICO-ECONOMICI RIGUARDANTI L’ESERCIZIO PROFESSIONALE: IL PROF. ARCH. RAUL MASINI SEGRETARIO DEL NUOVO “CONSIGLIO DI DISCIPLINA” DELL’ORDINE. 1

A CURA DEL - Ordine degli Architetti di Roma · opere di urbanizzazione primaria e secondaria necessarie per rendere il bene ... avendo altresì stabilito in fase di partenza il profitto

Embed Size (px)

Citation preview

PREPARAZIONE ESAMI DI STATO PRESSO LA FACOLTA’ DI ARCHITETTURA DI ROMATRE LARGO GIOVANNI BATTISTA MARZI ,10 – PONTE TESTACCIO SEMINARIO 8 –AULA ERSOCH– 7 MAGGIO 2014 ore 16,30 -18,00

“ LA STIMA ECONOMICA IN EDILIZIA”

A CURA DEL

PROF. ARCH. ALBERTO D’AGOSTINO

________________________________________________

INTERVERRA’ PER GLI ASPETTI ETICO-GIURIDICO-ECONOMICI RIGUARDANTI L’ESERCIZIO PROFESSIONALE:

IL PROF. ARCH. RAUL MASINI SEGRETARIO DEL NUOVO “CONSIGLIO DI DISCIPLINA” DELL’ORDINE.

1

COPERTINA TESTO ADOTTATO

EDITRICE ESCULAPIO – BOLOGNA – ED. 2014

2

METODO DI STIMA DELLE AREE EDIFICABILI

Procedimento sintetico diretto :

Nello studio del processo edilizio la Rendita rappresenta la differenza tra il Reddito ritraibile dal prodotto finito (prezzo d’uso del fabbricato) ed il rendimento del capitale investito nella costruzione del fabbricato stesso e nelle opere di urbanizzazione primaria e secondaria necessarie per rendere il bene realizzato accessibile e fruibile, quindi utile ed appetibile da parte del mercato.

Pertanto la rendita edilizia ∆R rappresenta la differenza tra il reddito netto ritraibile dell’intero fabbricato Rn e l’interesse I ritraibile dall’uso alternativo del capitale monetario C utilizzato per sostenere i costi di urbanizzazione Ku, i costi tecnici di costruzione Kc, i vari oneri professionali Op, gli oneri finanziari Of , più il prezzo d’uso di mercato della stessa area in relazione ad una sua ipotetica destinazione agricola (rendita agricola “normale”).

Avremo pertanto:

R = Rn – (C ⋅ r)

dove:

C = Kc + Ku + Op + Of + 'rfB

posto:

Bf = beneficio fondiario del terreno agricolo;

r' = saggio di rendimento del capitale fondiario ad uso agricolo (1,5 ÷ 2,5 %);

r = saggio di interesse del capitale monetario atteso dall’investitore per la trasformazione del bene suolo in bene edilizio (8 ÷ 12 %).

Possiamo allora esprimere le variabili socio-economiche ed urbanistiche che influenzano il valore unitario delle aree edificabili con la seguente espressione:

V = ),,,,,(),,,,,(rRfOpOuKcKf

cIMnCrDSDf

3

ove:

D Densità demografica dell’insediamento; S Reddito medio annuo del potenziale acquirente; Dr Domanda abitativa reale; Cn Caratteristiche qualitative e di idoneità posizionale del contesto

urbano; M Caratteristiche geomorfologiche del sito che limitano l’offerta; Ic Indice di fabbricabilità imposto dalle destinazioni di PRG; Kc Costi tecnici di costruzione; Ku Costi di urbanizzazione primaria e secondaria; Op Oneri professionali; Of Oneri finanziari; R Rischi e incertezze dell’investimento; r Tasso di rendimento atteso dell’investimento immobiliare urbano.

L’esperienza concreta del mercato ci dice che la più logica formulazione del valore dell’area Va discende dall’attribuire alla stessa una aliquota percentuale del valore del fabbricato che si andrà a realizzare.

Avremo quindi:

Va = Vm · K con K = < 1

L’indice K è rappresentativo sia dell’apprezzamento che il mercato fa del bene in funzione delle sue caratteristiche posizionali, sia dei vari indici di fabbricabilità dettati dalla pianificazione urbanistica.

I valori di K sono direttamente proporzionali alla vicinanza dei posti di lavoro dei potenziali fruitori del bene, nonché alla quantità e qualità delle infrastrutture e servizi sociali della zona e sono nel contempo inversamente proporzionali agli indici di fabbricazione, come conferma la intuitiva considerazione che la maggior fruizione di spazio esterno, conseguenza di un basso indice di fabbricazione, porta ad incidere maggiormente il fattore rappresentativo dell’area.

L’indagine su diverse e diffuse operazioni di permuta a percentuale, indicano indirettamente i valori di K tra il 15% e il 40% del valore o dei mc realizzati, percentuali riguardanti l’arco della casistica che va dalle aree marginali a quelle pregiate dei grandi centri urbani.

E’ appena il caso di sottolineare che le percentuali di permuta Kp non sono equivalenti ai coefficienti K, in quanto Kp si riferisce ad aliquote del fabbricato già realizzato, mentre K si riferisce al valore, al momento della stima, del suolo non ancora trasformato.

4

Se vogliamo considerare che un fabbricato medio di circa 5.000 mc fuori terra abbisogna di circa 2 anni per essere ultimato, al saggio del 7,26% 1 si ottiene che:

K = 2q

pK = Kp ⋅ 0,8692

Ciò indica che in genere l’attesa di essere remunerati con permuta, rispetto al pagamento diretto ed immediato dell’area di sedime, viene premiata con circa un + 13%.

Altro procedimento sintetico di stima è ovviamente quello di comparare l’area in esame con altre aree di simili caratteristiche posizionali e di pari indici di fabbricabilità, di prezzo P noto.

Se gli indici sono diversi, a parità delle altre condizioni, si potrà individuare il Va incognito in relazione ai diversi indici di fabbricabilità.

Avremo pertanto:

Va = P · 'IIP⋅

ove:

Va è il valore da ricercare;

P è il prezzo noto dell’area con indice I;

I' è l’indice dell’area di cui si ricerca il valore;

Il detto procedimento tende a mettere in relazione fabbricati dalle medesime caratteristiche costruttive in funzione dei loro volumi.

Come già precedentemente detto, in effetti occorre individuare il valore dell’area in funzione del dato elementare riferentesi a mc costruibili per ogni mq di suolo disponibile.

Posto in circa 80 il numero dei m3 che compongono ordinariamente un vano urbanistico, si avrà:

Ic = 80vI

€/mc

ove:

Ic è l’incidenza del valore dell’area in esame per mc edificabili;

Iv è l’incidenza nota del valore del suolo a vano;

1 Tasso per finanziamento alle imprese come da D.M.T. del 20/09/2000 5

In pratica, però, i metodi sopra riportati, che si riferiscono a stime sintetiche per comparazione ed omogeneizzazione delle grandezze tecniche, sono difficilmente applicabili. Ciò è dovuto alla scarsità delle aree edificabili disponibili, alla poca o nulla trasparenza del mercato fondiario urbano.

Addirittura la scarsità si trasforma in rarità o addirittura in unicità nelle zone centrali o semicentrali della città, tale che il metodo sintetico di comparazione risulta nei fatti non applicabile se non addirittura impossibile.

Di contro la rigidità della domanda, unita alla scarsità dell’offerta, agevola forme di mercato praticamente di monopolio con prezzi richiesti ingiustificatamente alti e non in linea quindi con le sperate rendite Urbane da realizzazione.

Ciò premesso, risulta più attendibile in questo caso una stima analitica indiretta di tutto il processo edilizio teso alla trasformazione del “bene area” in un altro bene ad utilità maggiore: “bene edificio”.

Procedimento analitico (indiretto):

Il concetto fondamentale di tale procedimento risiede in una semplice proposizione: supponendo la conoscenza del costo totale di costruzione di un edificio più i vari oneri tributari, conoscendo altresì il prezzo cui potrà essere ceduto l’immobile che si andrà a realizzare, avendo altresì stabilito in fase di partenza il profitto che si vuole conseguire, conoscendo inoltre i tassi di interesse praticati dagli Istituti di credito che dovranno anticipare i capitali finanziari per la programmata intrapresa, prevedendo ancora il tempo di realizzazione della trasformazione dell’area in fabbricato, è possibile determinare la somma massima di convenienza che potrà impiegarsi per l’acquisto dell’area.

In termini molto aggregati si potrà allora scrivere:

Va = n)r1(

)PcK(mV

+

∑ +−

ove:

Va è il prezzo massimo cui si potrà pagare l’area edificabile;

Vm è il più probabile valore di mercato ritraibile fra n anni dal fabbricato che si andrà a realizzare;

6

Kc è il totale dei costi (diretti e indiretti) da sostenere per la costruzione del fabbricato;

P profitto stabilito in partenza dal promotore quale remunerazione dell’iniziativa, del rischio, delle innovazioni, del coordinamento dei fattori della produzione, per la difesa della propria reputazione;

n anni necessari per completare il ciclo del processo produttivo insediativo;

r tasso di interesse atteso dal promotore/imprenditore quale compenso per l’impiego nell’investimento dei propri capitali e della propria attività.

Come si può notare, l’esposizione del metodo indiretto (analitico) per la ricerca del più probabile valore di un’area edificabile potrebbe ritenersi esaurito.

Purtuttavia i parametri posti in gioco risultano troppo aggregati e sono inadeguati per la loro scarsa consistenza a rappresentare la generalità delle situazioni che l’Esperto potrà trovarsi ad affrontare.

Il concetto posto alla base di tutto il ragionamento, si riallaccia all’essenza economica dei fattori della produzione:

terra, lavoro, capitale, imprenditore; considerando l’area urbana come un bene che fa parte del processo produttivo insediativo in veste di bene di produzione dal quale, mediante l’erogazione di un determinato capitale e una determinata quantità di lavoro equivalente al costo di trasformazione, può ottenersi un edificio.

L’aspetto economico (criterio) della trasformazione è quello che ci permette di approfondire la ricerca con dati sufficientemente disaggregati e quindi più facilmente individuabili in fase di analisi.

Si può pertanto dire che in un mercato non perfetto, quale è l’attuale mercato oligopolistico insediativo urbano che garantisce consentanei profitti, il valore venale di un’area legalmente edificabile coincide con il suo valore di trasformazione.

Avremo pertanto:

Vs = Vt = nr

Pa sOfOpOcOu sKu pKcKmV

)1(

)(

+

+++++++−

ove:

Vs Valore dell’area del sedime da urbanizzare;

7

Vt Valore di trasformazione;

Vm Valore probabile futuro di mercato del fabbricato che ci si ripromette di realizzare;

Kc Costo tecnico di costruzione dell’immobile comprensivo dell’utile dell’impresa esecutrice delle opere;

Kup Costi sostenuti per l’urbanizzazione primaria;

Kus Costi sostenuti per l’urbanizzazione secondaria;

Oc Oneri dovuti all’Ente locale per il “permesso di costruire”;

Op Oneri professionali (rilievi, progettazione architettonica e strutturale, Direzione Lavori architettonica e strutturale, progetto della sicurezza, collaudo strutturale edilizio amministrativo contabile, pratiche presso il Catasto fabbricati, consulenze tecniche, fiscali, legali);

Of Oneri finanziari quali prezzo d’uso dei capitali monetari erogati dagli Istituti di credito quale anticipazione;

Oass Oneri assicurativi (esclusi quelli previdenziali ed assicurativi di pertinenza del Kc);

P Profitto, al lordo dei tributi, conseguito dal promotore immobiliare attore della ideazione e realizzazione dell’iniziativa insediativa;

r Saggio di remunerazione industriale atteso dal promotore immobiliare per l’attività di coordinamento dei fattori della produzione, per le innovazioni apportate, per gli investimenti effettuati, per i rischi assunti, per il mantenimento della reputazione imprenditoriale ;

n Numero di anni in cui, attuandosi l’operazione di trasformazione, il bene non produce reddito.

Per quanto riguarda infine la scelta o meno per le singole componenti della valutazione di valori attuali riferiti al momento della stima o di valori futuri nell’arco temporale del processo edilizio si rileva come, in base al principio della “permanenza delle condizioni”, principio appartenente alla dottrina estimativa, si preferisca considerare prezzi e costi di trasformazione all’attualità, non potendo entrare nel merito di una analisi finanziaria dell’investimento.

8

Tale eventuale valutazione richiederebbe, tra l’altro, il ricorso ad una visione di economia dinamica non propria dell’estimatore, non risultando peraltro possibile identificare temporalmente i diversi flussi di cassa.

Entrando nel merito delle singole componenti che intervengono nella stima del valore di trasformazione dell’area in esame vengono qui illustrate le componenti delle valutazioni che si andranno a quantificare.

DETERMINAZIONE DI VM

Nella ricerca del futuro valore di mercato del fabbricato che si andrà a realizzare si usano i criteri ed i metodi già illustrati nei capitoli precedenti (per comparazione, per punti di merito, per capitalizzazione, ecc.) in base alla consistenza delle grandezze in gioco.

DETERMINAZIONE DI KC

I costi ordinari di costruzione a nuovo con riferimento al momento della stima, risultano da una valutazione sintetica diretta per comparazione con altri valori noti su base unitaria (vano, mq, mc). In genere il parametro più usato in questi casi è il mc urbanistico (vuoto per pieno).

DETERMINAZIONE DI KUP

I costi per l’urbanizzazione primaria comprendente la realizzazione di strade residenziali, spazi di sosta o parcheggi, fognature, rete idrica, rete di distribuzione dell’energia elettrica e del gas, pubblica illuminazione, spazi di verde attrezzato, sono stabiliti con deliberazione del Consiglio comunale in base alle tabelle parametriche che la Regione definisce per classi di Comuni.

DETERMINAZIONE DI KUS

I costi per l’urbanizzazione secondaria comprendente la realizzazione, ove previsto, di asili nido e scuole materne, scuole d’obbligo nonché strutture e complessi per l’istruzione superiore all’obbligo, mercati di quartiere, delegazioni comunali, chiese ed altri edifici religiosi, impianti sportivi di quartiere, aree verdi di quartiere, centri sociali e attrezzature culturali e sanitarie le quali ricomprendono le opere, le costruzioni e gli impianti destinati allo smaltimento, al riciclaggio o alla distruzione dei rifiuti urbani, speciali, pericolosi solidi e liquidi, alla bonifica di aree inquinate, sono stabiliti con deliberazione del Consiglio comunale in base alle tabelle parametriche che la Regione definisce per classi di Comuni.

DETERMINAZIONE DI OC

9

Riguarda la quota di contributo variabile dal 5% al 10% del costo di costruzione. Essa è determinata all’atto del rilascio del “permesso di costruire” o al momento di presentazione della D.I.A., con le modalità e garanzie stabilite dal Comune ed è corrisposta in corso d’opera. Il costo di costruzione per i nuovi edifici è determinato periodicamente dalle Regioni con riferimento ai costi massimi ammissibili per l’edilizia agevolata.

DETERMINAZIONE DI OP

Con riferimento ad un apprezzamento sintetico dei costi di costruzione, gli Oneri Professionali, comprese le consulenze legali, attuariali, fiscali etc. sono individuati facendo riferimento alle tariffe legali dei vari organi professionali che non sono più le minime inderogabili. Variano ordinariamente dal 6% all’11% dei Kc + Kup + Kus.

DETERMINAZIONE DI OF

In merito agli oneri finanziari sostenuti dal promotore, gli stessi si determinano sinteticamente per confronto diretto con interventi analoghi in base ad una percentuale del costo complessivo di produzione (Kc + Kup + Kus + Oc + Op), in ragione del 7-12% , oppure secondo i tassi finanziari correnti di primari Istituti di credito per tutto il tempo impiegato per la trasformazione. Occorre tener presente però che i costi di costruzione, nelle iniziative prettamente private, non sempre vengono impiegati totalmente all’inizio della trasformazione anche in considerazione che durante qualsiasi operazione immobiliare il saldo negativo risulta mitigato dall’insorgenza di ricavi contemporaneamente alla presenza di esborsi.

DETERMINAZIONE DI OASS

Sono costi di assicurazione generalizzata che non include le quote previdenziali e assicurative degli Enti previdenziali di riferimento in quanto queste sono ricomprese nel Kc.

DETERMINAZIONE DI P Al promotore spetta il “profitto” quale remunerazione del rischio, dell’introduzione di innovazioni, del coordinamento e gestione dei fattori della produzione e per la conservazione e la difesa della propria reputazione. Volendo quantificare il tutto, si può considerare di pagare uno stipendio ad un dirigente d’azienda che svolge l’attività propria del promotore aumentata di una percentuale K commisurata alla reputazione commerciale, alla correntezza, all’impegno, alle difficoltà, al rischio dell’intrapresa, all’ansia patita nell’attesa dei risultati ( il costo del batticuore ). In linea orientativa esso varia dal 30% al 50% di ∑K, considerando anche i tempi di realizzazione e commercializzazione dell’intrapresa.

10

DETERMINAZIONE DI “r” E’ il saggio di remunerazione atteso dal promotore immobiliare sulla base di quanto ordinariamente si rileva nel mercato dell’industria edilizia. E’ in genere superiore di 4 o 6 punti percentuali rispetto al tasso che le Banche riservano a primari clienti : (9%-13 %).

DETERMINAZIONE DI n Si suppone una durata dell’operazione che vada dall’acquisto dell’area fino all’ultimazione della vendita o dell’affitto dell’immobile. Se si tratta della stima di un’area già urbanizzata, n riguarderà solo il tempo necessario alla costruzione del solo fabbricato, altrimenti riguarderà i tempi dell’intero processo produttivo insediativo.

* * * * *

Discettando su P (profitto del promotore), alcuni Autori di tradizione agronomica, tendono ad eguagliarlo a zero invocando gli effetti che scaturiscono in regime di libera concorrenza.

Sappiamo però, come già ampiamente illustrato in precedenza, che quasi mai il mercato è perfetto e a fortiori il mercato immobiliare urbano, in quanto si è sempre verificata e sèguita a verificarsi una cronica esuberanza della richiesta reale sull’offerta insediativa specie nei grandi agglomerati. Nelle analisi di stima occorre tener presente allora che, contrariamente agli altri settori merceologici, quello degli insediamenti abitativi e/o Industriali e/o Direzionali opera con saggi di profitto più o meno alti a seconda della congiuntura economica nazionale, dei diversi mercati, della qualità tipologica e delle caratteristiche posizionali e comunque con profitti quasi mai nulli.

Per quanto sopra detto è giusto porre al numeratore della formula di trasformazione la grandezza P che può variare dal 30 al 50% della somma di tutti i costi di produzione, secondo le varie circostanze.

La sua assenza implicherebbe l’eguaglianza tra costo di costruzione e valore di mercato, proprio dell’improbabile perfetto mercato immobiliare o proprio di un investimento effettuato da un promotore marginale, circostanza che quasi mai si verifica nel mercato immobiliare urbano.

Solo nel caso di interventi da parte di Enti pubblici può giustificarsi il procedimento che utilizza il valore di trasformazione con profitto nullo, come metodo per individuare il valore del bene pubblico.

11

L’Ente pubblico, infatti, essendo rappresentativo della collettività ed essendo altresì portatore di interessi diffusi non ha, fra i suoi fini istituzionali, lo scopo di conseguire un profitto attraverso le attività che svolge.

L’operatore pubblico è per sua natura un operatore marginale.

Quantificazione dei componenti il costo di trasformazione.

Partiremo da KC, che rappresenta il costo tecnico sopportato dal costruttore puro di non difficile determinazione sintetica e analitica, costo ricomprendente la remunerazione dell’attività di direzione e di coordinamento che può essere suddivisa: spese generali circa il 15%; utili pari a circa il 12 – 15%, per un totale di 27 ÷ 30%.

Le spese generali rappresentano la remunerazione del lavoro delle persone ed il prezzo d’uso del capitale fisso, mentre l’utile attiene alla remunerazione all’imprenditore puro per il solo coordinamento dei fattori della produzione e a volte per la sua stessa attività manuale e/o intellettuale svolta nell’ambito della propria impresa.

Possiamo individuare allo stato che i costi di costruzione, riferiti a vano o a mq, a seguito di statistiche di mercato effettuate nei contratti reali di appalto, per la zona della provincia di Parma, risultano orientativamente dalla seguente tabella:

COSTO COSTRUZIONE AL NUOVO ( 2010)

Valori in € Costo a mc

v. x p.

Costo a mq sup. lorda

Parametri unitari alloggio Costo a vano

urbanistico mc mq Edilizia Convenz. o Sovvenz. (Economico-popolare) 300,00 900,00 75 24 ≅ 21.600,00 Abitazioni Civili di buona qualità 350,00 1.050,00 80 25 ≅ 26.250,00 Abitazioni Civili di alta qualità 400,00 1.200,00 83 26 ≅ 31.200,00 Abitazioni Civili di lusso 500,00 1.500,00 90 27 ≅ 40.000,00 Uffici Direzionali 380,00 1.150,00 -- -- -- Edilizia Alberghiera 420,00 1.250,00 -- -- -- Edilizia Industriale (capannoni) -- 350,00 -- -- -- Si deve peraltro far presente che gli elementi unitari appartenenti ad un fabbricato, da un punto di vista economico non sono tutti equivalenti.

12

Infatti facendo riferimento ai costi unitari medi dei vani, esisterà una diversità con riferimento a quelli destinati ad uffici, box, posti macchina, magazzini e laboratori, etc.

Al fine di applicare con coerenza il procedimento analitico precedentemente riportato, basato sull’incidenza del valore del suolo a metro quadro di edificio da realizzare, si dovranno necessariamente rendere omogenei il numero dei vani virtuali, calcolandolo nella maniera per la quale dovrà risultare Vm = ∑Kmn ⋅ N, ove N non corrisponde al numero fisico dei mq o dei mc che costituiscono l’intero fabbricato da realizzare ricomprendente ambienti di destinazione diversa da quella eminentemente residenziale, o direzionale.

Con notevole approssimazione si dovrà procedere, nel calcolo del Vm, ad una omogeneizzazione dei vari valori diversificati a seconda delle destinazioni d’uso, valori che si andranno a calcolare ragguagliandoli alle unità fisiche prese in esame del vano residenziale, ottenendo quindi un risultato omogeneo espresso in unità base di misura unitaria (mc, mq, vani) virtuale.

Troveremo in media e con larga approssimazione che l’incidenza del suolo sul valore di mercato dell’edificio, a seconda dell’indice di fabbricabilità, potrà variare dal 15% al 40%.

Aumentando l’indice di fabbricabilità aumenterà ovviamente il valore unitario del suolo.

Per quanto attiene ai costi totali di costruzione, essi sono distribuiti secondo le singole categorie di opere riportate in percentuale sui costi unitari.

LA SCELTA DEL TASSO DI ATTUALIZZAZIONE2

-----------

Il presente capitolo, dedicato al tema dei tassi deve, riprendere dalle argomentazioni già presentate con riguardo alla misurabilità del rischio; e quindi alla possibilità od impossibilità di tenerne conto nella scelta dei tassi. Come si è già detto, l’opinione prevalente a

2 (Tratto da "Il Metodo Reddiruale per la Valutazione delle Aziende" – Luigi Guatri Ed. EGEA 1996)

13

livello internazionale, ma non esclusiva, è che esistano possibilità di misurazione del rischio.

In tal senso è tutta la dottrina anglosassone e gran parte di quella europea, tuttavia con la rilevante eccezione di alcune correnti della dottrina germanica. La pratica, che non attribuisce troppa importanza alla distinzione concettuale tra incertezza e rischio, non si pone quasi neppure il problema: essa è per la misura del rischio e la sua « traduzione » nei tassi. Da tale decisione preliminare discende l’ovvia conseguenza che, se il rischio è giudicato misurabile, l’eventualità negativa che i flussi attesi non si producano, o si producano in entità diverse rispetto alle aspettative, si riflette sul tasso. Nel caso opposto, il tasso è scelto guardando agli investimenti «senza rischio»; e la variabilità si sconta nella misura attribuita ai redditi attesi. È proprio su quest’ultima tesi che dobbiamo portare la nostra attenzione, per sgombrare il campo da possibili equivoci. L’idea di fondo è l’equivalenza teorica delle due formule:

W = Rce/r; W = Rce/(r+s);

in cui: W è il « valore capitale »; Rce è il « reddito certo equivalente »; r è il tasso di capitalizzazione «senza rischio»; s è la maggiorazione del tasso per il rischio (che diminuisce il

« valore capitale »).

Secondo l’impostazione in esame, la stima di s, cioè in sostanza la misura del rischio attraverso una serie di maggiorazioni e/o aggiunte portate ad r, sarebbe impraticabile: ciò in quanto le diverse «maggiorazioni» che lo esprimono sarebbero, se non pure invenzioni, così approssimative ed incerte da renderle inattendibili. Tanto varrebbe, allora, tradurre il reddito medio atteso, o meglio la fascia dei redditi attesi, in un valore certo: il «reddito certo equivalente» è una grandezza compresa nella fascia dei redditi attesi, per la quale i rischi di ottenere risultati superiori ad essa e le possibilità di ottenere risultati inferiori «si compensano perfettamente secondo le preferenze consapevoli di rischio del soggetto interessato».

Pur riconoscendo l’impossibilità di tradurre in poche note i complessi ragionamenti sulla pretesa preferibilità della via del «reddito certo

14

equivalente», non vediamo in qual modo essa possa consentire di risolvere approssimazioni ed incertezze meglio di quanto possa la via delle «maggiorazioni» del tasso senza rischio.

Si può al massimo e per brevità consentire che si abbiano gli stessi problemi, o problemi analoghi; con una sostanziale differenza, però: che sulla via delle maggiorazioni del tasso hanno da lungo tempo lavorato teorici e pratici in tutto il mondo, elaborando soluzioni ingegnose e sofisticate (dal CAPM in avanti) e soprattutto creando un’ampia base sperimentale.

La via dell’«equivalente certo» non ha analoghi attributi. Essa, almeno per ora, non ha perciò alcuna ragione per essere accolta; né — a mio parere — rappresenta un concreto progresso sulla via della migliore dimostrabilità dei metodi reddituali. Forse l’unico merito potrebbe ravvisarsi nell’esplicitazione delle incertezze che, in ogni modo, circondano questi calcoli.

Non si può peraltro disconoscere che uno stretto collegamento esiste (anche se spesso non misurabile), tra “tasso” e “reddito atteso” con riguardo all’aspetto del rischio. È intuitivo, ad esempio, che misure di reddito prudenziali e pressochè certe (in quanto scelte in relazione a scenari ispirati al pessimismo) si collegano a tassi contenuti; e viceversa.

Del pari, misure di reddito puramente contabili e riduttive rispetto alle reali performance (escludenti, ad esempio, una favorevole dinamica dei beni immateriali, il formarsi di rilevanti plusvalenze su beni materiali, ecc.) consentono talvolta l’adozione di tassi particolarmente ridotti, che sarebbero inspiegabili in riferimento a misure di risultato economico integrato.

Il tema della misura (per gli aspetti quantitativi) e della scelta (per gli aspetti soggettivi) dei tassi sarà affrontato solo in alcuni aspetti. Saranno cioè esaminati i concetti base, specie negli aspetti controversi o sui quali comunque non vi sono ancora opinioni definitive e di generale accettazione. Si rinvia ad altri testi per un esame compiuto della materia.

A titolo di premessa, va ricordato che spesso l’elemento soggettivo ricopre un peso non trascurabile nella definizione del tasso. Ciò nel senso, come meglio risulterà in seguito, che la componente obiettiva e dimostrabile soffre inevitabilmente di limitazioni, che si traducono

15

nell’assunzione, con varie modalità, di convenzioni semplificatrici o basate sull’intuito, o comunque carenti di dimostrazione. Talvolta queste limitazioni sono così pesanti e complesse, che gli operatori evitano semplicemente ogni dimostrazione, affidandosi a scelte imitative, con criteri di pura soggettività e senza nessun’analisi a supporto della decisione assunta. E appena il caso di sottolineare che questo non raro atteggiamento è irrazionale e va stigmatizzato; eppure esso è molto diffuso.

LA VALUTAZIONE QUANTITATIVA DEL TASSO:

La prima rilevante distinzione concettuale, con riguardo alla valutazione quantitativa dei tassi, è tra i criteri del “tasso-opportunità” e del “costo dei capitali”.

A) Il primo criterio ( tasso-opportunità) assume, com’è ben noto, che la misura del tasso debba essere ragguagliata al rendimento offerto da investimenti alternativi, a parità di rischio. Il criterio è caratterizzato dall’assunzione dal punto di vista dell’investitore, il quale giudicherà conveniente un certo tasso di rendimento finché — a parità di rischi — non abbia la possibilità di trovare un investimento più redditizio. Fondamentale caratteristica del criterio è dunque la omogeneizzazione dei rendimenti rispetto al rischio. Il fatto, in altri termini, che si abbiano investimenti diversamente rischiosi esige che i differenziali di rischio siano valutati e tradotti in una corrispondente variazione di tasso.

B) Il secondo criterio ( costo dei capitali ) ricerca invece un tasso corrispondente ai «costi» del capitale proprio (equity), o al costo medio ponderato (Wacc) dei mezzi investiti in una specifica intrapresa [mezzi propri (equity) più mezzi attinenti al credito (debit)]. La specifica intrapresa è quella oggetto di valutazione; ma in talune circostanze può essere anche il soggetto che si propone di effettuare l’acquisto di quell’intrapresa (tale ultima ipotesi, oltre che applicata solo in particolari circostanze concrete, è anche contestata in dottrina).

Mentre sul piano logico il concetto preferibile è il “tasso-opportunità”, sul piano pratico esso presenta serie difficoltà di calcolo e di dimostrazione. Ciò fa sì che il criterio del costo dei capitali, che in modo più semplice può trovare riferimenti oggettivi ed elementi di dimostrazione nel mercato, gli sia talvolta preferito nella pratica di alcuni Paesi. Sul tema corrono però, non di rado, preconcetti che vanno sfatati ed imprecisioni che debbono essere

16

rettificate. Il criterio del “tasso-opportunità” si presenta secondo tre possibili approcci, di diverso peso e di differente credibilità:

I. l’approccio quantitativo; II. l’approccio qualitativo (omissis);

III. l’approccio intuitivo o imitativo (sintetico-soggettivo).

Nella pratica americana, tali approcci si applicano al tasso di attualizzazione (r’, con la nostra simbologia), destinato a riportare al momento t0 della stima, una serie di flussi netti incerti e diversi tra loro: f1, f2, ... fn che si prevedono ottenibili ai momenti t1, t2, ... tn, della quale il valore capitale W0 rappresenta l’equivalente certo al detto momento t0.

Attraverso appropriati correttivi, dal tasso d’attualizzazione si passa al “tasso di capitalizzazione” (r con la nostra simbologia): esso, com’è noto, va inteso come il divisore che, applicato alla grandezza espressiva di un flusso medio annuale netto atteso e perciò per sua natura incerto, determina l’equivalente probabile, teorico, incerto, sperato, W0.

Nella pratica europea, viceversa, nella quale non sono usate formule per il collegamento automatico tra r’ (attualizzazione) ed r (capitalizzazione), gli approcci suddetti si applicano anche direttamente ad r (oltre che ad r’).

Le divergenze tra r ed r’ risultano quindi originate dalla differente ampiezza dei periodi futuri di riferimento nonché dalla diversa consistenza quantitativa dei flussi periodici presi in esame e perciò dai differenti livelli di incertezza e rischio considerati.

L’approccio quantitativo – in tale approccio sia i teorici sia i pratici si sono più volte cimentati, esprime il tentativo di fornire una dimostrazione del modo come il tasso viene scelto: dimostrazione che si vorrebbe analitica ed oggettiva.

Tutti i tentativi condotti assumono universalmente, come punto di partenza, il principio che il tasso sia costituito da due componenti:

• il compenso per il decorrere del tempo (componente finanziaria); • il compenso per il rischio (componente specifica).

Questo principio si traduce nella nota espressione concettuale:

17

r = r’+ s

in cui r’ è la remunerazione finanziaria di investimenti Rfree «senza rischio», cioè legata solo al decorrere del tempo; s è la remunerazione per il rischio specifico dell’investimento.

Il calcolo di « r » (variabile da un Paese all’altro, oltre che variabile nel breve o lungo termine) non presenta sostanziali difficoltà. Sul piano tecnico la scelta si orienta sempre verso investimenti a tasso fisso con soggetti sicuramente solvibili (l’esempio classico è quello dei titoli di Stato); e la preferenza va ai rendimenti di titoli a lungo termine (durata da 10÷15 anni in avanti), in quanto più omogenei rispetto agli investimenti nell’impresa. In periodi di forte variabilità dei tassi di rendimento dei titoli pubblici, la scelta di una media riferita ad un certo periodo (da 3 a 6 mesi) è spesso preferita ad una scelta puntuale (riferita cioè al momento della stima).

Inflazione

Sul piano metodologico, un problema rilevante è se il «tasso senza rischio» debba assumersi al netto od al lordo dell’inflazione.

La risposta logica è che ( «r» o «r’» ) debbano contenere entrambi una misura d’inflazione (prevista e/o programmata) corrispondente a quella contenuta nei flussi (di reddito o di cassa) che essi provvedono ad attualizzare. La coerenza ed omogeneità, sotto il profilo dell’inflazione, tra le due variabili impiegate nel calcolo, è essenziale. I passaggi affrontati nelle applicazione procedurali, risultati nella pratica, più idonei, sono:

1. costruzione realistica della distribuzione temporale e della quantificazione dei flussi di cassa attesi;

2. determinazione del più idoneo tasso di attualizzazione. Per l'elaborazione di questa analisi è necessario, per esempio, conoscere i fattori che compongono la tabella del DCFA, quali: − incassi a valori costanti, ottenibili, al momento della stima, dalla

eventuale vendita del prodotto considerato ultimato (valori

18

istantanei sotto il vincolo del Principio della permanenza delle condizioni);

− costi a valori costanti, da erogarsi ipoteticamente al momento della stima, suddivisi tra quelli di costruzione, oneri amministrativi (urbanizzazione primaria, secondaria e contributo costo di costruzione), oneri professionali, oneri di commercializzazione, spese generali e profitto del promotore, etc. (valori istantanei sotto il vincolo del principio della permanenza delle condizioni e purtroppo non sempre singolarmente esplicitati);

Come si può notare, in questa fase il fattore “tempo” (attualizzazione) non compare, in quanto si simula un costo di produzione ed un prezzo di vendita all’attualità, entrambi non condizionati dalla probabile anzi quasi sempre certa inflazione futura. È logico che nel momento che si dovrà valutare il probabile valore reale futuro di un bene economico, specie se immobile, attraverso l’operazione di “sconto all’attualità” ad un tasso individuato:

r = r’ + s

si dovrà considerare, ceteris paribus, il tasso di attualizzazione al lordo del tasso reale o programmato di inflazione, in quanto trovandosi il tasso di sconto al denominatore della espressione analitica di attualizzazione, l’ eventuale assenza della aliquota inflattiva su base annua, corrisponderebbe ad aumentare artificialmente ( aritmeticamente ) il valore attuale del bene economico e tale circostanza, specie in presenza di inflazione sostenuta, risulterebbe un immotivato paradosso.

Le vere difficoltà s’incontrano, poi, nella determinazione della componente « s ». I tentativi di quantificazione di questa “componente” sono generalmente ispirati dall’idea di variabilità dei flussi attesi.

L’approccio qualitativo - Una prima interpretazione concettuale parte dall’osservazione che il rischio è una sorta di qualità dei flussi attesi. Esso consisterebbe, appunto, nel vario grado di certezza, di attendibilità, e di credibilità dei flussi prospettici quantitativamente espressi. Per cui, date due intraprese A e B con redditi attesi eguali (e per ipotesi anche identicamente distribuiti nel tempo), il loro valore può essere sostanzialmente diverso se la loro qualità in termini di rischio è pure molto diversa.

19

Se la probabilità di insolvenza che associamo ad A è del 90% e quella che associamo a B è del 70%, si dovrà applicare al flusso reddituale di B un tasso di attualizzazione (che trovasi al denominatore dell’espressione generale di sconto), sensibilmente più elevato (e proporzionale al coefficiente di probabilità di insolvenza), poiché la sua “qualità” è peggiore rispetto a quella del reddito di A.

L’idea della qualità del reddito è però solo un espediente espositivo (essa si contrappone dialetticamente alla quantità del reddito). Molto più preciso concettualmente, oltre che più significativo operativamente, è il richiamo alla variabilità del reddito atteso, o se vogliamo alla probabilità di scostamento in definite misure rispetto alle quantità attese e/o concordate.

L’approccio intuitivo o imitativo (detto anche sintetico-soggettivo) rappresenta una soluzione frequente, specie nella pratica meno esperta od accurata. Esso in sostanza non stima « s », bensì direttamente « r » (anche se « s » è ottenibile per differenza, sottraendo la componente « r ».

L’approccio si basa essenzialmente sulle conoscenze ed esperienze, nonchè sulla sensibilità di chi conduce la valutazione, cui compete, di fatto, di identificare, tra le varie alternative d’investimento a valore noto, quelle giudicate equivalenti in termini di rischio. Se il loro rendimento è x %, questo sarà il tasso scelto. Ciò significa essersi convinti concettualmente ed intimamente, sulla certezza che l’apprezzamento del rischio sia possibile solo sinteticamente, comparando nell’insieme la situazione specifica con altre, delle quali sono noti i prezzi e stimabili almeno approssimativamente rendimenti e rischi. La conduzione di tali raffronti e l’attribuzione di misure ai rischi degli investimenti alternativi avvengono peraltro in modo del tutto informale; nel senso che non si esige alcuna dimostrazione né la si potrebbe pretendere a livello scientifico; non è quindi possibile nessun riscontro analitico delle decisioni assunte. Il procedimento è quindi altamente empirico, pertanto sperimentale/applicativo e perciò necessariamente sintetico: esso concede poco spazio alle spiegazioni e/o motivazioni, che comunque non vanno quasi mai aldilà dell’aspetto descrittivo ancorchè necessariamente e doverosamente dettagliate.

“Non possono, insomma contenere, come detto, una vera dimostrazione della conclusione raggiunta, poiché l’equivalenza del rischio tra l’azienda da valutare e le alternative d’investimento considerate è

20

affermata per intuito. Vale, in sostanza, più la credibilità e la reputazione di chi fa la scelta che non la dimostrazione, sempre sommaria e descrittiva, che egli può fornire”.

Proprio perciò l’approccio si presta ad errori e abusi, come accade per tutto ciò che non deve essere dimostrato: qualsiasi scelta contenuta nei limiti delle esperienze note è infatti possibile. Ne derivano due pericoli:

• la tendenza ad appiattire le scelte sui valori più frequenti, o tipici. Spesso deriva da ciò un comportamento puramente imitativo, nel senso che le perizie valutative si copiano l’un l’altra; o derivano le scelte di tasso dalle indicazioni di testi accreditati;

• la tendenza, altrettanto negativa, a non fornire alcuna spiegazione della scelta del tasso. Considerando perciò questa scelta come un indimostrabile e discrezionale assunto di chi compone la valutazione: il quale ne risponde grazie all’autorevolezza, alla professionalità, ed alla reputazione che lo contraddistingue.

Ciò nonostante, l’approccio sintetico/empirico/sperimentale da alcuni considerato con freddezza “soggettivo”, riceve nella pratica non poche adesioni. Questo si deve alla circostanza che i metodi analitici esigono un impegno giudicato eccessivo rispetto ai risultati giudicati modesti; o richiedono un massa di informazioni non disponibili o inesistenti; oppure non ottengono una sufficiente credibilità.

Ad esempio, i tassi di capitalizzazione più frequentemente assunti negli ultimi anni nella esperienza di alcuni Paesi europei sono contenuti nei seguenti limiti: —per l’industria, dal 6 al 10% (valori tipici: 7-8%); —per il commercio, dall’8 al 15% (valori tipici: 10-12%); —per la banca ed il parabancario, dal 6 all’8%; —per le società immobiliari, dal 4% al 6%; —per le assicurazioni, dal 5% al 7% e così via; [nel mondo americano si fa invece riferimento a tassi alquanto più elevati, anche perché di solito ( e giustamente) non depurati dall’inflazione].

21

IL COSTO DEI CAPITALI Come si è detto, il secondo rilevante criterio per la definizione e la valutazione del tasso è rappresentato dal «costo dei capitali».

Questa espressione viene a volte riferita ai capitali dell’azienda oggetto di valutazione; altre volte ai capitali dell’acquirente effettivo o potenziale di quell’azienda. I due punti di vista sono concettualmente molto lontani.

Il secondo (riferito al potenziale acquirente), a ben vedere, non serve per valutazioni di capitale economico, ma per giudizi soggettivi di convenienza ad investire. Come accade, ad esempio, se un potenziale compratore attualizza i flussi derivabili da un’acquisizione in base al costo dei capitali che egli dovrebbe impiegare: ciò alfine di giudicare la convenienza dell’investimento ad un certo livello di prezzo ottenibile. Esaminiamo dapprima questo caso. In proposito va particolarmente sottolineato che esso, assumendo il costo del capitale afferente allo specifico acquirente-investitore, non collega in alcun modo il tasso ai rischi insiti nell’azienda oggetto di valutazione. Il valore dell’azienda perciò, almeno apparentemente, non dipende più, attraverso il tasso, dal rischio che la caratterizza.

Questo imprudente e a volte superficiale atteggiamento trova spesso una possibile attenuazione e/o bilanciamento nelle manifestazioni prudenziali che possono essere assunte nella stima dei redditi attesi (si depotenziano empiricamente i “redditi attesi” anziché aumentare razionalmente il “tasso di sconto” ). Ma tali prudenti manovre non riescono spesso ad annullare totalmente, sul piano logico, i dubbi sollevati dal totale svincolamento del tasso di attualizzazione e di capitalizzazione dai rischi che si accompagnano ai flussi attesi per il futuro.

L’altra possibile interpretazione del criterio del costo dei capitali investiti consiste nell’assumere non già il punto di vista del possibile acquirente, bensì il punto di vista della stessa azienda oggetto di valutazione. Il tasso di capitalizzazione diventa allora il costo atteso dei mezzi finanziari per tale azienda. Qui la discussione attiene a ciò che deve intendersi per «mezzi finanziari»: si devono cioè considerare e mediare congiuntamente il costo di capitali propri

22

(equity) e dei debiti onerosi (debit)?; oppure si devono considerare solo i capitali propri?

La prima scelta ha senso quando oggetto diretto di valutazione, attraverso il processo di attualizzazione o di capitalizzazione dei flussi, non sia il capitale economico ma l’investimento complessivo; fronteggiato quest’ultimo sia dal capitale proprio sia dai debiti onerosi (tanto che per passare dal valore I al valore W, il primo deve essere depurato dai debiti finanziari). Ovviamente, se il flusso da attualizzare è al lordo degli interessi passivi, il tasso di attualizzazione è una media ponderata tra il costo del capitale proprio (r) ed il costo dei debiti (r); nella quale i « pesi » corrispondono alla entità del capitale proprio e dei debiti al momento della valutazione. In tal caso la logica che si applica nel calcolo e le formule nelle quali esso si traduce corrispondono a quelle adottate per il calcolo del WACC (Weighted Average Cost of Capita!).

Com’è noto la formula-base per la valutazione della componente s, con riguardo al costo del capitale proprio, è:

s = β (rm — r)

in cui:

r = tasso degli investimenti senza rischio;

rm = indice espressivo del rendimento generale medio del mercato azionario;

β = coefficiente beta, che misura il rischio della specifica azienda, espresso dalla volatilità del suo rendimento rispetto a quello dell’intero mercato.

Il punto focale del metodo è il coefficiente beta (β), l’espressione tipica del CAPM. Il CAPM stabilisce che la «maggiorazione per il rischio azionario» vada moltiplicata per il beta di ogni specifica società, per misurare così i cosiddetti rischi «non diversificabili».

Questi ultimi possono essere definiti partendo dall’assunto che l’investimento in azioni di una qualsiasi società quotata genera due tipi di rischio.

23

I° Un primo tipo di rischio (endogeno) è legato all’andamento tecnico-economico-commerciale della stessa società (come si comporteranno i suoi prodotti: manterranno od accresceranno la quota di mercato? Saranno o non saranno remunerativi? Quali risultati deriveranno dalla ricerca in corso? e così via).

II° Un secondo tipo di rischio (esogeno) è legato all’andamento generale dell’economia, che si ripercuote variamente sui settori e sulle singole aziende.

Il rischio del primo tipo può essere eliminato dai singoli investitori tramite la diversificazione del portafoglio; il secondo non può essere eliminato dalla diversificazione (ed è detto perciò rischio non diversificabile). Il coefficiente beta ( β ) sarebbe, appunto, la misura del rischio non diversificabile, che quindi non è riflesso dalla maggiorazione (media) per il rischio azionario.

Valori di β > 1 corrispondono, com’è ben noto, ad alti rischi per il titolo considerato, nel senso che esso eccede il rischio medio di mercato; valori di β < 1 hanno ovviamente il significato opposto. Le 500 società americane comprese nell’indice Standard and Poor’s hanno nell’insieme, per definizione, β = 1. Così come in qualsiasi mercato il campione di società rappresentativo assume β = 1.

I valori dei coefficienti beta (β) sono oggetto di continui calcoli e di pubblicazione da parte di Merchant Banks e altri operatori specializzati, con riferimento a numerose aziende quotate ed a settori di attività. In tal modo, anche se l’azienda oggetto di stima non è quotata, è possibile il riferimento ai « β » di aziende similari. Nel nostro Paese quest’ultima è spesso la via seguita.

24

STIMA DEL TASSO3

Le tecniche descritte . . . per il calcolo del tasso di attualizzazione (tasso di sconto) si applicano anche all’Italia, ma la minore disponibilità di dati rende necessaria una spiegazione più dettagliata delle seguenti voci:

• Scelta del rapporto d’indebitamento ottimale (ai valori di mercato);

• Stima del costo del patrimonio netto degli azionisti.

Per sviluppare la struttura d’indebitamento ottimale ai valori di mercato . . . è più pratico fare riferimento a una struttura di capitale considerata "ottimale" sia per evitare il problema della circolarità nel calcolo della valutazione (una componente della struttura di capitale ai valori di mercato, il valore del patrimonio netto, è anche il risultato del calcolo stesso), sia per evitare che l’attuale struttura di capitale non sia coerente con le variazioni attese del mix di copertura patrimoniale a causa della discontinuità nella politica di copertura. Come è noto . . . le banche commerciali gestiscono in prevalenza il credito a breve, e le linee di credito a revoca aperta sono lo strumento di credito più diffuso. Dal 1987, per la prima volta in 50 anni, le banche commerciali sono autorizzate ad effettuare merchant banking, e ciò ha contribuito a normalizzare le carenze di capacità di credito. Titoli privati convertibili e titoli a tassi fissi coesistono con una grande varietà di titoli del Tesoro, municipali, degli enti pubblici ed emissioni estere. La liquidità del mercato è molto varia. I mercati azionari italiani sono tendenzialmente in crescita come fonte di capitali, con Milano che si configura come borsa principale e altre borse locali. Assieme ai titoli azionari, in queste borse sono trattati titoli obbligazionari d’ogni tipo, industriali, governativi e CE e, ancora, degli enti provinciali e municipali. Attualmente a Milano sul mercato primario sono quotate circa 300 società. Per definire una struttura patrimoniale "ottimale" deve essere prestata particolare attenzione a prestiti collocati privatamente, prestiti in valuta straniera, leasing e interessi di minoranza, tutte forme di credito molto diffuse in Italia;

3 Fonte: Mc Kinsey – il Valore dell'Impresa – Il Sole 24h

25

per fare ciò si utilizzerà la metodologia descritta . . .. Passività non finanziarie, come i fondi per spese future (ad esempio, TFR), non devono entrare nel calcolo del costo medio ponderato del capitale perché non sono fonti di finanziamento ma passività operative.

Calcolare il Costo del Patrimonio Netto Le fasi del processo di stima del Costo del Patrimonio Netto secondo il CAPM (Capital Asset Pricing Model) sono tre:

1. Determinare il Tasso Senza Rischio (Risk-Free Rate); 2. Determinare il Premio per il Rischio di Mercato (Market Risk

Prernium); 3. Stimare il Rischio Sistematico (o non diversificabile) (BETA).

Determinare il tasso senza rischio

Generalmente si raccomanda, in pratica, l’utilizzo del rendimento alla scadenza (yield to maturity) di un titolo governativo a dieci/quindici anni o, alternativamente, alla scadenza massima disponibile. Problemi di liquidità e caratteristiche d’emissione possono far aumentare eccessivamente tale rendimento, e una media ragionata di diversi titoli può forse dare un rendimento più corretto.

Determinare il premio per il rischio di mercato

È senz’altro la componente del costo del patrimonio netto con il CAPM più soggetta a discussione, ed è pari alla differenza tra il ritorno atteso del portafoglio complessivo del mercato azionario di riferimento (l’indice MIB è il più diffuso) e il tasso senza rischio appena esaminato. Il premio consigliato per gli Stati Uniti è del sei per cento (6%), pari alla media geometrica dell’indice di borsa dal 1926 (quasi 90 anni).

Dati con riferimenti così ampi sono raramente disponibili per altri paesi, inclusa l’Italia. Dati di periodo più breve sono invece disponibili per molti paesi. In Italia una stima può essere ottenuta calcolando la differenza tra i ritorni annuali a media geometrica del Morgan Stanley Capital Index per l’Italia (36 titoli) e i titoli governativi di lungo periodo.

Dal 1960 la differenza è stata del 3,8 per cento. Nello stesso periodo negli Stati Uniti la differenza è stata del 3,75 per cento, e per

26

determinare la media geometrica di lungo periodo si potrebbe pertanto ipotizzare che questa correlazione sia stabile.

Per l’Italia si stima quindi in 6 punti percentuali (6%) il premio per il rischio di mercato a lungo termine.

Anche se la qualità dei dati utilizzati per ottenere queste stime è soddisfacente, una base di riferimento ristretta come quella del mercato italiano potrebbe non riflettere accuratamente la media effettiva di mercato, e potrebbe verificarsi un errore sia di sovrastima che di sottostima. Le imprese multinazionali potrebbero essere soggette a un più contenuto premio per il rischio, in quanto sia il cashflow operativo che quello finanziario sono influenzati solo parzialmente dalle condizioni locali dei mercati finanziari. Questo vale particolarmente nel caso di grandi imprese appartenenti a un paese con un’economia di piccole dimensioni, e ancor di più nel caso di imprese globali. I premi per il rischio degli altri paesi variano in media da 6 a 8 punti (6% - 8%) e, inoltre, i mercati finanziari delle nazioni economicamente sviluppate diventano sempre più interrelati. In conseguenza dell’estendersi del processo di globalizzazione, si assisterà ad una sempre maggiore convergenza dei premi di mercato e dei rendimenti "reali".

Stimare il rischio sistematico (beta)

Se la società è quotata in borsa, una stima del beta si può ottenere in base all’Analisi del rischio dei titoli azionari" di Analysis F.A., che calcola i beta storici di breve periodo di circa 280 titoli quotati alla Borsa valori di Milano. Purtroppo il beta necessario per la valutazione dovrebbe essere, come tutte le altre componenti del CAPM, previsivo e di lungo periodo, e non semplicemente una media storica. Soprattutto, se si prevede che la società subirà cambiamenti strutturali, il beta storico può non essere più molto affidabile. Il servizio internazionale BARRA World Equity Beta Book fornisce delle buone stime del beta previsto per circa 3.000 titoli europei, ricavate dalla combinazione di Financial Times, Actuaries World Index e Morgan Stanley Capital International World Index.

Il beta da utilizzare è il cosiddetto local predicted beta, oppure il world predicted beta se ad essere valutata è una società multinazionale con il rischio sistematico influenzato da significativi cashflow di tipo operativo o finanziario non generati in Italia. Usare un beta mondiale e un premio per il rischio

27

internazionale oscillante tra il 6 e l’8 per cento può fornire, per queste società, una stima migliore del costo del patrimonio netto; in questo caso, però, il tasso senza rischio deve essere locale, per coerenza con le attese inflazionistiche e la valuta utilizzata (spesso quella locale).

In generale, se la società ha più di un tipo di titoli azionari quotati, è opportuno utilizzare il beta del titolo che capitalizza maggiormente, in quanto questo, generalmente, è il titolo più trattato. Azioni con poco volume complessivo sono spesso con poco flottante e il loro beta, comunque calcolato, è poco significativo.

* * *

28

LA SELEZIONE DEL TASSO DI ATTUALIZZAZIONE NELLA STIMA DELLA

LOSS GIVEN DEFAULT:

(solo per chi vuole approfondire autodidatticamente la materia)

UN’APPLICAZIONE COME

ESERCITAZIONE AL MERCATO ITALIANO4

Di Lucia Gibilaro Ricercatore di Economia degli Intermediari Finanziari Università degli Studi di Bergamo – Facoltà di Economia Via dei Caniana 2 – 24127 Bergamo Tel +390352052675 - Fax +390352052549

e Gianluca Mattarocci Ricercatore di Economia degli Intermediari Finanziari Università degli Studi di Roma “Tor Vergata” – Facoltà di Economia Via Columbia 2 – 00133 Roma Tel. +390672595930 – Fax +39062040219 Abstract Alla luce degli avanzamenti gestionali e regolamentari sulla Loss Given Default, il lavoro affronta il tema della scelta del tasso corretto per la stima del valore attuale dei recuperi. Attraverso la rassegna della letteratura disponibile sulla LGD, vengono analizzate e confrontate le soluzioni adottate nella selezione del tasso di attualizzazione, in particolare con riferimento alla loro variabilità:

1) tasso contrattuale,

4 Il lavoro e frutto di impegno comune e di un continuo scambio di idee tra i due autori. Le singole parti di esso sono attribuibili come segue: l’introduzione, il paragrafo 2 e le conclusioni sono stati elaborati da Lucia Gibilaro mentre il paragrafo 3 e 4 da Gianluca Mattarocci.

29

2) tasso risk free 3) tasso determinato con approcci monofattoriali.

Al fine di comprendere l’influenza dei vincoli esterni in un’ottica sia statica sia dinamica, il lavoro approfondisce le finalità e le metodologie sulla determinazione del tasso di attualizzazione nella regolamentazione contabile e prudenziale. A fronte dei limiti degli approcci riscontrati nella letteratura sia accademica sia operativa per la misurazione del tasso di attualizzazione rispetto alla stima della perdita economica dopo, sono esplicativi della variabilità della LGD5. 1. Introduzione Quando un debitore entra nello stato di insolvenza, il finanziatore avvia il processo del recupero: «l’eventuale perdita economica subita (d’ora in poi LGD), rappresenta, per qualsiasi intermediario finanziario, una variabile chiave da saper gestire. Essa, infatti, è determinante ai fini contabili, regolamentari, gestionali. La LGD costituisce un importante strumento per la misurazione dell’efficacia e dell’efficienza del processo del recupero crediti ai fini di minimizzare gli esiziali effetti delle perdite economiche subite. L’analisi della relazione tra caratteristiche del contratto e livello della LGD risulta, inoltre, rilevante per la definizione di criteri guida nella selezione delle forme tecniche e nell’identificazione di garanzie idonee (Sironi, 2005)». La definizione del valore della LGD può essere affrontata utilizzando approcci differenti, basati su dati di mercato o dati interni, che possono essere classificati in tre macrocategorie (Schuermann, 2001):

1) market LGD, 2) implied market LGD e 3) work-out LGD.

Tali approcci si differenziano significativamente in merito alle assunzioni di base: in particolare, i primi due approcci assumendo l’ipotesi dell’efficienza del mercato, rispettivamente dei defaultable bonds e dei defaulted loans nel secondo caso, prevedono che esso possa essere utilizzato come benchmark per la stima della LGD corretta. Analisi internazionali hanno evidenziato le difficoltà relative

5 Loss Given Default (LGD) è una misura del rischio di recupero, una delle componenti del rischio di credito identificata dall'accordo di Basilea II ed utilizzata per il calcolo del Capitale di vigilanza

30

alla stima della LGD con tali approcci soprattutto per le imprese di minori dimensioni che non effettuano, solitamente, sollecitazioni dirette del pubblico risparmio (Araten et al. 2004). La mancanza di dati di mercato che possono essere ritenuti comparabili ai finanziamenti concessi dagli intermediari italiani rende, quindi, obbligata la scelta di utilizzare l’approccio della work-out LGD per la valutazione del portafoglio crediti degli intermediari domestici. Nell’ipotesi di stima della LGD sulla base di dati interni disponibili per l’intermediario, il differimento temporale dell’incasso dei flussi positivi e la diversità delle attività relative all’investimento ante e post default rendono necessarie l’identificazione e la selezione di un tasso di attualizzazione coerente con il mutato rischio fronteggiato dal finanziatore rispetto al momento dell’insolvenza. I recenti avanzamenti della letteratura internazionale in tema di LGD evidenziano la sua natura di variabile aleatoria e l’influenza su di essa delle variabili sistemiche, favorendo lo sviluppo di modelli di misurazione del Credit Var6 caratterizzati da un unico fattore di rischio sistemico per la modellizzazione della correlazione fra le LGD. Le verifiche empiriche evidenziano la rilevanza non solo del ciclo economico ma anche di altri fattori quali, ad esempio, il settore economico e il tempo medio di recupero sulla variabilità della LGD: l’introduzione di tali assunzioni costituisce un aspetto critico per la selezione del tasso di attualizzazione, che deve essere assunto per valutare il rendimento dell’investimento durante il processo del recupero7. Il lavoro presenta dapprima una rassegna della letteratura sulla selezione del tasso di attualizzazione per la stima della LGD con l’approccio del work-out evidenziando le caratteristiche dei differenti approcci e i vincoli esterni che possono influenzare la scelta tra le diverse metodologie (paragrafo 2). Alla luce delle proprietà del rischio del recupero rilevate in letteratura, delle indicazioni regolamentari e delle evidenze empiriche riscontrate nel confronto fra le ipotesi già adottate in letteratura, il lavoro presenta, infine, un approccio di determinazione del tasso di attualizzazione alternativo rispetto alle proposte presentate in letteratura (paragrafo 3). Il contributo si conclude con una verifica empirica su un database proprietario di un intermediario finanziario italiano, finalizzata ad identificare l’impatto delle diverse metodologie di stima presentate sulla variabilità della LGD stimata per segmenti omogenei di clientela (paragrafo 4).

6 Per una rassegna sui modelli tradizionali di determinazione del capitale economico a fronte del rischio di credito, si veda: Altman E.I., Resti A. e Sironi A. (2004). 7 Per una rassegna sulle verifiche empiriche concernenti le determinanti della LGD, si veda Basel Committee on Banking Supervision (2005c).

31

2. Le scelte del tasso di attualizzazione per le stime della LGD realizzate secondo l’approccio work-out L’utilizzo dell’approccio work-out assicura la possibilità di ottenere stime più corrette per la valutazione dei prestiti concessi da intermediari finanziari italiani ma richiede la disponibilità di set informativi molto dettagliati e rende necessaria la selezione del tasso corretto per l’attualizzazione dei flussi futuri. L’analisi della letteratura evidenzia la presenza di differenti soluzioni utilizzabili, che sono state ricavate mutuando approcci ormai consolidati in finanza. Gli indicatori proposti sono: − il tasso contrattuale applicato al cliente; − il tasso risk free;

− il tasso di rendimento corretto per il rischio stimato con un approccio monofattoriale.

Nel prosieguo del paragrafo vengono esaminati nel dettaglio i tre approcci evidenziandone le principali caratteristiche e i limiti e analizzando anche la rilevanza della scelta del tasso corretto per l’attualizzazione dei flussi legati al processo di recupero. Il paragrafo finale presenta i requisiti per la selezione del tasso di attualizzazione previsti dalla regolamentazione contabile e prudenziale: in linea con l’evoluzione delle metodologie di misurazione del rischio di credito, gli IAS/IFRS e Basilea 2 dedicano particolare attenzione ai requisiti del processo di selezione del tasso di attualizzazione. 2.1 L’approccio del tasso contrattuale L’approccio del tasso contrattuale prevede che i flussi recuperati dall’intermediario, dopo la manifestazione dello stato di insolvenza, vengano attualizzati al tasso contrattuale definito all’inizio del rapporto oppure all’ultimo tasso contrattuale rinegoziato con il cliente. L’adozione di tale approccio può essere ritenuta ragionevole soltanto se si ritiene che al manifestarsi dell’evento di insolvenza non si modifichi il profilo di rischio dell’operazione. L’approccio del tasso contrattuale rende necessaria la raccolta di un set informativo interno completo poiché eventuali differenze nei contratti stipulati si ripercuotono significativamente sull’andamento della capacità di rinegoziare i tassi e, di conseguenza, sulla loro evoluzione temporale. La scelta di utilizzare tassi medi o aggregati non rappresenta, quindi, una soluzione ragionevole per stimare la LGD con tale approccio e

32

risulta necessario costruire un database informativo complesso alimentato prevalentemente dai dati interni raccolti dallo intermediario (Asarnow e Edwards, 1995). La semplice analisi dell’andamento dei tassi negoziali per tipologia di finanziamento erogato evidenzia come la scelta di utilizzare tassi aggregati per la realtà italiana non possa essere ritenuta corretta8(Grafico 1). Grafico1 - L’andamento dei tassi contrattuali per tipologia di operazione

Elaborazione degli autori su dati Banca d’Italia Il trend sottostante l’andamento dei singoli tassi è similare ma si possono registrare significative differenze relativamente ai livelli dei tassi di interesse nei singoli periodi considerati e all’andamento su orizzonti temporali inferiori all’anno. Il vincolo di utilizzare soltanto i tassi specifici in tali approcci lascia al valutatore unicamente la possibilità di scegliere la data di riferimento per il tasso da utilizzare: tasso contrattuale iniziale oppure ultimo tasso contrattuale rinegoziato. Nella scelta tra le due soluzioni un fattore determinante è rappresentato dalla data di stipula del contratto perché tanto

8 La classificazione utilizzata replica la segmentazione utilizzata da Banca d’Italia per aggregare le segnalazioni di vigilanza dei singoli intermediari.

33

maggiore è il tempo intercorso dalla data di stipula del contratto alla data del manifestarsi dei singoli flussi in entrata, tanto minore è la significatività dell’utilizzo del tasso iniziale nell’attualizzazione, essendo le condizioni economiche potenzialmente molto differenti rispetto alle condizioni vigenti al momento di stipula del contratto. La significatività del risultato ottenuto con tale approccio diminuirà, a parità di altre condizioni, all’aumentare del lag temporale tra la data di riferimento del tasso contrattuale e le date relative ai flussi del recupero e al crescere della frequenza dei rimborsi. La minore capacità di identificare correttamente il valore della LGD, se il processo di recupero si protrae nel tempo, è legata alla maggiore probabilità che, al crescere della durata del periodo di rilevazione, le condizioni economiche varino significativamente e i tassi applicati in passato non rappresentino più una misura corretta del costo opportunità sostenuto dall’intermediario a causa del mancato recupero del credito. Un processo di recupero che prevede flussi frequenti nel tempo rende difficilmente applicabile la metodologia del tasso contrattuale perché il tasso utilizzato per l’attualizzazione è fisso e calcolato sull’intera durata del contratto. L’applicazione di un tasso costante per l’analisi di un qualsiasi investimento non rappresenta una soluzione corretta se l’orizzonte temporale di calcolo del tasso non coincide con l’orizzonte temporale dell’attualizzazione (Dallocchio e Salvi, 2004) e, soprattutto per processi di recupero con flussi dilazionati nel tempo, la probabilità che la durata del contratto non coincida con l’intervallo di attualizzazione risulta elevata. 2.2 L’approccio del tasso risk free La stima del valore attuale dei flussi legati al finanziamento erogato può essere realizzata considerando i tassi medi di mercato per operazioni di investimento con durata simile all’operazione considerata. Le difficoltà legate all’identificazione del possibile rendimento dell’investimento con caratteristiche simili ai finanziamenti concessi può spingere l’intermediario a scegliere di utilizzare come tasso di attualizzazione il costo opportunità minimo per il differimento temporale delle entrate, il tasso risk free. L’applicabilità dell’approccio è, quindi, subordinata unicamente all’identificazione del mercato di riferimento e della migliore proxy disponibile per il rendimento dell’attività priva di rischio. L’analisi dei

34

tassi privi di rischio relativi al mercato italiano può essere realizzata assumendo l’ipotesi, ormai consolidata in finanza, della presenza di un rischio di default pressoché nullo per gli stati sovrani non classificati come paesi in via di sviluppo (Damodaran, 1999) e considerando l’andamento dei titoli emessi dallo stato italiano con scadenza inferiore a 12 mesi. (Grafico 2) Grafico 2 - L’andamento dei tassi risk free per le differenti scadenze temporali

Elaborazione degli autori su dati Datastream L’andamento dei tassi di rendimento per le differenti tipologie di BOT considerati evidenzia una sostanziale uniformità nel trend e nei livelli dei rendimenti corrisposti soprattutto negli ultimi anni del periodo considerato. La scelta del tasso free-risk adeguato per le differenti scadenze di manifestazione dei flussi non dovrebbe, quindi, influenzare eccessivamente la stima della LGD poiché le anomalie nel trend periodale dei tassi per i diversi dei titoli di Stato risultano soltanto temporanee e non persistenti. Il manifestarsi dell’evento di default determina l’impossibilità di prevedere ex ante l’importo e le date di manifestazione dei flussi legati al processo del recupero e causa, di conseguenza, un aumento del rischio di variabilità dei flussi di rimborso legati al finanziamento erogato. Anche nell’ipotesi che il tasso free-risk rappresenti un valore corretto per l’attualizzazione dei flussi futuri prima del manifestarsi del default, difficilmente è possibile ritenere che l’utilizzo di tale tasso sia corretto anche quando i flussi perdono la caratteristica di certezza. La scelta di stimare la

35

LGD con l’approccio del tasso privo di rischio può, quindi, determinare una sottostima del fenomeno poiché il valore attuale dei flussi generati dal processo del recupero verrebbe calcolato non considerando il maggiore grado di incertezza che caratterizza i flussi di recupero rispetto ai flussi di pagamento stabiliti contrattualmente. 2.3 L’approccio monofattoriale L’ipotesi di utilizzare un tasso privo di rischio può portare a sottostimare la perdita in caso di insolvenza poiché difficilmente gli impieghi realizzati da un intermediario finanziario garantiscono un rendimento non superiore al tasso free-risk, essendo caratterizzati da un rischio di perdita non nullo. Una soluzione più attendibile prevede l’utilizzazione di un tasso di attualizzazione corretto per il rischio stimato utilizzando un modello con una formulazione simile al classico CAPM (Sharpe, 1964). Il tasso è, quindi, calcolato come:

r = rf + β (rm − rf ) (1) dove: r = tasso di attualizzazione stimato con il modello monofattoriale rf = tasso di interesse privo di rischio rm = rendimento di un indice di mercato considerato come proxy

del portafoglio di mercato β = indice che misura il grado di variabilità del tasso stimato in

funzione della variazione del mercato. L’approccio ipotizza la possibilità di identificare un indice rappresentativo del rischio di mercato relativo a tutti i debitori considerati nella stima della LGD. Le analisi realizzate con tali approcci utilizzano solitamente come proxy dell’indice di mercato degli indicatori relativi all’andamento medio dei defaulted bonds negoziati nel mercato (Altman et al., 2002). La stima del parametro β viene realizzata in finanza con una regressione della serie storica del valore dell’attività finanziaria rispetto alla serie storica dell’indice di mercato (Saita, 2006) e presuppone la disponibilità di serie storiche sufficientemente lunghe e continue (Damodaran, 1996). L’analisi dei dati disponibili sui processi di recupero evidenzia un problema legato all’impossibilità di mutuare tale approccio per l’indisponibilità di serie storiche sufficientemente lunghe e, di conseguenza, la necessità di stimare tale parametro non sui singoli finanziamenti concessi ma su aggregazioni di finanziamenti

36

con caratteristiche comuni, rinunciando ad alcune caratteristiche specifiche di tale parametro. Il trattamento di aggregati di operazioni similari permette, infatti, di aumentare l’orizzonte temporale di osservazione prendendo in considerazione i rendimenti di posizioni entrate in default e/o chiuse in date differenti ma è fortemente influenzato dai criteri arbitrari definiti dal valutatore nello identificazione delle categorie omogenee di considerazione i ren- dimenti di posizioni entrate in default e/o chiuse in date differenti ma è fortemente influenzato dai criteri arbitrari definiti dal valutatore nell’identificazione delle categorie omogenee di finanziamenti. Le analisi condotte in letteratura dimostrano la presenza di una relazione tra andamento del ciclo economico ed efficacia del processo del recupero: tale risultato è giustificato in funzione della relazione tra valore dei beni escussi durante il processo del recupero e andamento del ciclo economico dopo il manifestarsi del default (Frye, 2000a). Nel caso di indisponibilità di un indice di mercato rappresentativo dei defaulted corporate bonds può essere, quindi, ritenuto ragionevole utilizzare come proxy dell’andamento del processo del recupero un indice sull’andamento generale dell’economia considerata. In formule: r = rf + β (PIL) (2) dove: r = tasso di attualizzazione stimato con il modello monofattoriale rf = tasso di interesse privo di rischio PIL = Prodotto interno lordo β = indice che misura il grado di variabilità del tasso stimato in

funzione della variazione dell’andamento dell’economia 2.4 I vincoli esterni per la selezione del tasso di

attualizzazione Nell’ambito del nuovo framework sull’adeguatezza patrimoniale (Basel Committee on Banking Supervision, 2006), l’evento della recessione economica e delle conseguenze sulla LGD è trattato prudenzialmente: poiché le perdite possono superare il livello medio a ca sa, ad esempio, del decadimento dei valori di realizzo delle garanzie, l’intermediario finanziario deve innalzare il valore della LGD rispetto al livello medio per riflettere tali scenari. Le raccomandazioni del Comitato sulle determinanti della LGD e sulla sua possibile natura stocastica hanno trovato uno specifico approfondimento

37

opportunamente sulla determinazione del tasso di attualizzazione. In particolare, il Comitato prevede che i flussi finanziari relativi ai recuperi ed ai costi sostenuti debbano essere attualizzati secondo un tasso coerente con un investimento che possiede le proprietà seguenti: − l’importo è pari all’EAD; − l’orizzonte temporale è pari all’intervallo temporale che intercorre fra la classificazione in default della controparte e la chiusura del processo del recupero; − se rilevante, il rischio non diversificabile deve trovare un’adeguata copertura nello spread rispetto al tasso risk free. Per adottare soluzioni compliant rispetto al principio enunciato e in armonia anche con altri vincoli esterni, secondo il Comitato gli intermediari finanziari possono ricorrere a: − un tasso di attualizzazione adeguato rispetto al rischio del recupero fronteggiato nel periodo di esposizione; − una conversione in equivalenti certi dei flussi dei recuperi incassati e dei costi sostenuti; − un adeguamento sia del tasso di attualizzazione sia dei flussi dei recuperi e dei costi in armonia con il principio enunciato. Si ritiene che la prima alternativa sia la più rispondente ai requisiti previsti dal paragrafo 468 del Nuovo Accordo e, quindi, idonea rispetto alla finalità di calcolare una misura della LGD che rifletta la perdita economica fronteggiata dall’intermediario finanziario. Il Comitato non fornisce, però, indicazioni in merito al modello da adottare per la determinazione del tasso di attualizzazione, ma quest’ultimo deve essere coerente con il principio che la stima della LGD rifletta il costo della detenzione delle attività in default, riconoscendo un adeguato premio per il rischio (Basel Committee on Banking Supervision, 2005b). Nell’ambito del recepimento delle raccomandazioni del Comitato di Basilea nella normativa secondaria domestica, l’autorità di vigilanza ha previsto esplicitamente che il tasso di attualizzazione debba riflettere sia il valore monetario del tempo sia il rischio insito nella

38

volatilità dei flussi di recupero mediante l’individuazione di un premio al rischio adeguato (Banca d’Italia, 2006). Venendo alla seconda alternativa, l’approccio suggerito dal Comitato prevede la possibilità di misurare la LGD utilizzando come tasso di attualizzazione il risk free rate soltanto dopo aver convertito i flussi finanziari in entrata ed uscita in equivalenti certi attraverso l’applicazione di coefficienti di conversione che tengano conto dell’influenza dei fattori idiosincratici e macroeconomici (Basel Committee on Banking Supervision, 2005c). Dal punto di vista interpretativo, il tasso di attualizzazione applicato secondo tale alternativa non rappresenterebbe il rendimento dell’esposizione post default dell’intermediario finanziario da comparare con opportunità alternative nelle quali investire il capitale economico, ma esclusivamente il valore finanziario del tempo9. L’ultima alternativa si basa sulla combinazione delle proposte precedenti, pertanto ripropone le medesime caratteristiche alla luce di una maggiore complessità attesa nella modellizzazione. La selezione del tasso di attualizzazione per la determinazione della perdita che registra l’intermediario finanziario quando il merito creditizio della controparte si deteriora (impairment) è uno degli aspetti centrali dello Ias 39 (International Accounting Standards Committee, 2003) per le attività finanziarie classificate nella categoria Loans and receivables . Prescindendo dalla tipologia della valutazione del credito, analitica o collettiva, l’intermediario finanziario deve determinare la perdita come differenza fra il costo ammortizzato e il valore attuale dei flussi finanziari che incasserà durante il processo del recupero (Faraci, 2005). Nell’ambito della determinazione del valore attuale dei flussi finanziari, lo Standard contabile prevede che l’intermediario utilizzi il tasso effettivo originario (Gazzetta Ufficiale dell’Unione Europea, 2004). Attraverso l’applicazione del tasso effettivo originario alla rilevazione del deterioramento, l’intermediario rileva la perdita effettiva caratterizzante l’esposizione creditizia al momento della valutazione; la metodologia valutativa sottintende: − la coincidenza dell’orizzonte temporale con la scadenza dell’esposizione e pertanto la neutralità rispetto a forme alternative di investimento del capitale economico; − la coincidenza del rendimento dell’operazione finanziaria ante e post default (Arnaboldi e Saita,

9 Sulle problematiche relative alla selezione del tasso risk free, si veda il paragrafo 2.2.

39

2005). 3. Una proposta per la determinazione del tasso di attualizzazione corretto per il rischio I limiti evidenziati dalle alternative proposte in letteratura possono rendere necessario lo studio di un approccio di misurazione del tasso di attualizzazione più ragionevole rispetto all’approccio del risk free rate e del contractual loan rate che definisca un valore all’interno di questi due estremi. I problemi legati all’identificazione di alcuni parametri rilevanti per la stima del tasso di attualizzazione e la scarsa significatività degli indici sul mercato dei distressed bonds per la valutazione del rischio dei singoli processi di recupero (Carey e Gordy, 2005), possono rendere l’approccio monofattoriale non adeguato e creare i presupposti per lo sviluppo di modelli di valutazione più complessi ma meno approssimativi, vale a dire i modelli plurifattoriali. Assumendo come valore finanziario del tempo il rendimento derivante dall’investimento del capitale al tasso risk free, lo sviluppo di un approccio multifattoriale è subordinato alla preventiva individuazione delle variabili che influiscono sul rischio dell’attività di recupero; in base all’analisi della letteratura disponibile, i fattori che influenzano la LGD possono essere classificati in quattro macrocategorie: − caratteristiche del debitore;

− aspetti relativi al rapporto7;

− elementi distintivi del contratto;

− fattori macroeconomici. La costruzione di un modello multi-fattoriale che consideri fattori rilevanti per la determinazione dell’efficacia del processo di recupero permetterebbe di ottenere stime della LGD scarsamente variabili per segmenti di clientela e/o di contratti omogenei e, di conseguenza, potenzialmente più utili per determinare il rischio futuro di un determinato portafoglio clienti dell’intermediario. L’efficacia di tale soluzione per ridurre la variabilità delle stime può essere dimostrata matematicamente considerando la formula per il calcolo della LGD (Riquadro 1). Riquadro 1- La relazione tra tasso di attualizzazione e variabilità della LGD

40

Entrando nel dettaglio delle macrocategorie individuate attraverso l’analisi della letteratura ed escludendo tutti gli aspetti relativi al debitore, alla tipologia del contratto e alla presenza di garanzie reali e/o personali (Araten M. et al., 2004), si possono identificare come variabili rilevanti del rischio del recupero (banca d’Italia, 2001): − il settore industriale di riferimento del debitore;

41

− il foro competente per il processo di recupero;

− la tipologia di azione di recupero avviata.

Le perdite in caso di insolvenza del cliente sono legate all’andamento generale dell’economia e studi presentati in letteratura hanno dimostrato che in fasi espansive (recessive) dell’economia il processo del recupero risulta, a parità di altre condizioni, più (meno) efficace (Altman et al., 2004). L’impatto del ciclo economico non è tuttavia indipendente dal settore di appartenenza del debitore e, per alcuni settori di attività, è possibile evidenziare differenze strutturali nell’efficacia dei processi di recupero10. La rilevanza del settore di appartenenza del cliente è stata indagata verificando se le dinamiche di una proxy della LGD, stimata per il paese Italia, siano differenti a seconda del settore considerato e se tali differenze possano o meno giustificare una correzione nel tasso utilizzato per il calcolo del valore attuale dei flussi del recupero (Tabella 1). Tabella 1 - Statistiche descrittive della LGD per le branche di attività economica (1999-2003)

42

Fonte: Elaborazione degli autori su dati Banca d’Italia Il confronto tra il valore medio per l’aggregato Italia e il valore relativo ai singoli settori evidenzia significative differenze nella misura della LGD che permettono di ipotizzare una relazione tra settore di attività del debitore e efficacia del processo di recupero12. L’analisi della variabilità del fenomeno negli anni considerati evidenzia chiaramente un differente grado di aleatorietà del processo di recupero a seconda del settore di attività considerato. Venendo al foro competente, le analisi empiriche proposte in letteratura hanno evidenziato anche per la realtà italiana la presenza di una relazione tra la localizzazione geografica del foro e l’efficacia del processo. Si veda tra gli altri Frye (2000). Sulla metodologia per la determinazione della proxy, si veda Gibilaro e Mattarocci (2006). Si veda Carthy et al. (1998) e Warner (1977). Tale evidenza è confermata dall’analisi condotta attraverso i dati disponibili e diffusi dall’ISTAT (Tabella 2). Tabella 2 - Incidenza costi dell’attività di recupero e durata del processo per area geografica (1999-2003)

43

Fonte: elaborazione degli autori su dati ISTAT L’analisi del rapporto tra costi ed esposizione iniziale per le singole regioni evidenzia differenze significative nella convenienza di avviare il processo del recupero a seconda del foro competente: lo studio della variabilità del rapporto costi/esposizione permette di evidenziare per alcune regioni (Trentino Alto Adige e Toscana) e per alcune province (Bolzano e Trento) una variabilità del fenomeno significativamente superiore rispetto al resto dell’Italia. L’analisi dei dati ISTAT sui processi amministrativi svolti in Italia permette di evidenziare, inoltre, la presenza di significative differenze nelle singole regioni che potrebbero influenzare l’efficacia del processo di recupero essendo la variabilità della durata del processo di recupero per alcune regioni superiore all’anno (fino all’estremo di 982 giorni per la Valle d’Aosta). L’efficacia del processo di recupero non può essere ritenuta indipendente dalla tipologia di azione di recupero essendo la durata media dei processi di recupero significativamente differente in funzione della tipologia di canali attivati e delle attività potenzialmente oggetto di escussione da parte dei creditori (Tabella 3). Tabella 3 - Durata media dei diversi processi di recupero (numero di giorni)

44

Fonte: Elaborazione degli autori su dati ISTAT La scelta adottata nella tipologia di recupero evidenzia significative differenze soprattutto tra le operazioni giudiziali e stragiudiziali: ad

45

evidenza, il concordato stragiudiziale rappresenta la soluzione che può permettere di ridurre al minimo la durata del processo ma espone ad un rischio significativo che le attese sulla durata si discostino significativamente dalla durata effettiva mentre le procedure che prevedono la liquidazione dell’attivo o la chiusura per insufficienza dell’attivo risultano essere le soluzioni che solitamente hanno una durata prossima al valore medio stimato. 4. L’impatto del tasso di attualizzazione sulla variabilità della LGD 4.1 Il campione Il campione considerato è un database interno di un intermediario italiano che si posiziona, per i propri segmenti di attività, tra i primi dieci operatori del settore ed appartiene ad uno dei gruppi bancari più importati del Nord Italia. Le operazioni considerate sono tutti i finanziamenti entrati in default a partire dal 1984 e per i quali il processo del recupero risulta concluso entro il 2005 (il numero complessivo delle operazioni è pari circa 950). I dati raccolti sono relativi a finanziamenti concessi soltanto a controparti italiane diversificate per regione di appartenenza, settore di attività economica e durata del rapporto tra debitore e intermediario, come evidenziato dall’analisi delle statistiche descrittive del campione. (Figura 1) Figura 1 – La classificazione delle operazioni di finanziamento analizzate

Fonte: Elaborazione degli autori su dati del database proprietario I dati disponibili sono relativi a tutti gli aspetti del processo del recupero (esposizione al momento del default, tipologia di attività di recupero avviate,

46

flussi in entrata e in uscita legati al processo del recupero, foro competente) e alcune caratteristiche del rapporto sottostante il recupero che possono risultare rilevanti nel segmentare il portafoglio clienti (caratteristiche del contratto, caratteristiche del cliente, caratteristiche del garante e della garanzia se presenti). 4.2 La metodologia di analisi L’analisi proposta considera diverse possibili specificazioni del tasso di attualizzazione della LGD e verifica l’impatto delle singole scelte sulla variabilità della stima della LGD. Nel dettaglio le formule considerate per la stima della LGD nella stima sono:

Alla luce delle indicazioni normative e delle best practices, la validità del modello di stima della LGD viene verificata considerando la capacità di ottenere stime coerenti e poco variabili nel tempo al livello sia del portafoglio complessivo sia di segmenti di clientela omogenei. Alla luce delle indicazioni di Banca d’Italia (Banca d’Italia, 2006), sono identificati i seguenti fattori di segmentazione: 1. le caratteristiche delle transazioni; 2. i profili caratterizzanti del debitore;

47

3. la struttura organizzativa e forma giuridica del cliente. La validità e l’efficacia dei diversi approcci della stima per la LGD sono state di conseguenza verificate considerando, oltre ai risultati ottenuti sul portafoglio aggregato, anche le implicazioni che tali scelte determinano sui segmenti di portafoglio con caratteristiche omogenee. Il database considerato ha permesso di valorizzare i tre elementi caratterizzanti la LGD, indicati da Banca d’Italia a proposito dei requisiti per la stima del fattore di rischio, utilizzando, in alcuni casi, variabili differenti per la costruzione dei segmenti di clientela omogenei (Riquadro 2). Riquadro 2 – Le segmentazione del portafoglio sulla base delle indicazioni Banca d’Italia e dei dati disponibili nel database

Criterio di segmentazione Variabili disponibili nel database Specificazione variabili

Forma tecnica

Distinzione in due macrocategorie di contratti in funzione del rischio assunto in base alle specifiche del contratto

Caratteristiche delle transazioni Classificazione in 4 portafogli sulla base dei quartili della distribuzione dell’EAD

Ammontare esposizione

Presenza garanzie Garanzia reale Garanzia personale

Profili caratterizzanti debitore

Residenza Nord-Est Nord-

Ovest Centro Sud

Settore

Pubblica Amministrazione Società Finanziare Società non Finanziarie Privati

Struttura organizzativa Forma giuridica Società di persone Società di capitali

4.3 I risultati L’analisi delle differenze esistenti tra le statistiche descrittive delle LGD calcolate con i diversi tassi di attualizzazione permette di evidenziare le implicazioni sul livello e la variabilità della LGD. (Tabella 4) Tabella 4 – L’impatto del tasso di attualizzazione sulla LGD stimata per l‘intero campione

48

Fonte: Elaborazione degli autori su dati del database proprietario Le stime della LGD più variabili sono ottenute utilizzando tassi di attualizzazione non dipendenti dalle caratteristiche del contratto (tasso risk free e tasso monofattoriale calcolato utilizzando l’andamento generale dell’economia) e i livelli minimi di variabilità del valore stimato della LGD si riescono ad ottenere utilizzando come tasso di attualizzazione il tasso contrattuale o un modello multifattoriale funzione di alcune caratteristiche specifiche del rapporto. La scelta del modello multifattoriale risulta preferibile perché permette di ottenere una distribuzione della LGD meno distorta in termini di grado di curtosi e di asimmetria e, di conseguenza, considerabile nell’ambito della determinazione del requisito patrimoniale non soltanto in modo deterministico10 ma anche in modo stocastico11. L’analisi dei diversi portafogli costruiti utilizzando i criteri di segmentazione presentati nel precedente paragrafo evidenzia risultati che supportano la tesi dell’esigenza di selezionare un tasso multifattoriale per avere delle stime della LDG idonee ad essere utilizzati a fini previsionali. (Tabella 5) Tabella 5 – L’impatto del tasso di attualizzazione sulla LGD stimata per i diversi segmenti di portafoglio

10 Basel Committee on Banking Supervision (2006), par. 272. 11 Per i vantaggi dei modelli stocastici rispetto ai modelli deterministici nella stima della LGD, si veda Basel Committee on Banking Supervision (2005a).

49

Fonte: Elaborazione degli autori su dati del database proprietario L’analisi dei portafogli costruiti sulla base dell’area geografica, dell’esposizione e della natura delle garanzie evidenzia, infatti, risultati coerenti con lo studio condotto sul portafoglio complessivo, mostrando una deviazione standard minore per le LGD stimate con il modello multifattoriale. I portafogli costruiti sulla base dei settori economici evidenziano solo per alcuni segmenti di clientela (Pubbli- ca Ammistrazione e Privati) una riduzione della variabilità della LGD nel caso di adozione di modelli multifattoriali per l’attualizzazione dei flussi del recupero. I portafogli costruiti sulla base della forma giuridica e sulla base della forma tecnica presentano caratteristiche in

50

termini di variabilità della LGD non coerenti con i risultati ottenuti a livello aggregato. Tale risultato può, tuttavia, essere in parte collegato all’impossibilità definire criteri di segmentazione del portafoglio più dettagliati che permettano di valorizzare in modo più dettagliato i profili relativi alla struttura organizzativa e alla tipologia di contratto sottoscritto.

5. Conclusioni La letteratura disponibile pone particolare attenzione alla variabilità della LGD rispetto al ciclo economico: l’analisi svolta ha evidenziato che la selezione del tasso di attualizzazione nella prevalenza delle verifiche empiriche disponibili non è, però, coerente con le proprietà riscontrate. Gli approcci rilevabili in letteratura sono raggruppabili nelle categorie del tasso contrattuale, del tasso risk free e del tasso basato su un modello ad indice singolo. Attraverso un’analisi di sistema, il lavoro ha dimostrato come l’assunzione di utilizzare il tasso risk free per l’attualizzazione dei flussi di cassa sottovaluti eccessivamente il rischio del processo di recupero mentre il tasso contrattuale non rappresenta una misura corretta soprattutto per processi di recupero lunghi o relativi a posizioni aperte in periodi non recenti. Al manifestarsi dell’evento del default, il rischio dell’operazione cambia significativamente poiché i flussi in entrata non sono più generati dal rapporto contrattuale bensì dal processo del recupero: il tasso contrattuale non può, quindi, essere considerato coerente con il nuovo scenario. Tra gli approcci corretti per il rischio potenzialmente adottabili anche alla luce delle indicazioni presenti nel Nuovo Accordo, l’approccio monofattoriale potrebbe risultare inefficace a causa della possibile influenza dei fattori idiosincratici ulteriori rispetto al ciclo economico; un approccio plurifattoriale, una volta identificata la relazione funzionale fra le variabili e verificata la relazione ipotizzata su un campione sufficientemente ampio, risulta potenzialmente in grado di ottenere migliori risultati. I fattori specifici rivelanti per lo studio della variabilità del processo del recupero sono stati individuati nel settore di appartenenza del debitore, il foro competente e la tipologia dell’azione del recupero. L’applicazione di tale approccio ad un campione di operazioni relative al mercato italiano ha mostrato la validità di tale metodologia, evidenziando una significativa riduzione della variabilità della stima rispetto agli approcci proposti in letteratura al livello sia della base dati nel suo complesso sia di segmenti omogenei di clientela.

* * * Bibliografia

51

ACHARYA V.V., BHARATH S.T. e SRINIVASAN A. (2005), Does industry-wide distress affect defaulted firms? Evidence from creditor recoveries, London Business School working paper, Londra ALTMAN E.I., BRADY B., RESTI A. e SIRONI A. (2002), The link between default and recovery rates: implication for credit risk models and procyclicality, BIS working paper, New York ALTMAN E.I., RESTI A. e SIRONI A. (2004), “Default recovery rates in credit risk modelling: a review of literature and empirical evidence”, Economic Notes, vol. 33, pp. 183-208, Siena ALTMAN E.I. e KISHORE V.M. (1996), “Almost everything you wanted to know about recoveries on defaulted bonds”, Financial Analyst Journal, vol. 52, pp. 57-64, Charlottesville ARATEN M., JACOBS J.J. e VARSHNEY P. (2004), “Measuring LGD on commercial loans: an 18-year internal study”, RMA Journal, Maggio, pp. 28-35, New York ARNABOLDI F. e SAITA F. (2005), “Le implicazioni degli IAS-IFRS per il credit risk management nelle banche”, in MAZZEO R., PALOMBINI E. e ZORZOLI S. (2005), IAS-IFRS e imprese bancarie, Bancaria Editrice, Roma ASARNOW E. e EDWARDS D. (1995), “Measuring loss on defaulted bank loans: a 24-year study”, Journal of Commercial Lending, Vol. 77, pp. 11-23, Philadelphia BANCA D’ITALIA (2001), “Questionario sul recupero crediti: principali risultati”, Bollettino di vigilanza, n.12, dicembre BANCA D’ITALIA (2006), Nuove disposizioni di vigilanza prudenziale per le banche, Circolare n. 263, dicembre. BASEL COMMITTEE ON BAKING SUPERVISION (2005a), An explanatory note on the Basel II IRB risk weight function, Basilea, Luglio BASEL COMMITTEE ON BANKING SUPERVISION (2005b), Guidance on paragraph 468 of the framework document, luglio, Basilea

52

BASEL COMMITTEE ON BANKING SUPERVISION (2005c), Studies on the validation of internal rating systems, BIS working paper n.14, maggio Basilea BASEL COMMITTEE ON BANKING SUPERVISION (2006), International convergence of capital measurement and capital standards. A revised framework, giugno, Basilea BERGER A.N. e UNDELL G.F. (1995), “Relationship lending and line of credit in small firm finance”, Journal of Business, Vol. 61, pp. 351-381, Chicago CAREY M. e GORDY M. (2005), Unrecovering recoveries, Board of Governors of the Federal Reserve System mimeo, Washington CARTHY L.V., HAMILTON D.T., KEENAN S.C., MOSS A., MULVANEY M., MARSHELLA T. e SUBHAS M.G. (1998), Bankrupt bank loan recoveries, Moody’s Investor Service special report, New York CARTY L.V e LIEBERMAN D. (1996), Default bank loan recoveries, Moody’s Investors Service Special Report, New York DALLOCCHIO M. e SALVI F. (2004), Finanza d’azienda, Egea, Milano. DAMODARAN A. (1996), Manuale di valutazione finanziaria, McGraw Hill, Milano DAMODARAN A. (1999), Estimating risk free rates, Stern School of Business working paper, New York. DAVYDENKO S.A. e FRANKS J.R. (2004), Do bankruptcy codes matter? A study of defaults in France, Germany and UK, London Business School working paper, Londra DE LAURENTIS G. e RIANI M. (2005), “Estimating LGD in leasing industry: empirical evidence from multivariate model” in ALTMAN E., RESTI A. e SIRONI A. (2005), Recovery risk. The next challenge in credit risk management, Risk books, Londra EBERHART A. C., MOORE W.T. e ROENFELDT R.L. (1990), “Security pricing and deviations from the absolute priority rule in bankruptcy proceedings”, Journal of Finance, vol. 45, pp. 1457-1469, Philadelphia

53

FARACI F. (2005), “Le implicazioni degli IAS-IFRS per le politiche di bilancio delle banche”, in MAZZEO R., PALOMBINI E. e ZORZOLI S. (2005), IAS-IFRS e imprese bancarie, Bancaria Editrice, Roma FRYE J. (2000), “Collateral damage”, Risk, vol. 13, pp. 28-29, Londra FRYE J. (2000a), Depressing recoveries, Federal Reserve Bank of Chicago working paper, Chicago GAZZETTA UFFICIALE DELL’UNIONE EUROPEA (2004), Regolamento (CE) n.2086/2004, L 363/1 del 19 dicembre, paragrafo 9 dell’allegato GIBILARO L. e MATTAROCCI G. (2006), La selezione del tasso di attualizzazione nella stima della loss given default, Newfin working paper, n. 6, Milano GRUNERT J. e WEBER M. (2005), Recovery rates of bank loans: empirical evidence from Germany, University of Mannheim working paper, Finanzwirtschaft, Bankbetriebslehre HAMILTON D.T. e CARTHY L.V. (1999), Debt recoveries for corporate bankruptcies, Moody’s Investors Service Special Comment, New York INTERNATIONAL ACCOUNTING STANDARDS COMMITTEE (2003), International accounting standard 39. Financial instruments: recognition and management, dicembre, Londra IZVORSKY I. (1997), Recovery ratios and survival times for corporate bonds, IMF working paper, New York LONGHOFER S.D. e SANTOS J.A.C. (1999), The importance of bank seniority for relationship lending, Federal Reserve Bank of Cleveland working paper, Cleveland MACLACHLAN I. (2004), Choosing discount factor for estimating economic LGD, Australia and New Zealand Banking Group Limited research paper, Melbourne SAITA F. (2006), “Il capital asset pricing model” in FABRIZI P.L.(a cura di), L’economia del mercato mobiliare, Egea, Milano SCHUERMANN T. (2001), What we know about loss given default, Wharton University working paper, Philadelphia

54

SCHUERMANN T. (2004), What do we know about loss given default, Wharton University working paper, Pennsylvania SHARPE W. F. (1964), “Capital asset prices: a theory of market equilibrium under conditions of risk”, Journal of Finance, vol. 19, 425-442, Philadelphia SINGH M. (2003), Recovery rates from distressed debt - empirical evidence from chapter 11filings, international litigation, and recent sovereign debt restructurings, IMF working paper, Washington. SIRONI A. (2005) (a cura di), Rischio e valore nelle banche, Egea, Milano TRUCK S., HARPAINTER S. e RACHEV S.T. (2005), A note on forecasting aggregate recovery rates with macroeconomic variables, University of Karlsruhe working paper, Karlsruhe VAN DE CASTLE K. e KEISMAN D. (1999), “Recovering your money: insights into losses from defaults”, Standard & Poor’s Credit Week, Giugno, New York WARNER J.B. (1977), “Bankruptcy costs: some evidence”, Journal of Finance, vol. 32, pp. 337-347, Philadelphia

55