Financial Crises and Systemic Risk: the Role of

Transcrição

Financial Crises and Systemic Risk: the Role of
Financial Crises and Systemic Risk:
the Role of Risk Management
Gabriele Sabato
Nº 88
August 2014
Modeling Dependence for
Operational Risk
Débora Delbem Gonçalves
Guaraci Requena
Carlos Diniz
24
Deposits Multiplier or
Loans Multiplier?
João Ricardo M. G. Costa Filho
37
Recovery Risk: Application of the
Latent Competing Risks Model
to Bad Credits
Mauro R. Oliveira
Francisco Louzada
41
Positive
Prepare sua empresa para extrair o máximo de benefícios

Saiba como explorar todo o
potencial dessa nova realidade

Conceda mais crédito com
menos riscos


Aperfeiçoe sua gestão de clientes

Minimize prejuízos causados
por fraudes e inadimplência
dos dados positivos com a ajuda da Serasa Experian.
Positive-se! Contrate agora mesmo a Consultoria Serasa
Experian em Cadastro Positivo e rentabilize suas decisões
de negócios.
Para saber mais, acesse
serasaexperian.com.br/cadastropositivo
ou ligue para 0800 773 7728
Aumente o retorno das suas
ações de cobrança
+
++
3
06
Financial Crises and Systemic Risk:
the Role of Risk Management
Gabriele Sabato
The article analyzes financial crisis and systemic risk
literature and history, and discusses how to prevent
and avoid the problem. It addresses how financial
institutions may act to mitigate the impact of these
troublesome situations and help governments alleviate
the impact of future financial crises.
24
Modeling Dependence for Operational Risk
Débora Delbem Gonçalves
Guaraci Requena
Carlos Diniz
A new method for calculating the regulatory capital
intended to protect against operational risk, is
proposed in this article. The method is bivariate
(considers the dependence between two risk classes),
based on important capital-allocation assumptions,
and involves modeling the dependence across a
financial institution’s risk classes, enabling more
realistic regulatory capital calculations.
37
Deposits Multiplier or Loans Multiplier?
João Ricardo M. G. Costa Filho
This article finds that money multiplication occurs
not after an increase in the volume of deposits, but
rather by means of credit. This realization is supported
with the article’s econometric estimations and very
important for the purposes of monetary policy analysis
and conduction, suggesting the possibility of enabling
the marketplace to more freely allocate funds.
44
Recovery Risk:
Application of the Latent Competing
Risks Model to Bad Credits
Mauro R. Oliveira
Francisco Louzada
The study proposes a method for measuring
the risks involved in the process of recovering
late loans granted by financial institutions and/
or business firms involved in the collection and
recovery processes. It applies the competing risks
model referred to in the literature as the promotion
time model to arrive at the probability of recovery of
credits in a portfolio segmented into groups.
4
From the Editor
Gabriele Sabato, an experienced
risk-management practitioner who has
been working and doing research in this
field for more than 12 years, gives us an
important article on risk management.
Sabato, who holds a Doctor’s decree in
Finance from the University of Rome “La
Sapienza”, examines past financial crises and factors that may alleviate the impact of such crises over the economy in
the future. He argues that regulation is a
key element to reduce systemic risk but,
in order to achieve the expected benefits,
risk management and control at financial
institutions must be improved in parallel.
That is, financial institutions have an opportunity to draw a competitive advantage from their risk-management capabilities, in order to achieve sustainable profitability growth in the future. Sabato argues that a growing recognition exists
that the changes mean that risk management at the better-performing organization is more closely associated with
strategic planning. This management is
done proactively, while considering how
these capabilities may help business firms more quickly enter new markets or explore new growth strategies. When properly implemented, risk management is a
matter of balancing a company’s appetite
for risk and its ability to manage risk. According to Gabriele Sabato, this is a great opportunity for risk management to finally find its leading role in the shifting financial culture and to help governments
and regulators mitigate the impact of the
next financial crises.
Operational risk is the subject of a
timely article by Masters of Statistics Débora Delbem Gonçalves Guaraci Requena and Carlos Diniz. The study is important because, in addition to addressing
operational risk and some of the guidelines provided in Basel II, it also provides
a new method for calculating the regulatory capital intended to protect against
this risk. The focus of the paper lies on
Basel II’s first pillar, that is, it emphasizes
the calculation of the capital that financial institutions must allocate with their
respective regulators in order to protect
against operational risk. Financial institutions have recently begun to concern
themselves with calculation of this capital, as proposed by the Basel Committee in 2004. According to the authors,
the Committee suggested a calculation
method that overestimates the final capital allocated, based on the incorrect
assumption of perfect positive dependence among all risk classes. The study
presented here, which includes the new
methodology, considers the dependence between two risk classes and is based on important capital-allocation assumptions. It involves modeling dependence across a financial institution’s risk
classes, enabling more realistic regulatory capital allocation. It further provides
a comparison between the method provided by the Basel Committee and the
one proposed in this study. Finally, the
paper carries out a theoretical study of
both methods, with the loss probability
distributions of both methods, using the
Gaussian copula.
.
MsCs Francisco Louzada and
Mauro Ribeiro de Oliveira Júnior offer an
article on credit recovery. According to
them, the combined application of statistical resources to the recovery process
enables financial institutions and business firms involved with collection and
recovery processes to maximize their
efforts, that is, minimize losses and reduce costs. The two professors apply
the competitive risks model referred to
in the literature as the promotion time
model to obtain the probability of reco-
5
very of the credits in the portfolio, segmented by groups according to the information
available. They specify the Poisson distribution for the number of latent causes leading to recovery, as well as the Weibull distribution for recovery times. Estimation of
the model’s parameters relied on the maximum likelihood method. The results obtained then enabled comparing groups of defaulters in terms of risk, or susceptibility to
the recovery event, over the duration of the
recovery process, indicating where collection actions might be most effective. This
enables structuring a collection policy,
making for a more economical process.
In his article, João Ricardo M. G.
Costa Filho, an associated at Pezco Microanalysis and a Graduate Program Professor
at FIA and Fipe, questions whether banks
are deposits or loans multipliers. The Professor agrees with the claim that banks
have the ability to create currency. Not, however, based on the deposits they receive,
but on the loans they grant. Banks do mul-
tiply funds passively, but do do in an active
and complex manner through credit. According to the author, there are in Brazil indications that multiplication occurs when the
credit comes from non-earmarked funds,
whereas it does not appear to happen after
an increase in credit from earmarked funds. Costa Filho writes that several problems
exist with the dynamics of money multiplier
theory, which assumes that a bank, upon
receiving a deposit, may use part of the funds (depending on the reserve-banking rate)
as credit that will be deposited into a different account, thereby multiplying money.
Firstly, from the aggregate viewpoint, there
may be little or no change, as a deposit one
actor makes reduces the deposits other actors might make, as it becomes savings instead of financing consumption. In addition,
“simple multiplication” casts banks in a passive intermediating role. From the viewpoint
of monetary policy, it is relevant to not only
understand the distinction, but to change
the analysis of how monetary policy is transmitted via the credit channel.
CREDIT TECHNOLOGY
YEAR XIII
Trimonthly published by Serasa Experian
Nº 88
ISSN 2177-6032
President - Brazil
Desktop Publishing
José Luiz Rossi
Gerson Lezak
Business Units Presidents/Superintendents
Illustration
Juliana Azuma, Marcelo Kekligian, Júlio Leandro,
Gerson Lezak
Mariana Pinheiro and Steven Wagner
Translation
Directors
Allan Hastings
Amador Rodriguez, Guilherme Cavalieri, Lisias Lauretti,
Correspondência
Paulo Melo, Silvânio Covas and Valdemir Bertolo
Serasa Experian - Comunicação & Branding
Responsible Editor
Alameda dos Quinimuras, 187 - CEP 04068-900 - São Paulo - SP
Rosina I. M. D’Angina (MTb 8251)
www.serasaexperian.com.br
Assistant Editor
[email protected]
Nancy Galvão
The concepts issued in the signed articles are the responsibility
Graphic Design
of the authors, which do not necessarily express the point of view
Luis Barbuda
of Serasa Experian and the Editorial Council.
Cover
Total or partial reproduction of the articles hereby published
Gerson Lezak
is strictly forbidden.
6
Crises Financeiras e
Risco Sistêmico:
o Papel da Gestão de Risco
Gabriele Sabato
7
Sumário
Os temas debatidos neste artigo partem da experiência
com crises financeiras passadas para determinar os fatores que
podem ajudar a atenuar seu impacto sobre a economia no futuro.
Grande parte do trabalho já foi realizada e, em muitos casos, na direção certa, mas uma nova era acaba de começar. A regulamentação é identificada como um elemento-chave para reduzir o risco sistêmico, mas, para atingir os benefícios esperados, será necessário desenvolver em paralelo o aprimoramento da gestão e do
controle do risco nas instituições financeiras.
Palavras-chave: Crises Financeiras, Risco Sistêmico,
Momento Minsky, Gestão de Risco.
Introdução
As crises têm sido fenômenos recorrentes nos mercados financeiros e, assim,
este artigo analisa a literatura e a história das
crises financeiras e do risco sistêmico, para
em seguida, abordar a questão de serem as
crises evitáveis e previsíveis, com foco específico na maneira como as instituições financeiras podem atenuar seu impacto.
A estrutura de uma crise pode ser
dividida em duas fases: uma fase de formação, em que surgem bolhas e desequilíbrios,
e uma fase de crise, durante a qual o risco
acumulado se materializa e a crise irrompe.
Durante a fase de formação, os mercados
experimentam bolhas de preços de ativos e
surgem desequilíbrios. Esses desequilíbrios
costumam acumular-se lentamente no segundo plano e a volatilidade tende a ser baixa. No começo, os desequilíbrios que acabam por levar a uma crise financeira são, frequentemente, de difícil detecção. Por exemplo, no começo, um boom dos preços dos
ativos pode ser muitas vezes racionalizado
como alguma forma de inovação. Tal inovação pode ser uma mudança tecnológica (ferrovias, telégrafo, Internet), uma liberalização
financeira (remoção da Regulation Q, que impedia os bancos dos EUA de pagar juros sobre depósitos à vista), ou uma inovação financeira (securitização). Contudo, à medida que
a bolha ganha ímpeto, os agentes do mercado percebem que as melhorias fundamentais que poderiam ter justificado um aumento inicial dos preços dos ativos são incapazes
de acompanhar as valorizações constantes e
crescentes.
A fase de formação muitas vezes
distorce os incentivos a que estão sujeitos os
agentes econômicos. Essas distorções podem ser consequência do comportamento
racional, ou podem ser causadas por alterações comportamentais das crenças. Distorções racionais ocorrem quando os agentes
econômicos reagem racionalmente aos incentivos que encontram durante a fase de
formação. Entre elas estão os problemas de
8
risco moral decorrentes da expectativa de
resgates ou de políticas adotadas. Também
incluem a alavancagem e o investimento excessivo resultantes de possíveis externalidades de venda urgente (fire sale). Essas externalidades podem surgir quando as pessoas
físicas ou empresas percebem quedas dos
preços dos ativos em seu processo de tomada de decisão, sem internalizar o fato de que
é a decisão coletiva de investimento que determina o tamanho do crash.
As distorções de crenças se dão
porque podem não haver dados suficientes para estabelecer a formação de uma bolha. Por exemplo, na falta de uma queda prévia em âmbito nacional dos preços nominais
dos imóveis residenciais, os agentes podem
prever que os preços das causas não irão
cair (ou cairão apenas marginalmente) no futuro. Alternativamente, distorções de crença
podem se basear na impressão de que “desta vez vai ser diferente”. Embora o boom observado dos preços dos ativos possa divergir
dos dados históricos, os agentes podem optar por ignorar esse padrão, argumentando
que, desta feita, algo é fundamentalmente diferente. Ou seja, que os sinais de alerta fornecidos pela história não se aplicam.
O terreno mais fértil para a fase de
formação é um ambiente de baixa volatilidade. Normalmente, em tempos assim, é fácil
obter financiamento. Os especuladores conseguem se alavancar, reduzindo o diferencial de retorno entre títulos arriscados e os de
menor risco. A alavancagem e o desencaixe de vencimentos resultantes podem ser excessivos porque cada especulador individual deixa de internalizar as externalidades que
causa no sistema financeiro. Brunnermeier e
Oehmke (2012) afirmam que a estabilidade financeira é um bem público. Como todos se
beneficiam com isso, traders individuais po-
dem estar sujeitos a incentivos insuficientes
para contribuir com a estabilidade financeira e é por isso que regulamentação e controle severos são necessários.
Depois do acúmulo gradual de
uma bolha e dos desequilíbrios a ela associados, a fase de crise começa quando
algum acontecimento a faz estourar. Essa
transição súbita é às vezes chamada de
“momento Minsky” (Minsky, 1992). O Momento Minsky pode surgir muito depois
que os agentes do mercado estejam cientes, ou pelo menos suspeitem, do desenvolvimento de uma bolha. De modo geral,
o maior problema não é a correção de preços em si, mas o fato de que a correção necessária muitas vezes acontece tarde demais, ou seja, depois de grandes aumentos do risco e do surgimento de graves desequilíbrios. O evento catalizador da crise
não precisa ser algo de grande importância econômica. Mas, por causa dos efeitos de amplificação, até mesmo pequenos
eventos podem levar a grandes crises financeiras e recessões.
Durante a fase de crise, os mecanismos de amplificação representam um papel
central. Esse mecanismo ao mesmo tempo
aumenta a magnitude da correção da parte da economia afetada pela bolha e espalha seus efeitos para outras áreas da economia. Os mecanismos de amplificação surgidos durante as crises financeiras podem ser
diretos (causados por elos contratuais) ou indiretos (causados por spillovers ou externalidades devidas a exposições compartilhadas
ou à reação endógena dos diversos agentes
do mercado). As amplificações podem ser diferenciadas com base em ter ou não o crédito alimentado os desequilíbrios formados durante a fase de formação (ou de bolha). O estouro de bolhas de crédito leva a uma maior
9
desalavancagem e mecanismos de amplificação mais fortes.
Embora as crises financeiras muitas
vezes irrompam subitamente, a recuperação
frequentemente leva muito tempo. Esse padrão ocorre porque o choque negativo causado pelo estouro da bolha leva a efeitos adversos persistentes e a recessões profundas
e duradouras. Mesmo depois das reações
políticas, como uma recapitalização do sistema bancário, a recuperação normalmente é
lenta porque os balanços dos demais agentes ainda podem estar comprometidos.
Como veremos adiante, na seção
sobre o risco sistêmico, uma grande fonte de crises está em más estruturas reguladoras, baseadas na crença de que podemos confiar nos bancos para que se autorregulem. Os reguladores de todo o mundo
precisam monitorar de maneira eficiente
e consistente as funções de gestão de risco da maioria das instituições financeiras,
para garantir que estejam aplicando métodos e ferramentas apropriados de minimização de risco. Ao mesmo tempo, a gestão
de risco da maioria das instituições bancárias precisa certificar-se de que as regras
básicas de segurança nos negócios estejam sendo seguidas (como, por exemplo,
evitar fortes concentrações e minimizar a
volatilidade dos retornos).
A segunda parte deste artigo irá discutir e analisar os principais motivos que levaram ao fracasso da gestão de risco durante a mais recente crise, com o objetivo de sugerir como essas falhas podem ser solucionadas ou amenizadas no futuro para garantir
um sistema financeiro mais sólido do que o
atual. Mais especificamente, o artigo explora temas como a ausência de uma estratégia
definida de alocação de capital e estruturas
inadequadas de governança de risco.
Desastres Financeiros e
Risco Sistêmico
A literatura a respeito de desastres
financeiros e risco sistêmico cresceu enormemente durante a década passada. A crise
financeira de 2007-2008 reavivou o interesse
na compreensão de como as bolhas de preços de ativos e os desequilíbrios se formam
e posteriormente irrompem em crises nas
quais as flutuações de moeda e crédito podem representar um papel crucial na amplificação e propagação do choque. Dados os
substanciais custos sociais dessas crises,
as autoridades reguladoras e supervisoras
de todo o mundo deslocaram seu foco para
o desenvolvimento de medidas de risco sistêmico que possam fornecer sinais de alerta
antecipado aos formadores de políticas.
Uma Breve História dos
Desastres Financeiros
Historicamente, bolhas, crashes e
desastres financeiros ocorrem com surpreendente regularidade. Muitos autores fornecem maiores detalhes sobre esses casos, entre eles Kindleberger (1978); Shiller (2000), Allen e Gale (2007) e Reinhart e Rogoff (2009).
Embora cada boom e cada crise tenham peculiaridades próprias, surgem diversos temas recorrentes e padrões comuns.
Mais especificamente, um período de boom
dos preços dos ativos geralmente é seguido
de um crash. Esse crash costuma ativar diversos mecanismos de amplificação que frequentemente levam a grandes reduções da
atividade econômica que podem ser abruptas e persistentes.
Talvez os mais bem documentados
casos antigos de bolhas de preços de ativos e de crises subsequentes sejam a mania das tulipas, na Holanda (1634-1637), a
bolha do Mississippi (1719-1720) e a bolha
10
da South Sea (1720). Cada um desses casos envolveu elevações espetaculares dos
preços de determinados ativos (das tulipas, das ações da Mississippi Company e
das ações da South Sea Company, respectivamente), seguidas de súbitas quedas
dos mesmos preços (Neal, 1990, 2012; Garber, 2000).
Quando as bolhas são alimentadas
por crédito, seu mecanismo de amplificação
é muito mais forte e a fase de desalavancagem tende a afetar mais a economia como
um todo, se comparadas às bolhas não ligadas ao crédito. Isso se deve ao fato de que o
setor bancário também é atingido. Durante
o século XIX, o crédito alimentou os primeiros exemplos de crises que levaram a graves
repercussões nos sistemas bancários. Mais
especificamente, grandes crises bancárias
aconteceram em 1837 e 1857 nos EUA antes
da criação de um sistema bancário nacional
em 1863-1865. Depois de sua criação, pânicos bancários ainda aconteceram sob diversas formas em 1873, 1884, 1893, 1907 e 1914.
Muitas dessas crises foram precedidas, antes da Guerra Civil Americana, por bolhas
dos preços de terras e, depois delas, por bolhas de letras ferroviárias. Quando os bancos
reduziram os empréstimos marginais, ocorreram grandes reduções da atividade real (Allen e Gale, 2007). O pânico de 1907 acabou
por levar à criação, em 1914, do Federal Reserve System.
Durante a década de 1920, os Estados Unidos passaram por um forte boom do
mercado de ações, principalmente de 1927
até 1929, seguido do famoso crash da bolsa
de 1929 e da Grande Depressão. Embora o
boom dos preços dos imóveis dos anos 1920
muitas vezes receba menor ênfase em análises das principais causas da Grande Depressão, uma semelhança em termos de magni-
tude se verifica no ciclo de boom-and-bust
dos preços dos imóveis associado à crise financeira de 2007-2008 (White, 2009). Outra
causa fundamental da Grande Depressão foi
a bolha do mercado de ações causada, em
parte, pelo generoso financiamento por crédito, que permitiu aos especuladores comprar ações na margem. O evento que desencadeou o estouro da bolha foi o Federal Reserve ter começado a apertar a política monetária, em fevereiro de 1928, seguindo-se,
em julho de 1929, um aumento das taxas de
juros. O impacto sobre o sistema bancário
foi enorme e espalhou-se rapidamente pelo
mundo, gerando um pânico bancário, quebrando diversos bancos e levando a uma recessão prolongada. Desde a Grande Depressão, os pânicos bancários tornaram-se raros
nos EUA, graças, principalmente, à criação
do Federal Reserve System em 1914 e à introdução do seguro de depósito como parte da
Lei Glass-Steagall de 1933. Essas medidas reguladoras, contudo, não impediram a crise financeira de 2007-2008.
Muitos países sul-americanos passaram por graves crises financeiras nas
décadas de 1970 e 1980. Durante esse período, o endividamento desses países cresceu explosivamente (Kindleberger, 1978).
Entretanto, o forte aumento das taxas de
juros nos EUA levou a uma desvalorização das moedas sul-americanas e aumentou drasticamente o peso real da dívida denominada em dólares desses países. Em
1982, o México declarou que não mais poderia arcar com o serviço de sua dívida.
No fim das contas, as crises de dívida sul-americanas levaram, em 1989, ao Plano
Brady (Sturzenegger e Zettelmeyer, 2006).
O Japão também passou por uma
grande crise financeira no começo da década de 1990. De maneira semelhante ao que
11
levou à Grande Depressão nos Estados Unidos, um boom dos preços dos imóveis e do
mercado de ações japoneses precedeu a crise naquele país. As perdas resultantes pesaram sobre os bancos e a economia do Japão por anos, levando à “década perdida” de
1990 e a uma lentidão continuada do crescimento durante os anos 2000. O exemplo japonês ilustra os problemas que as bolhas representam para os bancos centrais. Preocupado com a bolha dos preços dos imóveis e
ações, o Bank of Japan começou em maio
de 1989 a elevar a taxa oficial de desconto,
que eventualmente subiu de 2,5% para 6,0%.
O Bank of Japan também limitou a taxa de
crescimento do crédito ao setor imobiliário de
tal forma que não pudesse exceder a taxa de
crescimento dos empréstimos como um todo
(“controle do volume total ") e obrigou os bancos a relatar empréstimos concedidos ao setor de construção e ao setor financeiro não-bancário. Essas duas intervenções forçaram
o setor imobiliário a se desalavancar, empurrando os preços para baixo. Muitas empresas
do setor foram à falência, levando a vendas
urgentes de imóveis. Como esses bens eram
a principal garantia real em muitos setores,
os empréstimos em geral diminuíram, reduzindo ainda mais o valor das garantias reais.
No fim, a queda dos preços dos imóveis levou a um problema de excesso de empréstimos para todo o setor bancário japonês, abalando por décadas a economia do país (Hoshi
e Kashyap, 2004).
Em 1997 e 1998, o foco recaiu sobre
os países do Leste Asiático e a Rússia. Depois de grandes booms de equity e imóveis
no Leste Asiático, uma corrida contra a moeda tailandesa levou a uma inversão dos fluxos de capitais internacionais para toda a região, desencadeando uma crise financeira
que rapidamente se espalhou para outros pa-
íses próximos, como a Indonésia e a Coreia
(Radelet, Sachs, Cooper, e Bosworth, 1998).
Em agosto de 1998, a Rússia declarou moratória de sua dívida em rublos e desvalorizou
sua moeda. Entre outras coisas, um aumento
dos preços do petróleo piorou a situação fiscal russa, levando a um aumento da relação
entre a dívida e o Produto Interno Bruto (PIB),
déficits fiscais e taxas de juros crescentes.
Afinal, a Rússia optou por não defender seu
regime de âncora de câmbio e desvalorizou
sua moeda, declarando, ao mesmo tempo,
moratória de sua dívida em rublos.
Entrando no século XXI, uma das
crises mais severas começou na Argentina. Em janeiro de 2002, aquele país suspendeu a paridade entre o peso e o dólar.
Em apenas alguns dias, a moeda local perdeu grande parte do seu valor. A crise levou a uma forte redução do PIB e a um surto inflacionário. No fim, a Argentina acabou dando o calote em suas dívidas. O default argentino levou a pelo menos quatro
grandes reestruturações da dívida. Sturzenegger e Zettelmeyer (2006) fornecem resumos detalhados da crise argentina e de
outras recentes crises de dívida soberana.
Recentemente, o estouro da bolha
dos imóveis residenciais nos EUA e a turbulência de mercado que resultou em 2007 e
2008 levaram à mais grave crise financeira
desde a Grande Depressão (Brunnermeier,
2009). A crise financeira de 2007-2008 quase derrubou o sistema financeiro mundial.
O aperto de crédito que se sucedeu transformou uma queda significativa da atividade
econômica na pior recessão em 80 anos. Estímulos monetários e fiscais maciços impediram uma depressão profunda, mas a recuperação permaneceu lenta se comparada às recuperações anteriores no período pós-guerra. No final de 2013, o PIB ainda está abaixo
12
do seu nível pré-crise em diversos países ricos, principalmente na Europa, onde a crise
financeira evoluiu para a crise do euro.
A crise teve diversas causas. A mais
óbvia delas é a ausência de gestão de risco
adequada na maioria das instituições financeiras em todo o mundo. Os anos anteriores à crise trouxeram uma enxurrada de crédito hipotecário irresponsável nos EUA. Empréstimos eram concedidos sem avaliação
adequada de risco para praticamente todos
os clientes solicitantes, inclusive os tomadores ditos “subprime”, com maus históricos
de crédito. Juros baixos e critérios generosos para concessão de empréstimos disponibilizaram grandes somas para a maioria dos
clientes, independentemente de sua capacidade de pagamento (ou seja, acessibilidade) no curto prazo e, muito menos, no longo.
Aplicava-se às taxas de juros stress mínimo
ou nulo para verificar se os mesmos clientes
que tomavam a tão baixas taxas poderiam
continuar a pagar quando as taxas de juros
aumentassem. A porcentagem do valor da
propriedade que poderia ser coberta por hipoteca (isto é, a relação entre empréstimo e
valor) cresceu exponencialmente, chegando
a superar os 100%.
Os engenheiros financeiros dos
grandes bancos transformaram essas hipotecas arriscadas em títulos de risco supostamente baixo, reunindo grandes números delas em pools. O procedimento, conhecido como pooling, funciona quando os
riscos de cada empréstimo não estão correlacionados. Os grandes bancos argumentavam que os mercados imobiliários das diferentes cidades americanas oscilariam independentemente uns dos outros, mais verificou-se que não seria assim. As hipotecas
estão altamente correlacionadas, como todos os ativos que usam bens imóveis como
garantia real. Ademais, o desemprego e os
preços dos imóveis residenciais estão extremamente correlacionados com a qualidade
de qualquer carteira hipotecária: se aumentarem, a qualidade da carteira irá se deteriorar rapidamente. Embora essa relação
fosse bem conhecida, a maioria das instituições financeiras optou por ignorá-la.
A partir de 2006, os EUA enfrentaram uma forte queda dos preços dos imóveis residenciais em todo o país. Os originadores usaram as hipotecas pooled para
lastrear títulos chamados de collateralized
debt obligations (CDOs), que eram divididos
em faixas por grau de exposição à inadimplência. Investidores compravam as faixas mais seguras porque confiavam nos ratings AAA atribuídos por agências como a
Moody’s e a Standard & Poor’s. Foi outro erro.
As agências eram excessivamente generosas em suas avaliações desses ativos. As baixas taxas de juros criaram um incentivo para
que bancos, fundos de hedge e outros investidores procurassem por ativos mais arriscados que trouxessem retornos mais altos. As
baixas taxas permitiram que tais empresas
tomassem empréstimos e usassem o caixa
gerado para ampliar seus investimentos, partindo da premissa de que os retornos excederiam o custo do crédito. A baixa volatilidade
aumentava a tentação de realizar esse tipo de
“alavancagem”.
A virada do mercado americano de
imóveis residenciais foi o evento que deu início à crise, expondo as fragilidades do sistema financeiro. O pooling e outras formas
de engenharia financeira não proporcionaram aos investidores a proteção prometida.
Os títulos lastreados em hipotecas (“mortgage-backed securities” – MBS) perderam valor, isso quando podiam sequer ser avaliados. CDOs teoricamente seguros revelaram-
13
-se desprovidos de valor, apesar do selo de
aprovação das agências de rating. Tornou-se
difícil vender ativos suspeitos a praticamente qualquer preço, ou usá-los como garantia
real dos fundos de curto prazo que eram essenciais para muitos bancos.
A confiança, o elemento-chave de
todos os sistemas financeiros, começou a esmaecer em 2007, um ano antes da quebra do
Lehman, à medida que os bancos começaram a questionar a viabilidade de suas contrapartes. Agentes do mercado e outros perceberam que todo o sistema estava construído sobre bases extremamente frágeis; os
bancos permitiram que seus balanços crescessem rapidamente, mas destacaram muito pouco capital para absorver perdas inesperadas.
Os bancos centrais e outros reguladores também são responsáveis, não só por
tratar incorretamente a crise mas, também,
por deixar de manter sob controle os desequilíbrios econômicos e não exercer uma supervisão adequada das instituições financeiras. Sua decisão mais dramática foi a de permitir que o Lehman Brothers quebrasse. Isso
multiplicou o pânico dos mercados.
Além disso, a Europa também tinha
os próprios desequilíbrios internos que se revelaram tão dramáticos quanto os dos Estados Unidos e da China. As economias da Europa Meridional acumularam enormes déficits em conta corrente durante a primeira década do euro, ao passo que os da Setentrional
apresentaram superávits correspondentes.
Os fluxos de crédito do centro da zona do
euro para os mercados de imóveis residenciais superaquecidos de países como Espanha e Irlanda financiaram os desequilíbrios.
A crise do euro tem, nesse sentido, sido uma
continuação da crise financeira através de diferentes meios, com os mercados agoniados
pela fraqueza dos bancos europeus carregados de dívidas de baixa qualidade após o declínio dos preços dos imóveis.
Os bancos centrais insistem que teria sido difícil temperar o boom de moradia e
crédito por meio de taxas de juros mais elevadas. Talvez, mas eles tinham à disposição
outras ferramentas reguladoras, como a redução da proporção máxima entre valor do
bem e empréstimo no caso das hipotecas,
ou a exigência de que os bancos reservassem mais capital. Os baixos índices de capital revelaram-se a maior falha. O Acordo de
Basileia II substituiu o de Basileia I, de 1988,
focando técnicas que permitiam aos bancos
e seus supervisores avaliar adequadamente os diversos riscos que os bancos enfrentam (ver Comitê de Supervisão Bancária da
Basileia 1988, 2004, 2006, 2008). Como os modelos de risco de crédito contribuem amplamente para o processo de avaliação de risco
de cada instituição, os reguladores aplicaram
regras mais rígidas quanto ao seu desenvolvimento, implementação e validação, a serem
seguidas pelos bancos que desejassem usar
modelos internos para estimar os requisitos
de capital (Altman e Sabato, 2005, 2007). Mas
essas regras não definiram o capital com suficiente rigidez, o que permitiu aos bancos
trazer para si formas de dívida que não tinham a mesma capacidade de absorção de
perdas que o patrimônio líquido.
Sob pressão dos acionistas para elevar os retornos, os bancos operavam com
patrimônio líquido mínimo, ficando vulneráveis caso as coisas dessem errado. A partir
de meados da década de 1990, os reguladores, cada vez mais, permitiram que os bancos
usassem seus modelos internos para avaliar
o risco – na prática, estabelecendo os próprios requisitos de capital. Previsivelmente,
os bancos consideraram seus ativos cada vez
14
mais seguros, permitindo que os balanços se
inflassem sem uma elevação comparável do
capital. O Comitê da Basileia também deixou
de criar regras quando à parcela dos ativos
bancários que deveria ser líquido. Além disso, não criou um mecanismo que permitisse a um grande banco internacional quebrar
sem fazer com que o restante do sistema entrasse em convulsão.
Todos os defeitos das regras de requisito mínimo de capital estão, agora, sendo regulados e isso talvez permita atenuar
os efeitos de futuras crises financeiras. Restam dúvidas sobre se as novas regras de capital (Basileia III) serão suficientes para dar
aos mercados maior confiança na solidez do
sistema financeiro e sobre até que ponto não
irão penalizar o crédito em tempos de enxugamento de capital.
Definição e Abrandamento do
Risco Sistêmico
Governos e organismos internacionais preocupam-se cada vez mais com
o risco sistêmico. Existe uma confusão generalizada sobre as causas e até a definição do risco sistêmico, além de incertezas
sobre como controla-lo. Historicamente, os
acadêmicos tendem a pensar no risco sistêmico principalmente em termos de instituições financeiras. Mas com o crescimento da desintermediação, por meio da qual
as empresas podem ter acesso a funding no
mercado de capitais sem passar por bancos ou outras instituições intermediárias,
tem-se dado mais importância aos mercados financeiros e à relação entre os mercados e as instituições. De modo geral, alguns
argumentam que o risco sistêmico é criado
pelos agentes do mercado em busca dos
próprios interesses em vista de insuficiência de incentivos e falta de regulamentação
para limitar a tomada de riscos com o objetivo de reduzir o perigo sistêmico para outros
agentes. Assim, alguns analistas acreditam
que a regulamentação representa um papel
central na redução do risco sistêmico.
Não há definição uniformemente
aceita de risco sistêmico. Alguns autores,
como Anabtawi e Schwarcz (2011), definem
risco sistêmico como a probabilidade de
que perdas cumulativas decorram de um
evento que desencadeie uma série de perdas sucessivas ao longo de uma cadeia de
instituições financeiras ou mercados que
compreendem um sistema. Outros, entre
eles Kaufman (1996) e Acharya (2009), definem risco sistêmico como o potencial para
que um choque econômico modesto induza
substancial volatilidade nos preços dos ativos, vultosas reduções da liquidez empresarial, falências em potencial e perdas de eficiência. Kaufman e Scott (2003) o definem
como o risco de colapso de todo um sistema financeiro ou mercado, suficientemente
grave com grandes probabilidades de exercer fortes efeitos adversos sobre a economia real. A economia real refere-se aos aspectos de bens, serviços e recursos da economia, em contraposição aos mercados financeiros. Mais especificamente, o risco
sistêmico envolve uma potencial quebra em
cascata de um sistema ou mercado devido
a interligações e interdependências.
Dada a falta de definição consistente do risco sistêmico, uma pergunta relevante é se soluções reguladoras seriam suficientes para seu abrandamento. Grande parte
da literatura existente sustenta que nenhum
agente do mercado, individualmente, possui
incentivos suficientes, na ausência de regulação, para limitar os riscos assumidos e reduzir o perigo sistêmico para os demais agentes e terceiros. Por exemplo, Bexley, James e
15
Haberman (2011) consideram que o trading
próprio das entidades bancárias – em geral a
negociação de instrumentos financeiros que
um banco faz em nome próprio – representou um papel critico na crise financeira de
2007-2008. Isso vem em paralelo com os argumentos de que as práticas dos bancos e
de suas coligadas na área de títulos, na década de 1920, foram parcialmente responsáveis
pelo crash de 1929 e pela Grande Depressão.
No centro dessas afirmativas jaz a questão
de que a combinação dos negócios de banco
comercial e banco de investimentos pode aumentar o Risco Sistêmico.
A Banking Act de 1933 (Lei Glass-Steagall) continha provisões que proibiam
os bancos comerciais de subscrever, promover ou vender títulos tanto diretamente quanto através de uma corretora coligada, criando, na prática, uma muralha entre os bancos
comerciais e os de investimentos. Essa muralha foi gradualmente enfraquecida e desmontada ao longo dos 60 anos seguintes, e
ruiu de vez com a Financial Services Modernization Act de 1999 (Lei Gramm-Leach-Bliley),
que afastou as últimas restrições remanescentes da Lei Glass-Steagall. A Dodd-Frank
Wall Street Reform and Consumer Protection Act (Lei Dodd-Frank) de 2010 reintroduziu elementos da muralha de Glass-Steagall.
Mais especificamente a regra Volcker, constante da Lei Dodd-Frank, impede as “entidades bancárias” de fazer trading próprio e de
patrocinar, adquirir ou manter certas participações acionárias em fundos de hedge ou private equity.
Uma das justificativas, em termos de
política, para essas restrições é o fato de que
as atividades proibidas aumentam o risco sistêmico. O argumento implícito nessa justificativa é o de que se as atividades proibidas
forem arriscadas demais, poderão afetar a li-
quidez do banco, fazendo com que a instituição não queira ou não possa oferecer crédito a clientes qualificados, ou chegue a quebrar, abalando os canais de crédito. Da mesma forma, existe o temor de que os bancos
também possam falir por causa de sua exposição a fundos de hedge ou private equity que
venham a quebrar, transtornando ainda mais
os canais de crédito.
Se conflitos de interesse são o principal mal que os legisladores desejam conter, pode fazer sentido considerar outras soluções, como ampliação da divulgação e das
regras que protegem o público desses mesmos conflitos. Se, contudo, for o risco sistêmico que o mundo está de fato tentando abordar e atenuar, a regulação proposta pode ser
ineficaz, por si só, se as instituições financeiras não forem obrigadas a adotar metodologias e ferramentas adequadas de gestão de
risco e a conceber estratégias eficazes para
o crescimento.
Outra questão importante que os reguladores tentaram abordar visando atenuar o risco sistêmico é a redução das interligações entre instituições financeiras (ou seja, o
risco de rede), forçando-as a utilizar contrapartes e câmaras de compensação centralizadas (CCPs). As CCPs se interpõem entre as
contrapartes dos derivativos de balcão (OTC),
isolando-as da inadimplência uma das outras. A compensação eficaz ameniza o risco
sistêmico ao diminuir a probabilidade de que
os defaults venham a se propagar de contraparte em contraparte. Duffie e Zhu (2010) demonstram que o uso de uma CCP pode ajudar a atenuar o risco sistêmico. Ainda assim,
permanecem algumas preocupações a respeito da capacidade das CCPs para suportar
inadimplementos das múltiplas contrapartes
e do que aconteceria com o sistema em caso
de default de uma CCP.
16
Gestão do Risco:
Lição Aprendida
A gestão de risco é uma ciência em
evolução contínua. Mesmo admitindo que o
risco tenha sido corretamente medido, sua
perfeita gestão exige muita experiência e
muito conhecimento. Ademais, a estrutura
de governança das instituições financeiras
precisa permitir que os gestores de risco façam valer suas decisões e estratégias.
Estratégia de Alocação de Capital
As estratégias de seleção de carteira têm sido um assunto de alta relevância na
literatura pelos últimos 60 anos e especialmente depois de Markowitz (1952). Mas poucos estudos analisam como aplicar essas estratégias às instituições financeiras. A situação pode parecer estranha, já que as organizações financeiras estão entre os maiores
investidores dos mercados financeiros, mas
os motivos se devem a diversas peculiaridades que podem ter desviado a atenção delas.
Em primeiro lugar, o capital tendia a
ser barato e fácil de levantar. Essa oportunidade gerou a crença em que qualquer transação que parecesse lucrativa poderia ser realizada, permitindo que a demanda do mercado levasse ao crescimento dos ativos. Em
segundo lugar, muitos consideravam que as
organizações bancárias tinham uma função
social de fornecer fundos para que as empresas iniciassem ou expandissem suas atividades e para que os consumidores comprassem imóveis ou bens. Embora essa função
social tivesse prevalecido como estratégia de
alocação de capital, os acionistas, especialmente a partir da década de 1990, tendiam
a encarar os bancos como instituições com
fins lucrativos. Assim, para agradar os acionistas e superar o desempenho dos seus pares, os CEOs dos bancos investiram agres-
sivamente em ativos complexos, misturando
sua cultura tradicional de concessão de empréstimos com outra mais especulativa voltada para equity (Blundell-Wignal, Atkinson e
Lee, 2008).
Ao implementar essa mudança cultural, a maioria das instituições financeiras
focou principalmente o lado do retorno de
seus investimentos, omitindo o aspecto do
risco. As concentrações de ativos altamente
correlacionados aumentaram notavelmente
em detrimento da atenção a ser dada à volatilidade das perdas. A diversificação de carteira tornou-se um conceito puramente teórico
e facilmente sacrificado para permitir o crescimento da participação de mercado. A precificação fora estabelecida principalmente
para ser competitiva no mercado e não para
fornecer um retorno adequado.
Em última análise, a mais recente crise financeira fornece às instituições financeiras os incentivos apropriados para corrigir
as falhas mencionadas anteriormente. Para
tanto, contar com uma estratégia plenamente adotada de apetite pelo risco é essencial
para garantir que os riscos e recompensas
aceitos estejam alinhados com as expectativas dos acionistas.
Em seu estudo seminal, Markowitz
(1952) explica como construir a carteira de investimentos mais eficiente para encontrar o
equilíbrio correto entre retornos esperados e
volatilidade das perdas. Ele demonstra que a
diversificação é a melhor ferramenta para reduzir o risco da carteira como um todo.
A função de risco de uma instituição
financeira não pode por si só definir um arcabouço de apetite pelo risco e precisa do apoio
do departamento de negócios (vendas) para
modelar os retornos esperados. Articular um
arcabouço de apetite pelo risco consistente
e eficaz exige a união de esforços daqueles
17
que estão envolvidos com a gestão de risco
com os daqueles que estão na área de negócio, por meio de uma abordagem descendente. Afinal, o conselho de administração, interpretando as visões dos acionistas, precisa liderar os avanços em termos de riscos aceitáveis e retornos exigidos. Então, seguindo
essas diretrizes, as funções de risco e de negócio poderão definir o apetite pelo risco em
diferentes níveis, como os do grupo, da divisão e da carteira.
Um bom arcabouço de apetite pelo
risco deve envolver duas partes. A primeira
apresenta uma visão da atual situação, esclarecendo como o capital encontra-se alocado entre as carteiras e identificando as principais concentrações e as carteiras que estão abaixo do retorno mínimo esperado. Formar esse panorama exige, também, definir
as métricas necessárias.
Convenciona-se definir o risco de
crédito usando os conceitos de perdas esperada (PE) e perda inesperada (PI). As medidas de risco no nível do cliente (ou seja,
a probabilidade de descumprimento, PD,
a perda dado o descumprimento, LGD, e
o montante esperado quando do descumprimento, EAD) são usadas como insumos
para o cálculo daqueles dois valores. Como
a perda esperada pode ser prevista, deve
ser considerada como custo da atividade
e não como risco financeiro. Obviamente, as perdas em crédito não são constantes ao longo do ciclo econômico por causa
da substancial volatilidade (perda inesperada) associada ao nível de perda esperada.
Os modelos de carteira de crédito têm por
objetivo quantificar essa volatilidade. A volatilidade das perdas da carteira decorre de
dois fatores: concentração e correlação.
A correlação é um fator predominantemente exógeno que depende do tipo do
cliente, da geografia, e de fatores macroeconômicos, ao passo que a correlação é (ou deveria ser) resultado de decisões conscientes
da alta administração das instituições financeiras, por meio de um arcabouço bem definido de apetite pelo risco, como discutiremos
na próxima seção. Entretanto, os limites ideais de concentração não podem ser definidos sem que haja uma medida adequada de
capital/concentração de risco, como o capital
econômico (CE) e as correlações são o insumo mais importante para o CE.
Para calcular o capital regulador
(CR) (por exemplo, para a Abordagem por
Ratings Internos do Basileia II), as correlações
também são usadas, mas são dadas pela autoridade reguladora (por exemplo, o BIS) e
são iguais para todos os bancos. Além disso,
essas correlações são apenas intraprodutos,
não interprodutos (por exemplo, correlações
entre os descumprimentos de diferentes produtos). Essa diferença é uma premissa muito
forte que exclui plenamente os benefícios da
diversificação.
Modelar com precisão o risco de
uma carteira de crédito exige medir a correlação entre exposições. Calcular diretamente
as correlações de risco de crédito é complexo. A solução mais simples é usar séries temporais agregadas para inferir a correlação de
risco de crédito. Mas uma possibilidade mais
atraente é usar um modelo causal de inadimplemento que adote como insumos quantidades financeiras mais observáveis e os transforma em uma probabilidade de descumprimento (Merton, 1974). Essa solução é a mais
comum para exposições corporate. Para as
de varejo, o melhor é medir as correlações
usando modelos fatoriais da mesma maneira
que se estima um beta do equity. Modelos fatoriais costumam produzir melhores estimativas prospectivas de correlação do que a ob-
18
servação direta e trazem, ainda, o benefício
– se forem escolhidos fatores macroeconômicos – de permitir testes de stress intuitivos e
análise de cenários para a carteira de crédito.
Medir a concentração usando o saldo de exposição de uma carteira, CR, ou CE,
pode fazer uma enorme diferença para os resultados da análise e para as atitudes necessárias. Lentamente, os reguladores começam a perceber esse benefício e agora obrigam as instituições financeiras a desenvolver
e implementar sofisticados modelos internos
de CE sujeitos a validação das autoridades. O
CE é calculado a partir das caudas da distribuição de risco de crédito, por meio da determinação da probabilidade de que uma redução do valor da carteira exceda um valor
crítico (por exemplo, 99,95%). Graças às estruturas de correlação incluídas em sua estimativa, o CE permite que bancos grandes
e bem diversificados explorem ao máximo a
diversificação de ativos. Essa oportunidade
é de crescente importância nos períodos em
que a taxa de capital regulador está em ascensão, como se dá com o novo Basileia III.
Além disso, o CE permite incluir todos os tipos de risco (como risco de liquidez, risco de
pensão e risco de negócio) e não apenas os
riscos de crédito, de mercado e operacional.
Seguindo as orientações do conselho de administração em termos de retorno esperado e volatilidade das perdas, o CE
pode ser usado para determinar o montante máximo de perdas sob stress que a instituição está disposta a aceitar e, assim, conceber a carteira-meta. O retorno mínimo
esperado e o risco máximo aceitável ajudam a definir a capacidade de risco (ou tolerância ao risco), enquanto o retorno esperado e o risco aceitável desejado determinam o apetite pelo risco.
O arcabouço de apetite pelo risco
deve descrever como a estratégia de alocação de capital deve mudar quando as carteiras ficam nas diferentes áreas descritas pelos limites definidos, mas não deve estabelecer os limites específicos de concentração
para cada produto, carteira, país, ou setor.
Uma vez que o arcabouço de apetite
pelo risco esteja plenamente incorporado, irá
forçar o debate e ajudar a garantir que os riscos sejam explicitados. Para modificar comportamentos em relação ao risco, podem ser
necessárias intervenções por meio de treinamento adicional ou mudança de pessoal. Na
maioria das organizações, contudo, o tom determinado pela alta administração tende a ter
maior impacto. O apetite pelo risco não é apenas um arcabouço, mas, também, uma mudança cultural profunda que irá garantir que
as instituições financeiras tornem-se mais
sólidas no futuro próximo.
Gestão de Risco
Empresarial
As instituições financeiras e o mundo acadêmico vêm discutindo há 10 anos a
gestão de risco empresarial (“Enterprise Risk
Management” – ERM). Os muito artigos e livros escritos sobre o tema fornecem diretrizes claras e bases teóricas para respaldar
essa mudança fundamental da gestão de risco (Doherty, 2000; D’Arcy, 2001; Lam, 2003;
Olson e Wu, 2008). Até hoje, instituições financeiras tentaram implementar a ERM mas
ainda não conseguiram inseri-la em sua cultura de gestão.
O conceito de ERM é relativamente simples. Riscos capazes de afetar o valor
de uma organização são de natureza diferente e sua soma não reflete o risco total. Diversas correlações e a covariância devem ser levadas em conta quando riscos diferentes são
agregados. A ERM é uma abordagem rigoro-
19
sa à avaliação e tratamento dos riscos de todas as fontes que ameacem a consecução
dos objetivos estratégicos de uma organização. Uma abordagem de ERM, se bem implementada, deve fornecer uma visão abrangente e coerente dos riscos que a instituição
enfrenta, permitindo à alta administração enxergar todo o panorama e não cada “silo” individualmente.
O primeiro passo da operacionalização da ERM é identificar os riscos aos quais
a empresa está exposta. Uma abordagem comum é identificar os tipos de riscos a serem
medidos. Muitas empresas foram além da
mensuração dos riscos de mercado, de crédito e operacionais. Mais especificamente,
nos últimos anos, elas também tentaram medir os riscos de liquidez, reputação, tributário,
previdenciário e estratégico.
Organizações que tenham crescido
por meio de aquisições, ou que não tenham
departamentos centralizados de tecnologia da informação (TI) precisam lidar com o
problema de incompatibilidade de sistemas.
Elas devem ser capazes de agregar riscos comuns a todos os seus negócios para analisá-los e gerenciá-los de modo eficaz. O objetivo
é capturar e quantificar todos os riscos, adotando uma abordagem consistente, e depois
agregar as exposições individuais por toda a
organização, além de analisar o perfil agregado de risco tendo em conta as correlações
entre os riscos.
Idealmente, um bom arcabouço de
ERM deve ser capaz de resumir todos os riscos em uma só métrica: o nível ótimo de capital disponível. Uma empresa que ponha a
ERM em prática, portanto, pode dispor de
um montante de capital que supere substancialmente seu requisito regulador porque,
com isso, maximiza a riqueza dos acionistas.
Nesse caso, as exigências reguladoras não
são vinculantes e não afetariam as decisões
da empresa. A situação poderia ser mais difícil se seu CR obrigatório superasse o montante de capital que deve manter para maximizar a riqueza dos acionistas. Para os bancos, o CR costuma ser definido em termos de
contabilidade reguladora. No que se refere à
ERM, os bancos devem se concentrar no CE.
Um foco exclusivo no CR provavelmente será
enganoso porque não refletirá corretamente
o colchão de capital próprio disponível.
Em suma, o modo de agregar diferentes riscos permanece o principal desafio para todas as empresas dispostas a adotar a abordagem de ERM e, em especial,
para as instituições financeiras. Muitas vezes, os sistemas de TI ainda são incapazes
de dialogar entre si e as metodologias usadas para avaliar os riscos são tão diferentes
que conciliá-las em um só número é quase
impossível. Ignorar esses problemas e fornecer relatórios de ERM que abordem os
riscos “por silos” é inútil e perigoso. Pode
ser necessário algum tempo para construir
a infraestrutura correta para se implementar um arcabouço de ERM, mas as instituições financeiras devem estar convencidas
de que esta é a melhor maneira de evitar
erros capazes de ameaçar sua existência.
Estrutura de Governança
de Risco
A ausência de uma estrutura apropriada de governança de risco irá diluir qualquer benefício criado por uma equipe de gestão de risco de primeira linha. Antes da crise
financeira de 2007-2008, o papel da gestão de
risco era extremamente marginal na maioria
das instituições, deixando a capacidade de
influenciar decisões de negócio a cargo da
capacidade de persuasão – e não da autoridade – de cada gestor de risco.
20
O papel e a importância do Diretor
de Risco (“Chief Risk Officer” – CRO) e da
governança de risco no setor financeiro foram enfatizados nos jornais, em diversos relatórios (Brancato, Tonello, Hexter e Newman,
2006) e em estudos voltados para profissionais da área (Banham, 2000). Até agora, contudo, a literatura acadêmica tem negligenciado essas áreas.
Alguns poucos estudos acadêmicos recentes (Erkens, Hung e Matos, 2010;
Minton, Taillard e Williamson, 2010; Beltratti
e Stulz, 2011; Fahlenbrach e Stulz, 2011) abordam outros aspectos da governança corporativa em bancos, como características do
conselho de administração e estrutura de remuneração do CEO. Mas a literatura sobre
governança corporativa e o seu efeito sobre
a valoração de instituições financeiras ainda
é muito limitada. Ademais, as instituições financeiras têm particularidades, como menor transparência e regulamentação e intervenção governamental mais pesadas (Levine,
2004), exigindo uma análise distinta de questões de governança corporativa. Adams e
Mehran (2003) e Macey e O’Hara (2003) destacam a importância de levar em consideração as diferenças de governança entre empresas bancárias e não-bancárias.
Mais especificamente, na maioria
das instituições financeiras, o CRO ainda
não participa do conselho e os gestores de
risco das divisões muitas vezes estão tenuemente ligados a ele e mais firmemente aos
heads dos diferentes negócios. Isso quer dizer que os gestores de risco podem discutir preocupações com o CRO do banco, mas
que seu chefe, aquele que irá avaliar seu desempenho e estabelecer seus objetivos, é o
líder do negócio, cujos objetivos normalmente estarão em contraste com os ligados ao
risco. Esse tipo de estrutura comprovou ser
claramente inadequado porque exclui a possibilidade de que o risco influencie decisões
estratégicas quando isso se faz necessário.
A independência da função de risco precisa
ser garantida e as autoridades supervisoras
precisam monitorá-la constantemente para
evitar que as instituições financeiras voltem
a se dedicar a investimentos especulativos
de curto prazo para gerar resultados insustentáveis (Aebi et al. 2011).
Ainda assim, dar poder à gestão de
risco e garantir sua independência não irá resolver todos os problemas se a qualidade da
função não melhorar na mesma medida. A
alta administração precisa liderar a melhoria
em direção a um papel mais eficaz e eficiente do risco, aumentando substancialmente
seu envolvimento nas decisões do dia a dia e
garantindo a estabilidade e a solidez do processo como um todo. O conselho de administração precisa dar mais atenção ao risco
em geral, aprovando e monitorando o respeito pelo arcabouço de apetite por risco através
de bons relatórios de ERM.
Conclusões
Muito além das pressões imediatas
dos mercados globais, de clientes mais exigentes e de mudanças setoriais dramáticas
há um reconhecimento crescente de que as
instituições financeiras têm uma oportunidade para extrair vantagem competitiva de
suas capacidades em gestão de risco, permitindo-lhes crescimento lucrativo de longo
prazo e lucratividade sustentável no futuro. Essas mudanças significam que a gestão de risco das organizações de melhor desempenho está mais intimamente integrada
ao planejamento estratégico e é conduzida
de maneira proativa, com vistas à maneira como essas capacidades poderão aju-
21
Autor
dar as empresas a entrar mais rapidamente
em novos mercados ou explorar outras estratégias de crescimento que surjam. Quando bem implementada, a gestão de risco é
uma questão de equilíbrio – o equilíbrio entre o apetite de uma empresa por riscos e
sua capacidade de os gerenciar.
As metodologias e ferramentas aplicadas à mensuração de riscos evoluíram
consideravelmente nos últimos 20 anos. Os
riscos de crédito e mercado lideraram a evolução e agora atingiram um status mais avançado. Atualmente, o foco está se deslocando
para os riscos operacionais e outros “menores”. Além disso, a agregação de risco será o
próximo desafio para a maioria das organizações financeiras.
Em termos de gestão de risco, três
tópicos principais surgiram depois da crise
financeira de 2007-2008: (1) alocação de capital, (2) ERM e (3) arcabouço de governança de risco. A gestão de risco tornou-se uma
prioridade na maioria das empresas, financeiras ou não, que investem significativamente em sistemas e pessoas. É uma grande oportunidade para a gestão de risco finalmente encontrar seu papel de liderança na
mutável cultura financeira e ajudar os governos e reguladores a atenuar o impacto das
próximas crises financeiras.
Gabriele Sabato
Gabriele Sabato é um experiente profissional da gestão de risco que trabalha e conduz pesquisas nesse campo
há mais de 12 anos. Atualmente é Gestor Sênior da gestão de Risco do Grupo RBS, responsável por estabelecer
e supervisionar políticas e estratégias de apetite por risco para todo o Grupo. Antes de entrar para o RBS, o Dr.
Sabato trabalhou por três anos na Gestão de Risco do Grupo ABN AMRO, encabeçando a equipe de analytics de
Varejo do Grupo. Liderou diversos projetos ligados ao Basileia II, inclusive validação independente de modelos,
conformidade com o Pilar I, testes de estress e o processo de avaliação interna da adequação de capital (“Internal Capital Adequacy Assessment Process” – ICAAP). Passou quatro anos na Experian como consultor empresarial, desenvolvendo e implementando modelos e estratégias de risco de crédito para diversas instituições financeiras por toda a Europa. Publicou diversos artigos sobre gestão de risco em importantes periódicos acadêmicos, incluindo o Journal of Banking and Finance e o Journal of Financial Services Research. O Dr. Sabato é PhD em
Finanças pela Universidade de Roma “La Sapienza”.
Referências
22
ACHARYA, Viral V. 2009. “A Theory of Systemic Risk and Design of Prudential Bank Regulation." Journal of Financial Stability 5:3, 224–255.
ADAMS, René; and MEHRAN, Hamid. 2003. “Is Corporate Governance Different for Bank Holding Companies?”
Federal Reserve Bank of New York Economic Policy Review 9:1, 123 – 142.
AEBI, Vincent; SABATO, Gabriele; and SCHMID, Markus. 2011. “Risk Management, Corporate Governance, and
Bank Performance in the Financial Crisis.” Journal of Banking & Finance, 36:12, 3213 – 3226.
ALLEN, Franklin; and GALE, Douglas. 2007. Understanding Financial Crises, Clarendon Lectures in Finance. Oxford University Press. Oxford.
ALTMAN, Edward I., and SABATO, Gabriele. 2005. “Effects of the New Basel Capital Accord on Bank Capital Requirements for SMEs.” Journal of Financial Services Research 28:1/3, 15 – 42.
ALTMAN, Edward I.; and SABATO, Gabriele. 2007. “Modeling Credit Risk for SMEs: Evidence from the US Market.”
ABACUS 43:3, 332 – 357.
ANABTAWI, Iman; and SCHWARCZ, Steven L. 2011. “Regulating Systemic Risk: Towards an Analytical Framework.”
NOTRE DAME Law Review 86, 1349 – 1353.
BANHAM, Russ. 2000. “Top Cops of Risk.” CFO 16:10, 91– 98.
Banking (Glass-Steagall) Act. 1933. Pub. L. No. 73-66, §§ 16, 20, 21, 32, 48 Stat. 162, 184–185, 188–189, 194.
Basel Committee on Banking Supervision. 1988. “International Convergence of Capital Measurement and Capital
Standards.” Basel: Bank for International Settlements.
Basel Committee on Banking Supervision. 2004. “International Convergence of Capital Measurement and Capital
Standards: A Revised Framework.” Basel: Bank for International Settlements.
Basel Committee on Banking Supervision. 2006. “International Convergence of Capital Measurement and Capital
Standards: A Revised Framework.” Basel: Bank for International Settlements.
Basel Committee on Banking Supervision. 2008. “Principles for Sound Liquidity Risk Management and Supervision.” Basel: Bank for International Settlements.
BELTRATTI, Andrea; and STULZ, René M. 2012. “The Credit Crisis around the Globe: Why Did Some Banks Perform Better during the Credit Crisis?” Journal of Financial Economics, 105:1, 1-17.
BEXLEY, James; JOE James; and HABERMAN, James. 2011. “The financial crisis and its issues”, Research in Business and Economics Journal, 3, July 2011.
Referências
23
BLUNDELL-WIGNALL, Adrian; ATKINSON, Paul; and LEE, Se Hoon. 2008. “The Current Financial Crisis: Causes
and Policy Issues.” OECD Financial Market Trends 95:2, 1– 21.
BRANCATO, Carolyn; TONELLO, Matteo; HEXTER, Ellen; and NEWMAN, Katharine R. 2006. “The Role of U.S. Corporate Boards in Enterprise Risk Management.” New York: Conference Board.
BRUNNERMEIER, Markus K. 2009. “Deciphering the Liquidity and Credit Crunch 2007-2008." Journal of Economic
Perspectives 23:1, 77– 100.
BRUNNERMEIER, Markus K.; and OEHMKE, Martin. 2012. “Bubbles, Financial Crises, and Systemic Risk”. Handbook of the Economics of Finance, 2:B, 1221-1288.
D’ARCY, Stephen. 2001. “Enterprise Risk Management.” Journal of Risk Management of Korea 12:1, 23 – 37.
DODD–Frank Wall Street Reform and Consumer Protection Act of 2010, Pub. L. 111–203, 124 Stat. 1376 (2010). http://
www.gpo.gov/fdsys/pkg/PLAW-111publ203/content-detail.html
DOHERTY, Neil. 2000. Integrated Risk Management. New York: McGraw-Hill.
DUFFIE, Darrel; and HAOXIANG, Zhu. 2010. “Does a Central Clearing Counterparty Reduce Counterparty Risk?”
Review of Asset Pricing Studies 1:1, 74 – 95.
ERKENS, David; HUNG, Mingy; and MATOS, Pedro. 2010. “Corporate Governance in the 2007-2008 Financial Crisis: Evidence from Financial Institutions Worldwide.” Working Paper, European Corporate Governance Institute.
FAHLENBRACH, Rudiger; and STULZ René M.. 2011. “Bank CEO Incentives and the Credit Crisis.” Journal of Financial Economics 99:1, 11– 26.
Financial Services Modernization (Gramm-Leach-Blilely) Act. 1999. Pub. L. No. 106-102, Stat. 1338, 1341.
GARBER, Peter. M. 2000. Famous First Bubbles: The Fundamentals of Early Manias. Cambridge, MA: MIT Press.
HOSHI, T.; and A. K. Kashyap. 2004. “Japan's Financial Crisis and Economic Stagnation." Journal of Economic Perspectives 18:1, 3 – 26.
KAUFMAN, George G. 1996. “Bank Failures, Systemic Risk, and Bank Regulation.” Cato Journal. 16:1, 17–45.
KAUFMAN, George G.; and SCOTT, Kenneth E.. 2003. “What Is Systemic Risk, and Do Bank Regulators Retard or
Contribute to It?”, The independent Review, 7:3, 371-391.
KINDLEBERGER, Charles P. 1978. Manias, Panics, and Crashes: A History of Financial Crises. New York: John Wiley &
Sons.
Referências
24
LAM, James. 2003. Enterprise Risk Management: from Incentives to Control. New York: John Wiley and Sons.
LEVINE, Ross. 2004. “The Corporate Governance of Banks: A Concise Discussion of Concepts and Evidence.”
Working Paper, World Bank Policy Research Working Paper, 3404.
MACEY, Jonathan R.; and O’HARA, Maureen. 2003. “The Corporate Governance of Banks.” Federal Reserve Bank of
New York Economic Policy Review 9:1, 91– 107.
MARKOWITZ, Harry. 1952. “Portfolio Selection.” Journal of Finance 7:1, 77– 91.
MERTON, Robert C. 1974. “On the Pricing of Corporate Debt: The Risk Structure of Interest Rates”, Journal of Finance, 29, 449-70.
MINSKY, Hyman. 1992. “The Financial Instability Hypothesis.” Working Paper No.74. Annandale-on-Hudson, N.Y.:
The Levy Economics Institute, May.
MINTON, Bernardette A., TAILLARD, Jerome; and WILLIAMSON. Rohan G.. 2010. “Do Independence and Financial Expertise of the Board Matter for Risk Taking and Performance?” Working Paper, Fisher College of Business,
Ohio State University.
NEAL, Larry. 1990. The Rise of Financial Capitalism. Cambridge: Cambridge University Press.
NEAL, Larry. 2012. I Am Not Master of Events: Speculations of John Law and Lord Londonderry in the Mississippi and South Sea Bubbles. London: Yale University Press.
OLSON, David L.; and WU, Desheng (eds.). 2008. New Frontiers in Enterprise Risk Management. Berlin: Springer.
RADELET, Steven; SACHS, Jeffrey D.; COOPER, Richard N.; and BOSWORTH, Barry P.. 1998. “The East Asian Financial Crisis: Diagnosis, Remedies, Prospects." Brookings Papers on Economic Activity 1, 1– 90.
REINHART, Carmen M.; and ROGOFF, Kenneth S. 2009. This Time is Different: Eight Centuries of Financial Folly. Princeton: Princeton University Press.
SHILLER, Robert J. 2000. Irrational Exuberance. Princeton: Princeton University Press.
STURZENEGGER, Federico; and ZETTELMEYER Jeromin. 2006. Debt Defaults and Lessons from a Decade of Crises.
Cambridge: MIT Press.
WHITE, Eugene N. 2009. “Lessons from the Great American Real Estate Boom and Bust of the 1920s." NBER Working
Paper 15573.
24
Modeling Dependence for
Operational Risk
Débora Delbem Gonçalves
Guaraci Requena
Carlos Diniz
25
Abstract
In this article, in addition to addressing operational risk and a few guidelines from Basel II, we provide
a new method for calculating the regulatory capital intended to protect against this risk. Calculating this capital is a recent concern for financial institutions, after
being proposed by the Basle Committee in 2004. However, the Committee suggests a calculation that overstates the allocated capital, based on the inappropriate assumption of perfect positive dependence among all risk
classes. The new method presented here is bivariate
(considers the dependence between two risk classes),
based on important capital-allocation assumptions, and
involves modeling the dependence among the financial
institution’s risk classes, making for more realistic regulatory capital allocation. Finally, we compare the method
proposed by the Basel Committee and the one offered
here, considering a theoretical study of both, with set
probability distributions for the losses at hand, using
Gaussian coupling.
Keywords: Operational Risk, Regulatory Capital,
Risk Classes, Stochastic Dependence.
1. Introduction
The several financial crises since the 1970s left financial institutions increasingly vulnerable to several types of
risk. The main financial risks are credit
risk, market risk and operational risk. Cruz
(2002) argues that, when losses over re-
sults are rated by area of impact within financial institutions, operational and other
risks explain 35% of the volatility of the
institutions’ earnings, while market and
credit risks explain 15% and 50%, respectively.
26
In 1974, the G10 created the
Banking Regulation and Oversight Practices Committee (Basel Committee), whose purpose, according to the Central Bank
of Brazil (BACEN), is to establish recommendations toward internationally standardized banking oversight practices.
Since the foundation of the Basel Committee, several recommendations have
been created as concerns measuring financial risks and allocating capital to support losses arising from those risks (the
so-called regulatory capital).
Basel II formalized the concern
with measuring operational risk in the international banking system, and required using regulatory capital to address
this risk. The Accord also revised concepts associated with credit and market
risk, particularly in terms of the flexibility
of internal regulatory capital calculation
models (the same flexibility is also afforded to operational risk). Medina & Barbosa (2013) point out events involving the
global financial system that propelled publication of Basel II, such as the interruption of the European economic and monetary unification due to the European Monetary System crisis of September 1992,
the Asian crisis of 1997, and the 1998 Russian default.
1.1 Operational risk
The term “operational risk” gained evidence in 1995 due to an infamous
event in the world banking arena: the failure of Barings, the oldest bank in London, UK (Kornert, 2003). The event that
led to its bankruptcy did not fall into the
credit or market risk categories and, before it, it was scarcely believed that other
risks might bring about severe losses for
the financial system. Since then, operational risk events have become increasingly
frequent for financial institutions. Guimarães (2003) emphasizes that these events
are probably due to three factors: globalization, competition within the financial
system, and technology advances.
The literature includes several
definitions for operational risk, such as
Jorion (1997), Deloach & Andersen (2000),
and Duarte (2001). Still, the most widely
accepted one, given in Basel II, is as follows: “operational risk is the risk of losses
arising from failed, deficient or inadequate internal processes, persons and systems, or from external events”. BACEN has
embraced this definition and reinforced it
for Brazilian financial institutions by means of Resolution No. 3.380/2006.
The use of internal models to measure operational risk is recent in the
Brazilian scenario. According to BACEN
Communication No. 019028/2009, 2013
marks the beginning of the authorization
process for internal (regulatory) capital requirements determination models for this
kind of risk. Therefore, Brazilian financial
institutions are at an important stage in
terms of operational risk measurement.
That is, the stage at which they start to
use a more elaborate approach to calculating regulatory capital – the Advanced
Approach –, which we will discuss in the
next subsection.
Some examples of operational
risk events include: internal and external fraud; inappropriate practices toward
clients, products and services; damages
to physical assets owned or in use by the
institution; information technology system failures; internal and external occu-
27
pational accidents; execution, deadline
and activity management failures within
the institution; natural catastrophes such
as flooding and earthquakes; and more.
These examples illustrate the heterogeneous nature of this kind of risk.
1.2 Basel II – Capital
Allocation Approaches
This article focuses on Basel II’s
first pillar, that is, the calculation of the
capital financial institutions must allocate
with their regulators (BACEN, in the case
of Brazil) to protect against operational
risk. Basel II includes three approaches to
calculating this capital: Basic, Standardized, and Advanced (AMA).
AMA is the most flexible alternative, and the one that the Basel Committee recommends for internationally active
financial institutions, as it enables more
accurate regulatory capital adjustment
and allows financial institutions to develop their own capital allocation measurements, as long as they comply with general, qualitative and quantitative requirements. Institutions choosing AMA must
secure approval from the regulator, which will evaluate the requirements for capital calculation.
Institutions choosing AMA must
determine the capital for each “risk type
X business line” cell, which Frachot et al.
(2001) term risk classes. Basel II suggests
8 business lines and 7 risk types, as shown in Table 1, but institutions may determine them at their own discretion.
The Basel Committee suggests
two ways to calculate operational risk
under AMA: the Internal Measurements
Approach and the Losses distribution
Approach (LDA).
Most statistical models to determine regulatory capital are based on
LDA, including the method presented
here. The approach is based on the probability distributions of frequency and severity (to be defined in the next section) to
build the loss probability distribution for
each risk class, as we will see in the next
section.
Table 1: Loss Types and Business
Lines for Operational Risk.
Risk Type
Business Line
1. Internal Fraud.
1. Corporate Finance.
2. External Fraud.
2. Trading and Sales.
3. Employment Practices
and Workplace Safety.
3. Retail Banking.
4. Clients, Products and
Business Practices.
4. Commercial Banking.
5. Damage to
Physical Assets.
5. Payments and
Settlement.
6. Business Disruption
and Systems Failures.
6. Agency Services.
7. Execution, Delivery and
Process Management.
7. Asset Management
8. Brokerage.
2. The Loss Distribution
Approach – LDA
Embrechts & Puccetti (2006) state that the most risk-sensitive method under AMA is the LDA. Frachot et al. (2001)
provide a more detailed description of this
mode for operational risk.
28
In most cases, there is no closed
solution for F, requiring numerical approximations based on Monte Carlo simulations. In practice, financial institutions
choosing an LDA method must assign
probability distributions to the frequency
and severity variables in each risk class,
based on historical data, in order to build
the loss probability distribution, X, for the
coming year.
According to Giacometti (2008),
the LDA is a statistically accurate approach, as it uses historical losses – for
both frequency and severity. Therefore the LDA is capable of capturing each
institution’s degree of internal control
and loss prevention. Frachot et al. (2001)
argues that, methodologically, the LDA
appears far less complicated than internal models for credit and market risks.
Having addressed the loss probability distributions for each risk class,
the following section discusses the usual method for calculating regulatory capital against operational risk and the implications of its use.
As noted earlier, the LDA is based on frequency and severity probability distributions. Frequency, denoted by
N, is a discrete random variable that represents the number of times operational
loss events occur within a year in a certain
risk class (the Basel Committee suggests
a one-year measurement period, but institutions are also free to select different periods). Severities, denoted by Si, i = 1, …,
represent the monetary value of each operational loss, that is, they are associated
with frequency and concern the same risk
class and period of time.
Therefore, the loss denoted by X
for a given risk class i and period of time is
the sum of the respective severities, that
is, X is defined as:
(1)
N
X=
Ʃ
S k = S 1+ ... + S N
k=1
We wish to estimate the probability distribution of the loss X for the coming year, based on the probability distributions of frequency and severity.
The LDA builds the distribution of
X based on the following assumptions:
1. N e Sk k Є (1, 2, ...) and are independent random variables;
2. S1, S2, ... are independent and
identically distributed random
variables.
Therefore, based on foregoing
assumptions 1 and 2, the distribution
function of X, denoted by F, is given by:
F(x)=Pr [X≤x] =
3. The Usual Method –
The Sum Method
According to Basel II, regulatory
capital is intended to cover total unexpected losses. Which begs the question: “what are total unexpected losses”,
to which the answer is neither trivial nor
single. The Committee answers it as the
simple sum of marginal regulatory capitals, defined next.
Ʃ Pr[X≤x|N=n]= ƩPr[ƩS ≤x]Pr[N=n]
∞
n=0
∞
n=0
n
k=0
k
(2)
29
Calculation of the marginal regulatory capital is based on Value-at-Risk.
As we are dealing with operational risk,
we will call this metric opvar. IF F is the
distribution function for the aggregate
loss X, opvar will be the α percentile (Basel II recommends α = 99.9%) of F, that is,
(equation 3)
(3)
opvar(X)=F–1(0,999)=> Pr(X>opvar(X))=0,001
Figure 1 shows the (marginal) Expected Loss, Unexpected Loss and Catastrophic Loss. Note that marginal unexpected loss UL, is directly dependent on
E(X) and opvar(X).
where Xi represents the loss for
risk class i.
If all dependencies among aggregate loss distributions could be measured
by the correlation, by adding together the
capital load used to cover against operational risk we would be assuming that
risk classes are perfectly correlated. This
implies that all extreme operational loss
events must occur at the same time in all
classes, which is unrealistic (Alexander,
2003). This fact was a determinant motivation for this study, as the capital thus
calculated is overestimated because it
is based on an unrealistic assumption of
perfect stochastic dependence. Our objective is to present a capital calculation
method such that the resulting capital
can cover all unexpected losses without
being conservative.
4. Modeling
Dependence
Marginal regulatory capital, CR,
must cover UL. Therefore, CR is given by:
CR(X) = opvar(X) – E(X)
(4)
Using the sum method, capital
must be calculated as follows:
k
CRSOMA=
ƩCR(X ),
i=1
i
(5)
Stochastic dependence is present in many financial problems. Natural
catastrophes can directly influence equity price drops; changes in one country’s
economic indices influence those of other
countries. In operational risk, dependence is present in many instances; modeling dependence, however, is not always
a simple task. This is perhaps why many
problems, whether financial or not, force
assuming independence among the random variables at hand or, in the problem
at hand, assume perfect positive dependence.
In Section 2, while introducing the
assumptions of LDA, we find an example
of assumed independence when we consider that frequency and severity are in-
30
dependent for a certain risk class. This
assumption is questionable.
Another instance where the presence of dependence is evident in operational risk is between the losses of each
risk class. This means that, by protecting
against a loss with regulatory capital of a
certain class A, we may at the same time
be protecting against a loss of class B.
The sum method for calculating regulatory capital, as seen in the previous section, ignores this fact by assuming that
losses in each class are perfectly and positively dependent that is, that if losses
occur in A they will certainly occur in B.
This notion, as seen before, is unrealistic and raises the final regulatory capital
to conservative levels. With this new proposal, we present a model for the dependence discussed in this paragraph, that
is, among risk classes.
A widely disseminated and popular tool for stochastic dependence modeling is the Copulas Theory. Several works
exist in financial literature that use this
theory, such as Böcker & Klüppelberg
(2008) and Embrechts (2003). A standard
reference in Copulas-related studies is
Nelsen (2006), which has several definitions and results that provide a basis for
this paper. We briefly discuss this theory
next.
For the sake of simplicity, let us
assume the bivariate case, that is, that an
institution has two losses for classes A
and B, respectively X and Y. If F is the distribution function of X, and G is the distribution function of Y, then a bivariate
copula C is a function that couples (junta) F and G into a joint distribution function for X and Y, which we will call H(x,
y). A very important fact that enables de-
pendence modeling is that, for any marginal distribution functions, there is a copula such that (see Sklar’s Theorem in Nelsen (2006)):
H(x,y)=C(F(x),G(y))
(6)
Infinite copulas exist and each
one has its own unique characteristics.
When X and Y are independent, that joint
distribution is simply the product of the
marginal F and G. The copula answers
the question of how to build a joint distribution of X and Y when they are not independent. The distribution theoretically includes all the independence information
between the two variables, and this information can be capture by means of the
copula C.
This paper’s goal is not to provide
an in-depth discussion of the theory, but
rather to apply it in connection with the
presence of dependence among a financial institution’s risk classes.
In practice, an institution choosing to use copula-based methods for
regulatory capital calculation purposes
must use its historic data to estimate, in
addition to marginal distributions F and
G, a copula C.
5. Methodology
Based on the previous sections,
there is a need to search for alternative
methods to the sum method in order to
obtain regulatory capital by modeling the
dependence among risk classes. In the light of this, this Section proposes a way to
31
calculate regulatory capital, that is, another answer to the question “what are total unexpected losses?” The method is bivariate and based on four assumptions,
as follows.
1. Consider expert opinion: the
opinion of experts from both the institution and its regulator, when quantified as
an index, makes regulatory capital more
realistic in terms of the financial scenario in which the institution operates. The
Committee allows taking this opinion into
consideration.
2. Modeling dependence among
risk classes: dependence modeling is
performed by means of the joint distribution of losses obtained via copula. This
dependence can be modeled in several
ways. For this method, we propose modeling via the probability of marginal unexpected losses occurring jointly, that is,
(7)
p=Pr[E(X)<X<opvar(X)eE(Y)<Y<opvar(Y)]
The greater this probability, the
greater the regulatory capital
must be.
3. If X and Y and perfectly and
positively dependent, then regulatory
capital must equal the capital obtained
by means of the sum method: in this
case, modeling uses the Fréchet lower-limit copula and to obtain the higher probability described in Assumption 2. We have
seen that the sum method assumes that
X and Y are perfectly and positively rela-
ted and therefore overestimates regulatory capital. The method proposed in this
paper should be no different. We must
overestimate capital to the levels of the
sum method if, in fact, X and Y are perfectly and positively dependent.
4. If X and Y are perfectly and
negatively dependent, then regulatory
capital must be equal to the higher of
the tow marginal regulatory capital values: this assumption guarantees, at least, allocation of the larger marginal regulatory capital. If X and Y are perfectly
negatively dependent, it is possible to demonstrate that the probability described
in Assumption 2 equals zero (assuming
that the loss distributions are asymmetrical to the left, which is usually true for
operational risk modeling). If this probability is zero, three cases may occur:
i. event XЄ(E(X),opvar(X)) occurs
and event YЄ(E(Y),opvar(Y)) does not
occur;
ii. event XЄ(E(X),opvar(X)) does
not occur and event YЄ(E(Y),opvar(Y))
occurs;
iii. events XЄ(E(X),opvar(X)) and
YЄ(E(Y),opvar(Y)) do not occur.
Therefore, it is more plausible to
allocate the maximum of the marginal regulatory capitals, as we cannot tell in advance which of the three cases above will
occur.
Based on these four assumptions, we define a functional form that relates the probability, p, of Assumption 2,
with total regulatory capital, denoted by
CRPROP: (equation 8)
( )
p
CRPROP(p,k)=min(CR(X),CR(Y)) p+
(8)
1
tg(kπ/2)
+max(CR(X),CR(Y))
32
where kε(0,1) and is related with
expert opinion and p+ is the probability presented in Assumption 2, assuming
that X and Y show perfect positive dependence. To determine the value of we use
the Fréchet higher limit copula, C(F(x),
G(y)) = min(F(x), G(y)), and obtain:
(9)
p = 0.999– ma x(F(E( X )),G (E( Y )))
+
The assumptions above serve as
the method’s properties. The index k represents expert opinion and lies within interval (0,1). The higher k, the more conservative the method, that is, the greater the
regulatory capital given by CRPROP (p,k),
with the regulatory capital obtained by the
sum method as the upper limit.
The index k may be regarded as a
representation of the current financial scenario, causing final regulatory capital to
depend on it, as our interest lies with losses one year ahead, making regulatory capital better adjusted and more current (as
a loss occurring ten years ago has a different aspect than one had currently). Some
interesting properties this index shows include:
1
1. If k= 2 then the relationship between p and CRPROP is linear.
2. If k→1 then the proposed method equals the sum method, that
is, CRPROP=CR(X)+CR(Y)
The behavior of the method proposed in this Section as well as its comparison with the sum method, are the topics of the next Section.
6. Theoretical Behavior
of the Model
In order to check the behavior of
the model proposed in Section 5, we assume that a given institution has two
risk classes with the losses X and Y. We
further assume that the loss distributions have been estimated via LDA that
X ~ Weibull (1.5;1.25) and Y ~ Lognormal
(0;0.5) have been obtained.
Table 2 shows the expected losses and opvars of losses X and Y, as well
as the regulatory capital obtained by means of the sum method.
Table 2: Expected losses, opvars of
loss variables X and Y, and CRSOMA.
E(X)
1.13
opvar(X)
4.53
E(Y)
1.13
opvar(Y)
4.69
CRSOMA
6.96
Calculating the coefficients of the
equation shown in Section 5 yields:
( )
p
CRPROP(p,k)=3.41 0.4
1
tg(kπ/2)
(10)
+3.56
where p is the probability described in Assumption 2 and k is the (0,1) index that represents expert opinion.
33
The probability distributions of
X and Y enable studying the proposed
model’s theoretical behavior, as long
as we set a pattern for the dependence structure between X and Y and vary
such a structure within the pattern’ limits.
In other word, fixing a parametric copula between X and Y enables varying the
copula’s dependence parameter and obtaining the behavior of CRPROP (p,k).
In this article, we use the Gaussian copula, with the added benefit that
this copula only has one parameter, the linear correlation coefficient of X and Y, p.
Some other copula choices include Frank,
Gumbel, Clayton, t-Student, and more. To
study the proposed model’s theoretical
behavior with the fixed distributions of
X and Y¸ as noted above, and the Gaussian copula, we set certain values for p ε
(-1,1), obtaining different p values. Having
done this, we also set values for k ε (1,1).
With the p and k values in hand, we use
the equation above and obtain different
values for CRPROP (p,k).
Based on the results shown in
Table 3 and Graphic 2, regulatory capital, according to the method presented in
this article, increases with the probabiliTable 3: Values for the total
proposed regulatory capital
K 0.2
0.5
0.8
→1
p
0.1
3.60
4.41
5.73
6.96
0.2
3.96
5.25
6.27
6.96
0.3
4.97
6.12
6.66
6.96
p+
6.96
6.96
6.96
6.96
ty of two unexpected losses happening
simultaneously and as the expert-opinion
index, k, approaches 1.
6.1 Method Implementation
Institutions that choose to use the
method proposed here must, firstly, estimate the probability distributions of all
losses relative to their risk classes, which
may be done using LDA and Monte Carlo
simulations. Frachot et al. (2003) discuss
some practical considerations for LDA in
connection with operational risk.
Having done this, the institution
must group those losses by twos. This raises a more complex issue, as the proposed method only addresses the bivariate
case, and extending it to multivariate situations is no trivial task. Gonçalves et al.
(2014) address this choice. After pairing,
the institution must estimate a bivariate
copula for each pair of variables. Durrleman (2000) provides a detailed study of
parameters estimation and copula choice. Some software packages include implementations for copula-choice estimation; R, for one, has implemented a package called 'copula'. Yan (2007) provides
34
several thoughts regarding this tool.
Having grouped the losses by
twos and selected the appropriate copulas
(using the method selected by the institution), all that remains is to calculate the coefficients of the equation provided in Section 5, obtaining CRPROP (p,k) for each pair
of variables. If, for example, the institution
has 56 risk classes, it will obtain 28 values
for CRPROP (p,k) – with an expert-selected k
for each pair of variables. We therefore suggest that the institution’s total regulatory
capital should be the sum of those “marginal” capitals. Please note that the term
“marginal” no longer concerns each risk
class in separate, but rather a pair of classes, where for each pair the dependence is modeled by means of copulas (that
is, an aggregation by risk-class pairs). Clearly, the resulting sum total will be lower
than the capital obtained by the sum method. If the institution has an odd number
of risk classes, it may group them by twos
and proceed as discussed in this paragraph; for the unpaired class, the “marginal”
capital may be calculated simply as the difference between opvar and the expected
loss, as noted earlier.
In sum, an institution choosing
this method should estimate the frequency and severity distributions for each
risk class, obtaining each class’s loss distributions. The losses must then be paired and a copula selected for each pair.
This done, all that remains is to calculate
the capital for each pair using the method
proposed and add them all up, obtaining
a final capital to be allocated.
7. Conclusion
In 2004, when the Basel Committee published Basel II, operational risk
measurement was very recent and there was scarce data applicable. This led financial institutions to be exceedingly cautious, using the total unexpected loss obtained by means of the sum method and
thereby overestimating the capital they
were to allocate.
Today, however, financial institutions are in a position to more allocated
regulatory capital against operational risk
more realistically than using the sum method alone.
This article presents a possible
way to model loss dependence, returning
a regulatory capital based on assumptions that are relevant to the situation. The
method’s main property is the inclusion –
even while using fequency-related estimation methods – the opinions of experts
both from the institutions and their respective regulators. The literature on the
topic provides some methods for the allocation of regulatory capital against operational risk, modeling the dependence between risk classes, as in Alexander (2003)
and Frachot (2004), but remains very scarce, particularly in the Brazilian scenario.
The Authors
35
Débora Delbem Gonçalves
Débora Delbem Gonçalves has a Master’s Degree in Statistics from Universidade Federal de São Carlos (2014),
where her research concentrated on statistical modeling for operational risk. She has a degree in Mathematics
from Universidade Estadual Paulista “Júlio de Mesquita Filho” (2011). She is currently a professor at União das Faculdades dos Grandes Lagos.
Guaraci Requena
Guaraci Requena has a Master’s Degree in Statistics from Universidade Federal de São Carlos (2014), where he,
too, concentrated his research on statistical modeling for operational risk. He has a Bachelor’s Degree in Applied
and Computing Mathematics from Universidade Estadual Paulista “Júlio de Mesquita Filho” (2011). He is currently
a Doctor of Statistics candidate at the Universidade de São Paulo Mathematics and Statistic Institute.
Carlos Diniz
Carlos Diniz has a PhD in Statistics from the University of South Carolina (1993), a Master’s Degree in Statistics
from Universidade Estadual de Campinas (1986) and a Bachelor’s Degree in Mathematics from Universidade Federal do Maranhão (1982). He is an associate professor at Universidade Federal de São Carlos and the Coordinator of
the Graduate Statistics Program at DEs-UFSCar. He operates in the areas of Statistical Modeling, Data Mining, Risk
Bibliography
Analysis and Bayesian Inference.
ALEXANDER, Carol (Ed.). Operational risk: regulation, analysis and management. Pearson Education, 2003.
BÖCKER, Klaus; KLÜPPELBERG, Claudia. Modelling and measuring multivariate operational risk with Lévy
copulas. Journal of Operational Risk, v. 3, n. 2, p. 3-28, 2008.
CRUZ, Marcelo G. Modeling, measuring and hedging operational risk. New York: John Wiley & Sons, 2002.
DELOACH, James W. Enterprise-wide risk management: strategies for linking risk and opportunity. Financial
Times Prentice Hall, 2000.
DURRLEMAN, V.; NIKEGHBALI, A.; RONCALLI, T. Which copula is the right one, 2000.
EMBRECHTS, Paul; LINDSKOG, Filip; MCNEIL, Alexander. Modelling dependence with copulas and applications
to risk management. Handbook of heavy tailed distributions in finance, v. 8, n. 1, p. 329-384, 2003.
Bibliography
36
EMBRECHTS, Paul; PUCCETTI, Giovanni. Aggregating risk capital, with an application to operational risk. The
Geneva Risk and Insurance Review, v. 31, n. 2, p. 71-90, 2006.
FRACHOT, Antoine; GEORGES, Pierre; RONCALLI, Thierry. Loss distribution approach for operational risk.
Manuscript. Groupe de Recherche Operationnelle, Credit Lyonnais, France. April. http://gro. creditlyonnais. fr/
content/wp/lda. Pdf, 2001.
FRACHOT, Antoine; MOUDOULAUD, Olivier; RONCALLI, Thierry. Loss distribution approach in practice. The
Basel Handbook: A Guide for Financial Practioners, 2003.
FRACHOT, Antoine; RONCALLI, Thierry; SALOMON, Eric. The correlation problem in operational risk.
OperationalRisk Risk's Newsletter, 2004.
GIACOMETTI, Rosella. Aggregation issues in operational risk. 2008. Tese de Doutorado. School of Management,
Syracuse University.
GONÇALVES, Débora; REQUENA, Guaraci; DINIZ, Carlos. Risco Operacional: O cálculo do Capital Regulatório
usando dependência. Dissertação de Mestrado, São Carlos, 2014.
GUIMARÃES, Terence Augusto. Implementação do método de distribuição de perdas para risco operacional.
2003. Tese de Doutorado.
JORION, Philippe. Value at risk: the new benchmark for controlling market risk. New York: McGraw-Hill, 1997.
JÚNIOR, DUARTE; MARCOS, Antonio. AM Risco: definições, tipos, medição e recomendações para seu
gerenciamento. Gestão de risco e Derivativos. São Paulo: Atlas, 2001.
KÖRNERT, Jan. The Barings crises of 1890 and 1995: causes, courses, consequences and the danger of domino
effects. Journal of International Financial Markets, Institutions and Money, v. 13, n. 3, p. 187-209, 2003.
MEDINA, Fabio A. S.; BARBOSA, Edson L. D. Grupos Homogêneos de Risco: Uma Proposta Utilizando a Análise
de Clusters. Tecnologia de Crédito. São Paulo: Serasa, n. 85, p.6-20, 2013.
NELSEN, Roger B. An introduction to copulas. Springer, 2006.
YAN, Jun. Enjoy the joy of copulas: with a package copula. Journal of Statistical Software, v. 21, n. 4, p. 1-21, 2007.
37
Deposits Multiplier or
Loan Multiplier?
João Ricardo M. G. Costa Filho
38
Abstrat
Macro- and monetary economics textbooks frequently discuss the concept of the “money multiplier”.
Simply put, it states that, after a new deposit, a bank1
or the banking system as a whole multiplies the quantity of money in the economy. Based on this, the economic
policy management that was fundamentally exercised in
the past through the management of a monetary aggregate intended to stimulate or destimulate activity by controlling the money supply.
Over time, best monetary policy practices started
to suggest controlling short-term interest rates instead of
managing a monetary aggregate. Even after this shift, reproduction and use of the money multiplier concept persists. A question, however, remains: is the role of banks
limited to that of passive intermediates, as the theory suggests?
Keywords: Money Multiplier, Vector Autoreggression (VAR).
Introduction
In this article, I go back to what we
learned from Tobin (1963), as summarized
and updated by McLeay, Radia & Thomas
(2014). Banks have the ability to create money, based on the deposits they receive,
but the loans they grant. Banks do not operate, simply and passively, as funds multipliers, but actively and complexly, creating
funds via credit.
Application to the Brazilian case is
interesting. Because credit here is not limited to non-earmarked funds (“recursos livres”, in the original), but from earmarked
funds (“recursos direcionados”) as well, its
relationship with monetary aggregates is
unique. While an increase in the outstanding balance of credit from non-earmarked
funds does increase the quantity of money
(M2) in the economy, the same cannot be
said of an addition to the balance of credit from earmarked funds. The conclusion
emerges from the estimates of a vector autoreggression (VAR) model whose results
this article discusses. Non-“multiplication”
by certain kinds of earmarked funds raises questions about their allocative efficiency, and the need to maintain old rules
in a more evolved marketplace.
39
Deposits then credit, or
credit then deposits?
Contrary to the perception that
pervades some textbooks, banks create
money actively through credit (and not deposits). The work of McLeay, Radia & Thomas (2014) didactically presents the dynamics I will discuss next, and their article
has provided the basis for this section.
From the aggregate viewpoint,
the process unfolds as follows: when a
loan is granted, a deposit is automatically
created in a checking account held by either the actor who contracts the debt or
the possessor of an asset that the obligor wishes to buy (such as the owner of
a piece of real estate). We can graphically
analyze the change in balance for the system as a whole (Graphic 1).
The dynamics is similar for the
households’ balance. From the aggregate viewpoint, there are new loans (household liabilities) and new deposits (household assets). Therefore, in order to create money, a bank must grant loans, but
its ability to do so is limited by the preferences of actors and by monetary policy.
By raising interest rates, the Central Bank
makes consumption via credit more expensive (and destimulates investments).
In addition to reducing the demand for
funds, more expensive credit may stimulate supply-side rationing2.
The money multiplier theory, in its
turn, assumes that when a bank receives
a deposit, it may use some of this money
(depending on the reserve rate) as credit, the amount of which will be deposited
in another checking account, multiplying
the funds. This dynamics faces several
40
problems: first, from the aggregate point
of view, there may be little or no change, as the deposit one actor makes reduces the deposit one or more other actors
would have made since it was made into
savings instead of funding consumption.
In addition, “simple multiplication” casts
banks in a passive intermediating role.
From the monetary policy angle, it is important not only to understand the distinction, but also the change the analysis
of the transmission of monetary policy via
the credit channel.
Empirical Analysis
Based on the above rationale, one should expect the money multiplier to have consistently increased, since credit in Brazil has been growing at a
brisk pace. The data, however, do not support this conclusion. In fact, the opposite has been taking place. Analysis of the
multiplier’s path in recent years shows a
clear decreasing trend.
This hypothesizes that credit growth was offset by a shift in the ratio between non-earmarked and earmarked
funds. Increased allocation to earmarked
funds generates lower money creation by
the financial system, while increased credit from non-earmarked funds has the opposite effect.
To test the hypothesis, I estimated an unrestricted vector autoregressive
model. Generically:
p
Yt=μ +
∑ϕ ∙ Y
i
t-i
+ut , {i
ϵ N tal que i ϵ
| [1,p]}
i=1
where Yt is the vector of endogenous variables, Yt-i represents the vector with the variables lagged i times. p is
the number of lags in the model, μ is the
constants vector, and ut is the error vector.
The selected variables are: change in 360-day fixed interest rates, logarithmic change in IBC-Br (the Central Bank
of Brazil’s activity index, a monthly proxy
for GDP), the logarithmic change in M2,
the logarithmic change in the balance of
credit from non-earmarked funds, and
the logarithmic change in the balance of
credit from earmarked funds 3
The leg-selection tests Final Prediction Error (FPE), LR tests (LR), and
Schwarz information criterion (SC) favored one lag (therefore, p=1). The results
of the estimations can be seen in Table 1
where shows that the change in the balance of credit from non-earmarked funds has a positive effect on the quantity of
money (M2), whereas the opposite is not
true. Statistically, no evidence exist to reject the hypothesis that the coefficients of
the two equations (credit from freely available and from earmarked funds) are zero.
Furthermore, as expected, there is evidence (with slightly greater significance) that an increase in the volume of credit from earmarked funds cau-
41
Table 1: VAR
Source: Developed by the author; Estimations by the author based on the unrestricted VAR model; In the order:
Coefficient, standard deviation and t statistic in [].
42
ses – and more constantly so – a negative
change in the balance of credit from freely available funds. However, no evidence
exists to the contrary.
Based on the estimations for the
push-response functions, shown in the
graph below, a positive shock in the balance of credit from freely available funds has
a positive effect on the quantity of money
over a 12-month horizon. (Graphic 3)
We may therefore conclude that
the result of the econometric estimations
supports the article’s hypothesis that money multiplication occurs based on loans, rather than deposits as argued in Tobin (1963) and in McLeay, Radia & Thomas (2014). In the Brazilian case, evidence exists that multiplication occurs when
the credit coms from non-earmarked funds, while it does not appear to occur with
an increment in credit from earmarked
funds.
Closing Comments
Two movements have been observed simultaneously. Credit grows briskly
while the money multiplier drops. These stylized facts challenge the traditional theory that money creation emerges
from deposits and that, therefore, if both
the volume of money (M2) and the volume of credit increase, one should expected multiplication to be taking place.
This article challenges this view
based on a more modern discussion (although the knowledge dates back from
the 1960s) wherein monetary policy is driven mainly through short-term interest rates, and money creation occurs actively
on the part of banks.
However controversial this may
seem, money multiplication does not occur after an increment in the volume of
deposits, but actually through credit. This
conclusion finds support in the econometric estimations provided in this article
and is of great importance to monetary
policy analysis and practice. The banks’
limited ability to create currency sheds light on an important monetary policy
transmission channel.
The estimations presented in this
article show that positive changes in credit from non-earmarked funds have a positive effect on an accumulated 12-month horizon. Furthermore, indications exist
that a compounding effect (more earmarked credit relative to loans from non-earmarked funds) may lie behind the money
multiplier’s decreasing trend.
These conclusions may raise discussions concerning more flexible funds
directing rules. Perhaps the marketplace
should more freely (but still under supervision) allocate funds, and this reallocation (which would also result in a less active government policy via BNDES) would
have positive effects on the quantity of
money in the economy.
It is worth pointing out that new
contributions may add depth to the analysis based on the various products available from credit markets, as they display
different dynamics. For example Costa Filho & Turolla (2013) analyze the cycles of
earmarked credit to consumers and find,
firstly, that product concentration exists.
This concentration causes certain products to show opposing long-term trends, in addition to different responses to
short-term shocks. New studies might investigate what kinds of products lead to
greater money multiplication, thereby
43
helping monetary policy-making and the
regulation of the financial system.
Author
Notes
1. This article is concerned only
with banks that may receive deposits from
and grant loans to households and banks.
2. Stligtz and Weiss (1983) show
that the demand-supply balance in a credit market with imperfect information –
as is usually the case – cause banks to
ration credit and fail to meet part of the
demand for funds, as, beyond a certain
interest rate (below the level that would
prevail under more favorable competitive
conditions), only high-risk takers will be
willing to take on credit, leading to an adverse selection problem. Interest-rate hikes may speed up the rationing process.
3. All series deseasonalized by the
author using the X-13 procedures under
Eviews 8, except for IBC-Br, whose deseasonalized value is published by the author. The codes for the series are as follows: interest rate –7827; IBC-Br – 17632; M2
– 1837; balance of credit from non-earmarked funds – 20542; balance of credit from
earmarked funds – 20593.
João Ricardo M. G. Costa Filho
PhD Candidate in Economics at Universidade do Porto, Associate at Pezco Microanalysis and graduate-program
References
Professor at FIA and Fipe. E-mail: [email protected]
Banco Central do Brasil. “Séries Temporais”. Disponível em www.bcb.gov.br, acesso em junho, 2014.
COSTA FILHO, M. G. João Ricardo; TUROLLA, Frederico A.. “Household Credit Market Dynamics”, Tecnologia
de Crédito, Volume 83, pp. 29-42, 2013.
MCLEAY, Michael; AMAR Radia, e RYLAND Thomas,. “Money creation in the modern economy”, Quarterly
Bulletin, Bank of England, 2014.
TOBIN, James, “Commercial banks as creators of ‘money’”, Cowles Foundation Discussion Papers No. 159,
1963.
STIGLITZ, Joseph E.; WEISS, Andrews. “Credit Rationing in Markets with Imperfect Information”. The
American Economic Review, Volume 71, No. 3, pp. 393-410, Junho, 1981.
44
Recovery Risk:
Application of the Latent
Competing Risks Model to
Non-performing Loans
Mauro R. Oliveira
Francisco Louzada
45
Abstract
This article proposes a method for measuring
the latent risks involved in the recovery process of
non-performing loans in financial institutions and/or
business firms that deal with collection and recovery
processes. To that end, we apply the competing risks
model referred to in the literature as the promotion
time model. The result achieved is the probability of
credit recovery for a portfolio segmented into groups
based on the information available. Within the context
of competing risks, application of the technique yielded an estimation of the number of latent events that
concur to the credit recovery event. With these results
in hand, we were able to compare groups of defaulters in terms of risk or susceptibility to the recovery
event during the collection process, and thereby determine where collection actions are most efficient.
We specify the Poisson distribution for the number of
latent causes leading to recovery, and the Weibull distribution for the time up to recovery. To estimate the
model’s parameters, we use the maximum likelihood
method. Finally, the model was applied to a sample of
defaulted loans from a financial institution.
Keywords: Competing Risks, Credit Recovery,
Default.
1. Introduction
Statistical methods are used at
almost every stage of a successful business. In the financial industry, initially,
market surveys are applied for new product launches, followed by Scorecard
models to grant credit to new custo-
mers, Behavior Scoring models to increase loyalty and revenues per customer,
and finally Collection Scoring models,
which are statistical techniques intended to optimize the process of collecting
and recovering credits in default.
46
Therefore, statistical models
enable automating process, which is
crucial for the industry’s players to maintain a high portfolio growth.
In this paper, we propose to contribute to the employment of a statistical
method that, as far as the authors are
aware, has not been applied to analysis
of the collection process at a financial
institution. The results obtained enable
confirming how and when collection actions are most efficient for the bank and,
therefore, adding inputs to propose recovery process improvements.
For this particular effort, we have
available a dataset made up of approximately 22 thousand loans from a financial institution that entered default between 2009 and 2011. The rule to characterize default was the same for all customers, that is, 90 days past due payment
on the loans installments. The same collection process was applied to every contract, that is, they were all subjected to
the same actions on the part of the collections department. The financial institution that provided the data kept secrecy over the collection methods used.
The collection process chosen
by the institution considered a 24-month
workout period for defaulted loans and,
based on a collection rule, certain steps
were taken in an attempt to recover non-performing credits.
To apply the proposed methodology, we will only consider fully recovered contracts along with totally lost contracts. That is, if a contract has been partly recovered at the end of the 24-month
period, it will not enter the database for
application of the method.
Thereafter, our database includes information on time up to full recovery of the contract, and on the other
hand, information on fully lost contract.
In this latter case, obviously, the observations on date of recovery were not gathered. According to survival analysis
terminology, those times were regarded
as censored.
Table 1 summarizes the total
number of contracts that make up the
database available for modeling. They
include 22,109 defaulted contracts, of
which approximately 64% had not been
recovered by the end of the 24-month recovery period.
The bank only made available
two items of customer information, or
model co-variables. One concerns the
customer’s risk profile, referred to as
“Behavior Score range” (FX-BS), which
returns the values 1, 2, 3 and 4; the other
one has to do with the contracted product and is called “contract amount range” (FX-CV), also returning the values 1,
2, 3 and 4.
To more clearly illustrate the results obtained and enable easier comparison of inter-group susceptibility to recovery, we only consider some ranges
of the co-variables available. The data
on tables 1, 2 and 3 (developed by the
authors) indicate that customer profiles with Behavior Score range equal to
2 and contract amount range equal to 2
show the highest rates of recovery. These results find support in those obtained
in Section 3, with the application of the
competing risks model.
47
Table 1
Recovered
Unrecovered
% Non-recovery
Average
recovery time
(months)
Population: 22,109
8.047
14.062
63,60%
9,85
Range 1 –
Contracted
amount: 5,532
2.036
3.496
63,19%
10,35
Range 2 –
Contracted
amount: 5,478
2.552
2.926
53,41%
18,94
Range 1 – Behavior
Score: 7,245
1.719
5.526
76,27%
11,69
Range 2 – Behavior
Score: 5,503
3.280
2.223
40,39%
21,63
Sub-group
Recovered
Unrecovered
% Non-recovery
Average
recovery time
(months)
Subpopulation: Range 1 – Contracted amount: 2,895
1.203
1.692
58,44%
10,84
Range 1 – Behavior
Score: 1,338
347
991
74,06%
11,99
Range 2 – Behavior
Score: 1,557
856
701
45,02%
20,16
Sub-group
Recovered
Unrecovered
% Non-recovery
Average
recovery time
(months)
Subpopulation: Range 2 – Contracted amount: 3,270
1.694
1.576
48,19%
9,19
Range 1 – Behavior
Score: 1,827
618
1.209
66,17%
10,66
Range 2 – Behavior
Score: 1,443
1.076
367
25,43%
19,38
Group
Table 2
Table 3
48
Based on this data structure, that
is, with information on the occurrence or
non-occurrence of an event and the time
up to this occurrence, one may apply the
statistical methodology known as survival analysis. Development of the theory
and its application to real data are widely discussed in the literature, particularly in the medical area, where, for example, studies have been conducted on the
survival period of patients subjected to
different kinds of treatments and drugs. We recommend Maller & Zhou (1996)
and Ibrahim et al. (2001) to interested readers.
Competing risks modeling, which is this article’s purpose, is widely known in the literature and has been extensively discussed in papers such as Cooner et al. (2006), Cooner et al. (2007), Xu
et al. (2011). In addition to the large number of additional papers, this modeling
has been gaining importance due, mainly, to the work of Chen et al. (1999), Tsodikov et al. (2003), and Tournoud & Ecochard (2007).
As far as the authors' knowledge, competing risks modeling has not yet
been applied to modeling the risk behavior of credit portfolios during the recovery process. Therefore, by analyzing
the risk behavior leading to the event of
interest – recovery – we may then calculate the probability of recovery for a given contract within the chosen period.
With the results of the modeling
in hand, we compare the estimated latent risks in the process leading to recovery for different customer groups and
the respective probability of recovery.
Our main objective was to identify the
characteristics of customers that result
in greater efficiency in the recovery process.
The following sections are organized as follows:
2 – competing risks model and
how the model’s parameters are
estimated;
3 – application of the model to
the database;
4 – conclusions and discussion
of the results.
2. Model Formulation
In the formulation of a competing risks model, recovery, or any other
relevant event, is regarded as a result
brought about by causes that operate concurrently over time. Therefore,
two statistical distributions are attributed to formulate this model: one for the
random variable “time up to event” and
another for a random variable that models the number of competing events.
For an in-depth study of the matter, we
recommend the books of Crowder (2010)
and Pintilie (2006), among others.
Our dataset is made up of a population of approximately 22 thousand
defaulted contracts from a Brazilian financial institution’s credit portfolio. All
contracts are subject to the same collection rule, that is, the same collection
actions were implemented over a recovery process at most 24 months in length. The recovery process at hand resulted in one of two situations: time to full
recovery of the non-performing loans
and, for unrecovered ones, as in survival
analysis, time is considered to be censored at month 24.
49
In this paper, we use the probability distributions most frequently employed in survival analysis and competing risks modeling literature. We assume that the time to the event follows the
Weibull distribution, represented by the
random variable T, and that the number
of risk events follows the Poisson distribution, represented by the random variable M.
The next formulation assumes
that some clients may not be susceptible
to recovery, so that the number of competing risks for the recovery event may
be zero. The model is generally known
as the promotion time model, and has
appeared in the literature in previous
works like Chen et al. (1999) and Yakovlev & Tsodikov (1996).
Therefore, we assume M is Poisson distributed with a probability mass
function given by:
P(M=m)=
(θm exp(-θ)
m!
where θ>0 e m=0,1,2,....
For every i=0, 1, 2, ..., m, let Ti be
the random variable due to the ith risk factor leading to recovery, which is also assumed to be independent from the number
of risks given by M. The variable Ti is assumed to folllow the Weibull distribution,
whose probability function is given by:
Therefore, the time of the occurrence of the event is defined as the minimum time out of all m risk factors, that
is, Y=min(T0, T1,…,Tm).
As shown in Bereta et al. (2011),
Chen et al. (1999) and Yakovlev & Tsodikov (1996), the random variable Y, probability density function is:
f Y(t)=θf(t)exp[–θ(F(t))]
In the same reference, the authors give the survival function as
SY (t)=exp[–θ(F(t))]
As expected, the database has a
large number of unrecovered contracts.
The literature regards these as immune
to the event and, therefore, in our case,
they are regarded as contracts lost due
to default. The output of the model that
provides an estimate for this value is
known as cure fraction, and is given by
exp(-θ) in this case.
To estimate the model’s parameters, we use the maximum likelihood estimation with the presence of censored
events. The censure indicator is such
that δi=1 if the contract is recovered and
δi=0 otherwise. Therefore, the likelihood
function is given as:
n
L(Θ | t)=∏f Y(Θ | t)δiSY(Θ | t)1-δi
1
f(t)=γβγtγ–1exp(–(βt)γ)
onde Θ=(θ,γ,β).
where t>0, γ>0 e β>0.
50
3. Application
and “behavior score range 2” show the
highest estimated values for θ and, therefore, the most chance of effective implementation of the credit recovery process.
Equipped with the three parameters estimated by the competing
risks model, Θ = (θ, γ, β), we show on Tables 6 and 7 the values for the survival of
contracts for 12, 18 and 24 month intervals. According to our model’s development, SY (12months) concerns the probability of a defaulted contract being recovered after 12 months.
Since the contract tracking and
collection period is capped at 24 months, the values calculated in SY (24months) represent the probability of non-recovery of the non-performing contracts at the end of the 24-month period set for collection efforts. Note that
these values, seen in table 6 column SY
(24months) and in Table 7 as well, are
Competing risks modeling enables lenders to have practical interpretation of the parameters obtained. The
Poisson parameter θ represents the expected value of the random variable M,
and models the number of latent risks
leading to the relevant event. The Poisson distribution parameters are easily
interpreted for the purposes of risk-profile comparison: groups with a larger
number of factors leading to recovery
are more susceptible to recovery. In this
case, we may also say that these are the
groups with the highest risk of recovery.
Tables 4 and 5 show the estimated parameters and allow easy comparison of the Poisson parameter estimates across customer groups. Therefore,
the results shown in Tables 4 and 5 support the data shown in Tables 1, 2 and
3. We find that the risk profiles of customers with “contracted amount range 2”
Table 4
Group
Γ
β
θ
Exp(-θ)
Value Range I
1,157
18,762
0,614
0,510
Value Range II
1,157
18,762
0,871
0,418
BS Range I
1,260
23,152
0,413
0,661
BS Range II
1,260
23,152
1,422
0,241
Table 5
Group
Subgroup
Γ
β
θ
Exp(-θ)
Value Range I
BS Range I
1,297
28,504
0,541
0.581
BS Range II
1,297
28,504
1,458
0,232
BS Range I
1,304
18,551
0,544
0,580
BS Range II
1,304
18,551
1,849
0,157
Value Range II
51
Finally, Box 1 shows the degree of
risk associated with the implementation
of the recovery and collection process by
increasing order.
very close to the non-recovery values initially presented in tables 2 and 3, respectively.
Graphs 1 and 2, next, help compare the recovery risk profiles of the combined profiles formed by “Behavior range”
and “contracted amount range”.
As expected, the greater number
of latent competing risks for the occurrence of credit recovery is related to the greater chance – or risk – of occurrence of the
event of interest (recovery).
Box 1
Low: FX-BS1 combined with FX-CV1
Lower Medium: FX-BS1 combined with FX-CV2
Higher Medium: FX-BS2 combined with FX-CV1
High: FX-BS2 combined with FX-CV2
Table 6
Group
SY (12months)
SY (18months)
SY (24months)
% Unrecovered
Value Range I
75,89%
68,56%
63,65%
63,19%
Value Range II
67,63%
58,56%
53,70%
53,41%
BS Range I
86,39%
80,74%
76,46%
76,27%
BS Range II
60,46%
47,93%
39,74%
40,39%
Table 7
Group
Subgroup
SY (12months)
SY (18months)
SY (24months)
% Unrecovered
Value Range I
BS Range I
86,04%
79,51%
74,22%
74,06%
BS Range II
66,68%
53,91%
44,78%
45,02%
Value Range II
BS Range I
79,03%
71,45%
66,36%
66,17%
BS Range II
44,94%
31,91%
24,83%
25,43%
52
4. Conclusion
Authors
This article presents a new way
to measure the efforts of collection departments, which, generally speaking,
are present in every credit-granting industry. We therefore attempt to provide an additional tool to be used jointly
with existing methods in use in process
of collection and recovery.
The purpose of a great collection policy is to direct where to employ
more effort and, on the other hand, where there is no need to do it with excessive expenditure of resources, resulting in
a structured policy and economic recovery. We applied the statistical method
known as competing latent risks mode-
ling, as intended, and were able to compare groups of customers according to
the probability of recovery of their non-performing loans.
We thus expect that, with the
combination of a new additional statistical tool applied to the recovery process,
credit lenders may pursue the objective of maximizing the collection process,
with an immediate reduction of the losses arising from their financing activities.
5. Acknowledgments
This study was funded by CNPq
and FAPESP, Brazil.
Mauro Ribeiro de Oliveira Júnior
Has a Bachelor’s Degree in Mathematics from Universidade Federal de São Carlos (2003), a Master’s Degree in
Mathematics from Universidade Estadual de Campinas (2006) and an MBA in Risk Management from FIPECAFI
(2012). Is currently a Doctoral Candidate in Statistics at UFSCar. E-mail: [email protected]
Francisco Louzada
PhD of Statistics from Oxford University (1998), Master of Computer Sciences and Computing Mathematics from
Universidade de São Paulo (1991), Bachelor of Statistics from Universidade Federal de São Carlos (1988). Currently a Tenured Professor at Universidade de São Paulo. E-mail: [email protected]
References
53
BERETA, E. M., LOUZADA, F., & FRANCO, M. A. P. (2011). The Poisson-Weibull Distribution. Advances and
Applications in Statistics, v. 22, p. 107--118.
CHEN, M.-H., IBRAHIM, J. G., & SINHA, D. (1999). A new Bayesian model for survival data with a surviving
fraction. Journal of the American Statistical Association, v. 94, 909--919.
COONER, F., BANERJEE, S., & MCBEAN, A. M. (2006). Modelling geographically referenced survival data
with a cure fraction. Statistical Methods in Medical Research v. 15 (1): 307--324.
COONER, F., BANERJEE, S., CARLIN, B. P., & SINHA, D. (2007). Flexible cure rate modeling under latent
activation schemes. Journal of the American Statistical Association, v. 102: 560--572.
CROWDER, M. J. (2010). Classical competing risks, CRC Press.
IBRAHIM, J. G., CHEN, M.H., & SINHA, D. (2001). Bayesian Survival Analysis. Springer, New York.
MALLER, R. A. e ZHOU, X. (1996). Survival Analysis with Long-Term Survivors. Wiley, New York.
PINTILIE, M. (2006). Competing risks: a practical perspective, Vol. 58, Wiley.com.
TOURNOUD, M. e ECOCHARD, R. (2007). Application of the promotion time cure model with time-changing
exposure to the study of HIV/AIDS and other infectious diseases. Statistics in Medicine, v. 26, 1008--1021.
TSODIKOV, A. D., IBRAHIM, J. G., & YAKOVLEV, A. Y. (2003). Estimating cure rates from survival data: An
alternative to two-component mixture models. Journal of the American Statistical Association, v. 98, 1063--1078.
XU, R., MCNICHOLAS, P. D., DESMOND, A. F., & DARLINGTON, G. A. (2011). A first passage time model for
long-term survivors with competing risks. The International Journal of Biostatistics, v. 7(1), 1--15.
YAKOVLEV, A. Y. e TSODIKOV, & A. D. (1996). Stochastic Models of Tumor Latency and Their Biostatistical
Applications. World Scientifc, Singapore.
Proteja
A Serasa Experian oferece soluções sob medida para o seu
negócio. São produtos e serviços exclusivos, que vão desde
consultas de crédito até ferramentas e softwares para gerir melhor
sua empresa. Tudo muito prático, rápido e rentável. E o melhor:
cabe no seu orçamento. Entre em contato e prepare-se para se
destacar da concorrência.
Para saber mais, acesse
serasaexperian.com.br
ou ligue para 0800 773 7728
SoluçõeS eSPeCífiCaS Para
Cada etaPa do Seu negóCio


Busque novos clientes


Venda com segurança
Monitore empresas,
clientes e sócios
Cobre devedores
Compre só os dados de que precisa
Revista Tecnologia
de Crédito online
Acesse informação de
ponta, onde você estiver.
Sua revista Tecnologia de Crédito é publicada
exclusivamente na web.
É mais um passo da Serasa Experian para a redução do
impacto de suas atividades sobre o meio ambiente, além
de um alinhamento à tendência global da universalização
de conteúdos.
Acesse:
serasaexperian.com.br/tecnologia-de-credito, e
mantenha-se bem informado sobre o mercado de crédito.

Documentos relacionados