Financial Crises and Systemic Risk: the Role of
Transcrição
Financial Crises and Systemic Risk: the Role of
Financial Crises and Systemic Risk: the Role of Risk Management Gabriele Sabato Nº 88 August 2014 Modeling Dependence for Operational Risk Débora Delbem Gonçalves Guaraci Requena Carlos Diniz 24 Deposits Multiplier or Loans Multiplier? João Ricardo M. G. Costa Filho 37 Recovery Risk: Application of the Latent Competing Risks Model to Bad Credits Mauro R. Oliveira Francisco Louzada 41 Positive Prepare sua empresa para extrair o máximo de benefícios Saiba como explorar todo o potencial dessa nova realidade Conceda mais crédito com menos riscos Aperfeiçoe sua gestão de clientes Minimize prejuízos causados por fraudes e inadimplência dos dados positivos com a ajuda da Serasa Experian. Positive-se! Contrate agora mesmo a Consultoria Serasa Experian em Cadastro Positivo e rentabilize suas decisões de negócios. Para saber mais, acesse serasaexperian.com.br/cadastropositivo ou ligue para 0800 773 7728 Aumente o retorno das suas ações de cobrança + ++ 3 06 Financial Crises and Systemic Risk: the Role of Risk Management Gabriele Sabato The article analyzes financial crisis and systemic risk literature and history, and discusses how to prevent and avoid the problem. It addresses how financial institutions may act to mitigate the impact of these troublesome situations and help governments alleviate the impact of future financial crises. 24 Modeling Dependence for Operational Risk Débora Delbem Gonçalves Guaraci Requena Carlos Diniz A new method for calculating the regulatory capital intended to protect against operational risk, is proposed in this article. The method is bivariate (considers the dependence between two risk classes), based on important capital-allocation assumptions, and involves modeling the dependence across a financial institution’s risk classes, enabling more realistic regulatory capital calculations. 37 Deposits Multiplier or Loans Multiplier? João Ricardo M. G. Costa Filho This article finds that money multiplication occurs not after an increase in the volume of deposits, but rather by means of credit. This realization is supported with the article’s econometric estimations and very important for the purposes of monetary policy analysis and conduction, suggesting the possibility of enabling the marketplace to more freely allocate funds. 44 Recovery Risk: Application of the Latent Competing Risks Model to Bad Credits Mauro R. Oliveira Francisco Louzada The study proposes a method for measuring the risks involved in the process of recovering late loans granted by financial institutions and/ or business firms involved in the collection and recovery processes. It applies the competing risks model referred to in the literature as the promotion time model to arrive at the probability of recovery of credits in a portfolio segmented into groups. 4 From the Editor Gabriele Sabato, an experienced risk-management practitioner who has been working and doing research in this field for more than 12 years, gives us an important article on risk management. Sabato, who holds a Doctor’s decree in Finance from the University of Rome “La Sapienza”, examines past financial crises and factors that may alleviate the impact of such crises over the economy in the future. He argues that regulation is a key element to reduce systemic risk but, in order to achieve the expected benefits, risk management and control at financial institutions must be improved in parallel. That is, financial institutions have an opportunity to draw a competitive advantage from their risk-management capabilities, in order to achieve sustainable profitability growth in the future. Sabato argues that a growing recognition exists that the changes mean that risk management at the better-performing organization is more closely associated with strategic planning. This management is done proactively, while considering how these capabilities may help business firms more quickly enter new markets or explore new growth strategies. When properly implemented, risk management is a matter of balancing a company’s appetite for risk and its ability to manage risk. According to Gabriele Sabato, this is a great opportunity for risk management to finally find its leading role in the shifting financial culture and to help governments and regulators mitigate the impact of the next financial crises. Operational risk is the subject of a timely article by Masters of Statistics Débora Delbem Gonçalves Guaraci Requena and Carlos Diniz. The study is important because, in addition to addressing operational risk and some of the guidelines provided in Basel II, it also provides a new method for calculating the regulatory capital intended to protect against this risk. The focus of the paper lies on Basel II’s first pillar, that is, it emphasizes the calculation of the capital that financial institutions must allocate with their respective regulators in order to protect against operational risk. Financial institutions have recently begun to concern themselves with calculation of this capital, as proposed by the Basel Committee in 2004. According to the authors, the Committee suggested a calculation method that overestimates the final capital allocated, based on the incorrect assumption of perfect positive dependence among all risk classes. The study presented here, which includes the new methodology, considers the dependence between two risk classes and is based on important capital-allocation assumptions. It involves modeling dependence across a financial institution’s risk classes, enabling more realistic regulatory capital allocation. It further provides a comparison between the method provided by the Basel Committee and the one proposed in this study. Finally, the paper carries out a theoretical study of both methods, with the loss probability distributions of both methods, using the Gaussian copula. . MsCs Francisco Louzada and Mauro Ribeiro de Oliveira Júnior offer an article on credit recovery. According to them, the combined application of statistical resources to the recovery process enables financial institutions and business firms involved with collection and recovery processes to maximize their efforts, that is, minimize losses and reduce costs. The two professors apply the competitive risks model referred to in the literature as the promotion time model to obtain the probability of reco- 5 very of the credits in the portfolio, segmented by groups according to the information available. They specify the Poisson distribution for the number of latent causes leading to recovery, as well as the Weibull distribution for recovery times. Estimation of the model’s parameters relied on the maximum likelihood method. The results obtained then enabled comparing groups of defaulters in terms of risk, or susceptibility to the recovery event, over the duration of the recovery process, indicating where collection actions might be most effective. This enables structuring a collection policy, making for a more economical process. In his article, João Ricardo M. G. Costa Filho, an associated at Pezco Microanalysis and a Graduate Program Professor at FIA and Fipe, questions whether banks are deposits or loans multipliers. The Professor agrees with the claim that banks have the ability to create currency. Not, however, based on the deposits they receive, but on the loans they grant. Banks do mul- tiply funds passively, but do do in an active and complex manner through credit. According to the author, there are in Brazil indications that multiplication occurs when the credit comes from non-earmarked funds, whereas it does not appear to happen after an increase in credit from earmarked funds. Costa Filho writes that several problems exist with the dynamics of money multiplier theory, which assumes that a bank, upon receiving a deposit, may use part of the funds (depending on the reserve-banking rate) as credit that will be deposited into a different account, thereby multiplying money. Firstly, from the aggregate viewpoint, there may be little or no change, as a deposit one actor makes reduces the deposits other actors might make, as it becomes savings instead of financing consumption. In addition, “simple multiplication” casts banks in a passive intermediating role. From the viewpoint of monetary policy, it is relevant to not only understand the distinction, but to change the analysis of how monetary policy is transmitted via the credit channel. CREDIT TECHNOLOGY YEAR XIII Trimonthly published by Serasa Experian Nº 88 ISSN 2177-6032 President - Brazil Desktop Publishing José Luiz Rossi Gerson Lezak Business Units Presidents/Superintendents Illustration Juliana Azuma, Marcelo Kekligian, Júlio Leandro, Gerson Lezak Mariana Pinheiro and Steven Wagner Translation Directors Allan Hastings Amador Rodriguez, Guilherme Cavalieri, Lisias Lauretti, Correspondência Paulo Melo, Silvânio Covas and Valdemir Bertolo Serasa Experian - Comunicação & Branding Responsible Editor Alameda dos Quinimuras, 187 - CEP 04068-900 - São Paulo - SP Rosina I. M. D’Angina (MTb 8251) www.serasaexperian.com.br Assistant Editor [email protected] Nancy Galvão The concepts issued in the signed articles are the responsibility Graphic Design of the authors, which do not necessarily express the point of view Luis Barbuda of Serasa Experian and the Editorial Council. Cover Total or partial reproduction of the articles hereby published Gerson Lezak is strictly forbidden. 6 Crises Financeiras e Risco Sistêmico: o Papel da Gestão de Risco Gabriele Sabato 7 Sumário Os temas debatidos neste artigo partem da experiência com crises financeiras passadas para determinar os fatores que podem ajudar a atenuar seu impacto sobre a economia no futuro. Grande parte do trabalho já foi realizada e, em muitos casos, na direção certa, mas uma nova era acaba de começar. A regulamentação é identificada como um elemento-chave para reduzir o risco sistêmico, mas, para atingir os benefícios esperados, será necessário desenvolver em paralelo o aprimoramento da gestão e do controle do risco nas instituições financeiras. Palavras-chave: Crises Financeiras, Risco Sistêmico, Momento Minsky, Gestão de Risco. Introdução As crises têm sido fenômenos recorrentes nos mercados financeiros e, assim, este artigo analisa a literatura e a história das crises financeiras e do risco sistêmico, para em seguida, abordar a questão de serem as crises evitáveis e previsíveis, com foco específico na maneira como as instituições financeiras podem atenuar seu impacto. A estrutura de uma crise pode ser dividida em duas fases: uma fase de formação, em que surgem bolhas e desequilíbrios, e uma fase de crise, durante a qual o risco acumulado se materializa e a crise irrompe. Durante a fase de formação, os mercados experimentam bolhas de preços de ativos e surgem desequilíbrios. Esses desequilíbrios costumam acumular-se lentamente no segundo plano e a volatilidade tende a ser baixa. No começo, os desequilíbrios que acabam por levar a uma crise financeira são, frequentemente, de difícil detecção. Por exemplo, no começo, um boom dos preços dos ativos pode ser muitas vezes racionalizado como alguma forma de inovação. Tal inovação pode ser uma mudança tecnológica (ferrovias, telégrafo, Internet), uma liberalização financeira (remoção da Regulation Q, que impedia os bancos dos EUA de pagar juros sobre depósitos à vista), ou uma inovação financeira (securitização). Contudo, à medida que a bolha ganha ímpeto, os agentes do mercado percebem que as melhorias fundamentais que poderiam ter justificado um aumento inicial dos preços dos ativos são incapazes de acompanhar as valorizações constantes e crescentes. A fase de formação muitas vezes distorce os incentivos a que estão sujeitos os agentes econômicos. Essas distorções podem ser consequência do comportamento racional, ou podem ser causadas por alterações comportamentais das crenças. Distorções racionais ocorrem quando os agentes econômicos reagem racionalmente aos incentivos que encontram durante a fase de formação. Entre elas estão os problemas de 8 risco moral decorrentes da expectativa de resgates ou de políticas adotadas. Também incluem a alavancagem e o investimento excessivo resultantes de possíveis externalidades de venda urgente (fire sale). Essas externalidades podem surgir quando as pessoas físicas ou empresas percebem quedas dos preços dos ativos em seu processo de tomada de decisão, sem internalizar o fato de que é a decisão coletiva de investimento que determina o tamanho do crash. As distorções de crenças se dão porque podem não haver dados suficientes para estabelecer a formação de uma bolha. Por exemplo, na falta de uma queda prévia em âmbito nacional dos preços nominais dos imóveis residenciais, os agentes podem prever que os preços das causas não irão cair (ou cairão apenas marginalmente) no futuro. Alternativamente, distorções de crença podem se basear na impressão de que “desta vez vai ser diferente”. Embora o boom observado dos preços dos ativos possa divergir dos dados históricos, os agentes podem optar por ignorar esse padrão, argumentando que, desta feita, algo é fundamentalmente diferente. Ou seja, que os sinais de alerta fornecidos pela história não se aplicam. O terreno mais fértil para a fase de formação é um ambiente de baixa volatilidade. Normalmente, em tempos assim, é fácil obter financiamento. Os especuladores conseguem se alavancar, reduzindo o diferencial de retorno entre títulos arriscados e os de menor risco. A alavancagem e o desencaixe de vencimentos resultantes podem ser excessivos porque cada especulador individual deixa de internalizar as externalidades que causa no sistema financeiro. Brunnermeier e Oehmke (2012) afirmam que a estabilidade financeira é um bem público. Como todos se beneficiam com isso, traders individuais po- dem estar sujeitos a incentivos insuficientes para contribuir com a estabilidade financeira e é por isso que regulamentação e controle severos são necessários. Depois do acúmulo gradual de uma bolha e dos desequilíbrios a ela associados, a fase de crise começa quando algum acontecimento a faz estourar. Essa transição súbita é às vezes chamada de “momento Minsky” (Minsky, 1992). O Momento Minsky pode surgir muito depois que os agentes do mercado estejam cientes, ou pelo menos suspeitem, do desenvolvimento de uma bolha. De modo geral, o maior problema não é a correção de preços em si, mas o fato de que a correção necessária muitas vezes acontece tarde demais, ou seja, depois de grandes aumentos do risco e do surgimento de graves desequilíbrios. O evento catalizador da crise não precisa ser algo de grande importância econômica. Mas, por causa dos efeitos de amplificação, até mesmo pequenos eventos podem levar a grandes crises financeiras e recessões. Durante a fase de crise, os mecanismos de amplificação representam um papel central. Esse mecanismo ao mesmo tempo aumenta a magnitude da correção da parte da economia afetada pela bolha e espalha seus efeitos para outras áreas da economia. Os mecanismos de amplificação surgidos durante as crises financeiras podem ser diretos (causados por elos contratuais) ou indiretos (causados por spillovers ou externalidades devidas a exposições compartilhadas ou à reação endógena dos diversos agentes do mercado). As amplificações podem ser diferenciadas com base em ter ou não o crédito alimentado os desequilíbrios formados durante a fase de formação (ou de bolha). O estouro de bolhas de crédito leva a uma maior 9 desalavancagem e mecanismos de amplificação mais fortes. Embora as crises financeiras muitas vezes irrompam subitamente, a recuperação frequentemente leva muito tempo. Esse padrão ocorre porque o choque negativo causado pelo estouro da bolha leva a efeitos adversos persistentes e a recessões profundas e duradouras. Mesmo depois das reações políticas, como uma recapitalização do sistema bancário, a recuperação normalmente é lenta porque os balanços dos demais agentes ainda podem estar comprometidos. Como veremos adiante, na seção sobre o risco sistêmico, uma grande fonte de crises está em más estruturas reguladoras, baseadas na crença de que podemos confiar nos bancos para que se autorregulem. Os reguladores de todo o mundo precisam monitorar de maneira eficiente e consistente as funções de gestão de risco da maioria das instituições financeiras, para garantir que estejam aplicando métodos e ferramentas apropriados de minimização de risco. Ao mesmo tempo, a gestão de risco da maioria das instituições bancárias precisa certificar-se de que as regras básicas de segurança nos negócios estejam sendo seguidas (como, por exemplo, evitar fortes concentrações e minimizar a volatilidade dos retornos). A segunda parte deste artigo irá discutir e analisar os principais motivos que levaram ao fracasso da gestão de risco durante a mais recente crise, com o objetivo de sugerir como essas falhas podem ser solucionadas ou amenizadas no futuro para garantir um sistema financeiro mais sólido do que o atual. Mais especificamente, o artigo explora temas como a ausência de uma estratégia definida de alocação de capital e estruturas inadequadas de governança de risco. Desastres Financeiros e Risco Sistêmico A literatura a respeito de desastres financeiros e risco sistêmico cresceu enormemente durante a década passada. A crise financeira de 2007-2008 reavivou o interesse na compreensão de como as bolhas de preços de ativos e os desequilíbrios se formam e posteriormente irrompem em crises nas quais as flutuações de moeda e crédito podem representar um papel crucial na amplificação e propagação do choque. Dados os substanciais custos sociais dessas crises, as autoridades reguladoras e supervisoras de todo o mundo deslocaram seu foco para o desenvolvimento de medidas de risco sistêmico que possam fornecer sinais de alerta antecipado aos formadores de políticas. Uma Breve História dos Desastres Financeiros Historicamente, bolhas, crashes e desastres financeiros ocorrem com surpreendente regularidade. Muitos autores fornecem maiores detalhes sobre esses casos, entre eles Kindleberger (1978); Shiller (2000), Allen e Gale (2007) e Reinhart e Rogoff (2009). Embora cada boom e cada crise tenham peculiaridades próprias, surgem diversos temas recorrentes e padrões comuns. Mais especificamente, um período de boom dos preços dos ativos geralmente é seguido de um crash. Esse crash costuma ativar diversos mecanismos de amplificação que frequentemente levam a grandes reduções da atividade econômica que podem ser abruptas e persistentes. Talvez os mais bem documentados casos antigos de bolhas de preços de ativos e de crises subsequentes sejam a mania das tulipas, na Holanda (1634-1637), a bolha do Mississippi (1719-1720) e a bolha 10 da South Sea (1720). Cada um desses casos envolveu elevações espetaculares dos preços de determinados ativos (das tulipas, das ações da Mississippi Company e das ações da South Sea Company, respectivamente), seguidas de súbitas quedas dos mesmos preços (Neal, 1990, 2012; Garber, 2000). Quando as bolhas são alimentadas por crédito, seu mecanismo de amplificação é muito mais forte e a fase de desalavancagem tende a afetar mais a economia como um todo, se comparadas às bolhas não ligadas ao crédito. Isso se deve ao fato de que o setor bancário também é atingido. Durante o século XIX, o crédito alimentou os primeiros exemplos de crises que levaram a graves repercussões nos sistemas bancários. Mais especificamente, grandes crises bancárias aconteceram em 1837 e 1857 nos EUA antes da criação de um sistema bancário nacional em 1863-1865. Depois de sua criação, pânicos bancários ainda aconteceram sob diversas formas em 1873, 1884, 1893, 1907 e 1914. Muitas dessas crises foram precedidas, antes da Guerra Civil Americana, por bolhas dos preços de terras e, depois delas, por bolhas de letras ferroviárias. Quando os bancos reduziram os empréstimos marginais, ocorreram grandes reduções da atividade real (Allen e Gale, 2007). O pânico de 1907 acabou por levar à criação, em 1914, do Federal Reserve System. Durante a década de 1920, os Estados Unidos passaram por um forte boom do mercado de ações, principalmente de 1927 até 1929, seguido do famoso crash da bolsa de 1929 e da Grande Depressão. Embora o boom dos preços dos imóveis dos anos 1920 muitas vezes receba menor ênfase em análises das principais causas da Grande Depressão, uma semelhança em termos de magni- tude se verifica no ciclo de boom-and-bust dos preços dos imóveis associado à crise financeira de 2007-2008 (White, 2009). Outra causa fundamental da Grande Depressão foi a bolha do mercado de ações causada, em parte, pelo generoso financiamento por crédito, que permitiu aos especuladores comprar ações na margem. O evento que desencadeou o estouro da bolha foi o Federal Reserve ter começado a apertar a política monetária, em fevereiro de 1928, seguindo-se, em julho de 1929, um aumento das taxas de juros. O impacto sobre o sistema bancário foi enorme e espalhou-se rapidamente pelo mundo, gerando um pânico bancário, quebrando diversos bancos e levando a uma recessão prolongada. Desde a Grande Depressão, os pânicos bancários tornaram-se raros nos EUA, graças, principalmente, à criação do Federal Reserve System em 1914 e à introdução do seguro de depósito como parte da Lei Glass-Steagall de 1933. Essas medidas reguladoras, contudo, não impediram a crise financeira de 2007-2008. Muitos países sul-americanos passaram por graves crises financeiras nas décadas de 1970 e 1980. Durante esse período, o endividamento desses países cresceu explosivamente (Kindleberger, 1978). Entretanto, o forte aumento das taxas de juros nos EUA levou a uma desvalorização das moedas sul-americanas e aumentou drasticamente o peso real da dívida denominada em dólares desses países. Em 1982, o México declarou que não mais poderia arcar com o serviço de sua dívida. No fim das contas, as crises de dívida sul-americanas levaram, em 1989, ao Plano Brady (Sturzenegger e Zettelmeyer, 2006). O Japão também passou por uma grande crise financeira no começo da década de 1990. De maneira semelhante ao que 11 levou à Grande Depressão nos Estados Unidos, um boom dos preços dos imóveis e do mercado de ações japoneses precedeu a crise naquele país. As perdas resultantes pesaram sobre os bancos e a economia do Japão por anos, levando à “década perdida” de 1990 e a uma lentidão continuada do crescimento durante os anos 2000. O exemplo japonês ilustra os problemas que as bolhas representam para os bancos centrais. Preocupado com a bolha dos preços dos imóveis e ações, o Bank of Japan começou em maio de 1989 a elevar a taxa oficial de desconto, que eventualmente subiu de 2,5% para 6,0%. O Bank of Japan também limitou a taxa de crescimento do crédito ao setor imobiliário de tal forma que não pudesse exceder a taxa de crescimento dos empréstimos como um todo (“controle do volume total ") e obrigou os bancos a relatar empréstimos concedidos ao setor de construção e ao setor financeiro não-bancário. Essas duas intervenções forçaram o setor imobiliário a se desalavancar, empurrando os preços para baixo. Muitas empresas do setor foram à falência, levando a vendas urgentes de imóveis. Como esses bens eram a principal garantia real em muitos setores, os empréstimos em geral diminuíram, reduzindo ainda mais o valor das garantias reais. No fim, a queda dos preços dos imóveis levou a um problema de excesso de empréstimos para todo o setor bancário japonês, abalando por décadas a economia do país (Hoshi e Kashyap, 2004). Em 1997 e 1998, o foco recaiu sobre os países do Leste Asiático e a Rússia. Depois de grandes booms de equity e imóveis no Leste Asiático, uma corrida contra a moeda tailandesa levou a uma inversão dos fluxos de capitais internacionais para toda a região, desencadeando uma crise financeira que rapidamente se espalhou para outros pa- íses próximos, como a Indonésia e a Coreia (Radelet, Sachs, Cooper, e Bosworth, 1998). Em agosto de 1998, a Rússia declarou moratória de sua dívida em rublos e desvalorizou sua moeda. Entre outras coisas, um aumento dos preços do petróleo piorou a situação fiscal russa, levando a um aumento da relação entre a dívida e o Produto Interno Bruto (PIB), déficits fiscais e taxas de juros crescentes. Afinal, a Rússia optou por não defender seu regime de âncora de câmbio e desvalorizou sua moeda, declarando, ao mesmo tempo, moratória de sua dívida em rublos. Entrando no século XXI, uma das crises mais severas começou na Argentina. Em janeiro de 2002, aquele país suspendeu a paridade entre o peso e o dólar. Em apenas alguns dias, a moeda local perdeu grande parte do seu valor. A crise levou a uma forte redução do PIB e a um surto inflacionário. No fim, a Argentina acabou dando o calote em suas dívidas. O default argentino levou a pelo menos quatro grandes reestruturações da dívida. Sturzenegger e Zettelmeyer (2006) fornecem resumos detalhados da crise argentina e de outras recentes crises de dívida soberana. Recentemente, o estouro da bolha dos imóveis residenciais nos EUA e a turbulência de mercado que resultou em 2007 e 2008 levaram à mais grave crise financeira desde a Grande Depressão (Brunnermeier, 2009). A crise financeira de 2007-2008 quase derrubou o sistema financeiro mundial. O aperto de crédito que se sucedeu transformou uma queda significativa da atividade econômica na pior recessão em 80 anos. Estímulos monetários e fiscais maciços impediram uma depressão profunda, mas a recuperação permaneceu lenta se comparada às recuperações anteriores no período pós-guerra. No final de 2013, o PIB ainda está abaixo 12 do seu nível pré-crise em diversos países ricos, principalmente na Europa, onde a crise financeira evoluiu para a crise do euro. A crise teve diversas causas. A mais óbvia delas é a ausência de gestão de risco adequada na maioria das instituições financeiras em todo o mundo. Os anos anteriores à crise trouxeram uma enxurrada de crédito hipotecário irresponsável nos EUA. Empréstimos eram concedidos sem avaliação adequada de risco para praticamente todos os clientes solicitantes, inclusive os tomadores ditos “subprime”, com maus históricos de crédito. Juros baixos e critérios generosos para concessão de empréstimos disponibilizaram grandes somas para a maioria dos clientes, independentemente de sua capacidade de pagamento (ou seja, acessibilidade) no curto prazo e, muito menos, no longo. Aplicava-se às taxas de juros stress mínimo ou nulo para verificar se os mesmos clientes que tomavam a tão baixas taxas poderiam continuar a pagar quando as taxas de juros aumentassem. A porcentagem do valor da propriedade que poderia ser coberta por hipoteca (isto é, a relação entre empréstimo e valor) cresceu exponencialmente, chegando a superar os 100%. Os engenheiros financeiros dos grandes bancos transformaram essas hipotecas arriscadas em títulos de risco supostamente baixo, reunindo grandes números delas em pools. O procedimento, conhecido como pooling, funciona quando os riscos de cada empréstimo não estão correlacionados. Os grandes bancos argumentavam que os mercados imobiliários das diferentes cidades americanas oscilariam independentemente uns dos outros, mais verificou-se que não seria assim. As hipotecas estão altamente correlacionadas, como todos os ativos que usam bens imóveis como garantia real. Ademais, o desemprego e os preços dos imóveis residenciais estão extremamente correlacionados com a qualidade de qualquer carteira hipotecária: se aumentarem, a qualidade da carteira irá se deteriorar rapidamente. Embora essa relação fosse bem conhecida, a maioria das instituições financeiras optou por ignorá-la. A partir de 2006, os EUA enfrentaram uma forte queda dos preços dos imóveis residenciais em todo o país. Os originadores usaram as hipotecas pooled para lastrear títulos chamados de collateralized debt obligations (CDOs), que eram divididos em faixas por grau de exposição à inadimplência. Investidores compravam as faixas mais seguras porque confiavam nos ratings AAA atribuídos por agências como a Moody’s e a Standard & Poor’s. Foi outro erro. As agências eram excessivamente generosas em suas avaliações desses ativos. As baixas taxas de juros criaram um incentivo para que bancos, fundos de hedge e outros investidores procurassem por ativos mais arriscados que trouxessem retornos mais altos. As baixas taxas permitiram que tais empresas tomassem empréstimos e usassem o caixa gerado para ampliar seus investimentos, partindo da premissa de que os retornos excederiam o custo do crédito. A baixa volatilidade aumentava a tentação de realizar esse tipo de “alavancagem”. A virada do mercado americano de imóveis residenciais foi o evento que deu início à crise, expondo as fragilidades do sistema financeiro. O pooling e outras formas de engenharia financeira não proporcionaram aos investidores a proteção prometida. Os títulos lastreados em hipotecas (“mortgage-backed securities” – MBS) perderam valor, isso quando podiam sequer ser avaliados. CDOs teoricamente seguros revelaram- 13 -se desprovidos de valor, apesar do selo de aprovação das agências de rating. Tornou-se difícil vender ativos suspeitos a praticamente qualquer preço, ou usá-los como garantia real dos fundos de curto prazo que eram essenciais para muitos bancos. A confiança, o elemento-chave de todos os sistemas financeiros, começou a esmaecer em 2007, um ano antes da quebra do Lehman, à medida que os bancos começaram a questionar a viabilidade de suas contrapartes. Agentes do mercado e outros perceberam que todo o sistema estava construído sobre bases extremamente frágeis; os bancos permitiram que seus balanços crescessem rapidamente, mas destacaram muito pouco capital para absorver perdas inesperadas. Os bancos centrais e outros reguladores também são responsáveis, não só por tratar incorretamente a crise mas, também, por deixar de manter sob controle os desequilíbrios econômicos e não exercer uma supervisão adequada das instituições financeiras. Sua decisão mais dramática foi a de permitir que o Lehman Brothers quebrasse. Isso multiplicou o pânico dos mercados. Além disso, a Europa também tinha os próprios desequilíbrios internos que se revelaram tão dramáticos quanto os dos Estados Unidos e da China. As economias da Europa Meridional acumularam enormes déficits em conta corrente durante a primeira década do euro, ao passo que os da Setentrional apresentaram superávits correspondentes. Os fluxos de crédito do centro da zona do euro para os mercados de imóveis residenciais superaquecidos de países como Espanha e Irlanda financiaram os desequilíbrios. A crise do euro tem, nesse sentido, sido uma continuação da crise financeira através de diferentes meios, com os mercados agoniados pela fraqueza dos bancos europeus carregados de dívidas de baixa qualidade após o declínio dos preços dos imóveis. Os bancos centrais insistem que teria sido difícil temperar o boom de moradia e crédito por meio de taxas de juros mais elevadas. Talvez, mas eles tinham à disposição outras ferramentas reguladoras, como a redução da proporção máxima entre valor do bem e empréstimo no caso das hipotecas, ou a exigência de que os bancos reservassem mais capital. Os baixos índices de capital revelaram-se a maior falha. O Acordo de Basileia II substituiu o de Basileia I, de 1988, focando técnicas que permitiam aos bancos e seus supervisores avaliar adequadamente os diversos riscos que os bancos enfrentam (ver Comitê de Supervisão Bancária da Basileia 1988, 2004, 2006, 2008). Como os modelos de risco de crédito contribuem amplamente para o processo de avaliação de risco de cada instituição, os reguladores aplicaram regras mais rígidas quanto ao seu desenvolvimento, implementação e validação, a serem seguidas pelos bancos que desejassem usar modelos internos para estimar os requisitos de capital (Altman e Sabato, 2005, 2007). Mas essas regras não definiram o capital com suficiente rigidez, o que permitiu aos bancos trazer para si formas de dívida que não tinham a mesma capacidade de absorção de perdas que o patrimônio líquido. Sob pressão dos acionistas para elevar os retornos, os bancos operavam com patrimônio líquido mínimo, ficando vulneráveis caso as coisas dessem errado. A partir de meados da década de 1990, os reguladores, cada vez mais, permitiram que os bancos usassem seus modelos internos para avaliar o risco – na prática, estabelecendo os próprios requisitos de capital. Previsivelmente, os bancos consideraram seus ativos cada vez 14 mais seguros, permitindo que os balanços se inflassem sem uma elevação comparável do capital. O Comitê da Basileia também deixou de criar regras quando à parcela dos ativos bancários que deveria ser líquido. Além disso, não criou um mecanismo que permitisse a um grande banco internacional quebrar sem fazer com que o restante do sistema entrasse em convulsão. Todos os defeitos das regras de requisito mínimo de capital estão, agora, sendo regulados e isso talvez permita atenuar os efeitos de futuras crises financeiras. Restam dúvidas sobre se as novas regras de capital (Basileia III) serão suficientes para dar aos mercados maior confiança na solidez do sistema financeiro e sobre até que ponto não irão penalizar o crédito em tempos de enxugamento de capital. Definição e Abrandamento do Risco Sistêmico Governos e organismos internacionais preocupam-se cada vez mais com o risco sistêmico. Existe uma confusão generalizada sobre as causas e até a definição do risco sistêmico, além de incertezas sobre como controla-lo. Historicamente, os acadêmicos tendem a pensar no risco sistêmico principalmente em termos de instituições financeiras. Mas com o crescimento da desintermediação, por meio da qual as empresas podem ter acesso a funding no mercado de capitais sem passar por bancos ou outras instituições intermediárias, tem-se dado mais importância aos mercados financeiros e à relação entre os mercados e as instituições. De modo geral, alguns argumentam que o risco sistêmico é criado pelos agentes do mercado em busca dos próprios interesses em vista de insuficiência de incentivos e falta de regulamentação para limitar a tomada de riscos com o objetivo de reduzir o perigo sistêmico para outros agentes. Assim, alguns analistas acreditam que a regulamentação representa um papel central na redução do risco sistêmico. Não há definição uniformemente aceita de risco sistêmico. Alguns autores, como Anabtawi e Schwarcz (2011), definem risco sistêmico como a probabilidade de que perdas cumulativas decorram de um evento que desencadeie uma série de perdas sucessivas ao longo de uma cadeia de instituições financeiras ou mercados que compreendem um sistema. Outros, entre eles Kaufman (1996) e Acharya (2009), definem risco sistêmico como o potencial para que um choque econômico modesto induza substancial volatilidade nos preços dos ativos, vultosas reduções da liquidez empresarial, falências em potencial e perdas de eficiência. Kaufman e Scott (2003) o definem como o risco de colapso de todo um sistema financeiro ou mercado, suficientemente grave com grandes probabilidades de exercer fortes efeitos adversos sobre a economia real. A economia real refere-se aos aspectos de bens, serviços e recursos da economia, em contraposição aos mercados financeiros. Mais especificamente, o risco sistêmico envolve uma potencial quebra em cascata de um sistema ou mercado devido a interligações e interdependências. Dada a falta de definição consistente do risco sistêmico, uma pergunta relevante é se soluções reguladoras seriam suficientes para seu abrandamento. Grande parte da literatura existente sustenta que nenhum agente do mercado, individualmente, possui incentivos suficientes, na ausência de regulação, para limitar os riscos assumidos e reduzir o perigo sistêmico para os demais agentes e terceiros. Por exemplo, Bexley, James e 15 Haberman (2011) consideram que o trading próprio das entidades bancárias – em geral a negociação de instrumentos financeiros que um banco faz em nome próprio – representou um papel critico na crise financeira de 2007-2008. Isso vem em paralelo com os argumentos de que as práticas dos bancos e de suas coligadas na área de títulos, na década de 1920, foram parcialmente responsáveis pelo crash de 1929 e pela Grande Depressão. No centro dessas afirmativas jaz a questão de que a combinação dos negócios de banco comercial e banco de investimentos pode aumentar o Risco Sistêmico. A Banking Act de 1933 (Lei Glass-Steagall) continha provisões que proibiam os bancos comerciais de subscrever, promover ou vender títulos tanto diretamente quanto através de uma corretora coligada, criando, na prática, uma muralha entre os bancos comerciais e os de investimentos. Essa muralha foi gradualmente enfraquecida e desmontada ao longo dos 60 anos seguintes, e ruiu de vez com a Financial Services Modernization Act de 1999 (Lei Gramm-Leach-Bliley), que afastou as últimas restrições remanescentes da Lei Glass-Steagall. A Dodd-Frank Wall Street Reform and Consumer Protection Act (Lei Dodd-Frank) de 2010 reintroduziu elementos da muralha de Glass-Steagall. Mais especificamente a regra Volcker, constante da Lei Dodd-Frank, impede as “entidades bancárias” de fazer trading próprio e de patrocinar, adquirir ou manter certas participações acionárias em fundos de hedge ou private equity. Uma das justificativas, em termos de política, para essas restrições é o fato de que as atividades proibidas aumentam o risco sistêmico. O argumento implícito nessa justificativa é o de que se as atividades proibidas forem arriscadas demais, poderão afetar a li- quidez do banco, fazendo com que a instituição não queira ou não possa oferecer crédito a clientes qualificados, ou chegue a quebrar, abalando os canais de crédito. Da mesma forma, existe o temor de que os bancos também possam falir por causa de sua exposição a fundos de hedge ou private equity que venham a quebrar, transtornando ainda mais os canais de crédito. Se conflitos de interesse são o principal mal que os legisladores desejam conter, pode fazer sentido considerar outras soluções, como ampliação da divulgação e das regras que protegem o público desses mesmos conflitos. Se, contudo, for o risco sistêmico que o mundo está de fato tentando abordar e atenuar, a regulação proposta pode ser ineficaz, por si só, se as instituições financeiras não forem obrigadas a adotar metodologias e ferramentas adequadas de gestão de risco e a conceber estratégias eficazes para o crescimento. Outra questão importante que os reguladores tentaram abordar visando atenuar o risco sistêmico é a redução das interligações entre instituições financeiras (ou seja, o risco de rede), forçando-as a utilizar contrapartes e câmaras de compensação centralizadas (CCPs). As CCPs se interpõem entre as contrapartes dos derivativos de balcão (OTC), isolando-as da inadimplência uma das outras. A compensação eficaz ameniza o risco sistêmico ao diminuir a probabilidade de que os defaults venham a se propagar de contraparte em contraparte. Duffie e Zhu (2010) demonstram que o uso de uma CCP pode ajudar a atenuar o risco sistêmico. Ainda assim, permanecem algumas preocupações a respeito da capacidade das CCPs para suportar inadimplementos das múltiplas contrapartes e do que aconteceria com o sistema em caso de default de uma CCP. 16 Gestão do Risco: Lição Aprendida A gestão de risco é uma ciência em evolução contínua. Mesmo admitindo que o risco tenha sido corretamente medido, sua perfeita gestão exige muita experiência e muito conhecimento. Ademais, a estrutura de governança das instituições financeiras precisa permitir que os gestores de risco façam valer suas decisões e estratégias. Estratégia de Alocação de Capital As estratégias de seleção de carteira têm sido um assunto de alta relevância na literatura pelos últimos 60 anos e especialmente depois de Markowitz (1952). Mas poucos estudos analisam como aplicar essas estratégias às instituições financeiras. A situação pode parecer estranha, já que as organizações financeiras estão entre os maiores investidores dos mercados financeiros, mas os motivos se devem a diversas peculiaridades que podem ter desviado a atenção delas. Em primeiro lugar, o capital tendia a ser barato e fácil de levantar. Essa oportunidade gerou a crença em que qualquer transação que parecesse lucrativa poderia ser realizada, permitindo que a demanda do mercado levasse ao crescimento dos ativos. Em segundo lugar, muitos consideravam que as organizações bancárias tinham uma função social de fornecer fundos para que as empresas iniciassem ou expandissem suas atividades e para que os consumidores comprassem imóveis ou bens. Embora essa função social tivesse prevalecido como estratégia de alocação de capital, os acionistas, especialmente a partir da década de 1990, tendiam a encarar os bancos como instituições com fins lucrativos. Assim, para agradar os acionistas e superar o desempenho dos seus pares, os CEOs dos bancos investiram agres- sivamente em ativos complexos, misturando sua cultura tradicional de concessão de empréstimos com outra mais especulativa voltada para equity (Blundell-Wignal, Atkinson e Lee, 2008). Ao implementar essa mudança cultural, a maioria das instituições financeiras focou principalmente o lado do retorno de seus investimentos, omitindo o aspecto do risco. As concentrações de ativos altamente correlacionados aumentaram notavelmente em detrimento da atenção a ser dada à volatilidade das perdas. A diversificação de carteira tornou-se um conceito puramente teórico e facilmente sacrificado para permitir o crescimento da participação de mercado. A precificação fora estabelecida principalmente para ser competitiva no mercado e não para fornecer um retorno adequado. Em última análise, a mais recente crise financeira fornece às instituições financeiras os incentivos apropriados para corrigir as falhas mencionadas anteriormente. Para tanto, contar com uma estratégia plenamente adotada de apetite pelo risco é essencial para garantir que os riscos e recompensas aceitos estejam alinhados com as expectativas dos acionistas. Em seu estudo seminal, Markowitz (1952) explica como construir a carteira de investimentos mais eficiente para encontrar o equilíbrio correto entre retornos esperados e volatilidade das perdas. Ele demonstra que a diversificação é a melhor ferramenta para reduzir o risco da carteira como um todo. A função de risco de uma instituição financeira não pode por si só definir um arcabouço de apetite pelo risco e precisa do apoio do departamento de negócios (vendas) para modelar os retornos esperados. Articular um arcabouço de apetite pelo risco consistente e eficaz exige a união de esforços daqueles 17 que estão envolvidos com a gestão de risco com os daqueles que estão na área de negócio, por meio de uma abordagem descendente. Afinal, o conselho de administração, interpretando as visões dos acionistas, precisa liderar os avanços em termos de riscos aceitáveis e retornos exigidos. Então, seguindo essas diretrizes, as funções de risco e de negócio poderão definir o apetite pelo risco em diferentes níveis, como os do grupo, da divisão e da carteira. Um bom arcabouço de apetite pelo risco deve envolver duas partes. A primeira apresenta uma visão da atual situação, esclarecendo como o capital encontra-se alocado entre as carteiras e identificando as principais concentrações e as carteiras que estão abaixo do retorno mínimo esperado. Formar esse panorama exige, também, definir as métricas necessárias. Convenciona-se definir o risco de crédito usando os conceitos de perdas esperada (PE) e perda inesperada (PI). As medidas de risco no nível do cliente (ou seja, a probabilidade de descumprimento, PD, a perda dado o descumprimento, LGD, e o montante esperado quando do descumprimento, EAD) são usadas como insumos para o cálculo daqueles dois valores. Como a perda esperada pode ser prevista, deve ser considerada como custo da atividade e não como risco financeiro. Obviamente, as perdas em crédito não são constantes ao longo do ciclo econômico por causa da substancial volatilidade (perda inesperada) associada ao nível de perda esperada. Os modelos de carteira de crédito têm por objetivo quantificar essa volatilidade. A volatilidade das perdas da carteira decorre de dois fatores: concentração e correlação. A correlação é um fator predominantemente exógeno que depende do tipo do cliente, da geografia, e de fatores macroeconômicos, ao passo que a correlação é (ou deveria ser) resultado de decisões conscientes da alta administração das instituições financeiras, por meio de um arcabouço bem definido de apetite pelo risco, como discutiremos na próxima seção. Entretanto, os limites ideais de concentração não podem ser definidos sem que haja uma medida adequada de capital/concentração de risco, como o capital econômico (CE) e as correlações são o insumo mais importante para o CE. Para calcular o capital regulador (CR) (por exemplo, para a Abordagem por Ratings Internos do Basileia II), as correlações também são usadas, mas são dadas pela autoridade reguladora (por exemplo, o BIS) e são iguais para todos os bancos. Além disso, essas correlações são apenas intraprodutos, não interprodutos (por exemplo, correlações entre os descumprimentos de diferentes produtos). Essa diferença é uma premissa muito forte que exclui plenamente os benefícios da diversificação. Modelar com precisão o risco de uma carteira de crédito exige medir a correlação entre exposições. Calcular diretamente as correlações de risco de crédito é complexo. A solução mais simples é usar séries temporais agregadas para inferir a correlação de risco de crédito. Mas uma possibilidade mais atraente é usar um modelo causal de inadimplemento que adote como insumos quantidades financeiras mais observáveis e os transforma em uma probabilidade de descumprimento (Merton, 1974). Essa solução é a mais comum para exposições corporate. Para as de varejo, o melhor é medir as correlações usando modelos fatoriais da mesma maneira que se estima um beta do equity. Modelos fatoriais costumam produzir melhores estimativas prospectivas de correlação do que a ob- 18 servação direta e trazem, ainda, o benefício – se forem escolhidos fatores macroeconômicos – de permitir testes de stress intuitivos e análise de cenários para a carteira de crédito. Medir a concentração usando o saldo de exposição de uma carteira, CR, ou CE, pode fazer uma enorme diferença para os resultados da análise e para as atitudes necessárias. Lentamente, os reguladores começam a perceber esse benefício e agora obrigam as instituições financeiras a desenvolver e implementar sofisticados modelos internos de CE sujeitos a validação das autoridades. O CE é calculado a partir das caudas da distribuição de risco de crédito, por meio da determinação da probabilidade de que uma redução do valor da carteira exceda um valor crítico (por exemplo, 99,95%). Graças às estruturas de correlação incluídas em sua estimativa, o CE permite que bancos grandes e bem diversificados explorem ao máximo a diversificação de ativos. Essa oportunidade é de crescente importância nos períodos em que a taxa de capital regulador está em ascensão, como se dá com o novo Basileia III. Além disso, o CE permite incluir todos os tipos de risco (como risco de liquidez, risco de pensão e risco de negócio) e não apenas os riscos de crédito, de mercado e operacional. Seguindo as orientações do conselho de administração em termos de retorno esperado e volatilidade das perdas, o CE pode ser usado para determinar o montante máximo de perdas sob stress que a instituição está disposta a aceitar e, assim, conceber a carteira-meta. O retorno mínimo esperado e o risco máximo aceitável ajudam a definir a capacidade de risco (ou tolerância ao risco), enquanto o retorno esperado e o risco aceitável desejado determinam o apetite pelo risco. O arcabouço de apetite pelo risco deve descrever como a estratégia de alocação de capital deve mudar quando as carteiras ficam nas diferentes áreas descritas pelos limites definidos, mas não deve estabelecer os limites específicos de concentração para cada produto, carteira, país, ou setor. Uma vez que o arcabouço de apetite pelo risco esteja plenamente incorporado, irá forçar o debate e ajudar a garantir que os riscos sejam explicitados. Para modificar comportamentos em relação ao risco, podem ser necessárias intervenções por meio de treinamento adicional ou mudança de pessoal. Na maioria das organizações, contudo, o tom determinado pela alta administração tende a ter maior impacto. O apetite pelo risco não é apenas um arcabouço, mas, também, uma mudança cultural profunda que irá garantir que as instituições financeiras tornem-se mais sólidas no futuro próximo. Gestão de Risco Empresarial As instituições financeiras e o mundo acadêmico vêm discutindo há 10 anos a gestão de risco empresarial (“Enterprise Risk Management” – ERM). Os muito artigos e livros escritos sobre o tema fornecem diretrizes claras e bases teóricas para respaldar essa mudança fundamental da gestão de risco (Doherty, 2000; D’Arcy, 2001; Lam, 2003; Olson e Wu, 2008). Até hoje, instituições financeiras tentaram implementar a ERM mas ainda não conseguiram inseri-la em sua cultura de gestão. O conceito de ERM é relativamente simples. Riscos capazes de afetar o valor de uma organização são de natureza diferente e sua soma não reflete o risco total. Diversas correlações e a covariância devem ser levadas em conta quando riscos diferentes são agregados. A ERM é uma abordagem rigoro- 19 sa à avaliação e tratamento dos riscos de todas as fontes que ameacem a consecução dos objetivos estratégicos de uma organização. Uma abordagem de ERM, se bem implementada, deve fornecer uma visão abrangente e coerente dos riscos que a instituição enfrenta, permitindo à alta administração enxergar todo o panorama e não cada “silo” individualmente. O primeiro passo da operacionalização da ERM é identificar os riscos aos quais a empresa está exposta. Uma abordagem comum é identificar os tipos de riscos a serem medidos. Muitas empresas foram além da mensuração dos riscos de mercado, de crédito e operacionais. Mais especificamente, nos últimos anos, elas também tentaram medir os riscos de liquidez, reputação, tributário, previdenciário e estratégico. Organizações que tenham crescido por meio de aquisições, ou que não tenham departamentos centralizados de tecnologia da informação (TI) precisam lidar com o problema de incompatibilidade de sistemas. Elas devem ser capazes de agregar riscos comuns a todos os seus negócios para analisá-los e gerenciá-los de modo eficaz. O objetivo é capturar e quantificar todos os riscos, adotando uma abordagem consistente, e depois agregar as exposições individuais por toda a organização, além de analisar o perfil agregado de risco tendo em conta as correlações entre os riscos. Idealmente, um bom arcabouço de ERM deve ser capaz de resumir todos os riscos em uma só métrica: o nível ótimo de capital disponível. Uma empresa que ponha a ERM em prática, portanto, pode dispor de um montante de capital que supere substancialmente seu requisito regulador porque, com isso, maximiza a riqueza dos acionistas. Nesse caso, as exigências reguladoras não são vinculantes e não afetariam as decisões da empresa. A situação poderia ser mais difícil se seu CR obrigatório superasse o montante de capital que deve manter para maximizar a riqueza dos acionistas. Para os bancos, o CR costuma ser definido em termos de contabilidade reguladora. No que se refere à ERM, os bancos devem se concentrar no CE. Um foco exclusivo no CR provavelmente será enganoso porque não refletirá corretamente o colchão de capital próprio disponível. Em suma, o modo de agregar diferentes riscos permanece o principal desafio para todas as empresas dispostas a adotar a abordagem de ERM e, em especial, para as instituições financeiras. Muitas vezes, os sistemas de TI ainda são incapazes de dialogar entre si e as metodologias usadas para avaliar os riscos são tão diferentes que conciliá-las em um só número é quase impossível. Ignorar esses problemas e fornecer relatórios de ERM que abordem os riscos “por silos” é inútil e perigoso. Pode ser necessário algum tempo para construir a infraestrutura correta para se implementar um arcabouço de ERM, mas as instituições financeiras devem estar convencidas de que esta é a melhor maneira de evitar erros capazes de ameaçar sua existência. Estrutura de Governança de Risco A ausência de uma estrutura apropriada de governança de risco irá diluir qualquer benefício criado por uma equipe de gestão de risco de primeira linha. Antes da crise financeira de 2007-2008, o papel da gestão de risco era extremamente marginal na maioria das instituições, deixando a capacidade de influenciar decisões de negócio a cargo da capacidade de persuasão – e não da autoridade – de cada gestor de risco. 20 O papel e a importância do Diretor de Risco (“Chief Risk Officer” – CRO) e da governança de risco no setor financeiro foram enfatizados nos jornais, em diversos relatórios (Brancato, Tonello, Hexter e Newman, 2006) e em estudos voltados para profissionais da área (Banham, 2000). Até agora, contudo, a literatura acadêmica tem negligenciado essas áreas. Alguns poucos estudos acadêmicos recentes (Erkens, Hung e Matos, 2010; Minton, Taillard e Williamson, 2010; Beltratti e Stulz, 2011; Fahlenbrach e Stulz, 2011) abordam outros aspectos da governança corporativa em bancos, como características do conselho de administração e estrutura de remuneração do CEO. Mas a literatura sobre governança corporativa e o seu efeito sobre a valoração de instituições financeiras ainda é muito limitada. Ademais, as instituições financeiras têm particularidades, como menor transparência e regulamentação e intervenção governamental mais pesadas (Levine, 2004), exigindo uma análise distinta de questões de governança corporativa. Adams e Mehran (2003) e Macey e O’Hara (2003) destacam a importância de levar em consideração as diferenças de governança entre empresas bancárias e não-bancárias. Mais especificamente, na maioria das instituições financeiras, o CRO ainda não participa do conselho e os gestores de risco das divisões muitas vezes estão tenuemente ligados a ele e mais firmemente aos heads dos diferentes negócios. Isso quer dizer que os gestores de risco podem discutir preocupações com o CRO do banco, mas que seu chefe, aquele que irá avaliar seu desempenho e estabelecer seus objetivos, é o líder do negócio, cujos objetivos normalmente estarão em contraste com os ligados ao risco. Esse tipo de estrutura comprovou ser claramente inadequado porque exclui a possibilidade de que o risco influencie decisões estratégicas quando isso se faz necessário. A independência da função de risco precisa ser garantida e as autoridades supervisoras precisam monitorá-la constantemente para evitar que as instituições financeiras voltem a se dedicar a investimentos especulativos de curto prazo para gerar resultados insustentáveis (Aebi et al. 2011). Ainda assim, dar poder à gestão de risco e garantir sua independência não irá resolver todos os problemas se a qualidade da função não melhorar na mesma medida. A alta administração precisa liderar a melhoria em direção a um papel mais eficaz e eficiente do risco, aumentando substancialmente seu envolvimento nas decisões do dia a dia e garantindo a estabilidade e a solidez do processo como um todo. O conselho de administração precisa dar mais atenção ao risco em geral, aprovando e monitorando o respeito pelo arcabouço de apetite por risco através de bons relatórios de ERM. Conclusões Muito além das pressões imediatas dos mercados globais, de clientes mais exigentes e de mudanças setoriais dramáticas há um reconhecimento crescente de que as instituições financeiras têm uma oportunidade para extrair vantagem competitiva de suas capacidades em gestão de risco, permitindo-lhes crescimento lucrativo de longo prazo e lucratividade sustentável no futuro. Essas mudanças significam que a gestão de risco das organizações de melhor desempenho está mais intimamente integrada ao planejamento estratégico e é conduzida de maneira proativa, com vistas à maneira como essas capacidades poderão aju- 21 Autor dar as empresas a entrar mais rapidamente em novos mercados ou explorar outras estratégias de crescimento que surjam. Quando bem implementada, a gestão de risco é uma questão de equilíbrio – o equilíbrio entre o apetite de uma empresa por riscos e sua capacidade de os gerenciar. As metodologias e ferramentas aplicadas à mensuração de riscos evoluíram consideravelmente nos últimos 20 anos. Os riscos de crédito e mercado lideraram a evolução e agora atingiram um status mais avançado. Atualmente, o foco está se deslocando para os riscos operacionais e outros “menores”. Além disso, a agregação de risco será o próximo desafio para a maioria das organizações financeiras. Em termos de gestão de risco, três tópicos principais surgiram depois da crise financeira de 2007-2008: (1) alocação de capital, (2) ERM e (3) arcabouço de governança de risco. A gestão de risco tornou-se uma prioridade na maioria das empresas, financeiras ou não, que investem significativamente em sistemas e pessoas. É uma grande oportunidade para a gestão de risco finalmente encontrar seu papel de liderança na mutável cultura financeira e ajudar os governos e reguladores a atenuar o impacto das próximas crises financeiras. Gabriele Sabato Gabriele Sabato é um experiente profissional da gestão de risco que trabalha e conduz pesquisas nesse campo há mais de 12 anos. Atualmente é Gestor Sênior da gestão de Risco do Grupo RBS, responsável por estabelecer e supervisionar políticas e estratégias de apetite por risco para todo o Grupo. Antes de entrar para o RBS, o Dr. Sabato trabalhou por três anos na Gestão de Risco do Grupo ABN AMRO, encabeçando a equipe de analytics de Varejo do Grupo. Liderou diversos projetos ligados ao Basileia II, inclusive validação independente de modelos, conformidade com o Pilar I, testes de estress e o processo de avaliação interna da adequação de capital (“Internal Capital Adequacy Assessment Process” – ICAAP). Passou quatro anos na Experian como consultor empresarial, desenvolvendo e implementando modelos e estratégias de risco de crédito para diversas instituições financeiras por toda a Europa. Publicou diversos artigos sobre gestão de risco em importantes periódicos acadêmicos, incluindo o Journal of Banking and Finance e o Journal of Financial Services Research. O Dr. Sabato é PhD em Finanças pela Universidade de Roma “La Sapienza”. Referências 22 ACHARYA, Viral V. 2009. “A Theory of Systemic Risk and Design of Prudential Bank Regulation." Journal of Financial Stability 5:3, 224–255. ADAMS, René; and MEHRAN, Hamid. 2003. “Is Corporate Governance Different for Bank Holding Companies?” Federal Reserve Bank of New York Economic Policy Review 9:1, 123 – 142. AEBI, Vincent; SABATO, Gabriele; and SCHMID, Markus. 2011. “Risk Management, Corporate Governance, and Bank Performance in the Financial Crisis.” Journal of Banking & Finance, 36:12, 3213 – 3226. ALLEN, Franklin; and GALE, Douglas. 2007. Understanding Financial Crises, Clarendon Lectures in Finance. Oxford University Press. Oxford. ALTMAN, Edward I., and SABATO, Gabriele. 2005. “Effects of the New Basel Capital Accord on Bank Capital Requirements for SMEs.” Journal of Financial Services Research 28:1/3, 15 – 42. ALTMAN, Edward I.; and SABATO, Gabriele. 2007. “Modeling Credit Risk for SMEs: Evidence from the US Market.” ABACUS 43:3, 332 – 357. ANABTAWI, Iman; and SCHWARCZ, Steven L. 2011. “Regulating Systemic Risk: Towards an Analytical Framework.” NOTRE DAME Law Review 86, 1349 – 1353. BANHAM, Russ. 2000. “Top Cops of Risk.” CFO 16:10, 91– 98. Banking (Glass-Steagall) Act. 1933. Pub. L. No. 73-66, §§ 16, 20, 21, 32, 48 Stat. 162, 184–185, 188–189, 194. Basel Committee on Banking Supervision. 1988. “International Convergence of Capital Measurement and Capital Standards.” Basel: Bank for International Settlements. Basel Committee on Banking Supervision. 2004. “International Convergence of Capital Measurement and Capital Standards: A Revised Framework.” Basel: Bank for International Settlements. Basel Committee on Banking Supervision. 2006. “International Convergence of Capital Measurement and Capital Standards: A Revised Framework.” Basel: Bank for International Settlements. Basel Committee on Banking Supervision. 2008. “Principles for Sound Liquidity Risk Management and Supervision.” Basel: Bank for International Settlements. BELTRATTI, Andrea; and STULZ, René M. 2012. “The Credit Crisis around the Globe: Why Did Some Banks Perform Better during the Credit Crisis?” Journal of Financial Economics, 105:1, 1-17. BEXLEY, James; JOE James; and HABERMAN, James. 2011. “The financial crisis and its issues”, Research in Business and Economics Journal, 3, July 2011. Referências 23 BLUNDELL-WIGNALL, Adrian; ATKINSON, Paul; and LEE, Se Hoon. 2008. “The Current Financial Crisis: Causes and Policy Issues.” OECD Financial Market Trends 95:2, 1– 21. BRANCATO, Carolyn; TONELLO, Matteo; HEXTER, Ellen; and NEWMAN, Katharine R. 2006. “The Role of U.S. Corporate Boards in Enterprise Risk Management.” New York: Conference Board. BRUNNERMEIER, Markus K. 2009. “Deciphering the Liquidity and Credit Crunch 2007-2008." Journal of Economic Perspectives 23:1, 77– 100. BRUNNERMEIER, Markus K.; and OEHMKE, Martin. 2012. “Bubbles, Financial Crises, and Systemic Risk”. Handbook of the Economics of Finance, 2:B, 1221-1288. D’ARCY, Stephen. 2001. “Enterprise Risk Management.” Journal of Risk Management of Korea 12:1, 23 – 37. DODD–Frank Wall Street Reform and Consumer Protection Act of 2010, Pub. L. 111–203, 124 Stat. 1376 (2010). http:// www.gpo.gov/fdsys/pkg/PLAW-111publ203/content-detail.html DOHERTY, Neil. 2000. Integrated Risk Management. New York: McGraw-Hill. DUFFIE, Darrel; and HAOXIANG, Zhu. 2010. “Does a Central Clearing Counterparty Reduce Counterparty Risk?” Review of Asset Pricing Studies 1:1, 74 – 95. ERKENS, David; HUNG, Mingy; and MATOS, Pedro. 2010. “Corporate Governance in the 2007-2008 Financial Crisis: Evidence from Financial Institutions Worldwide.” Working Paper, European Corporate Governance Institute. FAHLENBRACH, Rudiger; and STULZ René M.. 2011. “Bank CEO Incentives and the Credit Crisis.” Journal of Financial Economics 99:1, 11– 26. Financial Services Modernization (Gramm-Leach-Blilely) Act. 1999. Pub. L. No. 106-102, Stat. 1338, 1341. GARBER, Peter. M. 2000. Famous First Bubbles: The Fundamentals of Early Manias. Cambridge, MA: MIT Press. HOSHI, T.; and A. K. Kashyap. 2004. “Japan's Financial Crisis and Economic Stagnation." Journal of Economic Perspectives 18:1, 3 – 26. KAUFMAN, George G. 1996. “Bank Failures, Systemic Risk, and Bank Regulation.” Cato Journal. 16:1, 17–45. KAUFMAN, George G.; and SCOTT, Kenneth E.. 2003. “What Is Systemic Risk, and Do Bank Regulators Retard or Contribute to It?”, The independent Review, 7:3, 371-391. KINDLEBERGER, Charles P. 1978. Manias, Panics, and Crashes: A History of Financial Crises. New York: John Wiley & Sons. Referências 24 LAM, James. 2003. Enterprise Risk Management: from Incentives to Control. New York: John Wiley and Sons. LEVINE, Ross. 2004. “The Corporate Governance of Banks: A Concise Discussion of Concepts and Evidence.” Working Paper, World Bank Policy Research Working Paper, 3404. MACEY, Jonathan R.; and O’HARA, Maureen. 2003. “The Corporate Governance of Banks.” Federal Reserve Bank of New York Economic Policy Review 9:1, 91– 107. MARKOWITZ, Harry. 1952. “Portfolio Selection.” Journal of Finance 7:1, 77– 91. MERTON, Robert C. 1974. “On the Pricing of Corporate Debt: The Risk Structure of Interest Rates”, Journal of Finance, 29, 449-70. MINSKY, Hyman. 1992. “The Financial Instability Hypothesis.” Working Paper No.74. Annandale-on-Hudson, N.Y.: The Levy Economics Institute, May. MINTON, Bernardette A., TAILLARD, Jerome; and WILLIAMSON. Rohan G.. 2010. “Do Independence and Financial Expertise of the Board Matter for Risk Taking and Performance?” Working Paper, Fisher College of Business, Ohio State University. NEAL, Larry. 1990. The Rise of Financial Capitalism. Cambridge: Cambridge University Press. NEAL, Larry. 2012. I Am Not Master of Events: Speculations of John Law and Lord Londonderry in the Mississippi and South Sea Bubbles. London: Yale University Press. OLSON, David L.; and WU, Desheng (eds.). 2008. New Frontiers in Enterprise Risk Management. Berlin: Springer. RADELET, Steven; SACHS, Jeffrey D.; COOPER, Richard N.; and BOSWORTH, Barry P.. 1998. “The East Asian Financial Crisis: Diagnosis, Remedies, Prospects." Brookings Papers on Economic Activity 1, 1– 90. REINHART, Carmen M.; and ROGOFF, Kenneth S. 2009. This Time is Different: Eight Centuries of Financial Folly. Princeton: Princeton University Press. SHILLER, Robert J. 2000. Irrational Exuberance. Princeton: Princeton University Press. STURZENEGGER, Federico; and ZETTELMEYER Jeromin. 2006. Debt Defaults and Lessons from a Decade of Crises. Cambridge: MIT Press. WHITE, Eugene N. 2009. “Lessons from the Great American Real Estate Boom and Bust of the 1920s." NBER Working Paper 15573. 24 Modeling Dependence for Operational Risk Débora Delbem Gonçalves Guaraci Requena Carlos Diniz 25 Abstract In this article, in addition to addressing operational risk and a few guidelines from Basel II, we provide a new method for calculating the regulatory capital intended to protect against this risk. Calculating this capital is a recent concern for financial institutions, after being proposed by the Basle Committee in 2004. However, the Committee suggests a calculation that overstates the allocated capital, based on the inappropriate assumption of perfect positive dependence among all risk classes. The new method presented here is bivariate (considers the dependence between two risk classes), based on important capital-allocation assumptions, and involves modeling the dependence among the financial institution’s risk classes, making for more realistic regulatory capital allocation. Finally, we compare the method proposed by the Basel Committee and the one offered here, considering a theoretical study of both, with set probability distributions for the losses at hand, using Gaussian coupling. Keywords: Operational Risk, Regulatory Capital, Risk Classes, Stochastic Dependence. 1. Introduction The several financial crises since the 1970s left financial institutions increasingly vulnerable to several types of risk. The main financial risks are credit risk, market risk and operational risk. Cruz (2002) argues that, when losses over re- sults are rated by area of impact within financial institutions, operational and other risks explain 35% of the volatility of the institutions’ earnings, while market and credit risks explain 15% and 50%, respectively. 26 In 1974, the G10 created the Banking Regulation and Oversight Practices Committee (Basel Committee), whose purpose, according to the Central Bank of Brazil (BACEN), is to establish recommendations toward internationally standardized banking oversight practices. Since the foundation of the Basel Committee, several recommendations have been created as concerns measuring financial risks and allocating capital to support losses arising from those risks (the so-called regulatory capital). Basel II formalized the concern with measuring operational risk in the international banking system, and required using regulatory capital to address this risk. The Accord also revised concepts associated with credit and market risk, particularly in terms of the flexibility of internal regulatory capital calculation models (the same flexibility is also afforded to operational risk). Medina & Barbosa (2013) point out events involving the global financial system that propelled publication of Basel II, such as the interruption of the European economic and monetary unification due to the European Monetary System crisis of September 1992, the Asian crisis of 1997, and the 1998 Russian default. 1.1 Operational risk The term “operational risk” gained evidence in 1995 due to an infamous event in the world banking arena: the failure of Barings, the oldest bank in London, UK (Kornert, 2003). The event that led to its bankruptcy did not fall into the credit or market risk categories and, before it, it was scarcely believed that other risks might bring about severe losses for the financial system. Since then, operational risk events have become increasingly frequent for financial institutions. Guimarães (2003) emphasizes that these events are probably due to three factors: globalization, competition within the financial system, and technology advances. The literature includes several definitions for operational risk, such as Jorion (1997), Deloach & Andersen (2000), and Duarte (2001). Still, the most widely accepted one, given in Basel II, is as follows: “operational risk is the risk of losses arising from failed, deficient or inadequate internal processes, persons and systems, or from external events”. BACEN has embraced this definition and reinforced it for Brazilian financial institutions by means of Resolution No. 3.380/2006. The use of internal models to measure operational risk is recent in the Brazilian scenario. According to BACEN Communication No. 019028/2009, 2013 marks the beginning of the authorization process for internal (regulatory) capital requirements determination models for this kind of risk. Therefore, Brazilian financial institutions are at an important stage in terms of operational risk measurement. That is, the stage at which they start to use a more elaborate approach to calculating regulatory capital – the Advanced Approach –, which we will discuss in the next subsection. Some examples of operational risk events include: internal and external fraud; inappropriate practices toward clients, products and services; damages to physical assets owned or in use by the institution; information technology system failures; internal and external occu- 27 pational accidents; execution, deadline and activity management failures within the institution; natural catastrophes such as flooding and earthquakes; and more. These examples illustrate the heterogeneous nature of this kind of risk. 1.2 Basel II – Capital Allocation Approaches This article focuses on Basel II’s first pillar, that is, the calculation of the capital financial institutions must allocate with their regulators (BACEN, in the case of Brazil) to protect against operational risk. Basel II includes three approaches to calculating this capital: Basic, Standardized, and Advanced (AMA). AMA is the most flexible alternative, and the one that the Basel Committee recommends for internationally active financial institutions, as it enables more accurate regulatory capital adjustment and allows financial institutions to develop their own capital allocation measurements, as long as they comply with general, qualitative and quantitative requirements. Institutions choosing AMA must secure approval from the regulator, which will evaluate the requirements for capital calculation. Institutions choosing AMA must determine the capital for each “risk type X business line” cell, which Frachot et al. (2001) term risk classes. Basel II suggests 8 business lines and 7 risk types, as shown in Table 1, but institutions may determine them at their own discretion. The Basel Committee suggests two ways to calculate operational risk under AMA: the Internal Measurements Approach and the Losses distribution Approach (LDA). Most statistical models to determine regulatory capital are based on LDA, including the method presented here. The approach is based on the probability distributions of frequency and severity (to be defined in the next section) to build the loss probability distribution for each risk class, as we will see in the next section. Table 1: Loss Types and Business Lines for Operational Risk. Risk Type Business Line 1. Internal Fraud. 1. Corporate Finance. 2. External Fraud. 2. Trading and Sales. 3. Employment Practices and Workplace Safety. 3. Retail Banking. 4. Clients, Products and Business Practices. 4. Commercial Banking. 5. Damage to Physical Assets. 5. Payments and Settlement. 6. Business Disruption and Systems Failures. 6. Agency Services. 7. Execution, Delivery and Process Management. 7. Asset Management 8. Brokerage. 2. The Loss Distribution Approach – LDA Embrechts & Puccetti (2006) state that the most risk-sensitive method under AMA is the LDA. Frachot et al. (2001) provide a more detailed description of this mode for operational risk. 28 In most cases, there is no closed solution for F, requiring numerical approximations based on Monte Carlo simulations. In practice, financial institutions choosing an LDA method must assign probability distributions to the frequency and severity variables in each risk class, based on historical data, in order to build the loss probability distribution, X, for the coming year. According to Giacometti (2008), the LDA is a statistically accurate approach, as it uses historical losses – for both frequency and severity. Therefore the LDA is capable of capturing each institution’s degree of internal control and loss prevention. Frachot et al. (2001) argues that, methodologically, the LDA appears far less complicated than internal models for credit and market risks. Having addressed the loss probability distributions for each risk class, the following section discusses the usual method for calculating regulatory capital against operational risk and the implications of its use. As noted earlier, the LDA is based on frequency and severity probability distributions. Frequency, denoted by N, is a discrete random variable that represents the number of times operational loss events occur within a year in a certain risk class (the Basel Committee suggests a one-year measurement period, but institutions are also free to select different periods). Severities, denoted by Si, i = 1, …, represent the monetary value of each operational loss, that is, they are associated with frequency and concern the same risk class and period of time. Therefore, the loss denoted by X for a given risk class i and period of time is the sum of the respective severities, that is, X is defined as: (1) N X= Ʃ S k = S 1+ ... + S N k=1 We wish to estimate the probability distribution of the loss X for the coming year, based on the probability distributions of frequency and severity. The LDA builds the distribution of X based on the following assumptions: 1. N e Sk k Є (1, 2, ...) and are independent random variables; 2. S1, S2, ... are independent and identically distributed random variables. Therefore, based on foregoing assumptions 1 and 2, the distribution function of X, denoted by F, is given by: F(x)=Pr [X≤x] = 3. The Usual Method – The Sum Method According to Basel II, regulatory capital is intended to cover total unexpected losses. Which begs the question: “what are total unexpected losses”, to which the answer is neither trivial nor single. The Committee answers it as the simple sum of marginal regulatory capitals, defined next. Ʃ Pr[X≤x|N=n]= ƩPr[ƩS ≤x]Pr[N=n] ∞ n=0 ∞ n=0 n k=0 k (2) 29 Calculation of the marginal regulatory capital is based on Value-at-Risk. As we are dealing with operational risk, we will call this metric opvar. IF F is the distribution function for the aggregate loss X, opvar will be the α percentile (Basel II recommends α = 99.9%) of F, that is, (equation 3) (3) opvar(X)=F–1(0,999)=> Pr(X>opvar(X))=0,001 Figure 1 shows the (marginal) Expected Loss, Unexpected Loss and Catastrophic Loss. Note that marginal unexpected loss UL, is directly dependent on E(X) and opvar(X). where Xi represents the loss for risk class i. If all dependencies among aggregate loss distributions could be measured by the correlation, by adding together the capital load used to cover against operational risk we would be assuming that risk classes are perfectly correlated. This implies that all extreme operational loss events must occur at the same time in all classes, which is unrealistic (Alexander, 2003). This fact was a determinant motivation for this study, as the capital thus calculated is overestimated because it is based on an unrealistic assumption of perfect stochastic dependence. Our objective is to present a capital calculation method such that the resulting capital can cover all unexpected losses without being conservative. 4. Modeling Dependence Marginal regulatory capital, CR, must cover UL. Therefore, CR is given by: CR(X) = opvar(X) – E(X) (4) Using the sum method, capital must be calculated as follows: k CRSOMA= ƩCR(X ), i=1 i (5) Stochastic dependence is present in many financial problems. Natural catastrophes can directly influence equity price drops; changes in one country’s economic indices influence those of other countries. In operational risk, dependence is present in many instances; modeling dependence, however, is not always a simple task. This is perhaps why many problems, whether financial or not, force assuming independence among the random variables at hand or, in the problem at hand, assume perfect positive dependence. In Section 2, while introducing the assumptions of LDA, we find an example of assumed independence when we consider that frequency and severity are in- 30 dependent for a certain risk class. This assumption is questionable. Another instance where the presence of dependence is evident in operational risk is between the losses of each risk class. This means that, by protecting against a loss with regulatory capital of a certain class A, we may at the same time be protecting against a loss of class B. The sum method for calculating regulatory capital, as seen in the previous section, ignores this fact by assuming that losses in each class are perfectly and positively dependent that is, that if losses occur in A they will certainly occur in B. This notion, as seen before, is unrealistic and raises the final regulatory capital to conservative levels. With this new proposal, we present a model for the dependence discussed in this paragraph, that is, among risk classes. A widely disseminated and popular tool for stochastic dependence modeling is the Copulas Theory. Several works exist in financial literature that use this theory, such as Böcker & Klüppelberg (2008) and Embrechts (2003). A standard reference in Copulas-related studies is Nelsen (2006), which has several definitions and results that provide a basis for this paper. We briefly discuss this theory next. For the sake of simplicity, let us assume the bivariate case, that is, that an institution has two losses for classes A and B, respectively X and Y. If F is the distribution function of X, and G is the distribution function of Y, then a bivariate copula C is a function that couples (junta) F and G into a joint distribution function for X and Y, which we will call H(x, y). A very important fact that enables de- pendence modeling is that, for any marginal distribution functions, there is a copula such that (see Sklar’s Theorem in Nelsen (2006)): H(x,y)=C(F(x),G(y)) (6) Infinite copulas exist and each one has its own unique characteristics. When X and Y are independent, that joint distribution is simply the product of the marginal F and G. The copula answers the question of how to build a joint distribution of X and Y when they are not independent. The distribution theoretically includes all the independence information between the two variables, and this information can be capture by means of the copula C. This paper’s goal is not to provide an in-depth discussion of the theory, but rather to apply it in connection with the presence of dependence among a financial institution’s risk classes. In practice, an institution choosing to use copula-based methods for regulatory capital calculation purposes must use its historic data to estimate, in addition to marginal distributions F and G, a copula C. 5. Methodology Based on the previous sections, there is a need to search for alternative methods to the sum method in order to obtain regulatory capital by modeling the dependence among risk classes. In the light of this, this Section proposes a way to 31 calculate regulatory capital, that is, another answer to the question “what are total unexpected losses?” The method is bivariate and based on four assumptions, as follows. 1. Consider expert opinion: the opinion of experts from both the institution and its regulator, when quantified as an index, makes regulatory capital more realistic in terms of the financial scenario in which the institution operates. The Committee allows taking this opinion into consideration. 2. Modeling dependence among risk classes: dependence modeling is performed by means of the joint distribution of losses obtained via copula. This dependence can be modeled in several ways. For this method, we propose modeling via the probability of marginal unexpected losses occurring jointly, that is, (7) p=Pr[E(X)<X<opvar(X)eE(Y)<Y<opvar(Y)] The greater this probability, the greater the regulatory capital must be. 3. If X and Y and perfectly and positively dependent, then regulatory capital must equal the capital obtained by means of the sum method: in this case, modeling uses the Fréchet lower-limit copula and to obtain the higher probability described in Assumption 2. We have seen that the sum method assumes that X and Y are perfectly and positively rela- ted and therefore overestimates regulatory capital. The method proposed in this paper should be no different. We must overestimate capital to the levels of the sum method if, in fact, X and Y are perfectly and positively dependent. 4. If X and Y are perfectly and negatively dependent, then regulatory capital must be equal to the higher of the tow marginal regulatory capital values: this assumption guarantees, at least, allocation of the larger marginal regulatory capital. If X and Y are perfectly negatively dependent, it is possible to demonstrate that the probability described in Assumption 2 equals zero (assuming that the loss distributions are asymmetrical to the left, which is usually true for operational risk modeling). If this probability is zero, three cases may occur: i. event XЄ(E(X),opvar(X)) occurs and event YЄ(E(Y),opvar(Y)) does not occur; ii. event XЄ(E(X),opvar(X)) does not occur and event YЄ(E(Y),opvar(Y)) occurs; iii. events XЄ(E(X),opvar(X)) and YЄ(E(Y),opvar(Y)) do not occur. Therefore, it is more plausible to allocate the maximum of the marginal regulatory capitals, as we cannot tell in advance which of the three cases above will occur. Based on these four assumptions, we define a functional form that relates the probability, p, of Assumption 2, with total regulatory capital, denoted by CRPROP: (equation 8) ( ) p CRPROP(p,k)=min(CR(X),CR(Y)) p+ (8) 1 tg(kπ/2) +max(CR(X),CR(Y)) 32 where kε(0,1) and is related with expert opinion and p+ is the probability presented in Assumption 2, assuming that X and Y show perfect positive dependence. To determine the value of we use the Fréchet higher limit copula, C(F(x), G(y)) = min(F(x), G(y)), and obtain: (9) p = 0.999– ma x(F(E( X )),G (E( Y ))) + The assumptions above serve as the method’s properties. The index k represents expert opinion and lies within interval (0,1). The higher k, the more conservative the method, that is, the greater the regulatory capital given by CRPROP (p,k), with the regulatory capital obtained by the sum method as the upper limit. The index k may be regarded as a representation of the current financial scenario, causing final regulatory capital to depend on it, as our interest lies with losses one year ahead, making regulatory capital better adjusted and more current (as a loss occurring ten years ago has a different aspect than one had currently). Some interesting properties this index shows include: 1 1. If k= 2 then the relationship between p and CRPROP is linear. 2. If k→1 then the proposed method equals the sum method, that is, CRPROP=CR(X)+CR(Y) The behavior of the method proposed in this Section as well as its comparison with the sum method, are the topics of the next Section. 6. Theoretical Behavior of the Model In order to check the behavior of the model proposed in Section 5, we assume that a given institution has two risk classes with the losses X and Y. We further assume that the loss distributions have been estimated via LDA that X ~ Weibull (1.5;1.25) and Y ~ Lognormal (0;0.5) have been obtained. Table 2 shows the expected losses and opvars of losses X and Y, as well as the regulatory capital obtained by means of the sum method. Table 2: Expected losses, opvars of loss variables X and Y, and CRSOMA. E(X) 1.13 opvar(X) 4.53 E(Y) 1.13 opvar(Y) 4.69 CRSOMA 6.96 Calculating the coefficients of the equation shown in Section 5 yields: ( ) p CRPROP(p,k)=3.41 0.4 1 tg(kπ/2) (10) +3.56 where p is the probability described in Assumption 2 and k is the (0,1) index that represents expert opinion. 33 The probability distributions of X and Y enable studying the proposed model’s theoretical behavior, as long as we set a pattern for the dependence structure between X and Y and vary such a structure within the pattern’ limits. In other word, fixing a parametric copula between X and Y enables varying the copula’s dependence parameter and obtaining the behavior of CRPROP (p,k). In this article, we use the Gaussian copula, with the added benefit that this copula only has one parameter, the linear correlation coefficient of X and Y, p. Some other copula choices include Frank, Gumbel, Clayton, t-Student, and more. To study the proposed model’s theoretical behavior with the fixed distributions of X and Y¸ as noted above, and the Gaussian copula, we set certain values for p ε (-1,1), obtaining different p values. Having done this, we also set values for k ε (1,1). With the p and k values in hand, we use the equation above and obtain different values for CRPROP (p,k). Based on the results shown in Table 3 and Graphic 2, regulatory capital, according to the method presented in this article, increases with the probabiliTable 3: Values for the total proposed regulatory capital K 0.2 0.5 0.8 →1 p 0.1 3.60 4.41 5.73 6.96 0.2 3.96 5.25 6.27 6.96 0.3 4.97 6.12 6.66 6.96 p+ 6.96 6.96 6.96 6.96 ty of two unexpected losses happening simultaneously and as the expert-opinion index, k, approaches 1. 6.1 Method Implementation Institutions that choose to use the method proposed here must, firstly, estimate the probability distributions of all losses relative to their risk classes, which may be done using LDA and Monte Carlo simulations. Frachot et al. (2003) discuss some practical considerations for LDA in connection with operational risk. Having done this, the institution must group those losses by twos. This raises a more complex issue, as the proposed method only addresses the bivariate case, and extending it to multivariate situations is no trivial task. Gonçalves et al. (2014) address this choice. After pairing, the institution must estimate a bivariate copula for each pair of variables. Durrleman (2000) provides a detailed study of parameters estimation and copula choice. Some software packages include implementations for copula-choice estimation; R, for one, has implemented a package called 'copula'. Yan (2007) provides 34 several thoughts regarding this tool. Having grouped the losses by twos and selected the appropriate copulas (using the method selected by the institution), all that remains is to calculate the coefficients of the equation provided in Section 5, obtaining CRPROP (p,k) for each pair of variables. If, for example, the institution has 56 risk classes, it will obtain 28 values for CRPROP (p,k) – with an expert-selected k for each pair of variables. We therefore suggest that the institution’s total regulatory capital should be the sum of those “marginal” capitals. Please note that the term “marginal” no longer concerns each risk class in separate, but rather a pair of classes, where for each pair the dependence is modeled by means of copulas (that is, an aggregation by risk-class pairs). Clearly, the resulting sum total will be lower than the capital obtained by the sum method. If the institution has an odd number of risk classes, it may group them by twos and proceed as discussed in this paragraph; for the unpaired class, the “marginal” capital may be calculated simply as the difference between opvar and the expected loss, as noted earlier. In sum, an institution choosing this method should estimate the frequency and severity distributions for each risk class, obtaining each class’s loss distributions. The losses must then be paired and a copula selected for each pair. This done, all that remains is to calculate the capital for each pair using the method proposed and add them all up, obtaining a final capital to be allocated. 7. Conclusion In 2004, when the Basel Committee published Basel II, operational risk measurement was very recent and there was scarce data applicable. This led financial institutions to be exceedingly cautious, using the total unexpected loss obtained by means of the sum method and thereby overestimating the capital they were to allocate. Today, however, financial institutions are in a position to more allocated regulatory capital against operational risk more realistically than using the sum method alone. This article presents a possible way to model loss dependence, returning a regulatory capital based on assumptions that are relevant to the situation. The method’s main property is the inclusion – even while using fequency-related estimation methods – the opinions of experts both from the institutions and their respective regulators. The literature on the topic provides some methods for the allocation of regulatory capital against operational risk, modeling the dependence between risk classes, as in Alexander (2003) and Frachot (2004), but remains very scarce, particularly in the Brazilian scenario. The Authors 35 Débora Delbem Gonçalves Débora Delbem Gonçalves has a Master’s Degree in Statistics from Universidade Federal de São Carlos (2014), where her research concentrated on statistical modeling for operational risk. She has a degree in Mathematics from Universidade Estadual Paulista “Júlio de Mesquita Filho” (2011). She is currently a professor at União das Faculdades dos Grandes Lagos. Guaraci Requena Guaraci Requena has a Master’s Degree in Statistics from Universidade Federal de São Carlos (2014), where he, too, concentrated his research on statistical modeling for operational risk. He has a Bachelor’s Degree in Applied and Computing Mathematics from Universidade Estadual Paulista “Júlio de Mesquita Filho” (2011). He is currently a Doctor of Statistics candidate at the Universidade de São Paulo Mathematics and Statistic Institute. Carlos Diniz Carlos Diniz has a PhD in Statistics from the University of South Carolina (1993), a Master’s Degree in Statistics from Universidade Estadual de Campinas (1986) and a Bachelor’s Degree in Mathematics from Universidade Federal do Maranhão (1982). He is an associate professor at Universidade Federal de São Carlos and the Coordinator of the Graduate Statistics Program at DEs-UFSCar. He operates in the areas of Statistical Modeling, Data Mining, Risk Bibliography Analysis and Bayesian Inference. ALEXANDER, Carol (Ed.). Operational risk: regulation, analysis and management. Pearson Education, 2003. BÖCKER, Klaus; KLÜPPELBERG, Claudia. Modelling and measuring multivariate operational risk with Lévy copulas. Journal of Operational Risk, v. 3, n. 2, p. 3-28, 2008. CRUZ, Marcelo G. Modeling, measuring and hedging operational risk. New York: John Wiley & Sons, 2002. DELOACH, James W. Enterprise-wide risk management: strategies for linking risk and opportunity. Financial Times Prentice Hall, 2000. DURRLEMAN, V.; NIKEGHBALI, A.; RONCALLI, T. Which copula is the right one, 2000. EMBRECHTS, Paul; LINDSKOG, Filip; MCNEIL, Alexander. Modelling dependence with copulas and applications to risk management. Handbook of heavy tailed distributions in finance, v. 8, n. 1, p. 329-384, 2003. Bibliography 36 EMBRECHTS, Paul; PUCCETTI, Giovanni. Aggregating risk capital, with an application to operational risk. The Geneva Risk and Insurance Review, v. 31, n. 2, p. 71-90, 2006. FRACHOT, Antoine; GEORGES, Pierre; RONCALLI, Thierry. Loss distribution approach for operational risk. Manuscript. Groupe de Recherche Operationnelle, Credit Lyonnais, France. April. http://gro. creditlyonnais. fr/ content/wp/lda. Pdf, 2001. FRACHOT, Antoine; MOUDOULAUD, Olivier; RONCALLI, Thierry. Loss distribution approach in practice. The Basel Handbook: A Guide for Financial Practioners, 2003. FRACHOT, Antoine; RONCALLI, Thierry; SALOMON, Eric. The correlation problem in operational risk. OperationalRisk Risk's Newsletter, 2004. GIACOMETTI, Rosella. Aggregation issues in operational risk. 2008. Tese de Doutorado. School of Management, Syracuse University. GONÇALVES, Débora; REQUENA, Guaraci; DINIZ, Carlos. Risco Operacional: O cálculo do Capital Regulatório usando dependência. Dissertação de Mestrado, São Carlos, 2014. GUIMARÃES, Terence Augusto. Implementação do método de distribuição de perdas para risco operacional. 2003. Tese de Doutorado. JORION, Philippe. Value at risk: the new benchmark for controlling market risk. New York: McGraw-Hill, 1997. JÚNIOR, DUARTE; MARCOS, Antonio. AM Risco: definições, tipos, medição e recomendações para seu gerenciamento. Gestão de risco e Derivativos. São Paulo: Atlas, 2001. KÖRNERT, Jan. The Barings crises of 1890 and 1995: causes, courses, consequences and the danger of domino effects. Journal of International Financial Markets, Institutions and Money, v. 13, n. 3, p. 187-209, 2003. MEDINA, Fabio A. S.; BARBOSA, Edson L. D. Grupos Homogêneos de Risco: Uma Proposta Utilizando a Análise de Clusters. Tecnologia de Crédito. São Paulo: Serasa, n. 85, p.6-20, 2013. NELSEN, Roger B. An introduction to copulas. Springer, 2006. YAN, Jun. Enjoy the joy of copulas: with a package copula. Journal of Statistical Software, v. 21, n. 4, p. 1-21, 2007. 37 Deposits Multiplier or Loan Multiplier? João Ricardo M. G. Costa Filho 38 Abstrat Macro- and monetary economics textbooks frequently discuss the concept of the “money multiplier”. Simply put, it states that, after a new deposit, a bank1 or the banking system as a whole multiplies the quantity of money in the economy. Based on this, the economic policy management that was fundamentally exercised in the past through the management of a monetary aggregate intended to stimulate or destimulate activity by controlling the money supply. Over time, best monetary policy practices started to suggest controlling short-term interest rates instead of managing a monetary aggregate. Even after this shift, reproduction and use of the money multiplier concept persists. A question, however, remains: is the role of banks limited to that of passive intermediates, as the theory suggests? Keywords: Money Multiplier, Vector Autoreggression (VAR). Introduction In this article, I go back to what we learned from Tobin (1963), as summarized and updated by McLeay, Radia & Thomas (2014). Banks have the ability to create money, based on the deposits they receive, but the loans they grant. Banks do not operate, simply and passively, as funds multipliers, but actively and complexly, creating funds via credit. Application to the Brazilian case is interesting. Because credit here is not limited to non-earmarked funds (“recursos livres”, in the original), but from earmarked funds (“recursos direcionados”) as well, its relationship with monetary aggregates is unique. While an increase in the outstanding balance of credit from non-earmarked funds does increase the quantity of money (M2) in the economy, the same cannot be said of an addition to the balance of credit from earmarked funds. The conclusion emerges from the estimates of a vector autoreggression (VAR) model whose results this article discusses. Non-“multiplication” by certain kinds of earmarked funds raises questions about their allocative efficiency, and the need to maintain old rules in a more evolved marketplace. 39 Deposits then credit, or credit then deposits? Contrary to the perception that pervades some textbooks, banks create money actively through credit (and not deposits). The work of McLeay, Radia & Thomas (2014) didactically presents the dynamics I will discuss next, and their article has provided the basis for this section. From the aggregate viewpoint, the process unfolds as follows: when a loan is granted, a deposit is automatically created in a checking account held by either the actor who contracts the debt or the possessor of an asset that the obligor wishes to buy (such as the owner of a piece of real estate). We can graphically analyze the change in balance for the system as a whole (Graphic 1). The dynamics is similar for the households’ balance. From the aggregate viewpoint, there are new loans (household liabilities) and new deposits (household assets). Therefore, in order to create money, a bank must grant loans, but its ability to do so is limited by the preferences of actors and by monetary policy. By raising interest rates, the Central Bank makes consumption via credit more expensive (and destimulates investments). In addition to reducing the demand for funds, more expensive credit may stimulate supply-side rationing2. The money multiplier theory, in its turn, assumes that when a bank receives a deposit, it may use some of this money (depending on the reserve rate) as credit, the amount of which will be deposited in another checking account, multiplying the funds. This dynamics faces several 40 problems: first, from the aggregate point of view, there may be little or no change, as the deposit one actor makes reduces the deposit one or more other actors would have made since it was made into savings instead of funding consumption. In addition, “simple multiplication” casts banks in a passive intermediating role. From the monetary policy angle, it is important not only to understand the distinction, but also the change the analysis of the transmission of monetary policy via the credit channel. Empirical Analysis Based on the above rationale, one should expect the money multiplier to have consistently increased, since credit in Brazil has been growing at a brisk pace. The data, however, do not support this conclusion. In fact, the opposite has been taking place. Analysis of the multiplier’s path in recent years shows a clear decreasing trend. This hypothesizes that credit growth was offset by a shift in the ratio between non-earmarked and earmarked funds. Increased allocation to earmarked funds generates lower money creation by the financial system, while increased credit from non-earmarked funds has the opposite effect. To test the hypothesis, I estimated an unrestricted vector autoregressive model. Generically: p Yt=μ + ∑ϕ ∙ Y i t-i +ut , {i ϵ N tal que i ϵ | [1,p]} i=1 where Yt is the vector of endogenous variables, Yt-i represents the vector with the variables lagged i times. p is the number of lags in the model, μ is the constants vector, and ut is the error vector. The selected variables are: change in 360-day fixed interest rates, logarithmic change in IBC-Br (the Central Bank of Brazil’s activity index, a monthly proxy for GDP), the logarithmic change in M2, the logarithmic change in the balance of credit from non-earmarked funds, and the logarithmic change in the balance of credit from earmarked funds 3 The leg-selection tests Final Prediction Error (FPE), LR tests (LR), and Schwarz information criterion (SC) favored one lag (therefore, p=1). The results of the estimations can be seen in Table 1 where shows that the change in the balance of credit from non-earmarked funds has a positive effect on the quantity of money (M2), whereas the opposite is not true. Statistically, no evidence exist to reject the hypothesis that the coefficients of the two equations (credit from freely available and from earmarked funds) are zero. Furthermore, as expected, there is evidence (with slightly greater significance) that an increase in the volume of credit from earmarked funds cau- 41 Table 1: VAR Source: Developed by the author; Estimations by the author based on the unrestricted VAR model; In the order: Coefficient, standard deviation and t statistic in []. 42 ses – and more constantly so – a negative change in the balance of credit from freely available funds. However, no evidence exists to the contrary. Based on the estimations for the push-response functions, shown in the graph below, a positive shock in the balance of credit from freely available funds has a positive effect on the quantity of money over a 12-month horizon. (Graphic 3) We may therefore conclude that the result of the econometric estimations supports the article’s hypothesis that money multiplication occurs based on loans, rather than deposits as argued in Tobin (1963) and in McLeay, Radia & Thomas (2014). In the Brazilian case, evidence exists that multiplication occurs when the credit coms from non-earmarked funds, while it does not appear to occur with an increment in credit from earmarked funds. Closing Comments Two movements have been observed simultaneously. Credit grows briskly while the money multiplier drops. These stylized facts challenge the traditional theory that money creation emerges from deposits and that, therefore, if both the volume of money (M2) and the volume of credit increase, one should expected multiplication to be taking place. This article challenges this view based on a more modern discussion (although the knowledge dates back from the 1960s) wherein monetary policy is driven mainly through short-term interest rates, and money creation occurs actively on the part of banks. However controversial this may seem, money multiplication does not occur after an increment in the volume of deposits, but actually through credit. This conclusion finds support in the econometric estimations provided in this article and is of great importance to monetary policy analysis and practice. The banks’ limited ability to create currency sheds light on an important monetary policy transmission channel. The estimations presented in this article show that positive changes in credit from non-earmarked funds have a positive effect on an accumulated 12-month horizon. Furthermore, indications exist that a compounding effect (more earmarked credit relative to loans from non-earmarked funds) may lie behind the money multiplier’s decreasing trend. These conclusions may raise discussions concerning more flexible funds directing rules. Perhaps the marketplace should more freely (but still under supervision) allocate funds, and this reallocation (which would also result in a less active government policy via BNDES) would have positive effects on the quantity of money in the economy. It is worth pointing out that new contributions may add depth to the analysis based on the various products available from credit markets, as they display different dynamics. For example Costa Filho & Turolla (2013) analyze the cycles of earmarked credit to consumers and find, firstly, that product concentration exists. This concentration causes certain products to show opposing long-term trends, in addition to different responses to short-term shocks. New studies might investigate what kinds of products lead to greater money multiplication, thereby 43 helping monetary policy-making and the regulation of the financial system. Author Notes 1. This article is concerned only with banks that may receive deposits from and grant loans to households and banks. 2. Stligtz and Weiss (1983) show that the demand-supply balance in a credit market with imperfect information – as is usually the case – cause banks to ration credit and fail to meet part of the demand for funds, as, beyond a certain interest rate (below the level that would prevail under more favorable competitive conditions), only high-risk takers will be willing to take on credit, leading to an adverse selection problem. Interest-rate hikes may speed up the rationing process. 3. All series deseasonalized by the author using the X-13 procedures under Eviews 8, except for IBC-Br, whose deseasonalized value is published by the author. The codes for the series are as follows: interest rate –7827; IBC-Br – 17632; M2 – 1837; balance of credit from non-earmarked funds – 20542; balance of credit from earmarked funds – 20593. João Ricardo M. G. Costa Filho PhD Candidate in Economics at Universidade do Porto, Associate at Pezco Microanalysis and graduate-program References Professor at FIA and Fipe. E-mail: [email protected] Banco Central do Brasil. “Séries Temporais”. Disponível em www.bcb.gov.br, acesso em junho, 2014. COSTA FILHO, M. G. João Ricardo; TUROLLA, Frederico A.. “Household Credit Market Dynamics”, Tecnologia de Crédito, Volume 83, pp. 29-42, 2013. MCLEAY, Michael; AMAR Radia, e RYLAND Thomas,. “Money creation in the modern economy”, Quarterly Bulletin, Bank of England, 2014. TOBIN, James, “Commercial banks as creators of ‘money’”, Cowles Foundation Discussion Papers No. 159, 1963. STIGLITZ, Joseph E.; WEISS, Andrews. “Credit Rationing in Markets with Imperfect Information”. The American Economic Review, Volume 71, No. 3, pp. 393-410, Junho, 1981. 44 Recovery Risk: Application of the Latent Competing Risks Model to Non-performing Loans Mauro R. Oliveira Francisco Louzada 45 Abstract This article proposes a method for measuring the latent risks involved in the recovery process of non-performing loans in financial institutions and/or business firms that deal with collection and recovery processes. To that end, we apply the competing risks model referred to in the literature as the promotion time model. The result achieved is the probability of credit recovery for a portfolio segmented into groups based on the information available. Within the context of competing risks, application of the technique yielded an estimation of the number of latent events that concur to the credit recovery event. With these results in hand, we were able to compare groups of defaulters in terms of risk or susceptibility to the recovery event during the collection process, and thereby determine where collection actions are most efficient. We specify the Poisson distribution for the number of latent causes leading to recovery, and the Weibull distribution for the time up to recovery. To estimate the model’s parameters, we use the maximum likelihood method. Finally, the model was applied to a sample of defaulted loans from a financial institution. Keywords: Competing Risks, Credit Recovery, Default. 1. Introduction Statistical methods are used at almost every stage of a successful business. In the financial industry, initially, market surveys are applied for new product launches, followed by Scorecard models to grant credit to new custo- mers, Behavior Scoring models to increase loyalty and revenues per customer, and finally Collection Scoring models, which are statistical techniques intended to optimize the process of collecting and recovering credits in default. 46 Therefore, statistical models enable automating process, which is crucial for the industry’s players to maintain a high portfolio growth. In this paper, we propose to contribute to the employment of a statistical method that, as far as the authors are aware, has not been applied to analysis of the collection process at a financial institution. The results obtained enable confirming how and when collection actions are most efficient for the bank and, therefore, adding inputs to propose recovery process improvements. For this particular effort, we have available a dataset made up of approximately 22 thousand loans from a financial institution that entered default between 2009 and 2011. The rule to characterize default was the same for all customers, that is, 90 days past due payment on the loans installments. The same collection process was applied to every contract, that is, they were all subjected to the same actions on the part of the collections department. The financial institution that provided the data kept secrecy over the collection methods used. The collection process chosen by the institution considered a 24-month workout period for defaulted loans and, based on a collection rule, certain steps were taken in an attempt to recover non-performing credits. To apply the proposed methodology, we will only consider fully recovered contracts along with totally lost contracts. That is, if a contract has been partly recovered at the end of the 24-month period, it will not enter the database for application of the method. Thereafter, our database includes information on time up to full recovery of the contract, and on the other hand, information on fully lost contract. In this latter case, obviously, the observations on date of recovery were not gathered. According to survival analysis terminology, those times were regarded as censored. Table 1 summarizes the total number of contracts that make up the database available for modeling. They include 22,109 defaulted contracts, of which approximately 64% had not been recovered by the end of the 24-month recovery period. The bank only made available two items of customer information, or model co-variables. One concerns the customer’s risk profile, referred to as “Behavior Score range” (FX-BS), which returns the values 1, 2, 3 and 4; the other one has to do with the contracted product and is called “contract amount range” (FX-CV), also returning the values 1, 2, 3 and 4. To more clearly illustrate the results obtained and enable easier comparison of inter-group susceptibility to recovery, we only consider some ranges of the co-variables available. The data on tables 1, 2 and 3 (developed by the authors) indicate that customer profiles with Behavior Score range equal to 2 and contract amount range equal to 2 show the highest rates of recovery. These results find support in those obtained in Section 3, with the application of the competing risks model. 47 Table 1 Recovered Unrecovered % Non-recovery Average recovery time (months) Population: 22,109 8.047 14.062 63,60% 9,85 Range 1 – Contracted amount: 5,532 2.036 3.496 63,19% 10,35 Range 2 – Contracted amount: 5,478 2.552 2.926 53,41% 18,94 Range 1 – Behavior Score: 7,245 1.719 5.526 76,27% 11,69 Range 2 – Behavior Score: 5,503 3.280 2.223 40,39% 21,63 Sub-group Recovered Unrecovered % Non-recovery Average recovery time (months) Subpopulation: Range 1 – Contracted amount: 2,895 1.203 1.692 58,44% 10,84 Range 1 – Behavior Score: 1,338 347 991 74,06% 11,99 Range 2 – Behavior Score: 1,557 856 701 45,02% 20,16 Sub-group Recovered Unrecovered % Non-recovery Average recovery time (months) Subpopulation: Range 2 – Contracted amount: 3,270 1.694 1.576 48,19% 9,19 Range 1 – Behavior Score: 1,827 618 1.209 66,17% 10,66 Range 2 – Behavior Score: 1,443 1.076 367 25,43% 19,38 Group Table 2 Table 3 48 Based on this data structure, that is, with information on the occurrence or non-occurrence of an event and the time up to this occurrence, one may apply the statistical methodology known as survival analysis. Development of the theory and its application to real data are widely discussed in the literature, particularly in the medical area, where, for example, studies have been conducted on the survival period of patients subjected to different kinds of treatments and drugs. We recommend Maller & Zhou (1996) and Ibrahim et al. (2001) to interested readers. Competing risks modeling, which is this article’s purpose, is widely known in the literature and has been extensively discussed in papers such as Cooner et al. (2006), Cooner et al. (2007), Xu et al. (2011). In addition to the large number of additional papers, this modeling has been gaining importance due, mainly, to the work of Chen et al. (1999), Tsodikov et al. (2003), and Tournoud & Ecochard (2007). As far as the authors' knowledge, competing risks modeling has not yet been applied to modeling the risk behavior of credit portfolios during the recovery process. Therefore, by analyzing the risk behavior leading to the event of interest – recovery – we may then calculate the probability of recovery for a given contract within the chosen period. With the results of the modeling in hand, we compare the estimated latent risks in the process leading to recovery for different customer groups and the respective probability of recovery. Our main objective was to identify the characteristics of customers that result in greater efficiency in the recovery process. The following sections are organized as follows: 2 – competing risks model and how the model’s parameters are estimated; 3 – application of the model to the database; 4 – conclusions and discussion of the results. 2. Model Formulation In the formulation of a competing risks model, recovery, or any other relevant event, is regarded as a result brought about by causes that operate concurrently over time. Therefore, two statistical distributions are attributed to formulate this model: one for the random variable “time up to event” and another for a random variable that models the number of competing events. For an in-depth study of the matter, we recommend the books of Crowder (2010) and Pintilie (2006), among others. Our dataset is made up of a population of approximately 22 thousand defaulted contracts from a Brazilian financial institution’s credit portfolio. All contracts are subject to the same collection rule, that is, the same collection actions were implemented over a recovery process at most 24 months in length. The recovery process at hand resulted in one of two situations: time to full recovery of the non-performing loans and, for unrecovered ones, as in survival analysis, time is considered to be censored at month 24. 49 In this paper, we use the probability distributions most frequently employed in survival analysis and competing risks modeling literature. We assume that the time to the event follows the Weibull distribution, represented by the random variable T, and that the number of risk events follows the Poisson distribution, represented by the random variable M. The next formulation assumes that some clients may not be susceptible to recovery, so that the number of competing risks for the recovery event may be zero. The model is generally known as the promotion time model, and has appeared in the literature in previous works like Chen et al. (1999) and Yakovlev & Tsodikov (1996). Therefore, we assume M is Poisson distributed with a probability mass function given by: P(M=m)= (θm exp(-θ) m! where θ>0 e m=0,1,2,.... For every i=0, 1, 2, ..., m, let Ti be the random variable due to the ith risk factor leading to recovery, which is also assumed to be independent from the number of risks given by M. The variable Ti is assumed to folllow the Weibull distribution, whose probability function is given by: Therefore, the time of the occurrence of the event is defined as the minimum time out of all m risk factors, that is, Y=min(T0, T1,…,Tm). As shown in Bereta et al. (2011), Chen et al. (1999) and Yakovlev & Tsodikov (1996), the random variable Y, probability density function is: f Y(t)=θf(t)exp[–θ(F(t))] In the same reference, the authors give the survival function as SY (t)=exp[–θ(F(t))] As expected, the database has a large number of unrecovered contracts. The literature regards these as immune to the event and, therefore, in our case, they are regarded as contracts lost due to default. The output of the model that provides an estimate for this value is known as cure fraction, and is given by exp(-θ) in this case. To estimate the model’s parameters, we use the maximum likelihood estimation with the presence of censored events. The censure indicator is such that δi=1 if the contract is recovered and δi=0 otherwise. Therefore, the likelihood function is given as: n L(Θ | t)=∏f Y(Θ | t)δiSY(Θ | t)1-δi 1 f(t)=γβγtγ–1exp(–(βt)γ) onde Θ=(θ,γ,β). where t>0, γ>0 e β>0. 50 3. Application and “behavior score range 2” show the highest estimated values for θ and, therefore, the most chance of effective implementation of the credit recovery process. Equipped with the three parameters estimated by the competing risks model, Θ = (θ, γ, β), we show on Tables 6 and 7 the values for the survival of contracts for 12, 18 and 24 month intervals. According to our model’s development, SY (12months) concerns the probability of a defaulted contract being recovered after 12 months. Since the contract tracking and collection period is capped at 24 months, the values calculated in SY (24months) represent the probability of non-recovery of the non-performing contracts at the end of the 24-month period set for collection efforts. Note that these values, seen in table 6 column SY (24months) and in Table 7 as well, are Competing risks modeling enables lenders to have practical interpretation of the parameters obtained. The Poisson parameter θ represents the expected value of the random variable M, and models the number of latent risks leading to the relevant event. The Poisson distribution parameters are easily interpreted for the purposes of risk-profile comparison: groups with a larger number of factors leading to recovery are more susceptible to recovery. In this case, we may also say that these are the groups with the highest risk of recovery. Tables 4 and 5 show the estimated parameters and allow easy comparison of the Poisson parameter estimates across customer groups. Therefore, the results shown in Tables 4 and 5 support the data shown in Tables 1, 2 and 3. We find that the risk profiles of customers with “contracted amount range 2” Table 4 Group Γ β θ Exp(-θ) Value Range I 1,157 18,762 0,614 0,510 Value Range II 1,157 18,762 0,871 0,418 BS Range I 1,260 23,152 0,413 0,661 BS Range II 1,260 23,152 1,422 0,241 Table 5 Group Subgroup Γ β θ Exp(-θ) Value Range I BS Range I 1,297 28,504 0,541 0.581 BS Range II 1,297 28,504 1,458 0,232 BS Range I 1,304 18,551 0,544 0,580 BS Range II 1,304 18,551 1,849 0,157 Value Range II 51 Finally, Box 1 shows the degree of risk associated with the implementation of the recovery and collection process by increasing order. very close to the non-recovery values initially presented in tables 2 and 3, respectively. Graphs 1 and 2, next, help compare the recovery risk profiles of the combined profiles formed by “Behavior range” and “contracted amount range”. As expected, the greater number of latent competing risks for the occurrence of credit recovery is related to the greater chance – or risk – of occurrence of the event of interest (recovery). Box 1 Low: FX-BS1 combined with FX-CV1 Lower Medium: FX-BS1 combined with FX-CV2 Higher Medium: FX-BS2 combined with FX-CV1 High: FX-BS2 combined with FX-CV2 Table 6 Group SY (12months) SY (18months) SY (24months) % Unrecovered Value Range I 75,89% 68,56% 63,65% 63,19% Value Range II 67,63% 58,56% 53,70% 53,41% BS Range I 86,39% 80,74% 76,46% 76,27% BS Range II 60,46% 47,93% 39,74% 40,39% Table 7 Group Subgroup SY (12months) SY (18months) SY (24months) % Unrecovered Value Range I BS Range I 86,04% 79,51% 74,22% 74,06% BS Range II 66,68% 53,91% 44,78% 45,02% Value Range II BS Range I 79,03% 71,45% 66,36% 66,17% BS Range II 44,94% 31,91% 24,83% 25,43% 52 4. Conclusion Authors This article presents a new way to measure the efforts of collection departments, which, generally speaking, are present in every credit-granting industry. We therefore attempt to provide an additional tool to be used jointly with existing methods in use in process of collection and recovery. The purpose of a great collection policy is to direct where to employ more effort and, on the other hand, where there is no need to do it with excessive expenditure of resources, resulting in a structured policy and economic recovery. We applied the statistical method known as competing latent risks mode- ling, as intended, and were able to compare groups of customers according to the probability of recovery of their non-performing loans. We thus expect that, with the combination of a new additional statistical tool applied to the recovery process, credit lenders may pursue the objective of maximizing the collection process, with an immediate reduction of the losses arising from their financing activities. 5. Acknowledgments This study was funded by CNPq and FAPESP, Brazil. Mauro Ribeiro de Oliveira Júnior Has a Bachelor’s Degree in Mathematics from Universidade Federal de São Carlos (2003), a Master’s Degree in Mathematics from Universidade Estadual de Campinas (2006) and an MBA in Risk Management from FIPECAFI (2012). Is currently a Doctoral Candidate in Statistics at UFSCar. E-mail: [email protected] Francisco Louzada PhD of Statistics from Oxford University (1998), Master of Computer Sciences and Computing Mathematics from Universidade de São Paulo (1991), Bachelor of Statistics from Universidade Federal de São Carlos (1988). Currently a Tenured Professor at Universidade de São Paulo. E-mail: [email protected] References 53 BERETA, E. M., LOUZADA, F., & FRANCO, M. A. P. (2011). The Poisson-Weibull Distribution. Advances and Applications in Statistics, v. 22, p. 107--118. CHEN, M.-H., IBRAHIM, J. G., & SINHA, D. (1999). A new Bayesian model for survival data with a surviving fraction. Journal of the American Statistical Association, v. 94, 909--919. COONER, F., BANERJEE, S., & MCBEAN, A. M. (2006). Modelling geographically referenced survival data with a cure fraction. Statistical Methods in Medical Research v. 15 (1): 307--324. COONER, F., BANERJEE, S., CARLIN, B. P., & SINHA, D. (2007). Flexible cure rate modeling under latent activation schemes. Journal of the American Statistical Association, v. 102: 560--572. CROWDER, M. J. (2010). Classical competing risks, CRC Press. IBRAHIM, J. G., CHEN, M.H., & SINHA, D. (2001). Bayesian Survival Analysis. Springer, New York. MALLER, R. A. e ZHOU, X. (1996). Survival Analysis with Long-Term Survivors. Wiley, New York. PINTILIE, M. (2006). Competing risks: a practical perspective, Vol. 58, Wiley.com. TOURNOUD, M. e ECOCHARD, R. (2007). Application of the promotion time cure model with time-changing exposure to the study of HIV/AIDS and other infectious diseases. Statistics in Medicine, v. 26, 1008--1021. TSODIKOV, A. D., IBRAHIM, J. G., & YAKOVLEV, A. Y. (2003). Estimating cure rates from survival data: An alternative to two-component mixture models. Journal of the American Statistical Association, v. 98, 1063--1078. XU, R., MCNICHOLAS, P. D., DESMOND, A. F., & DARLINGTON, G. A. (2011). A first passage time model for long-term survivors with competing risks. The International Journal of Biostatistics, v. 7(1), 1--15. YAKOVLEV, A. Y. e TSODIKOV, & A. D. (1996). Stochastic Models of Tumor Latency and Their Biostatistical Applications. World Scientifc, Singapore. Proteja A Serasa Experian oferece soluções sob medida para o seu negócio. São produtos e serviços exclusivos, que vão desde consultas de crédito até ferramentas e softwares para gerir melhor sua empresa. Tudo muito prático, rápido e rentável. E o melhor: cabe no seu orçamento. Entre em contato e prepare-se para se destacar da concorrência. Para saber mais, acesse serasaexperian.com.br ou ligue para 0800 773 7728 SoluçõeS eSPeCífiCaS Para Cada etaPa do Seu negóCio Busque novos clientes Venda com segurança Monitore empresas, clientes e sócios Cobre devedores Compre só os dados de que precisa Revista Tecnologia de Crédito online Acesse informação de ponta, onde você estiver. Sua revista Tecnologia de Crédito é publicada exclusivamente na web. É mais um passo da Serasa Experian para a redução do impacto de suas atividades sobre o meio ambiente, além de um alinhamento à tendência global da universalização de conteúdos. Acesse: serasaexperian.com.br/tecnologia-de-credito, e mantenha-se bem informado sobre o mercado de crédito.