Aprendizado Profundo: Princípios e Uso

Transcrição

Aprendizado Profundo: Princípios e Uso
Aprendizado Profundo:
Princípios e Uso
Rafael S. Calsaverini
Nº 94
Março de 2016
Desafios das Empresas Face à Lei Anticorrupção
Franklin Mendes Thame
16
O Aumento da Alocação de Capital em Risco Operacional
e suas Implicações em Instituições Financeiras Locais
Marcelo Petroni Caldas | Oswaldo Pelaes Filho | Frederico Turolla
23
Positive
Prepare sua empresa para extrair o máximo de benefícios

Saiba como explorar todo o
potencial dessa nova realidade

Conceda mais crédito com
menos riscos


Aperfeiçoe sua gestão de clientes

Minimize prejuízos causados
por fraudes e inadimplência
dos dados positivos com a ajuda da Serasa Experian.
Positive-se! Contrate agora mesmo a Consultoria Serasa
Experian em Cadastro Positivo e rentabilize suas decisões
de negócios.
Para saber mais, acesse
serasaexperian.com.br/cadastropositivo
ou ligue para 3004 7728
Aumente o retorno das suas
ações de cobrança
+
++
3
06
Aprendizado Profundo: Princípios e Uso
Rafael S. Calsaverini
Este artigo de revisão apresenta o conceito de
Aprendizado Profundo (Deep Learning) e alguns de
seus resultados recentes. Algoritmos de Aprendizado Profundo permitem o aprendizado de representações vetoriais de dados cuja natureza é de difícil tratamento matemático (imagens, texto, som,
etc.), em diferentes níveis de abstração. No artigo
foi apresentada além de uma curta revisão da literatura de Aprendizado Profundo, os princípios teóricos fundamentais e uma visão sobre o uso dessa
tecnologia nas áreas de pesquisa do DataLabs da
Serasa Experian.
16
Desafios das Empresas Face à Lei Anticorrupção
Franklin Mendes Thame
A Lei Anticorrupção brasileira, ao estabelecer a
responsabilização objetiva, no âmbito civil e administrativo, de empresas que praticam atos lesivos
contra a administração pública, vem preencher importante lacuna no ordenamento jurídico do Brasil ao levar os corruptores à punição. Assim, para
as empresas é um chamado à reflexão e à ação de
forma a se prevenirem de punições por atos ilícitos
junto ao setor público. A Lei 12.846/2013 visa combater a impunidade quando dos negócios com o
setor público, notadamente para segmentos econômicos de atuação com maior susceptibilidade às
práticas de corrupção.
23
O Aumento da Alocação de Capital
em Risco Operacional e suas Implicações
em Instituições Financeiras Locais
Marcelo Petroni Caldas
Oswaldo Pelaes Filho
Frederico Turolla
O artigo explorou os impactos da mudança de alocação de capital de risco operacional, em estudo
pelo Comitê de Basileia, e o respectivo impacto nos
bancos locais, ou seja Brasil. Os estudos realizados demonstram que o impacto é razoável, pois o
aumento pode ocorrer em até 3 vezes comparado
ao volume de alocação atual. Esse impacto, significativo, afeta a macroeconomia através de menor
oferta de crédito e o consequente impacto nas empresas e famílias. Portanto, é necessário que se alinhe essa nova carga de capital à realidade do ciclo econômico que se presencia. Ou, ainda, que se
proponha uma implantação pari passu com objetivo
de suavizar os impactos relevantes que essa nova
regra pode causar a economia local e regional.
4
Palavra do Editor
Nesta primeira edição de 2016 apresentamos três artigos de grande atualidade visando informar, esclarecer e orientar especialistas do meio econômico e financeiro sobre novas técnicas e seu emprego. Referem-se à: Lei Anticorrupção, Alocação de Capital em Risco Operacional e Aprendizado Profundo.
Nosso artigo de capa destaca o trabalho do Cientista de Dados Rafael S. Calsaverini
sobre Aprendizado Profundo informando que melhorias tecnológicas permitiram o crescimento
da capacidade de armazenamento e processamento de dados, resultando na melhoria dos negócios e na criação de novas oportunidades. Paralelamente aos novos recursos computacionais,
surgiram algoritmos e técnicas de modelagem capazes de reconhecer padrões cada vez mais
complexos. Esses algoritmos e técnicas derivaram de uma série de campos de pesquisa em diversas áreas - Estatística Computacional, Ciência da Computação, Otimização, Engenharia de
Controle, entre outros - que se amalgamaram em um campo denominado Aprendizado de Máquina. Assim, o Aprendizado de Máquina é o campo da Ciência que estuda o desenvolvimento
de algoritmos computacionais capazes de aprender a respeito de um conjunto de dados para então fazer previsões. Esses algoritmos, empregados em aplicações computacionais passam a ser
capazes de tomar decisões sobre seu ambiente por meio de padrões disponibilizados pelos dados em substituição a regras pré-determinadas em um programa estático. Calsaverini esclarece
que existe uma tênue e esparsa linha de separação entre Aprendizado de Máquina e Estatística
Computacional, e uma tendência em agrupar esses dois aspectos, além de algumas outras técnicas provenientes da Ciência da Computação, em uma nova área denominada Ciência de Dados. Uma aproximação seria dizer que Estatística Computacional é a área que se preocupa em
obter algoritmos eficientes para o uso de modelos eminentemente estatísticos em sua natureza,
enquanto Aprendizado de Máquina pode ter um leque mais amplo de modelos baseados em otimização (Compressed Sensing, Máquinas de Vetores de Suporte, Redes Neurais, etc.), ou mesmo modelos algorítmicos em sua natureza (Árvores de Decisão). Porém essa distinção se torna cada vez mais tênue quando modelos algorítmicos e de otimização adquirem uma interpretação estatística e modelos tipicamente computacionais são desenvolvidos com uma clara intuição estatística.
Franklin Mendes Thame apresenta, oportunamente, um trabalho sobre a Lei Anticorrupção 12.846/2013 cujo objetivo é combater a impunidade por ocasião de negócios com o setor
público quando se evidencia a prática de corrupção. O autor informa que o Brasil perde a assustadora quantia de R$ 50 bilhões a 80 bilhões todos os anos com a corrupção. A corrupção passa a ser o principal problema do país, pois arruína a confiança dos agentes econômicos, impede investimentos, desestabiliza a economia, diminui a arrecadação de impostos e subtrai direitos fundamentais de todos os brasileiros. “Ao estabelecer a responsabilização objetiva, no âmbito civil e administrativo, de empresas que praticam atos lesivos contra a administração pública, a
Lei Anticorrupção vem preencher importante lacuna no ordenamento jurídico do Brasil ao levar
os corruptores à punição. Assim, para as empresas é um chamado à reflexão e à ação de forma
a se prevenirem de punições por atos ilícitos junto ao setor público”, destaca Thame. Segundo
ele, a Lei anticorrupção induzirá as organizações a uma nova forma de fazer negócios com o setor público, que exigirá a adoção de boas práticas de governança corporativa, com transparência em todos os níveis hierárquicos, rígido cumprimento da conformidade legal, segregação de
funções, políticas de terceirizações, programa de definição de riscos específicos e controles internos e auditorias. As ações e estratégias de anticorrupção nas empresas deve ser transversal,
5
alcançar todos os níveis hierárquicos e todas as áreas administrativas. As ações de enfretamento à corrupção se pautam na ética, na justa concorrência, na eficiência, no mérito e se inserem
nas melhores práticas de governança corporativa como: gerenciamento integrado de riscos; estrutura de compliance; desenvolvimento do capital humano e gestão de fornecedores e parceiros.
A política anticorrupção deve ser parte integrante da política estratégica das empresas, a fim de
preservar seu maior valor, isto é, a reputação.
O Aumento da Alocação de Capital em Risco Operacional e suas implicações em instituições financeiras foi o tema abordado por Marcelo Petroni Caldas, Oswaldo Pelaes Filho e
Frederico Turolla que analisaram os impactos sobre as instituições financeiras brasileiras com
as mudanças da alocação do Capital nos estudos do Comitê de Basileia. Os estudos vieram demonstrar que esse impacto, aliás bastante significativo, afetará a macroeconomia, pois reduzirá a oferta de crédito. Os autores do artigo apontam a necessidade de alinhamento dessa nova
carga de capital à realidade do atual ciclo econômico, ou que se proponha uma implantação pari
passu com objetivo de suavizar os impactos relevantes que essa nova regra pode causar à economia local e regional. Eles acreditam que os próximos movimentos, para que se alcance a noção exata dos impactos, que abrangerão inclusive Instituições Financeiras de médio e pequeno porte, devem referir-se à repetição do estudo a partir do momento que a regra estiver efetivamente validada e divulgada. Os consultores lembram que a crise de 2008 desencadeou movimento mundial em direção a uma nova forma de regulação de Instituições Financeiras (IFs),
em função de preocupações quanto à solvência das mesmas. No entanto, o risco operacional
foi pouco abordado nesse contexto de mudanças globais, pois o foco era melhorar a qualidade do capital e aprofundar os requerimentos para o risco de liquidez. Estudos e reflexões o Comitê de Basileia resultaram em nova proposta de alocação de capital para o risco operacional
para tornar o risco operacional mais sensitivo à medida que considera novos aspectos no cálculo do requerimento de capital, tais como volumes e negócios realizados entre outros itens. Eles
dizem que os estudos indicam que o impacto tende a ser considerável e a indústria bancária
vem se movimentando para expor aos reguladores e ao Comitê as características particulares
do processo. Destacam que o tema é recente e a literatura é escassa sob o enfoque de International Business, e abordá-lo contribui para o entendimento dos conceitos de internacionalização
de Instituições Financeiras, regulação home host, distância psíquica, gestão de risco e controles
internos do Sistema Financeiro.
TECNOLOGIA DE CRÉDITO
ANO XIII
Publicação trimestral da Serasa Experian
Nº 94
ISSN 2177-6032
Presidente - Brasil
Capa, Editoração Eletrônica e Ilustração
José Luiz Rossi
Gerson Lezak
Presidentes/Superintendentes de Unidades de Negócios
Tradução
Mariana Pinheiro, Steven Wagner e Vander Nagata
Allan Hastings e Exman Fucks Traduções
Diretores
Correspondência
Serasa Experian - Comunicação & Branding
Alameda dos Quinimuras, 187 - CEP 04068-900 - São Paulo - SP
Amador Rodriguez, Guilherme Cavalieri, Lisias Lauretti,
Manzar Feres, Paulo Melo, Sergio Fernandes e Valdemir Bertolo
Editora Responsável
www.serasaexperian.com.br
[email protected]
Rosina I. M. D’Angina (MTb 8251)
Os conceitos emitidos em artigos assinados são de responsabilidade de seus autores, não expressando, necessariamente, o ponto de vista da Serasa Experian, nem do Conselho Editorial. É proibida a reprodução total ou parcial dos
artigos desta publicação.
6
Aprendizado Profundo:
Princípios e Uso
Rafael S. Calsaverini
7
Sumário
Recentes desenvolvimentos no uso de redes neurais e modelos profundos em Aprendizado de Máquina resultaram em uma
rápida sucessão de resultados que suplantam o estado-da-arte
em diversos desafios de modelagem em áreas distintas, como reconhecimento de objetos, reconhecimento de caracteres manuscritos, reconhecimento de faces, análise de sentimento, dentre outros. Seguiu-se uma rápida adoção desses métodos para solução
de tarefas que envolvem conjuntos de dados de alta complexidade onde a representação numérica, necessária para os algoritmos
tradicionais, é um desafio. Algoritmos de Aprendizado Profundo
permitem o aprendizado de representações vetoriais de dados cuja
natureza é de difícil tratamento matemático (imagens, texto, som,
etc.), em diferentes níveis de abstração. Este artigo de revisão apresenta o conceito de Aprendizado Profundo (Deep Learning) (LeCun,
Bengio, and Hinton 2015) e alguns de seus resultados recentes.
1. Introdução
A explosão na abundância de dados nas últimas décadas, combinada com
melhorias tecnológicas que proporcionam uma crescente capacidade para armazenamento e processamento desses dados, permitiram, nas últimas décadas, o surgimento de novos negócios e da transformação de antigos negócios através do uso
desses dados para diversos propósitos. Junto com essa abundância de dados e recursos computacionais, surgem novos algoritmos e técnicas de modelagem capazes
de reconhecer padrões mais e mais complexos. Esses algoritmos e técnicas são derivados de uma série de campos de pesquisa em diversas áreas - Estatística Computacional, Ciência da Computação, Otimização, Engenharia de Controle, dentre outros - que se têm amalgamado em um campo denominado Aprendizado de Máquina.
Aprendizado de Máquina é o campo da Ciência que estuda o desenvolvimento de algoritmos computacionais capazes de aprender a respeito de um conjunto de dados
para então fazer previsões. Esses algoritmos serão embarcados em aplicações computacionais que devem ser capazes de tomar decisões sobre seu ambiente através
de padrões aprendidos dos dados ao invés de regras pré-determinadas em um programa estático.
Existe uma tênue e esparsa linha de separação entre Aprendizado de Máquina e Estatística Computacional, e há uma tendência a agrupar esses dois aspectos,
além de algumas outras técnicas provenientes da Ciência da Computação, em uma
nova área denominada Ciência de Dados (Michael I. Jordan 2014). Uma aproximação
seria dizer que Estatística Computacional é a área que se preocupa em obter algoritmos eficientes para o uso de modelos eminentemente estatísticos em sua natureza,
enquanto Aprendizado de Máquina pode ter um leque mais amplo de modelos que
8
podem ser baseados em otimização (como Compressed Sensing, Máquinas de Vetores de Suporte, Redes Neurais, etc.), ou mesmo modelos algorítmicos em sua natureza (como Árvores de Decisão), entretanto essa distinção se torna cada vez mais tênue quando modelos algorítmicos e de otimização adquirem uma interpretação estatística e modelos tipicamente computacionais são desenvolvidos com uma clara intuição estatística (MacKay 1992; Michael I Jordan 1994; G. E. Hinton, Osindero, and
Teh 2006; Mezard and Montanari 2009; Koller and Friedman 2009; Neal 2012; Kingma
et al. 2014; Gal and Ghahramani 2015; Gal 2015).
Um tópico de particular interesse em Aprendizado de Máquina desde meados de 2006 tem sido o uso de Redes Neurais, bem como outros algoritmos que se
prestem ao empilhamento de camadas, que vem sido descrito como Aprendizado
Profundo (Deep Learning). Esse tipo de algoritmo têm estabelecido recordes de performance estado-da-arte em diversos tipos de tarefas de inteligência artificial que lidam
com conjuntos grandes de dados complexos e revelado técnicas e resultados úteis em
uma grande gama de problemas - desde reconhecimento de caracteres manuscritos
a tratamento de dados de Aceleradores de Partículas (Baldi, Sadowski, and Whiteson
2014), passando por descoberta de fármacos e análise de biomoléculas (Unterthiner
et al. 2015). Neste artigo pretendemos apresentar uma curta revisão da literatura de
Aprendizado Profundo, os princípios teóricos fundamentais e uma visão sobre o uso
dessa tecnologia nas áreas de pesquisa do DataLabs da Serasa Experian.
2. Aprendizado de Máquina e Aprendizado Profundo
Os algoritmos de aprendizado de máquina tipicamente são treinados, ou
seja, seus parâmetros operacionais são ajustados a um conjunto de dados específico - para realizar tarefas específicas. Em algumas dessas tarefas o objetivo é, dado
um conjunto de exemplos, ou seja, pares conhecidos de Características e Alvos, obter um algoritmo que para um nova população de Características, estime os novos
Alvos para cada caso. Esse tipo de tarefa é conhecido como Aprendizado Supervisionado. Um exemplo típico de aprendizado supervisionado é uma tarefa de regressão, por exemplo, ou uma tarefa de classificação. Em outros tipos de tarefa não existe um alvo claro a ser previsto, mas uma tarefa de reconhecimento de padrões a ser
realizada. Essas tarefas são chamadas de Aprendizado Não-Supervisionado. Um típico exemplo é o agrupamento1 de pontos de um conjunto de dados em grupos naturais ou a descoberta de uma árvore de hierarquias entre os pontos (agrupamento
hierárquico), ou a modelagem da distribuição de um conjunto de dados.
A abordagem tradicional do Aprendizado de Máquina ao tratar um novo conjunto de dados para processamento é a engenharia e extração de características2:
em um novo conjunto de dados, especialistas e modelistas devem inicialmente desenhar e extrair dos dados crus, de forma manual ou semianual, quais Características3
seriam bons preditores da variável alvo ou dos padrões que o algoritmo deve aprender. Essas características podem ser simples combinações dos dados crus, como
por exemplo composições polinomiais das variáveis independentes, ou podem ser
9
processos dispendiosos, como por exemplo extrair de um grande corpus de texto expressões que pareçam indicar nomes de entidades (empresas, pessoas, países, etc.)
de forma automatizada. Depois de desenhados e extraídos, esses vetores de características são alimentados em algoritmos genéricos capazes de realizar a tarefa designada: florestas aleatórias, máquinas de vetores de suporte, entre outros.
Tipicamente essas tarefas são dispendiosas e difíceis, e pode-se levar anos
para descobrir um conjunto extremamente especializado de boas características
para tarefas especificas, como por exemplo os SIFT features (Lowe 1999) ou Viola-Jones Haar-like descriptors (Viola and Jones 2004) para reconhecimento de objetos
em Visão Computacional. Desde aproximadamente meados da década de 2000, (LeCun, Bengio, and Hinton 2015), grupos de pesquisa começaram a obter resultados
bastante expressivos usando uma abordagem diferente: o Aprendizado de Características ou Aprendizado de Representações4.
O princípio fundamental dessa abordagem é trocar o longo tempo de engenharia e extração de características por algoritmos capazes de aprender características a partir dos dados brutos simultaneamente à solução da tarefa de aprendizado
usando essas características. Por exemplo, em uma tarefa de reconhecimento de caracteres manuscritos, o algoritmo deveria ser capaz de aprender que composições
dos bytes originais da imagem são importantes para descobrir que caractere ela representa durante o mesmo processo em que está aprendendo a prever o caractere.
Idealmente não deveria haver uma diferença entre os dois processos: nos dois processos os parâmetros de um modelo estão sendo ajustados para obter um resultado
desejado (minimizar uma função custo, por exemplo), portanto eles deveriam ser parte do mesmo processo. Ao fim do processo o algoritmo aprendeu não apenas a resolver uma tarefa relacionada àqueles dados, como também uma representação dos
dados em um vetor de características que podem ser úteis para múltiplas tarefas.
Tipicamente as características adequadas para realização de uma tarefa
complexa são transformações altamente não-lineares dos dados crus. Modelar funções altamente não-lineares é uma tarefa difícil, porém factível usando modelos profundos. Um modelo profundo é um modelo em que várias instâncias menores de um
modelo - denominadas camadas - são empilhadas de forma que a saída de uma seja
a entrada da próxima. Cada uma dessas camadas é capaz de aprender um mapa
não-linear simples da saída da camada anterior. Ao empilhar camadas que aprendem mapas não-lineares, o modelo é capaz de compor conceitos cada vez mais complexos a cada nova camada, produzindo eventualmente mapas cada vez mais complexos das variáveis de entrada.
O típico exemplo dessa capacidade de modelos profundo são modelos de
detecção de caracteres manuscritos. Em um modelo com muitas camadas, treinado para identificar qual caractere está representado em uma imagem, a primeira camada que toma a imagem de um caractere manuscrito como entrada pode aprender, por exemplo, a detectar linhas horizontais, linhas verticais, e outras primitivas
geométricas simples. A segunda camada, usando como entrada o sinal de saída da
10
primeira camada, compõe esses sinais geométricos primitivos, sinais mais complexos: linhas oblíquas, ângulos, curvas suaves. A terceira camada compõe esse sinal
em detectores mais sofisticados, capazes de identificar círculos, curvas mais acentuadas e, finalmente, a última camada compõe esses sinais geométricos mais sofisticados em detectores do formato completo do caractere. Esse processo de construção de sinais cada vez mais complexos e não lineares nas camadas mais profundos
do modelo é que dá aos modelos de Aprendizado Profundo a capacidade de aprender mapas altamente não-lineares e resolver tarefas complexas: o modelo está aprendendo, a partir dos dados mais brutos, quais são as características mais preditivas
do alvo, sem que haja necessidade de uma engenharia manual de características.
3. Redes Neurais
A principal classe de modelos
que têm sido usados em arquiteturas
profundas são as redes neurais artificiais. Uma rede neural artificial é um
conjunto de pequenas unidades, tipicamente chamadas, em analogia com
sistemas biológicos, de neurônios ou
perceptrons. Essas unidades recebem entradas e produzem uma única saída que consiste em uma transformação linear das entradas seguida da aplicação de um mapa não-linear, chamado função de ativação. Cada
unidade pode ser agrupada em camadas em uma rede feed forward, e funcionar como um modelo profundo.
Redes neurais não são algoritmos recentes. Desde a sua primeira inspiração no estudo de estruturas biológicas na década de 1940 (McCulloch and
Pitts 1943; Hebb 2005), os primeiros modelos de aprendizado supervisionado como
o Perceptron (Rosenblatt 1957) e a criação dos algoritmos de treinamento que permitem tratar redes profundas, o algoritmo de Backpropagation (Williams and Hinton
1986; Parker 1982; Werbos 1974), passaram-se décadas de desenvolvimento e, apesar
do relativo sucesso em algumas áreas, houve um período de dormência da pesquisa nessa área durante o fim dos anos de 1990 e início dos 2000. Redes neurais apresentavam muitos desafios teóricos e de engenharia à época e sua aplicação era mais
custosa que a de outros algoritmos que obtiveram mais sucesso à época, como Máquinas de Vetores de Suporte e Florestas Aleatórias.
Entretanto, em meados da década de 2000 (LeCun, Bengio, and Hinton 2015),
houve uma conjunção de condições que permitiu o renascimento das redes neurais
11
como um algoritmo capaz de atingir e elevar o estado da arte em diversas tarefas de
modelagem. Além de uma série de descobertas de novas técnicas e algoritmos para
treinar redes neurais, os principais novos recursos que permitiram esse renascimento foram a disponibilidade de conjuntos de dados muito maiores para treinamento,
e o progresso de hardware computacional específico para processamento vetorial,
capaz de acelerar em muitas ordens de grandeza o tempo necessário para treinar
uma rede neural. Hoje é possível, em um computador pessoal de capacidade mediana, usando uma GPU (graphical processing unit), tipicamente utilizada para processamento gráfico, treinar em minutos uma rede neural capaz de reconhecer dígitos
manuscritos com acurácia superior à de operadores humanos (>99%). Isso permitiu
um renascimento do uso de redes neurais em diversos tipos de tarefas de modelagem diferentes, iniciada em campos como Visão Computacional e Reconhecimento
de Voz, mas se espalhando por outras áreas da ciência e da engenharia. Hoje grande parte dos resultados estado-da-arte em diversas tarefas computacionais são obtidos por sistemas baseados em redes neurais.
4. Aprendizado não-supervisionado
Redes neurais são naturalmente orientadas para tarefas supervisionadas,
em que existe um conjunto de dados com entradas e saídas bem definidas. Entretanto a pesquisa de técnicas não-supervisionadas usando redes neurais profundas
apresenta um promissor horizonte de algoritmos que podem ser usados no tratamento de dados não-estruturados, particularmente no aprendizado de características para análise de textos, dados sequenciais, séries temporais, imagens e outros tipos de dados sem uma estrutura tabular clara ou em que a engenharia e extração de
características para algoritmos tradicionais é desafiadora.
Os algoritmos típicos de treinamento de redes neurais, no entanto, estão voltados ao aprendizado supervisionado e a solução de problemas não-supervisionados
usando redes neurais ainda é uma área jovem, ativa e promissora de pesquisa. Duas
estratégias se mostram bastante promissoras nessa direção:
(1) criar tarefas supervisionadas que, ao serem resolvidas, levam a rede neural a
aprender representações vetoriais dos dados de interesse, gerando então insumos para outros tipos de algoritmos (como agrupamento, por exemplo), e
(2) criar modelos gerativos que tentam aprender uma distribuição de probabilidades
dos dados e geram, no processo, conhecimento sobre os dados - por exemplo vetores de fatores latentes, classificações e agrupamentos, etc.
Ambas as estratégias são calcadas no conceito de aprendizado de representações: cada camada de uma rede neural profunda aprende a detectar ou representar conceitos cada vez mais abstratos do conjunto original de dados. Eventualmente as próprias representações intermediárias criadas pela rede neural a partir
dos dados para resolver uma tarefa específica contém informação sumarizada sobre
os próprios dados que pode ser útil em uma análise ou investigação exploratória, ou
mesmo em outras tarefas relacionadas (Yosinski et al. 2014).
12
Um exemplo de rede neural que resolve uma tarefa supervisionada auxiliar para aprender representações não-supervisionadas para conjuntos de dados de
interesse são os Autoencoders (Bengio 2009). Um autoencoder é uma rede neural
composta de duas sub-redes: um encoder, cuja tarefa é gerar uma representação de
baixa dimensionalidade a partir de um objeto complexo, como uma imagem ou texto; e um decoder, cuja tarefa é recuperar o objeto original a partir da representação
gerada pelo encoder. O objetivo de treinar um autoencoder é, ao forçar uma compressão da informação em uma representação de baixa dimensionalidade, obter um
vetor de características que representam uma imagem ou texto, por exemplo, que
resume a informação contida nesse objeto complexo e permite análises exploratórias ou mesmo o uso em outras tarefas
de classificação, agrupamento ou regressão. Dessa forma um autoencoder
pode ser treinado, por exemplo, para
criar representações vetoriais de textos, que depois serão usadas para treinar uma análise de sentimento usando
outro algoritmo -- uma Regressão Logística ou Máquina de Vetores de Suporte, por exemplo.
Modelos gerativos com redes
neurais profundas são um desenvolvimento mais recente e uma ativa área
de pesquisa. Um modelo gerativo é um
modelo que tenta capturar o processo
que teria gerado os dados observados,
modelando sua distribuição de probabilidades. Esse é tipo de modelagem já
bastante conhecida em Aprendizado
de Máquina, com modelos como Mistura de Gaussianas para agrupamento, ou Alocação de Dirichlet Latente para análise de tópicos. Entretanto, modelos probabilísticos gerativos muito complexos são tipicamente intratáveis usando técnicas analíticas e dependem do uso de aproximações variacionais ou simulações de Monte Carlo para serem ajustados. Recentemente alguns progressos foram obtidos delegando
a complexidade desses modelos probabilísticos para redes neurais e desenvolvendo
técnicas que se aproveitam de algoritmos como Backpropagation para resolver parte do problema. Um exemplo são as Redes Gerativas Adversárias (Goodfellow et al.
2014; Makhzani et al. 2015; Denton et al. 2015) em que é possível criar uma rede neural que aprende tão bem a distribuição de probabilidades de um conjunto de imagens, capaz de gerar novas imagens a partir dessa distribuição que são, praticamente, indistinguíveis visualmente de imagens verdadeiras. As representações intermediárias, aprendidas por esses modelos gerativos, frequentemente contém bastante
informação sobre os objetos originais, sendo possível, por exemplo, usa-las para ex-
13
trair informações de estilo de uma imagem (Makhzani et al. 2015) e aplicar sobre outra (Gatys, Ecker, and Bethge 2015), ou recriar a mesma imagem em outro ponto de
vista (Radford, Metz, and Chintala 2015).
5. Conclusões
Redes neurais profundas têm-se mostrado uma ferramenta extremamente
valiosa na modelagem de grandes conjuntos de dados com estrutura complexa, particularmente dados textuais e de imagem. Esse tipo de arquitetura profunda é capaz
de produzir modelos end-to-end, sem a necessidade de uma dispendiosa engenharia
de características inicial. Além disso, as representações aprendidas pelas redes neurais guardam informação do conjunto de dados original e podem servir de insumo
para outros algoritmos e análises. Dada à riqueza de conjuntos de dados textuais de
difícil exploração usando técnicas tradicionais, técnicas não-supervisionadas usando redes neurais podem gerar novas oportunidades ao permitir o uso de fontes de
dados mais cruas, eliminando um processo de engenharia de variáveis incerto e dispendioso.
6. Notas:
1 Em inglês, Clustering.
2 Do inglês, Feature Engineering.
3 Em inglês, Features. Tipicamente no jargão de Aprendizado de Máquina, as variáveis de controle, covariáveis, variáveis explicativas ou variáveis independentes são
chamadas Características: trata-se do mesmo conceito. São as variáveis que serão ingeridas pelo modelo para prever uma variável dependente ou alvo.
Autor
4 Em inglês, Feature Learning e Representation Learning, respectivamente.
Rafael S. Calsaverini
Rafael S. Calsaverini é doutor em Física pela universidade de São Paulo, tendo trabalhado em tópicos de modelagem estatística e aprendizado de máquina. Desde 2012 atua na indústria privada como
Cientista de Dados, desenvolvendo aplicações baseadas em modelos matemáticos e aprendizado de
máquina. Atualmente compõe o time da unidade brasileira do Experian Datalabs na Serasa Experian.
E-mail: [email protected]
Referências
14
BALDI Pierre; SADOWSKI, Peter; WHITESON ,Daniel. 2014. “Searching for Exotic Particles in
High-Energy Physics with Deep Learning.” Nature Communications 5. Nature Publishing Group.
DENTON, Emily L; SOUMITH, Chintala; FERGUS, Rob, and others. 2015. “Deep Generative Image
Models Using a Laplacian Pyramid of Adversarial Networks.” In Advances in Neural Information
Processing Systems, 1486–94.
GATYS, Leon A; ECKER, Alexander, S; BETHGE, Matthias. 2015. “A Neural Algorithm of Artistic
Style.” ArXiv Preprint ArXiv:1508.06576.
GOODFELLOW, Ian; POUGET-ABADIE, Jean; MEHDI, Mirza; BING, Xu; WARDE-FARLEY, David;
OZAIR, Sherjil; COURVILLE, Aaron; BENGIO, Yoshua. 2014. “Generative Adversarial Nets.” In
Advances in Neural Information Processing Systems, 2672–80.
HEBB, Donald. 2005. The Organization of Behavior: a Neuropsychological Theory. Psychology Press.
HINTON, Geoffrey E; OSINDERO ,Simon; YEE-WHYE, Teh. 2006. “A Fast Learning Algorithm for
Deep Belief Nets.” Neural Computation 18 (7). MIT Press: 1527–54.
JORDAN, Michael I. 1994. “A Statistical Approach to Decision Tree Modeling.” In Proceedings of
the Seventh Annual Conference on Computational Learning Theory, 13–20. ACM.
JORDAN, Michael I. 2014. “AMA: Michael I. Jordan.” Reddit. /r/MachineLearning/. https://www.
reddit.com/r/MachineLearning/comments/2fxi6v/ama_michael_i_jordan/ckelmtt?context=3.
KINGMA, Diederik P.; MOHAMED, Shakir; REZENDE, Danilo J; WELLING, Max 2014. “SemiSupervised Learning with Deep Generative Models.” In Advances in Neural Information Processing
Systems, 3581–89.
KOLLER, Daphne; NIR, Friedman,. 2009. Probabilistic Graphical Models: Principles and Techniques.
MIT press.
LECUN, Yann; BENGIO, Yoshu; HINTON, Geoffrey. 2015. “Deep Learning.” Nature 521 (7553).
Nature Publishing Group: 436–44.
LOWE, David G. 1999. “Object Recognition from Local Scale-Invariant Features.” In Computer
Vision, 1999. the Proceedings of the Seventh IEEE International Conference on, 2:1150–57. IEEE.
MACKAY, David J. C. 1992. “A Practical Bayesian Framework for Backpropagation Networks.”
Neural Computation 4 (3). MIT Press: 448–72.
MAKHZANI, Alireza; SHLENS, Jonathon, JAITLY, Navdeep; GOODFELLOW, Ian. 2015.
“Adversarial Autoencoders.” ArXiv Preprint ArXiv:1511.05644.
Referências
15
MCCULLOCH, Warren S.; PITTS, Walter. 1943. “A Logical Calculus of the Ideas Immanent in
Nervous Activity.” The Bulletin of Mathematical Biophysics 5 (4). Springer: 115–33.
MEZARD, Marc; MONTANARI, Andrea. 2009. Information, Physics, and Computation. Oxford
University Press.
NEAL, Radford M. 2012. Bayesian Learning for Neural Networks. Vol. 118. Springer Science &
Business Media.
PARKER, David B. 1982. “Learning Logic. Invention Report S81-64, File 1, Office of Technology
Licensing.” October, Stanford University.
RADFORD, Alec; METZ, Luke; CHINTALA, Soumith. 2015. “Unsupervised Representation
Learning with Deep Convolutional Generative Adversarial Networks.” ArXiv Preprint
ArXiv:1511.06434.
ROSENBLATT, Frank. 1957. The Perceptron, a Perceiving and Recognizing Automaton Project Para.
Cornell Aeronautical Laboratory.
RUMELHARD, David E; HINTON, Geoffrey E.; WILLIAMS, Ronald J. 1986. “Learning
Representations by Back-Propagating Errors.” Nature, 323–533.
UNTERTHINER, Thomas; MAYER, Andreas; KLAMBAUER, Günter; HOCHEITER Sepp. 2015.
“Toxicity Prediction Using Deep Learning.” ArXiv Preprint ArXiv:1503.01445.
VIOLA, Paul; JONES, Michael J. 2004. “Robust Real-Time Face Detection.” International Journal of
Computer Vision 57 (2). Springer: 137–54.
WERBOS, Paul. 1974. “Beyond Regression: New Tools for Prediction and Analysis in the
Behavioral Sciences.”
YARIN, Gal. 2015. “What My Deep Model Doesn’t Know...” Blog. Yarin Gal. http://mlg.eng.cam.
ac.uk/yarin/blog_3d801aa532c1ce.html.
YARIN, Gal; GHAHRAMANI, Zoubin. 2015. “Dropout as a Bayesian Approximation: Insights and
Applications.” In Deep Learning Workshop, ICML.
YOSHUA, Bengio. 2009. “Learning Deep Architectures for AI.” Foundations and Trends in Machine
Learning 2 (1). Now Publishers Inc.: 1–127.
YOSINSKI, Jason; CLUNE, Jeff; BENGIO, Yoshua; LIPSON, Hod. 2014. “How Transferable Are
Features in Deep Neural Networks?” In Advances in Neural Information Processing Systems, 3320–28.
16
Desafios das Empresas
Face à Lei Anticorrupção
Franklin Mendes Thame
17
Sumário
A Lei Anticorrupção - Lei 12.846/2013- veio aprimorar o
marco regulatório do País no combate a corrupção. Essa regulação constitui instrumento essencial para corrigir falhas de mercado, moldar a conduta, mudar o padrão de relacionamento, aperfeiçoar as práticas de prevenção e controlar o comportamento das
empresas. A lei visa combater a impunidade quando dos negócios
com o setor público, notadamente para segmentos econômicos
de atuação com maior susceptibilidade às práticas de corrupção.
1. Introdução
A Lei Anticorrupção 12.846/2013, ao estabelecer a responsabilização objetiva, no âmbito civil e administrativo, de empresas que praticam atos lesivos contra
a administração pública, veio preencher importante lacuna no ordenamento jurídico do Brasil ao levar os corruptores à punição. Assim, para as empresas é um chamado à reflexão e à ação de forma a se prevenirem de punições por atos ilícitos junto ao setor público.
A atuação das empresas que se relacionam com o setor público e com reguladores está exigindo, face à possiblidade de serem enquadradas nessa Lei, maiores cuidados quando:
• participam de licitações e de concessões;
• solicitam licenciamentos, autorizações, outorgas e alvarás;
• contratam parceiros, terceiros e fornecedores;
• solicitam empréstimos subsidiados junto às instituições financeiras oficiais; e
• requerem autorizações para comercializar novos produtos e serviços, entre outras
ações.
A conscientização, pelas empresas, sobre a necessidade de se precaverem
de sanções decorrentes de delitos nos relacionamentos com o setor público implica
uma mudança de cultura no enfrentamento das práticas que visam obter vantagens,
quando atuam como fornecedoras e prestadoras de serviços a esse setor. Assim, há
necessidade de as empresas estruturarem uma governança especifica para o gerenciamento integrado de riscos, adotando políticas de compliance, haja vista que
determinadas condutas, justificadas em função do processo burocrático dos órgãos
públicos (excesso de leis, regulações, exigências de alvarás e de licenciamentos), podem ser consideradas passíveis de enquadramento na Lei Anticorrupção.
18
As ações e estratégias de anticorrupção nas empresas deve ser transversal,
alcançar todos os níveis hierárquicos e todas as áreas administrativas. As ações de
enfrentamento à corrupção se pautam na ética, na justa concorrência, na eficiência,
no mérito e se inserem nas melhores práticas de governança corporativa como: gerenciamento integrado de riscos; estrutura de compliance; desenvolvimento do capital humano e gestão de fornecedores e parceiros. A política anticorrupção deve ser
parte integrante da política estratégica das empresas, a fim de preservar seu maior
valor: a reputação.
2. Autorregulação
A empresa deverá definir as políticas e as ações de autorregulação, que
comprovem o seu compromisso com os princípios que norteiam a ética, atribuindo
responsabilidades às áreas envolvidas sobre o gerenciamento de riscos dos possíveis impactos decorrentes das suas atividades com o setor público.
O escopo e conteúdo da política de prevenção em relação a Lei Anticorrupção de uma empresa são definidos por:
• porte;
• natureza da sua atividade;
• peculiaridades nas linhas de negócios; e
• formas de atuação com o setor público.
Inicialmente, a empresa deverá fazer o diagnóstico das suas ações com o setor público, desde a simples obtenção de um licenciamento ou alvará até uma complexa autorização oficial para lançamento de um novo produto. Uma vez alinhadas as
ações caberá verificar os riscos, classificá-los de acordo com a sua relevância e proporcionalidade, bem como definir as áreas responsáveis.
Na sequência, deverá identificar os funcionários e terceirizados (CNPJs e
CPFs) envolvidos e criar uma “matriz de riscos’’, com informações sobre eles obtidas
de empresas de tecnologia de informações, como a Serasa Experian; da mídia; de sites públicos que trazem informações jurídico-processuais no âmbito civil, trabalhista
e criminal; e de cadastros e de listas públicas, cujos incluídos tiverem comportamentos considerados inidôneos.
A empresa deverá, ainda, estabelecer os padrões de atuação prudencial e as
ações que poderão evitar delitos para mitigar eventuais sanções judiciais. Os procedimentos adotados pela empresa devem possibilitar argumentos de defesa em ações
judiciais, trazer conforto/segurança jurídica e demonstrar que ela foi diligente em relação aos seus negócios com o setor público. Uma importante referência é a existência de um programa de compliance que demonstre, de forma consistente, as estratégias e as ações destinadas a evitar atos passíveis de serem considerados corruptos.
19
O programa deverá possibilitar que os princípios de prevenção e precaução se materializem para enfrentar todo e qualquer ato de corrupção.
As normativas internas da empresa precisam refletir a legislação anticorrupção. Ao cumpri-las, a empresa passa a considerar os fatores éticos e morais, em
conjunto com os econômico-financeiros. Essas normativas farão parte da gestão integrada de riscos, que protege a empresa de riscos operacionais, de reputação, de
delitos, de punições e de responsabilidade solidária, entre outros.
3. Empresa Limpa
A Lei Anticorrupção, nº 12.846/2013, conhecida como a Lei da Empresa Limpa, tem, portanto, por objetivo, tratar da conduta e da punição das empresas por atos
de corrupção, praticados por seus representantes diretos ou terceirizados, contra a
administração pública.
Esta lei pode ser aplicada contra empresas que corrompam agentes públicos com suborno e pagamento de propinas; fraudem licitações ou contratos públicos; frustrem, mediante ajuste ou combinação, o caráter competitivo de um procedimento licitatório; e obtenham benefícios por meio de atos corruptos.
Trata-se de punição objetiva e, assim, a empresa poderá ser responsabilizada em casos de corrupção, independentemente da comprovação de culpa. A empresa responderá às autoridades judiciais
por ato de corrupção, praticado por seus
funcionários ou por empresa ou empregado terceirizado, mesmo sem o envolvimento direto por parte dos seus proprietários.
Dessa forma, a empresa será punida se tiver obtido benefícios, via ato corrupto resultado inclusive da improbidade administrativa dos servidores públicos.
A multa aplicada pelas autoridades judiciais poderá variar de 0,1% a 20% do
faturamento bruto do último exercício anterior ao da instauração do processo administrativo ou até R$ 60 milhões de reais, quando não for possível esse cálculo. Outra
punição que afetará diretamente a reputação da empresa é a publicação da sentença condenatória na mídia.
A lei prevê o impedimento de novas empresas criadas por sócios de empresas inidôneas, incluídas no Cadastro Nacional de Empresas Inidôneas e Suspensas
- CEIS, se em seus próprios nomes ou de maneira oculta, venham a contratar com
a administração pública. Serão solidariamente responsáveis, à obrigação de paga-
20
mento de multa e reparação integral do dano causado, as sociedades controladoras,
controladas, coligadas ou, no âmbito do respectivo contrato, as consorciadas. Nas
hipóteses de fusão e incorporação, a responsabilidade da sucessora será restrita à
obrigação de pagamento de multa e reparação integral do dano causado, até o limite do patrimônio transferido.
A União, os Estados, o Distrito Federal e os Municípios e o Ministério Público, poderão ajuizar ação com vistas à aplicação das seguintes sanções às pessoas
jurídicas infratoras: I. Perda dos bens, direitos ou valores; II. Suspensão ou interdição
parcial de suas atividades; III. Dissolução compulsória da pessoa jurídica e IV. Proibição do recebimento de incentivos, subsídios, subvenções, doações de entidades públicas e de instituições financeiras públicas, pelo prazo de 1 a 5 anos.
Conforme a Lei 12.846, artigo 7º;
serão levados em consideração na aplicação das sanções:
I.
Gravidade da infração;
II.
Vantagem auferida ou pretendida
pelo infrator;
III. Consumação ou não da infração;
IV. Grau de lesão ou perigo de lesão;
V. Efeito negativo produzido pela infração;
VI. Situação econômica do infrator;
VII. Cooperação da pessoa jurídica para a apuração das infrações;
VIII. Existência de mecanismos e procedimentos internos de integridade, auditoria e
incentivo à denúncia de irregularidades e a aplicação efetiva de códigos de ética
e de conduta no âmbito da pessoa jurídica;
IX. Valor dos contratos mantidos pela pessoa jurídica com o órgão ou entidade pública lesados.
4. Decreto 8.420/15
O Decreto 8.420/15, que regulamenta a Lei n.º 12.846/2013 dispõe sobre a
responsabilização administrativa de pessoas jurídicas pela prática de atos contra a
administração pública e estabelece que um Programa de Compliance efetivo deve
conter:
I.
Códigos de ética e conduta;
II.
Comprometimento do alto escalão;
21
III. Treinamento de funcionários e terceiros;
IV. Monitoramento e auditoria periódica;
V. Canal de comunicação para orientação e denúncia;
VI. Política de investigação com inclusão das ações corretivas;
VII. Política de contratação de terceiros e outros mecanismos específicos para cada
segmento.
A área de Compliance da empresa é responsável por assegurar que as suas
políticas, o código de ética, as leis e os regulamentos sejam respeitados pelos diretores, funcionários, parceiros de negócios, terceirizados e fornecedores.
A existência de um Programa de Compliance na empresa será atenuante na
aplicação das sanções administrativas, caso a mesma venha a ser autuada por práticas ilícitas.
Muitas empresas presentes no Brasil já aderiram a essa prática, pois seguem códigos de conduta de seus países de origem onde há legislações avançadas
a esse respeito: nos Estados Unidos: FCPA - Foreign Corrupt Practices Act e SOA –
Sarbanes Oxley Act; e no Reino Unido: UKBA - United Kingdom -Bribery Act - Lei
contra Subornos do Reino Unido.
5. Conclusão
Estima-se que o Brasil perde a assustadora quantia de R$ 50 bilhões a 80 bilhões todos os anos com a corrupção. A corrupção passa a ser o principal problema
do país, haja vista que arruína a confiança dos agentes econômicos, impede investimentos, desestabiliza a economia, diminui a arrecadação de impostos e subtrai direitos fundamentais de todos os brasileiros.
No Congresso Nacional, atualmente existem 355 projetos de lei sobre corrupção de iniciativa de deputados e 173 de senadores, totalizando 528 proposições,
assim é impossível que haja alguma espécie de corrupção que não tenha sido já contemplada nestes projetos.
A Lei Anticorrupção brasileira, ao estabelecer a responsabilização objetiva, no âmbito civil e administrativo, de empresas que praticam atos lesivos contra
a administração pública, vem preencher importante lacuna no ordenamento jurídico do Brasil ao levar os corruptores à punição. Assim, para as empresas é um chamado à reflexão e à ação de forma a se prevenirem de punições por atos ilícitos junto ao setor público.
Nas organizações, a Lei anticorrupção induzirá uma nova forma de fazer negócios com o setor público, que exigira a adoção de boas práticas de governança
corporativa, com transparência em todos os níveis hierárquicos, com rígido cumpri-
22
mento da conformidade legal, com segregação de funções, com políticas de terceirizações, com programa de definição de riscos específicos, com controles internos
e auditorias.
Ressalta-se a importância de Programa de Compliance, com definições de
condutas que inibam fraudes, lavagem de dinheiro, trafego de influência, conflitos
de interesse de funcionários, parceiros, terceirizados e fornecedores e assim possibilite que as regras de negócios com o setor público sejam mais éticas, transparentes, justas e simétricas.
Ao incorporar na gestão estratégica da empresa as exigências da legislação
anticorrupção, está-se condicionando que a sua atividade fique atrelada à moralidade e à legalidade. Assim, as atitudes éticas da empresa, criam valor sustentável e
suas atitudes se multiplicam, e passam a influenciar toda a sociedade.
Autor
Leis e condenações que visam punir delitos por atos de corrupção, de fraude
fiscal e de lavagem de dinheiro vem somar esforços para que o setor produtivo brasileiro avance no rumo da sustentabilidade.
Franklin Mendes Thame
Engenheiro Agrônomo e Administrador de Empresas com especialização em agronegócios,
desenvolvimento de produtos financeiros e sustentabilidade. Trabalhou 35 anos no Banco Noroeste
e Banco Santander. Foi Diretor de Crédito Rural e Diretor da FEBRABAN. Atualmente é Gerente de
Produtos na Serasa Experian. E-mail: [email protected]
23
O Aumento da Alocação de
Capital em Risco Operacional
e suas Implicações em
Instituições Financeiras Locais
Marcelo Petroni Caldas
Oswaldo Pelaes Filho
Frederico Turolla
24
Sumário
A crise de 2008 desencadeou movimento mundial em direção a uma nova forma de regulação de Instituições Financeiras
(IFs), em função de preocupações quanto à solvência das mesmas.
No entanto, o risco operacional foi pouco abordado nesse contexto de mudanças globais, pois o foco era melhorar a qualidade do
capital e aprofundar os requerimentos para o risco de liquidez. Depois de vários estudos e reflexões o Comitê de Basileia divulgou
um draft abordando nova proposta de alocação de capital para
o risco operacional. A proposta busca tornar o risco operacional
mais sensitivo ao risco à medida que considera novos aspectos
no cálculo do requerimento de capital, tais como volumes e negócios realizados entre outros itens. Estudos indicam que o impacto
tende a ser considerável e a indústria bancária vem se movimentando para expor aos reguladores e ao Comitê as idiossincrasias
existentes nesse processo. Esse tema é recente e a literatura é escassa sob o enfoque de International Business, e abordá-lo contribui para o entendimento dos conceitos de internacionalização de
Instituições Financeiras, regulação home host, distância psíquica,
gestão de risco e controles internos do sistema financeiro. Esse
artigo realizou pesquisa através de dados secundários, incluindo
análise documental, com o objetivo de constatar o impacto dessas
regras regulatórias sobre Instituições Financeiras locais e globais
no Brasil. Concluiu que os cinco bancos pertencentes a essa análise sofrerão impactos importantes em seu capital caso não houvesse nenhuma alteração na data base da pesquisa. Diante dessa
constatação a alternativa é o reforço do capital de melhor qualidade e a redução de negócios em determinados nichos de atuação.
1. Introdução
O tema risco operacional é razoavelmente novo, se comparado aos riscos de
crédito e mercado. Entender esse risco pressupõe conhecimento amplo das empresas quer seja financeira ou não financeira, pois ele pode ocorrer em qualquer linha
de negócio de atuação. Assim, a questão não está relacionada somente a entende-lo, mas em como mensurar e como calcular uma parcela do capital que reflita adequadamente sua alocação. Desde que o risco operacional foi introduzido em Basileia
II1, em 2004, essa discussão suscita debates acalorados tanto do lado dos defensores
do método, quanto daqueles que são contrários e ela pouco evoluiu até a emissão de
draft publicado em outubro de 2014 pelo Comitê de Basileia (Basiléia2) com intuito de
modificar o modelo padronizado de cálculo de capital de risco operacional3 para torná-lo mais sensitivo ao risco.
25
Este artigo tem o objetivo de verificar o impacto que a nova regulamentação
para alocação de capital emanada pelo Comitê de Basileia pode gerar na necessidade de capital das Instituições Financeiras analisadas neste estudo. Pretendeu-se
abordar um conceito teórico baseado em análise dos documentos emanados pelo
Comitê de Basileia e os relatórios sobre gestão de riscos divulgados pelas Instituições Financeiras e disponibilizados em seus sites onde constam os montantes de alocação de capital para risco operacional.
2. Desenvolvimento da Regulação e o Risco Operacional
O primeiro acordo de capital, como se sabe, foi focado eminentemente em
risco de crédito o qual é definido por:
The risk that the counterparty to a transaction could default before the final settlement of the transaction’s cash flows. An economic loss would occur if the transactions or portfolio of transactions with the counterparty has a positive economic
value at the time of default4.
O primeiro acordo ainda disseminou um indicador conhecido por “Índice de
Basileia” (BIS, 1988 International Convergence of Capital Measurement and Capital Standards, July 1988), utilizado constantemente e que representa um direcionador relevante de solvência das instituições financeiras. O objetivo era de que somente Instituições Financeiras internacionalmente ativas utilizassem essa métrica, no entanto
a simplicidade da fórmula levou a uma massificação do conceito e sua consequente
implantação mesmo por bancos que não possuíam atuação global. Depois da publicação do primeiro acordo, houve a publicação de uma emenda que tratou especialmente de risco de mercado , pois era um risco que estava emergindo e se fazia necessário um tratamento diferenciado. É importante definir Risco de Mercado6:
The risk of losses in on and off-balance-sheet positions arising from movements
in market prices. The risks subject to this requirement are:
• The risks pertaining to interest rate related instruments and equities in the trading book;
• Foreign exchange risk and commodities risk throughout the bank.
Por fim, o Novo Acordo de Capital de Basileia (ou Basileia II) consolidou e
melhorou os conceitos dos riscos de crédito e mercado e implantou o conceito do risco operacional. À época se constituiu em novidade, pois era um risco cuja existência
era percebida mas que não havia sido registrada e divulgada por uma entidade supranacional, orientando como tratá-lo sob os aspectos de governança e determinação de três formas de cálculo de capital a ser alocado. Era uma revolução para aquele momento, sendo importante mencionar o conceito de Risco Operacional conforme Basileia II:
26
The risk of loss resulting from inadequate or failed internal processes, people and
systems or from external events. This definition includes legal risk, but excludes
strategic and reputational risk.
Localmente, o conceito também foi desenvolvido sendo que o regulador brasileiro em 2006 decidiu publicar normativo, Resolução 33807, considerado best practice local e que determinou a implementação de estrutura de gerenciamento de risco
operacional nas Instituições Financeiras e que possui a função de descrever conceitos, formas de registro, atribuição de responsabilidades e escopo de aplicação para
as entidades autorizadas a funcionar sob supervisão do Banco Central do Brasil. Interessante destacar que somente em abril de 2008, no Brasil, foi implantada a norma
que regulamenta o método de alocação de capital para risco operacional. A Circular
3383/088 estabeleceu os procedimentos para o cálculo da parcela referente ao risco
operacional através de 3 métodos:
Método
1. Indicador Básico
2. Padronizada Alternativa
3. Padronizada Alternativa
Simplificada
Base de Cálculo
Resultado Bruto, não há segregação
por linhas de negócio, média dos
últimos 3 anos
Resultado Bruto segregado por 8
linhas de negócio, sendo que em duas
linhas de negócio (comercial e varejo)
se utiliza o portfolio de crédito ao invés
de resultado bruto. Emprega-se a
média dos últimos 3 anos
Resultado Bruto segregado por 2
linhas de negócio; Utiliza-se, a média
dos últimos 3 anos
Coeficiente
15% do Resultado Bruto
12% a 18% do Resultado Bruto
aplicado às 8 linhas de negócio
15% e 18% do Resultado Bruto
aplicado às duas linhas de negócio
Fonte: Circular 3383/08
A partir de então as Instituições Financeiras tiveram que escolher em qual
método deveriam se enquadrar. Os bancos locais considerados de grande porte,
conforme suas respectivas publicações, decidiram pela aplicação do método padronizado alternativo (ou em inglês: Alternative Standardized Approach – ASA). O motivo
está relacionado a um menor impacto na alocação de capital, visto que em duas linhas de negócio (comercial e varejo) se utiliza um spread médio de 3,5%9 (conforme
definido por Basileia II e adotado pelo Supervisor bancário brasileiro através da Circular 3383/08). Ela é bem inferior ao praticado no sistema financeiro brasileiro, conforme Relatório do Panorama de Crédito publicado pela Febraban na data base outubro/2015 que demonstra spread médio consolidado de 15,5% no período de outubro/13 a outubro/15. Vale ressaltar que no período 2010-2014 a alocação de capital
média para risco operacional foi de R$ 13,8 bilhões para os cinco maiores bancos
(Bradesco, Itaú, Caixa Econômica Federal, Banco do Brasil e Santander) que representa, em média, 5% do patrimônio de referência médio dessas Instituições Financeiras no mesmo período.
A Circular 3383/08 foi substituída pela Circular 3640/1310 que fixou os procedimentos para cálculo da parcela dos ativos ponderados pelo risco relativa ao cálcu-
27
lo do capital requerido para o risco operacional mediante abordagem padronizada.
Na verdade tratou-se de alinhamento internacional quanto ao cálculo elaborado para
risco operacional, onde o valor da alocação obtida através dos conceitos já descritos
nesse artigo devem ser alavancados por 11%. Enfim, independentemente do número
do normativo a constatação é que os modelos padronizados não são úteis em medir
risco propriamente dito, pois a lógica desses modelos é de que quanto mais se fatura
maior o risco da instituição. Portanto, não se trata de algo lógico porque esse método
não carrega a possibilidade de que fatores de controle e de ambiente de negócio influenciam e podem impedir que incrementos de resultado não necessariamente gerem efeitos de maior risco e, consequentemente, possíveis perdas advindas desse
risco adicional em virtude de mais negócios gerados.
Ressalta-se que em 2011 houve a publicação de normativo local (Circular
3647/13 ) que estabeleceu os requisitos mínimos para a utilização de abordagem
avançada, baseada em modelo interno, no cálculo da parcela relativa ao risco operacional. De fato, o espírito do regulador, ao publicar os termos desse normativo, limita
demasiadamente a utilização de modelo avançado pelos bancos locais. Não estabelece margem para uso parcial do modelo e nem incentivos para que se introduzam
melhorias sistêmicas em paralelo à implantação do modelo ou de processos que não
sejam totalmente automatizados. Esse fato se caracteriza em um ambiente perfeito e
que se torna muito difícil de se implantar na totalidade de empresas complexas, que
atuam em linhas variadas de negócios, como no caso brasileiro onde determinadas
instituições financeiras possuem companhias seguradoras de grande porte e que
estão sujeitas às questões de Solvency II (que nada mais é do que a “Basiléia das Seguradoras”), com milhões de clientes. Acredita-se que esse assunto possa ser explorado em outra linha de pesquisa, pois constitui um amplo campo de reflexão para a
gestão do risco operacional.
11
4. O Advento da Crise Econômica de 2008-2009
Conforme definição obtida na edição 45 da revista de informações e debates
do IPEA (Instituto de Pesquisa Econômica Aplicada)
O subprime se caracterizou como hipotecas de maior risco ou de segunda linha.
Com o excesso de liquidez no mercado internacional nos últimos anos, os bancos
e financeiras dos Estados Unidos passaram a financiar a compra de casas a juros
baixos para pessoas com histórico de crédito ruim, tendo o próprio imóvel como
única garantia. Mas veio a queda nos preços dos imóveis e os bancos ficaram
ameaçados de não reaver os empréstimos feitos.
A crise ocorrida em 2008 decorrente do colapso dessas operações (subprime) no mercado norte americano, acarretou uma serie de reflexões sobre a questão de risco de liquidez, sistêmico e da necessidade de capital de melhor qualidade
das Instituições Financeiras. Como amplamente divulgado a consequência foi uma
28
série de regulações que impactaram o mercado financeiro, a saber: Basileia III12 - A
Global Regulatory Framework for more Resilient Banks and Banking Systems, Dodd Frank
Wall Street Reform and Consumer Protection Act13 somente para citar as duas orientações normativas mais importantes que surgiram como resposta à crise. Esse posicionamento mundial foi dado pelo G20 que é formado pelo conjunto das 20 economias mais relevantes mundialmente. A preocupação desse grupo se estabeleceu em
não permitir uma depressão econômica em escala global e consequentemente prover maior regulação sobre o sistema financeiro global. O FSB (Financial Stability Board) surge com a atribuição de coordenar a regulação global e verificar a implantação de suas políticas.
Apesar de que a atenção estava totalmente voltada para esses riscos anteriormente mencionados, o risco operacional ressurgiu na discussão devido a uma
certa preocupação em relação às hipotecas e, consequentemente, à alocação de capital para risco operacional. Em relação às hipotecas, pois não se sabe o quanto de
fraude e falha de processo representavam como causa principal nessa questão, as
baixas em empréstimos poderiam se dar por efeitos decorrentes de risco operacional. Pelo lado da alocação de capital, o sinal vermelho se acendeu para os reguladores, pois a alocação de capital pelos métodos padronizados é calculada por meio da
média dos últimos 3 anos do resultado bruto. A consequência surgiu alguns anos depois da crise, constatando-se que o resultado dos bancos, em decorrência da crise,
diminuiu e o reflexo imediato foi a redução do valor de capital alocado. Se Basileia já
tinha por objetivo rever essa metodologia, esse fato foi o ingrediente que faltava para
se iniciar o processo de proposta de mudança.
5. Ações Pós Crise
Na realidade Basileia demorou certo tempo para publicar algo em resposta
à crise e que fosse ao encontro das deficiências encontradas no conceito de alocação de capital para risco operacional. Após estudos de impacto que contaram com
a participação das Instituições Financeiras e de diversas análises, foi publicado o documento Operational Risk – Revisions to the simpler approach14 em outubro/2014. Com
esse documento Basileia adota o enfoque voltado para simplicidade e maior sensibilidade a risco e os 3 tipos de métodos de alocação deram lugar a um único método.
No entanto o quesito modelo mais sensível a risco ainda se mostra devedor, pois os
vetores, na maioria, permanecem os mesmos.
A conclusão do documento é de que o resultado bruto (ou gross income) deve
ser substituído por uma nova variável denominada BI (business indicator) com o intuito de capturar os grandes negócios bancários, a saber: juros (interest component),
serviços (services component) e financeiro (financial component). Essa nova calibração
visa incrementar a alocação e, consequentemente, tornar-se sensível ao risco. Vale a
constatação de que países com altas taxas de juros (NIM – net interest margin) tam-
29
bém foram escopo e consideradas nesse draft emitido por Basileia, mas o tratamento
a ser dado a essa situação específica ainda está em análise. Ressalta-se que eventual mudança no spread (de 3,5% para outro percentual acima desse número), considerado para efeito de cálculo da alocação de capital, constitui para os bancos brasileiros uma mudança forte na abordagem de capital e que seu impacto afeta razoavelmente os níveis de alavancagem da indústria financeira como um todo. É importante correlacionar essa questão aos impactos macroeconômicos, pois algo que afete a
alocação de capital (para cima, ou seja com aumento) resultará em menos disponibilidade de crédito para o cliente e/ou consumidor final para compra de bens e serviços. Enfim, as Instituições Financeiras, após várias alterações em normas e regulamentos, têm experimentado algo cada vez mais presente no dia-a-dia dos gestores:
a escassez do recurso chamado “capital”.
A nova formulação da possível alocação de capital constante do draft emitido
por Basileia, referente ao business indicator, considera intervalos que variam de 10% a
30% e, por consequência, incrementam a alocação de capital das instituições, principalmente se compararmos o range anterior que variava dentre 8 linhas de negócio
de 12% a 18%. A aplicação da fórmula gerada é extremamente simples e visa distribuir os resultados de cada indicador de negócio nas faixas selecionadas, conforme
segue no quadro demonstrativo:
Coeficiente
Coeficiente por intervalo
0-100
BI (milhões de €)
10%
10%
>100 – 1.000
13%
10% - 12,7%
>1.000 – 3.000
17%
12,7% - 15,57%
>3.000 – 30.000
22%
15,57% - 21,36%
>30.000
30%
21,36% - 30%
Fonte: Operational Risk – Revisions to the simpler approaches
Portanto, aproveitando o exemplo do documento de Basileia é possível fazer
uma simulação de como a distribuição ocorre dentro de uma instituição financeira
em relação à nova formulação proposta por Basileia:
Banco
BI
Cálculo
A
$ 80
$ 80 * 10%
Capital Alocado
$8
B
$ 800
$ 100 * 10% + $ 700 * 13%
$ 101
C
$ 2.000
$ 100 * 10% + 900 * 13% + 1.000 * 17%
$ 297
Fonte: Operational Risk – Revisions to the simpler approaches
6. Análise Quantitativa
A análise quantitativa procurou verificar a existência de correlação entre o
Índice de Basileia (IB) e alguns indicadores selecionados para os bancos brasileiros
Bradesco, Itaú, CEF – Caixa Econômica Federal, Banco do Brasil e o banco estrangeiro Santander. Os indicadores testados foram o Patrimônio Referência (PR), o Pa-
30
trimônio Referência Exigido (PRE), as parcelas de Risco Operacional (RO), Risco de
Crédito (RC), Risco de Mercado (RM) e o Retorno sobre o Equity (ROE), para tanto foram levantados os dados objeto da correlação para o período de 2010 a 2014.
Considerando comentários no mercado financeiro sobre a possível mudança da regra de alocação de capital para o risco operacional e o respectivo impacto
que essa alteração tende a gerar, foi calculada a parcela de Risco Operacional multiplicando por 2 (ROx2) e multiplicado por 3 (ROx3), pois o impacto que o mercado estima nas instituições financeiras é de duas a três vezes o aumento na alocação de capital do risco operacional. Importante ressaltar que o Índice de Basiléia foi recalculado e (afinal decorre do ROx2) denominado IBx2 e o Índice de Basileia decorrente de
ROx3 foi denominado IBx3.
A tabela a seguir apresenta os dados levantados que serviram de base para
o cálculo das correlações:
Tabela de Dados
em R$ milhões
Patrimônio
Referência
PRE
PREx2
PREx3
RO
ROx2
ROx3
RC
RM
Índice de Índice de Índice de
Basileia Basileia Basileia
x2
x3
ROE
Fonte: Relatório de Gestão de Riscos – site dos Bancos
Colunas PREx2, PREx3, ROx2 e ROx3, elaboradas pelos autores
Todos os resultados da correlação foram obtidos através da utilização da
análise de dados do aplicativo Excel, sendo que inicialmente foram calculadas as correlações tomando-se por base as médias dos dados dos bancos considerados para
cada ano de análise, assim os dados obtidos pela correlação entre o IB e as variáveis
analisadas, no período de 2010 a 2014, gerou os seguintes resultados:
31
Resultado das Correlações
Correlação
IB_2010
IB_2011
IB_2012
IB_2013
IB_2014
RO
-2%
74%
74%
26%
51%
PRE
14%
71%
52%
28%
51%
PR
-15%
80%
84%
42%
58%
RC
13%
66%
43%
25%
48%
RM
69%
15%
53%
60%
59%
ROE
7%
-21%
-41%
37%
94%
Correlação
IB2_2010
IB2_2011
IB2_2012
IB2_2013
IB2_2014
RO x2
-13%
5%
37%
65%
85%
PRE x2
-44%
-7%
9%
51%
75%
PR
-91%
-49%
47%
60%
74%
RC
-46%
-2%
-7%
49%
72%
RM
-67%
-58%
76%
22%
26%
ROE
49%
82%
-82%
12%
67%
Correlação
IB3_2010
IB3_2011
IB3_2012
IB3_2013
IB3_2014
RO x3
-13%
5%
37%
65%
85%
PRE x3
-43%
-6%
10%
52%
75%
PR
-91%
-48%
46%
60%
74%
RC
-46%
-2%
-7%
49%
72%
RM
-67%
-58%
75%
22%
26%
ROE
49%
82%
-82%
12%
67%
Fonte: Os autores
As variáveis analisadas podem ter correlações que vão de “bem fraca” a
“muito forte” conforme identificado no quadro a seguir:
Valor de ρ (+ ou -)
Interpretação
0,00-0,19
Uma correlação bem fraca
0,20-0.39
Uma correlação fraca
0,40-0,69
Uma correlação moderada
0,70-0,89
Uma correlação forte
0,90-1,00
Uma correlação muito forte
As conclusões da análise da correlação estão apresentadas no Quadro Resumo das Correlações Analisadas:
32
Quadro Resumo das Correlações Analisadas com o IB
Ano
Muito forte
Forte
2010
Moderada
RM
2011
RO, PRE, PR
RC
2012
RO, PR
PRE, RC, RM, ROE
2013
PR, RM
2014
ROE
RO, PRE, PR, RC, RM
Quadro Resumo das Correlações Analisadas com o IB2x
Ano
Muito forte
2010
PR
Forte
Moderada
PRE, RC, RM, ROE
2011
ROE
PR, RM
2012
RM, ROE
PR
2013
RO, PRE, PR, RC
2014
RO, PRE, PR, RC
ROE
Quadro Resumo das Correlações Analisadas com o IB3x
Ano
Muito forte
2010
PR
Forte
Moderada
PRE, RC, RM, ROE
2011
ROE
PR, RM
2012
RM, ROE
PR
2013
RO, PRE, PR, RC
2014
RO, PRE, PR, RC
ROE
Fonte: Os autores.
Pode-se concluir que, aparentemente, não existe uma correlação forte entre
as variáveis analisadas e os índices de Basileia IB, IB2x e IB3x. A única variável que
apresenta uma quantidade maior de correlações fortes é o ROE, entretanto, em alguns anos mostra uma correlação positiva e em alguns anos negativa, fazendo com
que não seja identificável uma tendência entre as duas variáveis. Um dos motivos
que pode acarretar essa falta de tendência, apesar da correlação forte, é a relação
dos índices de Basileia com outras variáveis que também se relacionam com o ROE,
as quais não estão sendo consideradas neste estudo.
7. Sugestões e Limitações da Análise Quantitativa
O teste estatístico por meio de regressão não foi realizado devido à
escassez de dados históricos para uma boa aderência dos dados à realidade, pois
utilizou-se, neste estudo, informações após a implantação do IB3. Para próximas pesquisas, sugere-se o uso de uma base de dados mais ampla. Isto é, dados em painel
33
contemplando um número maior de observações e de variáveis o que poderá possibilitar a utilização de regressões para análise dos dados, bem como entender as correlações existentes entre as variáveis que causam efeito nos indicadores analisados.
8. Impactos do Incremento na Alocação de Capital
É importante notar que outro aspecto abordado nesse estudo diz respeito ao impacto que um possível aumento da alocação de capital na parcela de risco
operacional pode gerar na economia através da disponibilidade de crédito ao tomador final.
Foi mencionado que mediante comentários correntes no mercado, especula-se que a nova metodologia para alocação de capital para risco operacional tende a
aumentar de duas (ROx2) a três vezes (ROx3) a parcela atual. Pois bem, traçando um
valor médio para esse cálculo de impacto nas 5 instituições financeiras, em 5 anos,
observa-se o seguinte:
Quadro 1 – todas as variáveis apresentam evolução regular conforme publicado
PR médio
PRE
Índice de Basileia
R$ 418,9 bilhões
R$ 280,2 bilhões
16,42%
Quadro 2 – todas as variáveis apresentam evolução regular conforme publicado, porém para risco operacional a alocação foi multiplicada por 2
PR médio
PRE
Índice de Basileia
R$ 418,9 bilhões
R$ 280,2 bilhões
16,42%
Quadro 3 – Todas as variáveis apresentam evolução regular conforme publicado, porém para risco operacional a alocação foi multiplicada por 3
PR médio
PRE
Índice de Basileia
R$ 418,9 bilhões
R$ 280,2 bilhões
16,42%
Fonte: Os autores
A partir dessas estimativas pode-se considerar que esse possível aumento
da alocação de capital para risco operacional retiraria das instituições financeiras a
capacidade de gerar empréstimos da ordem de R$ 27,7 bilhões. Adicionalmente não
se considerou a possibilidade de alavancagem desse montante que representa a capacidade das instituições financeiras. Talvez algo a ser considerado por Basileia e
pelo supervisor local seria a implantação em etapas, considerando layers, como por
exemplo: no 1º ano somente 50% do montante calculado; no 2º ano somente 70% e
assim por diante até completar a totalidade da alocação. Entende-se que algo nessa direção tende a suavizar o impacto do aumento da alocação para os bancos e por
consequência não prejudicaria demasiadamente o setor real da economia.
34
9. Considerações Finais
O artigo explorou os impactos da mudança de alocação de capital de risco
operacional, em estudo pelo Comitê de Basileia, e o respectivo impacto nos bancos
locais, ou seja Brasil. Os estudos realizados demonstram que o impacto é razoável,
pois o aumento pode ocorrer em até 3 vezes comparado ao volume de alocação atual.
Esse impacto, significativo, afeta a macroeconomia através de menor oferta de crédito e o consequente impacto nas empresas e famílias. Portanto, é necessário que
se alinhe essa nova carga de capital à realidade do ciclo econômico que se presencia. Ou, ainda, que se proponha uma implantação pari passu com objetivo de suavizar os impactos relevantes que essa nova regra pode causar à economia local e regional. Acredita-se que os próximos movimentos para que se avance no esforço de
pesquisa dos impactos seja a repetição do estudo a partir do momento que a regra
estiver efetivamente validada e divulgada de maneira final para que se obtenha a noção exata do impacto abrangendo, inclusive, Instituições Financeiras de médio e pequeno porte.
10. Notas:
1
Basel II: International Convergence of Capital Measurement and Capital Standards: a
Revised Framework
2
O Comitê de Basiléia de Supervisão Bancária é um comitê de autoridades de Supervisão Bancária estabelecido pelos presidentes dos bancos centrais do Grupo
dos Dez – G10 – em 1975. Esse comitê possui representantes seniores dos bancos centrais da Bélgica, Canadá, França, Alemanha, Itália, Japão, Luxemburgo,
Holanda, Espanha, Suécia, Suíça, Reino Unido e Estados Unidos. Geralmente se
reúne no Bank for International Settlements na Basileia, onde está localizada sua
Secretaria permanente.
3
Operational Risk – Revisions to the simpler approaches – consultative document
4
Basel II: International Convergence of Capital Measurement and Capital Standards: a
Revised Framework – page 19; footnote 16 - http://www.bis.org/publ/bcbs128.pdf
5
Amendment to the capital accord to incorporate market risk, January 1996
6
Basel II: International Convergence of Capital Measurement and Capital Standards: a
Revised Framework – page 157 - http://www.bis.org/publ/bcbs128.pdf
7
Resolução 3380/06, Banco Central do Brasil http://www.bcb.gov.br/pre/normativos/busca/downloadNormativo.asp?arquivo=/Lists/Normativos/Attachments/48239/Res_3380_v3_P.pdf
8
Circular 3383/08, Banco Central do Brasil http://www.bcb.gov.br/pre/normativos/
busca/downloadNormativo.asp?arquivo=/Lists/Normativos/Attachments/47919/
Circ_3383_v3_P.pdf
35
9
Basel II: International Convergence of Capital Measurement and Capital Standards: a
Revised Framework – page 146; footnote 104 - http://www.bis.org/publ/bcbs128.pdf
10 Circular 3640/13 - Estabelece os procedimentos para o cálculo da parcela dos ativos ponderados pelo risco (RWA), relativa ao cálculo do capital requerido para o
risco operacional mediante abordagem padronizada (RWAOPAD) - http://www.
bcb.gov.br/pre/normativos/busca/downloadNormativo.asp?arquivo=/Lists/Normativos/Attachments/48997/Circ_3640_v4_P.pdf
11 Circular 3647/13 – Estabelece requisitos mínimos para abordagem avançada de
risco operacional http://www.bcb.gov.br/pre/normativos/busca/downloadNormativo.asp?arquivo=/Lists/Normativos/Attachments/48990/Circ_3647_v2_P.pdf
12 Basel III: A Global Regulatory Framework for more resilient Banks and Banking systems - http://www.bis.org/publ/bcbs189.pdf
13 Wall Street Reform and Consumer Protection Act - http://www.cftc.gov/idc/groups/
public/@swaps/documents/file/hr4173_enrolledbill.pdf
Autores
14 Operational Risk – Revisions to the simpler approach - http://www.bis.org/publ/
bcbs291.pdf
Marcelo Petroni Caldas
Graduado em Administração de Empresas e em Contabilidade pela Universidade Presbiteriana
Mackenzie, pós-graduado em Administração Contábil Financeira pela Faap, MBA em Gestão Financeira e Riscos pela Fipecafi –USP e mestrando em International Business pela ESPM.
E-mail: [email protected]
Oswaldo Pelaes Filho
Graduado em Engenharia Civil pela FESP (Faculdade de Engenharia São Paulo) e em Administração de Empresas pela Universidade Presbiteriana Mackenzie, pósgraduado em Gestão Contábil e
Financeira pela FAAP, mestre em Administração pela PUC/SP e doutorando em Gestão Internacional pela ESPM. E-mail: [email protected]
Frederico Turolla
Graduado em Economia pela Universidade Federal de Juiz de Fora, mestre em Economia pela Brandeis International Business School e doutor em Economia pela Fundação Getúlio Vargas (FGV).
E-mail: [email protected]
Referências
36
ACHARYA, V. A Theory of Systemic Risk and Design of Prudential Bank. Journal of Financial
Stability. Vol. 5, No. 3, (Sep 2009), pp. 224–255.
ALLEN, F.; CARLETI, E.; GU, X. The role of baking in financial systems. In BERGER, Al.L.;
MOLYNEUX, P. WILSON, J.O.S. (eds) The Oxford of Banking. Second edition. Oxford: Oxford
University Press, p.27-46, 2015.
AHARONY, J; SWARY I. Contagion effects of Bank Failures: Evidence from Capital Markets. The
Jounal of Business. Vol. 56, No. 3(Jul., 1983), pp. 305-322.
BANCO CENTRAL DO BRASIL - 50 maiores bancos e o consolidado do Sistema Financeiro
Nacional.http://www4.bcb.gov.br/fis/TOP50/port/Top50P.asp
BANK FOR INTERNATIONAL SETTLEMENTS. Basel Committee on Banking Supervision.
International Convergence of Capital Measurement and Capital Standards: a Revised Framework.
Suíça, 2005.
BANK FOR INTERNATIONAL SETTLEMENTS. Sound Practices for the Management and
Supervision of Operational Risk. Basiléia, 2003.
BLUNDELL-WINGNALL, ATKINSON , Adrian and Paul (2012), “Deleveraging, Traditional versus
Capital Markets Banking and the Urgent Need to Separate and Recapitalise G-SIFI Banks”,
OECD Journal: Financial Market Trends, Vol. 2012/1.
FINANCIAL STABILITY BOARD. http://www.financialstabilityboard.org/publications/r_091107c.pdf
FURFINE, C. Interbank Exposures: Quantifying the Risk of Contagion. Journal of Money, Credit
and Banking. Vol. 35, No. 1 (Feb. 2003), pp. 111-128.
GENNAIOLI, N., SHLEIFER S.; VISHNY V. A Model of Shadow Banking. The Journal of Finance.
July 2013. Global systemically important banks updated assessment methodology and the higher
loss absorbency requirement. http://www.bis.org/publ/bcbs255.pdf
LASTRA, R. M. Systemic risk, SIFIs and financial stability. Capital Markets: Law Journal. (2011)
STERN, G. H.; FELDMAN, R. J. Too big to Fail: The hazards of banks bailouts (2004).
Thematic Review on Supervisory Frameworks and Approaches for SIBs. http://www.
financialstabilityboard.org/wp-content/uploads/Thematic-Review-on-Supervisory-Approachesto-SIBs.pdf
Revista
Tecnologia de Crédito Online
Acesse informação de ponta,
onde você estiver.
Sua revista Tecnologia de Crédito é publicada
exclusivamente na web.
É mais um passo da Serasa Experian para a redução
do impacto de suas atividades sobre o meio ambiente,
além de um alinhamento à tendência global da
universalização de conteúdos.
Acesse e mantenha-se bem informado sobre
o mercado de crédito.
serasaexperian.com.br/revista-tecnologia-de-credito
Proteja
A Serasa Experian oferece soluções sob medida para o seu
negócio. São produtos e serviços exclusivos, que vão desde
consultas de crédito até ferramentas e softwares para gerir melhor
sua empresa. Tudo muito prático, rápido e rentável. E o melhor:
cabe no seu orçamento. Entre em contato e prepare-se para se
destacar da concorrência.
Para saber mais, acesse
serasaexperian.com.br
ou ligue para 3004 7728
SoluçõeS eSPeCífiCaS Para
Cada etaPa do Seu negóCio


Busque novos clientes


Venda com segurança
Monitore empresas,
clientes e sócios
Cobre devedores
Compre só os dados de que precisa

Documentos relacionados