Leseprobe - Finanz Colloquium Heidelberg

Transcrição

Leseprobe - Finanz Colloquium Heidelberg
KÜHN
A. Einführung ins Thema und Grundlagen
I.
Bedeutung von Risikomessverfahren
1.
Geschichte/Rückblick
Die Entwicklung des Risikomanagements der Banken in den 80er Jahren bis
Hinein in die 90er-Jahre wurde getrieben durch die zunehmende Verfügbarkeit und Vernetzung von IT-Systemen. Hierdurch wurde es möglich, dass
Geschäfts-, Markt- und Positionsdaten der Auswertung, zunächst noch auf
Großrechner, zugänglich gemacht wurden. Die stärkere Leistung und
Speicherkapazität der Rechner erlaubten Auswertungen je Einzelkonto, wie
Darlehen, Spareinlagen oder Handelsgeschäfte für Controlling- und TreasuryZwecke.
1
Die bis dahin vorrangigen Abwicklungs- und Bilanzierungsanwendungen
konnten um detailliertere Steuerungsinformationen, wie Zahlungsströme,
Sensitivitäten, und einfachen Szenarien, ergänzt werden. Da war zunächst
noch die Vorkalkulation der Bankprodukte betroffen, die damals auf Großrechnerprogrammen umgesetzt worden war und sukzessive auf die lokalen
Netzwerke und die Einzelplatzrechner wie Unix-Netzwerke, PC, ATARI oder
Apple mit den ersten Tabellenkalkulationsprogrammen migriert werden
konnte. Parallel entwickelten sich in diesen Jahren auch das Verständnis für
das Bank-Controlling und die Einbindung von finanzmathematischen Anwendungen, wie z. B. der Optionspreiskalkulationen, Benchmark-Berechnungen
wie der Gleitenden Durchschnitte für verschieden Produkte.
2
Die Theorien zur Asset Allokation von Markowitz und die Optionspreistheorien von Black und Scholes standen neben statistischen Auswertungen, wie der
Volatilität und Mittelwerte, zur Verfügung. Auf diesen Grundlagen und mit
den ersten Verrechnungspreis- und Prognose-Modellen für Bewertungsergebnisse von Kreditportfolien sowie Marktentwicklungen von Depot
A-Positionen konnten dezidierte GuV-Prognosen bzgl. Zinsertrag-, Provisions-, Kosten- und Abschreibungsprognosen durchgeführt werden. Die zugehörigen prognosti-zierten Volumenentwicklungen der Kundenprodukte
zeigten die Bilanzentwicklungen frühzeitig auf. Mit diesen Instrumenten entstand die Erwartung diese Entwicklungen auch direkt mit Soll/Ist-Vergleichen
zu steuern. Dabei wurden die Ursachen von Abweichungen und Maßnahmen
möglichst genau auf die einzelnen Positionen zurückgeführt. Aufgrund der
3
3
EINFÜHRUNG
noch eingeschränkten Rechnerleistung und Datenverfügbarkeit der Kundenund Handelsgeschäftsdaten konnten die ersten vollumfänglichen CashflowAbbildungen nur langsam ausgebaut werden. Aber schon die teilweise vorliegenden Aggregationen zur Bilanzierung konnten für Zinsbindungsanalysen
und Zinsertragshochrechnungen für statische und später auch dynamische
Szenarien genutzt werden. Meist lagen hierdurch bereits mehrere Szenarien
vor.
4
So flossen in die dynamischen Zinsertragsszenarien die prognostizierten
Kundenvolumina und Marktzinsentwicklungen ein. Die Abhängigkeiten
zwischen Kapitalmarkt- und Kundenmarktentwicklungen wurden bereits über
Elastizitäten (Korrelationen zwischen Markt- und Kundenzins) oder Benchmark-Abbildungen (Gleitende Zinsdurchschnitte), welche die Zinsertragsprognosen aber auch Cashflow und Risikoszenarien zuließen, unternommen.
Intuitiv wurden hieraus für verschiedenen Zwecke, wie Planung, Prognosen
und Steuerung in der Treasury, verschiedene Szenarien, u. a. Normal-, Best-,
Lower und Worstcase begrifflich fest eingeordnet. Anfang der 90er waren die
Risikokennzahlen auf diese Szenarien und die bereits abbildbaren Volatilitätsbegriffe festgelegt.
5
Die Erweiterungen um Wahrscheinlichkeitsmaße und Zuordnung von Konfidenzniveaus auf einem Stützzeitraum mit einer Halterdauer führten zu den
Kennzahlen Value at Risk, Earning at Risk oder Money at Risk. Betriebswirtschaftlich wurden diese Risikowerte zeitnah direkt bei der GesamtbankVermögens- bzw. Ertragsentwicklung berücksichtigt und erste Gesamtbanklimite abgeleitet. Aufsichtsrechtlich wurde bereits seit den 80er-Jahren die
Mindestkapitalvorgabe von 8% gesetzt (Basel I). Dieser Wert war ebenfalls
aus einem Risikoszenario abgeleitet worden und sollte Banken auch in schwierigen Situationen ausreichend Kapital zur Verfügung stellen. Insgesamt entwickelten sich Anfang der 90er die Grundlagen der IT-Technik, Betriebswirtschaft, Mathematik und dem Aufsichtsrecht parallel hin zum heutigen Verständnis des Risikomanagements. Zudem nahm die Leistungsfähigkeit der
elektronischen Handels- und Börsensysteme, aber auch der Umfang der (derivativen, strukturierten) Handelsgeschäfte dramatisch zu.
6
Nach den (daher) folgenden Banken-, Währungs- und aufkommenden Staatskrisen veröffentlichte die deutsche Aufsicht 1995 die erste Fassung der
Mindestanforderungen an das Handelsgeschäft (MaH). In diesem Vorläufer
der heutigen MaRisk wurde die Trennung von Steuerung, Überwachung, Abwicklung und Rechnungswesen zunächst nur für Handelsgeschäfte gefordert.
4
KÜHN
Damit waren der grundsätzliche Organisations- und Verhaltenscodex im
Risikomanagement in Deutschland gesetzt. Instrumentell wurden nunmehr
die Handelssysteme und bald auch die Kredit- und allgemeinen Banksysteme
auf diese Funktionstrennungen und die Berechnung der Risikokennzahlen
ausgelegt.
Als Wettbewerbsvorteil konnte nutzen, wer in der Lage war die Risikosituation
des eigenen Instituts möglichst umfassend darzustellen, um Absicherungsgeschäfte und Risikopositionen bewusst eingehen oder schließen zu können.
Dies betraf zunächst das Zinsbuch aus Depot A und Kundenbank, ebenso wie
das Kreditrisikoprofil dieser Positionen und auch die Liquiditätssituation.
7
Die Betroffenheit bei den Banken und Sparkassen war zu dieser Zeit schon sehr
unterschiedlich. Handelsnahe Häuser hatten eine wesentlich höhere kapitalmarktnahe Geschäftstätigkeit verbunden mit den Kursschwankungen als
beispielsweise Institute mit Fokus im originären privaten und gewerblichen
Kundengeschäft. Die Anforderungen an den Umfang des Risikomanagements
und die jeweiligen quantitativen aufsichtsrechtlichen Vorgaben wurden beständig hinterfragt und kamen mit jeder Schräglage von altehrwürdigen Bankhäusern
oder Investmentfonds oder auch Staaten, wie Russland-, Argentinien- oder
Asien-Krise, wieder in den öffentliche politischen Fokus.
8
Dies führte in der Regel zu Verschärfung der aufsichtsrechtlichen (Mindest-)
Anforderungen. Parallel reagierten die Vertreter der Bankeninstitute und
-Verbände, und suchten die eigenen Praktiken zur Risikosteuerung zu forcieren und vorauseilend in ein gutes öffentliches Licht zu stellen. Im Zuge
hiervon konkretisierten die Banken und die Aufsicht die installierten bankinternen Prozesse mit den gekoppelten Risikoquantifizierungen und die Steuerungsimpulse darzulegen und zu standardisieren. Dabei spiegelten die im Einsatz befindlichen Modelle der Institute deren unterschiedlichen Geschäftsmodelle, Risikoorientierungen sowie Absicherungsinstrumente mit derivativen
Produkten auf.
9
Die Aufsicht kam infolge dessen auch zu der Überzeugung, dass konkrete
Vorgaben die organisatorischen Mindestanforderungen betreffend nicht ausreichen würden. Bald zog die Aufsicht instrumentell nach, zunächst wurde ab
der Solva-Meldung (Grundsatz I Handelsbuch, 6. KWG Novelle 1998) in
1999 das besondere Kurs- und Marktrisiko mit »Internen Value at Risk«Modellen von den Instituten berechnet werden durfte. Voraussetzung war die
Umsetzung der konkreten und detaillierten Prozess- und Methodenvorgaben
der Aufsicht und die erfolgreiche Abnahmeprüfung durch die Aufsicht. Dies
10
5
EINFÜHRUNG
führte damit zum beidseitige »Aufrüsten« der Institute und der Aufsicht um
die eingesetzten Risikomessverfahren weiterzuentwickeln aber auch um die
Güte dieser Verfahren sicher zustellen.
11
Seither haben sich in einigen Risikoarten Standards für Risikomessverfahren
entwickelt, die entweder von der Aufsicht oder den Instituten bzw. den Softwareherstellern eingesetzt werden, herausgebildet. Die Anforderungen an
diese Verfahren umfassen neben der Risikoberechnung mit verschiedenen
Kennzahlen, die Limitierungsverwaltung als auch die Prozessunterstützung,
wie Berichtswesen, Kommentierung, Maßnahmenverwaltung, Simulationssicht und Szenario-Berechnungen. Die Institute stellen den Einsatz ihrer professionellen Instrumente und Verfahren heraus, um ihre aufsichtsrechtliche
Systemkonformität, die Wettbewerbsfähigkeit in der Risikoübernahme, im
Eigenhandel oder im Investmentbanking darzulegen. Das Geschäft mit dem
Risiko erfordert, das Risiko genau quantifizieren zu können. Nur mit einem
tiefen Verständnis der Produkte und impliziten Risiken als auch mit effektiven
Frühwarnprozessen können die Gewinne gesichert und größere Verluste
verhindert werden. Im Vergleich zu früher wird heute von der Aufsicht ein
umfangreiches Risikomanagement (MaRisk, SolvV, Basel III, usw.) gefordert
und regelmäßig geprüft. Mehr denn je geraten dabei alle Risikorelevanten
Aspekte Quantifizierung, Kapital, Organisation, Verantwortlichkeit und Anreiz und Vergütung in den Fokus der Aussicht und fordern von den Instituten
ein nachhaltiges aber auch abgestimmtes und angemessenes Vorgehen bei der
Überwachung und Steuerung über Risikomessverfahren.
2.
12
Aktuelle Entwicklung der Anforderungen an Risikomessverfahren
Mit der aktuell verlautbarten MaRisk-Novelle vom Dez. 2012 bestätigt die
Aufsicht die bisher ausgestalten Schwerpunkte und fordert das Risikomanagement stärker denn je als Kernkompetenz der Banken ein. Der klassische Risikomanagementablauf, d. h. erkennen, messen, steuern und überwachen, wird eingebettet in die organisatorischen und ablaufspezifischen
Vorgaben. Die Banken sind gefordert dem Kernelement in der MaRisk, der
Feststellung der Risikotragfähigkeit größte Bedeutung zu zumessen. Dies
wurde erweitert um den Einbezug der Geschäftsstrategien, den Planungsprozess und die explizite Ausgestaltung der Funktionen Compliance und Risikocontrolling. Wobei die Funktion des Risikocontrollings in allen deutschen
Instituten bereits seit den Tagen der MaH und MaK (Mindestanforderung an
das Handels- bzw. Kreditgeschäft) installiert sein sollte. Dem hingegen die
6
KÜHN
Compliance-Funktion (bis 2012) im Wesentlichen auf das Wertpapiergeschäft
beschränkt war. Diese beiden zwingend organisatorisch zu verankernden
Funktionen übernehmen die betriebswirtschaftlichen Überwachung, die Kontrolle von gesetzlichen Anforderungen und wichtige Beratungsfunktionen für
die Geschäftsleitungen. Mit der 4. MaRisk-Novelle hebt die Aufsicht dies
noch schärfer hervor und einhergehend werden auch die Anforderungen an
die quantitativen Instrumente konkretisiert. So kann unter anderem der Einbezug von Risikokonzentrationen bzw. Risikodiversifikationen, die regelmäßigen Validierungen, Risikoinventuren und die ganzheitlichen Stressverfahren
angeführt werden. Grundlegend für die Anwendung der Risikomessverfahren
sind die betriebswirtschaftlichen Rahmenbedingungen, u. a. das institutsspezifisches Geschäftsmodell mit dem jeweiligen Kapitalmarktzugang und den
zugelassenen bzw. angebotenen Produkten, wie z. B. strukturierten Produkten
oder Derivaten. Die Aufsicht unterstützt die Institute, indem ausdrücklich der
Fokus auf die Abdeckung nur der wesentlichen Risiken gelegt wird (MaRisk
AT 4.1). Diese Öffnungsklausel hat zwei Seiten, zum einen wird nicht stoisch
die Einrichtung eines Überwachungsprozesses mit festgelegten Instrumenten
gefordert. Zum anderen muss das Institut die Wesentlichkeit bestimmen und
gut begründet, danach den Überwachungsprozess aufbauen.
Die Adaption von Modellen aus der statistischen Mathematik als auch der
Finanzmathematik erweitert das Spektrum der angewandten Risikomessverfahren ständig. Die zunehmende Komplexität der Modelle, die zwischen
den im Wettbewerb zueinander stehenden Instituten als auch von der Aufsicht angewandt werden, erschweren die Transparenz der Risikosituation eines
Instituts und der Einschätzung durch die Aufsicht. Die Aufsicht hat, nachdem
in den aufsichtsrechtlichen Meldeverfahren umfangreiche quantitative und
prozessuale Verfahren zum Einsatz kommen, bereits mit Beginn den Fokus,
wie folgt, ausgerichtet:
13
»Die Ergänzung traditioneller Steuerungsmethoden durch Risikomodelle ist
bankaufsichtsrechtlich zu begrüßen. Der mit ihnen mögliche Erkenntniszuwachs darf jedoch nicht überschätzt werden. Zwar liefern die komplexen
mathematisch-statistischen Verfahren dieser Modelle eine bessere methodische Grundlage für das Verständnis und die Abschätzung von Risiken,
Modelle sind jedoch zuallererst Abstraktionen von der Wirklichkeit. Ihre Ergebnisse sind daher immer unter diesem Blickwinkel zu betrachten und dürfen
nicht verabsolutiert, sondern müssen laufend kritisch hinterfragt werden.
Modelle erlauben es, die nicht einfach zu durchschauende Struktur der Risikofaktoren – zum Teil auch aus verschiedenen Prozessen und Risikoarten – ihre
14
7
EINFÜHRUNG
komplexen Zusammenhänge und ihr Ineinander wirken genauer zu analysieren. Sie liefern Informationen für die risikoorientierte Steuerung einer
Bank, machen aber die bewusste Entscheidung der Verantwortlichen nicht
überflüssig. Ein Modell ist keine Kristallkugel, die eine Asien- oder Rußlandkrise vorhersagen kann, es kann aber gute Dienste leisten, die Wirkung solcher
Ereignisse auf die Risikotragfähigkeit einer Bank abzuschätzen. Insofern leisten Modelle – trotz der ihnen immanenten Beschränkungen – wertvolle Beiträge zur Förderung von Risikobewusstsein und dem Entstehen einer ausgeprägten Risikokultur.«1.
15
Das Fazit hieraus könnte sein, dass die Anwendung von mathematisch statistischen Risikomodellen nur bei intensiver Verwendung des »gesunden
Menschenverstandes« empfohlen wird. Da in der Bankpraxis meist zudem
heuristische und empirische Verfahren angewandt werden. Z. B. sobald die
wissenschaftlich notwendigen Rahmenbedingungen nicht gänzlich vorliegen,
sei auch an die leichtere Kritik eines anderen profunden Kenners der mathematischen Materie erinnert: »Insofern sich die Sätze der Mathematik auf die
Wirklichkeit beziehen, sind sie nicht sicher, und insofern sie sicher sind, beziehen sie sich nicht auf die Wirklichkeit.« 2.
16
Dieser Sachverhalt wurde in der Zwischenzeit explizit in die aufsichtsrechtlichen Verlautbarungen aufgenommen und konkretisiert. Aktuell liest sich
dieser Sachverhalt in der Erläuterung zur MaRisk AT 4.1 (8) vom 14.12.2012 in
der »Kritische Analyse der Risikoquantifizierungsverfahren«: »Da jegliche
Methoden und Verfahren zur Risikoquantifizierung die Realität nicht vollständig abzubilden vermögen, ist dem Umstand, dass die Risiko vollständig abzubilden vermögen, ist dem Umstand, dass die Risikowerte Ungenauigkeiten
– sowohl auf Ebene der Einzelrisiken als auch auf aggregierter Ebene – aufweisen oder das Risiko unterschätzen könnten, bei der Beurteilung der Risikotragfähigkeit hinreichend Rechnung zu tragen. Sind bei vergleichsweise einfachen und transparenten Verfahren die damit ermittelten Risikowerte im Hinblick auf die Grenzen und Beschränkungen der Verfahren erkennbar hinreichend konservativ, kann auf eine weitergehende Analyse verzichtet werden.
Sind die Methoden und Verfahren, die ihnen zugrunde liegenden Annahmen,
Parameter oder die einfließenden Daten vergleichsweise komplex, so ist eine
entsprechende quantitative und qualitative Validierung dieser Komponenten
sowie der Risikoergebnisse in Bezug auf ihre Verwendung erforderlich.«
1
2
8
Deutsche Bundesbank Monatsbericht Oktober 1998 (S. 77 zu Risikomodellen).
Albert Einstein, 1921.
KÜHN
Damit wird hinsichtlich der Qualitätsanforderungen an die eingesetzten quantitativen Verfahren zum Ausdruck gebracht, dass die Aufsicht keine pauschalen Aufschläge für unscharfe Methoden oder gar für »Modellrisiken« gut
heißen möchte! Also muss die (Prüfungs-)Praxis herausfinden, wie sinnvollerweise die »hinreichend konservative« Ermittlung der Risikowerte, der Umgang mit negativen Validierungsergebnissen und dem Nachweis von Modellrisiken, auszulegen sind.
3.
17
Risikomessverfahren in der Risikotragfähigkeit
Der interne Prozess der Sicherstellung der Risikotragfähigkeit ist neben den
Regelberichten zur Risikosteuerung und Überwachung (meist täglich bzw.
monatlich) die hauptsächliche und für die Modell- und Parameterwahl sogar
die bestimmende Mindestanforderung der MaRisk3. Die Risikotragfähigkeitsbetrachtung besteht in der Gegenüberstellung der gesamten wesentlichen
Risiken, dem sogenannten Risikopotential, und dem zur Verfügung stehenden
und einsetzbaren Vermögen, den sogenannten Risikodeckungspotential.
Damit bestimmt die Risikotragfähigkeit weitgehend die Ausgestaltung der
Risikomessverfahren und ist mit der strategischen Ausrichtung verknüpft.
18
Zudem wird die Risikotragfähigkeit aus verschiedenen Steuerungskreisen
bestehen, die zusammen mit den angewandten Risikomessverfahren in einander übergeleitet werden können oder besser noch konsistent sein müssen.
Das kann zum einen ein wertorientierte Steuerungskreis (von Barwerten) mit
Liquidationsperspektive, d. h. Vollbewertung z. B. zum Veräußerungspreis mit
Vermögensbewahrung, sein. Zum anderen, meist parallel und auf die Bilanzierung ausgerichtet, wird ein Steuerungskreis in der Fortführungsperspektive,
z. B. mit Fokus auf dem laufenden Geschäftsjahr, welcher auch bei schlagenden Risiken die uneingeschränkte Geschäftsfortführung gewährleisten soll,
eingerichtet.
19
3
Finanz Colloquium Heidelberg [2011] »Management von Risikokonzentrationen«, Kühn/Stegner.
9
EINFÜHRUNG
20
Für diese verschiedenen Steuerungskreise in der Risikotragfähigkeit erheben
sich zunächst die Grundfragen nach dem Einbezug der einzelnen Risikoarten,
der Risikomodelle und anschließend der Parameterwahl:
Ergebniskomponente
Risikoverfahren in der periodischen
Perspektive (Beispielhaft)
Nettofinanzergebnis
Provisionsergebnis,
Verwaltungsaufwand,
Sonstige Risiken
Beteiligungen
OpRisk
Negative Abweichung des GuV-Ergebnisausweises bei Eintritt des niedrigeren zu betrachtenden Falls gegenüber dem Normalfall.
Regelmäßige Überprüfung, gemäß dem SolvVIRBA (PD/LGD)-Ansatz bzw. SolvV-AMA
jeweils skaliert auf 95% Konfidenzniveau und
das Restjahr.
Bewertungsergebnis
Kredit
Negative Abweichung des GuV-Ergebnisausweises bei Eintritt des niedrigeren zu betrachtenden Falls gegenüber dem Normalfall.
Planungswerte auf Basis des Kreditportfoliomodells für das »lebende Portfolio«; Expertenschätzung für Sanierung-, Abwicklung.
Bewertungsergebnis
WP
Adressenrisiko Wertpapiere: Im Anlagebestand/Liquiditätsbestand Verwendung der
SolvV-Methodik;
Credit-Spread- und Marktpreisrisiko: Integrierte Aufnahme Creditspread-Risiken (inkl.
Korrelationen) unter Berücksichtigung stiller
Reserven/Lasten
10
KÜHN
Dem gegenüber stehen dann die hierzu konsistenten Risikomessverfahren im
wertorientierten Steuerungskreis. Die Konsistenz ergibt sich entweder durch
die adaptierte Methode, angepasste Parameter oder entsprechend zusammengesetzte Komponenten:
Risikoarten
Ökonomische (wertorientierte) Risikomessverfahren
Adressen-
Gleichzeitige Messung von Kredit- und Länderrisiken
(ohne Transferrisiken), Portfoliomodell gemäß SolvVIRBA-Ansatz4
Ausfallrisiken
Ökonomisches Kreditportfoliomodell: Risikokonzentration
BeteiligungsRisiken
Marktpreis- und
Spreadrisiken
Messung der Beteiligungsrisiken SolvV-PD/LGDAnsatz
VaR-Methodik, 10 Tage, 99% Konfidenz, 1 Jahr
Stützraum
RDP-Anrechnung Verlustlimite, selbstverzehrender
RL
Spreadrisiken: historische Kurssimulation mit
Kreditduration
Operationelle
Basel II- Standardansatzansatz5
Risiken
VaR-Quantifizierung (AMA-Modell)
Sonstige Risiken
Vertriebs- und Absatzrisiken
Implizite Optionen
Liquiditäts-
strukturellen Liquiditätsrisiken, zugesagte Linien
Risiken
Unterjähriges Liquiditätsrisiko
Gesamtbankrisiko Addition der Teilrisiken zum Gesamtbankrisiko
keine Korrelation oder Diversifikationsmodelle
4
5
BaFin [2006] SolvV.
Basel [2005] Basel II IRB Risk Weight Functions.
11
21
EINFÜHRUNG
22
Über den Einbezug der wesentlichen Risiken ist es sinnvoll sich auch mit
nicht einzubeziehenden Risiken, z. B. im Rahmen der regelmäßigen Risikoinventur, zu beschäftigen. Immerhin kann sich die äußere Situation verändern
und neue Risikoarten können bedeutender werden. Auch können sich durch
Weiterentwicklung der Risikomessverfahren neue sinnvolle Steuerungsansätze
erschließen, z. B. für Rechtsrisiken oder kriminelle Handlungen im OnlineBanking. Wichtig ist dabei das Risikoprofils des jeweiligen Instituts. Schon in
der MaRisk werden weitere Beispiele wie Reputations-, Geschäfts- oder strategische Risiken angeführt. Teilweise können solche Risiken auch zusammen
mit den Vertriebs- und Absatzrisiken durch Erweiterung der bereits zur Verfügung stehenden Methoden messbar und (vorbeugend durch Maßnahmen)
steuerbar gemacht werden. Bei nicht mehr quantifizierbaren Komponenten
bleibt die Möglichkeit Risikowerte aus Expertenschätzungen einzubeziehen.
Diese sind dann auch regelmäßig zu plausibilisieren.
4.
23
Risikotoleranz
Über die Limitierung von Risiken in der Risikotragfähigkeit hinaus, kann die
Geschäftsleitung ihre Risikoneigung auch über Prozess und andere Festlegungen zum Ausdruck bringen. Von der Aufsicht6 wurde der Begriff der Risikotoleranzen geprägt. Diese Festlegung von Risikotoleranzen ist eine geschäftspolitische Entscheidung.7 Die Risikotoleranz bzw. die Risikoneigung richtet
sich entscheidend nach der Kapital- und Liquiditätsausstattung und der organisatorisch, prozessualen Ausrichtung als auch der strategischen Ausstattung
des Instituts. Für die damit eher langfristig ausgerichteten Risikotoleranzen
können entweder rein quantitativen Vorgaben (z. B. Detailliertheit der Risikomessung, Aktive Steuerung oder konservative Risikomessung, Sicherheitsabschläge bei Werten oder Risikopuffer für bestimmte Stressszenarien) festgelegt werden. Oder die Risikotoleranzen können in Form von qualitativen
Vorgaben, wie Art der Sicherheiten (nur dingliche), qualitative Einschränkungen an die Ausstattung von Geschäften (Keine Währung, Branchenbeschränkung, derivativen Geschäftseinsatz (keine strukturierten Produkte) erfolgen.
Über die qualitativen Vorgaben können zudem die Risikopositionen so gesteuert werden, dass die vorhandenen Risikomessverfahren uneingeschränkt
eingesetzt werden können. So kann beispielsweise durch Ausschluss von
Optionskomponenten die Vollbewertung von Positionen sichergestellt
werden.
6
7
12
BaFin [2012], MaRisk AT 4.2 (2,3).
Finanz Colloquium Heidelberg [2011] »Management von Risikokonzentrationen«, Kühn/Stegner.
KÜHN
II. Begriffsbestimmungen und Prozesse
1.
Begriffsbestimmungen zu konformen Risikomessverfahren
Die mathematischen Verfahren zur Risikoquantifizierung unterliegen aufgrund
von Modellannahmen und begrenzter Abbildung der Realität Einschränkungen
in der Prognose- und Ergebnisqualität. Zudem findet bei wissenschaftlichen
Prozessen eine Verdichtung unter Informationsverlust statt. Hinzukommt, dass
geschuldet der Komplexität von Portfolien und Märkten, die Geeignetheit der
Risikoquantifizierung und der Kennzahlen regelmäßig zu analysieren und zu
prüfen sind. Die Verwendung der Risikowerte wird daher immer im Rahmen
von umfangreichen Kommentierungen durchgeführt.
24
Hierbei soll der Analyst Transparenz schaffen, welche die Güte und Treffgenauigkeit seiner Risiko- und Prognosewerte für die Risikosteuerer zuverlässig
zu erkennen gibt. Der Risikosteuerer muss erkennen können, ob sich bei den
Risikowerten systematische Abweichungen vorliegen. Z. B. kann es sich um
konservative Risikowerte handeln, die den Risikowert durchgängig überhöht
darstellen, oder um sehr genaue Risikowerte. Die Güte der Ergebnisse wird in
diesem Fall stark von der aktuellen Lage am Kapitalmarkt und der PortfolioZusammenstellung abhängen. Die konservativen Werte stellen den Sicherheitsgedanken (z. B. Gläubigerschutz) aus der Risikotragfähigkeit in den Vordergrund. Dagegen lassen nur die genaueren Werte eine aktive Steuerung zu
und vermeiden eine Übersteuerung durch Absicherungsmaßnahmen.
25
Der hierbei meist verwandte Risikobegriff Value at Risk gibt für eine maximale Verlusthöhe in Euro die Eintrittswahrscheinlichkeit innerhalb eines
Eintrittszeitraums (Haltedauer) an. Dieser Risikowert ist in einem Ereignis so
nicht beobachtbar, sondern nur statistisch nachweisbar. Grundsätzlich handelt
es sich bei den Risikomessverfahren um mathematische statistische Verfahren
zur Risikoquantifizierungsverfahren, die neben dem Value at Risk, beispielsweise für Marktpreisrisiken bei wahrscheinlichkeitsverteilten Risikofaktoren,
wie Kurswerten oder Zinsstützstellen, nach den Modellen der historischen
Simulationen, parametrischen oder Szenario-Verfahren arbeiten. Mit guter
Kenntnis der Situation und der Marktentwicklung sowie der Risikoverfahren
können die erwarteten Risikowerte bzw. deren Veränderung auch mit sogenannten Expertenschätzungen prognostiziert werden.
26
Dies beruht darauf, dass Risikowerte und deren Veränderung auf Risikotreiberen und Wahrscheinlichkeitsparametern aufbauen, die grundsätzlich über
verschiedenen Informationsquellen (Reuters, Bloomberg) beobachtbar sind,
27
13