Leseprobe - Finanz Colloquium Heidelberg
Transcrição
Leseprobe - Finanz Colloquium Heidelberg
KÜHN A. Einführung ins Thema und Grundlagen I. Bedeutung von Risikomessverfahren 1. Geschichte/Rückblick Die Entwicklung des Risikomanagements der Banken in den 80er Jahren bis Hinein in die 90er-Jahre wurde getrieben durch die zunehmende Verfügbarkeit und Vernetzung von IT-Systemen. Hierdurch wurde es möglich, dass Geschäfts-, Markt- und Positionsdaten der Auswertung, zunächst noch auf Großrechner, zugänglich gemacht wurden. Die stärkere Leistung und Speicherkapazität der Rechner erlaubten Auswertungen je Einzelkonto, wie Darlehen, Spareinlagen oder Handelsgeschäfte für Controlling- und TreasuryZwecke. 1 Die bis dahin vorrangigen Abwicklungs- und Bilanzierungsanwendungen konnten um detailliertere Steuerungsinformationen, wie Zahlungsströme, Sensitivitäten, und einfachen Szenarien, ergänzt werden. Da war zunächst noch die Vorkalkulation der Bankprodukte betroffen, die damals auf Großrechnerprogrammen umgesetzt worden war und sukzessive auf die lokalen Netzwerke und die Einzelplatzrechner wie Unix-Netzwerke, PC, ATARI oder Apple mit den ersten Tabellenkalkulationsprogrammen migriert werden konnte. Parallel entwickelten sich in diesen Jahren auch das Verständnis für das Bank-Controlling und die Einbindung von finanzmathematischen Anwendungen, wie z. B. der Optionspreiskalkulationen, Benchmark-Berechnungen wie der Gleitenden Durchschnitte für verschieden Produkte. 2 Die Theorien zur Asset Allokation von Markowitz und die Optionspreistheorien von Black und Scholes standen neben statistischen Auswertungen, wie der Volatilität und Mittelwerte, zur Verfügung. Auf diesen Grundlagen und mit den ersten Verrechnungspreis- und Prognose-Modellen für Bewertungsergebnisse von Kreditportfolien sowie Marktentwicklungen von Depot A-Positionen konnten dezidierte GuV-Prognosen bzgl. Zinsertrag-, Provisions-, Kosten- und Abschreibungsprognosen durchgeführt werden. Die zugehörigen prognosti-zierten Volumenentwicklungen der Kundenprodukte zeigten die Bilanzentwicklungen frühzeitig auf. Mit diesen Instrumenten entstand die Erwartung diese Entwicklungen auch direkt mit Soll/Ist-Vergleichen zu steuern. Dabei wurden die Ursachen von Abweichungen und Maßnahmen möglichst genau auf die einzelnen Positionen zurückgeführt. Aufgrund der 3 3 EINFÜHRUNG noch eingeschränkten Rechnerleistung und Datenverfügbarkeit der Kundenund Handelsgeschäftsdaten konnten die ersten vollumfänglichen CashflowAbbildungen nur langsam ausgebaut werden. Aber schon die teilweise vorliegenden Aggregationen zur Bilanzierung konnten für Zinsbindungsanalysen und Zinsertragshochrechnungen für statische und später auch dynamische Szenarien genutzt werden. Meist lagen hierdurch bereits mehrere Szenarien vor. 4 So flossen in die dynamischen Zinsertragsszenarien die prognostizierten Kundenvolumina und Marktzinsentwicklungen ein. Die Abhängigkeiten zwischen Kapitalmarkt- und Kundenmarktentwicklungen wurden bereits über Elastizitäten (Korrelationen zwischen Markt- und Kundenzins) oder Benchmark-Abbildungen (Gleitende Zinsdurchschnitte), welche die Zinsertragsprognosen aber auch Cashflow und Risikoszenarien zuließen, unternommen. Intuitiv wurden hieraus für verschiedenen Zwecke, wie Planung, Prognosen und Steuerung in der Treasury, verschiedene Szenarien, u. a. Normal-, Best-, Lower und Worstcase begrifflich fest eingeordnet. Anfang der 90er waren die Risikokennzahlen auf diese Szenarien und die bereits abbildbaren Volatilitätsbegriffe festgelegt. 5 Die Erweiterungen um Wahrscheinlichkeitsmaße und Zuordnung von Konfidenzniveaus auf einem Stützzeitraum mit einer Halterdauer führten zu den Kennzahlen Value at Risk, Earning at Risk oder Money at Risk. Betriebswirtschaftlich wurden diese Risikowerte zeitnah direkt bei der GesamtbankVermögens- bzw. Ertragsentwicklung berücksichtigt und erste Gesamtbanklimite abgeleitet. Aufsichtsrechtlich wurde bereits seit den 80er-Jahren die Mindestkapitalvorgabe von 8% gesetzt (Basel I). Dieser Wert war ebenfalls aus einem Risikoszenario abgeleitet worden und sollte Banken auch in schwierigen Situationen ausreichend Kapital zur Verfügung stellen. Insgesamt entwickelten sich Anfang der 90er die Grundlagen der IT-Technik, Betriebswirtschaft, Mathematik und dem Aufsichtsrecht parallel hin zum heutigen Verständnis des Risikomanagements. Zudem nahm die Leistungsfähigkeit der elektronischen Handels- und Börsensysteme, aber auch der Umfang der (derivativen, strukturierten) Handelsgeschäfte dramatisch zu. 6 Nach den (daher) folgenden Banken-, Währungs- und aufkommenden Staatskrisen veröffentlichte die deutsche Aufsicht 1995 die erste Fassung der Mindestanforderungen an das Handelsgeschäft (MaH). In diesem Vorläufer der heutigen MaRisk wurde die Trennung von Steuerung, Überwachung, Abwicklung und Rechnungswesen zunächst nur für Handelsgeschäfte gefordert. 4 KÜHN Damit waren der grundsätzliche Organisations- und Verhaltenscodex im Risikomanagement in Deutschland gesetzt. Instrumentell wurden nunmehr die Handelssysteme und bald auch die Kredit- und allgemeinen Banksysteme auf diese Funktionstrennungen und die Berechnung der Risikokennzahlen ausgelegt. Als Wettbewerbsvorteil konnte nutzen, wer in der Lage war die Risikosituation des eigenen Instituts möglichst umfassend darzustellen, um Absicherungsgeschäfte und Risikopositionen bewusst eingehen oder schließen zu können. Dies betraf zunächst das Zinsbuch aus Depot A und Kundenbank, ebenso wie das Kreditrisikoprofil dieser Positionen und auch die Liquiditätssituation. 7 Die Betroffenheit bei den Banken und Sparkassen war zu dieser Zeit schon sehr unterschiedlich. Handelsnahe Häuser hatten eine wesentlich höhere kapitalmarktnahe Geschäftstätigkeit verbunden mit den Kursschwankungen als beispielsweise Institute mit Fokus im originären privaten und gewerblichen Kundengeschäft. Die Anforderungen an den Umfang des Risikomanagements und die jeweiligen quantitativen aufsichtsrechtlichen Vorgaben wurden beständig hinterfragt und kamen mit jeder Schräglage von altehrwürdigen Bankhäusern oder Investmentfonds oder auch Staaten, wie Russland-, Argentinien- oder Asien-Krise, wieder in den öffentliche politischen Fokus. 8 Dies führte in der Regel zu Verschärfung der aufsichtsrechtlichen (Mindest-) Anforderungen. Parallel reagierten die Vertreter der Bankeninstitute und -Verbände, und suchten die eigenen Praktiken zur Risikosteuerung zu forcieren und vorauseilend in ein gutes öffentliches Licht zu stellen. Im Zuge hiervon konkretisierten die Banken und die Aufsicht die installierten bankinternen Prozesse mit den gekoppelten Risikoquantifizierungen und die Steuerungsimpulse darzulegen und zu standardisieren. Dabei spiegelten die im Einsatz befindlichen Modelle der Institute deren unterschiedlichen Geschäftsmodelle, Risikoorientierungen sowie Absicherungsinstrumente mit derivativen Produkten auf. 9 Die Aufsicht kam infolge dessen auch zu der Überzeugung, dass konkrete Vorgaben die organisatorischen Mindestanforderungen betreffend nicht ausreichen würden. Bald zog die Aufsicht instrumentell nach, zunächst wurde ab der Solva-Meldung (Grundsatz I Handelsbuch, 6. KWG Novelle 1998) in 1999 das besondere Kurs- und Marktrisiko mit »Internen Value at Risk«Modellen von den Instituten berechnet werden durfte. Voraussetzung war die Umsetzung der konkreten und detaillierten Prozess- und Methodenvorgaben der Aufsicht und die erfolgreiche Abnahmeprüfung durch die Aufsicht. Dies 10 5 EINFÜHRUNG führte damit zum beidseitige »Aufrüsten« der Institute und der Aufsicht um die eingesetzten Risikomessverfahren weiterzuentwickeln aber auch um die Güte dieser Verfahren sicher zustellen. 11 Seither haben sich in einigen Risikoarten Standards für Risikomessverfahren entwickelt, die entweder von der Aufsicht oder den Instituten bzw. den Softwareherstellern eingesetzt werden, herausgebildet. Die Anforderungen an diese Verfahren umfassen neben der Risikoberechnung mit verschiedenen Kennzahlen, die Limitierungsverwaltung als auch die Prozessunterstützung, wie Berichtswesen, Kommentierung, Maßnahmenverwaltung, Simulationssicht und Szenario-Berechnungen. Die Institute stellen den Einsatz ihrer professionellen Instrumente und Verfahren heraus, um ihre aufsichtsrechtliche Systemkonformität, die Wettbewerbsfähigkeit in der Risikoübernahme, im Eigenhandel oder im Investmentbanking darzulegen. Das Geschäft mit dem Risiko erfordert, das Risiko genau quantifizieren zu können. Nur mit einem tiefen Verständnis der Produkte und impliziten Risiken als auch mit effektiven Frühwarnprozessen können die Gewinne gesichert und größere Verluste verhindert werden. Im Vergleich zu früher wird heute von der Aufsicht ein umfangreiches Risikomanagement (MaRisk, SolvV, Basel III, usw.) gefordert und regelmäßig geprüft. Mehr denn je geraten dabei alle Risikorelevanten Aspekte Quantifizierung, Kapital, Organisation, Verantwortlichkeit und Anreiz und Vergütung in den Fokus der Aussicht und fordern von den Instituten ein nachhaltiges aber auch abgestimmtes und angemessenes Vorgehen bei der Überwachung und Steuerung über Risikomessverfahren. 2. 12 Aktuelle Entwicklung der Anforderungen an Risikomessverfahren Mit der aktuell verlautbarten MaRisk-Novelle vom Dez. 2012 bestätigt die Aufsicht die bisher ausgestalten Schwerpunkte und fordert das Risikomanagement stärker denn je als Kernkompetenz der Banken ein. Der klassische Risikomanagementablauf, d. h. erkennen, messen, steuern und überwachen, wird eingebettet in die organisatorischen und ablaufspezifischen Vorgaben. Die Banken sind gefordert dem Kernelement in der MaRisk, der Feststellung der Risikotragfähigkeit größte Bedeutung zu zumessen. Dies wurde erweitert um den Einbezug der Geschäftsstrategien, den Planungsprozess und die explizite Ausgestaltung der Funktionen Compliance und Risikocontrolling. Wobei die Funktion des Risikocontrollings in allen deutschen Instituten bereits seit den Tagen der MaH und MaK (Mindestanforderung an das Handels- bzw. Kreditgeschäft) installiert sein sollte. Dem hingegen die 6 KÜHN Compliance-Funktion (bis 2012) im Wesentlichen auf das Wertpapiergeschäft beschränkt war. Diese beiden zwingend organisatorisch zu verankernden Funktionen übernehmen die betriebswirtschaftlichen Überwachung, die Kontrolle von gesetzlichen Anforderungen und wichtige Beratungsfunktionen für die Geschäftsleitungen. Mit der 4. MaRisk-Novelle hebt die Aufsicht dies noch schärfer hervor und einhergehend werden auch die Anforderungen an die quantitativen Instrumente konkretisiert. So kann unter anderem der Einbezug von Risikokonzentrationen bzw. Risikodiversifikationen, die regelmäßigen Validierungen, Risikoinventuren und die ganzheitlichen Stressverfahren angeführt werden. Grundlegend für die Anwendung der Risikomessverfahren sind die betriebswirtschaftlichen Rahmenbedingungen, u. a. das institutsspezifisches Geschäftsmodell mit dem jeweiligen Kapitalmarktzugang und den zugelassenen bzw. angebotenen Produkten, wie z. B. strukturierten Produkten oder Derivaten. Die Aufsicht unterstützt die Institute, indem ausdrücklich der Fokus auf die Abdeckung nur der wesentlichen Risiken gelegt wird (MaRisk AT 4.1). Diese Öffnungsklausel hat zwei Seiten, zum einen wird nicht stoisch die Einrichtung eines Überwachungsprozesses mit festgelegten Instrumenten gefordert. Zum anderen muss das Institut die Wesentlichkeit bestimmen und gut begründet, danach den Überwachungsprozess aufbauen. Die Adaption von Modellen aus der statistischen Mathematik als auch der Finanzmathematik erweitert das Spektrum der angewandten Risikomessverfahren ständig. Die zunehmende Komplexität der Modelle, die zwischen den im Wettbewerb zueinander stehenden Instituten als auch von der Aufsicht angewandt werden, erschweren die Transparenz der Risikosituation eines Instituts und der Einschätzung durch die Aufsicht. Die Aufsicht hat, nachdem in den aufsichtsrechtlichen Meldeverfahren umfangreiche quantitative und prozessuale Verfahren zum Einsatz kommen, bereits mit Beginn den Fokus, wie folgt, ausgerichtet: 13 »Die Ergänzung traditioneller Steuerungsmethoden durch Risikomodelle ist bankaufsichtsrechtlich zu begrüßen. Der mit ihnen mögliche Erkenntniszuwachs darf jedoch nicht überschätzt werden. Zwar liefern die komplexen mathematisch-statistischen Verfahren dieser Modelle eine bessere methodische Grundlage für das Verständnis und die Abschätzung von Risiken, Modelle sind jedoch zuallererst Abstraktionen von der Wirklichkeit. Ihre Ergebnisse sind daher immer unter diesem Blickwinkel zu betrachten und dürfen nicht verabsolutiert, sondern müssen laufend kritisch hinterfragt werden. Modelle erlauben es, die nicht einfach zu durchschauende Struktur der Risikofaktoren – zum Teil auch aus verschiedenen Prozessen und Risikoarten – ihre 14 7 EINFÜHRUNG komplexen Zusammenhänge und ihr Ineinander wirken genauer zu analysieren. Sie liefern Informationen für die risikoorientierte Steuerung einer Bank, machen aber die bewusste Entscheidung der Verantwortlichen nicht überflüssig. Ein Modell ist keine Kristallkugel, die eine Asien- oder Rußlandkrise vorhersagen kann, es kann aber gute Dienste leisten, die Wirkung solcher Ereignisse auf die Risikotragfähigkeit einer Bank abzuschätzen. Insofern leisten Modelle – trotz der ihnen immanenten Beschränkungen – wertvolle Beiträge zur Förderung von Risikobewusstsein und dem Entstehen einer ausgeprägten Risikokultur.«1. 15 Das Fazit hieraus könnte sein, dass die Anwendung von mathematisch statistischen Risikomodellen nur bei intensiver Verwendung des »gesunden Menschenverstandes« empfohlen wird. Da in der Bankpraxis meist zudem heuristische und empirische Verfahren angewandt werden. Z. B. sobald die wissenschaftlich notwendigen Rahmenbedingungen nicht gänzlich vorliegen, sei auch an die leichtere Kritik eines anderen profunden Kenners der mathematischen Materie erinnert: »Insofern sich die Sätze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher, und insofern sie sicher sind, beziehen sie sich nicht auf die Wirklichkeit.« 2. 16 Dieser Sachverhalt wurde in der Zwischenzeit explizit in die aufsichtsrechtlichen Verlautbarungen aufgenommen und konkretisiert. Aktuell liest sich dieser Sachverhalt in der Erläuterung zur MaRisk AT 4.1 (8) vom 14.12.2012 in der »Kritische Analyse der Risikoquantifizierungsverfahren«: »Da jegliche Methoden und Verfahren zur Risikoquantifizierung die Realität nicht vollständig abzubilden vermögen, ist dem Umstand, dass die Risiko vollständig abzubilden vermögen, ist dem Umstand, dass die Risikowerte Ungenauigkeiten – sowohl auf Ebene der Einzelrisiken als auch auf aggregierter Ebene – aufweisen oder das Risiko unterschätzen könnten, bei der Beurteilung der Risikotragfähigkeit hinreichend Rechnung zu tragen. Sind bei vergleichsweise einfachen und transparenten Verfahren die damit ermittelten Risikowerte im Hinblick auf die Grenzen und Beschränkungen der Verfahren erkennbar hinreichend konservativ, kann auf eine weitergehende Analyse verzichtet werden. Sind die Methoden und Verfahren, die ihnen zugrunde liegenden Annahmen, Parameter oder die einfließenden Daten vergleichsweise komplex, so ist eine entsprechende quantitative und qualitative Validierung dieser Komponenten sowie der Risikoergebnisse in Bezug auf ihre Verwendung erforderlich.« 1 2 8 Deutsche Bundesbank Monatsbericht Oktober 1998 (S. 77 zu Risikomodellen). Albert Einstein, 1921. KÜHN Damit wird hinsichtlich der Qualitätsanforderungen an die eingesetzten quantitativen Verfahren zum Ausdruck gebracht, dass die Aufsicht keine pauschalen Aufschläge für unscharfe Methoden oder gar für »Modellrisiken« gut heißen möchte! Also muss die (Prüfungs-)Praxis herausfinden, wie sinnvollerweise die »hinreichend konservative« Ermittlung der Risikowerte, der Umgang mit negativen Validierungsergebnissen und dem Nachweis von Modellrisiken, auszulegen sind. 3. 17 Risikomessverfahren in der Risikotragfähigkeit Der interne Prozess der Sicherstellung der Risikotragfähigkeit ist neben den Regelberichten zur Risikosteuerung und Überwachung (meist täglich bzw. monatlich) die hauptsächliche und für die Modell- und Parameterwahl sogar die bestimmende Mindestanforderung der MaRisk3. Die Risikotragfähigkeitsbetrachtung besteht in der Gegenüberstellung der gesamten wesentlichen Risiken, dem sogenannten Risikopotential, und dem zur Verfügung stehenden und einsetzbaren Vermögen, den sogenannten Risikodeckungspotential. Damit bestimmt die Risikotragfähigkeit weitgehend die Ausgestaltung der Risikomessverfahren und ist mit der strategischen Ausrichtung verknüpft. 18 Zudem wird die Risikotragfähigkeit aus verschiedenen Steuerungskreisen bestehen, die zusammen mit den angewandten Risikomessverfahren in einander übergeleitet werden können oder besser noch konsistent sein müssen. Das kann zum einen ein wertorientierte Steuerungskreis (von Barwerten) mit Liquidationsperspektive, d. h. Vollbewertung z. B. zum Veräußerungspreis mit Vermögensbewahrung, sein. Zum anderen, meist parallel und auf die Bilanzierung ausgerichtet, wird ein Steuerungskreis in der Fortführungsperspektive, z. B. mit Fokus auf dem laufenden Geschäftsjahr, welcher auch bei schlagenden Risiken die uneingeschränkte Geschäftsfortführung gewährleisten soll, eingerichtet. 19 3 Finanz Colloquium Heidelberg [2011] »Management von Risikokonzentrationen«, Kühn/Stegner. 9 EINFÜHRUNG 20 Für diese verschiedenen Steuerungskreise in der Risikotragfähigkeit erheben sich zunächst die Grundfragen nach dem Einbezug der einzelnen Risikoarten, der Risikomodelle und anschließend der Parameterwahl: Ergebniskomponente Risikoverfahren in der periodischen Perspektive (Beispielhaft) Nettofinanzergebnis Provisionsergebnis, Verwaltungsaufwand, Sonstige Risiken Beteiligungen OpRisk Negative Abweichung des GuV-Ergebnisausweises bei Eintritt des niedrigeren zu betrachtenden Falls gegenüber dem Normalfall. Regelmäßige Überprüfung, gemäß dem SolvVIRBA (PD/LGD)-Ansatz bzw. SolvV-AMA jeweils skaliert auf 95% Konfidenzniveau und das Restjahr. Bewertungsergebnis Kredit Negative Abweichung des GuV-Ergebnisausweises bei Eintritt des niedrigeren zu betrachtenden Falls gegenüber dem Normalfall. Planungswerte auf Basis des Kreditportfoliomodells für das »lebende Portfolio«; Expertenschätzung für Sanierung-, Abwicklung. Bewertungsergebnis WP Adressenrisiko Wertpapiere: Im Anlagebestand/Liquiditätsbestand Verwendung der SolvV-Methodik; Credit-Spread- und Marktpreisrisiko: Integrierte Aufnahme Creditspread-Risiken (inkl. Korrelationen) unter Berücksichtigung stiller Reserven/Lasten 10 KÜHN Dem gegenüber stehen dann die hierzu konsistenten Risikomessverfahren im wertorientierten Steuerungskreis. Die Konsistenz ergibt sich entweder durch die adaptierte Methode, angepasste Parameter oder entsprechend zusammengesetzte Komponenten: Risikoarten Ökonomische (wertorientierte) Risikomessverfahren Adressen- Gleichzeitige Messung von Kredit- und Länderrisiken (ohne Transferrisiken), Portfoliomodell gemäß SolvVIRBA-Ansatz4 Ausfallrisiken Ökonomisches Kreditportfoliomodell: Risikokonzentration BeteiligungsRisiken Marktpreis- und Spreadrisiken Messung der Beteiligungsrisiken SolvV-PD/LGDAnsatz VaR-Methodik, 10 Tage, 99% Konfidenz, 1 Jahr Stützraum RDP-Anrechnung Verlustlimite, selbstverzehrender RL Spreadrisiken: historische Kurssimulation mit Kreditduration Operationelle Basel II- Standardansatzansatz5 Risiken VaR-Quantifizierung (AMA-Modell) Sonstige Risiken Vertriebs- und Absatzrisiken Implizite Optionen Liquiditäts- strukturellen Liquiditätsrisiken, zugesagte Linien Risiken Unterjähriges Liquiditätsrisiko Gesamtbankrisiko Addition der Teilrisiken zum Gesamtbankrisiko keine Korrelation oder Diversifikationsmodelle 4 5 BaFin [2006] SolvV. Basel [2005] Basel II IRB Risk Weight Functions. 11 21 EINFÜHRUNG 22 Über den Einbezug der wesentlichen Risiken ist es sinnvoll sich auch mit nicht einzubeziehenden Risiken, z. B. im Rahmen der regelmäßigen Risikoinventur, zu beschäftigen. Immerhin kann sich die äußere Situation verändern und neue Risikoarten können bedeutender werden. Auch können sich durch Weiterentwicklung der Risikomessverfahren neue sinnvolle Steuerungsansätze erschließen, z. B. für Rechtsrisiken oder kriminelle Handlungen im OnlineBanking. Wichtig ist dabei das Risikoprofils des jeweiligen Instituts. Schon in der MaRisk werden weitere Beispiele wie Reputations-, Geschäfts- oder strategische Risiken angeführt. Teilweise können solche Risiken auch zusammen mit den Vertriebs- und Absatzrisiken durch Erweiterung der bereits zur Verfügung stehenden Methoden messbar und (vorbeugend durch Maßnahmen) steuerbar gemacht werden. Bei nicht mehr quantifizierbaren Komponenten bleibt die Möglichkeit Risikowerte aus Expertenschätzungen einzubeziehen. Diese sind dann auch regelmäßig zu plausibilisieren. 4. 23 Risikotoleranz Über die Limitierung von Risiken in der Risikotragfähigkeit hinaus, kann die Geschäftsleitung ihre Risikoneigung auch über Prozess und andere Festlegungen zum Ausdruck bringen. Von der Aufsicht6 wurde der Begriff der Risikotoleranzen geprägt. Diese Festlegung von Risikotoleranzen ist eine geschäftspolitische Entscheidung.7 Die Risikotoleranz bzw. die Risikoneigung richtet sich entscheidend nach der Kapital- und Liquiditätsausstattung und der organisatorisch, prozessualen Ausrichtung als auch der strategischen Ausstattung des Instituts. Für die damit eher langfristig ausgerichteten Risikotoleranzen können entweder rein quantitativen Vorgaben (z. B. Detailliertheit der Risikomessung, Aktive Steuerung oder konservative Risikomessung, Sicherheitsabschläge bei Werten oder Risikopuffer für bestimmte Stressszenarien) festgelegt werden. Oder die Risikotoleranzen können in Form von qualitativen Vorgaben, wie Art der Sicherheiten (nur dingliche), qualitative Einschränkungen an die Ausstattung von Geschäften (Keine Währung, Branchenbeschränkung, derivativen Geschäftseinsatz (keine strukturierten Produkte) erfolgen. Über die qualitativen Vorgaben können zudem die Risikopositionen so gesteuert werden, dass die vorhandenen Risikomessverfahren uneingeschränkt eingesetzt werden können. So kann beispielsweise durch Ausschluss von Optionskomponenten die Vollbewertung von Positionen sichergestellt werden. 6 7 12 BaFin [2012], MaRisk AT 4.2 (2,3). Finanz Colloquium Heidelberg [2011] »Management von Risikokonzentrationen«, Kühn/Stegner. KÜHN II. Begriffsbestimmungen und Prozesse 1. Begriffsbestimmungen zu konformen Risikomessverfahren Die mathematischen Verfahren zur Risikoquantifizierung unterliegen aufgrund von Modellannahmen und begrenzter Abbildung der Realität Einschränkungen in der Prognose- und Ergebnisqualität. Zudem findet bei wissenschaftlichen Prozessen eine Verdichtung unter Informationsverlust statt. Hinzukommt, dass geschuldet der Komplexität von Portfolien und Märkten, die Geeignetheit der Risikoquantifizierung und der Kennzahlen regelmäßig zu analysieren und zu prüfen sind. Die Verwendung der Risikowerte wird daher immer im Rahmen von umfangreichen Kommentierungen durchgeführt. 24 Hierbei soll der Analyst Transparenz schaffen, welche die Güte und Treffgenauigkeit seiner Risiko- und Prognosewerte für die Risikosteuerer zuverlässig zu erkennen gibt. Der Risikosteuerer muss erkennen können, ob sich bei den Risikowerten systematische Abweichungen vorliegen. Z. B. kann es sich um konservative Risikowerte handeln, die den Risikowert durchgängig überhöht darstellen, oder um sehr genaue Risikowerte. Die Güte der Ergebnisse wird in diesem Fall stark von der aktuellen Lage am Kapitalmarkt und der PortfolioZusammenstellung abhängen. Die konservativen Werte stellen den Sicherheitsgedanken (z. B. Gläubigerschutz) aus der Risikotragfähigkeit in den Vordergrund. Dagegen lassen nur die genaueren Werte eine aktive Steuerung zu und vermeiden eine Übersteuerung durch Absicherungsmaßnahmen. 25 Der hierbei meist verwandte Risikobegriff Value at Risk gibt für eine maximale Verlusthöhe in Euro die Eintrittswahrscheinlichkeit innerhalb eines Eintrittszeitraums (Haltedauer) an. Dieser Risikowert ist in einem Ereignis so nicht beobachtbar, sondern nur statistisch nachweisbar. Grundsätzlich handelt es sich bei den Risikomessverfahren um mathematische statistische Verfahren zur Risikoquantifizierungsverfahren, die neben dem Value at Risk, beispielsweise für Marktpreisrisiken bei wahrscheinlichkeitsverteilten Risikofaktoren, wie Kurswerten oder Zinsstützstellen, nach den Modellen der historischen Simulationen, parametrischen oder Szenario-Verfahren arbeiten. Mit guter Kenntnis der Situation und der Marktentwicklung sowie der Risikoverfahren können die erwarteten Risikowerte bzw. deren Veränderung auch mit sogenannten Expertenschätzungen prognostiziert werden. 26 Dies beruht darauf, dass Risikowerte und deren Veränderung auf Risikotreiberen und Wahrscheinlichkeitsparametern aufbauen, die grundsätzlich über verschiedenen Informationsquellen (Reuters, Bloomberg) beobachtbar sind, 27 13