Universität Ulm
Transcription
Universität Ulm
Ulm Universität Ulm Lehren aus der Finanzkrise Überrollt von der Krise und den Folgen? Was vor der Krise prognostiziert werden konnte und die Lehren für die Zukunft Betreuender Hochschullehrer: Prof. Dr. Gunter Löffler Studentische Teammitglieder: Nicole Beu Matthias Böhm Sebastian Schwerdtel Beitrag zum Postbank Finance Award 2009 Überrollt von der Krise und den Folgen? Was vor der Krise prognostiziert werden konnte und die Lehren für die Zukunft Beitrag zum Postbank Finance Award 2009 Inhaltsverzeichnis Abbildungsverzeichnis II Tabellenverzeichnis III Abkürzungsverzeichnis IV Symbolverzeichnis VI 1 Einleitung 1 2 Der Fall Fannie Mae und Freddie Mac 3 3 Was zur Krise führte und was man darüber hätte wissen können 5 4 3.1 Was war aus anderen Bankenkrisen bekannt? 5 3.2 Was war neu? − Subprime und strukturierte Produkte 6 3.3 Was hätten die Marktteilnehmer über die Risiken wissen können? Modell zur Simulation von Risikoszenarien 4.1 Anwendung des Box-Jenkins-Ansatzes 16 Wahl der Modellklasse 16 4.1.2 ARIMA-Modell 16 4.1.3 Spezifikation, Schätzung und Diagnose 17 Modellierung der Zeitreihe 18 4.2.1 Modellierung der Innovationen 18 4.2.2 Simulation und Evaluation 21 Empirische Implementierung des Simulationsmodells 23 5.1 Datengrundlage 23 5.2 Deskriptive Statistik 24 5.3 Modellierung der Daten 30 5.3.1 Modellidentifikation 30 5.3.2 Modellschätzung und -diagnose 31 5.4 6 15 4.1.1 4.2 5 11 Simulation von Risikoszenarien Schlussbemerkungen 34 43 Anhang A1: Stochastische Zeitreihenmodellierung 46 Anhang A2: Bemerkungen zum Bootstrap-Algorithmus 48 Anhang B: Tabellen 50 Literaturverzeichnis 54 Beitrag zum Postbank Finance Award 2009 Abbildungsverzeichnis Abb. 1: Bankenkrisen – Realer Immobilienpreis S. 6 Abb. 2: Verbriefungsprozess S. 8 Abb. 3: Höherwertige Verbriefungen und Liquiditätstransformation S. 10 Abb. 4: Modell zur Simulation von Risikoszenarien S. 15 Abb. 5: Verlauf des vierteljährlichen Immobilienpreisindex HPI S. 25 (1975-2005) Abb. 6: Verlauf der vierteljährlichen US-Arbeitslosenrate UER S. 26 (1975-2005) Abb. 7: Verlauf des monatlichen LFS, der Differenz zwischen 3- S. 27 Monats-Libor (USD) L3M und Federal Funds Rate FFR Abb. 8: (Partielle) Autokorrelogramme S. 30 Abb. 9: Worst-Case-Szenarien für den vierteljährlichen S. 37 Immobilienpreisindex HPI Abb. 10: Worst-Case-Szenarien für die vierteljährliche US S. 39 Arbeitslosenrate UER Abb. 11: Worst-Case-Szenarien für den monatlichen Zinsspread S. 40 LFS (I) Abb. 12: Worst-Case-Szenarien für den monatlichen Zinsspread S. 41 LFS(II) II Beitrag zum Postbank Finance Award 2009 Tabellenverzeichnis Tab. 1: Test auf Stationarität (p-Wert in Klammer) S. 28 Tab. 2: Empirische Momente der (gefilterten) Zeitreihen S. 29 Tab. 3: Signifikanz des ersten empirischen Moments S. 29 Tab. 4: Parameterschätzung und t-Test S. 32 Tab. 5: Empirische Momente der Modellresiduen S. 32 Tab. 6: Autokorrelation der Modellresiduen (p-Wert in Klammer) S. 33 Tab. 7: Signifikanzprüfung mittels modellbasierten Bootstraps S. 34 Tab. 8: Verzerrung und Signifikanz der Residuenmomente S. 35 Tab. 9: Schätzer der Parameter einer schiefen t-Verteilung S. 36 Tab. B1: Modellselektion mit Selektionskriterien S. 50 Tab. B2: Risikoszenarien mit Normalapproximation S. 51 Tab. B3: Risikoszenarien mit einer schiefen t-Verteilung S. 52 Tab. B4: Risikoszenarien mit der Bootstrap-Methode S. 53 III Beitrag zum Postbank Finance Award 2009 Abkürzungsverzeichnis ABCP Asset-Backed Commercial Paper ABS Asset-Backed Security ADF augmented Dickey-Fuller-Test AIC Akaike’s Information Criterion ARIMA-Prozess Integrierter autroregressiver moving average-Prozess ARMA-Prozess Autoregressiver moving average-Prozess AR-Prozess Autoregressiver Prozess CDO Collateralized Debt Obligation CP Commercial Paper FFR Federal Funds Rate FICO Fair Isaac Corporation HPI House Price Index JB Jarque-Bera-Test KS Kolmogorow-Smirnow-Test L3M 3-Monats-LIBOR (USD) LFS Differenz zwischen 3-Monats-LIBOR (USD) und Federal Funds Rate LIBOR London Interbank Bid Offered Rate MA-Prozess Moving average-Prozess MBS Mortgage-Backed Security ML Maximum-Likelihood MTN Medium-Term Note RMBS Residential Mortgage-Backed Security SBC Schwarz-Bayes Criterion SIV Structured Investment Vehicle IV Beitrag zum Postbank Finance Award 2009 SPV Special Purpose Vehicle TAR-Modell Threshold Autoregressive Model UER US-Arbeitslosenquote V Beitrag zum Postbank Finance Award 2009 Symbolverzeichnis ∇ Differenzenoperator µt Mittelwertfunktion E Erwartungswert σ t2 Varianzfunktion γ (t1 , t 2 ) Autokovarianzfunktion ρ (t1 , t 2 ) Autokorrelationsfunktion Ω Ergebnisraum ω Winkelgeschwindigkeit, Kreisfrequenz ψi Gewicht im MA-Prozess πi Gewicht im AR-Prozess L(θ | x) Likelihood-Funktion α Niveau θˆ Maximum-Likelihood-Schätzer Yt Wert der Zeitreihe zum Zeitpunkt t Zt Schock zum Zeitpunkt t p Parameteranzahl beim AR-Modell q Parameteranzahl beim MA-Modell d Anzahl der Filterungen h Anzahl der Prognoseschritte VI Beitrag zum Postbank Finance Award 2009 1 Einleitung Finanzkrisen ereignen sich immer wieder, in vielen Ländern und über die Jahrhunderte hinweg. Der Verlauf der Ereignisse ist oft ähnlich (vgl. z.B. Reinhart/ Rogoff, 2008 sowie unsere Analyse in Abschnitt 3): Deregulierung oder Produktinnovationen eröffnen neue Märkte. Banken und andere Marktteilnehmer versuchen, die damit verbundenen Renditechancen zu nutzen. Ein Aufwärtstrend im jeweiligen Marktsegment stellt sich ein. Vom Erfolg verwöhnt, vernachlässigen Marktteilnehmer traditionelle Bewertungsregeln und setzen auf die Fortsetzung des Trends. Am Ende braucht es keinen großen externen Schock, um das System zum Kippen zu bringen. Die im Zuge des Booms aufgebauten Risikopositionen sind so groß, dass nicht nur einzelne Institute, sondern auch das ganze System fragil geworden ist. Diese Beobachtung lässt zwei konträre Deutungen zu, aus denen man sehr unterschiedliche Lehren für die Vermeidung zukünftiger Krisen ziehen kann: Die erste Deutung betont Komplexität und Strukturbrüche. Wenn die nächste Krise ebenfalls mit der Erschließung neuer Märkte verbunden ist, werden sich die Marktteilnehmer ähnlich wie in früheren Krisen schwer damit tun, Risiken korrekt einzuschätzen. Neue Produkte stellen große bewertungstechnische Herausforderungen dar, die historische Datenbasis zur Kalibrierung von Modellen fehlt ebenso wie entsprechende Erfahrungen der Akteure. Die Antwort der Politik darauf wäre: strikte Kontrolle, insbesondere von innovativen Produkten und all derjenigen Institutionen, die damit in Verbindung stehen, sowie große Vorsicht bei der Deregulierung von Märkten. Auf der Modellierungsseite würde man die Herausforderung vor allem in der korrekten Modellierung innovativer Finanzprodukte zu sehen. Die zweite Deutung betont die Wiederkehr des ewig Gleichen. Wenn Finanzkrisen immer wieder nach dem gleichen Muster verlaufen, sollte es eigentlich auch nicht so schwer sein, Risiken richtig zu erkennen. Die Aufsicht sollte dann vor allem sicherstellen, dass Marktteilnehmer vorhandenes Wissen auch tatsächlich anwenden. Im Bereich der Bankenregulierung könnten einfache Ansätze wie die Erhöhung der Eigenkapitalanforderung in Boomzeiten − in Spanien erfolgreich praktiziert − großen Erfolg versprechen. Auf der Modellierungsseite würde es weniger darum gehen, innovative Produkte 1 Beitrag zum Postbank Finance Award 2009 möglichst gut zu bewerten, als traditionelle Risikomessverfahren sinnvoll anzuwenden. In der vorliegenden Arbeit möchten wir diskutieren, welche der beiden Deutungen durch die Erfahrungen der aktuellen Krise gestützt wird. Mit etwas anderen Worten lautet unsere Fragestellung: Kamen Finanzinstitutionen ins Wanken, weil sie von schwer zu durchschauenden Entwicklungen überrollt wurden, oder weil sie bewusst überhöhte Risiken eingingen? Haben die traditionellen Risikomodelle versagt, oder haben Manager versäumt, diese richtig anzuwenden? Unser eigener Beitrag zur Beantwortung dieser Fragen stützt sich auf folgende statistische Untersuchung: Wir analysieren, welche Zukunftsszenarien Risikomanager im Jahre 2005 – also vor Beginn der Krise – aufgestellt hätten, wenn sie branchenübliche Prognoseverfahren angewendet hätten. Wenn wir die Analysen für den US-Immobilienpreisindex HPI durchführen, erhalten wir folgendes Bild: Die im Jahr 2005 für die Zeit bis 2008 aufgestellten Worst-CaseSzenarien sind schlechter als die später eingetretene tatsächliche Entwicklung; dabei ist die Wahrscheinlichkeit der Szenarien so hoch, dass Banken sie gemäß ihren eigenen Risikomanagementstandards hätten einkalkulieren müssen. Dieses klare empirische Ergebnis steht in starkem Kontrast zu der weit verbreiteten Meinung, dass das Risiko eines Immobiliencrashs sehr schwer abzuschätzen war, da die vorliegenden historischen Daten keinen Hinweis darauf gaben (vgl. z.B. Brunnermeier, 2008). Wenn wir unsere Analysen noch für andere Krisenindikatoren durchführen, ergibt sich im Wesentlichen das gleiche Bild. Marktteilnehmer hätten somit zu einer korrekten Einschätzung der relevanten Risiken kommen können. Diese Schlussfolgerung finden wir auch in anderen Untersuchungen bestätigt. Wir beginnen unseren Beitrag mit einer Fallstudie der Immobilienfinanzierer Fannie Mae und Freddie Mac. Darin wird deutlich, dass das Management mehrfach Warnungen aus dem eigenen Risikomanagement verworfen hat. In dem anschließenden Literaturüberblick treffen wir teilweise auf konträre Deutungen. Während einige Beiträge die Komplexität und Intransparenz des Subprime-Marktes und der darauf aufbauenden Produkte, für ein mangelndes Risikoverständnis verantwortlich machen, belegen andere, dass das Kernproblem kein mangelndes Verständnis der einzelnen Produkte sondern ein allzu großes Vertrauen in weiter steigende Hauspreise war. Ein solches Vertrauen hätte aber – wie von uns gezeigt – einem Blick auf die Daten nicht standhalten können. 2 Beitrag zum Postbank Finance Award 2009 2 Der Fall Fannie Mae und Freddie Mac Am 7. September 2008 übernahm das US-Finanzministerium die Kontrolle über die Hypothekenbanken Fannie Mae (Federal National Mortgage Association) und Freddie Mac (Federal Home Loan Mortgage Corporation). Die beiden Institute hatten auf dem Hypothekenmarkt so hohe Verluste erlitten, dass eine Insolvenz ohne Stützung des Staates unvermeidbar gewesen wäre. Fannie Mae und Freddie Mac erwerben Hypotheken von anderen Banken und Kreditvermittlern und verkaufen sie an Investoren weiter. Weil der Markt – korrekterweise, wie sich nun herausstellte – darauf baute, dass der Staat im Falle einer Zahlungsunfähigkeit der beiden Institute einspringen würde, konnten sie sich günstig refinanzieren. Sie trugen somit maßgeblich dazu bei, dass Hypotheken günstig und in ausreichendem Umfang refinanziert werden konnten. Bei der Entscheidung, welche Hypotheken aufgekauft wurden, waren die beiden Institute lange Zeit konservativ. Sie stellten hohe Anforderungen an die Bonität der Kreditnehmer. Als andere Institute jedoch immer mehr Subprime-Hypotheken – also Hypotheken mit hohem Ausfallrisiko – vergaben, wurde auch in den beiden Instituten überlegt, ob man sich in diesem Segment engagieren sollte. Wie aus der Anhörung des Komitees für Aufsichts- und Regierungsreform 1 deutlich wird, entschieden sich Fannie Mae und Freddie Mac in vollem Bewusstsein der damit verbundenen Risiken dafür, sich auf dem Subprime-Markt zu engagieren. In einem vertraulichen Dokument aus dem Jahr 2005 beschreibt Daniel Mudd, damals Vorstandsvorsitzender von Fannie Mae, dass die Bank vor einer grundlegenden Entscheidung stand: Entweder sollte man sich auf sichere Hypotheken konzentrieren und dazu die strengen Kreditstandards aufrecht erhalten, oder aber dem Markt folgen und in unsicherere Subprime-Kredite investieren. Dem Dokument zufolge wurde der zweite Weg favorisiert, da die Möglichkeit hoher Renditen nur im Subprime-Markt gesehen wurde. Während die Entscheidung für ein riskantes Geschäft aus Risiko-RenditeGesichtspunkten durchaus sinnvoll sein kann, belegen weitere Dokumente, dass 1 Vgl. http://oversight.house.gov/story.asp?ID=2252, hier findet sich ebenfalls die Mitschrift der Anhörung. 3 Beitrag zum Postbank Finance Award 2009 die beiden Institute intern unzureichend auf den Einstieg in den Subprime-Markt vorbereitet waren und Warnungen ignorierten. Bereits 2004 forderte der Chef-Risikomanager von Freddie Mac vom Vorstandsvorsitzenden Richard Syron, dass keine Kredite mehr gekauft werden sollten, bei deren Vergabe die Kreditnehmer kein eigenes Einkommen oder Vermögen nachweisen mussten. Er warnte davor, dass mit diesen Produkten die Gefahr der Täuschung und der ruinösen Kreditgewährung besonders groß sei. Diese Empfehlung wurde jedoch nicht befolgt. Stattdessen wurde der ChefRisikomanager entlassen. 2 Bei Fannie Mae war die Situation ähnlich. 2006 warnte der Chef-Risikomanager den Vorstandsvorsitzenden Daniel Mudd vor den Folgen einer unzureichenden Risikokontrolle: “There is a pattern emerging of inadequate regard for the control process.“ 3 Der Vorstand versäumte darauf zu reagieren, behauptete aber trotzdem gegenüber dem Board (dem deutschen Aufsichtsrat vergleichbar), dass Fannie Mae den Einstieg ins Subprime-Segment durch entsprechende Kontrollmaßnahmen flankiere. Wieder wandte sich der Chef-Risikomanager daraufhin direkt an den Vorstand und schrieb: "I have been saying that we are not even close to having proper control processes for credit market and operational risk. I got a 60 percent budget cut. Do I look stupid?“ 4 Diese Einblicke machen deutlich, dass die Hypothekenbanken keineswegs von den eingetretenen Ereignissen überrascht wurden. Das Management ging hohe Risiken ein, obwohl die Unternehmen darauf nicht vorbereitet waren, und es gab intern genügend Stimmen, die auf die Höhe der Risiken hinwiesen. 2 Vgl. S. 4 der Mitschrift der Anhörung. S. 5 der Mitschrift der Anhörung. 4 S. 5 der Mitschrift der Anhörung. 3 4 Beitrag zum Postbank Finance Award 2009 3 Was zur Krise führte und was man darüber hätte wissen können 3.1 Was war aus anderen Bankenkrisen bekannt? Reinhart und Rogoff (2008) betrachten in ihrer Studie 18 Krisen aus westlichen Industrienationen; die fünf größten davon fassen sie in der Gruppe der Big 5 zusammen. 5 In ihren Analysen decken sie große Parallelen in der Entwicklung von Krisen auf. Insbesondere Preise von Vermögenswerten wie Immobilien und Aktien erweisen sich als gute Frühindikatoren für Bankenkrisen. Abbildung 1 zeigt die reale Immobilienpreisentwicklung verschiedener historischer Krisen im direkten Vergleich zur aktuellen Situation in den USA. Der Zeitpunkt t stellt das Startjahr der Krise dar und ist für die aktuelle Krise daher das Jahr 2007. Die Abbildung macht deutlich, dass sich die USA schon in den Jahren 2004 und 2005 (also t-3 und t-2) auf einem Pfad befanden, der der Vorgeschichte der fünf großen Bankenkrisen entspricht. Im Jahr 2006 waren die Immobilienpreise auf einem Niveau, das über dem entsprechenden Durchschnitt der fünf größten Krisen lag. Ein einfacher Vergleich mit früheren Bankenkrisen hätte daher schon im Jahr 2004 Anlass zur Besorgnis geben müssen. Zu deutlich sind die Parallelen. Die Besorgnis hätte noch dadurch wachsen müssen, dass vielen Bankenkrisen eine Phase der Deregulierung voranging (vgl. Kaminsky/ Reinhart, 1999). Der skandinavischen Bankenkrise der 1990er Jahre ging z.B. eine umfassende, 1980 beginnende Deregulierung voraus, die zu einem dynamischen Wachstum der Kreditmärkte führte. Vor der aktuellen Finanzkrise gab es zwar in den USA außer der endgültigen Aufhebung der Trennung von Geschäfts- und Investmentbanken (Glass-Steagall-Act) im Jahr 1999 keine weitreichenden Gesetzesänderungen. Anderseits nutzen viele Banken Produktinnovationen, um Risiken zu verkaufen oder auf Zweckgesellschaften außerhalb ihrer Bilanz zu übertragen. Damit wurden immer mehr Risiken der Zuständigkeit der Aufsichtsbehörden entzogen, und der Umfang der Regulierung nahm de facto ab. 5 Die Big 5 sind: Spanien (1977), Norwegen (1987), Finnland (1991), Schweden (1991), Japan (1992). Die weiteren 13 Krisen sind: Australien (1989), Kanada (1983), Dänemark (1987), Frankreich (1994), Deutschland (1977), Griechenland (1991), Island (1985), Italien (1990), Neuseeland (1987), Vereinigtes Königreich (UK) (1973, 1991, 1995), USA (1984). 5 Beitrag zum Postbank Finance Award 2009 Wie diese Innovationen aussahen und welchen Einfluss sie auf die Entstehung der Finanzkrise hatte, möchten wir im nächsten Abschnitt beleuchten. Abb. 1: Bankenkrisen – Realer Immobilienpreis 160 Median der Bankenkrisen in den advanced economies 155 USA (2007) Krise 150 Median der Big 5 Krisen 145 arithmetischer Mittelwert der Bankenkrisen den advanced economies arithmetischer Mittelwert der Big 5 Krisen 140 Index 135 130 125 120 115 110 105 100 Index t-4=100 95 t-4 t-3 t-2 t-1 t t+1 t+2 t+3 Quelle: Eigene Abbildung in Anlehnung an Reinhart/ Rogoff (2008, S. 341), aktualisierte Daten sind durch Reinhart/ Rogoff zur Verfügung gestellt worden. 3.2 Was war neu? − Subprime und strukturierte Produkte Bevor mit der Analyse des Hypothekenmarktes begonnen werden kann, müssen zunächst wichtige Begriffe geklärt werden. An erster Stelle steht hier die Subprime-Hypothek, welche sich von höherwertigen Hypotheken (Prime) durch ein höheres Kreditrisiko unterscheidet; dazwischen sind die sogenannten Alt-A Hypotheken angesiedelt. Um die Kreditwürdigkeitskategorien voneinander abzugrenzen, wird häufig der Fair Isaac Corporation (FICO) Score verwendet. Dieser gegen Bezahlung einsehbare Score hat eine Bandbreite von 300 bis 850 Punkten. Ein höherer Wert steht für bessere Bonität. Im Wesentlichen gründet die Bewertung auf der Zahlungsmoral (ca. 35%), einer Bewertung der Höhe bereits ausstehender Verbindlichkeiten (ca. 30%), der Länge verfügbarer Daten (ca. 15%), den jüngsten Kreditaktivitäten (ca. 10%) sowie einer Evaluation der Inanspruchnahme unterschiedlicher Kreditaufnahmemöglichkeiten (ca. 10%) (vgl. Fair Isaac Corporation, 2007). Es gibt keine allgemeingültigen Klassifikationsregeln, jedoch sind folgende Kriterien für eine Einstufung üblich (vgl. Gorton, 2008): Bei einem FICO Score 6 Beitrag zum Postbank Finance Award 2009 von unter 660 wird eine Hypothek zum Subprime-Segment gezählt. Für nicht mit dem FICO-Score vertraute Leser ist sicher aufschlussreich, dass eine SubprimeEinstufung auch auf einen Zahlungsverzug von mindestens 60 Tagen in den vergangenen zwei Jahren oder zwei mindestens 30-tägige Zahlungsverzögerungen im letzten Jahr zurückzuführen sein kann. Dies macht deutlich, wie gefährdet Kreditnehmer aus dem Subprime-Segment sind. Sie waren oft so einkommensschwach, dass sie die mit dem Kredit verbundenen Zinszahlungen nur deswegen leisten konnten bzw. leisten zu können glaubten, weil diese in den ersten Vertragsjahren sehr niedrig angesetzt waren. Solche adjustable-rate Mortgages fanden denn im Subprime-Segment auch immer stärkere Verbreitung (vgl. z.B. Finke et al., 2005). Die Ausweitung des Subprime-Segments ging auch mit einer Aufweichung üblicher Kreditvergabestandards einher. Immobilienfinanzierer waren nicht nur innovativ, was das Design von Kreditverträgen und die Kreditvergabepraxis betraf. 6 Sie nutzten auch moderne Finanzinstrumente, um die mit den Krediten verbundene Risiken weiterzureichen. Das Geschäftsmodell des originate and hold, in dem die vergebenen Kredite in der eigenen Bilanz verblieben, wandelte sich zum originate and distribute Modell. Die Distribution, also der Weiterverkauf der Kreditrisiken, erfolgte über Verbriefungen oder Kreditderivate. Abbildung 2 stellt die Struktur einer Verbriefung dar. Wie bisher beginnt alles mit einer Ansammlung von Krediten bei einem Immobilienfinanzierer, dem Originator. Dann wird eine Zweckgesellschaft, ein Special Purpose Vehicle (SPV), gegründet, welche den reinen Zweck der Buchhaltung für diese Kreditsammlung hat. Nun wird der Hypothekenpool von der Bilanz des Originators auf die des SPV übertragen; das SPV gibt Schuldverschreibungen aus, die durch den Kreditpool besichert sind. Durch die Vielzahl von Krediten ergibt sich bereits eine Diversifikation, und darüber hinaus stellt das SPV ein klar abgrenzbares Investitionsrisiko für den Investor dar, das nur aus dem Kreditrisiko dieser Hypotheken besteht. Ein Ausfall des Originators – z.B. in Folge von Managementfehlern – stellt kein Investmentrisiko mehr dar. Sind die enthaltenen Kredite allerdings relativ riskant – z.B. Subprime-Kredite – ist der Kreditpool immer noch so riskant, dass er für viele Anleger unattraktiv ist. Aufgrund von 6 Ein notorisches Beispiel hierfür sind die liars’ loans, bei denen Antragsteller ihr Einkommen nicht belegen mussten. 7 Beitrag zum Postbank Finance Award 2009 rechtlichen Vorschriften oder Selbstbindung ist nämlich vielen Investoren (z.B. Geldmarktfonds oder Versicherungen) nur möglich, in Papiere höchster Bonität zu investieren. Um diese Anleger zu gewinnen, kann das Kreditportfolio in Tranchen mit unterschiedlichem Rang zerlegt werden. Zinszahlungen und Rückzahlungen werden zunächst verwendet, um die vorrangigen Senior-Tranchen zu bedienen. Danach verbleibende Mittel werden zur Bedienung der MezzanineTranchen verwendet. Am Ende steht die sogenannte Equity-Tranche. Zusätzlich zu dieser Tranchenstruktur kann das Risiko u.a. noch durch folgende Elemente gesteuert werden (vgl. z.B. Kiff und Mills, 2007): • Overcollateralization: Die Summe der Sicherheitswerte übersteigt den Wert der Verbindlichkeiten bei Emission bewusst, es wird also eine implizite Kreditversicherung eingebaut. • Excess spread: Der durch die Schuldner zu leistende Betrag an Zahlungen überschreitet den, der an die Wertpapiereigner zu leisten ist. Abb. 2: Verbriefungsprozess Originator Ratingagentur Treuhänder Emissionskonsortium Kreditverbesserungen Kreditvertrag KreditSPV Servicer Tilgung + Zins nehmer Subprime Hypotheken Pool Mezzanine Senior Equity RMBS B|BB|BBB|A|AA AAA Quelle: Eigene Darstellung in Anlehnung an Bethel/ Ferrell/ Hu (2008, S. 55), Bair (2007, S. 6), Deutsche Bundesbank (2004, S. 30), Effenberger (2004, S. 4), IMF staff estimates indirekt zitiert nach International Monetary Fund (2008, S. 60). Die verkauften Schuldverschreibungen nennt man Mortgage-Backed Securities (MBS), eine Unterklasse der Asset-Backed Securities (ABSs) (vgl. International Monetary Fund, 2008). Wenn es sich um Hypotheken auf Wohnimmobilien handelt, heißen die Produkte wie in Abbildung 2 Residential Mortgage-Backed Securities (RMBS). 8 Beitrag zum Postbank Finance Award 2009 Die bei der Tranchierung entstehenden Verbriefungen werden nahezu alle von Ratingagenturen bewertet, um ihr Risiko gegenüber potenziellen Investoren kommunizieren zu können. Zu den anderen am Verbriefungsprozess Beteiligten gehört ein Treuhänder, der die Interessenwahrung der Investoren garantieren soll (vgl. Office of Thrift Supervision, 2003), sowie Banken, die als Teil eines Emissionskonsortiums die Vermarktung der Verbriefung und deren Strukturierung unterstützen. Die Konsortialbanken nutzen ihre Netzwerke, um an potentielle Investoren heranzutreten und einen marktfähigen Preis zu bestimmen (vgl. Office of Thrift Supervision, 2003). Der Servicer steht zwischen den Investoren und den einzelnen Schuldnern. Er verwaltet die Zahlungsströme, wobei er gewisse Rechte hat, diese zu beeinflussen. Nicht selten ist der Originator auch der Servicer (vgl. Bethel/ Ferrell/ Hu, 2008). Der Servicer kümmert sich u.a. um die Belange hinsichtlich Zahlungsverzug oder die Abwicklung ausfallender Hypotheken (vgl. Bair, 2007). Der Schuldner hat keine Wahlmöglichkeit bei seinem Servicer. Auf den ersten Blick scheint die Struktur einer Verbriefung so gewählt, dass die von den Investoren zu tragenden Risiken bestmöglich isoliert, kommuniziert und administriert werden. Es ergeben sich potentielle Interessenskonflikte, die zu Lasten der Investoren gehen können. Ratingagenturen werden nicht von den Investoren beauftragt werden, sondern von den am Verbriefungsprozess beteiligten Finanzinstitutionen. Daher besteht die Gefahr, dass die Interessen der Investoren hinten angestellt werden. Außerdem können Servicer versuchen, zum Beispiel durch zusätzliche Gebühren und Versicherungen (vgl. Eggert, 2007) ihre eigenen Erträge zu Lasten der Investoren zu steigern. Verbriefungen der hier beschriebenen Struktur waren seit den 1980er Jahren üblich. Was in den letzten Jahren vor der Krise dazu kam, waren darauf aufbauende Konstruktionen. Motivation war wiederum die Bedienung von Anlegerpräferenzen, konkret nach möglichst sicheren oder kurz laufenden Anlagen. Zum Beispiel wertete man die im Rahmen der Verbriefung entstandenen Mezzanine-Tranchen mit mittlerem Risiko weiter auf, oder man transformierte die langlaufenden Hypotheken, die als Sicherheiten dienten, in kurzfristige Schuldverschreibungen. 9 Beitrag zum Postbank Finance Award 2009 Abb. 3: Höherwertige Verbriefungen und Liquiditätstransformation Cash CDO SPV Treuhänder, Depotführendes Institut Finanzinstitut 1 Investment CDO2 A A A AA M e A z z BBB a n BB i n B e Equity Senior Asset Portfolio aus RMBS BBB Tranchen (möglich wären auch ABS und andere) Senior Hedge Gegenpartei CDO A A A AA M e A z z BBB a n BB i n B e Equity Kreditzusage Conduit SIV Emission z.B. CP mit Laufzeit: 1 Tag bis 9 Monate Kauf Finanzinstitut 2 Quelle: Eigene Darstellung in Anlehnung an IMF staff estimates indirekt zitiert nach International Monetary Fund (2008, S. 60), Counterparty Risk Management Policy Group (2005, S. A.19) und Textausführungen in Sachverständigenrat (2007, S. 125f.). Abbildung 3 stellt den zuerst genannten Prozess exemplarisch anhand einer Collateralized Debt Obligation (CDO) aus BBB Mortgage-Backed Bonds dar. Eine CDO ist ein SPV, das beispielsweise RMBS kauft und erneut tranchiert (vgl. Gorton, 2008, S. 34). Damit können wiederum Schuldverschreibungen mit höchster Bonitätsnote geschaffen werden. Die Vorgehensweise ist ähnlich wie bei der Schaffung von RMBS und soll daher hier nicht mehr im Detail erklärt werden. CDOs können wiederum als Sicherheit in einer als CDO squared bekannten Struktur (vgl. Abb. 3) dienen. Die aus der Tranchierung von RMBS entstandenen Tranchen werden somit erneut strukturiert. Dadurch kommen wiederum bis zu 85% des Pools mit AAA Rating auf den Markt (vgl. International Monetary Fund, 2008, S. 59). Eine Fristentransformation ist über Structured Investment Vehicles (SIVs), Commercial Paper conduits und SIV-lites erfolgt. Abbildung 3 enthält ein einfaches Beispiel dafür. Die Investmentvehikel erwerben Verbriefungen mit langer Laufzeit, die sie durch revolvierende Ausgabe von kurzfristigen AssetBacked Commercial Papers (ABCP; mittlere Laufzeit 90 Tage) oder MediumTerm Notes (MTN; mittlere Laufzeit etwas über einem Jahr) finanzieren. Das Kreditinstitut, welches das Investmentvehikel betreibt, muss in der Regel eine 10 Beitrag zum Postbank Finance Award 2009 Kreditlinie einräumen, um die Refinanzierung zu sichern. Nach den unter Basel I geltenden Vorschriften musste diese Zusage allerdings nicht mit Eigenkapital unterlegt werden, wenn sie wie üblich revolvierend für Laufzeiten von weniger als 365 Tagen ausgesprochen wurde. 3.3 Was hätten die Marktteilnehmer über die Risiken wissen können? Die im vergangenen Abschnitt beschriebenen Entwicklungen und Strukturen waren nicht nur neu, sondern oft auch schwer durchschaubar. Im Folgenden möchten wir einige der Probleme skizzieren, die sich daraus für Marktteilnehmer ergeben konnten: 1) Durch die Veränderung der Kreditvergabestandards veränderten sich die erwarteten Ausfallraten in Kreditportfolios. Die kurze verfügbare Datenhistorie erschwerte die Quantifizierung dieser Veränderungen. 2) Der Übergang zum originate and distribute Modell veränderte die Anreize der Immobilienfinanzierer. Inwieweit dies zu einem zusätzlichen Anstieg der Ausfallraten führte, war wiederum schwer abzusehen. 3) Durch Verbriefungen und darauf aufbauende Konstruktionen wurden die Risiken intransparent. Zum einen war es für Investoren aufgrund fehlender Dokumentation, aber auch wegen der reinen Anzahl schwierig bis unmöglich, die zugrunde liegenden Immobilienkredite zu analysieren. Zum anderen war das Risikoprofil eines strukturierten Finanzproduktes aufgrund der Verschachtelung und der verschiedenen Sicherungselemente selbst dann schwer zu erfassen, wenn vollkommene Klarheit über das Risiko des Kreditpools bestanden hätte. 4) Strukturierte Finanzprodukte wurden zwar von Ratingagenturen bewertet. Sie verwendeten dazu jedoch das gleiche Konzept und die gleiche Symbolik wie bei der Bewertung von Unternehmensanleihen. Investoren neigten daher dazu, eine AAA Tranche vom Risiko her mit einer AAA Unternehmensanleihe gleichzusetzen. Diese Gleichsetzung ist allerdings nur in der von den Ratingagenturen modellierten Risikodimension – der langfristigen Ausfallwahrscheinlichkeit – angemessen. Sie darf nicht auf eine andere Risikodimension übertragen werden, nämlich das systematische Risiko, welches sich darin äußert, dass die Ausfallwahrscheinlichkeit in einer 11 Beitrag zum Postbank Finance Award 2009 wirtschaftlich schlechten Situation ansteigt. Das systematische Risiko ist bei strukturierten Produkten typischerweise deutlich höher als bei Unternehmensanleihen. Diese und ähnliche Beobachtungen führen dazu, dass der Komplexität und Intransparenz des Immobilienmarktes und der darauf aufbauenden Finanztitel eine große Mitschuld am Entstehen der Krise zu gegeben wird. Entsprechende Ansichten finden sich z.B. in den Übersichtsartikeln von Gorton (2008) oder Crouhy, Jarrow und Turnbull (2008). Die angesprochenen Probleme werden auch in detaillierten Studien untersucht. Demyanyk und van Hemert (2008) zeigen zum Beispiel, dass die Kreditqualität schon lange vor 2007 deutlich zurückging, dass dies aber schwer aus den Daten zu erkennen war, da die stetig steigenden Immobilienpreise zu niedrigen Ausfallraten führten. Zusammen betrachtet kann man schnell zu dem Schluss kommen, – hier etwas pointiert dargestellt – dass die Finanzkrise wesentlich darauf zurückging, dass Finanzinstitutionen komplexe Strukturen schufen, um hilflosen Anlegern hochriskante Produkte zu überhöhten Preisen zu verkaufen. Es gibt aber einige Beobachtungen, die eine andere Interpretation nahe legen. Die wichtigsten seien im Folgenden zusammengefasst: Das Risiko von Subprime-Krediten war gut einzuschätzen Gerardi et al. (2008) verwenden Kreditdaten, wie sie Marktteilnehmern im Jahr 2005 zur Verfügung gestanden hätten, um Ausfallraten zu schätzen. Sie kommen zu dem Schluss, dass das Ausfallrisiko mit gängigen statistischen Modellen korrekt hätte vorhergesagt werden können. Hätte man im Jahr 2005 die später eingetretene Immobilienpreisentwicklung durchgespielt, hätte man den dadurch bedingten Anstieg in den Insolvenzen auch richtig vorhersagt. Gerardi et al. (2008) sichern ihre Ergebnis noch dadurch ab, dass sie Analystenberichte aus den Jahren vor dem Ausbruch der Krise studieren. Auch darin wird deutlich, dass den Marktteilnehmern das gestiegene Risiko im Hypothekenmarkt durchaus bewusst war. Die Tatsache, dass Analysten den Markt eher positiv sahen, lag nicht an der Unterschätzung des Bonitätsrisikos, sondern daran, dass sie das Risiko eines Immobiliencrashs unterschätzten. 12 Beitrag zum Postbank Finance Award 2009 Der größte Teil des Risikos landete nicht bei ahnungslosen Investoren Die hohe Anzahl von Fälle, in denen Investoren komplett von den Wertverlusten ihrer Anlagen überrascht wurden, soll nicht darüber hinwegtäuschen, dass die Risiken zum großen Teil bei den Institutionen verblieben, die die Hypotheken und die darauf aufbauenden Produkte auf den Weg gebracht hatten. Die ersten Opfer der Krise waren gerade Immobilienfinanzierer, die am Anfang der originate and distribute Kette standen; die ersten mussten schon 2006 Insolvenz anmelden. 7 Was den Verbleib der Verbriefungen angeht, so berichten Greenlaw et al. (2008), dass Finanzinstitutionen wie Geschäftsbanken oder Investmentbanken etwa zwei Drittel des ca. 1,4 Billionen Dollar umfassenden Risikos aus Subprime-Krediten hielten – trotz der vielfältigen Verbriefungen. Da diese Banken oft selbst direkt an der Verbriefung beteiligt waren, hatte der Großteil der Investoren durchaus eine gute Basis zur Abschätzung der Risiken. Auch das Argument, dass der Weiterverkauf zu gefährlichen Fehlanreizen führte, verliert an Überzeugungskraft, wenn der Großteil der Risiken das Bankensystem tatsächlich gar nicht verließ. Das hohe systematische Risiko von strukturierten Produkten war kein Geheimnis Warum beinhalten Tranchen einer Verbriefung, die vom Rang her über der untersten, der Equity Tranche stehen, ein hohes systematisches Risiko? Sie erleiden erst dann Verluste, wenn diese im Kreditpool so hoch sind, dass die Equity Tranche aufgezehrt ist. In einem Kreditpool kommt es zu hohen Verlusten, wenn sich die Wirtschaft in einer schlechten Situation befindet. Mit dieser simplen Logik hätte man sich ohne größere Detailkenntnisse klar machen können, dass strukturierte Produkte vor allem dann betroffen sind, wenn die allgemeine Wirtschafslage auch schlecht ist. Wer auf der Suche nach konkreten Zahlen war, die dieses Risiko quantifizieren, wäre z.B. in der Arbeit von Gibson (2004) fündig geworden, in der das hohe systematische Risiko von CDOs klar dargestellt wird. Sicher hätten die Ratingagenturen durch entsprechende Hinweise dazu beitragen können, dass das systematische Risiko den Investoren besser bewusst war. Aber auch so hätten sich Investoren ein korrektes Bild der Risiken machen können. 7 Ende Dezember 2006 meldete der Immobilienfinanzierer Ownit Mortgage Solutions Insolvenz an. Weitere Zusammenbrüche folgten im Januar und Februar. (Quelle: www.bloomberg.com). 13 Beitrag zum Postbank Finance Award 2009 Zusammen betrachtet belegen diese Beobachtungen, dass es den wichtigen Marktteilnehmern durchaus möglich gewesen wäre, die in der Finanzmarktkrise zum Tragen gekommenen Risiken rechtzeitig und ausreichend genau zu erfassen. Die Krise sollte daher nicht als das Produkt einer unheilvollen Entwicklung angesehen werden, die, einmal angestoßen, nicht mehr zu durchschauen und zu stoppen war. Ein Punkt ist dabei aber noch nicht geklärt: War es vielleicht auf Basis der verfügbaren Daten unmöglich, die Entwicklung der Immobilienpreise richtig einzuschätzen? Gerardi et al. (2008) zeigten ja gerade, dass zwar das Risiko der einzelnen Kredite richtig eingeschätzt wurde, nicht aber das Risiko eines Immobiliencrashs. Ob Risikomanager dieses zentrale Risiko richtig hätten erfassen können, untersuchen wir in den nächsten Abschnitten. 14 Beitrag zum Postbank Finance Award 2009 4 Modell zur Simulation von Risikoszenarien Da vieles darauf hindeutet, dass Marktteilnehmer im Vorfeld der Krise zentrale Risikofaktoren wie die Entwicklung der Immobilienpreise falsch einschätzten, wollen wir überprüfen, ob dies auf grundsätzliche Modellierungsprobleme zurückging. Unsere Grundidee ist folgende: wir verwenden in der Finanzbranche gängige Verfahren, um Risikoszenarien zu erstellen, wie sie Finanzinstitutionen im Jahr 2005 – also bereits vor Beginn der Krise – erstellt haben könnten. Im Risikomanagement von Banken ist es üblich, Risikofaktoren im Rahmen einer Zeitreihenanalyse zu prognostizieren. Dies heißt praktisch, dass man aus den Daten der Vergangenheit Aufschluss über mögliche Entwicklungen der Zukunft gewinnt. Daher verwenden auch wir Modelle aus der Zeitreihenanalyse, und folgen dem weit verbreiteten Ansatz von Box und Jenkins (1970). Die Vorgehensweise ist in Abbildung 4 dargestellt. Abb. 4: Modell zur Simulation von Risikoszenarien Wahl der Modellklasse Spezifikation, Schätzung und Diagnose Box-Jenkins-Ansatz Modellierung der Zeitreihe Modellierung des Innovationsprozesses Simulation von Zukunftsszenarien Evaluation der Risikoszenarien Output Quelle: Eigene Darstellung in Anlehnung an Box/ Jenkins, 1970, S. 19 Am Anfang steht die Wahl einer Modellklasse. Daran schließt sich die Schätzung der Modellparameter an. Will man zu Szenarien gelangen, muss man noch Annahmen über die Innovationen treffen, die zufälligen und nicht vorhersehbaren Störfaktoren. Unsere Vorgehensweise in den einzelnen Schritten wird im Folgenden dargestellt. 15 Beitrag zum Postbank Finance Award 2009 4.1 4.1.1 Anwendung des Box-Jenkins-Ansatzes Wahl der Modellklasse In der Literatur findet man in der Regel zwei Klassen von Modellen: Zum einen nichtlineare Modelle wie das TAR-Modell (engl. Threshold Autoregressive) von Tong und Lim (1980), Künstlich Neuronale Netze von Rojas (1993) und Autoregressive Prozesse mit stochastischen Koeffizienten von Nicholls und Quinn (1982), zum anderen lineare Modelle wie das Modell von Box und Jenkins (1970). Im Folgenden wird das sog. ARIMA-Modell (engl. autoregressive integrated moving average) verwendet, das zur Klasse der linearen Modelle zählt (siehe Anhang A1). Es ist eines der Standardmodelle in der Zeitreihenanalyse. 4.1.2 ARIMA-Modell Das ARIMA-Modell gehört zu den linearen stochastischen Prozessen, und stellt eine Mischung aus AR- und MA-Modellen (siehe Anhang A1) dar. Zunächst wird ein ARMA(p,q)-Prozess betrachtet. Dabei setzt sich der gegenwärtige Wert der Zeitreihe Yt aus den vergangenen Zeitreihenwerten Yt −1 , Yt − 2 ,..., Yt − p sowie aus vergangenen und gegenwärtigen Schocks Z t , Z t −1 ,..., Z t − q zusammen (vgl. Rinne/ Specht, 2002, S. 168): (4.1.2.1) Yt − π 1Yt −1 − ... − π p Yt − p = ψ 1 Z t −1 + ... + ψ q Z t − q + Z t Die Schocks Z t , Z t −1 ,..., Z t − q entstehen aus einem White-Noise-Prozess (siehe Anhang A1), einer Folge stochastisch unabhängiger und identisch verteilter Zufallsvariablen. Die Parameter π 1 ,..., π p und ψ 1 ,...,ψ q geben die jeweilige Gewichtung an. Voraussetzung für diese Darstellung ist, dass die Zeitreihen schwach stationär sind (vgl. Rinne/ Specht 2002, S. 284), also zu jeder Zeit den gleichen Erwartungswert und eine nur vom Zeitabstand abhängige Kovarianz (siehe Anhang A1) haben. Dies ist jedoch häufig bei ökonomischen Daten nicht gegeben, da die Zeitreihen Zyklen oder Trends beinhalten. 16 Beitrag zum Postbank Finance Award 2009 Um das Modell in solchen Fällen trotzdem anwenden zu können, betrachtet man nicht die Zeitreihe selbst, sondern eine geeignete d-fache Differenz (vgl. Rinne/ Specht 2002, S. 284 und Anhang A1). Das neue Modell wird integriertes ARMA-Modell der Ordnung (p,q) genannt, oder auch kurz ARIMA(p,d,q). 4.1.3 Spezifikation, Schätzung und Diagnose Um Prognosen mithilfe eines ARIMA-Modells zu erstellen, muss zunächst ein Modell angepasst werden. Dies geschieht nach Box und Jenkins (1970) in mehreren Phasen. Die Modellspezifikation bildet den Ausgangspunkt des Ansatzes. Hier wird entschieden, welche Parameter (p,d,q) für das ARIMA-Modell zu wählen sind. Die Wahl der Parameter steht zu diesem Zeitpunkt keineswegs fest, besonders während der Diagnosephase wird häufig nachspezifiziert (vgl. Schlittgen/ Streitberg 2001, S. 288). Falls die vorliegende Reihe nicht stationär ist, muss sie durch Differenzenbildung (siehe Anhang A1) in eine möglichst stationäre Reihe überführt werden (vgl. Schlittgen/ Streitberg 2001, S. 289). Im weiteren Verlauf wird stets eine bereits geeignet differenzierte Zeitreihe betrachtet. Anschließend folgt die größere Herausforderung, die Bestimmung der Parameter p und q: Nach dem klassischen Box-Jenkins-Ansatz betrachtet man die empirische Autokorrelationsfunktion und die empirische partielle Autokorrelationsfunktion (siehe Anhang A1). Aus bestimmten Mustern, die diese Funktionen aufweisen, kann man Rückschlüsse auf die dem Modell zugrunde liegenden Parameter ziehen. Außerdem kann man Modell-Selektionskriterien benutzen. Diese beruhen darauf, dass einerseits durch mehr freie Parameter eine bessere Anpassung gelingt, aber andererseits das Prinzip der Sparsamkeit angewandt werden muss, da mehr Parameter Instabilität bringen. Es ist also ein guter Kompromiss zu finden. Dazu gibt es verschiedene Kriterien, z.B. Akaike’s (1974) Information Criterion (AIC) 17 Beitrag zum Postbank Finance Award 2009 und das Schwarz-Bayes (vgl. Schwarz, 1978) Criterion (SBC), die die Verwendung zusätzlicher Parameter bestrafen. Bei der Modellschätzung geht es darum, die Parameter des Prozesses zu schätzen, nachdem die Modellordnung spezifiziert wurde, d.h. man sucht nun die Gewichte des ARIMA(p,d,q)-Prozesses. Für die Schätzung verwendet man z.B. die Momentenmethode oder die Maximum-Likelihood-Methode (siehe Anhang A1). Im nächsten Schritt, der Modelldiagnose, soll festgestellt werden, ob die vorliegende Reihe von dem spezifizierten und geschätzten ARIMA-Prozess generiert wurde. Dazu kann man z.B. die Kenngrößen der Reihe mit denen des Prozesses vergleichen. Oft wird die theoretische Autokorrelationsfunktion der Daten mit der des geschätzten Modells verglichen. Man trägt beide Funktionen in einem Diagramm auf und beurteilt visuell, ob es große Unterschiede zwischen der Reihe und dem Prozess gibt (vgl. Schlittgen/ Streitberg, 2001, S. 322ff.). Eine andere Methode untersucht die Autokorrelationen der Residuenreihe (vgl. Schlittgen/ Streitberg, 2001, S. 327). Falls das angenommene Modell zutrifft, sollten die Residuen eine Realisierung eines White-Noise-Prozesses sein, und damit unkorreliert. Schließlich wendet man das gewählte Modell auf die Zeitreihe an, um beispielsweise Zukunftsszenarien zu generieren. 4.2 4.2.1 Modellierung der Zeitreihe Modellierung der Innovationen Um die beschriebenen ökonomischen Größen geeignet fortzuschreiben, müssen die Innovationen Z t modelliert werden, die sich aus folgender Formel ergeben: (4.2.1.1) Z t = Yt − π 1Yt −1 − ... − π p Yt − p − ψ 1 Z t −1 − ... − ψ q Z t − q Zur Modellierung werden zwei verschiedene Wege verfolgt: ein parametrischer und ein nicht-parametrischer Ansatz. Beim parametrischen Ansatz müssen zunächst Annahmen über die Verteilung der Innovationen getroffen werden: 18 Beitrag zum Postbank Finance Award 2009 • Geht man von einer Normalverteilung aus, so müssen zwei Parameter geschätzt werden: Mittelwert und Standardabweichung. • Legt man eine schiefe t-Verteilung zugrunde, so sind vier Parameter zu bestimmen: Lage, Skalierung, Form und Freiheitsgrad. Die Annahme der Normalverteilung stellt einen naiven Ansatz dar, der den besonderen Eigenschaften von ökonomischen Größen nicht immer gerecht wird. Mit der schiefen t-Verteilung wird dagegen berücksichtigt, dass finanzwirtschaftliche Größen wie Preisinidizes oder Zinsspreads oftmals nicht normalverteilt sind, sondern Charakteristika wie Schiefe und leptokurtotische Effekte aufweisen (vgl. Rinne/ Specht, 2002, S. 325-327). Um die Parameter der Verteilungen zu schätzen, werden die ersten vier empirischen Momente der Residuen untersucht. Dies geschieht mit der Maximum-Likelihood-Methode (siehe Anhang A1). Folgend wird die Validität der getroffenen Verteilungsannahme geprüft: Mit dem Jarque-Bera-Test wird untersucht, ob die Innovationen einer Normalverteilung folgen (vgl. Bera/ Jarque, 1980), und der Kolmogorow-Smirnow-Test dient zur Prüfung der Güte der angepassten schiefen t-Verteilung an die Residuen (vgl. Chakravarti, 1967, S. 392-394). Im nicht-parametrischen Ansatz werden keine Verteilungsannahmen getroffen, sondern das Bootstrap-Verfahren angewendet (siehe Anhang A2). Es handelt sich um eine computerbasierte Methode, um Aussagen über die Genauigkeit von statistischen Schätzern zu erhalten (vgl. Boos, 2003). In der vorliegenden Arbeit werden Zeitreihen betrachtet, d.h. zeitlich geordnete Folgen von Beobachtungen, bei denen in der Regel stochastische Abhängigkeit gegeben ist. Somit kann der Bootstrap nicht ohne weiteres angewendet werden, da ohne Beachtung der Autokorrelationsstruktur der Zeitreihe die Asymptotik der gewonnenen Verteilung der Statistik beim Ziehen mit Zurücklegen nicht mehr gewährleistet ist (vgl. Efron/ Tibshirani, 1993, S. 86, 90-92). 19 Beitrag zum Postbank Finance Award 2009 Erweiterungen der Bootstrap-Methodologie, um vorhandene Autokorrelationsstrukturen in Zeitreihen explizit zu berücksichtigen, sind im Allgemeinen • der modellbasierte Bootstrap (vgl. Efron/ Tibshirani, 1986; Chatterjee, 1986 und Neto/ Souza, 1996) und • Varianten des Moving Blocks Bootstrap (vgl. Künsch, 1989). In dieser Arbeit werden der modellbasierte Ansatz und ein Ansatz basierend auf dem Moving Blocks Bootstrap, der Stationary Bootstrap (vgl. Politis/ Romana, 1994), verwendet. Beim modellbasierten Bootstrap wird die Autokorrelationsstruktur der Zeitreihe durch ein parametrisches Modell abgebildet. Das Ziehen mit Zurücklegen erfolgt aus den Modellresiduen (vgl. Efron/ Tibshirani, 1993, S. 95-96). Die Validität des modellbasierten Bootstraps wurde von Efron und Tibshirani (1986) für autoregressive Modelle erster Ordnung, von Chatterjee (1986) für AR(2)- sowie ARMA(1,1)-Prozesse und unter anderem von Lorenzo, Romo und Ruiz (2004) für allgemeine ARIMA(p,d,q)-Modelle gezeigt. Liegt eine stationäre Zeitreihe vor, wird ein ARMA(p,q)-Modell an die Daten angepasst. Mit der Maximum-Likelihood-Methode werden die Modellresiduen gemäß (4.2.1.1) erzeugt. Ist das spezifizierte ARMA(p,q)-Modell das korrekte Modell, liegen unabhängig und identisch verteilte Residuen Z t vor. Es sei Z it* die i-te Bootstrap-Stichprobe vom Umfang n für i = 1,2,…,B, die durch Ziehen mit Zurücklegen aus den Modellresiduen Z t gewonnen worden ist. Mit dem originären ARMA(p,q)-Modell und den zugehörigen Paramaterschätzern wird rekursiv eine Bootstrap-Zeitreihe erzeugt. Auf deren Basis wird die gewünschte Statistik berechnet und die Verteilung des Schätzers im Umfang B ermittelt (vgl. Neto/ Souza, 1996, S. 345). Für die rekursive Modellierung der Boostrap-Zeitreihe werden p Startwerte benötigt. Diese können durch Fixierung der ersten p Beobachtungen aus der Originalzeitreihe gewonnen werden oder durch Erzeugung aus der zugrunde liegenden bedingten Randverteilung der jeweiligen Zeitreihe (vgl. Neto/ Souza, 1996, S. 346). 20 Beitrag zum Postbank Finance Award 2009 Der originäre Moving Blocks Bootstrap nach Künsch (1989) stellt eine nichtparametrische Alternative zum modellbasierten Bootstrap dar, bei der die Abhängigkeiten mit Blöcken modelliert werden (vgl. Efron/ Tibshirani, 1993, S. 101-102). Eine Weiterentwicklung folgte 1994 von Politis und Romana, nämlich der Stationary Bootstrap. 4.2.2 Simulation und Evaluation Die zukünftige Entwicklung der Zeitreihen wird nun mithilfe einer Monte-CarloSimulation untersucht. Diese Methode basiert auf dem Gesetz der großen Zahlen: Ein Zufallsexperiment wird sehr oft wiederholt, um daraus Schlüsse auf die Verteilung von Zufallsgrößen zu ziehen (vgl. z.B. Arndt/ Haenel, 1999). Das anfangs spezifizierte ARIMA-Modell wird nun für den gewünschten Prognosezeitraum mit h Schritten fortgeschrieben. Mithilfe des Monte-CarloVerfahrens werden pro Zeitreihe 100.000 h-Schritt-Simulationen durchgeführt. Man erhält 100.000 Szenarien über die mögliche Entwicklung der Zeitreihen. Für jede h-Schritt-Simulation werden jeweils h Innovationen benötigt, um die Reihe fortzuschreiben. Die Erzeugung der Innovationen erfolgt auf zweierlei Weise: Im parametrischen Ansatz werden die benötigten Parameter der Verteilungen aus den empirischen Innovatonen geschätzt. Aus den so spezifizierten Verteilungen werden Zufallszahlen gezogen, die jeweils in Vektoren der Länge h geschrieben werden. Schließlich wird die Zeitreihe mit den Innovationen aus den generierten Vektoren fortgeschrieben. Im nicht-parametrischen Ansatz wird eine Erweiterung des Bootstrap-Verfahrens verwendet (vgl. Lorenzo/ Romo/ Ruiz, 2004, S. 453-455): Als erstes wird mit Zurücklegen aus den Residuen des spezifizierten Modells gezogen, und daraus rekursiv eine neue Bootstrap-Zeitreihe aufgebaut. Das Modell wird erneut an die Bootstrap-Zeitreihe angepasst. Schließlich wird das Bootstrap-Modell mit den Innovationen aus den empirischen Residuen des Originalmodells fortgeschrieben. 21 Beitrag zum Postbank Finance Award 2009 Schließlich müssen die Szenarien ausgewertet werden. Interessant sind in der vorliegenden Arbeit die 1% und 0,1% Worst-Case-Szenarien, also die 1000 bzw. 100 schlechtesten Fälle aus den 100.000 simulierten Szenarien. 22 Beitrag zum Postbank Finance Award 2009 5 Empirische Implementierung des Simulationsmodells Wir untersuchen folgende Zeitreihen: - den US Immobilienindex HPI (House Price Index), der vom Office of Federal Housing Enterprise Oversight ermittelt wird. Gegenüber dem ebenfalls häufig verwendeten Case/Shiller-Index hat er den Vorteil einer längeren Datenverfügbarkeit. Der HPI basiert wie der Case/Shiller auf der Repeat-Sales Method und wird in den USA oft zur Verfolgung des Marktgeschehens verwendet, z.B. von den Immobilienfinanzierern Fannie Mae und Freddie Mac. - die Arbeitslosenrate in den USA UER. Wir wählen diese Größe, da wir auch Szenarien über die realwirtschaftliche Lage erstellen wollen. - die Differenz (Spread) zwischen dem 3-Monats-LIBOR (USD) L3M und der Federal Funds Rate FFR, von uns im Weiteren als LFS bezeichnet. Je höher der Spread, desto teurer ist es für Banken, sich von anderen Banken Geld zu leihen. In dem Anstieg dieser Differenz im August 2007 und später noch einmal nach der Insolvenz von Lehman manifestiert sich die Liquiditätskrise, die zu einem zentralen Element der aktuellen Finanzkrise geworden ist. Wir möchten daher auch untersuchen, inwiefern diese Liquiditätsproblematik im Rahmen einer Worst-Case-Analyse als möglich vorhergesagt worden wäre. 5.1 Datengrundlage Die zu untersuchenden Zeitreihen sind der vierteljährlich verfügbare HPI, die saisonbereinigte UER, ebenfalls auf vierteljährlicher Basis, und der monatliche LFS. Die Datenquelle des HPI ist das Office of Federal Housing Enterprise Oversight 8. Die Zeitreihe der UER ist vom US Bureau of Labor Statistics 9, und die des LFS setzt sich aus einer gemischten Datenquelle zusammen: Der L3M stammt aus dem Bloomberg System 10, die FFR vom US Board of Governors of the Federal Reserve System 11. Der HPI und die UER umfassen jeweils 122 Zeitreihenwerte, der LFS 246 Beobachtungen. 8 Quelle: http://www.ofheo.gov/ Quelle: http://www.bls.gov/ 10 Kennung: US0003M 11 Quelle: http://www.federalreserve.gov/ 9 23 Beitrag zum Postbank Finance Award 2009 Der Schätzraum des HPI und der UER reicht vom 1. Quartal 1975 bis zum 2. Quartal 2005. Der LFS erstreckt sich von Januar 1985 bis Juni 2005. Die Daten wurden zur Untersuchung mit dem All Urban Consumer Price Index des US Bureau of Labor Statistics zum 2. Quartal 2005 bzw. Juni 2005 deflationiert. Reale Risikoszenarien werden für den HPI und die UER vom 3. Quartal 2005 bis zum 3. Quartal 2008 und für den LFS von Juli 2005 bis September 2008 simuliert. Die zukünftigen Perioden umfassen somit 13 Quartale bzw. 39 Monate. Alle Beobachtungen wurden vor der Modellanpassung logarithmiert. Die simulierten Szenarien werden zur besseren Darstellung entlogarithmiert, außerdem stellen wir die Szenarien für die Ursprungsreihe dar, selbst wenn sie für die Modellschätzung aus Stationaritätsgründen differenziert wurde. Signifikanztests erfolgen zum Niveau α = {0,1; 0,05; 0,01}. Die {0,01; 0,001}bzw. {0,99; 0,999}-Quantile dienen der Evaluation von Worst-Case-Szenarien aus den erzeugten Verteilungen der h-Schritt-Simulationen für die untersuchten ökonomischen Größen. 5.2 Deskriptive Statistik Zu Beginn wird der HPI betrachtet (vgl. Abb. 5). Es liegt visuell mindestens ein linearer Trend vor. Die gefilterte Reihe des HPI mit einem Differenzenfilter zweiter Ordnung lässt keine Trends mehr erkennen (Filterung erster Ordnung ist nicht aufgeführt, zeigt aber einen deutlichen Trend in der zweiten Hälfte), so dass ein quadratischer Trend angenommen wird. Es sind zwei globale Extrema auszumachen: Ein Maximum zum 3. Quartal 1980 und ein Minimum zum 3. Quartal 1980 der zweimal differenzierten Reihe. Der Median liegt mit 0,000040 sehr nahe am Mittelwert von 0,00013, was auf eine symmetrische Verteilung schließen lässt. 24 Beitrag zum Postbank Finance Award 2009 5.6 5.4 ln(HPI) 5.8 Abb. 5: Verlauf des vierteljährlichen Immobilienpreisindex HPI (1975-2005) 75/Q1 79/Q4 84/Q4 89/Q4 94/Q4 99/Q4 04/Q4 0.00 -0.04 2 (ln(HPI)) 0.04 Jahr/Quartal 75/Q3 80/Q2 85/Q2 90/Q2 95/Q2 00/Q2 05/Q2 Jahr/Quartal Quelle: Eigene Erstellung, eigene Darstellung. In Abbildung 6 ist die UER dargestellt. Es liegt visuell mindestens ein linearer Trend vor, der durch Bildung der ersten Differenz verschwindet. Es kann demnach von einem linearen Trend ausgegangen werden. Es sind zwei globale Extrema zu erkennen: Zum 2. Quartal 1980 liegt ein Maximum vor und zum 3. Quartal 1983 ein Minimum. Ein weiteres lokales Maximum findet sich zum 4. Quartal 2001. Der Median ist mit -0,017 kleiner als der Mittelwert mit -0,004. Daher kann von einer positiven Schiefe, d.h. einer linkssteilen Verteilung der UER ausgegangen werden. 25 Beitrag zum Postbank Finance Award 2009 2.2 1.8 1.4 ln(UER) Abb. 6: Verlauf der vierteljährlichen US-Arbeitslosenrate UER (1975-2005) 75/Q1 79/Q4 84/Q4 89/Q4 94/Q4 99/Q4 04/Q4 00/Q1 05/Q1 0.10 0.00 -0.10 1 (ln(UER)) Jahr/Quartal 75/Q2 80/Q1 85/Q1 90/Q1 95/Q1 Jahr/Quartal Quelle: Eigene Erstellung, eigene Darstellung. Bei Betrachtung des LFS (vgl. Abb. 7) fällt kein direkter Trend auf, jedoch ein sehr sprunghaftes Verhalten im Mittelwert. So findet sich im September 2001 ein globales Minimum und im Juni 2004 ein globales Maximum. Sonst weist die Reihe sehr viele lokale Extrema auf. Daher kann von ausgeprägten Tails der Verteilung ausgegangen werden. Der Median ist mit 0,051 fast identisch mit dem Mittelwert von 0,059, was auf eine symmetrische Verteilung hindeutet, aber wegen vieler Extrema nicht überbewertet werden darf. 26 Beitrag zum Postbank Finance Award 2009 Abb. 7: Verlauf des monatlichen LFS, der Differenz zwischen 3-Monats-Libor 0.2 -0.1 0.0 0.1 ln(L3M)-ln(FFR) 0.3 0.4 L3M und Federal Funds Rate FFR 85/01 88/04 91/08 94/12 98/04 01/08 04/12 Jahr/Monat Quelle: Eigene Erstellung, eigene Darstellung. Die Stationarität der Zeitreihen wird mit dem erweiterten (augmented) DickeyFuller-Test (ADF) geprüft, der die Nullhypothese einer Einheitswurzel (siehe Anhang A1) testet. Es werden drei Modelle getestet: ein gewöhnliches Random Walk-Modell, ein Random Walk mit Drift und ein Random Walk mit Drift und zusätzlichem deterministischem Trend (vgl. Tab. 1). Die Modellordnung wird mit dem Selektionskriterium AIC bestimmt: 27 Beitrag zum Postbank Finance Award 2009 Tab. 1: Test auf Stationarität (p-Wert in Klammer) ADF (Random Walk) ADF (+Drift) ADF (+Drift +Trend) 3,614010 (0,90) 4,157907 (0,95) 2,218618 (> 0,99) 1 ∇ (ln(HPI)) -2,455071 (0,01594516) -2,861185 (0,05442174) -3,125266 (0,1091117) 2 ∇ (ln(HPI)) -14,89035 (< 0,01) -14,84861 (< 0,01) -14,78499 (< 0,01) -1,092946 (0,9248314) -2,413684 (0,1752387) -2,853476 (0,2219738) -5,897826 (< 0,01) -5,936891 (< 0,01) -5,93096 (< 0,01) -3,909094 (< 0,01) -5,21597 (< 0,01) -5,488144 (< 0,01) ln(HPI) ln(UER) 1 ∇ (ln(UER)) ln(L3M)-ln(FFR) Quelle: Eigene Erstellung, eigene Darstellung. Es wird bei allen drei Testmodellen deutlich, dass für die Zeitreihe des HPI ein quadratischer Trend vorliegt, so dass ein Differenzenfilter zweiter Ordnung nötig ist, um Stationarität herzustellen. Beim UER ist dagegen nur ein linearer Trend vorhanden, so dass ein einfacher Differenzenfilter ausreicht. Der LFS ist bereits als stationär anzunehmen. Da der LFS ein sehr sprunghaftes Verhalten zeigt, und dies zu Problemen bei der Identifizierung von Einheitswurzeln mittels des ADFTests führt (vgl. Rinne/ Specht, 2002, S. 366), wird zusätzlich der KwiatkowskiPhillips-Schmidt-Shin-Test (vgl. Kwiatkowski et al., 1992) durchgeführt. Er testet u.a. die Nullhypothese der Trendstationarität. Diese kann nur auf dem 1%-Niveau verworfen werden (Prüfgröße = 0,1984 ; p-Wert = 0,01659 ). Beim Test der Nullhypothese der Niveaustationarität kann diese mit einem p-Wert von 0,02085 (Prüfgröße = 0,6196 ) ebenfalls nur auf einem 1% Niveau verworfen werden. Auf Basis dieser Ergebnisse wird die Annahme der Stationarität des LFS getroffen. Bei Untersuchung der ersten vier empirischen Momente der gefilterten Daten (vgl. Tab. 2) kann die durch visuelle Kontrolle der Zeitreihen positive Kurtosis bestätigt werden. Die Wölbung des LFS ist nach bisherigen Betrachtungen erwartungsgemäß am höchsten. Die Tails des HPI sind ausgeprägter als die der UER. Die Schiefe ist bei der UER am größten, gefolgt vom LFS. Das sprunghafte Verhalten der Reihe verfälscht somit die Aussage aus dem Vergleich von Median und Mittelwert. Der HPI hat eine leicht negative Schiefe nahe Null. Die Momente bedingen, dass der Jarque-Bera-Test (JB), der die Nullhypothese der Normalverteilung prüft, zu hohe Werte annimmt. Bei keiner der Reihen kann 28 Beitrag zum Postbank Finance Award 2009 demnach zu den gegebenen Signifikanzniveaus von einer normalverteilten Grundgesamtheit ausgegangen werden. Tab. 2: Empirische Momente der (gefilterten) Zeitreihen Mittelwert Std.abw. Schiefe Kurtosis JB (p-Wert) 2 ∇ (ln(HPI)) 0,0001298036 0,01096195 -0,003600021 4,921316 19,4575 (9,817e-05) 1 ∇ (ln(UER)) -0,003924741 0,04302898 0,9891432 4,242988 27,5206 (1,057e-06) 0,05895278 0,07319207 0,797514 6,485412 150,5952 (< 2,2e-16) ln(L3M)-ln(FFR) Quelle: Eigene Erstellung, eigene Darstellung. In Tabelle 3 wird das erste Moment auf Signifikanz geprüft, um später entscheiden zu können, ob das ARIMA-Modell eine Konstante enthalten soll: Tab. 3: Signifikanz des ersten empirischen Moments 2 ∇ (ln(HPI)) 0,1297147 (0,8967921) t-Statistik (p-Wert) BCa-Intervalle (# 10.000) 1 ∇ (ln(UER)) -1,003327 (0,3157030) ln(L3M)-ln(FFR) 12,63304 (1,388110e-36) α 10 % [-0,000363; 0,000572] [-0,013347; 0,007010] [0,041873; 0,081138] 5% [-0,000474; 0,000663] [-0,015209; 0,009368] [0,038896; 0,085452] 1% [-0,000679; 0,000871] [-0,018141; 0,013212] [0,033466; 0,094294] (z0; â) (-0,045386; -5,47e-05) (0,019302; 0,014987) (0,060195; 0,008475) Quelle: Eigene Erstellung, eigene Darstellung. Die t-Statistik zeigt, dass die Mittelwerte bzw. Drifts von HPI und UER nicht signifikant von Null verschieden sind. Die Anwendung des Stationary Bootstraps bestätigt diese Aussage. Auf allen drei Signifikanzniveaus ist die Null im BCaIntervall (siehe Anhang A2) enthalten. Die optimale erwartete Blocklänge wird hier und im Weiteren mit dem Algorithmus, der in Politis und White (2003) sowie Patton, Politis und White (2008) beschrieben ist, bestimmt. Die Reihe des LFS zeigt dagegen nach der t-Statistik sowie den Bootstrap-BCa-Intervallen, dass die Drift signifikant von Null verschieden und positiv ist (vgl. Tab. 3). 29 Beitrag zum Postbank Finance Award 2009 5.3 Modellierung der Daten 5.3.1 Modellidentifikation In Abbildung 8 sind die (partiellen) Autokorrelogramme der drei gefilterten Zeitreihen zusammengestellt: 0.2 -0.4 -0.2 0.0 Autokorrelation Abb. 8: (Partielle) Autokorrelogramme 5 10 15 20 Lag 30 Beitrag zum Postbank Finance Award 2009 Null verschieden. Außerdem schwingt sie langsam sinusförmig aus. Ausgehend von der ersten Differenz ist das Muster eines ARI(1,1)-Modells zu erkennen. Die Partielle Autokorrelationsfunktion des LFS hat einen deutlich signifikanten Wert bei Lag 1. Alle anderen Werte sind nicht signifikant von Null verschieden. Die Autokorrelationsfunktion zeigt ein langsam exponentiell ausklingendes Muster, wobei nach Lag 10 keine signifikant von Null verschiedenen Autokorrelationen mehr vorhanden sind, so dass auf ein AR(1)-Modell geschlossen wird Die Identifikation wird nachfolgend mit Hilfe von Informationskriterien unter dem Aspekt des Prinzips der Sparsamkeit verfeinert (vgl. Anhang B, Tab. B1): Beim Vergleich der Modellselektionskriterien wird nach dem AIC für den HPI mit einem Wert von -785,66 ein stark parametrisiertes ARIMA(3,2,1)-Modell ausgewählt und nach dem SBC ein ARI(2,2)-Modell mit einem Wert von -778,84. Da das AIC dazu neigt, überparametrisierte Modelle zu bevorzugen (vgl. Schlittgen/ Streitberg, 2001, S. 339), und in der vorhergehende Mustererkennung unter anderem dieses Modell identifiziert werden konnte, wird das ARI(2,2)Modell für den HPI als Arbeitsmodell gewählt. Für die UER wird nach dem AIC ein stark parametrisiertes ARIMA(3,1,3) Modell mit einem Wert von -461,50 bevorzugt. Das SBC präferiert dagegen ein sparsames ARI(1,1)-Modell mit einem Wert von -457,54. Dieses wird für die UER als Arbeitsmodell gewählt, da es auch mit der (partiellen) Autokorrelationsfunktion identifiziert werden konnte. Bei der Zeitreihe des LFS wählen beide Kriterien ein sparsames AR(1)-Modell aus, das AIC mit einem Wert von -826,67 und das SBC mit einem Wert von - 816,15 . Dieses Modell wird als Arbeitsmodell verwendet. 5.3.2 Modellschätzung und -diagnose Die identifizierten Arbeitsmodelle werden mit Hilfe der Maximum-LikelihoodMethode (ML-Methode) geschätzt (siehe Anhang A1). Um zu entscheiden, ob die Koeffizienten signifikant von Null verschieden sind, wird ein t-Test durchgeführt. Zur Absicherung der Parametersignifikanz wird eine Analyse mittels des modellbasierten Bootstraps durchgeführt. Außerdem werden die Modellresiduen 31 Beitrag zum Postbank Finance Award 2009 auf ihre empirischen Momente sowie auf noch bestehende Autokorrelationen untersucht. Tab. 4: Parameterschätzungen und t-Test ARI(2,2;ln(HPI)) ARI(1,1;ln(UER)) AR(1;ln(L3M)-ln(FFR)) Parameter ar1 ar2 ar1 Drift ar1 ML-Schätzer -0,5125658 -0,4890240 0,5721407 0,06017695 0,79257651 Std.fehler 0,08087538 0,08141392 0,07564258 0,013459039 0,038540385 t-Statistik (p-Wert) -6,337724 (2,331841e-10) -6,006639 (1,894086e-09) 7,563739 (3,916452e-14) 4,471118 (7,781175e-06) 20,56483 (5,669823e-94) Quelle: Eigene Erstellung, eigene Darstellung. Alle Parameter der ausschließlich autoregressiven Modelle sind laut t-Statistik und zugehörigem p-Wert signifikant. In den Prozessgleichungen für den HPI und die UER wurde die Konstante unterdrückt. Das Modell für den LFS wurde unter der Annahme eines signifikanten Mittelwertes geschätzt. Ein t-Wert von ca. 4,47 bestätigt das erwartete Ergebnis eines positiven von Null verschiedenen Drifts. In Tabelle 5 werden die Momente der Modellresiduen untersucht: Tab. 5: Empirische Momente der Modellresiduen Mittelwert Std.abw. Schiefe Kurtosis JB (p-Wert) ARI(2,2;ln(HPI)) 0,0004056267 0,00878593 0,6127142 4,173557 14,1546 (0,000844) ARI(1,1;ln(UER)) -0,002559274 0,03513016 0,5843702 4,011214 11,9425 (0,002551) AR(1;ln(L3M)-ln(FFR)) 4,792451e-05 0,04463238 0,7922874 6,475222 148,9197 (< 2,2e-16) Quelle: Eigene Erstellung, eigene Darstellung. Die Effekte in den Momenten der Modellresiduen, wie sie in den gefilterten Originaldaten zu finden waren, sind immer noch vorhanden: eine positive, nahezu unveränderte Kurtosis und eine durchweg positive Schiefe. Hatte der HPI anfangs noch eine leicht negative Schiefe nahe Null, so ist nun eine Erhöhung festzustellen. Keine der Modellresiduen entstammen einer normalverteilten 32 Beitrag zum Postbank Finance Award 2009 Grundgesamtheit gemäß dem Jarque-Bera-Test. Die nachfolgende BootstrapAnalyse zur Parametersignifikanz erhält somit besondere Bedeutung, weil der tTest auf der Normalapproximation der Residuen basiert, und diese vor allem für den LFS auf einem hohen Signifikanzniveau nicht erfüllt ist. Bei Betrachtung der Autokorrelation der Modellresiduen wird der Ljung-Box-Test verwendet (vgl. Ljung/ Box, 1978), der die Nullhypothese prüft, dass keine Autokorrelation vorliegt. Untersucht werden für den HPI und UER die ersten 20 Lags und für den LFS die ersten 30 Lags. Die Festlegung der Lags erfolgt nach der Faustregel Lags = 2 ⋅ n mit n als Anzahl der Zeitreihenwerte (vgl. Rinne/ Specht, 2002, S. 411). Anhand der Prüfgröße und den zugehörigen p-Werten ist zu erkennen, dass die gewählten Modelle die Autokorrelation sehr gut einfangen. Die Nullhypothese der Unabhängigkeit kann zu keinem gegebenen Signifikanzniveau verworfen werden (vgl. Tab. 6). Tab. 6: Autokorrelation der Modellresiduen (p-Wert in Klammer) Lag 5 10 15 20 25 30 ARI(2,2;ln(HPI)) 2,326598 7,368142 13,25225 5,710561 (0,5074446) (0,6796165) (0,8821966) (0,7763749) - - ARI(1,1;ln(UER)) 1,743911 8,060832 17,12448 10,10652 (0,7827265) (0,5280276) (0,7543549) (0,5814348) - - AR(1;ln(L3M)-ln(FFR)) 2,300506 9,121862 10,72038 13,90158 17,25933 24,18336 (0,6806769) (0,4261022) (0,7078493) (0,7893981) (0,8373928) (0,7198398) Quelle: Eigene Erstellung, eigene Darstellung. Da die Modellresiduen somit weißes Rauschen mit einer unbekannten Verteilung darstellen und geeignete Modelle zur Modellierung der Zeitreihen identifiziert worden sind, kann der modellbasierte Bootstrap zur Signifikanzprüfung angewandt werden. In Tabelle 7 sind die Bootstrap-Standardfehler und die BCaIntervalle der Parameter der jeweiligen Modelle angegeben. Die Intervalle wurden zu den gegebenen Signifikanzniveaus errechnet. 33 Beitrag zum Postbank Finance Award 2009 Tab. 7: Signifikanzprüfung mittels modellbasierten Bootstraps ARI(2,2;ln(HPI)) ARI(1,1;ln(UER)) AR(1;ln(L3M)-ln(FFR)) Parameter ar1 ar2 ar1 mean ar1 ML-Schätzer -0,5125658 -0,4890240 0,5721407 0,06017695 0,79257651 Std.fehler 0,08101438 0,08057525 0,07665666 0,01328763 0,04044595 BCa-Intervalle (# 10.000) α 10 % [-0,642321; -0,377829] [-0,609844; -0,345213] [0,449419; 0,695032] [0,039005; 0,082454] [0,741077; 0,861056] 5% [-0,663647; -0,347218] [-0,632338; -0,317772] [0,425866; 0,715612] [0,034837; 0,087042] [0,727275; 0,869706] 1% [-0,707735; -0,288389] [-0,673887; -0,258960] [0,374682; 0,767218] [0,025913; 0,096550] [0,700030; 0,880971] (-0,038361; 0,009539) (0,052412; 0,044307) (0,014539; 0,008931) (0,356054; 0,026545) (z0; â) (0,005013; -0,009331) Quelle: Eigene Erstellung, eigene Darstellung. Die Standardfehler der Modellparameter für den HPI und die UER sind ähnlich den geschätzten Standardfehlern aus der parametrischen ML-Schätzung. Die BCaIntervalle der Parameter enthalten zu keinem gegebenen Signifikanzniveau die Null, so dass signifikante Schätzer vorliegen. Weiterhin ist eine hohe Verzerrungskonstante bei dem autoregressiven Parameter des Modells für den LFS zu beobachten ( z 0 ≈ 0,36 ). Dies deutet darauf hin, dass die Verteilung des Schätzers von der angenommenen Normalverteilung aus der ML-Schätzung abweicht, was bei der Untersuchung der Modellresiduen gezeigt werden konnte (vgl. Tab. 5). Die identifizierten und geschätzten Modelle für den HPI, die UER und den LFS sind nach vorangegangenen Analysen geeignet, um die Abhängigkeitsstruktur der Zeitreihen adäquat wiederzugeben, und können im Folgenden zur Szenariosimulation verwendet werden. 5.4 Simulation von Risikoszenarien Wie oben beschrieben, verwenden wir zwei Ansätze für die Simulation von Modellinnovationen: die parametrische Modellierung mittels einer Normalverteilung bzw. einer schiefen t-Verteilung und die nicht-parametrische Erzeugung der Verteilung aus den empirischen Innovationen. 34 Beitrag zum Postbank Finance Award 2009 Im parametrischen Fall der Normalverteilung werden zunächst die ersten beiden empirischen Momente der Residuen für HPI, UER und LFS geschätzt und mittels Bootstrap auf Verzerrung und Signifikanz geprüft: Tab. 8: Verzerrung und Signifikanz der Residuenmomente ARI(2,2;ln(HPI)) ARI(1,1;ln(UER)) AR(1;ln(L3M)-ln(FFR)) Mittelwert Std.abw. Mittelwert Std.abw. Mittelwert Std.abw. Schätzer 0,0004056267 0,00878593 -0,002559274 0,03513016 4,792451e-05 0,04463238 Std.fehler 0,0008029338 0,007144687 0,003198192 0,002763329 0,002821937 0,003332212 Verzerrung 3,306694e-06 -6,710614e-05 1,007332e-05 -0,0002769596 4,045085e-06 -0,000227779 |Verzerrungs-Ratio| 0,004118264 0,09392453 0,003149692 0,1002268 0,001433443 0,06835669 entzerrter Schätzer 0,00040232 0,008853036 -0,002569347 0,03540712 4,387942e-05 0,04486015 10 % [-0,000885; 0,001755] [0,007789; 0,010225] [-0,007696; 0,002887] [0,031151; 0,040549] [-0,004469; 0,004846] [0,039913; 0,051158] 5% [-0,001126; 0,002005] [0,007610; 0,010563] [-0,008658; 0,004041] [0,030412; 0,041572] [-0,005419; 0,005737] [0,037651; 0,055177] 1% [-0,001549; 0,002641] [0,007283; 0,011099] [-0,010382; 0,006269] [0,029085; 0,043605] [-0,007120; 0,007912] [0,037651; 0,055177] (z0; â) (-0,001504; 0,009401) (0,102449; 0,061689) (0,001755; 0,008891) (0,105726; 0,048600) (0,002005; 0,008436) (0,079795; 0,059289) BCa-Intervalle (# 10.000) α Quelle: Eigene Erstellung, eigene Darstellung. Wie in Tabelle 8 zu erkennen ist, enthalten die BCa-Intervalle des Mittelwertschätzers zu jedem Signifikanzniveau die Null. Die Intervalle des empirischen Schätzers der Standardabweichung enthalten dagegen nur positive Werte, die kleiner Eins sind. Weiterhin werden die ersten beiden empirischen Momente auf Verzerrung geprüft: Die Verzerrungen sind dabei allesamt sehr klein. Die statistische Güte der Schätzer wird mit dem Absolutwert des Quotienten aus Verzerrung und Standardfehler (|Verzerrungs-Ratio|) untersucht (vgl. Efron/ Tibshirani, 1993, S. 128-129). Es zeigt sich, dass jeder Quotient kleiner als der Richtwert 0,25 ist, und somit keine Entzerrung nötig ist. Bei späterer Anpassung der Normalverteilung an die Innovationen werden die zur Simulation benötigten Residuen aus einer zentrierten Normalverteilung erzeugt, wobei die Standardabweichung den empirischen Schätzern aus Tabelle 5 entspricht. 35 Beitrag zum Postbank Finance Award 2009 Die geschätzten ML-Parameter für die schiefe t-Verteilung sind in Tabelle 9 dargestellt: Tab. 9: Schätzer der Parameter einer schiefen t-Verteilung Lage Skalierung Form Freiheitsgrade KS (p-Wert) ARI(2,2;ln(HPI)) -0,006240951 0,009711517 1,261997205 9,192116385 0,0678 (0,9491) ARI(1,1;ln(UER)) -0,02760381 0,03659334 1,17711804 6,99389314 0,0583 (0,9868) AR(1;ln(L3M)-ln(FFR)) -0,01361931 0,02891408 0,45995627 2,73629418 0,0653 (0,673) Quelle: Eigene Erstellung, eigene Darstellung. Die Lage aller drei angepasster Verteilungen ist negativ und nahe Null, was die Bootstrap-Analyse des ersten empirischen Moments stützt. Beim HPI ist die Skalierung am geringsten und die Form am größten, obwohl Schiefe und Kurtosis der Modellresiduen noch hinter denen des LFS liegen (vgl. Tab. 5). Dies wird jedoch durch eine höhere Anzahl an Freiheitsgraden ausgeglichen. Die höchsten Werte der Skalierung und Form hat die Reihe der UER, was ebenfalls in einer hohen Anzahl an Freiheitsgraden resultiert. Hatte der LFS noch die extremsten empirischen Momente (vgl. Tab. 5), so weist er bei der Anpassung der Modellresiduen an eine schiefe t-Verteilung die geringsten Werte an Skalierung und Form auf. Jedoch wird durch eine geringe Anzahl an Freiheitsgraden die Schiefe und Kurtosis der Innovationen betont. Bei Untersuchung der Ergebnisse des Kolmogorow-Smirnow-Tests (KS), der die Nullhypothese prüft, dass zwei Stichproben aus derselben Grundgesamtheit stammen, ist festzustellen, dass zu keinem Signifikanzniveau die Nullhypothese abzulehnen ist. Man kann annehmen, dass die Modellresiduen aus einer schiefen t-Verteilung stammen. Die statistische Relevanz der Verteilung der Innovationen ist somit im Gegensatz zur Normalverteilungsannahme gegeben (vgl. Tab. 5). Im nicht-parametrischen Fall sind keine weiteren Schätzungen im Vorfeld durchzuführen, so dass im nächsten Schritt die Simulationen durchgeführt werden. 36 Beitrag zum Postbank Finance Award 2009 In Abbildung 9 sind die Simulationsergebnisse für den HPI aufgeführt. Die drei Teilabbildungen basieren auf der Normalverteilung, der schiefen t-Verteilung und dem Bootstrap (die genauen Zahlenwerte sind in Anhang B, Tab. B2-B4, aufgeführt). Abb. 9: Worst-Case-Szenarien für den vierteljährlichen Immobilienpreisindex HPI Beobachtung 1%-Worst Case 0.1%-Worst Case 280 HPI 320 360 Normalverteilung 05/Q3 05/Q4 06/Q1 06/Q2 06/Q3 06/Q4 07/Q1 07/Q2 07/Q3 07/Q4 08/Q1 08/Q2 08/Q3 07/Q3 07/Q4 08/Q1 08/Q2 08/Q3 07/Q3 07/Q4 08/Q1 08/Q2 08/Q3 Jahr/Quartal Beobachtung 1%-Worst Case 0.1%-Worst Case 280 HPI 320 360 schiefe t-Verteilung 05/Q3 05/Q4 06/Q1 06/Q2 06/Q3 06/Q4 07/Q1 07/Q2 Jahr/Quartal Beobachtung 1%-Worst Case 0.1%-Worst Case 280 HPI 320 360 Bootstrap 05/Q3 05/Q4 06/Q1 06/Q2 06/Q3 06/Q4 07/Q1 07/Q2 Jahr/Quartal Quelle: Eigene Erstellung, eigene Darstellung. Der HPI erreicht im 4. Quartal 2006 mit 369,82 seinen Höhepunkt. Geht man von diesem Höhepunkt aus, verliert der HPI bis zum 3. Quartal 2008 11,40%. Im Vergleich zum 2. Quartal 2005, dem Beginn der Simulationsanalyse, verliert er 6,64%. Die beiden Worst-Case-Szenarien hätten im Vergleich zum realisierten Verlauf einen noch stärkeren Rückgang vorhergesagt. Die extremsten Risikoszenarien werden mit der Normalverteilungsannahme simuliert. Hier wird beim 1%-Worst37 Beitrag zum Postbank Finance Award 2009 Case-Szenario ein Rückgang um 11,27% im Zeitraum vom 2. Quartal 2005 bis zum 3. Quartal 2008 prognostiziert. Das 0,1%-Worst-Case-Szenario sagt einen Rückgang von 19,27% voraus. Weniger extreme Szenarien prognostiziert die nicht-parametrische Bootstrap-Methode. Die am nächsten an der Realität liegenden Szenarien liefert die schiefe t-Verteilung als Verteilungsapproximation für die Innovationen. Wie hätte eine Bank auf eine solche Szenarioanalyse reagieren sollen? Auf Sicht eines Jahres streben Banken in der Regel an, einen Worst-Case zu überstehen, der mit einer Wahrscheinlichkeit von 0,1% oder weniger eintritt. Dies entspricht in etwa einer Ratingnote von A. Auf Sicht von drei Jahren beträgt die kumulierte Ausfallwahrscheinlichkeit von Unternehmen mit einem A-Rating 0,24% (vgl. Standard and Poor’s 2005). Da die Hauspreise laut der Szenarionalayse mit einer Wahrscheinlichkeit von 1% und mehr auf das Niveau von 2008 fallen konnten, hätten Banken, die das für sie typische Mindestrating von A anstreben, sich auf einen Rückgang der Immobilienpreise vorbereiten müssen, der schlimmer als der tatsächliche gewesen wäre. Sicherlich könnte man argumentieren, dass Finanzinstitute weit geringere Verluste erlitten hätten, wenn die Immobilienpreise in den Jahren 2005 und 2006 nicht noch weiter gestiegen wären. In vielen der simulierten Szenarien beginnen die Preise nämlich schon 2005 zu fallen. Um diesem Argument zu begegnen, untersuchen wir die ex-ante Wahrscheinlichkeiten, dass die Hauspreise sich so entwickelt haben, wie sie es tatsächlich taten: Wir legen einen Korridor um die Zeitreihe des HPI vom 3. Quartal 2005 bis zum 3. Quartal 2008. Dieses Band wird über die Zeit linear breiter. Es wächst von +/- 2% auf +/- 4%. Es ist damit immer noch sehr eng an der tatsächlichen Entwicklung. Zählt man nun in der obigen Simulation, wie oft eine simulierte Zeitreihe innerhalb des Korridors lag, so erhält man bei normalverteilten Innovationen eine Wahrscheinlichkeit von 0,282%. Bei der Bootstrap-Methode erhält man eine Wahrscheinlichkeit von 0,260%, dass die simulierte Zeitreihe innerhalb des Korridors lag. Beide Wahrscheinlichkeiten liegen damit leicht über der Insolvenzwahrscheinlichkeit eines mit dem Rating A bewerteten Unternehmens (0,25%). Wegen der fat tails der schiefen t-Verteilung liegt hier die Wahrscheinlichkeit mit 0,187% leicht unter 0,25%. Die tatsächlich eingetretene Immobilienpreisentwicklung lag damit 38 Beitrag zum Postbank Finance Award 2009 durchaus im Bereich der Möglichkeiten, die Banken im Rahmen ihres Risikomanagements berücksichtigen sollten. Nach der Immobilienpreisentwicklung wenden wir uns der US-Arbeitslosenrate als Indikator für die gesamtwirtschaftliche Entwicklung zu. Die Simulationen sind in Abbildung 10 dargestellt (genaue Zahlen in Anhang B, Tab. B2-B4): Abb. 10: Worst-Case-Szenarien für die vierteljährliche US-Arbeitslosenrate UER 8 10 Beobachtung 1%-Worst Case 0.1%-Worst Case 6 UER 12 Normalverteilung 05/Q3 05/Q4 06/Q1 06/Q2 06/Q3 06/Q4 07/Q1 07/Q2 07/Q3 07/Q4 08/Q1 08/Q2 08/Q3 07/Q3 07/Q4 08/Q1 08/Q2 08/Q3 07/Q3 07/Q4 08/Q1 08/Q2 08/Q3 Jahr/Quartal 8 10 Beobachtung 1%-Worst Case 0.1%-Worst Case 6 UER 12 schiefe t-Verteilung 05/Q3 05/Q4 06/Q1 06/Q2 06/Q3 06/Q4 07/Q1 07/Q2 Jahr/Quartal 8 10 Beobachtung 1%-Worst Case 0.1%-Worst Case 6 UER 12 Bootstrap 05/Q3 05/Q4 06/Q1 06/Q2 06/Q3 06/Q4 07/Q1 07/Q2 Jahr/Quartal Quelle: Eigene Erstellung, eigene Darstellung Die Beobachtungen der UER haben im 4. Quartal 2006 mit 4,4% ihren vorläufigen Tiefsstand erreicht. Ausgehend vom 3. Quartal 2005 steigt die UER bis zum 3. Quartal 2008 um 20% auf 6% an. Vom tiefsten Stand ausgehend, ist es ein Anstieg um 36,36%. Die Entwicklung der UER konnte wiederum mit den Worst-Case-Szenarien aller drei Varianten passend simuliert werden (vgl. Abb. 10). Die extremsten 1%- und 0,1%-Worst-Case-Szenarien brachte 39 Beitrag zum Postbank Finance Award 2009 dabei die Bootstrap-Methode hervor: Sie prognostizierte einen Anstieg der UER um 81,30% bzw. 124,53% auf 10,12% bzw. 12,53%. Weniger extrem fielen die simulierten Szenarien der Normalapproximation und der schiefen t-Verteilung aus. Ebenso wie bei den Immobilienpreisen zeigt die Szenarioanalyse der USArbeitslosenrate, dass Banken eine Verschlechterung der gesamtwirtschaftlichen Situation hätten einkalkulieren müssen, die noch schlechter als die tatsächliche Entwicklung ausfällt. Der LFS wurde während der empirischen Untersuchung wegen vieler Sprünge und lokaler Extrema als problematisch eingestuft. Auch die zukünftige Entwicklung ist gekennzeichnet durch zwei starke Sprünge im Januar und September 2008. Folglich geht der LFS vom Juli 2005 bis September 2008 um 97,27% nach oben. Ausgehend vom Tiefpunkt im Januar 2008 macht der LFS einen Sprung um 183,48%. Zunächst werden die Simulationen mit der Normalverteilungsannahme und den empirischen Innovationen durchgeführt. Dargestellt wird der Spread als Verhältnis des L3M zur FFR (genaue Zahlen in Anhang B, Tab. B2 und B4): Abb. 11: Worst-Case-Szenarien für den monatlichen Zinsspread LFS (I) Normalverteilung 1%-Worst Case 1.5 0.1%-Worst Case 1.0 L3M / FFR 2.0 Beobachtung 05/07 05/11 06/04 06/09 07/02 07/07 07/12 08/05 07/07 07/12 08/05 Jahr/Monat Beobachtung 1%-Worst Case 1.5 0.1%-Worst Case 1.0 L3M / FFR 2.0 Bootstrap 05/07 05/11 06/04 06/09 07/02 Jahr/Monat Quelle: Eigene Erstellung, eigene Darstellung 40 Beitrag zum Postbank Finance Award 2009 In Abbildung 11 ist zu erkennen, dass beide Varianten die extreme Entwicklung des Zinsspreads nicht erfassen können. Die Normalverteilung kann die Entwicklung ab Mai 2008 nicht mehr adäquat abbilden. Bei der Simulation mit den empirischen Innovationen kann nur das 0,999-Quantil die Entwicklung bis einschließlich August 2008 nachzeichnen. Den extremen Sprung im September 2008 kann keines der vier Worst-Case-Szenarien darstellen. Im Hinblick auf die hohe Kurtosis und die Schiefe der Modellresiduen des LFS (vgl. Tab. 5) wird die Simulation mit der schiefen t-Verteilung durchgeführt (genaue Zahlen in. Anhang B, Tab. B3): Abb. 12: Worst-Case-Szenarien für den monatlichen Zinsspread LFS (II) 2.0 schiefe t-Verteilung L3M / FFR Beobachtung 1%-Worst Case 1.0 1.5 0.1%-Worst Case 05/07 05/11 06/04 06/09 07/02 07/07 07/12 08/05 Jahr/Monat Quelle: Eigene Erstellung, eigene Darstellung In Abbildung 12 ist zu erkennen, dass beide Worst-Case-Szenarien die Entwicklung bis einschließlich August 2008 vorhersagen können. Es fällt das volatile Verhalten des 0,999-Quantils der simulierten Worst-Case-Szenarien auf, was u.a. an den fat tails der angepassten Verteilung liegt, wodurch extremere Beobachtungen wahrscheinlicher werden. Das 0,1%-Worst-Case-Szenario liegt damit nur geringfügig unter dem tatsächlich eingetretenen Wert. Und selbst wenn die Worst-Case-Szenarien in diesem Fall deutlich unter den später realisierten Werten liegen würden, dürfte man die Ergebnisse nicht überinterpretieren. Der Zinsspread ist kein Faktor, der die Krise auslöste, sondern eine Konsequenz der 41 Beitrag zum Postbank Finance Award 2009 Krise. Wenn sich Banken angemessen auf einen Rückgang der Immobilienpreise und des Wirtschaftswachstums vorbereitet hätten, wäre es entweder zu keiner Krise gekommen oder sie wäre deutlich milder verlaufen. Es wird teilweise angeführt, dass die Liquiditätsproblematik etwas spezifisch Neues der aktuellen Krise sei. Jedoch zeigen Analysen von Taylor und Williams (2008) und Taylor (2009), dass der Spread das Insolvenzrisiko der Banken widerspiegelte, also letztlich eine direkte Konsequenz der Verluste war, die Banken gerade im Subprime-Bereich erlitten, und auf die sie sich mit entsprechenden Worst-CaseSzenarien hätten vorbereiten können. 42 Beitrag zum Postbank Finance Award 2009 6 Schlussbemerkungen Seit den 90er Jahren haben Banken und andere Finanzinstitutionen stark in die Entwicklung interner Risikomanagementsysteme investiert. Szenarioanalysen sind ein wesentlicher Teil des Risikomanagements. Zum Beispiel schreibt Bear Stearns, die im März 2008 kollabierte Investmentbank, in jedem ihrer Geschäftsberichte aus den Jahren 2004-2006: “Stress testing (also referred to as scenario analysis) measures the risk of loss over a variety of extreme market conditions that are defined in advance. Stress testing is a key methodology used in the management of market risk as well as counterparty credit risk.” Vor diesem Hintergrund ist zu fragen, warum Banken sich nicht auf einen Zusammenbruch der US-Immobilienpreise sowie den damit ausgelösten Wertverlust von Hypotheken und darauf vergebener Wertpapiere vorbereiteten. Dass ein Immobiliencrash den Hypothekenmarkt massiv beeinflussen würde, war den meisten Marktteilnehmern klar (vgl. Gerardi et al., 2008). Offenbar lag das Problem vielmehr darin, dass man das Risiko eines Immobiliencrashs unterschätzte. Dies wird wiederum von vielen Beobachtern darauf zurückgeführt, dass die verfügbare Datenhistorie zu kurz war. Sie enthielt keine Crashs, und es war somit schwer oder gar unmöglich, das Risiko korrekt einzuschätzen. Ein solches Argument wird oft mit einer grundsätzlichen Kritik an der Verlässlichkeit von Risikomodellen verbunden, da diese fast ausnahmslos auf der Analyse historischer Daten aufbauen (vgl. z.B. Taleb, 2007). Um die Validität dieser Sicht zu untersuchen, haben wir uns gedanklich in das Jahr 2005 zurückversetzt, als die Aufwärtsbewegung am US-Immobilienmarkt noch im Gange war. Wir machten genau das, was Banken wie Bear Stearns vorgegeben haben zu tun: Szenarien für die Zukunft zu generieren. Was wir herausfanden, ist überraschend. Mit üblichen Prognoseverfahren hätte man im Jahr 2005 Szenarien generiert, die teilweise deutlich schlechter als die später tatsächlich eingetretenen Situationen ausfallen. Die Eintrittswahrscheinlichkeit dieser Szenarien ist so hoch, dass Banken sie im Rahmen ihres Risikomanagements hätten berücksichtigen müssen. Bei der Generierung der Szenarien haben wir verschiedene Verfahren und Annahmen verwendet und die Vorgehensweise durch zahlreiche Tests abgesichert. Dies sollte nicht in der Weise falsch interpretiert werden, dass eine solche Szenarioanalyse einen technischen Aufwand erfordert, der das in 43 Beitrag zum Postbank Finance Award 2009 Finanzinstitutionen typischerweise vorhandene Know-How übersteigt. Das, was Modellierer vielleicht als erstes tun würden, wenn sie schnell eine Risikoprognose abgeben sollen, nämlich normalverteilte Innovationen anzunehmen und das Zeitreihenmodell ohne weitere Tests nach üblichen Kriterien auszuwählen, würde bei den Immobilienpreisen sogar zu den extremsten Ergebnissen führen. Um solche Szenarien zu generieren, braucht man keine rocket scientists. Insgesamt betrachtet kann man aus unseren Untersuchungen ableiten, dass der Rückgang der Immobilienpreise in den USA sowie die anschließende Verschlechterung der wirtschaftlichen Lage die Marktteilnehmer nicht unvorbereitet hätte treffen müssen. Sie hätten sich schon 2005 oder früher darauf einstellen können und sollen: durch eine Erhöhung der Kreditvergabestandards, einer Verringerung ihres Engagements im Immobilienmarkt, einer Erhöhung des Eigenkapitals und einer generellen Zurückhaltung bei der Übernahme von Risiken. Vielleicht wäre die Krise dadurch verhindert worden. Auf jeden Fall aber wäre sie nicht so schwer ausgefallen. Diese Erkenntnisse sind sehr wichtig, wenn man sich der Frage zuwendet, wie zukünftige Krisen vermieden werden können. Sollte man Finanzinstitutionen strenger als bisher regulieren und viel vorsichtiger gegenüber Finanzinnovationen sein, da es offenbar nicht möglich ist, die relevanten Risiken mit den vorhandenen Modellen korrekt zu messen? Wir sind anderer Auffassung. Die für die Entstehung der aktuellen Krise relevanten Risiken hätten sich mit Standardverfahren korrekt quantifizieren lassen. Diese Beobachtung stützt sich dabei nicht nur auf die eben beschriebene Szenarioanalyse. Im ersten Teil unserer Arbeit kamen wir auf ganz anderem Weg zu ähnlichen Ergebnissen. Ein Blick in die Entscheidungsprozesse der kollabierten Hypothekenfinanzierer Fannie Mae und Freddie Mac zeigt, dass die Vorstände mehrfach Warnungen ihrer Risikomanager beiseite schoben. Eine Analyse der Literatur zur Subprime-Krise offenbarte, dass dort zwar vielfach Komplexität, Intransparenz und Strukturbrüche in den Vordergrund gestellt werden. Jedoch belegen andere Studien überzeugend, dass Marktteilnehmer das Risiko ihrer Engagements trotz aller Innovationen und Komplexitäten richtig erfasst haben bzw. leicht hätten erfassen können. Diese Beobachtungen bedeuten natürlich nicht, dass es keinen Reformbedarf in Bezug auf Risikomanagement und Regulierung gibt. Man sollte aber an geeigneter Stelle ansetzen. Es wäre unseres Erachtens falsch, Regulierung auf 44 Beitrag zum Postbank Finance Award 2009 einem Misstrauen gegenüber der traditionellen Risikomodellierung aufzubauen. Aufsichtsbehörden sollten vielmehr stärker darauf achten, dass bestehende Risikomesssysteme auch tatsächlich angewendet werden. Im Folgenden führen wir einige mögliche Ansatzpunkte auf: • Stärkere Anforderungen an die Transparenz, insbesondere was interne Szenarien für wichtige Risikofaktoren angeht. Wie an dem obigen Zitat aus den Bear Stearns Geschäftsberichten deutlich geworden ist, haben sich Banken lange Jahre damit gebrüstet, ein gutes Risikomanagement zu betreiben. Dies war für Außenstehende aber kaum nachzuprüfen. Hier würde es z.B. schon helfen, dass Banken ihre Worst-Case-Szenarien veröffentlichen und dokumentieren, inwiefern sie diesen auch widerstehen könnten. • Änderung der Vergütungsstruktur und Stärkung des Risikomanagements. Die in der Presse oft kritisierte Struktur der Bonuszahlungen hat mit dazu beigetragen, dass Manager Rendite über Risiko stellten. Änderungen in diesem Bereich können daher wichtig sein, um eine bessere Berücksichtigung von Risiken sicherzustellen. Eine Stärkung des Risikomanagements könnte auch dadurch erfolgen, dass Risikomanagementabteilungen intern organisatorisch aufgewertet werden. • Anti-zyklische Eigenkapitalanforderungen. Auch in Zukunft lässt sich wahrscheinlich nicht vermeiden, dass Marktteilnehmer in Boomzeiten eher die Renditechancen als die damit verbundenen Risiken sehen. Zu tief ist im Menschen offenbar der Glaube an Trends und die Überschätzung der eigenen Fähigkeiten verankert (vgl. z.B. Shiller, 2003). Die Lösung dieses Problems besteht wohl nicht darin, dass Aufsichtsbehörden Bankmanagern die Teilnahme an Kursen über Behavioral Finance verordnen. Eine Lösung könnte aber darin bestehen, dass man in Boomzeiten höhere Anforderungen an die Eigenkapitalanforderung stellt. Dies würde – da man sich dann ja in einem Boom befindet – die Wirtschaft kaum belasten, aber dafür sorgen, dass ausreichende Reserven für den nächsten Abschwung aufgebaut werden. 45 Beitrag zum Postbank Finance Award 2009 Anhang A1: Stochastische Zeitreihenmodellierung Definition A1.1 (Stochastischer Prozess) Ein stochastischer Prozess ist eine Familie von Zufallsvariablen Y(ω,t) mit ω Є Ω und t Є T auf einem Wahrscheinlichkeitsraum [Ω, A, P], mit einer beliebigen, aber nicht zufälligen Indexmenge T aus den reellen Zahlen (vgl. Rinne, Specht 2002, S. 157). Definition A1.2 (Mittelwert) µ t := E Ω {Y (ω , t )} Definition A1.3 (Varianzfunktion) σ t2 := E Ω {[Y (ω , t ) − µ t ] 2 } Definition A1.4 (Autokovarianzfunktion) γ (t1 , t 2 ) := E Ω {[Y (ω , t1 ) − µ t ][Y (ω , t 2 ) − µ t ]} 1 2 Definition A1.5 (Autokorrelationsfunktion) ρ (t1 , t 2 ) := γ (t1 , t 2 ) σt σt 1 2 Definition A1.6 (Schwache Stationarität) Ein stochastischer Prozess heißt schwach stationär, wenn gilt: (1) µ t := µ∀t (2) γ (t1 , t 2 ) := γ l ∀t 2 − t1 = l . und Theorem A1.7 Besitzt das charakteristische Polynom eines Prozesses die Einheitswurzel als Nullstelle, so liegt ein nichtstationärer Prozess vor. (zum Beweis vgl. z.B. Schlittgen/ Streitberg, 2001, S. 113ff.) 46 Beitrag zum Postbank Finance Award 2009 Definition A1.8 (White-Noise-Prozess) Sei Z t ein diskreter unkorrelierter stochastischer Prozess mit Erwartungswert Null und konstanter Varianz. Dann ist Z t ein White-Noise-Prozess (Weißes Rauschen). Definition A1.9 (MA(q)-Prozess) Sei Z t ein White-Noise-Prozess. Ein stochastischer Prozess heißt MA(q)-Prozess, wenn er die Darstellung Yt = Z t + ψ 1 Z t −1 + ψ 2 Z t − 2 + ... + ψ q Z t − q besitzt. Definition A1.10 (AR(p)-Prozess) Sei Z t ein White-Noise-Prozess. Ein stochastischer Prozess heißt AR(p)-Prozess, wenn er die Darstellung Yt = π 1Yt −1 + π 2Yt − 2 + ... + Z t besitzt. Definition A1.11 (Differenz) Die erste Differenz von Yt ist gegeben durch Wt := Yt − Yt −1 = ∇Yt . Dabei ist ∇ der Differenzenoperator Nabla. Die weiteren Differenzen erhält man rekursiv. Bem. zur Maximum-Likelihood-Methode: Die Maximum-Likelihood-Methode ist ein parametrisches Verfahren, bei dem man anhand der Beobachtungen schätzt, welche Parameter für ein Modell am wahrscheinlichsten sind (vgl. Schlittgen/ Streitberg, 2001, S. 269ff). Dazu betrachtet man die sog. Likelihood-Funktion L(θ | x) := p ( x | θ ) und maximiert diese. Der ML-Schätzer θˆ ist dann gegeben durch: θˆ = arg max L(θ | x) θ 47 Beitrag zum Postbank Finance Award 2009 Anhang A2: Bemerkungen zum Bootstrap-Algorithmus Zum Bootstrap Der Bootstrap ist eine computerbasierte Methode, um Aussagen über die Genauigkeit von statistischen Schätzern zu erhalten, also z.B. die Standardabweichung eines Schätzers oder Konfidenzintervalle für unbekannte Parameter (vgl. Boos 2003). 1. Betrachte eine Stichprobe {x1, , x 2 ,..., x n } von unabhängigen Datenpunkten, im Folgenden als Vektor: x = ( x1, , x 2 ,..., x n ) beschrieben. 2. Erzeuge aus der Stichprobe B Bootstrap-Stichproben x * = ( x1* , x 2* ,..., x n* ) durch n-maliges Ziehen mit Zurücklegen aus der ursprünglichen Stichprobe. Typische Werte für B liegen zwischen 50 und 200. 3. Berechne die Statistiken s ( x *1 ) , s ( x *2 ) ,…, s ( x *B ) der BootstrapStichproben. 4. Berechne die Schätzung für den Standardfehler aus der Standardabweichung der Statistiken (vgl. Efron/ Tibshirani, 1993, S. 10ff). Der Vorteil der Methode liegt darin, dass die Anforderungen an die Stichprobe wesentlich geringer sind als bei herkömmlichen statistischen Methoden. So können schon relativ kleine Stichproben behandelt werden, bei denen z.B. der zentrale Grenzwertsatz noch keine Schlüsse von der Stichprobe auf die Grundgesamtheit zulässt (vgl. Shikano 2005, S. 1). Zur Inferenz-Statistik Mithilfe des Bootstraps kann man auch Konfidenzintervalle schätzen, so bspw. Perzentil-Intervalle: Für diese einfache, aber gleichzeitig rechenintensive Methode benötigt man etwa 1000 Bootstrap-Stichproben (vgl. Shikano 2005, S. 3f). Das (1 − α ) -Konfidenzintervall für den Parameter θ ist gegeben durch: (A2.1) (θˆlow , θˆup ) = (θˆ α *( ) 2 , θˆ α *(1− ) 2 ). 48 Beitrag zum Postbank Finance Award 2009 Dabei θˆ α *( ) 2 θˆ ist (1),θˆ α *( ) 2 α *( ) 2 (2),...,θˆ α das 2 -Perzentil der Bootstrap-Stichprobe α *( ) 2 ( B) . Zu BCa-Intervallen Falls die betrachtete Statistik schief verteilt oder verzerrt ist, wird die sog. Biascorrected and accelerated-Methode (BCa) verwendet (vgl. Efron/ Tibshirani, 1993, S. 184ff). Das (1 − α ) -Konfidenzintervall für den Parameter θ ist gegeben durch: (A2.2) (θˆlow , θˆup ) = (θˆ *(α1 ) , θˆ *(α 2 ) ) (A2.2a) α ( ) zˆ 0 + z 2 α 1 = Φ zˆ 0 + α ( ) 2 1 − aˆ ( zˆ 0 + z ) (A2.2b) α (1− ) zˆ 0 + z 2 α 2 = Φ zˆ 0 + . α (1− ) 1 − aˆ ( zˆ 0 + z 2 ) wobei Φ (⋅) steht hier für die kumulierte Verteilungsfunktion der Standardnormal- verteilung, und z (α ) ist das α − Quantil der Standardnormalverteilung. Der Parameter â gibt die Beschleunigung (engl. acceleration) an: (A2.3) ∑ aˆ = 6{∑ n i =1 (θˆ(⋅) − θˆ(i ) ) 3 (θˆ(⋅) − θˆ(i ) ) 2 i =1 n } 3/ 2 ẑ0 dient zur Korrektur der Verzerrung (engl. bias-correction), und wird so berechnet: (A2.4) # {θˆ * (b) < θˆ . ˆz 0 = Φ −1 B Für â = ẑ0 = 0 erhalten wir das gleiche Intervall wie bei der Perzentil-Methode. 49 Beitrag zum Postbank Finance Award 2009 Anhang B: Tabellen Tab. B1 Modellselektion mit Selektionskriterien 2 ∇ (ln(HPI)) AICl p 0 1 2 3 SBCl p 0 1 2 3 1 ∇ (ln(UER)) q 0 -741,64 -752,22 -784,43 -784,09 1 -779,58 -778,14 -784,72 -785,66 2 -779,04 -779,85 -783,03 -783,93 3 -783,10 -781,11 -783,23 -783,15 0 -741,64 -752,43 -778,84 -775,70 q 1 2 -776,78 -773,45 -772,55 -771,46 -776,33 -771,85 -774,48 -769,95 3 -774,72 -769,93 -769,25 -766,37 AICl p 0 1 2 3 SBCl p 0 1 2 3 ln(L3M)-ln(FFR) q 0 -451,91 -460,33 -458,89 -457,30 1 -446,38 -458,78 -457,04 -455,40 2 -454,31 -457,52 -455,76 -463,65 3 -459,40 -457,45 -459,62 -461,50 0 -415,91 -457,54 -453,30 -448,91 q 1 2 -443,58 -448,72 -453,19 -449,13 -448,65 -444,58 -444,21 -449,67 3 -451,02 -446,27 -445,65 -444,73 AICl p 0 1 2 3 SBCl p 0 1 2 3 q 0 -585,30 -826,67 -824,82 -824,11 1 -728,77 -824,86 -822,67 -825,75 2 -780,39 -825,42 -825,28 -818,67 3 -796,57 -826,30 -821,92 -822,63 0 -578,29 -816,15 -810,80 -806,59 q 1 2 -718,25 -766,37 -810,84 -807,90 -805,15 -804,25 -804,71 -794,13 3 -779,04 -805,27 -797,38 -794,58 Quelle: Eigene Erstellung, eigene Darstellung 50 Beitrag zum Postbank Finance Award 2009 Tab. B2 Risikoszenarien mit Normalapproximation ARI(2,2;ln(HPI)) Q3/ 2005 Beobachtung Q4/ 2005 Q1/ 2006 Q2/ 2006 Q3/ 2006 Q4/ 2006 Q1/ 2007 Q2/ 2007 Q3/ 2007 Q4/ 2007 Q1/ 2008 Q2/ 2008 Q3/ 2008 350,979301 357,659156 362,272545 359,887494 361,410511 369,820005 368,494463 362,199027 359,437031 358,354801 353,565781 340,604564 327,676736 1%-Worst-Case 342,800972 342,720160 343,316797 341,795363 339,300410 336,891499 333,664531 329,308788 324,983383 321,203873 315,204882 310,591915 303,934998 0,1%-Worst-Case 340,747090 339,159826 337,874773 334,715130 330,411602 324,399502 319,382126 312,938000 305,532051 299,352033 290,111832 285,286017 275,081964 ARI(1,1;ln(UER)) Beobachtung Q3/ 2005 Q4/ 2005 Q1/ 2006 Q2/ 2006 Q3/ 2006 Q4/ 2006 Q1/ 2007 Q2/ 2007 Q3/ 2007 Q4/ 2007 Q1/ 2008 Q2/ 2008 Q3/ 2008 5,000000 4,900000 4,700000 4,700000 4,700000 4,400000 4,500000 4,500000 4,700000 4,800000 4,900000 5,400000 6,000000 1%-Worst-Case 5,463699 5,832119 6,210968 6,601328 7,012884 7,368961 7,746547 8,087640 8,428305 8,739384 9,065534 9,368618 9,699864 0,1%-Worst-Case 5,596698 6,127762 6,644842 7,194417 7,724878 8,306077 8,799361 9,382901 9,772276 10,091519 10,578856 11,226801 11,657796 AR(1;ln(L3M)-ln(FFR)) Beobachtung 07/ 2005 08/ 2005 09/ 2005 10/ 2005 11/ 2005 12/ 2005 01/ 2006 02/ 2006 03/ 2006 04/ 2006 05/ 2006 06/ 2006 07/ 2006 1,134969 1,105714 1,122928 1,126984 1,105000 1,090445 1,090909 1,074053 1,089325 1,070981 1,060350 1,098323 1,043059 1%-Worst-Case 1,276477 1,297519 1,306314 1,306106 1,301893 1,300865 1,297266 1,296783 1,291037 1,292577 1,289517 1,289037 1,286821 0,1%-Worst-Case 1,317085 1,355843 1,371181 1,368329 1,369600 1,372254 1,365584 1,361657 1,360619 1,355428 1,355880 1,361296 1,362737 08/ 2006 09/ 2006 10/ 2006 11/ 2006 12/ 2006 01/ 2007 02/ 2007 03/ 2007 04/ 2007 05/ 2007 06/ 2007 07/ 2007 08/ 2007 1,028095 1,022857 1,022977 1,022857 1,022901 1,020952 1,016755 1,017110 1,020000 1,020952 1,020952 1,018757 1,119771 Beobachtung 1%-Worst-Case 1,287136 1,283636 1,286171 1,285059 1,285230 1,282201 1,283138 1,283066 1,282799 1,282519 1,284380 1,283384 1,284163 0,1%-Worst-Case 1,354779 1,351914 1,354130 1,353118 1,349810 1,346100 1,349539 1,351800 1,347757 1,353288 1,360143 1,353374 1,348700 09/ 2007 10/ 2007 11/ 2007 12/ 2007 01/ 2008 02/ 2008 03/ 2008 04/ 2008 05/ 2008 06/ 2008 07/ 2008 08/ 2008 09/ 2008 1,058451 1,028099 1,142817 1,109080 0,789817 1,026007 1,029935 1,250000 1,353854 1,391565 1,388682 1,405315 2,238950 Beobachtung 1%-Worst-Case 1,281795 1,281469 1,281220 1,283661 1,281794 1,282021 1,282025 1,283298 1,282747 1,282463 1,282047 1,280922 1,282383 0,1%-Worst-Case 1,351425 1,348010 1,353617 1,354764 1,347008 1,351258 1,347139 1,351020 1,351121 1,351921 1,353781 1,347346 1,351282 Quelle: Eigene Erstellung, eigene Darstellung 51 Beitrag zum Postbank Finance Award 2009 Tab. B3 Risikoszenarien mit einer schiefen t-Verteilung ARI(2,2;ln(HPI)) Q3/ 2005 Beobachtung Q4/ 2005 Q1/ 2006 Q2/ 2006 Q3/ 2006 Q4/ 2006 Q1/ 2007 Q2/ 2007 Q3/ 2007 Q4/ 2007 Q1/ 2008 Q2/ 2008 Q3/ 2008 350,979301 357,659156 362,272545 359,887494 361,410511 369,820005 368,494463 362,199027 359,437031 358,354801 353,565781 340,604564 327,676736 1% Worst Case 343,678614 343,977642 345,117313 344,434517 343,023769 341,736988 339,570052 336,270927 333,785111 329,612697 326,663527 321,275702 317,263382 0,1% Worst Case 341,086728 339,463423 340,107174 337,446267 334,236891 329,960473 324,890736 319,850406 315,036625 308,228598 303,568782 298,091910 291,791539 ARI(1,1;ln(UER)) Beobachtung Q3/ 2005 Q4/ 2005 Q1/ 2006 Q2/ 2006 Q3/ 2006 Q4/ 2006 Q1/ 2007 Q2/ 2007 Q3/ 2007 Q4/ 2007 Q1/ 2008 Q2/ 2008 Q3/ 2008 5,000000 4,900000 4,700000 4,700000 4,700000 4,400000 4,500000 4,500000 4,700000 4,800000 4,900000 5,400000 6,000000 1%-Worst-Case 5,620150 6,083558 6,501856 6,878569 7,282165 7,692851 7,989702 8,292194 8,584262 8,885292 9,127006 9,452712 9,771147 0,1%-Worst-Case 6,096547 6,809803 7,506730 8,246601 8,763127 9,386762 9,840128 10,293809 10,816583 11,192294 11,419723 12,528704 12,499460 AR(1;ln(L3M)-ln(FFR)) Beobachtung 07/ 2005 08/ 2005 09/ 2005 10/ 2005 11/ 2005 12/ 2005 01/ 2006 02/ 2006 03/ 2006 04/ 2006 05/ 2006 06/ 2006 07/ 2006 1,134969 1,105714 1,122928 1,126984 1,105000 1,090445 1,090909 1,074053 1,089325 1,070981 1,060350 1,098323 1,043059 1%-Worst-Case 1,393544 1,446131 1,474098 1,471763 1,470384 1,467960 1,470512 1,458339 1,456225 1,449659 1,454665 1,454592 1,448043 0,1%-Worst-Case 2,000130 2,028592 2,173993 2,173817 2,169385 2,119121 2,375585 2,235777 2,168351 2,171708 2,115558 2,034526 1,982689 08/ 2006 09/ 2006 10/ 2006 11/ 2006 12/ 2006 01/ 2007 02/ 2007 03/ 2007 04/ 2007 05/ 2007 06/ 2007 07/ 2007 08/ 2007 1,028095 1,022857 1,022977 1,022857 1,022901 1,020952 1,016755 1,017110 1,020000 1,020952 1,020952 1,018757 1,119771 Beobachtung 1%-Worst-Case 1,437606 1,450922 1,454876 1,440616 1,444006 1,439801 1,452760 1,450096 1,443856 1,444090 1,453930 1,434240 1,440018 0,1%-Worst-Case 2,073775 2,142784 2,255242 2,025820 1,970978 2,022762 2,054942 2,152367 2,230114 2,112796 2,042114 2,040810 1,989894 09/ 2007 10/ 2007 11/ 2007 12/ 2007 01/ 2008 02/ 2008 03/ 2008 04/ 2008 05/ 2008 06/ 2008 07/ 2008 08/ 2008 09/ 2008 1,058451 1,028099 1,142817 1,109080 0,789817 1,026007 1,029935 1,250000 1,353854 1,391565 1,388682 1,405315 2,238950 Beobachtung 1%-Worst-Case 1,461550 1,434554 1,448769 1,448562 1,445426 1,444955 1,445031 1,451595 1,449382 1,443229 1,447360 1,448196 1,444344 0,1%-Worst-Case 2,101814 2,042045 2,182284 2,207885 2,030590 2,070059 2,063973 2,196586 2,106915 2,097618 2,033563 2,031714 2,084203 Quelle: Eigene Erstellung, eigene Darstellung 52 Beitrag zum Postbank Finance Award 2009 Tab. B4 Risikoszenarien mit der Bootstrap-Methode ARI(2,2;ln(HPI)) Q3/ 2005 Beobachtung Q4/ 2005 Q1/ 2006 Q2/ 2006 Q3/ 2006 Q4/ 2006 Q1/ 2007 Q2/ 2007 Q3/ 2007 Q4/ 2007 Q1/ 2008 Q2/ 2008 Q3/ 2008 350,979301 357,659156 362,272545 359,887494 361,410511 369,820005 368,494463 362,199027 359,437031 358,354801 353,565781 340,604564 327,676736 1% Worst Case 343,508834 343,810429 344,468572 344,002829 341,652279 339,973247 337,238756 333,060159 329,152258 325,269989 320,626593 316,191147 308,954610 0,1% Worst Case 343,479233 340,945331 339,740625 338,345305 333,909592 328,932436 324,687587 317,738107 313,529170 305,775853 297,996830 290,748893 281,737362 ARI(1,1;ln(UER)) Beobachtung Q3/ 2005 Q4/ 2005 Q1/ 2006 Q2/ 2006 Q3/ 2006 Q4/ 2006 Q1/ 2007 Q2/ 2007 Q3/ 2007 Q4/ 2007 Q1/ 2008 Q2/ 2008 Q3/ 2008 5,000000 4,900000 4,700000 4,700000 4,700000 4,400000 4,500000 4,500000 4,700000 4,800000 4,900000 5,400000 6,000000 1%-Worst-Case 5,582214 5,994133 6,439893 6,854942 7,277432 7,641502 8,094595 8,468595 8,768752 9,080499 9,444808 9,791979 10,120304 0,1%-Worst-Case 5,582214 6,353211 7,064420 7,565737 8,193239 8,808981 9,529925 10,016366 10,700319 11,035358 11,529118 12,298317 12,533980 AR(1;ln(L3M)-ln(FFR)) Beobachtung 07/ 2005 08/ 2005 09/ 2005 10/ 2005 11/ 2005 12/ 2005 01/ 2006 02/ 2006 03/ 2006 04/ 2006 05/ 2006 06/ 2006 07/ 2006 1,134969 1,105714 1,122928 1,126984 1,105000 1,090445 1,090909 1,074053 1,089325 1,070981 1,060350 1,098323 1,043059 1%-Worst-Case 1,328553 1,368223 1,365967 1,364245 1,357033 1,355683 1,349055 1,347865 1,346485 1,346521 1,339265 1,334328 1,334675 0,1%-Worst-Case 1,411906 1,458421 1,472255 1,479043 1,477161 1,464570 1,473291 1,465296 1,466683 1,457797 1,457782 1,438693 1,444136 08/ 2006 09/ 2006 10/ 2006 11/ 2006 12/ 2006 01/ 2007 02/ 2007 03/ 2007 04/ 2007 05/ 2007 06/ 2007 07/ 2007 08/ 2007 1,028095 1,022857 1,022977 1,022857 1,022901 1,020952 1,016755 1,017110 1,020000 1,020952 1,020952 1,018757 1,119771 Beobachtung 1%-Worst-Case 1,333692 1,335789 1,333509 1,335113 1,332977 1,334607 1,331240 1,337840 1,334103 1,328685 1,332355 1,334913 1,329121 0,1%-Worst-Case 1,431992 1,457966 1,449963 1,455104 1,476366 1,448878 1,446104 1,438610 1,452961 1,459845 1,443515 1,447241 1,445972 09/ 2007 10/ 2007 11/ 2007 12/ 2007 01/ 2008 02/ 2008 03/ 2008 04/ 2008 05/ 2008 06/ 2008 07/ 2008 08/ 2008 09/ 2008 1,058451 1,028099 1,142817 1,109080 0,789817 1,026007 1,029935 1,250000 1,353854 1,391565 1,388682 1,405315 2,238950 Beobachtung 1%-Worst-Case 1,331538 1,332429 1,335773 1,331517 1,328762 1,331497 1,332011 1,331010 1,331701 1,332355 1,337155 1,331886 1,334030 0,1%-Worst-Case 1,439486 1,447289 1,447054 1,452513 1,437492 1,454593 1,446027 1,447035 1,450217 1,442294 1,456251 1,449870 1,448079 Quelle: Eigene Erstellung, eigene Darstellung 53 Beitrag zum Postbank Finance Award 2009 Literaturverzeichnis AKAIKE, H. (1974): A new Look at the Statistical Model Identification. IEEE Transactions on Automatic Control, Vol.19, S. 716–723. ARNDT, J./ HAENEL, C. (1999): Pi – Algorithmen. Computer, Arithmetik. Springer Verlag, 2. Auflage. BAIR, S. C. (2007): Possible Responses to Rising Mortgage Foreclosures. Hearing before the Committee on Financial Services, U.S. House of Representatives, Apr. 2007. BETHEL, J. E./ FERRELL, A./ HU, G. (2008): Law and Economics Issues in Subprime Litigation. Working Paper, März 2008. BOOS, D. D. (2003): Introduction to Bootstrap World. Statistical Science, Vol. 18, S. 168-174. BRUNNERMEIER, M. K. (2008): Deciphering the 2007-08 Liquidity and Credit Crunch. Working Paper, Mai 2008. Chakravarti, I. M. (1967): Handbook of Methods of Applied Statistics Volume 1: Techniques of Computation, Descriptive Methods and Statistical Inference. John Wiley und Söhne, Auflage ohne Angabe. CHATTERJEE, S. (1986): Bootstrapping ARMA models: Some simulations. Systems, Man and Cybernetics, IEE Transactions on Systems, Vol. 16, S. 294-299. COUNTERPARTY RISK MANAGEMENT POLICY GROUP (HRSG.) (2005): Toward Greater Financial Stability: A Private Sector Perspective. Counterparty Risk Management Policy Group II, Juli 2005. 54 Beitrag zum Postbank Finance Award 2009 CROUHY, M. G./ JARROW, R. A./ TURNBULL, S. M. (2008): The Subprime Credit Crisis of 07. Working Paper, Juli 2008. DEMYANYK, Y./ VAN HEMERT, O. (2008): Understanding the Subprime Mortgage Crisis. Working Paper, Dez. 2008. DEUTSCHE BUNDESBANK (HRSG.) (2004): Monatsbericht April 2004. Jahrgang 56, Nr. 4, S. 1-58. EFFENBERGER, D. (2004): Kreditderivate: Die Wirkung auf die Stabilität der Finanzmärkte. Deutsche Bank Research, Nr. 293. EFRON, B./ TIBSHIRANI, R. J. (1986): Bootstrap Method for Standard Errors, Confidence Intervals and Other Measures of Statistical Accuracy. Statistical Science, Vol. 1, S. 54-75. EFRON, B./ TIBSHIRANI, R. J. (1993): An Introduction to the Bootstrap. Chapman and Hall, Auflage ohne Angabe. EGGERT, K. (2007): Limiting Abuse and Opportunism by Mortgage Servicers. Housing Policy Debate, Vol. 15, S. 753-784. FAIR ISAAC CORPORATION (Hrsg.) (2007): Understanding Your FICO® Score. URL: http://www.myfico.com/Downloads/Files/myFICO_UYFS_Booklet.pdf (Abrufdatum: 31.10.2008). FINKE, M./ HUSTON, S./ SIMAN, E./ CORLIJA, M. (2005): Characteristics of Recent Adjustable-rate Mortgage Borrowers. Financial Counseling and Planning, Vol. 16, S.17-28. GERARDI, K./ LEHNERT, A./ SHERLAND, S./ WILLEN, P. (2008): Making Sense of the Subprim Crisis. Working Paper, Dez. 2008. 55 Beitrag zum Postbank Finance Award 2009 GIBSON, M. (2004): Understanding the Risk of synthetic CDOs. Working Paper, Juli 2004.. GORTON, G. B. (2008): The Panic of 2007. Working Paper, Aug. 2008. GREENLAW, D./ HATZIUS, J./ KASHYAP, A./ SHIN, H. S. (2008): Leveraged Losses: Lessons from the Mortgage Market Meltdown. U.S. Monetary Policy Forum, Feb. 2008. INTERNATIONAL MONETARY FUND (HRSG.) (2008): Global Financial Stability Report – Containing Systemic Risks and Restoring Financial Soundness. International Monetary Fund. KAMINSKY, G. L./ REINHART, C. M. (1999): The Twin Crises: The Causes of Banking and Balance-of-Payments Problems. American Economic Review, Vol. 89, S. 473-500. KIFF, J./ MILLS, P. (2007): Money for nothing and checks for free: Recent developments in U.S. Subprime Mortgage Markets. IMF Working Paper, Juli 2007. KÜNSCH, H. R. (1989): The Jackknife and the Bootstrap for General Stationary Observations. The Annals of Statistic, Vol. 17, S. 1217-1241. KWIATKOWSKI, D./ PHILLIPS, P. C. B./ SCHMIDT, P./ SHIN, Y. (1992): Testing the Nullhypothesis of Stationary against the Alternative of a Unit Root. Journal of Ecnonmetrics, Vol. 54, S. 225-234. LJUNG, G. M./ BOX, G. E. P. (1978): On a Measure of Lack of Fit in Time Seires Models. Biometrika, Vol. 65, S. 297-303. LORENZO, P./ ROMO, J./ RUIZ, E. (2004): Bootstrap Predictive Inference for ARIMA Processes. Journal of Time Series Analysis, Vol. 25, S. 449-465. 56 Beitrag zum Postbank Finance Award 2009 NETO, A. C./ SOUZA, R. C. (1996): A Bootstrap Simulation Study in ARMA(p,q) Structures. Journal of Forecasting, Vol. 15, S. 343-353. OFFICE OF THRIFT SUPERVISION (HRSG.) (2003): Examination Handbook. Office of Thrift Supervision. PATTON, A./ POLITIS, D. N./ WHITE, H. (2008): Correction to “Automatic BlockLength Selection for the Dependent Bootstrap”. Working Paper, Jan. 2008. POLITIS, D. N./ ROMANA, J. P. (1994): The Stationary Bootstrap. Journal of the American Statistical Association, Vol. 1989, S. 1303-1313. POLITIS, D. N./ WHITE, H. (2003): Automatic Block-Length Selection for the Dependent Bootstrap. Working Paper, Feb. 2003. REINHART, C. M./ ROGOFF, K. S. (2008): Is the 2007 U.S. Sub-Prime Financial Crisis so Different? An International Historical Comparison. The American Economic Review, Vol. 98, S. 339-344. RINNE, H./ SPECHT, K. (2002): Zeitreihen – Statistische Modellierung, Schätzung und Prognose. Verlag Vahlen, Auflage ohne Angabe. SACHVERSTÄNDIGENRAT (HRSG.) (2007): Jahresgutachten 2007/08: Das erreichte nicht Verspielen. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung, Statistisches Bundesamt, Wiesbaden 2007. SCHLITTGEN, R./ STREITBERG, B. H. J. (2001): Zeitreihenanalyse. R. Oldenburg Verlag, 9. Auflage. SCHWARZ, G. (1978): Estimating the Dimension of a Model. The Annals of Statistic, Vol. 6, S. 461-464. SHIKANO, S. (2005): Bootstrap and Jackknife. Working Paper, Dez. 2005. 57 Beitrag zum Postbank Finance Award 2009 SHILLER, R. J. (2003): From Efficient Markets Theory to Behavioral Finance. Journal of Economic Perspectives, Vol. 17, S. 83-104. STANDARD AND POOR’S (2005): Annual global corporate default study: Corporate defaults poised to rise in 2005. Standard and Poor’s. TALEB, N. N. (2007): The Black Swan: The Impact of Highly Improbable. Random House, 1. Auflage. TAYLOR, J. B. (2008): The Financial Crisis and the Policy Response: An Empirical Analysis of What Went Wrong. Working Paper, Nov. 2008. TAYLOR, J. B./ WILLIAMS J. C. (2008): A Black Swan in the Money Market. Working Paper, April 2008. 58 Beitrag zum Postbank Finance Award 2009