« | Home | »

Werkstattbericht zu Ratingmethoden

Von Dr. Oliver Everling | 9.September 2008

Dr. Peter König, Geschäftsführer der DVFA GmbH in Dreieich (www.dvfa.de), wundert sich in seiner Einführung zu einer Veranstaltung „DVFA-Club“ in Frankfurt am Main über die oft geäußerte Meinung, Rating sei etwas „ganz anderes“ als Finanzanalyse. Die krisenhafte Entwicklung, die die Finanzmärkte im letzten Jahr prägte, widerspricht dieser Sichtweise, unterstreicht König. Methoden der Finanzanalyse und des Ratings haben viel gemeinsam.

Prof. Dr. Jens Leker, Direktor des Instituts für betriebswirtschaftiches Management im Fachbereich Chemie und Pharmazie an der Westfälischen Wilhelms-Universität Münster gibt im DVFA-Club in Frankfurt am Main einen Überblick über aktuelle Entwicklungen. Trennschärfe und Kalibrierung seien die wichtigsten Dimensionen zur Beurteilung eines Ratingsystems. Die Güte der Probability of Default-Prognose könne anhand der Power-Kurve, der Korrelation, aber auch durch die mittlere Abweichung der beobachteten Ausfallrate von ihrem Mittelwert analysiert werden. Leker erläutert die typischen Gütekriterien eines Ratingsystems.

Wenn fehlende Werte durch Mediane ersetzt werden, statt weggelassen werden, hat dies unterschiedliche Konsequenzen für Trainings- und Test-Sample, gibt Leker ein Beispiel. Wenn kleine Unternehmen (Umsatz unter 5 Mio. Euro) ausgeschlossen werden, werden die Klassifizierungsergebnisse in der Teststichprobe besser. Leker zeigt die Konfidenzintervalle beobachteter Ausfallraten: Das Konfidenzintervall habe im Investment Grade eine ganz andere Bedeutung als im Speculative Grade. Die Schwierigkeit liege darin, gerade die guten Bonitäten mit Hilfe eines solchen Systems verlässlich einzustufen.

Bei der Schätzung mehrjähriger Ausfallwahrscheinlichkeiten zeige sich die Transition. Bei den guten Bonitäten seien die Bilanzratingverfahren weniger aussagefähig. Leker weist darauf hin, dass eine viel größere Zahl von Unternehmen statistisch erfasst werden müssten, um verlässliche Methoden auch für die besten Ratings zu entwickeln: Ohne eine sehr große Stichprobe können Ausfallwahrscheinlichkeiten im Promillebereich kaum modelliert werden. Die Entwicklung und Beurteilung von Ratingsystemen sollte immer Klassifikation und PD-Prognosen berücksichtigen. Die Ergebnisse werden stark durch die Vorgehensweise in der Aufbereitung der Trainingsdaten beeinflusst.

Frank Cerveny, ABS & Structured Credit Research der DZ Bank, erläutert, warum die Diskussion um die Ratingagenturen mit der gegebenen Schärfe geführt werde. Zugleich will Cerveny die Rolle der Ratingagenturen als Sündenbock relativieren. „Pleiten, Pech und Pannen“, „Kühe, Kartenhäuser und Burnout“, so und weitere Zitate lassen sich den Medien entnehmen. Cerveny sieht eine Reihe von Problemen: Überhastet zusammengebaute Modelle, Strukturierer, die Risiken verbergen wollten, Agenturen, die das Ratinggeschäft „mitnehmen“ wollten – nach dem Motto „nach mir die Sintflut“ -, müsse vor dem Hintergrund gesehen werden, dass diese oft mit einer 60 Stundenwoche konfrontiert seien.

Welches sind die guten Segmente? Bei den Subprime-bezogenen Wertpapieren wurden die Bonitätsverschlechterungen unterschätzt – Schieflagen von Hedgefonds wurden getriggert und in der Folge Kettenreaktionen ausgelöst. Die Herabstufungsquoten lagen teils jenseits von 80 %, was die schlimmsten Erwartungen von Investoren übertraf, zeigt Cerveny.

Manche Produkte hätten vielleicht erst gar nicht von den Agenturen geratet werden sollen, da diese mehr von Marktpreisrisiken abhängig waren. „Schritt für Schritt mussten die Agenturen ihre Hosen herunterlassen und auch Modellfehler einräumen“, sagt Frank Cerveny. Inzwischen seien zwei Programmierfehler bekannt geworden, zuletzt jetzt am 4. September 2008, mit ähnlichen Konsequenzen. Cerveny: „Schuster bleib bei Deinen Leisten – sollen sich die Ratingagenturen auf das originäre Credit-Risiko konzentrieren?“

Vieles sei mit der heißen Nadel gestrickt. Möglicherweise sei auch vieles überfrachtet worden, so dass der Investor den Wald vor Bäumen nicht mehr sah. Neue Strukturen seien zurzeit kaum zu raten, da die Modelle neu kalibriert werden müssten. „Im Grunde genommen geht es bei den Ratingagenturen drunter und drüber“, warnt Cerveny. „Es werden Leute entlassen und die Boni werden auch herunter gehen, insofern sinkt das Incentive.“

Cerveny kommt auf die Konsultationspapiere der Europäischen Kommission zu sprechen, für die sich Charlie McCreevy stark gemacht habe. Auch die US SEC habe sich wieder zu den Ratingagenturen geäußert. Insbesondere gehe es um Transparenz und die Trennung von Consultingaufgaben. „Es mache sicherlich Sinn, auch die Investoren zu zwingen, ihre eigenen Analysekapazitäten auszudehnen“, kommentiert Cerveny die Aktivitäten der Gesetzgeber.

Cerveny spricht auch die Assetmanager an, die Strukturen verwalteten . Investoren haben es vermieden, ausreichend in Analysekapazitäten und Datenbanken zu investieren. Hier habe man zuviel binär agiert, indem nur Rating und Spread betrachtet worden sei. Es gehe um Infrastruktur, ausreichende Personalausstattung und – last not least – um Gehälter. Die Salesforce vertrete den Hit-and-run Gedanken und verdiene am meisten. Erst am Ende der Nahrungskette finde sich die Analyse. „Hier muss man umdenken“, so Cerveny.

„Prognosen sind immer schwierig, vor allem, wenn sie in die Zukunft gehen“, zitiert König einen alten Lehrer. Stabilität der Ergebnisse setze Stabilität in den Annahmen und Voraussetzungen voraus. Wenn die Anlagevorschriften nicht die Beachtung von Ratings erzwingen würden, bräuchte man sich mit der Prognosegenauigkeit der Ratings nicht in dem Maße zu beschäftigen, bemerkt König. Rating sei für manche Investoren „die“ wesentliche Variable für Anlageentscheidungen. Mit diesen und weiteren – insgesamt 12 – Thesen facht König die Diskussion an.

Themen: Nachrichten | Kommentare deaktiviert für Werkstattbericht zu Ratingmethoden

Kommentare geschlossen.