Ein Service der

Artikel als PDF herunterladen

Die internationale Finanzkrise, die am 15. September 2008 mit dem Zusammenbruch von Lehman Brothers ihren dramatischen Höhepunkt erreichte und bis heute nicht überwunden ist, kam für die allermeisten Fachleute, Wirtschaftswissenschaftler und dabei insbesondere Finanzmarktökonomen vollkommen überraschend. Nicht nur hatte kein seriöser Wissenschaftler den gerade noch mal abgewendeten Zusammenbuch des Weltfinanzsystems vorhergesagt, sondern die Verwerfungen im Finanzsektor und ihre realwirtschaftlichen Auswirkungen standen sogar in offenkundigem Widerspruch zum Weltbild der ökonomischen „Orthodoxie“ und waren durch die vorherrschende Theorie weder zu erklären noch mit ihr vereinbar. Sofern die Stabilität des Finanzsystems überhaupt ein Thema war, mit dem sich Ökonomen beschäftigten, war ihre Einschätzung, dass die vorangegangene Liberalisierung der Finanzmärkte und die enorme Zunahme des weltweiten Handels mit traditionellen und einer Vielzahl neuer Finanzprodukte die Stabilität des gesamten Systems gestärkt haben sollten. Letztlich aber war die Stabilität des Systems nie wirklich hinterfragt worden, da sie in der herrschenden Lehre als selbstverständlich vorausgesetzt wurde. Entsprechend groß war die Ernüchterung und Ratlosigkeit der Ökonomen, als geschah, was nicht geschehen durfte. Und die Öffentlichkeit zeigte sich entrüstet von den Irrlehren, mit denen ihr ein vorher schon von vielen argwöhnisch betrachteter Abbau aller Regulierungen der Finanzmärkte und die rasante Zunahme der Größe und des Einflusses des Finanzsektors schmackhaft gemacht worden waren.

Der Economist zeigte im Juli 2009 ein schmelzendes Ökonomielehrbuch als Titelbild, und viele Ökonomen traten in der Folgezeit mit harscher Selbstkritik an die Öffentlichkeit. So sprach etwa Thomas Straubhaar, der Direktor des Hamburgischen WeltWirtschaftsInstituts, vom „großen Irrtum“ der Ökonomen, auf den Effizienzmythos der Finanzwelt hereingefallen zu sein, und dass dieser Mythos lange Zeit durch ein „Meinungskartell“, auch aus Karrieregründen, gegen Kritik geschützt worden sei, indem missliebige Ansichten aus den führenden wissenschaftlichen Fachjournalen verbannt worden seien.1 Es lassen sich viele weitere Beispiele für Meinungsbeiträge anführen, in denen führende Ökonomen eingestanden haben, dass die Krise ihr Weltbild erschüttert habe, zumindest einige der Fundamente der Ökonomie (insbesondere der Finanzmarkttheorie und der Makroökonomik) offensichtlich nicht tragfähig gewesen seien, und ein sehr grundsätzliches Umdenken nötig sei. Die gegenwärtige Situation der Faches trägt damit Züge eines sich anbahnenden Paradigmenwechsels im Sinne des amerikanischen Wissenschaftstheoretikers Thomas Kuhn:2 Nach seiner Theorie entwickelt sich Wissenschaft durch eine Abfolge von jeweils vorherrschenden Paradigmen. Ein einmal dominierendes Paradigma könne zwar viele Widersprüche zu Details seines Lehrgebäudes und einzelne empirische Belege gegen seine Schlussfolgerungen verkraften und so für lange Zeit ein Fachgebiet beherrschen. Es könne aber auch schnell zusammenbrechen und durch ein neues Paradigma ersetzt werden, wenn durch unerwartete Ereignisse oder spektakuläre Experimente die vorher ignorierten Widersprüche offen zu Tage treten. Häufig führe eine solche Krise dann nicht nur zu einer Ersetzung eines obsolet gewordenen Theoriegebäudes durch ein neues, sondern verändere auch das Weltbild einer breiteren Öffentlichkeit.

Im Folgenden werde ich drei miteinander verbundene Aspekte des nun ins Wanken geratenen ökonomischen Mainstreams beleuchten, die zusammengenommen zu einer hyper-optimistischen Sicht der Effizienz, der Stabilität und der Selbstregulierungskräfte des Finanzsektors beigetragen haben. Darauf werde ich versuchen, Elemente eines neuen Paradigmas, das an die Stelle des unbedingten Glaubens an die Markteffizienz treten könnte, zu identifizieren, um zum Abschluss die Konsequenzen dieses Paradigmenwechsels für die Wirtschaftspolitik, insbesondere die Ordnungspolitik, herauszuarbeiten.

Die „Orthodoxie“ in der Finanzmarktforschung: die Theorie informationseffizienter Märkte

Die sogenannte Effizienzmarkttheorie wurde zu Beginn der 1960er Jahre entwickelt, um die scheinbare Zufälligkeit der Entwicklung von Aktienkursen und anderer Finanzmarktpreise über die Zeit hinweg zu erklären. Ausgangspunkt war ein negativer Befund: Vorangegangene Versuche, die Zeitreihen für Aktienkurse kausal zu erklären, blieben erfolglos. Andererseits schien es auch abwegig, anzunehmen, dass Kursänderungen einfach zufällig, d.h. beliebig, sein könnten. Letztlich sollten ja die Kurse den Unternehmenserfolg reflektieren, was in der fallweisen Betrachtung einzelner Unternehmen ex post auch leicht zu verifizieren war. Ex ante aber ließen sich keinerlei Variablen finden, mit denen man die folgende Kursentwicklung hätte prognostizieren können. Die Effizienzmarkttheorie erklärt dies damit, dass zu jedem Zeitpunkt jeweils alle relevanten Informationen über die zukünftigen Geschäftsaussichten eines Unternehmens bereits in den Preis seiner Aktien eingeflossen seien. Nur neue Informationen führten zu Kursänderungen, und da man zukünftige neue Informationen nicht vorhersagen kann, sollten auch Kursänderungen ex ante unvorhersehbar und zufällig sein. Die Kursbewegungen reflektieren damit die neuen Informationen, die die Marktteilnehmer über die zukünftigen Gewinnerwartungen erhalten – sie sind dann das exakte monetäre Äquivalent der Vielzahl der täglich eintreffenden Neuigkeiten über ein Unternehmen und die für sein Geschäftsfeld relevanten Umwelteinflüsse (wie den Konjunkturverlauf, das politische Weltgeschehen, die Entwicklung von Rohstoffpreisen und vieles mehr).

Als wissenschaftliche Theorie hat die Effizienzmarkttheorie allerdings eine zentrale Schwäche: Da wir zwar die Kursbewegungen, aber nicht den „news arrival process“ beobachten können, kann sie nicht direkt getestet werden. In einem Großteil der Literatur hat man sich deshalb darauf beschränkt, im Zirkelschluss bereits die Nähe der Kursdynamik zu einem Zufallsprozess als empirische Bestätigung der Effizienzmarkttheorie zu sehen. Trotz dieser empirischen Immunisierung der Theorie gab es aber schon lange eine Vielzahl von Beobachtungen, die sich kaum mit der Gültigkeit der Effizienzmarkttheorie vereinbaren ließen. Ganz wie von Kuhn beschrieben akkumulierten sich über die Zeit hinweg ungelöste „Anomalien“ (ein Begriff, der tatsächlich in der Finanzmarktliteratur geradezu inflationär für alles benutzt wird, was nicht mit der Effizienzmarkttheorie vereinbar war), bis zu einem Punkt, an dem bereits vor der Krise viele Wissenschaftler die herrschende Lehre in Frage zu stellen begannen. Einige der wichtigsten, lang bekannten „Anomalien“ seien hier kurz erwähnt:

  • Große Preisrückschläge sollten sich zwar nicht ex ante vorhersagen, aber sicher ex post auf wichtige neue Informationen zurückführen lassen. Wenn, wie am 19. Oktober 1987, der US-Aktienmarkt um mehr als 20% einbricht (d.h. letztlich die amerikanische Wirtschaft an einem Tag ein Fünftel ihres Wertes einbüßt) dann sollten Ökonomen feststellen können, was die überraschende (und am Vortag noch vollkommen unbekannte) Ursache für diesen Niedergang gewesen sein könnte (man könnte etwa auf einen gigantischen Einschlag eines Meteoriten tippen). Dieser und andere große Ausschläge wurden in einer Studie von Cutler et al.3 1989 erstmals systematisch mit dem Ergebnis untersucht, dass sogar für die Mehrzahl der großen Preisausschläge keine überzeugenden Erklärungen gefunden werden konnten. Auch die Umkehrung der Fragestellung erwies sich als problematisch: Identifizierte man Tage mit wichtigen, unerwarteten Ereignissen (z.B. ein überraschender Ausgang einer wichtigen Wahl, Ausbruch bewaffneter Konflikte und Ähnliches), so reagierte der Aktienmarkt darauf mitunter überraschend verhalten.
  • Etwa zur selben Zeit begannen Wirtschaftswissenschaftler mit systematischen Befragungen von Marktteilnehmern nach deren Handelsstrategien und der Bedeutung verschiedener Arten von Informationen für das Marktgeschehen.4 Wie sich herausstellte, legten die professionellen Händler für ihre kurz- bis mittelfristigen Aktivitäten kaum fundamentale Informationen zugrunde, und erwarteten auch nicht, dass die Marktpreise wesentlich von solchen Informationen getrieben würden. Stattdessen boten sie Erklärungen für die Preisentwicklung an, in denen der verpönte Begriff der Spekulation und der nicht weniger verdächtige des Herdenverhaltens eine zentrale Rolle spielten.
  • Den vielleicht überzeugendsten Beitrag zur Widerlegung der Effizienzmarkttheorie liefert der bereits vor drei Jahrzehnten von Robert J. Shiller5 entwickelte sogenannte Test auf exzessive Volatilität der Kurse. Shiller greift die obige Unterscheidung von Ex-ante- und Ex-post-Betrachtung auf und vergleicht ex ante rationale mit ex post rationalen Preisen. Erstere wären gemäß der Effizienzmarkttheorie schlicht die Marktkurse, in die ex ante alle verfügbaren Informationen eingehen, deren Auswirkungen auf den Unternehmenserfolg die Marktteilnehmer rational berechnen können. Der erwartete Unternehmenserfolg schlägt sich in den Dividenden nieder, so dass der ex ante rationale Kurs gleich der Summe der erwarteten zukünftigen (und auf die Gegenwart abgezinsten) Dividenden ist. Ein ex post rationaler Preis lässt sich bilden, indem aus der Zukunftsperspektive die tatsächlich realisierten Dividenden an die Stelle der erwarteten gesetzt werden. Wie würde sich ein derartiger Kurs (berechnet unter der Annahme eines Marktes, der die Zukunft perfekt voraussagen könnte) zum Marktkurs verhalten? Der ex post rationale Kurs würde stärker schwanken als der unter unvollständigem Wissen über die Zukunft gebildete Marktkurs. Dies deshalb, da er alle tatsächlichen zukünftigen Ausschläge der Dividenden ungefiltert abbilden würde, während der ex ante rationale Kurs über viele verschiedene mögliche zukünftige Entwicklungen mittelt (und damit einen glatteren Verlauf hätte). Ohne weitere Annahmen lässt sich also aus der Effizienzmarkttheorie die testbare (!) Konsequenz ableiten, dass der Schwankungsgrad des einfach konstruierbaren ex post rationalen Preises größer sein müsste als der des ex ante rationalen (Markt-)Kurses. Die empirische Analyse ergibt allerdings das Gegenteil: Der Marktkurs schwankt um ein Vielfaches stärker als sein ex post rationales Gegenstück! Dies spricht für Überreaktionen, spekulative Blasen und lang anhaltende Phasen von Über- und Unterbewertung statt allzeit rationaler Preisfindung.

Diese und andere Befunde hatten im Lauf der vergangenen Jahrzehnte immerhin dazu geführt, dass sich neben der vorherrschenden Literatur auf der Basis des Effizienzmarkttheorie-Ansatzes Forschungsgebiete etablieren konnten, die sich dem individuellen Verhalten der Marktteilnehmer mit seinen vielfältigen kognitiven Verzerrungen („behavioral finance“) oder der Entwicklung von Modellen des Marktgeschehens mit begrenzt rationalen Investoren widmen. Aus der Sicht des Mainstream allerdings wurde alles, was am Markt vom Bild der vollkommen rationalen Informationsverarbeitung abwich, als vernachlässigbare „Anomalie“ kategorisiert. Erst seit 2008 bricht sich die Erkenntnis Bahn, dass in diesem Fall eine Vielzahl von Ausnahmen vielleicht doch nicht die Regel bestätigt, sondern sie in der Summe widerlegt. Die Finanzkrise wurde zum Auslöser einer Krise der Finanzmarktforschung, in der, wie von Kuhn6 beschrieben, der vorherige Konsens von vielen in Frage gestellt wird, die kritischen Stellungnahmen stark zunehmen, über die vorher akzeptierten Grundlagen des Faches neu diskutiert wird, und Offenheit für neue Wege eingefordert wird.

Derivatemarkt: Pareto-optimal oder toxisch?

„[D]erivatives are essential to the development of a far more efficient and resilient financial system“, erklärte Alan Greenspan, der legendäre Präsident der US-Notenbank in einer Rede 2002,7 musste aber sechs Jahre später anlässlich einer Anhörung vor dem amerikanischen Kongress einräumen, dass er sich mit dieser Einschätzung wohl geirrt habe. Bekanntlich sprach dagegen bereits 2003 der „Großinvestor“ Warren Buffet statt von Effizienzsteigerung durch Derivate von „time bombs, financial weapons of mass destruction, carrying dangers that are potentially lethal.“8 Offensichtlich hatte der Praktiker einen besseren Blick für die Realität der Märkte als der stärker akademisch geprägte Notenbankchef.

Tatsächlich ist die Ansicht, dass die Einführung neuer Derivate nur nutzen- und effizienzsteigernd sein könnte, tief in der Geschichte der Volkswirtschaftslehre verwurzelt. Wer nicht als Finanzökonom direkt mit der Welt der Termingeschäfte und Optionen zu tun hat, denkt bei dem Begriff Derivate eher an die Eventualforderungen der altehrwürdigen Allgemeinen Gleichgewichtstheorie, wie sie von Leon Walras, Kenneth Arrow, Gerard Debreu und anderen entwickelt wurde. In ihrer exemplarischen Darstellung etwa in der 1959 erschienenen „Theory of Value: An Axiomatic Analysis of Economic Equilibrium“ des späteren Nobelpreisträgers Debreu sieht die Welt des allgemeinen Gleichgewichts wie folgt aus: Es gibt eine große Zahl von Wirtschaftssubjekten mit vorgegebenen Präferenzen (Nutzenfunktionen) und einer ebenfalls gegebenen Ausstattung mit Gütern. Auch in zukünftigen Perioden steht ihnen jeweils eine solche Ausstattung zur Verfügung, deren genaue Zusammensetzung von den Umweltzuständen abhängt, die mit bestimmten Wahrscheinlichkeiten eintreten. Diese Wahrscheinlichkeiten und die mit ihnen jeweils einhergehenden Ausstattungen sind allen bekannt. Die Ausstattungen sind für verschiedene Wirtschaftssubjekte unterschiedlich und stimmen nicht notwendig mit deren Konsumwünschen überein. Somit gibt es Anlass für Handel zwischen den Akteuren.

Das zentrale Ergebnis des Buches von Debreu ist der Beweis, dass ein vollständiges System von Märkten für alle Güter und Zustände zu einem „pareto-optimalen“ Ergebnis führt, also die Wohlfahrt aller unter den gegebenen Bedingungen maximiert. Ein vollständiges System solcher Eventualforderungen besteht dann aus so vielen Optionen zum Verkauf und Kauf einzelner Güter, wie es dem Produkt aus der Zahl der Umweltzustände und der Zahl der vorhandenen Güter entspricht. Nur wenn jede Möglichkeit einer zukünftigen Entwicklung abgedeckt ist, lässt sich der größtmögliche Nutzen für alle durch Tauschgeschäfte erzielen. Dabei wird allerdings jenseits der Ausgangsperiode nicht mehr gehandelt, sondern es werden zu allen zukünftigen Zeitpunkten nur noch Optionen eingelöst.

Die trivialisierte Konsequenz aus dieser sehr abstrakten modelltheoretischen Analyse ist die Behauptung, jedes noch so exotische neue Derivat sollte von volkswirtschaftlichem Nutzen sein, da es uns dem pareto-optimalen Zustand näher bringt (wie es sehr explizit von Alan Greenspan ausgesprochen wurde). Kaum jemals ist die Diskrepanz zwischen einer stilisierten Modellwelt und dem realen Geschehen auf Märkten größer gewesen. Dabei sind es gar nicht mal die auffälligen Vereinfachungen (z.B. vom Himmel fallende „Ausstattungen“ statt Produktion von Gütern), die besonders problematisch sind, sondern die populäre Schlussfolgerung von der allzeit nutzenstiftenden Natur neuer Derivate gilt auch in der Modellwelt selbst nicht in dieser simplen Form. Denn was im Grenzfall (eines vollständigen Systems alle Risiken abdeckender Eventualforderungen) gilt, gilt nicht notwendigerweise auch jenseits dieses theoretischen Extrems. Auch wenn ein vollständiges System von Derivaten pareto-optimal ist, würde in einer Welt mit unvollständiger Abdeckung aller Umweltzustände die Einführung eines jeden neuen Derivats nicht notwendigerweise zu einer Pareto-Verbesserung führen. Die Modellwelt selbst reicht also nicht einmal aus, um Greenspans Behauptung wirklich zu stützen.

Und natürlich sind die Annahmen des Modells in jeder Hinsicht verletzt. Es ist ja auch – wie im Untertitel von Debreu hervorgehoben – eine axiomatische Analyse, und d.h.: Eine Analyse, die nicht auf empirischen Erkenntnissen beruht, sondern auf mathematisch formulierten Axiomen über menschliches Verhalten. Eine der nicht sofort offensichtlichen Diskrepanzen zwischen Modell und Theorie ist, dass den Akteuren die Fähigkeit zugesprochen wird, die enormen Transaktions- und Informationserfordernisse für ein riesiges Portfolio von Derivaten ohne Kosten bewältigen zu können (erst später entwickelten Ökonomen wie Akerlof und Stiglitz Theorien für kostenintensive Informationsbeschaffung und -verarbeitung).

Tatsächlich sind Menschen sicher nicht dafür geschaffen, mit einer gegen unendlich gehenden Zahl von Wertpapieren Handel zu treiben und sich Informationen über die ihnen zugrundeliegenden Fundamentaldaten zu verschaffen. Andrew Haldane,9 Direktionsmitglied der Bank of England und dort verantwortlich für die Stabilität des Finanzsektors, hat nachgerechnet, dass ein Investor bei einer Investition in gestaffelte Kreditverbriefungen (sogenannte CDO-squared) mehr als eine Milliarde Seiten an Dokumentationen zu lesen hätte, um sich über die zugrundeliegenden Risiken umfassend zu informieren. Tatsächlich ist gut belegt, dass mit der Verbriefung (und Weiterreichung) von Hypothekenkrediten in den USA immer weniger Informationen über die spezifischen Risiken des einzelnen Kreditnehmers erhoben wurden,10 obwohl gemäß der Theorie ein Markt für Kreditverbriefungen nur dann zustande kommen sollte, wenn die Informationsbeschaffung durch den ursprünglichen Kreditgeber erhalten bleibt und der Käufer der Verbriefungen davon ausgehen kann, dass diese Informationen in den Preisen der entsprechenden Derivate reflektiert werden.11 Offensichtlich trägt die Common-Sense-Hypothese, dass derjenige, der sich seiner problematischen Forderungen durch Verbriefungen entledigen kann, weniger an Informationen über deren Bonität interessiert ist, weiter als die aus axiomatischen Grundlagen abgeleitete Gleichgewichtslösung.

Letztlich hat die Ökonomie in der Beurteilung eines der komplexesten Bereiche der Finanzsphäre schlicht auf die Gültigkeit von Analogien zu hochstilisierten Modellen vertraut. Empirische Untersuchungen der Frage, ob die Einführung bestimmter neuer Arten von Wertpapieren effizienzsteigernd wirkte, wurden dadurch geradezu verhindert. Eine wirkliche empirische Literatur hierzu existiert bis heute nicht. Wichtige wirtschaftspolitische Richtungsentscheidungen basierten auf ökonomischer Folklore anstelle von gesicherter empirischer Evidenz.

Kollateralschaden: Makroökonomie ohne Finanzsektor

Sind Finanzmärkte allzeit in der Lage, neue Informationen effizient zu verarbeiten, so muss sich der am größeren Ganzen interessierte Makroökonom glücklicherweise um diesen Teil der Volkswirtschaft keine Sorgen machen. Dass von ihm eine mögliche Rezession oder gar eine komplette Destabilisierung des Wirtschaftssystems ausgehen könnte, ist ja ausgeschlossen. Diese fatale „Einsicht“ wurde in der Entwicklung makroökonomischer Modelle in den letzten drei Jahrzehnten mit größter Konsequenz umgesetzt. Die 2008 herrschende Klasse makroökonomischer Modelle besaß daher keinen Finanzsektor, und dies, obwohl ein erheblicher Teil der makroökonomischen Forschung in den Forschungsabteilungen der wichtigsten Zentralbanken stattfand. Selbst die Geldmenge (traditionell wichtiger Bauteil des aus Güter- und Geldmarkt bestehenden Modells jeder Vorlesung zur Einführung in die Volkswirtschaftslehre) war eliminiert worden. Als einzige Variable aus dem Finanz- und Geldbereich blieb der Zinssatz erhalten, mit dem die Zentralbank im Modell recht direkt auf Spar- und Investitionsentscheidungen einwirken konnte.

Die zeitgenössischen Makromodelle weisen einige weitere bemerkenswerte Eigenheiten auf: Sie bauen auf dem Nutzenmaximierungsproblem eines sogenannten repräsentativen Haushalts auf, der meist einen unendlich langen Zeithorizont hat, und für alle zukünftigen Einflussfaktoren auf die wirtschaftliche Entwicklung objektive Wahrscheinlichkeiten kennt, auf deren Grundlage er rational seinen Konsum und Arbeitseinsatz plant. Natürlich würde ein derart rationaler Wirtschaftsplaner keine Rezessionen verursachen wollen. Konjunkturschwankungen entstehen deswegen auch nicht aus dem Wirtschaftsprozess selbst, sondern sind Ausdruck optimaler Anpassungen nach exogenen Schocks. Sucht man wiederum nach deren Ursache, so bleibt aufgrund der sehr begrenzten Rahmensetzung dieses Modells nur ein negativer „Technologieschock“ als Möglichkeit (d.h. eine Volkswirtschaft hat plötzlich einiges aus ihrem historisch gewachsenen Fundus an Produktionstechniken verlernt und passt sich mit einer Rezession optimal an diese unglückliche Entwicklung an). Es gibt ernsthafte Versuche führender Vertreter der Mainstream-Makroökonomik, die Finanzkrise als einen solchen exogenen Schock zu modellieren.12

Der Nobelpreisträger Paul Krugman hielt die zunächst bis 2008 vorherrschende Richtung von drei Jahrzehnten makroökonomischer Forschung im besten Fall für vollkommen nutzlos und im schlechtesten Fall für sehr schädlich.13 Auch Laien reagieren meist überrascht auf diese Modellbildungstradition, die schwer mit dem Alltagsverständnis des Wirtschaftslebens vereinbar ist. In diesem Bereich wurde der empirischen Forschung wenig Raum gelassen. So sollen die Väter der Mainstream-Makroökonomik, Robert Lucas und Edward Prescott schon früh bemerkt haben, dass durch statistische Tests „zu viele gute Modelle“ widerlegt würden14 und man deshalb in der Makroökonomie eher „kalibrieren“ als testen sollte, also Modelle durch geschickte Wahl ihrer Parameter an die Daten angepasst werden sollten. War die empirische Überprüfung weniger wichtig, so wurde umso mehr Gewicht auf den Alleinvertretungsanspruch für die Makroökonomie gelegt: Moderne Lehrbücher und das Vorlesungsprogramm der meisten Doktorandenprogramme enthalten meist keine Spur mehr von älteren Ansätzen, sondern lassen die vermittelte Makroökonomie erst nach 1980 beginnen. Dies hat zur Folge, dass ganze Generationen von Wissenschaftlern von frühen Entwicklungen abgeschnitten waren und dies aufgrund des Beharrungsvermögens der Curricula und des Fehlens geeigneten Lehrmaterials heute noch weitgehend sind. So dürften die meisten jüngeren Wirtschaftswissenschaftler von den Theorien Hyman Minskys zur Fragilität des Finanzsektors nicht aus Lehrveranstaltungen, sondern durch Berichte in Massenmedien im Gefolge der Finanzkrise erfahren haben. In dieser Tradition war schon das Nachdenken über Wirtschaftskrisen, die vom Finanzsektor ausgehen, weder möglich noch gewünscht.

Weg von der „Brave New World“ der Effizienzmarkt­theorie und der Mainstream-Makroökonomik

Die drei skizzierten (Fehl-)Entwicklungen der ökonomischen Forschung haben gemeinsam, dass ihnen ein sehr optimistisches Bild des Selbstregulierungspotenzials des Wirtschaftslebens zugrunde liegt, etwa im Sinne von Hayeks Theorie einer sich spontan herausbildenden Ordnung15 in einem marktwirtschaftlich organisierten Wirtschaftssystem. Zugleich herrscht hier auch ein sehr optimistisches Bild von den Möglichkeiten einzelner Akteure, „rationale“ Entscheidungen in beliebig komplexen Situationen zu treffen.

Jüngere Entwicklungen wie die verhaltenstheoretische Wirtschaftsforschung und die Experimentalökonomie haben jedoch nachgewiesen, dass gerade die Rationalität menschlicher Entscheidungen oft sehr beschränkt ist. Einen großen Teil dieser Literatur kann man regelrecht als empirische Tests verschiedener Varianten und Konsequenzen der Rationalitätsannahme betrachten. So beobachtet man in einfachsten Laborexperimenten, in denen eine überschaubare (meist einstellige) Zahl von Probanden an einem künstlichen Finanzmarkt Handel treiben darf, fast immer eine Tendenz zur Herausbildung spekulativer Blasen – selbst dann, wenn der Leiter des Experiments den Wert des Papiers über eine Endauszahlung fest vorgibt. Gerade in der für Finanzmärkte charakteristischen Situation des Handels eines verbrieften Anspruchs auf der Grundlage zukünftiger Erträge scheinen sich Erwartungen sehr schnell zu verselbständigen und eine Eigendynamik zu entwickeln. So ist auch das Bild, das Marktteilnehmer von ihren Aktivitäten zeichnen, meist sehr viel weniger schmeichelhaft als das ihnen von der Effizienzmarkttheorie zugesprochene rationale Verhalten. Dabei ist fraglich, ob ein solches rationales Optimieren nicht eine höchst idealistische und für die Analyse realer Märkte ungeeignete Annahme ist. Weder bezüglich der möglichen zukünftigen Erträge noch bezüglich der zukünftigen makroökonomischen Entwicklungen gibt es tatsächlich objektive Eintrittswahrscheinlichkeiten, mit denen man leicht einen mathematischen Erwartungswert für den Kurs oder das Volkseinkommen in zwei Jahren berechnen könnte. Die in der Realität herrschende Unsicherheit ist sehr viel grundsätzlicherer Natur als das mit der Ziehung einer von mehreren Möglichkeiten verbundene Risiko. Dieser Aspekt erfordert neue Konzepte für Entscheidungen unter Unsicherheit, die auch in der Entscheidungstheorie bereits entwickelt wurden. Allerdings besteht Unsicherheit im ökonomischen Kontext nicht allein aus exogener Unsicherheit, die von außen auf den Wirtschaftsprozess einwirken kann. Während der Tsunami in Japan 2011 ein solches Ereignis war (das Naturwissenschaftler sogar mit einer Wahrscheinlichkeit des Eintreffens versehen können), war der Tsunami an den Finanzmärkten 2008 wohl doch eher ein endogenes, durch die Wirtschaft selbst erzeugtes Ereignis, das durch Wechselwirkungen einer Vielzahl von Akteuren zustande kam.

Die Konzentration auf das Optimierungsproblem einzelner Wirtschaftssubjekte in der Makroökonomik hat den Blick auf die Bedeutung der Wechselwirkungen zwischen Entscheidungsträgern verbaut. Ökonomische Modelle haben mit dem repräsentativen Agenten einen Baustein des Wirtschaftssystems an die Stelle des gesamten Marktprozesses oder gar des gesamten Produktionsprozesses einer Volkswirtschaft gesetzt. Dabei ist das Bewusstsein dafür, dass in komplexen Systemen das Ganze mehr ist als die Summe seiner Teile, verloren gegangen.16 Es erscheint wesentlich plausibler und mit der Alltagserfahrung verträglicher, Rezessionen als das ungewollte Resultat kollektiver unkoordinierter Entscheidungen anzusehen (wie in der älteren Konjunkturtheorie) als als ausgeklügelte optimale Antwort eines die dynamische Programmierung perfekt beherrschenden Haushalts auf exogene Störungen. Massenpsychologische Effekte, die das Konsum- und Investitionsverhalten beeinflussen und damit zum auslösenden Faktor für Konjunkturschwankungen werden können, setzen die Interaktion von Wirtschaftssubjekten in einem Meinungsbildungsprozess voraus, der wahrscheinlich sehr weit von rationaler Informationsverarbeitung entfernt ist. Zum Problem der Einkommens- und Vermögensverteilung lässt sich auf der Basis von Modellen mit einem repräsentativen Akteur schon gleich gar nichts sagen (weshalb die Forschung zu diesen Themen in den letzten Jahrzehnten weitgehend eingeschlafen ist und Lehrveranstaltungen zur Verteilungsfragen z.B. in Deutschland flächendeckend aus den Vorlesungsprogrammen genommen wurden).

Es ist schwer vorherzusagen, ob es tatsächlich zu einem nachhaltigen Paradigmenwechsel kommen wird, oder nicht nach einer kurzen Periode der Selbstgeißelung eine Restauration alter Ideen einsetzen wird. Die für die Ökonomie vollkommen überraschende Finanzkrise sollte in jedem Fall zu etwas mehr Bescheidenheit in der politischen Beratung führen. Viele Empfehlungen zu weitreichenden wirtschaftspolitischen Reformen beruhten in der Vergangenheit auf einfachsten, ungeprüften Modellvorstellungen, die manchmal eher vor-analytische Weltanschauungen in mathematischen Axiomen ausdrückten als konkrete Probleme der Ökonomie zu analysieren. Hier ist eine stärkere empirische Fundierung sowohl der ökonomischen Theorien als auch wirtschaftspolitischer Empfehlungen nötig.

Neue Herausforderungen für die Ordnungspolitik

Im Zuge der weitgehenden Deregulierung der Finanzmärkte wurde der vormals sehr enge ordnungspolitische Rahmen für Bankgeschäfte stark gelockert und eine Vielzahl von unregulierten neuen Akteuren (Hedgefonds, „special purpose vehicles“ alias Schattenbanken u.a.) und neuen An­lage­in­strumenten geschaffen. Die Mehrzahl dieser neuen Marktteilnehmer und neuen Instrumente blieb nicht nur weitgehend von staatlicher Regulierung verschont, sondern wurde und wird nicht einmal in ihrem quantitativen Engagement und Umfang erfasst. So konnten Öffentlichkeit und Politik nur raten, wie hoch das Volumen ausstehender Kreditversicherungen auf griechische Staatsanleihen wohl wäre und ob es ausreichen würde, um bei einem Zahlungsausfall Griechenlands eine Welle von Bankenpleiten auszulösen. Die Berichtspflichten des Finanzbereichs zu erweitern, ist deswegen eine nahezu triviale Voraussetzung dafür, das Gefährdungspotenzial und die Ansteckungseffekte im Finanzsektor besser beurteilen zu können.

Da die ungehemmte Deregulierung anscheinend der falsche Weg war, stellt sich nun die Frage, welche Regulierungen notwendig erscheinen, um einen institutionellen Rahmen zu schaffen, in dem Finanzmärkte ihrer wichtigen gesamtwirtschaftlichen Aufgabe gerecht werden, das verfügbare Kapital an den Ort seiner sinnvollsten Verwendung zu schleusen, ohne dass dieser Prozess sich von der Realwirtschaft abkoppelt, und gar selbst zu einer Quelle der Instabilität wird. Wie lässt sich in diesem Zusammenhang etwa der Vorschlag einer Steuer auf Finanztransaktionen beurteilen? Traditionell führte der Vorschlag der sogenannten Tobin-Steuer zu einem instinktiven Aufschrei vieler Ökonomen, die dadurch die Effizienz der Märkte gefährdet sahen. Nun ist allerdings das Modell, auf dem diese Ablehnung beruhte, obsolet geworden. Wie wirkt die Steuer in einem Markt, der nicht allzeit informationseffizient ist, und zu exzessiver Volatilität und Blasenbildung neigt? Modelliert man einen derartigen Markt, indem man realistisches Angebots- und Nachfrageverhalten entsprechend den Informationen aus empirischen Studien verwendet, so zeigt sich, dass Steuersätze in geringfügigem Bereich (0,1% bis 0,5%, wie in den aktuellen Diskussionen erwogen) die Tendenz haben, destabilisierende, ultrakurzfristige Spekulationen zu dämpfen und damit die Marktschwankungen zu reduzieren.17 Ebenso ließe sich die experimentelle Wirtschaftsforschung einsetzen, um solche Maßnahmen zu untersuchen. Die Wirkungsweise einer Transaktionssteuer könnte so in einem künstlichen Finanzmarkt wie in einem „Windkanal“ getestet werden, ebenso die Einführung neuer Arten von Derivaten.

Eine wesentlich größere Herausforderung stellt sich jedoch bei der Regulierung des Finanzsektors als Ganzes. Es ist in den letzten Jahrzehnten nicht nur das Handelsvolumen vieler Akteure exponentiell gewachsen, sondern auch der Anteil des Finanzsektors an den Unternehmensgewinnen und die Verflechtungen innerhalb des Finanzbereichs. Ersteres legt die Frage nahe, ob ein unregulierter Finanzbereich eine Tendenz zu überproportionalem Wachstum aufweist und mehr und mehr Ressourcen einer Volkswirtschaft von der primären produktiven Verwendung abzieht.

Letzteres führt zu der Aufgabe, das System so zu reformieren, dass der Marktaustritt einzelner Akteure (der eine wichtige Funktion für den funktionierenden Wettbewerb hat) nicht das gesamte System zum Einsturz bringt. Auch hier war die traditionelle Sichtweise offensichtlich irreführend: Neue Derivate hatten das System als Ganzes nicht robuster, sondern verletzlicher gemacht. Betrachtet man ein derart engmaschig verknüpftes System (illustriert in Abbildung 1), besteht die Aufgabe darin, die Rahmenbedingungen für die in diesem System handelnden Akteure so zu schaffen, dass der Ausfall eines Knotens für die anderen Komponenten tragbar ist. Hierfür sind eine Vielzahl von Maßnahmen denkbar: Möglicherweise reicht eine Anhebung der Anforderung an die Eigenkapitalunterlegung, oder es mag sinnvoll sein, eine variable Eigenkapitalunterlegung für verschiedene Institute (höhere für die „systemisch wichtigen“) oder für verschiedene Aktivitäten zu fordern. Weitergehende Regulierungen könnten eine Trennung zwischen Investment- und Kundengeschäft oder „fire walls“ zwischen verschiedenen Sparten des Bankensystems vorsehen. Die Frage nach der zielführenden Regulierung kann nur auf der Grundlage von Informationen über die Struktur der Verflechtungen und ein Verständnis der Wechselwirkungen innerhalb des Systems beantwortet werden. Dies ist eine Aufgabe, die nur mittels empirischer Analyse und einer theoretischen Nachbildung der Binnenstruktur des Finanzsektors angegangen werden kann.18

Abbildung 1
Vernetzung des Finanzsektors
33559.png

Die Grafik enthält alle Interbankkredite, die im 4. Quartal 2010 über die in Mailand ansässige Handelsplatform e-MID abgeschlossen wurden. Die Kreise stehen für italienische Banken (die Mehrheit der Teilnehmer dieser Handelsplatform), die Dreiecke für Banken mit Sitz außerhalb Italiens. Die Verbindungslinien zeigen bestehende Kreditbeziehungen an, Größe und Farbintensität der Symbole zeigen die Höhe der vergebenen Kredite an. Diese Daten zeigen nur einen kleinen Ausschnitt der finanziellen Verflechtungen zwischen Kreditinstituten, sowohl in Bezug auf die erfassten Kreditinstitute wie auch der Geschäfte zwischen ihnen. Es handelt sich dabei um das bislang einzige öffentlich verfügbare Datenmaterial zur finanziellen Binnenstruktur des Finanzsektors. Die Stabilität bzw. Störanfälligkeit eines solchen Systems lässt sich durch Methoden der Netzwerkforschung analysieren.

Quelle: Vgl. D. Fricke, T. Lux: Core-Periphery Structure in the Overnight Money Market: Evidence from the e-MID Trading Platform, Kiel Working Paper, Nr. 1759, Kiel 2012.

Die Schaffung eines neuen regulatorischen Rahmens für die Finanzmärkte ist eine genuin ordnungspolitische Aufgabe, die nicht durch eine spontane Selbstorganisation des Finanzsektors ersetzt werden kann. Die weitgehende Deregulierung der letzten 30 Jahre kann geradezu als sozialwissenschaftliches Großexperiment angesehen werden, dessen unbefriedigender Ausgang die Notwendigkeit aktiver ordnungspolitischer Gestaltung des Finanzbereichs belegt hat.

  • 1 T. Straubhaar: Der große Irrtum, in: Financial Times Deutschland vom 9.10.2011.
  • 2 T. Kuhn: The Structure of Scientific Revolutions, 2. Aufl., Chicago 1962.
  • 3 D. M. Cutler, J. M. Poterba, L. H. Summers: What Moves Stock Prices?, in: Journal of Portfolio Management, 15. Jg. (1989), H. 2, S. 4-12.
  • 4 M. P. Taylor, H. Allen: The Use of Technical Analysis in the Foreign Exchange Market, in: Journal of International Money & Finance, 11. Jg. (1992), H. 3, S. 304-314. Die ersten Surveystudien bezogen sich auf Devisenmärkte, für die als internationale Finanzmärkte ebenfalls informationseffiziente Preisbildung nach einer modifizierten Version der Effizienzmarkttheorie postuliert wurde. Ähnliche Ergebnisse für Aktienmärkte finden sich z.B. in R. J. Shiller: Measuring Bubble Expectations and Investor Confidence, in: Journal of Psychology and Financial Markets, 1. Jg. (2000), H. 1, S. 49-60.
  • 5 R. J. Shiller: Do Stock Prices Move too much to be Justified by Subsequent Changes in Dividends?, in: American Economic Review, 71. Jg. (1981), H. 3, S. 421-436.
  • 6 T. Kuhn, a.a.O.
  • 7 Remarks by Chairman Alan Greenspan: Economic flexibility, before the HM Treasury Enterprise Conference, London, 26.1.2004, http://www.federalreserve.gov/boarddocs/speeches/2004/20040126/default.htm.
  • 8 Aus dem Chairman’s Letter zum Jahresbericht der Berkshire Hathaway, Inc., http://www.berkshirehathaway.com/letters/2002pdf. Auch die Erklärungen zur Toxizität von Derivaten in diesem Bericht sind lesenswert.
  • 9 A. Haldane: Rethinking the financial network, Speech delivered at the Financial Student Association, Amsterdam, April 2009, http://www.bankofengland.co.uk/publications/Documents/speeches/2009/speech386.pdf.
  • 10 U. Rajan, A. Seru, V. Vig: The failure of models that predict failure: Distance, incentives and defaults, Chicago Graduate School of Business Working Paper, 2008.
  • 11 P. DeMarzo: The Pooling and Tranching of Securities: A Model of Informed Intermediation, in: Review of Financial Studies, 18. Jg. (2005), H. 1, S. 1-35.
  • 12 P. Minford: The Banking Crisis as Dynamic Stochastic General Equilibrium, CESifo Economic Studies, Nr. 56, 2010, S. 554-574.
  • 13 In seiner Lionel Robins Memorial Lecture an der London School of Economics, 8.6.2009.
  • 14 G. W. Evans, S. Honkapohja: An Interview With Thomas J. Sargent, in: Macroeconomic Dynamics, 9. Jg. (2005), H. 4, S. 561-583.
  • 15 F. von Hayek: The Constitution of Liberty, London 1960.
  • 16 Der Physiknobelpreisträger Philip Anderson nannte dies das Prinzip des „more is different“ (P. W. Anderson: More is different, in: Science 177. Jg. (1972), S. 393-396). Im Gegensatz zu repräsentativen Akteuren der Wirtschaftstheorie scheint die Soziologie die Unterscheidung zwischen der Ebene des einzelnen Akteurs und den aus der Interaktion solcher einzelner sich ergebenden Makrophänomenen ernster zu nehmen. So ist ein Sonderheft des Journal of Mathematical Sociology 2011 dem Thema „Micro-Macro-Links and Microfoundations of Sociology“ gewidmet.
  • 17 Vgl. M. Demary: Transaction Taxes and Traders with Heterogeneous Investment Horizons in an Agent-Based Financial Market Model, in: Economics, The Open-Access Open Assessment E-Journal, 4. Jg. (2010), H. 2010-8.
  • 18 Vgl. A. Haldane, R. May: Systemic Risk in Banking Ecosystems, in: Nature, Nr. 469, 2011, S. 351-355

Title:Efficiency and Stability of Financial Markets: Is a Paradigm Change Imminent?

Abstract:The paper discusses the impact of the financial crisis on macroeconomics and on research into financial markets. The cornerstones of the economic mainstream were made obsolete by actual developments in recent years, and there are now signs that a fundamental paradigm shift is possible. After the failures stemming from the extensive deregulation of financial markets, economic policy now faces the challenge of actively reshaping the regulatory design of this central area of economic activity.

Beitrag als PDF

DOI: 10.1007/s10273-013-1483-7

Fachinformationen über EconBiz

EconBiz unterstützt Sie bei der Recherche wirtschaftswissenschaftlicher Fachinformationen.