- Registriert
- 22.8.2012
- Beiträge
- 15.911
- Reaktionen
- 21.381
- Punkte
- 1.006
- Checks
- 4
Selbst die Daten in der von ihm erwähnte Diplomarbeit zeigen ein Schwinden des Zusammenhanges Mitte der 1990er Jahre und es wird ein völliges Fehlen einer Korrelation seit Beginn des 21 Jahrhunderts konstatiert.
Für diese Erkenntnis müsste man stochastische Modelle lesen und auch verstehen können.
Zudem räumt der Autor ein, dass die Arbeit über keinerlei Prognosegüte verfügt.
Ich lese diese Beiträge nicht mehr, geschweige denn, dass ich auf diesen Unsinn noch weiter eingehe. Diskussionen mit halbgebildeten Schmalspur-NLPlern sind reine Zeitverschwendung. Besonders bizarr waren die Ausführungen zur Preisfindung bzw. Preissetzungsverhalten in einem Polypol bzw. Oligopol ohne Stackelberg-Führerschaft. Das war an Schwachsinn kaum noch zu überbieten – von den übrigen dümmlichen Strohmannargumenten, die da immer wieder aus der Mottenkiste gezaubert werden, ganz zu schweigen.
Wenn die Arbeit keinerlei Prognosefähigkeit besitzt, dann ist damit im Grunde ohnehin schon alles gesagt.
All diese Arbeiten älteren Datums, die die Inflationsentwicklungen als monetäres Phänomen zu erklären versuchen, haben prinzipiell zwei Dinge gemein:
Erstens sie reichen zumeist bis in die 70er Jahre zurück und beziehen somit zwangsläufig einen Zeitraum (70er und 80er Jahre) mit ein, der einen sehr engen Zusammenhang zwischen Geldmenge und Preisniveau aufweist (die Betonung liegt auf Zusammenhang im Sinne einer Korrelation keinesfalls im Sinne einer Kausalität – wobei dieser Zusammenhang gerade in der kurzen und mittleren Frist sehr stark von den Lohnstückkosten beeinflusst ist).
Zweitens: sie bedienen sich nach heutigem Wissensstand einer mehr als problematischen Methodik: Dabei werden zunächst die ermittelten Zeitreihen mittels Fourier oder LaPlace in ein Frequenzspektrum transformiert. Die grundsätzliche Idee dahinter: jede Zeitreihe wird dabei als Summe von Sinusschwankungen unterschiedlicher Frequenz und Amplitude dargestellt.
Aus rein mathematischer Sicht ein durchaus elegantes Verfahren, in der Ökonometrie sind diese Verfahren zum einen durch oft auftretende Interpretationsschwierigkeiten und zum anderen durch ihre restriktiven Voraussetzungen stark eingeschränkt und auch fehlerbehaftet. So unterstellen sie Stationarität, was u. a. Trendfreiheit impliziert. Hinzu kommt, weist eine zu untersuchende Zeitreihe eine evolutorische Entwicklung auf, so muss vorab der Trend eliminiert werden. Weiterhin kann bisher die Frage, ob die errechneten Komponenten auch tatsächlich einen signifikanten Beitrag zur Erklärung der Gesamtvarianz der Zeitreihe leisten, nur ungenau beantwortet werden. Außerdem umfassen nur wenige ökonomische Zeitreihen den geforderten Mindestumfang von 100 bis 150 Beobachtungen.
Soweit so gut.
Nachdem bei all diesen Studien in der kurzen bzw. mittleren Frist kein oder nur ein sehr, sehr schwacher Zusammenhang – abhängig vom Untersuchungszeitraum und dem gewählten Geldmengenaggregat – gefunden wird, geht man nun her und eliminiert die hohen und mittleren Frequenzen, indem man sie herausfiltert. Übrig bleiben dann meist Schwingungen mit einer Periodizität von 5 bis 8 Jahren, die eine gewisse Übereinstimmung aufweisen.
Im nächsten Schritt versucht man diesen primär gefundenen Zusammenhang mittels Impuls-Antwort-Funktion zu bestätigen. Dabei werden, völlig willkürlich, bestimmte Variablen als exogen angenommen – Annahmen von denen man heute weiß, dass sie falsch sind.
Methodisches Problem dabei ist, dass sie die Unkorreliertheit kontemporärer Störterme voraussetzt. Nur unter dieser Voraussetzung verändert ein Impuls in einem Störterm εj nicht gleichzeitig die Störterme der übrigen Variablen. Sind die Störterme miteinander korreliert, verändert ein Impuls von εj auch die anderen Störterme, sodass die endgültige Wirkung auf die zu untersuchenden Variablen nicht eindeutig dem Impuls εj zugeordnet werden kann.
Keine dieser Studien kann hinreichend gut erklären, wie diese Störterme, insbesondere über einen derart langen Zeitraum (bei Perioden von bis zu 8 Jahren) ausgeschlossen werden können. In einem geschlossenen System, das indirekt bei all diesen Impuls-Antwort Funktionen unterstellt wird, findet man für so gut für jede Variable einen Zusammenhang im niedrigen Frequenzbereich.
Die deutsche Bundesbank und teilweise die EZB haben sich früher dieser Analyseverfahren bedient, bis man erkannt hat, dass diese Modelle als Inflationsprognose ungeeignet und keine hinreichende Erklärung für Veränderungen des Preisniveaus liefern.
Da hat wohl de Grauwe geirrt. Wie The Case Against the Quantity Theory aufzeigt, erweist sich die Quantitätstheorie des Geldes wohl nicht nur in Phasen niedriger Inflation als unbrauchbar, auch bei Hyperinflationen liefert sie keinerlei Erklärungsbedarf.
Soweit mir bekannt, hat de Grauwe nicht zu den Zusammenhängen bei Hyperinflationen geforscht......aber zu der Arbeit "The Case against the Quantity Theorie" - welche übrigens als beste Arbeit Deutschlands des Jahres 2019 ausgezeichnet wurde und in Fachkreisen entsprechende Anerkennung findet:
Sie zeigt ganz deutlich, dass es sich bei Hyperinflation immer um eine Wechselkursinflation handelt, sprich die Notenbank verfügt nicht mehr über ausreichende Aktiva um den Wechselkurs stabilisieren zu können.
Am Beispiel der Hyperinflation in Deutschland ist das besonders deutlich zu sehen. Nicht nur, dass der Geldmengenanstieg der Inflationsentwicklung deutlich hinterher läuft, es zeigte sich obendrein, dass die Entwicklung der Geldmenge von dieser komplett entkoppelt war, nämlich daran, dass selbst als der Wechselkurs auf Grund einer Rekapitalisierung der Notenbank und somit auch die Inflation längst wieder stabilisiert waren, die Geldmenge weiterhin anstieg und zwar um mehrere hundert Prozent.
Alle empirischen Daten zeigen klar und deutlich, dass gerade im Fall von Hyperinflationen diese immer mit dem Aussenwert der Währung, also dem Wechselkurs korreliert, das Preisniveau zur Leitwährung, dem Dollar, blieb dabei immer konstant. (Quelle: federalreserve.org.)
Zuletzt bearbeitet: