Vorbemerkung: Die konventionelle Wirtschaftstheorie beschreibt nur unzureichend die physische Sphäre der Produktion: Dies ist die Botschaft einer wachsenden Zahl von Abhandlungen in der wissenschaftlichen Fachliteratur. Nicht wenige davon betreffen die Rolle der Energie als eigenständiger Produktionsfaktor neben Kapital und Arbeit. In früheren Artikeln war davon des öfteren schon die Rede. Der nachfolgende Aufsatz soll das darin Gesagte noch einmal allgemeinverständlich zusammenfassen und somit einer breiteren Öffentlichkeit zugänglich machen. Einige tiefergehende Erläuterungen, die teilweise nur mit einem gewissen mathematischen Hintergrundwissen verständlich sind, sind durch Einrückung (und kleinere Schrift) kenntlich gemacht. Sie sind zum Verständnis des Haupttextes nicht erforderlich und können übersprungen werden.
Ein fundamentales Ungleichgewicht zwischen den Produktionsfaktoren Arbeit und Energie war in einer Reihe vorangegangener Aufsätze (vgl. u.a. [5], [7], [8], [9], [14]) als tiefere Ursache der heutigen Krisenerscheinungen (Arbeitslosigkeit, Krise der Sozialsysteme, Staatsverschuldung etc.) diskutiert worden. Doch fehlt derzeit fast jedes öffentliche Bewusstsein für diese Problematik und vor allem für ihr Ausmaß. Allenfalls ist gelegentlich (und nur eher vage) davon die Rede, dass Arbeit zu teuer und Energie zu billig sei; dies wird jedoch in aller Regel nicht näher quantifiziert. Im Folgenden soll deshalb noch etwas ausführlicher als bisher versucht werden, die quantitative Bestimmung dieses Ungleichgewichts verständlich zu machen und seine Entstehung aus der technischen Struktur des Produktionsapparats und den derzeit herrschenden ökonomischen Rahmenbedingungen darzustellen.
Am naheliegendsten erscheint es zunächst, die Kosten des Faktors Arbeit und die des Faktors Energie miteinander zu vergleichen. Diese Werte sind wohlbekannt: Der Anteil der Arbeitskosten an den gesamten Faktorkosten liegt in den Volkswirtschaften der westlichen Industrienationen im Mittel bei etwa 65%, der der Energiekosten bei etwa 5%. Die übrigen ca. 30% entfallen auf den Faktor Kapital. (In den einzelnen Branchen differieren die Verhältnisse natürlich: So liegt im Dienstleistungssektor der Energiekostenanteil niedriger, in energieintensiven Branchen wie etwa der eisenschaffenden Industrie oder dem Bergbau höher - dort beträgt er 12 bis 13% des Bruttoproduktionswerts (vgl. [12], S. 108).) Auf den ersten Blick zeigt sich ein deutlicher Unterschied: 65% Arbeitskosten gegenüber knapp 5% Energiekosten. Daraus schon abzuleiten, dass Energie zu billig, Arbeit zu teuer ist, wäre freilich voreilig; schließlich wäre es denkbar, dass die wirtschaftliche Bedeutung bzw. Leistungsfähigkeit der Energie weit hinter der der menschlichen Arbeit zurückhinkt, so dass die niedrigeren Kosten gerade angemessen wären. Um zu entscheiden, ob und in welchem Ausmaß überhaupt eine Schieflage zwischen Arbeit und Energie besteht, müssen wir also neben den jeweiligen Faktorkostenanteilen auch die Leistungsfähigkeiten, die Erträge der Faktoren Arbeit und Energie kennen; nur wenn letztere von den jeweiligen Faktorkostenanteilen merklich abweichen, kann von einer Schieflage, einem Ungleichgewicht die Rede sein; einer bloßen Kontrastierung der Kostenanteile könnte hingegen durchaus zu Recht vorgeworfen werden, Äpfel mit Birnen zu vergleichen. Die Frage der Leistungsfähigkeit eines Produktionsfaktors wird allerdings in der öffentlichen Diskussion um Energiesteuern bis heute kaum thematisiert, was für manche Argumentationsnöte ihrer Befürworter verantwortlich sein dürfte.
Der Begriff der Produktionsmächtigkeit
Es geht also darum, abzuschätzen, welcher Beitrag an der Gesamtwertschöpfung den einzelnen Produktionsfaktoren (Kapital, Arbeit, Energie) zugeschrieben werden kann. Aber wie soll man diese Beiträge messen, da doch alle drei Faktoren offensichtlich unverzichtbar sind, nicht voneinander isoliert betrachtet werden können? Selbstredend kann es nicht darum gehen, wieviel man etwa mit dem Faktor Energie alleine, ohne Kapital und Arbeit produzieren kann; dieser Beitrag würde (fast) bei Null liegen, da ja in der Tat Produktion ohne Kapital und Arbeit weitgehend unmöglich ist. Sehr wohl kann man aber danach fragen, wie sehr sich - ausgehend von einem bestimmten Ist-Zustand - die Wertschöpfung verändert, wenn der Einsatz eines einzelnen Produktionsfaktors ein wenig variiert, der der übrigen Faktoren jedoch konstant gehalten wird. Um wieviel also nimmt beispielsweise die Produktion zu, wenn der Energieeinsatz um ein Prozent ausgeweitet wird, der Einsatz von Kapital und Arbeit jedoch unverändert bleibt? Je höher diese Produktionszunahme ist, je empfindlicher die Volkswirtschaft also auf kleine Variationen in der Faktoreinsatzmenge reagiert, als desto bedeutsamer, desto wichtiger wird man den jeweiligen Produktionsfaktor ansehen dürfen. Und mehr noch: Indem man die solchermaßen induzierte (relative) Veränderung der Produktion ins Verhältnis setzt zur zugrundeliegenden (relativen) Veränderung der Faktoreinsatzmenge, erhält man einen quantitativen Maßstab für die Leistungsfähigkeit des betreffenden Faktors. Dieses Verhältnis bezeichnet man als Produktionselastizität oder auch als Produktionsmächtigkeit des jeweiligen Faktors.
Während die Ökonometrie den Begriff Produktionselastizität verwendet, werden wir aus Gründen der Anschaulichkeit im Folgenden zumeist von Produktionsmächtigkeit sprechen.
Die Produktionsmächtigkeiten geben also die Gewichte an, mit denen (prozentuale) Veränderungen im Einsatz der einzelnen Faktoren auf die gesamte Wertschöpfung durchschlagen; sie sind dimensionslose Größen (d.h. reine Zahlenwerte) zwischen Null und Eins bzw. zwischen 0% und 100%.
Die Betrachtung zweier Extremfälle mag dies verdeutlichen: Ein Produktionsfaktor, dessen Mehr- oder Mindereinsatz die Wertschöpfung überhaupt nicht beeinflusst, hätte die Produktionsmächtigkeit Null; er wäre offenbar irrelevant für den Produktionsprozess (und würde insofern wohl kaum als Produktionsfaktor angesehen werden). Der andere - gleichfalls eher hypothetische - Extremfall: Eine Produktionsmächtigkeit von 100% würde bedeuten, dass sich die Wertschöpfung völlig im Gleichschritt mit dem betreffenden Faktor entwickelt (und dieser insofern der allein bestimmende wäre); in diesem Fall würde eine beispielsweise 5%ige Erhöhung des Faktoreinsatzes die Wertschöpfung ebenfalls um volle 5% anwachsen lassen.
Die in der Realität zu beobachtenden Produktionsmächtigkeiten liegen irgendwo zwischen beiden Extremen, zwischen 0 und 100%: Da niemals ein Faktor allein die Wertschöpfung determiniert, wird die Variation eines einzelnen Faktors um beispielsweise 5% sich nicht in vollem Umfang in der Veränderung der Wertschöpfung niederschlagen, sondern diese nur um vielleicht 2% oder 4% beeinflussen. (So kann man etwa mit 5% mehr Energie bei gleichem Einsatz von Arbeitskräften und Hochöfen höchstens 5% mehr Eisenerz schmelzen - und dies auch nur, falls die Arbeitskräfte und Hochöfen vorher, bei dem geringeren Energieeinsatz, nicht voll ausgelastet waren.) Um ein Zahlenbeispiel zu geben: Hat der Produktionsfaktor X eine Produktionsmächtigkeit von 31%, so bedeutet dies, dass eine Steigerung des Einsatzes von X um 10% (bei konstantem Einsatz der übrigen Faktoren) die Wertschöpfung um 31% von 10%, also um 3,1% wachsen lässt, während eine Verminderung des Einsatzes von X um 10% zu einem Rückgang der Wertschöpfung um 3,1% führen würde. (Nicht zulässig ist es, hieraus den Schluss zu ziehen, eine Verminderung von X um volle 100%, d.h. auf Null, würde die Wertschöpfung nur um 31% vermindern; vielmehr ist zu erwarten, dass bei völligem Verzicht auf einen Produktionsfaktor die Produktion weitestgehend zusammenbricht. Aus den Produktionsmächtigkeiten lassen sich also lediglich Rückschlüsse über die Auswirkungen kleiner Veränderungen der jeweiligen Faktorinputs gegenüber dem jeweiligen Status Quo ziehen.)
Addiert man die Produktionsmächtigkeiten aller im betreffenden Modell berücksichtigten Produktionsfaktoren, so erhält man 100%. Darin spiegelt sich die Annahme konstanter Skalenerträge wider, wonach sich bei einer Verdoppelung des Einsatzes aller Faktoren (ohne technologischen Wandel) die Wertschöpfung ebenfalls verdoppeln sollte: Stellt man neben eine existierende Fabrik eine völlig identische Fabrik (mit den gleichen Maschinen, der gleichen Zahl an Beschäftigten, dem gleichem Energieeinsatz etc.), so werden beide Fabriken doppelt so viel produzieren wie eine Fabrik allein. (Diese Annahme ist natürlich nur so lange gültig, wie man natürliche Wachstumsgrenzen vernachlässigen kann.)
Die mathematische Konsequenz hieraus ist, dass die Produktionsfunktion linear-homogen ist.
Produktionsmächtigkeiten und Faktorkostenanteile
Es stellt sich nun die Frage, wie hoch die tatsächlichen Produktionsmächtigkeiten von Kapital, Arbeit und Energie sind. Der neoklassischen Wachstumstheorie zufolge stimmen Produktionsmächtigkeiten und Faktorkostenanteile überein, was sich unter geeigneten Voraussetzungen auch mathematisch beweisen lässt. (Auf die Fragwürdigkeit der zugrundeliegenden Modellannahmen werden wir weiter unten zu sprechen kommen.) Gemäß den obigen Daten über die Faktorkostenanteile müssten also die Produktionsmächtigkeiten in den Volkswirtschaften der Industrienationen ungefähr folgende Werte annehmen: Arbeit 65%, Kapital 30%, Energie 5%. Wäre dies richtig, so gäbe es keine Schieflage zwischen Energie und Arbeit: Dass menschliche Arbeit so viel teurer als Energie ist, wäre gerade dadurch gerechtfertigt, dass sie auch um den gleichen Faktor leistungsfähiger ist; der Wert der Energie würde also exakt mit ihrem Preis übereinstimmen, d.h. er wäre recht gering. In letzter Konsequenz würde es also keinen systematischen Rationalisierungsdruck auf die Arbeit, keinen Anreiz für die Ersetzung von Arbeit durch Energie (genauer: Energiedienstleistungen) geben.
Jedoch ist die Gleichsetzung von Produktionsmächtigkeiten und Faktorkostenanteilen empirisch höchst fragwürdig. Die folgenden Betrachtungen mögen dies etwas verdeutlichen:
1. Zunächst ein Beispiel aus einem etwas anderen, wenn auch verwandten Bereich, das vor einer allzu kritiklosen Gleichsetzung von Preis und Wert eines ökonomischen Gutes warnen soll: In den 1990er Jahren haben drei renommierte Ökonomen, William Nordhaus (Yale), Koautor eines der meistgelesenen Lehrbücher der Volkswirtschaftslehre, Wilfred Beckerman (Oxford) und Thomas C. Schelling (Harvard, Nobelpreis für Ökonomie 2005) unabhängig voneinander die Risiken des anthropogenen Treibhauseffekts bewertet. Dabei nahmen sie an, dass die Landwirtschaft praktisch als einziger Wirtschaftszweig von den Folgen der Klimaveränderung betroffen sei - eine zwar stark vereinfachende Annahme, deren Berechtigung hier jedoch nicht weiter hinterfragt werden soll. Nun trägt die Landwirtschaft aber nur etwa 3% zum Bruttoinlandsprodukt der USA bei. Daher kamen Nordhaus, Beckerman und Schelling zu dem Schluss, dass selbst bei einem drastischen Einbruch der Landwirtschaft nur unbedeutende Wohlstandsverluste zu erwarten seien; denn selbst wenn die Agrarproduktion um 50% zurückginge, sänke das Bruttoinlandsprodukt ja nur um 1,5%; würde die landwirtschaftliche Produktion durch den Klimawandel drastisch reduziert, so stiegen nach Schelling die Lebenshaltungskosten nur um 1 bis 2%, und das zu einer Zeit, wenn sich das Pro-Kopf-Einkommen wahrscheinlich verdoppelt haben würde (zitiert nach [2]). Dieser Risikoeinschätzung entgeht natürlich, dass bei drastischer Verknappung von Nahrungsmitteln deren Preise explodieren - und damit auch den heute eher marginalen Beitrag der Landwirtschaft zum Bruttoinlandsprodukt in die Höhe treiben würden. Wir haben hier ein eindrucksvolles Beispiel dafür, wie sehr Preis und Wert eines Gutes auseinanderklaffen können: Dass die Getreidepreise heute so niedrig sind, ist dadurch bedingt, dass - jedenfalls in den Industrieländern - nur eine geringe Knappheit an Getreide herrscht, und lässt keine Rückschlüsse auf dessen tatsächlichen Wert zu (allenfalls auf dessen mangelnde Wertschätzung). Preise sind eben in erster Linie Knappheitsindikatoren und nicht Wertmaßstäbe. Zudem offenbart sich in den Aussagen der drei Top-Ökonomen ein beinahe naiver Glaube an die unbegrenzte Substituierbarkeit der verschiedenen Güter untereinander. (Überspitzt ausgedrückt: Statt Kartoffel-Chips essen wir Computer-Chips.) Ein ähnlicher Fehlschluss, nämlich die Annahme praktisch unbeschränkter Substituierbarkeit zwischen den Produktionsfaktoren, wird bei der Diskussion der wahren Bedeutung des Faktors Energie weiter unten ebenfalls eine Rolle spielen.
2. Ein erstes Indiz dafür, dass die Gleichsetzung von Produktionsmächtigkeit und Faktorkostenanteilen der ökonomischen Bedeutung der Energie nicht gerecht wird, liefert die erste Ölkrise zwischen 1973 und 1975: Damals kam es aufgrund der Drosselung der Erdölfördermengen durch die OPEC zu dem ersten Ölpreisschock und einem Rückgang des Energieeinsatzes von bis zu 7%. Hätte Energie tatsächlich nur eine ihrem Faktorkostenanteil entsprechende Produktionsmächtigkeit von 5%, so hätte dies lediglich einen Rückgang der Wertschöpfung um 0,05 mal 7%, also um 0,35% zur Folge haben dürfen. Die tatsächlich beobachteten konjunkturellen Einbrüche waren jedoch fast zehnmal höher; in den USA und Westeuropa verliefen der Rückgang von Energieeinsatz und Industrieproduktion fast parallel. Die durch den Ölpreisschock ausgelösten Wirtschaftskrisen sind mit der neoklassischen Theorie also nicht angemessen zu verstehen.
Im US-amerikanischen Industriesektor etwa stieg der Kapitaleinsatz zwischen 1973 und 1975 inflationsbereinigt um 6,9%, der Einsatz an menschlicher Arbeit sank um 0,8% und der Energieeinsatz sank um 7,3%. Bei einer Gewichtung dieser Werte gemäß den jeweiligen Faktorkostenanteilen ergibt sich daraus ein zu erwartender Anstieg der Wertschöpfung um inflationsbereinigt 1,1%. Tatsächlich ist die Wertschöpfung im betreffenden Zeitraum jedoch um 5,3% gesunken.
3. Auch das längerfristige reale Wirtschaftswachstum in den Industrieländern ist nicht einmal annähernd durch die Entwicklung der Faktorinputs von Kapital und Arbeit erklärbar, sofern diese gemäß ihren Kostenanteilen gewichtet werden. Es bleibt stets ein großer, unverstandener Rest, der einem nicht näher erklärten technischen Fortschritt zugeschrieben wird, welcher praktisch wie Manna vom Himmel falle ([4], S. 113). Dieser Restterm wird nach dem Nobelpreisträger Robert M. Solow, dem Begründer der neoklassischen Wachstumstheorie, auch als Solow-Residuum bezeichnet. Für die Wirtschaftsentwicklung der USA im Zeitraum von 1909 bis 1949 beispielsweise liegt der Beitrag des Solow-Residuums bei 87,5% [23]: Gerade einmal 12,5% des in diesem Zeitraum beobachteten Wirtschaftswachstums lassen sich also quantitativ mithilfe der Veränderung der Faktorinputs fassen; der unerklärte Restbeitrag ist wichtiger als die erklärenden Faktoren, was nach Auffassung Gahlens [6] die neoklassische Wachstumstheorie tautologisch macht: Ein Unverstandenes wird durch ein anderes Unverstandenes erklärt. (Ein solches Vorgehen entzieht sich natürlich der empirischen Falsifikation.) Solow räumte später übrigens selbst ein, dass in dieser Wachstumstheorie der Hauptfaktor des Wirtschaftswachstums unerklärt bleibt [24].
Weiter unten werden wir sehen, dass sich bei einer anderen Gewichtung der Faktorinputs unter Einbeziehung der Energie als Produktionsfaktor die reale Wirtschaftsentwicklung sehr wohl und auch über längere Zeiträume hinweg in guter Näherung aus der Veränderung der Faktorinputs erklären lässt, und dass dabei der Energie die überragende Rolle zufällt.
[....]
Den vollständigen Artikel finden unter Produktionsfaktor Energie - Der stille Riese