Ergänzende Unterlagen (teilweise in Deutsch
Transcription
Ergänzende Unterlagen (teilweise in Deutsch
Ergänzende Unterlagen (teilweise in Deutsch) zum Kurs International Energy Management Franz Wirl Universität Wien Inhaltsverzeichnis 1 2 Einleitung und historischer Rückblick .................................................................. 9 1.1 Ressourcen .................................................................................................. 9 1.2 Umwelt ....................................................................................................... 16 1.3 Öffentliche Wirtschaft, Regulierung und Politik .......................................... 19 1.4 World Energy Outlook 2030 (IEA, 2002) .................................................... 20 1.5 Investment .................................................................................................. 26 1.6 Ausblick auf den Kurs................................................................................. 28 1.7 Appendix .................................................................................................... 29 1.7.1 OPEC and other international organizations (www.opec.org) ............. 29 1.7.2 Embargo ............................................................................................. 30 1.7.3 OPEC. Still holding customers over a barrel ....................................... 35 1.7.4 Electricity in America. Life after Enron. ............................................... 40 1.7.5 Enron .................................................................................................. 41 1.7.6 Russia ................................................................................................. 44 1.7.7 China ................................................................................................... 46 1.7.8 The oil industry Steady as she goes ................................................... 47 1.7.9 Nuclear power: Atomic renaissance .................................................... 51 1.7.10 Appendix: World Energy Data ............................................................. 56 Theorie der optimalen Förderung nicht erneuerbarer Ressourcen .................... 57 2.1 Nutzungskosten und intertemporale Sachzusammenhänge ...................... 57 2.2 Wohlfahrtsoptimum .................................................................................... 58 2.3 Ressourceförderung unter verschiedenen Marktformen ............................ 62 2.3.1 Konkurrenzmarkt ................................................................................. 63 2.3.2 Planwirtschaftliche Förderung (Soziales Optimum)............................. 64 2.3.3 2.4 Monopol .............................................................................................. 65 Backstop Technologien .............................................................................. 68 2.4.1 Einfaches Modell optimalen Übergangs zu erneuerbaren Energieträgern ................................................................................................... 69 2.4.2 Ressource-Preise und Innovation alternativer Energieträger .............. 70 2.4.3 Other topical backstop examples ........................................................ 80 2.5 Ressourcen und Wachstum ....................................................................... 86 2.5.1 Is oil wealth a blessing or a curse? ..................................................... 86 2.5.2 Can the world economy continue to shrug off high oil prices? Economist Aug. 27th 2005, p57-58. ................................................................... 88 3 Energiemärkte und Politik.................................................................................. 91 3.1 Ökonomische und polito-ökonomische Gründe für temporäre Beschränkungen ................................................................................................... 91 3.2 Effiziente Verwendung von Öl - ein Dilemma? ........................................... 93 3.3 Verpflichtungen .......................................................................................... 94 3.4 Zusammenfassung ..................................................................................... 94 3.5 Die ökonomischen Konsequenzen eines "Groß-Irak"................................. 96 3.5.1 4 The economics of war Calculating the consequences ........................ 99 Energy price volatility (based on IEA) .............................................................. 100 4.1 Introduction .............................................................................................. 101 4.2 Is Volatility Increasing ? ............................................................................ 102 4.2.1 Measuring Volatility ........................................................................... 102 4.2.2 Evolution of Oil Price Volatility........................................................... 103 4.3 Roots of Volatility...................................................................................... 108 4.3.1 General Discussions ......................................................................... 108 4.3.2 Factors Contributing to Increasing Oil Price Volatility ........................ 109 4.3.3 Volatility in Gas and Electricity Markets ............................................ 112 4.3.4 Does Price Volatility Really Matter ? ................................................. 114 4.3.5 Volatility: a Barrier to Investments ..................................................... 114 4.3.6 Prospects for Energy Price Volatility ................................................. 115 4.4 5 Conclusions .............................................................................................. 116 4.4.1 Oil ...................................................................................................... 117 4.4.2 Gas and Electricity ............................................................................ 117 OPEC Policies and Oil Price Volatility ............................................................. 118 5.1 Opec as a pure economic cartel ............................................................... 118 5.2 A temporary and politico-economical cartel .............................................. 122 5.3 Multiple Equilibria and backward bending supply functions...................... 124 5.4 Price reaction function .............................................................................. 126 5.5 Summing up ............................................................................................. 127 6 Erneuerbare Ressourcen ................................................................................ 128 7 Umwelt ............................................................................................................ 131 8 7.1 Ein einfaches Modell zu externen Effekten .............................................. 131 7.2 Energy taxes – some critical remarks....................................................... 133 7.2.1 Possible inefficiency of the 'polluter pays principle' ........................... 135 7.2.2 Revenues from energy taxes ............................................................ 136 7.2.3 Retaliation and preemption by producers .......................................... 137 7.2.4 Positive explanations of energy taxes ............................................... 140 7.2.5 Stability of energy taxes as a revenue instrument ............................. 142 7.2.6 Energy taxes and conservation ......................................................... 144 7.2.7 Summary ........................................................................................... 147 7.2.8 References: ....................................................................................... 148 Normative Theorie öffentlicher Versorgungsunternehmen .............................. 151 8.1 Erklärungen für die Einrichtung öffentlicher Elektrizitätsversorgung ........ 151 8.2 Ramsey-Preise ......................................................................................... 153 8.2.1 8.3 Spitzenlastpreisbildung ............................................................................ 159 8.3.1 8.4 Anwendung: Zeitvariable Tarife......................................................... 162 Zweigliedrige Tarife .................................................................................. 165 8.4.1 Einleitung .......................................................................................... 165 8.4.2 Ableitung zweigliedriger Tarife .......................................................... 166 8.5 9 Ableitung der Ramsey-Preise............................................................ 156 Nichtlineare Tarife .................................................................................... 175 Positive Theorie Öffentlicher Unternehmen ..................................................... 177 9.1 Einleitung ................................................................................................. 177 9.2 Postive Erklärungen für öffentliches Elektrizitätsversorgung .................... 179 9.3 X-Ineffizienz ............................................................................................. 181 9.4 Positive Modelle, Motive und Ansätze für bürokratische EVUs ................ 182 9.4.1 Budgetmaximierende Büros .............................................................. 185 9.4.2 Bürokratische Tarife - "Strom" und "Fernwärme"* ............................. 187 9.5 Amerikanische Regulierung ..................................................................... 189 9.6 Öffentlich versus private Organisation...................................................... 194 10 Regulierung mittels ökonomischer Anreize .................................................. 198 10.1 Demsetz-Auktion ...................................................................................... 198 10.2 Der Vorschlag von Loeb-Magat ................................................................ 199 10.3 Vogelsang-Finsinger Anreiz und Erweiterungen ...................................... 199 10.4 "Price-caps" .............................................................................................. 200 10.4.1 Ansätze zur Bestimmung des X-Faktors ........................................... 202 10.4.2 Bestimmung des X-Faktors nach Bernstein/Sappington (1999) ........ 204 10.4.3 Beispiele internationaler Anwendungen ............................................ 207 10.4.3.1 England ...................................................................................... 207 10.4.3.2 Niederlande................................................................................ 209 10.4.3.3 Norwegen................................................................................... 211 10.5 Vergleichende Konkurrenz ....................................................................... 212 10.6 Data Envelopment Analysis (DEA) ........................................................... 213 10.7 Strategisches Managementverhalten ....................................................... 217 11 Eine ökonomische Theorie der Deregulierung ............................................. 219 11.1 Eigenschaften von Kostenfunktionen (eindimensional) ............................ 220 11.2 Einführung an Hand eines Beispiels (Einproduktunternehmen) ............... 221 11.3 Ergebnisse ............................................................................................... 223 11.4 Gleichgewicht und dessen Nachhaltigkeit ................................................ 223 12 Internationale Vergleiche von Regulierungen und Erfahrungen mit Deregulierung und Privatisierung ........................................................................... 225 12.1 International ............................................................................................. 225 12.2 Privatization: Definitions, Pros and Cons ................................................. 227 12.3 Deregulierung in den USA........................................................................ 234 12.4 Deregulierung in Großbritannien .............................................................. 239 13 Elektrizitätsmarkte: Spezifika und Erfahrungen mit Liberalisierungen ......... 241 13.1 Spezifika der Elektrizitätsversorgung ....................................................... 241 13.2 Privatisierung der englischen und walisischen Stromerzeugung .............. 244 13.3 Die kalifornische Elektrizitätskrise ............................................................ 250 13.4 Europa...................................................................................................... 254 13.4.1 France's electricity giant is being shaken up .................................... 254 13.4.2 Europe's power struggle, Jul 1st 2004, The Economist..................... 255 13.4.3 Power Struggles. Political and business interests collide as Europe's energy firms consolidate.................................................................................. 257 13.5 Konkurrenz in Angebotsfunktionen........................................................... 258 13.6 Strategic Elements of Electricity Supply: A Simple Game Approach ........ 263 13.6.1 The Model ......................................................................................... 265 13.6.2 Concluding Remarks ......................................................................... 270 13.6.3 Annex: Application to the Nord Pool.................................................. 271 13.6.4 References ........................................................................................ 276 14 Liberalisierung des österreichischen Elektrizitätsmarktes ............................ 277 14.1 Einleitung ................................................................................................. 277 14.2 Die vergesellschaftete österreichische Elektrizitätswirtschaft ................... 277 14.2.1 Historisch und rechtliche Entwicklung nach dem 2. Weltkrieg........... 277 14.2.2 Die wirtschaftlichen Auswirkungen .................................................... 278 14.3 14.2.2.1 Preisdifferenzierungen ............................................................... 278 14.2.2.2 Benachteiligung des Gewerbes ................................................. 278 14.2.2.3 Mangelnde überregionale Koordination ..................................... 279 14.2.2.4 Durchschnittserlöse, Kosten und Vergleiche.............................. 280 Der liberalisierte österreichische Elektrizitätsmarkt .................................. 281 14.3.1 Der Weg zur Liberalisierung .............................................................. 281 14.3.2 Der Schiedsrichter............................................................................. 282 14.3.3 Die Spieler......................................................................................... 284 14.3.4 Öffentliche Hand ............................................................................... 288 14.4 Wirtschaftliche Auswirkungen der Liberalisierung .................................... 288 14.4.1 Verhalten der EVUs .......................................................................... 288 14.4.1.1 Preiswettbewerb ........................................................................ 288 14.4.1.2 Produktdifferenzierung ............................................................... 292 14.4.1.3 Nichtlineare Tarife ...................................................................... 294 14.4.2 Überregionale Koordination: Strombörse und Kraftwerkseinsatzoptimierung ......................................................................... 295 14.4.3 Netzdurchleitungstarife ..................................................................... 296 14.5 Zusammenfassung und Schlussfolgerungen ........................................... 299 14.6 Bibliographie ............................................................................................ 302 15 Versorgungssicherheit ................................................................................. 305 15.1 Ein Modell ................................................................................................ 307 15.2 Optimale Versorgung ............................................................................... 311 15.3 Die österreichische Energieversorgung als Beispiel................................. 313 15.4 Zusammenfassung ................................................................................... 319 16 Einige mathematische Grundlagen .............................................................. 322 16.1 Sätze aus der Analysis ............................................................................. 322 16.1.1 Enveloppentheorem .......................................................................... 325 16.1.2 Leibnizsche Regel: ............................................................................ 326 16.2 Nichtlineare Optimierung .......................................................................... 327 16.2.1 Das Problem von Lagrange............................................................... 327 16.2.2 Das Theorem von Kuhn – Tucker ..................................................... 332 16.2.3 Ökonomische Nachfragetheorie ........................................................ 334 Einleitung 9 David S. Landes, The Wealth and Poverty of Nations. (1999, p 40-41). All economic [industrial] revolutions have at their core an enhancement of the supply of energy, because this feeds and changes aspects of human activity. 1 Einleitung und historischer Rückblick Die Energiepolitik bzw. energiewirtschaftliche Aspekte, standen und stehen im Brennpunkt öffentlicher Diskussionen, sowohl was die Turbulenzen auf den internationalen Märkten als auch die nationalen Entscheidungen betrifft. Dabei führt die Betonung technischer und juristischer Details zu Lasten grundlegender ökonomischer Zusammenhänge zu zahlreichen Missverständnissen. Der Arbeitsbereich Energiewirtschaft als eigener Teilbereich im internationalen Wissenschaftsgefüge verdankt diesen Umstand - neben dem hohen Maße an Interdisziplinarität, wie die Verknüpfung von Wirtschafts- und Ingenieurwissenschaften und der politischen Aktualität - dem Zusammentreffen von drei für die Energiewirtschaft charakteristischen Problemkreisen: Abbildung 1: Charakteristische Problemfelder der Energiewirtschaft 1.1 Ressourcen Die Energiewirtschaft verarbeitet zum Großteil fossile Brennstoffe, die aus beschränkten und nicht erneuerbaren Ressourcen gefördert werden. Die folgende Abbildung zeigt die Zusammensetzung und Entwicklung des primären Energieverbrauches. Der überwiegende Teil (über 90 %) der momentan eingesetzten Energieträger wird durch den Abbau finiter, nicht erneuerbarer Ressourcen gewonnen: z. B. Kohle, Erdöl, Erdgas, Uran. Selbst eine Berücksichtigung aller nicht-kommerziellen (meist Holz und daher erneuerbaren) Energieformen (insbesondere in den Entwicklungsländern) ändert an diesem Bild wenig. Die Ressourcetheorie, oder genauer die Theorie optimaler Ressourceförderung, hilft, die grundsätzlichen und dabei dynamischen Zusammenhänge zu verstehen. Erdöl ist dabei der dominierende Energieträger und bei weitem der bedeutendste Rohstoff im internationalen Handel. Das Charakteristikum, dass finite Ressourcen die Grundlage der Energiewirtschaft bilden, führt zu interessanten theoretischen Überlegungen. Insbesondere versucht die Ressourcetheorie, oder genauer die Theorie optimaler Ressourceförderung, die grundsätzlichen und essentiell dynamischen Zusammenhänge zu verstehen. Diese Theorie, geht mit Ausnahme zweier (ignorierten) Vorläufer, Gray (1913) und Hotelling (1931), auf Arbeiten seit 1974 zurück; d. Einleitung 10 h. es handelt sich um eine relativ junge Theorie. Das Jahr 1974 ist natürlich kein Zufall, sondern wurde durch die drastische Preiserhöhung der Rohölpreise durch die Organisation erdölexportierender Länder, kurz OPEC, motiviert. Tatsächlich erfuhr allgemein die Betrachtung energiewirtschaftlicher Probleme eine drastische Aufwertung als die OPEC (Organisation of Petroleum Exporting Countries) Ende 1973 die Preise für Erdöl vervierfachte. Dies führte dann in der Folge 1975 zur schwersten Rezession nach dem zweiten Weltkrieg und zu ähnlichen wirtschaftlichen Effekten anlässlich des zweiten Erdölpreissprungs 1979/80. Die folgende Abbildung zeigt die historische Entwicklung, wobei seit kurzem ein starker Einbruch an Ölpreisen, aber auch bei den anderen Energieträgern zu beobachten ist. Abbildung: Zusammensetzung des globalen Primärenergieverbrauches Abbildung: Anteil an Kernenergie zur Stromerzeugung Einleitung 11 Die Abb. 4 zeigt die Entwicklung des globalen Ölbedarfes und den Anteil, der aus OPECLändern stammt. Die Tatsache, dass der Output der OPEC mit dem Bedarf schwankt, aber alle anderen Produzenten unverändert produzieren, drückt die Marktbeherrschung durch die OPEC aus. Die Dominanz der OPEC ist sowohl bei den bewiesenen Reserven als auch bei den vermuteten Ressourcen noch bedeutender als bei der Förderung, siehe Abbildung x. Abbildung 3a: Historische Entwicklung des Rohölpreises 80 60 50 -0 5 ov . D 05 ec -0 Ja 5 n0 Fe 6 b. 0 M 6 ar -0 Ap 6 r.0 M 6 ay -0 Ju 6 n. 06 Ju l.0 Au 6 g. 0 Se 6 p. 06 N ct O p. Se g. 05 05 40 Au $/b 70 Abbildung 2: Jüngste Entwicklung der Rohölpreise (Quelle: www.opec.rg) Einleitung 12 Abb.: Prognosen sind determiniert durch den Startpunkt und „falsch“ 50000 45000 NonOPEC 40000 35000 30000 25000 OPEC 20000 15000 10000 5000 0 Abbildung 4: World Oil Production – OPEC versus NONOPEC (1965 – 2005), 1000b/d Observe the smooth Non-OPEC production profile, while OPEC has to ‘bear’ all the variations in demand. Einleitung 13 OPEC – Member Countries (13): America: Africa: Middle East: Pacific: Venezuela Ecuador (after suspending 1997-2007) Algeria Libya Nigeria Angola (joined in 2007) Saudi Arabia Iraq Iran Kuwait United Arab Emirates Qatar Indonesia Re(Ende in MilFaß serven 2005) liarden (Quelle: BP Statistical Review of World Energy) Einleitung 14 Handel (Export): (Quelle: BP Statistical Review of World Energy) A damning verdict, Aug 25th 2004, from The Economist America’s Securities and Exchange Commission has issued a damning report into Shell’s overstatement of its oil reserves, which finds that the cover-up was older and more widespread than the company had previously 6 acknowledged. The SEC and British 7 regulators have also jointly fined Shell 8 $150m 9 10 11 12 13 14 15 16 17 18 COMPANIES that find themselves in trouble these days tend to adopt one of two tactics. The first is to raise the drawbridge and unite against the enemy. The second, increasingly popular, is to identify the scapegoats and toss them over the battlements to the baying hordes— regulators, irate shareholders and so on—in the hope that such a sacrifice will save the city. 19 Royal Dutch/Shell tried both. At first, when the energy giant revealed in January that its proven oil reserves were overstated by 20%, its then chairman, Sir Philip Watts, did not even deign to speak to analysts about it. Despite the fact that he had been head of exploration during the over-booking, he insisted that he would remain in his job. But after a preliminary investigation by the board, he and Walter van de Vijver, his successor in exploration, were kicked out in March. A report commissioned by Shell from a law firm and released in April showed why: both men had been aware of the overstatement for at least a couple of years. Now, Shell’s attempt to put an end to the crisis by blaming the two men has been undermined by a report from America’s Securities and Exchange Commission (SEC). The report, which accompanies a fine of $150m, issued jointly with Britain’s Financial Services Authority (FSA), makes it clear that the overstatement of reserves dates back to 2000—two years earlier than had been thought. Moreover, the report indicates that the culture of excessive optimism about reserves and of deliberately flouting the SEC’s own, rather conservative, guidelines, spread throughout the Anglo-Dutch group. Einleitung 15 As is usual in civil investigations, Shell has admitted no liability while agreeing to the joint fine. The FSA’s portion, £17m ($30m) for “market abuse”, though small compared with the SEC’s, is big by British standards. Both fines would have been higher still had it not been for Shell’s co-operation with investigators. But this is far from the end of Shell’s travails. The SEC’s investigation is continuing. Harold Degenhardt, administrator of the commission’s Fort Worth office, said the next stage would focus on the individuals responsible for the overstatement. The FSA has finished its inquiry into Shell the company, but it too may now scrutinise the behaviour of individual managers. In the Netherlands, the markets regulator is examining whether there was any insider trading by Shell officers. The report shows where these further investigations can start. As early as 1997, the company approved new, less conservative, guidelines for booking reserves. The FSA reckons that Shell disseminated “false or misleading” information on the extent of its proved reserves as early as 1998. And the report discloses that Shell’s reserves auditor, though often even more bullish than local managers, gave a warning about the reserves in three internal reports without eliciting a response from other executives. The first internal warning of a possible overstatement came in 2000—two years earlier than Shell had acknowledged in its own investigation. These findings should give ammunition to the crowds of shareholders seeking damages from Shell and/or its current and former executives. Bill Lerach, whose law firm has launched a suit against Shell’s directors and executives and PricewaterhouseCoopers and KPMG, its auditors, slammed the fine, which he said should have been paid by the executives responsible, and not by the company. Moreover, he argued that “the settlement includes no promise of changes in the way the Royal Dutch/Shell Group operates.” While Mr Lerach clearly has an interest in promoting the idea that Shell remains unreformed, he is not alone in that belief. Many shareholders have been lobbying Royal Dutch/Shell to unite its two boards. (Royal Dutch, based in the Netherlands, owns 60% of the shares, while London-based Shell Transport and Trading owns 40%. Operating units report to both companies.) Critics say this structure creates overlap and confusion. But despite recent reports to the contrary, there are no signs that Shell is about to change it. This has led to talk—previously unthinkable—that the disarray at Shell could make it the target of a takeover. One analyst has even raised the possibility of a merger with BP, its British arch-rival. Such a get-together would probably invite the attention of antitrust regulators, as would a deal with Exxon Mobil. However, Total, the French national champion, could see a takeover of Shell as a fitting encore to its well-executed acquisition of Elf. Moreover, because Total has only a modest presence in America, it might be viewed more favourably by regulators. Die Bedeutung des Erdölmarktes und der mit Produktion und Verarbeitung betrauten Firmen ist gewaltig. Unter den zehn größten Firmen der Welt, wie sie jährlich in FORTUNE's 500 gelistet werden, sind immer mehrere Ölgesellschaften; EXXON war sogar mehrmals das größte Unternehmen der Welt vor General Motors. Weiter stellt der Erdölmarkt bei weitem den wichtigsten internationalen Güterhandel dar. Jedoch die lokale Bedeutung nationaler Energieversorgungsunternehmen in energieimportierenden Ländern ist gering; siehe folgende Diskussion und Tabelle 1. Einleitung 16 Tabelle 1: Fortune’s 500, http://www.fortune.com/lists/G500/ 1 2 3 4 5 6 7 8 9 10 1.2 Exxon Mobil Wal-Mart Stores Royal Dutch Shell BP General Motors Chevron DaimlerChrysler Toyota Motor Ford Motor ConocoPhillips Revenues Profits 339,938.0 36,130.0 315,654.0 11,231.0 306,731.0 25,311.0 267,600.0 22,341.0 192,604.0 -10,567.0 189,481.0 14,099.0 186,106.3 3,536.3 185,805.0 12,119.6 177,210.0 2,024.0 166,683.0 13,529.0 Umwelt Ein in der Öffentlichkeit aktuelles Diskussionsthema ist der Umweltschutz, der besonders häufig in Verbindung mit energiewirtschaftlichen Fragen diskutiert wird. Umweltschutz beziehungsweise Schadstoffbelastungen werden allgemeiner unter dem Sammelbegriff externe Effekte betrachtet. Das zentrale Wohlfahrtstheorem der Ökonomie besagt, dass dezentrale Entscheidungen eine effiziente Allokation zustande bringen, wenn keine externen Effekte vorliegen. Externe Effekte treten auf, wenn der Konsum oder die Verwendung eines Gutes einen Einfluss auf Andere hat (Nachbarschaftsteffekte). Ein positives Beispiel ist ein Imker, der den Output des benachbarten Obstbauern positiv beeinflusst. Eine negative Externalität entsteht einer Wäscherei, wenn daneben eine Fabrik Schmutz emittiert. Unter diesen Rahmenbedingungen führen egoistische Motive der Beteiligten zu "falschen" Allokationen: Güter, die einen Teil ihrer Produktionskosten externalisieren können, werden zuviel angeboten (da ihr Preis nicht die externen Kosten berücksichtigen muss), und bei Gütern mit positiven Nachbarschaftseffekten tritt eine "Unterversorgung" auf. Dies, so scheint, rechtfertigt öffentliche Intervention. Diese Ansicht wird jedoch nicht allgemein geteilt. Buchanan-Tullock (1962) verweisen darauf, dass durch Internalisierung externer Effekte ein Nettogewinn möglich ist, wodurch alle Beteiligten profitieren könnten. Somit sind private Übereinkommen im Prinzip möglich, um externe Effekte (sogar einstimmig) zu lösen. Dieses Theorem wird oft als Coase Theorem bezeichnet; nach Coase's Diskussion externer Verschmutzungseffekte, Coase (1960). Nur wenn die privaten Übereinkommen zu kostenintensiv werden, kann man die prinzipiell auch privat lösbare Frage als ein Problem der sozialen Wahl sehen. Die Erzeugung und auch Verwendung von Brennstoffen verursacht unterschiedlichste Externalitäten, d. h. Auswirkungen auf Unbeteiligte, z. B. Umweltverschmutzung, sowohl hinsichtlich Schadstoffbelastung als auch Landschaftsschutz. Die Abb. 4 zeigt die Umweltbelastung in Deutschland nach Verursachern, wobei die üblichen Schadstoffe berücksichtigt werden. Dabei ist nicht nur die direkt durch die Energiewirtschaft verursachte Belastung zu betrachten, sondern auch die indirekte durch Industrie, Gewerbe und Haushalte durch Verwendung von Brennstoffen. Einleitung 17 Abbildung 3: Schadstoffbelastung und Verursacher – Österreich (Quelle: UBA) Das im Moment aktuellste und viel diskutierteste Problem ist das Treibhausproblem, das vorwiegend durch die CO2-Emissionen verursacht werden. Dabei ist zu beachten, dass CO2 medizinisch gesehen kein Schadstoff ist, und dass das Problem darin besteht, dass diese Emissionen in nicht (hinreichend) abgebaut werden sondern in der Atmosphäre akkumulieren. Dem Aspekt der Umweltbelastung kommt eine wichtige Rolle in der Behandlung von energiewirtschaftlichen Problemen zu. Daher beschäftigt sich Energiewirtschaft, großteils in interdisziplinärer Zusammenarbeit mit anderen Wissenschaften (Medizin, Meteorologie, Chemie, Verfahrenstechnikern usw.) mit Fragen der Bewertung von Schadstoffbelastungen und der Frage nach effizienten Instrumenten (Gesetze, Steuern, Eigentumsrechte über Verschmutzung usw.) der Umweltpolitik. Im Kapitel 3 wird versucht, an Hand eines Beispiels diese Fragen abzuarbeiten. Einleitung Tabelle: Pro-Kopf CO2 Emissionen 18 Einleitung 1.3 19 Öffentliche Wirtschaft, Regulierung und Politik Die energiewirtschaftlichen Unternehmungen, insbesondere die Elektrizitätsversorgungsunternehmen sind öffentliche Firmen. Diese Situation ist in allen Industrieländern gegeben; nur Großbritannien weicht seit der jüngsten Privatisierung etwas von dieser Norm ab. Es ist ein Phänomen innerhalb der westlichen Industriestaaten, dass Energieversorgungsunternehmen international als öffentliche Firmen eingerichtet sind, obwohl sonstige Industrien mehr oder weniger den Marktgesetzen überlassen werden. Die Tabelle 1 vergleicht den Anteil öffentlicher bzw. regulierter Unternehmen in verschiedenen Ländern. Bei diesem Vergleich ist zu berücksichtigen, dass die meisten öffentlichen Firmen (public utilities) in den USA in privater Hand sind; z. B. über 70 % der amerikanischen Elektrizitätsversorgung werden von privaten Unternehmen bestritten. Diese, wie auch andere öffentliche Firmen unterliegen jedoch starken Regulierungsvorschriften. Die Abb. 5 zeigt den Anteil des öffentlichen Sektors in den Vereinigten Staaten. Die Tabelle 2 zeigt den öffentlichen Einfluss in disaggregierter Form. Gesamt (a) Energie (b) Deutschland 12,0 2,8 Frankreich 13,0 2,1 Großbritannien 11,1 2,8 USA 13,8 (c) 3,0 Land (a) Michel (1981) (b) United Nations (1984) (c) Bös (1986) Tabelle 1: Anteil der öffentlichen Wirtschaft und der EVUs am BIP % vor den Liberalisierungen (ausgenommen Großbritannien) – repräsentativ für 20. Jhdt. Abbilung 5: Anteil öffentlicher Unternehmen am B.I.P. – USA Einleitung 20 Land Post Telekom Strom Gas Öl Kohle Bahn Fluglinien Auto Stahl Werft Österreich 1 1 1 1 1 1 1 1 1 1 Frankreich 1 1 1 1 1 1 >½ ½ >½ 0 BRD 1 1 >½ ½ ½ 1 1 ¼ 0 ¼ Niederlande 1 1 >½ >½ 1 >½ ½ ¼ 0 Italien 1 1 >½ 1 1 1 ¼ >½ >½ Japan 1 ½ 0 0 0 >½ ¼ 0 0 0 Spanien 1 ½ 0 >½ ½ 1 1 0 ½ >½ Schweden 1 1 ½ 1 1 1/2 0 >½ >½ GB 1 0 1 0 0 1 1 >½ ½ >½ 1 USA 1 0 1/4 0 0 0 ¼ 0 0 0 0 1 ¼ Tabelle 2: Anteil des Öffentlichen Eigentums an Industriebranchen vor den großen Liberalisierungen und damit repräsentativ zumindest für 20. Jhdt. nach dem 2. Weltkrieg (Quelle: Amex Bank Review, nach: Kurier, 27. Sept. 1987). 1.4 World Energy Outlook 2030 (IEA, 2002) This edition of the World Energy Outlook, which sets out the IEA’s latest energy projections to 2030, depicts a future in which energy use continues to grow inexorably, fossil fuels continue to dominate the energy mix and developing countries fast approach OECD countries as the largest consumers of commercial energy. The Earth’s energy resources are undoubtedly adequate to meet rising demand for at least the next three decades. But the projections in this Outlook raise serious concerns about the security of energy supplies, investment in energy infrastructure, the threat of environmental damage caused by energy production and use and the unequal access of the world’s population to modern energy.Governments will have to take strenuous action in many areas of energy use and supply if these concerns are to be met.The core projections presented here are derived from a Reference Scenario that takes into account only those government polices and measures that had been adopted by mid-2002. A separate Alternative Policy Scenario assesses the impact of a range of new energy and environmental policies that OECD countries are considering adopting as well as of faster deployment of new energy technologies. Both scenarios confirm the extent of the policy challenges facing governments around the world. A key result of the Outlook is that energy trade will expand rapidly. In particular, the major oil- and gas-consuming regions will see their imports grow substantially. This trade will increase mutual dependence among nations. But it will also intensify concerns about the world’s vulnerability to energy supply disruptions, as production is increasingly concentrated in a small number of producing countries. Supply security has moved to the top of the energy policy agenda. The governments of oil- and gas-importing countries will need to take a more proactive role in dealing with the energy security risks inherent in fossil-fuel trade. They will need to pay more attention to maintaining the security of international sealanes and pipelines. And they will look anew at ways of diversifying their fuels, as well as Einleitung 21 the geographic sources of those fuels. The OECD Alternative Policy Scenario demonstrates the strong impact that new policies to curb energy demand growth and encourage switching away from fossil fuels could have on import dependence. Governments and consumers are, nonetheless, likely to continue accepting a degree of risk in return for competitively priced energy supplies. Necessary expansion of production and supply capacity will call for massive investment at every link in the energy supply chain.Investment of almost $4.2 trillion will be needed for new power generation capacity alone between now and 2030. Mobilising this investment in a timely fashion will require the lowering of regulatory and market barriers and the creation of an attractive investment climate – a daunting task in many countries in the developing world and the former Soviet Union. Most investment will be needed in developing countries, and it is unlikely to materialise without a huge increase in capital inflows from industrialised countries. Energy-related emissions of carbon dioxide are set to grow slightly faster than energy consumption in the Reference Scenario, despite the policies and measures taken so far.In the Alternative Policy Scenario, however, new policies that many OECD countries are currently considering, together with faster deployment of more efficient and cleaner technologies, would achieve energy savings and promote switching to less carbon-intensive fuels. These developments would eventually stabiliseCO2 emissions in OECD countries, but only towards the end of the Outlook period. More than a quarter of the world’s population has no access to electricity, and two-fifths still rely mainly on traditional biomass for their basic energy needs. Although the number of people without power supplies will fall in the coming decades, a projected 1.4 billion people will still be without electricity in 2030. And the number of people using wood, crop residues and animal waste as their main cooking and heating fuels will actually grow. To extend electricity supplies to the energy poor and give them better access to other forms of modern energy, stronger government policies and co-ordinated international action will be essential. Fossil Fuels Will Continue to Dominate Global Energy Use World energy use will increase steadily through 2030 in the Reference Scenario. Global primary energy demand is projected to increase by 1.7% per year from 2000 to 2030, reaching an annual level of 15.3 billion tonnes of oil equivalent. The increase will be equal to twothirds of current demand. The projected growth is, nevertheless, slower than growth over the past three decades, which ran at 2.1% per year. Fossil fuels will remain the primary sources of energy, meeting more than 90%of the increase in demand. Global oil demand will rise by about 1.6% per year, from 75 mb/d in 2000 to 120 mb/d in 2030.Almost three-quarters of the increase in demand will come from the transport sector. Oil will remain the fuel of choice in road, sea and air transportation. As a result, there will be a shift in all regions towards light and middle distillate products, such as gasoline and diesel, and away from heavier oilproducts, used mainly in industry. This shift will be more pronounced in developing countries, which currently have a lower proportion of transportation fuels in their product mix. Einleitung 22 Demand for natural gas will rise more strongly than for any other fossil fuel. Primary gas consumption will double between now and 2030, and the share of gas in world energy demand will increase from 23% to 28%. New power stations will take over 60% of the increase in gas supplies over the next three decades. Most of these stations will use combined-cycle gas turbine technology, a form of generation favoured for its high energyconversion efficiency and low capital costs. Gas is also often preferred to coal and oil for its relatively benign environmental effects, especially its lower carbon content. Consumption of coal will also grow, but more slowly than that of oil and gas. China and India together will account for two-thirds of the increase in world coal demand over the projection period. In all regions, coal use will become increasingly concentrated in power generation, where it will remain the dominant fuel. Power-sector coal demand will grow with the expected increase in gas prices. The deployment of advanced technologies will also increase coal’s attractiveness as a generating fuel in the long term. The role of nuclear power will decline markedly, because few new reactors will be built and some will be retired. Nuclear production will peak at the end of this decade, then decline gradually. Its share of world primary demand will hold steady at about 7% through 2010, then fall to 5% by 2030. Its share of total electricity generation will fall even faster, from 17% in 2000 to 9% in 2030. Nuclear output will increase in only a few countries, mostly in Asia. The biggest declines in nuclear production are expected to occur in North America and Europe. The prospects for nuclear power are particularly uncertain. Some governments have expressed renewed interest in the nuclear option as a means to reduce emissions and to improve security of supply. Renewable energy will play a growing role in the world’s primary energy mix. Hydropower has long been a major source of electricity production. Its share in global primary energy will hold steady, but its share of electricity generation will fall. Non-hydro renewables, taken as a group, will grow faster than any other primary energy source, at an average rate of 3.3% per year over the projection period. Wind power and biomass will grow most rapidly, especially in OECD countries. But non-hydro renewables will still make only a small dent in global energy demand in 2030, because they start from a very low base. OECD countries, many of which have adopted strong measures to promote renewables-based power projects, will account for most of the growth in renewables. Demand Will Rise Fastest in Developing Countries... More than 60% of the increase in world primary energy demand between 2000 and 2030 will come from developing countries, especially in Asia. These countries’ share of world demand will increase from 30% to 43%. The OECD’s share will fall from 58% to 47%. The share of the former Soviet Union and Eastern and Central Europe (the transition economies) will fall slightly, to 10%. The surge in demand in the developing regions results from their rapid economic and population growth. Industrialisation and urbanisation will also boost demand. The replacement of traditional biomass by commercially traded energy will increase recorded demand. Higher consumer prices as energy subsidies are phased out and international prices rise, are not expected to curb energy demand growth. China, already the world’s second-largest energy consumer, will continue to grow in importance on world energy markets as strong economic growth drives up demand and Einleitung 23 imports. The Chinese economy will remain exceptionally dependent on coal, but the shares of oil, natural gas and nuclear will grow in China’s energy mix. Increasing oil- and gasimport needs will make China a strategic buyer on world markets. ...and Transport Uses Will Outstrip All Others Transport demand, almost entirely for oil, will grow the most rapidly of all end-use sectors, at 2.1% per annum. It will overtake industry in the 2020s as the largest final-use sector. Transport demand will increase everywhere, but most rapidly in the developing countries. OECD transport demand will grow at a slower pace, as markets become more saturated. Consumption in the residential and services sectors will grow at an average annual rate of 1.7%, slightly faster than in industry, where it will rise by 1.5% per year. Electricity will grow faster than any other end-use source of energy, by 2.4% per year over the Outlook period. World electricity demand will double through 2030, while its share of total final energy consumption will rise from 18% in 2000 to 22% in 2030. The biggest increase in demand will come from developing countries. Electricity use increases most rapidly in the residential sector, especially in developing countries. But the huge difference in per capita electricity consumption between the OECD and developing countries will hardly change over the projection period. The shares of oil and gas in world final consumption will also remain broadlyunchanged. Oil products will account for roughly half of final energy use in 2030. The share of coal will drop from 9% to 7%. Coal use will expand in industry, but only in non-OECD countries. It will stagnate in the residential and services sectors. Fossil Energy Resources Are Ample, but Technologies and Supply Patterns Will Change The world’s energy resources are adequate to meet the projectedgrowth in energy demand. Oil resources are ample, but more reserves will need to be identified in order to meet rising oil demand to 2030. Reserves of natural gas and coal are particularly abundant, while there is no lack of uranium for nuclear power production. The physical potential for renewable energy production is also very large. But the geographical sources of incremental energy supplies will shift over the next three decades, in response to cost, geological and technical factors. In aggregate, almost all the increase in energy production will occur in non-OECD countries, compared to just 60% from 1971 to 2000. Increased production in the Middle East and the former Soviet Union, which have massive hydrocarbon resources, will meet much of the growth in world oil and gas demand. Most of the projected 60% increase in global oil demand in the next three decades will be met by OPEC producers, particularly those in the Middle East. Output from mature regions such as North America and the North Sea will gradually decline. More oil will become available from Russia and the Caspian region, and this will have major implications for the diversity of supply sources for oil-importing countries. Global crude oil refining capacity is projected to increase by an average 1.3% a year, reaching 121 mb/d in 2030. The growth of capacity will be slightly less than that of demand for refined products, because of increased utilisation rates and the elimination of some refinery bottlenecks. Over 80% of new refining capacity will be built outside the OECD, much of it in Asia. Refineries will have to boost their yields of transportation fuels relative to heavier oil products, as well as improve product quality. Einleitung 24 Production of natural gas, resources of which are more widely dispersed than oil, will increase in every region other than Europe. The cost of gas production and transportation is likely to rise in many places as low-cost resources close to markets are depleted and supply chains lengthen. There are abundant coal reserves in most regions. Increases in coal production, however, are likely to be concentrated where extraction, processing and transportation costs are lowest — in South Africa, Australia, China, India, Indonesia, North America and Latin America. New sources of energy and advanced technologies will emerge during the Outlook period. Non-conventional sources of oil, such as oil sands and gas-to-liquids, are set to expand, as their production costs decline. Fuel cells are also projected to make a modest contribution to global energy supply after 2020, mostly in small decentralised power plants. The fuel cells that are expected to achieve commercial viability first will involve the steam reforming of natural gas. Fuel cells in vehicles are expected to become economically attractive only towards the end of the projection period. As a result, they will power only a small fraction of the vehicle fleet in 2030. International energy trade, almost entirely in fossil fuels, will expand dramatically. Energy trade will more than double between now and 2030. All oil-importing regions – including the three OECD regions – will import more oil, mostly from the Middle East. The increase will be most striking in Asia. The biggest growth markets for natural gas are going to become much more dependent on imports. In absolute terms, Europe will see the biggest increase in gas imports. Cross-border gas pipeline projects will multiply, and trade in liquefied natural gas will surge. Rising Demand Will Drive Up Carbon Dioxide Emissions Global energy-related emissions of carbon dioxide will grow slightly more quickly than primary energy demand. They are projected to increase by 1.8% per year from 2000 to 2030 in the Reference Scenario, reaching 38 billion tonnes in 2030. This is 16 billion tonnes, or 70% more than today. Two-thirds of the increase will come in developing countries. Power generation and transport will account for about three-quarters of new emissions. The geographical sources of new emissions will shift drastically, from the industrialised countries to the developing world. The developing countries’ share of global emissions will jump from 34% now to 47% in 2030, while the OECD’s share will drop from 55% to 43%. China alone will contribute a quarter of the increase in CO2 emissions, or 3.6 billion tonnes, bringing its total emissions to 6.7 billion tonnes per year in 2030. Even then, however, Chinese emissions remain well below those of the United States. The steep rise in projected emissions in the Reference Scenario illustrates the challenge that most OECD countries face in meeting their commitments under the Kyoto Protocol. Emissions in those OECD countries that signed the Protocol will reach 12.5 billion tonnes in 2010, the middle of the Protocol’s target period of 2008-2012. That is 2.8 billion tonnes, or 29%, above the target. Russia, like Central and Eastern Europe, is in a very different situation, with projected emissions considerably lower than their commitments. Under the Protocol, lower emissions in Russia, Ukraine and Eastern Europe, known as “hot air”, can be sold to countries with emissions over their target. But even “hot air” will not suffice to compensate Einleitung 25 for over-target emissions in other countries. The overall gap will be about 15% of projected emissions in 2010. If the United States, which does not intend to ratify the Kyoto Protocol, is excluded, the gap falls to 2%. Carbon sequestration and storage technologies hold out the longterm prospect of enabling fossil fuels to be burned without emitting carbon into the atmosphere. These technologies, however, are unlikely to be deployed on a large scale before 2030. They are at an early stage of development and are very costly. If their costs could be lowered more quickly than assumed here, this would have a major impact on the longterm prospects for energy supply. Policies under Consideration in the OECD Would Curb Energy Demand and Emissions In the Alternative Policy Scenario, implementation of policies that are already under consideration in OECD countries would reduce CO2 emissions by some 2,150 Mt in 2030, or 16% below the Reference Scenario projections described above. This is roughly equal to the total emissions of Germany, the United Kingdom, France and Italy today. Energy savings achieved by the new policies and measures and by faster deployment of more efficient technologies would be 9% of projected demand in the Reference Scenario in 2030. CO2 savings would be even bigger, because of the additional impact of fuel switching to less carbonintensive fuels. Because of the slow pace at which energy capital stock is replaced,CO2 savings in the early years would be relatively small – only 3% by 2010 and 9% by 2020. The biggest reduction in CO2 emissions in the Alternative Policy Scenario would come from power-generation, because of the rapid growth of renewables and savings in electricity demand. OECD governments are currently emphasising renewables and electricity in their long-term plans to curb CO2 emissions and enhance energy security. Although the three OECD regions would still not individually reach the targets under the Kyoto Protocol, “hot air” could allow the targets to be met. The Alternative Scenario projections show a marked reduction in import dependence in the major energy-importing regions. In 2030, OECD gas demand would be 260 bcm, or 13%, below the Reference Scenario. The percentage fall in imports would be even greater. The reduction in EU gas imports by 2030 would be greater than total current imports from Russia and Norway. The savings in oil demand would reach 10%, or 4.6 mb/d. Providing Modern Energy to the World’s Poor Will be an Unfinished Task Some 1.6 billion people have no access to electricity, according to data compiled specially for this study. More than 80% of the people who currently lack electricity access live in South Asia and sub-Saharan Africa. The majority of them live on less than $2 per day, but income is not the only determinant of electricity access. China, with 56% of its people still “poor” by international definition, has managed to supply electricity to the vast majority of its population. In the absence of major new government initiatives, 1.4 billion people, or 18% of the world’s population, will still lack electricity in 2030, despite more widespread prosperity and more advanced technology. The number without electricity in 2030 will be 200 million less than today, even though world population is assumed to rise from 6.1 billion in 2000 to Einleitung 26 8.3 billion. Four out of five people without electricity live in rural areas. But the pattern of electricity-deprivation is set to change, because 95% of the increase in population in the next three decades will occur in urban areas. Poor people in developing countries rely heavily on traditional biomass –wood, agricultural residues and dung –for their basic energy needs. According to information specifically collected for this study, 2.4 billion people in developing countries use only such fuels for cooking and heating. Many of them suffer from ill-health effects associated with the inefficient use of traditional biomass fuels. Over half of all people relying heavily on biomass live in India and China, but the proportion of the population depending on biomass is heaviest in sub-Saharan Africa. The share of the world’s population relying on biomass for cooking and heating is projected to decline in most developing regions, but the total number of people will rise. Most of the increase will occur in South Asia and sub-Saharan Africa. Over 2.6 billion people in developing countries will continue to rely on biomass for cooking and heating in 2030. That is an increase of more than 240 million, or 9%. In developing countries, biomass use will still represent over half of residential energy consumption at the end of the Outlook period. Lack of electricity exacerbates poverty and contributes to its perpetuation, as it precludes most industrial activities and the jobs they create. Experience in China and elsewhere demonstrates how governments can help expand access to modern sources of energy. But electrification and access to modern energy services do not per se guarantee poverty alleviation. A variety of energy sources for thermal and mechanical applications are needed to bring productive, income-generating activities to developing countries. Nonetheless, because biomass will continue to dominate energy demand in these countries in the foreseeable future, the development of more efficient biomass technologies is vital for alleviating poverty in rural areas. Renewable energy technologies such as solar, wind and biomass may be cost-effective options for specific off-grid applications, but conventional fuels and established technologies are more likely to be preferred for ongrid capacity expansion. 1.5 Investment The World Energy Investment Outlook (released November 4, 2003) builds on the World Energy Outlook 2002 to present a detailed analysis of the global energy investment challenge. The study assesses the amount of investment that will be needed across the energy supply chain by fuel – oil, gas, coal, electricity and renewables – for each world region up to 2030. It also identifies the obstacles that must be overcome to mobilise this investment so as to meet anticipated demand and ensure long-term energy supply security. The World Energy Investment Outlook includes analyses of the investment implications of a range of alternative scenarios and policy options, including restricted investment in Middle East oil production capacity, stricter environmental policies, measures to achieve universal access to electricity and carbon sequestration technologies. The study’s findings will help policymakers and investors understand the opportunities and risks of the energy world as it is shaping up and so contribute to their decisions, including decisions designed to alter the emerging trends. We believe that World Energy Investment Einleitung 27 Outlook is essential reading for energy policymakers, investment planners and those concerned with the evolution of the global energy system and the long-term security of energy supply. Energy Investment by Region (2001-2030) Fuel Share in Energy Investment Requirements (2001 - 2030) The IEA’s Economic Analysis Division led the World Energy Investment Outlook project in collaboration with some 20 energy experts from other divisions of the IEA. The study team also benefited from substantial support provided by many government bodies, international organisations and energy companies worldwide, notably the US Department of Energy, the Ministry of Petroleum and Energy of Norway, the World Bank, the Organisation of Petroleum Exporting Countries (OPEC), the World Energy Council, the World Coal Institute, BP and Electricité de France (EdF). Many other experts commented on the underlying analytical work Einleitung 28 and reviewed early drafts of each chapter. Their comments and suggestions were of great value. Table: Global Energy Investment by Fuel and Supply Chain Componet (2001-2030) Investment 2001-2030 $ billion Annual Investment $ billion x x x x x x X X x X Pipelines Exploration and development Transmission and storage LNG x X x X x X x X Distribution Mining Port capacity Shipping Generating Capacity Refurbishment Transmission Distribution x x x x x x x x X X X X X X X X Fuel Supply chain element Oil Exploration and development Non-conventional Oil GTL Refining Tankers Gas Coal Electricity 1.6 Ausblick auf den Kurs Von diesen drei Themenbereichen Optimale Ressourceförderung Externe Effekte: Umweltschutz und Versorgungssicherheit Öffentliche Firmen werden im Rahmen dieser Vorlesung vorwiegend der erste und der letzte behandelt. Die Grundlage ökonomischer Theorie ist die Charakterisierung menschlichen Handelns aus dem Gesichtspunkt der Rationalität. Das Individuum ist fähig, all seine Wünsche zu vergleichen und unter gegebenen Randbedingungen, etwa verfügbares Einkommen, eine rationa- Einleitung 29 le Entscheidung zu fällen. In anderen Worten, ökonomische Analysen unterstellen den Individuen und Entscheidungsträgern ein Optimierungskalkül, meist ein egoistisches. Dies schließt jedoch Altruismus nicht aus, siehe z. B. Becker (1981), der Familientscheidungen - Heiraten, Kinder zeugen, Scheidung, Vererben etc. - als Ergebnis eines individuellen ökonomischen Kalküls sieht. Administrative Spezifika und juristische Rahmenbedingungen sowie Buchhaltung, Kostenrechnung und Investitionsrechnung wurden bereits im Grundstudium erarbeitet und daher hier nicht weiter angesprochen. Jedoch werden zu Beginn die notwendigen mathematischen Hilfsmittel wiederholt, insbesondere das Prinzip nichtlinearer Optimierung. Das Ziel dieser Vorlesung ist es, etwaige Defizite an ökonomischem Verständnis zu beseitigen. Dabei sind drei Spezialgebiete von eminenter Bedeutung für die Energiewirtschaft und rechtfertigen die separate Behandlung dieser wichtigen Märkte. 1.7 Appendix 1.7.1 OPEC and other international organizations (www.opec.org) OPEC came into being as a result of a joint action undertaken by several countries which are members of the United Nations. The treaty establishing OPEC was registered at the United Nations Secretariat on 6 November 1962, under No. 6363. Later, OPEC also established relations with the Economic and Social Council (ECOSOC) under UN Resolution 1053, adopted on 30 July 1965. The OPEC Founder Members, in establishing OPEC, acted in strict observance of the UN principles and purposes. As a result of the absolute conformity between the principles and purposes of the UN and those of OPEC, the OPEC Secretariat has become a regular participant in meetings of various organs, bodies and specialized agencies of the United Nations, particularly the United Nations Conference on Trade and Development (UNCTAD), the World Bank and the International Monetary Fund. OPEC also attends meetings of other important international organizations. Throughout its existence, OPEC has promoted the ideals of the UN, a landmark being the 'Solemn Declaration' adopted in 1975 by the First Conference of Sovereigns and Heads of State of OPEC Member Countries, in which they stressed that world peace and progress depended on mutual respect for the sovereignty and equality of all members of the international community, in accordance with the UN Charter, and emphasized that the basic statements of the 'Solemn Declaration' fell within the context of the decisions taken at the Sixth Special Session of the UN General Assembly on problems of raw materials and development. OPEC, as an intergovernmental organization, has a paramount concern for the problems affecting the developing countries in particular and the international community in general. Inspired by the 'Solemn Declaration', seven OPEC Member Countries participated in the meetings of the Conference on International Economic Co-operation (CIEC), the socalled 'North-South Dialogue', with other developing countries and eight major industrialized nations, with a view to achieving a more equitable distribution of the world's wealth and natural resources. The Organization also demonstrated its concern for the plight of those developing countries most seriously affected by economic stress, by establishing in 1976 the OPEC Fund (see pages 22-24), and by playing a leading role in the setting up and financing of the International Fund for Agricultural Development (IFAD), whose first Governing Council met in Rome on 13 December 1977. IFAD's first Executive Board also included OPEC Member Countries, which have one-third of the seats and the voting power. Thus, the pattern of relationships established between OPEC and the developing countries on the one side and the developed countries on the other within the framework of international fora will, it is hoped, serve to promote Einleitung 30 international co-operation in achieving higher standards of living for all nations, full employment, and economic and social progress and development. Membership The OPEC Statute stipulates that 'any country with a substantial net export of crude petroleum, which has fundamentally similar interests to those of Member Countries, may become a Full Member of the Organization, if accepted by a majority of three-fourths of Full Members, including the concurring votes of all Founder Members.' The Statute further distinguishes between three categories of Membership: Founder Member, Full Member and Associate Member. Founder Members of the Organization are those countries which were represented at the OPEC First Conference, held in Baghdad, and which signed the original agreement establishing OPEC (see below). Full Members are the Founder Members, plus those countries whose applications for Membership have been accepted by the Conference. An Associate Member is a country which does not qualify for full membership, but which is nevertheless admitted under such special conditions as may be prescribed by the Conference. The Organization now has 11 Member Countries. They are listed below with their years of accession. Founder Members Year of accession Islamic Republic of Iran Iraq Kuwait 1960 Saudi Arabia Venezuela Full Members Qatar Indonesia Socialist People's Libyan Arab Jamahiriya United Arab Emirates Algeria Nigeria 1961 1962 1962 1967 1969 1971 Ecuador, which became a Full Member in 1973, had its membership suspended at its own request, with effect from 31 December 1992. Gabon, which became a Full Member in 1975, terminated its membership with effect from 1 January 1995. 1.7.2 Embargo Embargo from The Seven Sisters, Chapter 12 http://67.82.213.252:8383/7sisters/ch12embargo.htm With the possible exception of Croesus, the world will never have seen anything like the wealth which is flowing and will continue to flow into the Persian Gulf. -- James Akins, April 1973 IN THIS atmosphere of crisis, the stolid oil company delegates prepared to confront OPEC in Vienna on October 8. The companies were represented by a team of five, led by George Piercy, the Exxon engineer, and André Bénard, the French director of Shell, a former resistance hero who had only recently become involved with the Einleitung 31 Middle East. They had all been briefed beforehand by their own boards, and by a special meeting of the London Policy Group -- once again with antitrust clearance. Governments were kept informed, but in spite of the growing tension, no diplomats went to Vienna. The negotiation was still between countries and companies. The buffer was still assumed to be working. And then, just as they were leaving for Vienna, Egypt and Syria invaded Israeli-occupied territory. There was war. It was now all too clear why King Feisal's warnings had been so emphatic: his lonely loyalty to the United States was now untenable. OPEC was represented only by the Persian Gulf countries, six of the thirteen (the original five had been gradually augmented, and by 1973 the members were: Algeria, Ecuador, Gabon [associate], Indonesia, Iran, Iraq, Kuwait, Libya, Nigeria, Qatar, Saudi Arabia, United Arab Emirates, Venezuela), was led by the oil ministers of the two biggest producers: Yamani from Saudi Arabia and Amouzegar from Iran. They were in a strong position. The 'house of cards' of the Teheran agreement had now clearly collapsed. Firstly, inflation had galloped ahead, so that the increase of 2-1/2 percent a year was now obviously inadequate: the price of other commodities which the OPEC countries had to import (as the Shah never ceased to point out) was far outstripping the oil price. Secondly the shortage had transformed OPEC's bargaining position: some independents were already offering $5 a barrel for 'participation' oil. Thirdly, the whole psychological balance of power was changing in the face of the shortage. As Dr. Amouzegar put it: 'we became so disgusted by their mercenary approach, bickering over a penny. But we realised that they were in a different position after two wars and the closing of the canal. All these things made them get a little panicky about not getting oil for their customers; we began to feel they were losing their strength.' (Interview with author, December, 1974.) On top of these factors, there was now the war. The company delegates arrived to find the Arabs in a state of excitement, passing round newspaper articles and photographs of American supplies to Israel. The negotiations opened ominously. Yamani began by demanding increases in the government 'take' which would, in effect, double the posted price to $6 a barrel. Piercy replied by offering an extra 15 percent. The oilmen talked strictly commercially, in terms of the market as they saw it: 'we argued very effectively,' as one team put it to me, 'perhaps too effectively. We left them with no resort to logic -- only to power.' But the OPEC delegates were convinced that, with the shortage, the market was on their side. Yamani made a few concessions, taking the posted price to around $5 a barrel; but Piercy, in terms of his brief from his masters, could not go beyond 25 percent. In the meantime the war was raging, the Egyptians had crossed the Suez Canal, and the Arab states had been forged into a new unity. The Arab members of OPEC, through their own Organisation OAPEC, announced that they would meet in Kuwait to discuss the use of oil as a weapon of war. The question of the price was now in imminent danger of being confused with the question of an embargo. It was feared not only by the company delegates, but by Yamani, at least by his account: in Geneva four months earlier he had said he would not negotiate again, but now apparently he wanted to avoid a breakdown. 'I wanted to keep the companies with us, while we went into this political period,' he told me later, 'I didn't want to mix prices with politics'. Amouzegar claimed afterwards that he had genuinely wanted to settle: 'we asked for a dollar a barrel of government take, knowing that they would be mercenary as usual, expecting to settle for forty or forty-five cents. They made a terrible mistake. They flatly. refused, saying the oil market didn't justify it. But we knew that the low price was due to the world being divided between rich and poor.' The company delegates cabled to their principals in London and New York and received their replies: they could not agree to such huge increases without consulting the consumer governments. Some of the company delegates regretted their instructions, believing that it was still possible to negotiate an agreement which might otherwise be forced on them. After midnight, Piercy and Bénard paid their momentous call on Yamani at the Intercontinental Hotel, to tell him that they must adjourn for two weeks to consult governments. (See Chapter 1, pp. 14-15.) Yamani made clear his regrets. The delegates could not budge. The next morning some of the other OPEC delegates arrived at the offices to find that Yamani and the company delegates had already flown home. The news of this historic breakdown, which was to transfer the economy of the West, was buried in the war news. It was delegated to the business pages, and even in the Financial Times it could only reach page 13. In New York the Aramco delegates were now desperate about their companies' survival, and they turned once again to Jack McCloy to press their case. McCloy promised to get a letter to the President, and wrote to General Einleitung 32 Haig at the White House on October 12 by special messenger, enclosing a memorandum to be passed on to both Nixon and Kiss-- Jamieson, Granville, Miller, and Warner. They emphasised that any increased American military aid to Israel 'will have a critical and adverse effect on our relations with the moderate Arab producing countries'. The Europeans could not face a serious shut-in, and 'may be forced to expand their Middle East supply positions at our expense'. Japanese, European, and perhaps Russian interest might well supplant United States presence in the area, 'to the detriment of both our economy and our security.' (Multinational Hearings: Part 7, pp. 546-7.) It was a characteristic mixture of military and commercial arguments: American oil must be protected from both European competition, and a Russian invasion. General Haig took his time in dealing with the letter; three days after its delivery, he replied to McCloy ('Dear John') saying 'I will see that the letter is forwarded to the, President and to Secretary Kissinger'. But in the intervening weekend Kissinger and Nixon, alarmed by reports of Soviet shipments to the Arabs and the Israeli predicament, had authorised the immediate airlift of military supplies to Israel. The next week, on October 16, four Arab foreign ministers arrived in Washington, led by the most crucial, Omar Saqqaf, then Foreign Minister of Saudi Arabia. Saqqaf was in a very bad mood: Nixon had not been able to see him that day, and at a press conference one American reporter said that the Saudis could drink their oil: Saqqaf replied bitterly, 'all right, we will'. The next day, after a last-minute warning from Aramco, Nixon and Kissinger agreed to see Saqqaf and the other three foreign ministers. Saqqaf gave Nixon a letter from King Feisal, stating that if the United States did not stop supplying Israel within two days, there would be an embargo. But Nixon explained that he was committed to supporting Israel; and on the same day the Senate voted, two to one, to send reinforcements. In Kuwait in the meantime the members of OPEC had assembled for a double-barrelled attack on the West. On the first day they decided unilaterally to raise the oil price to $5.12 a barrel -- 70 percent more than the figure of $3.00 agreed at Teheran, and an increase that made all others look tiny. On the second day the Arabs met by themselves, for the meeting of OAPEC. They agreed on an immediate cutback in oil production of 5 percent, and warned in their communiqué (which was issued only in Arabic) 'that the same percentage will be applied in each month compared with the previous one, until the Israeli withdrawal is completed from the whole Arab territories occupied in June 1967 and the legal rights of the Palestinian people restored'. The two cuts together -- the price-hike and the embargo -- proved a deadly combination to the West. But the coincidence, surprisingly enough, was accidental. The embargo had been conceived solely in the context of the Arab-Israel conflict: 'It had nothing to do with wanting to increase the price of oil,' the Secretary of OPEC, Ali Atiga, insisted later: 'or with increasing the power of the oil producers. It was meant simply to attract the notice of the public in the West to the Israeli question; to get them to ask questions about why we did it.' (Interview with author, February, 1975.) But the embargo turned out to be the most effective possible device to jack up the price still further. It made not only the Arab producers, but the Iranians and Venezuelans who had no hand in it, aware of their true position of strength. Three days later, after Saqqaf had returned angrily from America, came the bombshell. Saudi Arabia, far from distancing herself from OPEC, announced a cut-back of l0 percent, plus an embargo of all oil to the United States and the Netherlands. The OPEC ring had now closed tightly and the country which Americans had regarded as the safest was now the most extreme. The next day, the Saudis cut back production by more than 20 percent, and in Riyadh Yamani summoned Jungers to discuss the implementation of the embargo. The Saudis had already worked out the embargo in some detail. They insisted that on top of the 10 percent cutback, Aramco must subtract all shipments to the U.S. including the military. Aramco would have to police the whole complex operation, and any deviations from the ground rules would be harshly dealt with. Jungers pointed out some of the effects of the rules; for instance that Italy and Japan would be specially hard hit. Yamani remarked that this was deliberate, implying that they were being punished for pro-Israeli attitudes. If this embargo didn't change American policy, Yamani explained, the next step would 'not just be more of the same': Jungers had no doubt that he meant complete nationalisation, if not a break in diplomatic relations. (Multinational Hearings: Part 7, p. 517.) The Aramcons now found a real crisis of identity; for where was their ultimate loyalty? At the height of a war, with American public opinion highly-charged, they were required to be the agents of an Arab government in enforcing an embargo, including a military embargo, designed openly to change United States foreign policy. Einleitung 33 The whole past justification for Washington's diplomatic support of the companies in the Middle East -- that they were essential to national security -- was undermined, just when the U.S. Sixth Fleet was being held in readiness. By October 21, when the embargo was proclaimed, the Israelis had agreed to a cease-fire. The next day in New York the Security Council unanimously adopted the call for a cease-fire by the two superpowers. The Aramco directors heaved sighs of relief. 'No question that Saudi Arabian Government mood now more relaxed', Jungers cabled to Socal on October 24, 'but one of cautious anticipation.' But, he warned, the King was still radical on the point of Jerusalem -- 'always the most sensitive and uncompromising issue with His Majesty' -- and there was 'absolutely no question that the oil cutback would remain in effect until the entire implementation was worked out.' One Saudi contact told Jungers that there was 'great satisfaction' with Aramco for its pro-Arab stand, and remarked 'we hope to reward you' -- which Jungers interpreted as a promise to allow future growth. (Ibid: p. 513.) The vast project for Aramco's expansion was now a multi-billion political hostage. Aramco was now closely in touch with Jim Akins, who had just become the Ambassador to Saudi Arabia. On October 25 Akins sent a confidential message to Aramco, to ask the oil tycoons in America to hammer home to their friends in government that oil restrictions would not be lifted 'unless the political struggle is settled in a manner satisfactory to the Arabs'. There were some communications problems', Akins pointed out, with considerable understatement, between the industry and the government. The oil companies must put their views in an unequivocal way. Akins' message was duly transmitted the next day to the four Aramco partners in New York and San Francisco. It was an odd reversal of the diplomatic process. Was it the companies who were the instruments of the State Department, or vice-versa? The Aramco directors still had to carry out the King's orders, even if they were directly against their own country's interests. The Saudis asked for details, within two days, of all their crude oil used to supply the American military bases throughout the world. In New York officials from Mobil and Texaco were reluctant to release it. But Exxon consulted with the Defence Department (though in a very peremptory fashion: Admiral Oller, in charge of Defence Fuel, did not hear about it until it was a fait accompli). (U.S. Senate: Permanent Subcommittee on Investigations, April 22, 1974.) The details were provided, and the Saudis duly instructed Aramco to stop the supplies to the military. The position was serious enough for a managing director of BP in London to receive a phone call from Washington asking whether BP could supply the Sixth Fleet. Exxon and the others were now wide open to the charge that had so often been made against them in the past -- that they put profits before patriotism. In New York, it was all too evident that Aramco was carrying out the instructions of a foreign government, and however much they insisted that they had no alternative, they had few public figures on their side. In the midst of the most Jewish city, they stood out as a pro-Arab enclave. The topography seemed symbolic: on one side of Sixth Avenue in Manhattan stood the three skyscrapers of the three TV networks -- CBS, NBC, ABC -- all of them sympathetic to the Israelis, and deeply critical of the oil companies. On the other side stood the headquarters of the two key companies: Exxon's new skyscraper and the two floors of Aramco, at Fifty-Fourth Street. It was as if the Avenue was an impassable frontier, like the River Jordan itself. Inside the Aramco offices there were young Arab trainees, pictures of King Feisal, engravings of Arabia, and rows of those bleak colour photogrraphs of pipelines in the desert, so much favoured by oilmen. To the media, across the avenue, Aramco appeared an all-powerful supra-government, a consortium of four of the richest companies in the world in league with an alien sovereign state. But the Aramco men in New York saw themselves as persecuted and encircled; anonymous telephone callers rang up with bomb scares to make them troop out of the building, and with threats and insults against the oil traitors. There was little middle ground: each side had its own view of the priorities of foreign policy, and each had a profound distrust of the other. The opposite interests had now come together in an explosion. The Price The embargo, having originated quite separately, was now rapidly exacerbating the shortage, and thus affecting the price. The oil producers, through their participation, now had oil to sell for themselves on the market, which enabled them very soon to get still higher prices. The oil companies had often in the past exploited a political Einleitung 34 crisis to push up their prices; the American companies had done so seventeen years earlier, after Suez. But OPEC, being now a more effective cartel, was better able to take effective advantage. The companies, surveying the situation with alarm and confusion, asked to meet again with OPEC, and on November 17 they assembled in Vienna -- this time not to negotiate, but to discuss. There followed a bewildered discussion about the state of the market, for neither side altogether understood what was happening. Yamani insisted that the market was the only thing that he believed in: why should the oil companies say that the market worked when prices were depressed over the previous decade, and now reject the market at a time of shortage? Was it not a paradox that the oil companies should now ask for a substitute for the market price? The companies insisted that the embargo was not letting the free market work. Dr. Amouzegar of Iran, however, was already insisting that the posted price was too low, pointing to the huge excise taxes that the consuming countries continued to levy on oil. OPEC then held its own conference in Vienna, to discuss how to determine on oil prices. They decided that their Economic Commission should report on the question in December. The companies, their communiqué said, had failed to make a constructive proposal, and the statement continued in OPEC's most reproving style: 'The companies' representatives dwelt vaguely on ideas for pricing of petroleum on the basis of a rigid and arbitrarily predetermined procedure divorced from normal market forces. The conference is not in agreement with such an approach and believes that the pricing of petroleum, like the pricing of other internationally-traded manufacturered goods, commodities and raw materials, should be market-orientated.' It was a comic reversal of roles: OPEC, having discovered its monopoly power, had become the champion of the marketplace: the producers had not only stolen the companies' cartel, they had stolen their humbug. In the panic and shortage caused by the embargo, the majors were now terrified that the independents -- who were much the most desperate for oil, not having their secure supplies -- would bid up the price to ridiculous levels. In London, the companies tried to get Peter Walker, the Minister for Trade and Industry, to refuse foreign currency to bids above $6 a barrel, but he would not agree. The companies were specially worried by Japan, who was most dependent on oil: Frank McFadzean of Shell asked the Japanese prime minister, Kakeui Tanaka, to try to restrain bids, but without success. In Iran on December 16, the Iranian State Oil Company, NIOC, for the first time conducted an auction of some of its oil, with horrific results for the West. The highest bid came to seventeen dollars a barrel. Most of the high bidders were independents, but one bid of twelve dollars (according to Amouzeaar) was put in by a Shell affiliate. The majors could not stop the bidding, and the results supported the Iranian argument, that the posted price was far too low. The climax came just before Christmas. On December 22 the six Persian Gulf members of OPEC met again, this time in Teheran, an ominous setting. For this was the Shah's home ground and the Shah had come to realise that the embargo, though he had played no part in it, was giving him the chance of a lifetime to overcome all his economic problems. Ever since the Teheran agreement of 1971, he had realised that the power of the oil kings was waning; but (as he candidly admitted to me) it was not till the embargo that he understood the real weakness of the companies. The Shah had already prepared the ground. In October he had sent out a team to investigate the cost of alternative fuels, to try to establish a fair price for oil: they looked particularly at the United States, West Germany and South Africa (with its extensive oil-from-coal operations). The experts' report gave the Iranians more powerful arguments for conservation or, in other words, higher prices. As Dr. Amouzegar recalled it, 'we were specially struck by the fact that in 1951 coal accounted for 51 percent of fuel in the United States, while in 1973 it was 19 percent. Because of cheap oil, all alternative sources were being neglected. We realised that no-one in the West was worrying about what would happen when the oil ran out, and the communists could easily take advantage'. (Interview with author, December 1974.) The Iranians could thus smoothly argue that expensive oil was really in the best possible interests of the West. And the Iranian arguments were supported by the findings of OPEC's economic commission, whose report just before the conference indicated that the price should be around seventeen dollars. The prices at auctions encouraged the claim; on the very day of the OPEC meeting an auction in Nigeria had produced a new record bid of $22.60 a barrel -- though it was never actually paid. Einleitung 35 When the OPEC ministers met, the Iranians and the Saudi Arabians were at loggerheads. The Shah wanted a price of fourteen dollars a barrel which was, he insisted, less than the demands of some others. Sheikh Yamani, on the other hand, was seriously worried by the effects of another big price increase on the world economy. How seriously he was (or is) worried is much disputed by oilmen; many argue that it was his insistence on participation and a high buy-back price which began the whole price escalation. But both Yamani and his master, King Feisal, showed signs at the time of being apprehensive: and Yamani said afterwards: 'I was afraid the effects would be even more harmful than they were, that they would create a major depression in the West. I knew that if you went down, we would go down.' (Interview with author.) Yamani knew that the Shah would demand a high price, with the backing of the OPEC militants. The Saudis, as he saw it, were faced with a simple choice: either stick out for a lower price and effectively break up OPEC; or else go along with the majority, and try by all possible means to bring the price down, then and later. 'It was,' he recalled afterwards, 'one of the critical moments of my life; one of the few decisions I took reluctantly.' He could not get in touch with King Feisal, and had to take the decision alone. He encountered two friends in the lobby of the Intercontinental Hotel, and sought their advice. One of them, Bill Tavoulareas of Mobil, advised him to keep the price down, and if necessary break OPEC. The other, an independent oil expert, advised him to fight as hard as he could for a low price within OPEC, but not to break with the majority -- a decision to which Yamani was already tending. But it was not, as he discovered later, the King's view and on his return to Riyadh Feisal reprimanded Yamani for not having insisted on a lower price. What would have happened if Yamani had got through to the King that night in Teheran? OPEC would probably have been broken, and the price would have stayed down; but the political isolation of the Saudis would have been increasingly perilous, and it was unlikely that they would have been able to hold out alone. The next morning the OPEC ministers were still formally meeting when the Shah gave a press conference, to leave no doubt that it was he who was in charge. He announced the shattering increase to $11.65 a barrel, more than doubling the posted price of oil. His assurance was breathtaking: the price, he explained, was very low compared to the going market price, and was reached 'on the basis of generosity and kindness'. The companies, he explained, were making excessive profits of at least a dollar a barrel, for no reason at all. As for the Western consumers, it would do them good to have to economise: 'eventually all those children of well-to-do families who have plenty to eat at every meal, who have their own cars, and who act almost as terrorists and throw bombs here and there, will have to rethink all these privileges of the advanced industrial world. And they will have to work harder... ' (Middle East Economic Survey: December 28, 1973; Petroleum Intelligence Weekly: December 31, 1973.) The OPEC communiqué calmly concluded by saying that, considering that the increase was moderate, 'the Ministers hope that the consuming countries will refrain from further increase in their export prices'. The price of oil had now quadrupled in just over two months. With incredible suddenness, the whole oil cartel had apparently fallen into the hands, not of seven companies, but of eleven countries. All the converging trends of 1973 -- the movement towards participation, the shortage, the Arab-Israel war -- had come together to clinch the cartel. The Middle East leaders, in private, expressed their gratitude to the sisters for making it possible. 'We just took a leaf out of our masters' book,' as one Kuwaiti put it. Or as the Shah said afterwards: 'with the sisters controlling everything, once they accepted, everything went smoothly.' (Interview with author: February, 1974.) The Western nations now found themselves, to their bewilderment, confronted with a cartel, not of companies, but of sovereign states. 1.7.3 OPEC. Still holding customers over a barrel1 This week marks the 30th anniversary of the Arab oil embargo. Western countries are no less in thrall to Middle Eastern oil than they were then ON OCTOBER 17th 1973, Saudi Arabia and several of its oil-rich neighbours voted to cut off oil supplies to America. Two days later, Libya said it would also cut supplies to America and raise the price of oil to other countries from $4.90 a barrel to $8.25 a barrel. Arab frustration at Israel's military victory that month came to a 1 The Economist, Oct 23rd 2003. Einleitung 36 peak on October 21st when Dubai, Qatar, Bahrain and Kuwait cut off supplies too. The Organisation of Petroleum Exporting Countries (OPEC), founded in Iraq in 1960 to promote the interests of producer nations, had finally found its muscle. The Arab embargo has become a symbol of the political chaos and economic troubles endured by the West during the oil shocks of the 1970s. After decades of gradual decline in real terms, oil prices rocketed upwards (see chart 1). Most mainstream forecasters—including those at America's Department of Energy—predicted that oil would cost over $100 a barrel by 2000. A casual observer of the enerlittle changed from that tumulOnce again there is talk of East is again on the brink of Arab countries' resentment Israel, but also because of its And, after years of weakness sprung back to life. Although around $30 a barrel for some are anaemic at best, the cartel by voting to cut its output gy business today might find tuous autumn of 30 years ago. scarcity and crisis. The Middle chaos, not only because of over America's support for military occupation of Iraq. in the 1990s, OPEC has oil prices have remained time, and western economies shocked the market last month even further. Moreover, America's Congress is in the final stages of intense negotiation over a huge energy bill that is based on the administration's notion that there is a serious energysupply crisis. The bill is expected to be passed by Congress any day now. “It's becoming very clear to the country”, George Bush has said, “that demand is outstripping supply.” The Texas oilman's words echo those of Jimmy Carter in 1977. “The diagnosis of the US energy crisis is quite simple,” he said. “Demand for energy is increasing while supplies of oil and natural gas are diminishing.” It's the market, stupid If so many things remain unchanged, is the power of OPEC to bring western economies to their knees one of them? The answer to that is complicated: OPEC's power was enhanced by stupid policies pursued by western governments, then reduced by wiser policies of energy conservation, and now is making an alarming comeback. First, consider what the Arab embargo actually accomplished. In technical terms it was a complete failure: OPEC oil shipped to Europe was simply resold to America or, in effect, it displaced non-OPEC oil that was redirected from Europe across the Atlantic. Prices did rise, but that affected all oil consumers not just Americans. Oil, it became clear at the time, is a “fungible” global commodity. In 1973, Morris Adelman, a professor at the Massachusetts Institute of Technology (MIT), predicted that “if the Arabs don't sell us oil, somebody else will.” He was right. The petrol queues and shortages in America that are now linked in the popular imagination with that period had little to do with the Arab embargo. Jerry Taylor of the Cato Institute argues, correctly, that the shortages were due chiefly to the misguided, anti-market energy policies that had been adopted by America in the years before the embargo. In 1971, for example, the Nixon administration imposed price controls on the energy industry that prevented oil companies from passing on the full cost of imported oil to consumers. That led directly, and predictably, to the companies making decisions to reduce their imports and to stop supplying independent petrol stations that they did not own. Congress made the situation worse in September 1973 by trying to allocate oil to various sectors of industry and different parts of the country through bureaucratic fiat. It also tried to force different pricing for “old” oil and “new” oil—a meaningless distinction for a fungible commodity. These measures led (again predictably) to the panic and hoarding that were to blame for those petrol queues. Both Arab producers and American politicians Einleitung 37 failed in the 1970s to understand the market forces that lie behind the oil business—that is, the power of supply and demand. Happily, there are signs that both are now a bit wiser to the ways of the market. Einleitung 38 Siberia to the rescue? In one sense, the cries of oil scarcity heard three decades ago were certainly wrong: the world is not about to run out of hydrocarbons. Thanks to advances in exploration technology, there are more proven reserves of conventional oil today than there were three decades ago. What is more, even if the stuff starts to grow scarce some decades hence, there are great quantities of unconventional oil (such as Canada's tar sands) still to be extracted. The astonishing burst of innovation in oil technology was the result of investment by big western oil companies in non-OPEC areas such as Alaska and the North Sea. The development of fields in these regions undoubtedly helped to check the market power of OPEC. Unfortunately for consumers, however, these mature oil sources are about to enter a period of dramatic and irreversible decline. This poses an enormous challenge for the big oil companies, which must somehow replace their lost reserves or see their share prices punished by Wall Street. In a forthcoming study, the International Energy Agency (IEA), a quasi-governmental group of oil-consuming nations, estimates that the oil industry needs to invest as much as $2.2 trillion over the next 30 years in exploration and production. Much has been made about the soon-to-soar energy needs of fast-developing giants like China and India, but only a quarter of that $2.2 trillion is required to meet growth in oil demand; the rest is needed, the boffins say, merely to replace production that is already in decline or soon to decline. Daniel Yergin of Cambridge Energy Research Associates, an industry consultancy, says: “Every day the head of every major oil company wakes up focusing on how he is going to replace his reserves. The pressure is relentless.” If western oil companies do not manage to find new sources of supply, OPEC's market share can only increase—and with increasing market share comes more power. Where can the companies hope to find new reserves? A glance at the headlines in recent weeks suggests that Siberia is to be the industry's salvation. After a long history of hostility to foreign involvement in energy, it now appears that Russia is putting out the welcome mat. And big oil firms are racing breathlessly across it, given that Russia has the largest reserves of any country outside the Middle East. BP, which lost $200m in an ill-fated venture with a local company in 1997, appears to have won the first big prize with its new joint-venture with TNK, a big Russian oil firm. Recent rumours suggest that Exxon Mobil and Chevron Texaco may be about to gobble up minority stakes in local firms too. Such acquisitions could be welcomed by YukosSibneft and Lukoil, two of Russia's biggest oil firms. Their owners might be happy to sell now that foreign companies seem eager to pay high prices for businesses such as theirs. No one swings like the Saudis If Russia's fickle politics continues to allow foreign investors in, then the big oil companies should be able to replenish their reserves. That does not mean, however, that the West has found an OPEC slayer. One problem is that it costs far more to lift oil out of the tundra than it does from the sands of the Middle East; indeed, it costs barely a dollar a barrel to extract it from the Saudi or Iraqi deserts compared with an average of about $2.5 a barrel in Russia. Another reason why Russia will not prove the end of OPEC is that it cannot play the role of swing producer. Saudi Arabia maintains a large amount of excess capacity in order to manage prices and cope with disruptions in supply. Because Russia's oil is in private hands, the country will never be able to maintain such a buffer—no company boss could justify such a waste of shareholders' money. Iraq, whose reserves are cheap but not as plentiful as Saudi Arabia's, is unlikely to become a swing producer because its capacity too is limited. Given the dilapidated state of Iraq's infrastructure and the problem of continuing sabotage, few analysts think that its output will rise even to 6m barrels a day (bpd) in less than a decade—let alone to Saudi levels of over 8m bpd. There is another reason why Russia will never be a proper counterweight to Saudi Arabia. Vahan Zanoyan of PFC Energy, a consultancy, points out that many of the country's ports are frozen for part of the year. Even if the Russians develop idle capacity, it will be of little use if they cannot get the extra output to market quickly. When political turmoil in Nigeria and Venezuela reduced oil exports on the eve of America's invasion of Iraq this year (which in turn led to a halt in Iraq's limited exports) it was the swift release of oil by the Saudis that kept prices from soaring. Einleitung 39 Such moves by Saudi Arabia may seem reassuring, but in fact they point to a cause for great concern: the real problem with the supply of oil is its concentration, not its scarcity. Fully 25% of the world's proven reserves of oil sit under the parched deserts of Saudi Arabia. Add in four of the kingdom's neighbours, and the share of the world's oil reserves held by Middle Eastern OPEC countries soars to about two-thirds. It is this immutable fact that gives the cartel, and especially the Saudis, all the aces in the energy game. Russia, by contrast, sits atop barely 5% of the world's reserves. (Iraq controls about 10%.) The Arctic reserves in Alaska, which are at the centre of so much controversy in America, are insignificant in comparison. What is more, because the Middle Eastern suppliers are restraining their production in order to prop up prices, they are sure to have plenty of oil left when the non-OPEC countries start to run out of it. That is why official forecasts, such as those of the IEA, suggest that the market share held by countries in the Middle East— especially Saudi Arabia—can only increase over the next two decades. CAFE society All this shows that an approach that focuses on the supply of oil, such as that taken by President Bush, can do little to free the world economy from OPEC's grip. An approach that focuses on demand, however, might be a different story. Amory Lovins, the head of Rocky Mountain Institute, a natural-resources think-tank, is among those who argue that demand-oriented policies designed to encourage energy efficiency and conservation can help. During the dark days following the Arab embargo, when most oil economists were convinced that energy use and economic growth had to grow in harness, Mr Lovins insisted that demand-side measures could save the day. In a famous article published in Foreign Affairs in 1976, he argued that America could pursue a “soft path” that would remove the link between energy guzzling and GDP growth. He was widely mocked by the energy industry and mainstream economists at the time, but history has shown him to have been right (see chart 2). Several forces explain the economic output in the rich tion from manufacturing to tries, which typically require the embrace of policies specifenergy efficiency. In Europe adopted higher energy taxes ronmental and security “exterwere not reflected in the marcians decided to use regulation efficiency. decoupling of energy use and world. One is the broad transiservice and information indusless energy input. Another is ically designed to encourage and Japan, governments on the grounds that the envinalities” involved in using oil ket price. In America, politirather than price to encourage The most important, and most controversial, of America's demand-side measures is the Corporate Average Fuel Economy (CAFE) law. As a result of this measure, the average fuel efficiency of new American-made cars rose by over two-fifths from 1978 to 1987. From 1977 to 1985, America's GDP rose by 27%, but its oil use dropped 17% by volume. The volume of America's net oil imports fell by nearly 50% during that time. Mr Lovins argues that the dramatic drop in oil intensity of the American economy “broke OPEC's pricing power for a decade”. The cartel fell into disarray in the late 1980s, and the world enjoyed relatively low and stable oil prices for much of the 1990s. Demand-side measures like CAFE did help check the cartel's power for some time. However, the automobile industry hates the law and for the past few years has managed to thwart efforts by some in Congress to raise the standards and to close a loophole that exempts trucks and sport-utility vehicles (SUVs). As a result, America has started to return to its gas-guzzling ways of the past. The average fuel efficiency of American vehicles has been near a 20-year low for the past two years. Einleitung 40 Praying for Riyadh Beyond these measures, what can the West do to reduce the chances of another oil shock? Stock up on oil, for a start. At the time of the Arab embargo there were no meaningful buffer stocks of petroleum. The wealthy members of the OECD have since agreed to maintain at least 90 days' worth of stocks, and they created the IEA specifically to monitor them. Critics argue that politicians meddle in the management of these stocks too much; some even suggest that the stocks do not do much good at all. But Claude Mandil, the IEA's boss, insists that they play an important role as an “insurance policy”, which gives Saudi Arabia an incentive to play its role as swing producer and to prevent future oil shocks. If the Saudis do not release their oil, Mr Mandil argues, they know that the IEA will release its own. This delicate game of cat and mouse points to the harsh reality of today's oil market: it is Saudi Arabia's willingness to be the swing producer that now insures the world's economy against oil shocks. As long as there is a stable government in Riyadh, the West can probably be confident that the enlightened self-interest of the Saudis will coincide with the interests of western gas guzzlers. Alas, the stability of the Saudi regime is far from guaranteed. The pro-American, ruling family is deeply unpopular with fundamentalists in the country, and there is no clear successor to the current de facto ruler, Crown Prince Abdullah. As even the Saudis now grudgingly concede, home-grown terrorists regularly carry out attacks in the country. And if a radical like the Saudi-born Osama bin Laden were ever to topple the royal family, the world could well be hit by another energy shock. The conventional view has held that economic reason and American military might would quickly put an end to any such trouble. It is true that any rational rebel, however anti-American, would still sell oil to the world market in order to feed his people. A wilfully irrational zealot, however, might very well shut down the Saudi spigots in an effort to hurt the West. As for the notion that American troops could quickly restore oil exports, the current morass in Iraq suggests otherwise. If zealots ever got hold of nuclear or chemical weapons and turned them on essential bits of Saudi infrastructure, then all of America's might could not prevent a prolonged and extremely painful oil shock. At a recent conference held on Capitol Hill to reflect on the anniversary of the Arab oil embargo, James Woolsey, a former director of America's Central Intelligence Agency, said: “There are malicious, 9/11 equivalents in the energy system because of our risky reliance on the Saudis as swing producers.” There's safety in cells As the centre of gravity of the world's oil production shifts inexorably closer to Riyadh over the next two decades, this risk can only grow. One statistic makes the point particularly well: even assuming that oil-production technology advances by leaps and bounds, and assuming that four-fifths of all upstream investment in oil takes place outside the Middle East, the IEA still predicts that Saudi Arabia and its immediate neighbours will meet nearly two-thirds of the anticipated increase in oil demand in the years to 2030. If that is accurate, government stocks, while sensible, will never be able to compensate for the loss of Saudi output for more than a few months. Seeking out new sources of non-OPEC oil abroad, and squeezing out more energy efficiency at home, are surely good things to do as well. But in the end neither will make the world much safer from another oil shock. Only by finding a radical alternative to oil—another way to power the world's cars and buses—will consuming countries be able to escape a dangerous reliance on Saudi Arabia and its neighbours. Hydrogen-powered fuel cells, and other alternatives such as bioethanol, might provide a means of escape in a decade or two, if pursued vigorously enough in the meantime. Until then, however, the world's addiction to oil remains an increasingly risky gamble on Saudi Arabia. Einleitung 41 1.7.4 Electricity in America. Life after Enron. Electricity in America. Life The Economist Nov 21st 2002 after Enron. Can the energy traders save themselves? “AFTER the collapse of Enron, the industry has to come together.” So says John Collins, chief risk officer of Constellation Energy, once a rival to the bankrupt Texan firm. Energy traders are known for their bitter rivalries, so why the curious call for co-operation? Simply put, the industry is fighting for its life. According to Jone-Lin Wang of Cambridge Energy Research Associates, a consultancy, America's “power industry is suffering. The impact will be more far-reaching and will last longer than many now expect. What is unfolding in America will have repercussions for the energy business worldwide.” Enron's demise did not kill energy trading, but the evidence of financial skulduggery and murky accounting uncovered by the Enron post-mortems may yet do the job. In the past few days, for example, the industry's main regulator, the Federal Energy Regulatory Commission (FERC), has accused Williams and AES of colluding to drive prices up during the California power crisis two years ago. And in Sacramento, Californian legislators were told that energy firms submitted false prices to firms such as Dow Jones and Platts that publish energy-price indices. Such news has started a vicious cycle of downgrades by credit-rating firms, loss of access to financing and demands for greater collateral. The share prices of once-aggressive energy traders such as Mirant and Dynegy have plunged, as more recently have those of stodgier integrated utilities once thought so safe they were branded “widows and orphans” shares. Some firms are leaving the trading business. Others may go bust. Which is why Mr Collins and other chief risk officers from energy-trading firms are joining forces to try to restore confidence. Their committee of chief risk officers reported on November 19th, setting out best-practice standards in corporate governance, credit and risk management, and financial disclosure. Lack of clarity and consistency in how trades are valued and reported have undermined investor confidence at least as much as any hard evidence of wrongdoing. Trading firms now promise much more detailed disclosure of trading portfolios—and, crucially, standardisation of how they value the often-obscure components of those portfolios. The risk officers also want to shift from bilateral contracts to multilateral “netting” agreements cleared on neutral exchanges, as this should require far less collateral to be posted by individual firms. This is radical stuff, especially by the standards of this industry. Will traders pay any attention to these worthy but voluntary targets set by risk officers? Maybe. The 31 firms behind this week's deal account for about half of the power and gas traded in America. And the threat of heavy regulation hangs over the industry, if it does not clean up its act. Indeed, even if it does, FERC may crack down hard. Like the credit-rating agencies, which some observers think are now overzealously downgrading power marketers to atone for their lax treatment in the past, regulators may also overreact to restore their image. FERC was guilty of “a shocking absence of regulatory vigilance”, said a congressional committee investigating California's crisis and Enron's collapse. Last week, the politicians seemed to blame FERC for causing those fiascos through gross negligence. Loretta Lynch, head of California's Public Utility Commission, accuses her federal counterparts, starting under President Bill Clinton, of pursuing an ideologically driven agenda of “deregulation at any cost”. Surprisingly, FERC does not seem to disagree with its critics. One official responded to the congressional report by saying that “in the past, the agency probably wasn't as quick as it should have been to jump on this stuff”. Nora Brownell, a FERC commissioner appointed by George Bush, goes further: “I won't accuse my predecessors,” she begins, before explaining how more vigilance could have mitigated California's excesses. “We need to be as nimble as the markets. The shaming factor works very well, applied quickly; but the threat of public punishment must come quickly, not two years after the fact.” FERC recently created a new office of market oversight and investigations, and doubled the number of market Einleitung 42 “overseers” on staff. More powers and cash have been promised. More action may also flow from several highprofile court cases now under way. In San Francisco, prosecutors issued subpoenas last week to half a dozen energy-trading companies that did business in California. Their request suggests that they are seeking evidence of collusion and price-fixing. So America's power-trading industry may at last get an active cop on its beat. That should reassure investors, who may return once an economic rebound again raises demand for power and lifts prices. Constellation's Mr Collins is optimistic: “We're an industry in its formative stages; the strong will survive”. How many of today's firms will be around for that (eventual) happy day is anybody's guess. 1.7.5 Enron Chronology of the corporation’s rise based on Sandra Leitner July 1985 -- Houston Natural Gas merges with InterNorth, a natural gas company based in Omaha, Neb., to form the modern-day Enron, an interstate and intrastate natural gas pipeline company with approximately 37,000 miles of pipe. 1989 -- Enron begins trading natural gas commodities. Over the years, the company becomes the largest natural gas merchant in North America and the United Kingdom. June 1994 -- Enron North America trades its first electron. Enron goes on to become the largest marketer of electricity in the U.S. January 1997 -- Enron unveils a new logo and its first global advertising campaign. The company also acquires Zond Corp., a leading developer of wind energy power. The acquisition results in the formation of Enron Renewable Energy Corp. August 1997 -- Enron announces its first commodity transaction using weather derivative products. Enron goes on to market coal, pulp, paper, plastics, metals and bandwidth. April 1999 -- Enron agrees to pay $100 million over 30 years for the naming rights to Houston's new ballpark, Enron Field. The Astros also sign a 30-year facilities management contract Enron Energy Services. June 1999 -- Enron Energy Services transacts its first billion-dollar deal with Suiza Foods. November 1999 -- Enron launches EnronOnline, the first global Web-based commodity trading site. January 2000 -- In a Fortune survey, Enron was named "The Most Innovative Company in America" for the fifth consecutive year and is ranked No. 24 among the "100 Best Companies to Work for in America." March 2000 -- The Energy Financial Group ranks Enron the 6th largest energy company in the world. May 2000 -- Enron and strategic investors, IBM and America Online, launch The New Power Company, the first national energy service provider for residential and small businesses in deregulated U.S. energy markets. The fall Enron’s problems began when in October 2001 Enron officials discovered that its balance sheets were reporting mysterious charges and when later Enron admitted that profits between 1997 and 2000 were $ 600 million lower than had been claimed. Enron used complex partnerships to keep some $ 500 million in debt off its books and mask its financial problems so it could continue to get cash and credit to run its trading business. In a six-week downward spiral last fall, Enron disclosed a stunning $638 million third-quarter loss, the Securities and Exchange Commission (SEC) opened an investigation into the partnerships and the company’s main rival backed out of an $8.4 billion merger deal. Enron filed for protection from creditors on December 2 in the biggest corporate bankruptcy in the U.S. history. Its sock , worth more than $ 80 at the end of year 2000, has tumbled to less than a dollar a share. Enron’s collapse left investors burned out and thousands of employees out of work with lost retirement savings. Einleitung 43 Chronology of the fall2 August 2001 -- Enron chief executive officer Jeff Skilling resigns after running the company for just six months. Chairman and former CEO Ken Lay resumes his position atop Enron. October 16, 2001 -- Enron reports a $638 million third-quarter loss and discloses a $1.2 billion reduction in shareholder equity, partly related to partnerships run by chief financial officer Andrew Fastow. Oct. 22, 2001 -- Enron acknowledges Securities and Exchange Commission inquiry into a possible conflict of interest related to the company's dealings with those partnerships. Oct. 24, 2001 -- Enron ousts Fastow. Oct. 27, 2001 -- Enron taps into more than $3 billion in credit in an effort to boost confidence of investors and customers. Oct. 31, 2001 -- Enron announces the SEC inquiry has been upgraded to a formal investigation. Enron creates special committee headed by University of Texas law school dean William Powers to respond to the investigation. Nov. 1, 2001 -- Enron secures $1 billion in new financing, using its natural gas and pipeline assets as collateral. Nov. 6, 2001 -- Enron's stock price drops below $10 a share -- down from a 52-week high of $84.87 on Dec. 28, 2000 -- after reports the financially troubled energy trader was seeking additional financing to shore up confidence. Nov. 8, 2001 -- Enron files documents with SEC revising its financial statements for past five years to account for $586 million in losses. Nov. 9, 2001 -- Dynegy Inc. announces an agreement to buy its much larger rival Enron for $7.8 billion in stock. The Economist: The ship that sank quietly, Enron's collapse was spectacular. Why has it scarcely ruffled the energy markets? “A HURRICANE in the Gulf of Mexico would have been more disruptive than the fall of Enron.” So goes a saying doing the rounds in the energy business. Although it overstates the point, this statement contains more than a grain of truth. Who could have imagined that the world's leading energy-trading company—a colossus that boasted a 25% market share in gas and power trading on both sides of the Atlantic—could go bust without causing widespread havoc? Despite Enron's demise the lights have stayed on everywhere and the gas has flowed smoothly. What is more, no other firm has gone under as a direct result of its collapse. How can this be? In part, the explanation lies in the fact that Enron was never quite as formidable a force as it claimed. Its reported revenues (of some $100 billion in 2000 and over $130 billion in the first three quarters of 2001) turned out to be more imagined than real. That is because it took to extremes a dubious habit common in its industry: booking the entire value of trades as revenues, rather than merely the profits earned on those trades (a sleight of hand not permitted for financial trading firms such as Wall Street banks). Reporting in a more honest manner deflates Enron's revenues to $8 billion in 2000 (see chart). Its market-share boasts were exaggerated too. The firm probably had closer to a 15% share in the gas and power markets, reckons ICF, a consultancy. 2 http://www.chron.com/cs/CDA/printstory.hts/special/enron/nov01/1126890 Einleitung 44 1 2 3 4 5 6 7 8 But Enron was still undoubtedly the biggest energy trader in the world. Even in bankruptcy, it remains a bigger player than many rivals. Enron is holding on to enough contracts to maintain a market share of about 5% in America, reckons Steve Bergstrom of Dynegy, a rival energy-trading group that led an aborted attempt to save Enron from bankruptcy through a lastminute takeover. So the fact that its demise failed to rock the market still demands an explanation. 9 10 11 12 13 14 15 16 17 Some analysts point to the fact that Enron's bankruptcy was not sudden, but took place in slow motion. The first revelations of dodgy off-balance-sheet financing came in September 2001. Only after Dynegy pulled out of its takeover, on November 28th, did Enron file for bankruptcy. This gave its counterparties time to untangle themselves. Cheekily, Dynegy takes credit for this. “Our merger delayed the bankruptcy by 30 to 45 days. [Without it] most companies would have been shocked and unprepared for the sudden bankruptcy,” says Mr Bergstrom. 18 Maybe, maybe not. Joe Bob Perkins of Reliant Resources, another energy trader, insists that the markets would not have been disrupted even if Enron had collapsed suddenly. The reason, he argues, is that supply and demand did not change when Enron went bust. Because Enron had turned to an “asset-light” strategy in recent years, eschewing power plants in favour of fancy financial derivatives, its decline did not take much physical supply of gas or electricity off the market. The physical market, Mr Perkins insists, was flexible enough to hold up even if Enron had imploded overnight. In contrast, ICF estimates that the market for financial trading that Enron pioneered has collapsed to a third of its pre-bankruptcy level. Deregulation works The physical market's resilience points to the biggest explanation for the lack of a crisis: energy deregulation. Thanks in part to Enron's tenacious lobbying, the sweeping liberalisation of energy markets on both sides of the Atlantic has greatly boosted competition in wholesale gas and power. In every bit of the business, an array of companies now fights for market share. They were able to swoop in as the industry leader faded from the scene. Even EnronOnline, the firm's successful Internet-trading platform, has been seamlessly displaced by previously struggling rivals, such as the InterContinental Exchange (ICE). Richard Spencer, ICE's chief financial officer, can hardly contain his excitement: “Enron validated the market, they opened the door, they let us in the door, and then they left.” However, he is quick to give credit to the market reform that made his firm's ascent possible. “We hope Washington will see that it's not deregulation that's the problem,” he says. “Here the market had a failure, and it went away almost without a blip.” It is not only energy traders—market zealots one and all—who give thanks for energy deregulation. So do regulators, an altogether more cautious lot. “Enron's demise proves that liberalisation works,” says Callum McCarthy, Britain's energy regulator. Britain's New Electricity Trading Arrangement was just seven months old when Enron, the market leader, collapsed—and yet the system proved robust. Mr McCarthy's counterparts on America's Federal Energy Regulatory Commission have also made clear that they think deregulation is part of the solution to the Enron debacle, not part of the problem. Making waves Although Enron's sinking did not pull down the energy world, it has still produced a few ripples. The biggest of these is closer scrutiny of traders' balance sheets. Because many of Enron's financial fiddles involved hiding debt, investors have been punishing any firms that appear to have over-borrowed (see article). This has led to a flight to quality, with asset-heavy firms, which were once seen as stodgy, now back in favour. One such company is Dominion Resources, a big American utility with trading operations. Thos Capps, its boss, Einleitung 45 says: “We don't like mark-to-market accounting and we don't do asset-light trading. We believe that you ought to have your profits and revenues in the same year.” The industry's reporting standards may never become that conservative, but there is no doubt that Enron's demise has already raised the bar. Take the example of Williams, an Oklahoma-based energy company that delayed releasing its final 2001 results while it worked out exactly how to treat potential liabilities related to its telecoms unit. Despite the fact that Williams was one of the only companies to have reported its 2000 energy-trading revenues on the conservative basis used by financial firms (as the chart shows), its shares took a beating. Reliant Resources was also punished by the market when it delayed releasing its results by a day earlier this month—even though it explained that its accounting had been too cautious and its profits were therefore higher than previously stated. “Nobody wants to be perceived as Enron-like,” says Reliant's Mr Perkins. That must seem the cruellest thing of all to Enron. After all, it was the firm's vision and aggressive lobbying that helped to create today's vibrant energy marketplace. Yet not only are its erstwhile rivals dancing on its grave; it now seems clear that the best of Enron's ideas will outlast the ill-fated company. “This industry was championed by Enron when a leader was needed to push deregulation,” says Dynegy's Mr Bergstrom. “Now, the industry has finally figured out that it no longer needs Enron.” 1.7.6 Russia The tragicomic destruction of Yukos, and its legacy, The Economist, Dec 29th 2004 IN THE end it was a classic Russian combination of the astonishing and the predictable and the predictably bad, and a fitting denouement to a campaign that has been as chaotic as it has been capricious. Following the forced auction of the main oil-production subsidiary of Yukos, the Kremlin has extended its influence in Russia's energy sector. Besieged for a year and a half, Yukos has finally and irrevocably been eviscerated; Mikhail Khodorkovsky, its former boss, whose political ambitions incurred the wrath of Vladimir Putin, Russia's president, is still in prison and on trial. The astonishing part involved an American court and a mystery shell company. On December 19th, Yuganskneftegaz, which accounted for 60% of Yukos's oil-production capacity, was sold by the government for $9.35 billion, ostensibly to pay some of Yukos's huge tax bill. But the sale was not to Gazprom, a state-run gas firm that had seemed the likely buyer. Instead, Yugansk was bought by Baikal Finance Group, a hitherto unknown firm whose registered address in the town of Tver reportedly houses a grocery shop. Big Russian corporate auctions are often brazen and bizarre, but the identity of the successful buyer is generally not a surprise. Rumours about the provenance of Baikal swirled around Moscow. Then, on December 22nd, Rosneft, a state-owned oil company, revealed that it had bought Baikal (and thus Yugansk) for an undisclosed sum. The chairman of Rosneft is Igor Sechin, a close confidant of Mr Putin. Thus the state took back Mr Khodorkovsky's prime asset in a way not unlike that in which he acquired his wealth in the first place. Mr Putin said that the process had adhered to the best market standards. Andrei Illarionov, the president's maverick economic adviser (at least for now), reportedly called it the “swindle of the year”. Why Baikal and Rosneft, and not Gazprom? The most palatable explanation is a last-minute injunction secured by Yukos in a court in Houston, Texas, protecting the firm's assets while it filed for bankruptcy—part of Yukos's strategy of trying to force the Kremlin into openly using extra-judicial methods. The ruling, though questionable, scared off a consortium of western banks financing Gazprom's bid. In the end, Baikal was the only actual bidder. Rosneft, being state-owned, should enjoy sovereign immunity, even in a Texan court. That is unlikely to stop Yukos and some of its shareholders suing it, the Russian government, the owners of Baikal (if they can be found) and Gazprom. Yet Yukos now looks comprehensively doomed. It once seemed likely that the firm's alleged tax debts and the attendant penalties would conveniently equal the government's valuation of Yugansk. After the sale Yukos would have kept some assets to pacify minority investors. But the tax bill dwarfs the discounted auction price, and further expropriations now seem likely. Einleitung 46 The Houston court has altered the fate of Yugansk only temporarily, because Rosneft is merging with Gazprom in a deal that will give the Russian government a controlling stake in the enlarged firm. The merger will produce a global energy giant, and an even stronger foreign-policy instrument for the government than Gazprom is now. However, the Yugansk auction may delay the merger for a while, and with it the liberalisation of Gazprom share ownership—to allow foreign investors to buy ordinary shares—that is supposed to follow it. The anxiety induced by the Yukos affair has not been helped by another of Mr Putin's remarks about the auction. It had, he said, put right a wrong done in the privatisations of the 1990s—of which Mr Khodorkovsky was not the only beneficiary. Roman Abramovich, an oil baron turned soccer-club owner whose flamboyant lifestyle has helped to make him vulnerable to crowd-pleasing penalties, has already sold some of his Russian assets. There were rumours this week that Rosneft and a foreign partner were planning to acquire Sibneft, the oil company in which Mr Abramovich has a majority stake. Sibneft may yet face a back-tax bill of its own. Investors who had hoped that the Yukos affair was a one-off vendetta against a troublesome and hubristic oligarch had already been distressed by new tax charges against Vimpelcom, a mobile phone operator listed in New York. Vimpelcom is neither a privatised company nor an energy firm, two of the factors that made attacking Yukos attractive to the Kremlin. The fracas may owe something to a rumoured spat between a government minister and a big Vimpelcom shareholder. Not “another Yukos”, then, but not an advert for investing in Russia, either. Strong-arm tactics The bullying of Shell over Sakhalin II does Russia few favours3 THE quest for oil demands flexibility when operating in harsh environments, and big companies are used to accommodating some unsavoury regimes. These days few places are tougher than Russia, where Royal Dutch Shell has been forced to bend over backwards. On Monday December 11th the Anglo-Dutch energy giant reportedly offered to cede control of Sakhalin II, a huge natural-gas project in the east and the country’s biggest single foreign investment, to Gazprom, the state-controlled gas titan. Shell and its two Japanese minority partners succumbed after months of bullying by the government, which hasnowacquired a big chunk of a private enterprise. It is a disturbing and unwelcome development, but it should not come as a surprise. Vladimir Putin’s regime shamelessly dismembered Yukos, an oil firm owned by a political rival. And Russia’s government has made little secret that it regards energy as a legitimate tool of foreign policy in an energy hungry world. The grab for Sakhalin is just the latest tightening of Russia’s grip on its oil and gas reserves. The Kremlin is discouraging foreign participation in the exploitation of energy reserves: legislation is planned to limit outsiders, in future, to minority stakes in energy and precious-metal firms. Gazprom had long coveted a slice of Sakhalin II and had negotiated with Shell to take a 25% stake. But it has gradually become clear that Russia’s government expected more. In September some important environmental permits were revoked, which threatened to halt work on the project. The Kremlin’s new green credentials drew admiring words from environmental groups, but the state was evidently more concerned about flexing its political muscles than protecting nature. Russia may have had some grounds for complaint over the deal with Shell. It was signed when energy prices were much lower and when the country was desperate to attract foreign capital and expertise. The terms of the production-sharing agreement (PSA), governing the distribution of spoils, were tilted towards Shell. Russia’s government has also been infuriated by huge cost overruns, which led to the breakdown of talks that might have resulted in Gazprom settling for a minority stake. The project may now cost $20 billion, twice the original estimate. And Shell is entitled to recover its investment before paying out royalties. But where Russia’s government may have had a good case for renegotiating the deal, instead it has resorted to intimidation. Shell had few negotiating levers and had little option but to back down. Though the details of the deal are not clear, some analysts suggest that Shell and its Japanese partners might get $4 billion for the half of Sakhalin II that they will hand over. At least it seems that Russia has not yet torn up the PSA, so Shell can still expect returns on its huge investment. 3 Dec 12th 2006 from Economist.com Einleitung 47 Other big oil companies may fear similar treatment. Gazprom or Rosneft, another state-run energy firm, may try to elbow their way further into the remaining foreign-controlled projects. Already there have been veiled threats over the other two big ones governed by PSAs—ExxonMobil’s Sakhalin I and Total’s Kharyaga. The Kremlin is also putting pressure on TNK-BP, an Anglo-Russian energy firm whose Kovykta project is north of China. The risk for Russia, of course, is to its reputation. The government is getting a name for disregarding or unilaterally rewriting agreements when the mood strikes. With global demand for energy so high, oil firms may well decide that the risk is still worth it in Russia. But foreign companies considering investment in other sectors may think again. Investors eyeing a slew of forthcoming IPOs (among energy firms and others) may now be discouraged. That is not what Russia needs. Thanks largely to high oil prices, its economy has been growing by an average of some 6.5% a year. The best way to sustain that is not to cede control of oil and gas fields to bureaucratic, inefficient and opaque state energy firms. More foolish still would be to scare away investors from other parts of Russia’s still-creaking economy. 1.7.7 China Bogus fears send the Chinese packing, The Economist Aug. 2nd 2005. CNOOC, a Chinese state-controlled oil firm, has abandoned its $18.5 billion bid for Unocal, blaming political opposition in America. China’s government could retaliate by blocking American investment in China. American firms may, in the long run, be glad of that FU CHENGYU, chairman and chief executive of China National Offshore Oil Corporation (CNOOC), did all he could to make his firm appear like a western, commercially-minded enterprise in its pursuit of Unocal. But on Tuesday August 2nd, Mr Fu pulled the plug on CNOOC’s $18.5 billion bid for America’s eighth-largest oil firm. This leaves the way open for Chevron, America’s second-largest oil company, to pursue its own $17 billion offer for Unocal. Despite its reputation as one of China’s best-managed companies and the presence on its board of two respected non-Chinese businessmen—Evert Henkes, formerly of Shell, and Kenneth Courtis of Goldman Sachs— CNOOC’s bid for Unocal met with considerable hostility from American politicians. Indeed, in explaining the decision to abandon its bid, the Chinese company said that it had “given active consideration to further improving the terms of its offer, and would have done so but for the political environment in the US.” Not even CNOOC’s promise to preserve American jobs could prevent a wave of criticism across Washington, which centred on the perceived threat to national security of placing precious energy reserves (albeit located largely in Asia) in the hands of a firm that, despite its semblance of westernisation, is still linked to China’s communist government. The political resistance to CNOOC’s bid culminated in the insertion into an energy bill of a clause requiring a four-month study of China’s energy policy before the bid could continue—a move that would, in effect, force CNOOC to raise its offer to compensate investors for the delay. But the company insisted it would not countenance paying more “just because we’re Chinese”. The final nail in the coffin may have been the decision by Institutional Shareholder Services, an influential advisory group, to recommend Chevron’s lower offer, citing the opposition to CNOOC’s bid and the risks associated with it. When CNOOC launched its bid in April, it seemed to confirm a trend: Chinese companies were on a buying spree. Shortly before, Haier, a white-goods manufacturer, had launched its own bid for a slice of American business, offering $2.25 billion for Maytag (though it pulled out last month after Whirlpool countered). And in May, Lenovo, a firm with strong connections to China’s government, had finalised its purchase of the PC-making arm of IBM. These and other deals have clear backing from Beijing. China’s government is intent on creating up to 50 statecontrolled “global champions” to cement the place of the country’s businesses among the world’s best and maintain China’s rapid rate of economic growth. It hopes to achieve this both through the acquisition of natural resources and of western brands, management skills and access to international markets, while cutting costs by moving manufacturing jobs to mainland China. Firms that are directly or indirectly state-owned have access to the vast resources of the Chinese state. Even those that are nominally independent can obtain loans that are virtually interest-free from state-owned banks. Einleitung 48 American politicians made much of the fact that CNOOC was able to trump Chevron’s offer with a cash bid because $7 billion would come directly from China’s government and another $6 billion would come in the form of low-interest loans from state banks. This partly explains why CNOOC could afford to preserve American jobs while Chevron has promised cost savings of some $325m from the merger (inevitably including job losses). Congress’s objections to the subsidising of American employment by China’s government are hard to fathom. So too are fears that American interests would be damaged if China gained access to a limited amount of oil and gas reserves (Unocal is not even one the world’s top 40 oil companies). For all the talk of securing energy reserves, China would still be as exposed to the movement of oil prices on the world’s energy markets as any other country. American politicians’ objections to the deal echo those heard in the 1980s, when Japan embarked on a buying spree of American assets. Then, too, congressmen spread misguided fears of excessive foreign control and national-security threats. Yet, in recent years, acquisitions of American energy-related assets by state-owned oil firms such as Saudi Arabia’s Aramco and Venezuela’s PDVSA failed to elicit so much as a murmur. In the case of CNOOC, some may have seen an opportunity to repay China for the “unfair” competition that America blames for its huge trade deficit. On July 21st, China tried to allay some of the criticism by revaluing the yuan slightly and switching its peg from the dollar to a basket of currencies. At the time of the Japanese invasion, America’s Congress considered a number of bills to curtail foreign investment. Ronald Reagan introduced the notorious “voluntary export restraints” on Japanese steel and cars. He also abandoned America’s laisser-faire approach to currency markets and, through the Plaza Agreement, engineered a sharp drop in the dollar. But the widely predicted Japanese conquest of American business failed to materialise, largely because the investments were ill-considered. Chinese firms are likely to continue chasing American assets despite CNOOC’s failure. American investors should make the most of it while they are still prepared to overpay. By denying China access to energy assets through legitimate means, America might expose itself to bigger threats. Some think that China might now seek energy security more aggressively, for instance by competing more directly for access to the oil and gas from Russia and Central Asia that the West so prizes. And the Chinese government may retaliate by blocking American investment in China. No other country attracts as much foreign direct investment: in 2004, around $60 billion poured into China as firms raced to grab a slice of its huge untapped market. Foreign multinationals may not like to mention it, but doing business in China is far from easy—and often not very profitable. The country’s bureaucracy is mystifying, its maze of regulations ever-changing. In addition, Chinese officials generally consider that foreign firms deserve little in return for their investments. And compounding all this is the difficulty of finding trustworthy local business partners. So perhaps America’s firms would, eventually, have reason to thank Beijing for turning them away. 1.7.8 The oil industry Steady as she goes4 Why the world is not about to run out of oil IN 1894 Le Petit Journal of Paris organised the world's first endurance race for “vehicles without horses”. The race was held on the 78-mile (125km) route from Paris to Rouen, and the purse was a juicy 5,000 francs. The rivals used all manner of fuels, ranging from steam to electricity to compressed air. The winner was a car powered by a strange new fuel that had previously been used chiefly in illumination, as a substitute for whale blubber: petrol derived from oil. Despite the victory, petrol's future seemed uncertain back then. Internal-combustion vehicles were seen as noisy, smelly and dangerous. By 1900 the market was still split equally among steam, electricity and petrol—and even Henry Ford's Model T ran on both grain-alcohol and petrol. In the decades after that great race petrol came to 4 From The Economist, Apr 20th 2006. Einleitung 49 dominate the world's transportation system. Oil left its rivals in the dust not only because internal-combustion engines proved more robust and powerful than their rivals, but also because oil reserves proved to be abundant. Now comes what appears to be the most powerful threat to oil's supremacy in a century: growing fears that the black gold is running dry. For years a small group of geologists has been claiming that the world has started to grow short of oil, that alternatives cannot possibly replace it and that an imminent peak in production will lead to economic disaster. In recent months this view has gained wider acceptance on Wall Street and in the media. Recent books on oil have bewailed the threat. Every few weeks, it seems, “Out of Gas”, “The Empty Tank” and “The Coming Economic Collapse: How You Can Thrive When Oil Costs $200 a Barrel”, are joined by yet more gloomy titles. Oil companies, which once dismissed the depletion argument out of hand, are now part of the debate. Chevron's splashy advertisements strike an ominous tone: “It took us 125 years to use the first trillion barrels of oil. We'll use the next trillion in 30.” Jeroen van der Veer, chief executive of Royal Dutch Shell, believes “the debate has changed in the last two years from 'Can we afford oil?' to 'Is the oil there?'” But is the world really starting to run out of oil? And would hitting a global peak of production necessarily spell economic ruin? Both questions are arguable. Despite today's obsession with the idea of “peak oil”, what really matters to the world economy is not when conventional oil production peaks, but whether we have enough affordable and convenient fuel from any source to power our current fleet of cars, buses and aeroplanes. With that in mind, the global oil industry is on the verge of a dramatic transformation from a risky exploration business into a technology-intensive manufacturing business. And the product that big oil companies will soon be manufacturing, argues Shell's Mr Van der Veer, is “greener fossil fuels”. The race is on to manufacture such fuels for blending into petrol and diesel today, thus extending the useful life of the world's remaining oil reserves. This shift in emphasis from discovery to manufacturing opens the door to firms outside the oil industry (such as America's General Electric, Britain's Virgin Fuels and South Africa's Sasol) that are keen on alternative energy. It may even result in a breakthrough that replaces oil altogether. 26 27 To see how that might happen, consider the first question: is the world really running out of oil? Colin Campbell, an Irish geologist, has been saying since the 1990s that the peak of global oil production is imminent. Kenneth Deffeyes, a respected geologist at Princeton, thought that the peak would arrive late last year. 28 29 30 31 32 33 34 35 36 37 38 39 40 It did not. In fact, oil production capacity might actually grow sharply over the next few years (see chart 1). Cambridge Energy Research Associates (CERA), an energy consultancy, has scrutinised all of the oil projects now under way around the world. Though noting rising costs, the firm concludes that the world's oil-production capacity could increase by as much as 15m barrels per day (bpd) between 2005 and 2010—equivalent to almost 18% of today's output and the biggest surge in history. Since most of these projects are already budgeted and in development, there is no geological reason why this wave of supply will not become available (though politics or civil strife can always disrupt output). 41 42 43 44 Peak-oil advocates remain unconvinced. A sign of depletion, they argue, is that big Western oil firms are finding it increasingly difficult to replace the oil they produce, let alone build their reserves. Art Smith of Herold, a consultancy, points to rising “finding and development” costs at the big firms, and argues that the world is consuming two to three barrels of oil for every barrel of new oil found. Michael Rodgers of PFC Energy, another consultancy, says that the peak of new discoveries was long ago. “We're living off a lottery we won 30 years ago,” he argues. It is true that the big firms are struggling to replace reserves. But that does not mean the world is running out of oil, just that they do not have access to the vast deposits of cheap and easy oil that are left in Russia and members of the Organisation of Petroleum Exporting Countries (OPEC). And as the great fields of the North Sea and Einleitung 50 Alaska mature, non-OPEC oil production will probably peak by 2010 or 2015. That is soon—but it says nothing of what really matters, which is the global picture. When the United States Geological Survey (USGS) studied the matter closely, it concluded that the world had around 3 trillion barrels of recoverable conventional oil in the ground. Of that, only one-third has been produced. That, argued the USGS, puts the global peak beyond 2025. And if “unconventional” hydrocarbons such as tar sands and shale oil (which can be converted with greater effort to petrol) are included, the resource base grows dramatically—and the peak recedes much further into the future. After Ghawar It is also true that oilmen will probably discover no more “super-giant” fields like Saudi Arabia's Ghawar (which alone produces 5m bpd). But there are even bigger resources available right under their noses. Technological breakthroughs such as multi-lateral drilling helped defy predictions of decline in Britain's North Sea that have been made since the 1980s: the region is only now peaking. Globally, the oil industry recovers only about one-third of the oil that is known to exist in any given reservoir. New technologies like 4-D seismic analysis and electromagnetic “direct detection” of hydrocarbons are lifting that “recovery rate”, and even a rise of a few percentage points would provide more oil to the market than another discovery on the scale of those in the Caspian or North Sea. Further, just because there are no more Ghawars does not mean an end to discovery altogether. Using ever fancier technologies, the oil business is drilling in deeper waters, more difficult terrain and even in the Arctic (which, as global warming melts the polar ice cap, will perversely become the next great prize in oil). Large parts of Siberia, Iraq and Saudi Arabia have not even been explored with modern kit. The petro-pessimists' most forceful argument is that the Persian Gulf, officially home to most of the world's oil reserves, is overrated. Matthew Simmons, an American energy investment banker, argues in his book, “Twilight in the Desert”, that Saudi Arabia's oil fields are in trouble. In recent weeks a scandal has engulfed Kuwait, too. Petroleum Intelligence Weekly (PIW), a respected industry newsletter, got hold of government documents suggesting that Kuwait might have only half of the nearly 100 billion barrels in oil reserves that it claims (Saudi Arabia claims 260 billion barrels). Tom Wallin, publisher of PIW, warns that “the lesson from Kuwait is that the reserves figures of national governments must be viewed with caution.” But that still need not mean that a global peak is imminent. So vast are the remaining reserves, and so well distributed are today's producing areas, that a radical revision downwards— even in an OPEC country—does not mean a global peak is here. For one thing, Kuwait's official numbers always looked dodgy. IHS Energy, an industry research outfit that constructs its reserve estimates from the bottom up rather than relying on official proclamations, had long been using a figure of 50 billion barrels for Kuwait. Ron Mobed, boss of IHS, sees no crisis today: “Even using our smaller number, Kuwait still has 50 years of production left at current rates.” As for Saudi Arabia, most independent contractors and oil majors that have first-hand knowledge of its fields are convinced that the Saudis have all the oil they claim—and that more remains to be found. Pessimists worry that Saudi Arabia's giant fields could decline rapidly before any new supply is brought online. In Jeremy Leggett's thoughtful, but gloomy, book, “The Empty Tank”, Mr Simmons laments that “the only alternative right now is to shrink our economies.” That poses a second big question: whenever the production peak comes, will it inevitably prompt a global economic crisis? The baleful thesis arises from concerns both that a cliff lies beyond any peak in production and that alternatives to oil will not be available. If the world oil supply peaked one day and then fell away sharply, prices would indeed rocket, shortages and panic buying would wreak havoc and a global recession would ensue. But there are good reasons to think that a global peak, whenever it comes, need not lead to a collapse in output. For one thing, the nightmare scenario of Ghawar suddenly peaking is not as grim as it first seems. When it peaks, the whole “super-giant” will not drop from 5m bpd to zero, because it is actually a network of inter-linked fields, Einleitung 51 some old and some newer. Experts say a decline would probably be gentler and prolonged. That would allow, indeed encourage, the Saudis to develop new fields to replace lost output. Saudi Arabia's oil minister, Ali Naimi, points to an unexplored area on the Iraqi-Saudi border the size of California, and argues that such untapped resources could add 200 billion barrels to his country's tally. This contains worries of its own—Saudi Arabia's market share will grow dramatically as non-OPEC oil peaks, and with it the potential for mischief. But it helps to debunk claims of a sudden change. The notion of a sharp global peak in production does not withstand scrutiny, either. CERA's Peter Jackson points out that the price signals that would surely foreshadow any “peak” would encourage efficiency, promote new oil discoveries and speed investments in alternatives to oil. That, he reckons, means the metaphor of a peak is misleading: “The right picture is of an undulating plateau.” What of the notion that oil scarcity will lead to economic disaster? Jerry Taylor and Peter Van Doren of the Cato Institute, an American think-tank, insist the key is to avoid the price controls and monetary-policy blunders of the sort that turned the 1970s oil shocks into economic disasters. Kenneth Rogoff, a Harvard professor and the former chief economist of the IMF, thinks concerns about peak oil are greatly overblown: “The oil market is highly developed, with worldwide trading and long-dated futures going out five to seven years. As oil production slows, prices will rise up and down the futures curve, stimulating new technology and conservation. We might be running low on $20 oil, but for $60 we have adequate oil supplies for decades to come.” The other worry of pessimists is that alternatives to oil simply cannot be brought online fast enough to compensate for oil's imminent decline. If the peak were a cliff or if it arrived soon, this would certainly be true, since alternative fuels have only a tiny global market share today (though they are quite big in markets, such as ethanol-mad Brazil, that have favourable policies). But if the peak were to come after 2020 or 2030, as the International Energy Agency and other mainstream forecasters predict, then the rising tide of alternative fuels will help transform it into a plateau and ease the transition to life after oil. The best reason to think so comes from the radical transformation now taking place among big oil firms. The global oil industry, argues Chevron, is changing from “an exploration business to a manufacturing business”. To see what that means, consider the surprising outcome of another great motorcar race. In March, at the Sebring test track in Florida, a sleek Audi prototype R-10 became the first diesel-powered car to win an endurance race, pipping a field of petrol-powered rivals to the post. What makes this tale extraordinary is that the diesel used by the Audi was not made in the normal way, exclusively from petroleum. Instead, Shell blended conventional diesel with a super-clean and super-powerful new form of diesel made from natural gas (with the clunky name of gas-to-liquids, or GTL). Several big GTL projects are under way in Qatar, where the North gas field is perhaps twice the size of even Ghawar when measured in terms of the energy it contains. Nigeria and others are also pursuing GTL. Since the world has far more natural gas left than oil—much of it outside the Middle East—making fuel in this way would greatly increase the world's remaining supplies of oil. 36 37 38 39 40 41 42 43 44 45 So, too, would blending petrol or diesel with ethanol and biodiesel made from agricultural crops, or with fuel made from Canada's “tar sands” or America's shale oil. Using technology invented in Nazi Germany and perfected by South Africa's Sasol when those countries were under oil embargoes, companies are now also investing furiously to convert not only natural gas but also coal into a liquid fuel. Daniel Yergin of CERA says “the very definition of oil is changing, since non-conventional oil becomes conventional over time.” 46 47 48 49 50 51 Alternative fuels will not become common overnight, as one veteran oilman acknowledges: “Given the capitalintensity of manufacturing alternatives, it's now a race between hydrocarbon depletion and making fuel.” But the recent rise in oil prices has given investors confidence. As Peter Robertson, vice-chairman of Chevron, puts it, “Price Einleitung 52 is our friend here, because it has encouraged investment in new hydrocarbons and also the alternatives.” Unless the world sees another OPEC-engineered price collapse as it did in 1985 and 1998, GTL, tar sands, ethanol and other alternatives will become more economic by the day (see chart 2). This is not to suggest that the big firms are retreating from their core business. They are pushing ahead with these investments mainly because they cannot get access to new oil in the Middle East: “We need all the molecules we can get our hands on,” says one oilman. It cannot have escaped the attention of oilmen that blending alternative fuels into petrol and diesel will conveniently reinforce oil's grip on transport. But their work contains the risk that one of the upstart fuels could yet provide a radical breakthrough that sidelines oil altogether. If you doubt the power of technology or the potential of unconventional fuels, visit the Kern River oil field near Bakersfield, California. This super-giant field is part of a cluster that has been pumping out oil for more than 100 years. It has already produced 2 billion barrels of oil, but has perhaps as much again left. The trouble is that it contains extremely heavy oil, which is very difficult and costly to extract. After other companies despaired of the field, Chevron brought Kern back from the brink. Applying a sophisticated steam-injection process, the firm has increased its output beyond the anticipated peak. Using a great deal of automation (each engineer looks after 1,000 small wells drilled into the reservoir), the firm has transformed a process of “flying blind” into one where wells “practically monitor themselves and call when they need help”. The good news is that this is not unique. China also has deposits of heavy oil that would benefit from such an advanced approach. America, Canada and Venezuela have deposits of heavy hydrocarbons that surpass even the Saudi oil reserves in size. The Saudis have invited Chevron to apply its steam-injection techniques to recover heavy oil in the neutral zone that the country shares with Kuwait. Mr Naimi, the oil minister, recently estimated that this new technology would lift the share of the reserve that could be recovered as useful oil from a pitiful 6% to above 40%. All this explains why, in the words of Exxon Mobil, the oil production peak is unlikely “for decades to come”. Governments may decide to shift away from petroleum because of its nasty geopolitics or its contribution to global warming. But it is wrong to imagine the world's addiction to oil will end soon, as a result of genuine scarcity. As Western oil companies seek to cope with being locked out of the Middle East, the new era of manufactured fuel will further delay the onset of peak production. The irony would be if manufactured fuel also did something far more dramatic—if it served as a bridge to whatever comes beyond the nexus of petrol and the internal combustion engine that for a century has held the world in its grip. 1.7.9 Nuclear power: Atomic renaissance5 America's nuclear industry is about to embark on its biggest expansion in more than a generation. This will influence energy policy in the rest of the world OVER the next few months America's Nuclear Regulatory Commission (NRC) expects to receive 12 applications to build new nuclear-power reactors at seven different sites. It is preparing to see plans for another 15 at 11 more locations next year. These will be the first full applications to build new nuclear plants in America for 30 years. If they are all successful, the number of reactors in the country will increase by roughly a third. The output of nuclear electricity would grow even more sharply—the new reactors would be more powerful than older ones. The new enthusiasm for building reactors means America's long-awaited “nuclear renaissance” is about to become reality. Whether it is a leap forwards or a step backwards remains to be seen. Since the 1970s, far from being “too cheap to meter”—as it proponents once blithely claimed—nuclear power has proved too expensive to matter. The problem is finance: nuclear plants cost a lot to build but are relatively cheap to run, unlike gas-fired ones, for which the reverse is true. So to be profitable they must be built quickly, to minimise the period when no revenue is coming in and interest payments are piling up on construction loans. Yet America's previous generation of nu- 5 The Economist, Sep 6th 2007. Einleitung 53 clear plants was plagued by safety scares, design revisions and time-consuming regulatory procedures, which resulted in ruinously protracted construction. America's most recent nuclear plant, at Watts Bar in Tennessee, started operations in 1996. But it took 23 years to complete at a cost of $6.9 billion; a second reactor at the site has been under construction, on and off, since 1973. Another plant, at Shoreham in New York, was completed and tested, but never allowed to start commercial operations because of local opposition. By the time it was decommissioned, in 1994—21 years after construction had begun—the costs had exploded from $70m to $6 billion. The local utility was able to pass most of this bill on to its customers. Not all energy firms have been so lucky: in 1988 Public Service Company of New Hampshire became the first American utility to go bust since the Depression, thanks largely to the fallout from a much-delayed nuclear project. Even when they were switched on, nuclear-power stations did not fulfil their promise. They were supposed to run almost constantly, but proved much less reliable. In the early 1970s, for example, the average nuclear plant produced power for under half the time. Since most utilities had planned to run them flat out to generate enough revenue to repay their debts, this poor performance led to further financial troubles. And, as anti-nuclear activists complain, all this happened despite the government's generous subsidies to help cover the costs of developing new designs and building prototypes. As for safety... What is worse, nuclear power has a spotty safety record. There have never been any catastrophic releases of radiation in Western countries. But one did occur in 1986 at Chernobyl, in what was then the Soviet Union and is now Ukraine. America came perilously close to such a disaster in 1979, when a reactor at Three Mile Island in Pennsylvania overheated and began to melt down. There have been lesser safety scares and scandals in many countries, including Britain, Germany and Sweden. In August an earthquake resulted in several small leaks of radioactive material from a nuclear reactor in Japan. The next generation of nuclear plants is said to be very different. Firms which make them, such as America's General Electric and Westinghouse, and foreign manufacturers like France's AREVA, insist that such episodes will soon be a thing of the past. Their latest designs, they maintain, are simpler and safer than existing nuclear plants. That should make it easier to obtain operating permits, allow them to be built faster and be cheaper to run—and so much less risky financially. Meanwhile, contractors are said to be getting better at building them, the NRC better at regulating them and utilities better at running them. Although nuclear power's boosters welcome a smorgasbord of new subsidies that Congress has approved to nourish the industry, they say that in the long run even this will not be necessary because the industry will be able to move forward under its own nucleargenerated steam. Consolidating reactors America's utilities have certainly warmed to their existing nuclear-power plants now that they are running them more efficiently. In the 1970s, says Colette Lewiner, of Capgemini, a consultancy, even small municipally owned firms ordered nuclear reactors, imagining they would be no more complicated to operate than their existing power stations, except in so far as workers would need uranium to shovel into the furnace instead of coal. But they found that they had neither the expertise to maintain their new investments, nor the scale to absorb all the extra regulatory costs, nor the clout to secure fuel and parts at competitive prices. Many ended up putting their nuclear plants up for sale. That allowed bigger firms to acquire reactors on the cheap, and thus to achieve economies of scale and to capitalise on their experience. These nuclear specialists have been able to speed up the refuelling process, keep shutdowns for maintenance to a minimum and so keep the reactors going more of the time. Last year the average nuclear reactor in America was in use 90% of the time. Better still, utilities have found ways to improve the nonnuclear parts of the power station, such as the steam turbines. These so-called “uprates” have increased America's nuclear capacity by almost 5,000MW since 1977, the equivalent of about five new nuclear reactors, according to the Nuclear Energy Institute, an industry group. At the same time, the NRC has agreed to extend the working life of about half of America's nuclear plants for an extra 20 years. Einleitung 54 All this has turned nuclear-power plants into virtual mints—as long as the bill for construction has been paid down or written off. In most of America, the wholesale power price is closely linked to the price of natural gas, since gas-fired plants tend to provide the extra power required at times of peak demand. So the price of power has risen along with that of gas over the past few years, whereas the operating costs of nuclear plants have remained relatively stable. According to the Energy Information Administration, a government agency, the average wholesale power price in 2005 was 5 cents per kilowatt-hour (kWh); the Nuclear Energy Institute, an industry group, reckons that the average operating cost of America's nuclear plants was 1.7 cents per kWh that year. So their margins were almost 200%. No wonder that utilities are rushing to the NRC with their plans for new reactors. But to get any of them off the ground they must not only persuade the NRC of the safety of their designs, but also convince potential creditors that there will be no repeat of the financial meltdowns of the 1970s and 1980s. They point to three reasons for optimism: changing conditions in the energy business, a streamlining of the NRC's process for obtaining permits and an overhaul of construction techniques. Until recently coal-fired plants seemed to be safer investments. But nowadays most utilities expect—and in some cases are calling for—Congress to limit emissions of greenhouse gases in the near future to temper climate change. Coal-fired plants, which have a working life of 40 years or more, spew out globe-warming pollution, whereas nuclear ones produce almost no greenhouse gases at all. So coal is now subject to a massive “regulatory risk” of its own. Utilities are piling into green-generation technologies, such as wind turbines and solar panels. But for a constant source of clean power, they have few choices other than nuclear. Meanwhile, to avoid the fiascos of the past the NRC has simplified its procedures. It used to require utilities to obtain two different licences, the first to build a nuclear plant and after that a second licence to start it up. Both applications involved lengthy reviews, which culminated in interminable public hearings. New reactors, like the one at Shoreham, could be finished at great expense and yet never secure an operating licence. So the NRC is combining the two stages: utilities can now apply for a single “combined construction and operating licence”. Construction need not start—and for most bits of the plant is not allowed to—until the licence is issued. To speed things up even more, the NRC is allowing firms selling nuclear reactors to get designs cleared in advance. That way, when a utility applies to build a reactor of an approved design, the NRC will only need to review the modifications that are unique to its site. Westinghouse has already got its AP-1000 model cleared; the NRC is in the process of certifying GE's latest design, called the ESBWR, and AREVA is about to submit an application for its new offering, the EPR. By the same token, utilities can now ask the NRC to approve a location as suitable for a nuclear-power station before they go to the trouble and expense of applying for a combined licence. Four firms have asked for these “early site permits” and two have already received them. Another short cut involves submitting the environmental part of a combined licence before the part that deals with the design. UniStar, a joint venture between America's Constellation and Électricité de France (EDF), filed that sort of paperwork in July for a new reactor in Maryland. The NRC has also made a point of asking utilities about their nuclear plans before any applications arrive. This is so it can be sure it will have enough staff to handle them—which is how it knows how many new plants are in the works. It is hiring about 200 new staff every year, and since most of the utilities contemplating nuclear plants are in the South, has set up a field office in Georgia to co-ordinate with them directly. It is even planning to suggest to Congress possible amendments to the relevant laws to reduce the hassle and uncertainty of licensing even more. The process will still be time-consuming: the NRC reckons it will need two and a half years to review each application and a further year to conduct hearings on its conclusions. Certification of new reactor designs might take as long as four years: AREVA says its application for the EPR runs to 17,000 pages and fills a small bookcase. Nonetheless, the NRC aims to issue its first new licences at some point in 2011. Obstreperous local authorities could still put a spanner in the works. It was opposition from county and state officials, for example, that finally did in the Shoreham plant. Although they have no explicit authority to block a new reactor, local officials can withhold permits to use the water from a river for cooling, for example, or refuse to co-operate on emergency planning. But utilities are hoping to avoid such pitfalls by locating their new reactors Einleitung 55 only in welcoming jurisdictions—preferably next door to existing ones. Locals in such places know that expanding existing nuclear facilities will bring more jobs and produce more tax revenue. Moreover, they have grown accustomed to having nuclear reactors nearby and do not find the idea particularly frightening. As Dale Klein, chairman of the NRC, puts it, the staff and management of nuclear plants, and local residents, all go to church together. Fast builders Utilities are also confident that they can build new reactors more quickly than before. Many have already placed orders for the parts that take a long time to build. They have also brought in partners that have completed nuclear projects on time and on budget in other countries. Westinghouse, for example, points to the exemplary record of its parent company, Toshiba, in Japan. Similarly, GE has teamed up with Hitachi, another respected Japanese nuclear contractor. AREVA, meanwhile, looks to the series of successful plants it has built in conjunction with EDF in France. All three vendors say they plan to save time and money by using as many identical parts as possible for the different nuclear plants they build in America—unlike the bespoke designs of the past. All this should reduce the time required for construction to four years, they say, which would allow the first new reactors to enter service in 2015 or 2016. But bankers are still sceptical. They are worried that when the new designs and the NRC's new procedures are put to the test, hidden flaws will emerge. After all, the first of AREVA's EPR designs is under construction in Finland and is two years behind schedule and dramatically over budget. To avoid such nasty surprises, NRG Energy, a power-generation company that is applying to build two new reactors in Texas, has opted for one of GE's older and already-proven designs, even though GE insists that its ESBWR will be cheaper to build and to run. Other utilities are planning to build nuclear plants in the regulated markets of the South, in the hope that the regulators will allow them to pass any cost over-runs on to their customers. Even so, says David Crane, NRG's boss, banks are simply not prepared to lend money to build nuclear plants in America without some extra surety. The Energy Policy Act, which Congress approved in 2005, is supposed to provide that. It offers four different types of subsidies for new reactors. First, it grants up to $2 billion in insurance against regulatory delays and lawsuits to the first six reactors to receive licences and start construction. Second, it extends an older law limiting a utility's liability to $10 billion in the event of a nuclear accident. Third, it provides a tax credit of 1.8 cents per kWh for the first 6,000MW generated by new plants. Fourth, and most importantly, it offers guarantees for an indeterminate amount of loans to fund new nuclear reactors and other types of power plant using “innovative” technology. The scope of these loan guarantees is the subject of great controversy. Some politicians fear that the costs of the programme might balloon; others complain that the Department of Energy, which will administer it, is too stingy. Meanwhile, some financial experts argue that the rules, as drafted, would not allow issuing banks to repackage and sell on the loans in question, making them less attractive. There is also some debate about what proportion of a nuclear plant's debt should be covered: the act says up to 80% of the costs of construction, but that might be sufficient to cover the full amount borrowed, leaving banks with no risk at all. Until all this is settled, utility bosses insist, new nuclear plants will not get built. Clearing up afterwards The fate of America's nuclear waste, which the government has vowed to sequester for a million years, is another unresolved issue. In theory, the Department of Energy is in charge of looking after it all. It requires utilities to set aside a tenth of a cent for each kilowatt-hour of nuclear power they generate to help defray the costs of transporting nuclear waste to a safe repository and storing it there permanently. The only hitch is that no such repository yet exists. Most countries with nuclear power have determined that the safest way to store their waste is underground, deep in the bedrock in air- and watertight containers. But no one has actually built such a facility. America has got as far as selecting a site for one, at Yucca Mountain, a ridge in the middle of a former nuclear-testing ground in Nevada. The Department of Energy is planning to submit an application to the NRC next year to build a repository there. The NRC, in turn, thinks the application will take about three years to review. Officials say the facility will be open for business in 2017. Einleitung 56 But Harry Reid, a senator from Nevada, has vowed to derail the scheme. As it is, Congress has been cutting funding for the Yucca Mountain project, which was first proposed in 1978 and has since been the subject of several lawsuits. Now that Mr Reid has become Senate majority leader the odds of the repository ever getting built have diminished. Meanwhile, nuclear waste continues to pile up in ponds and containers at nuclear plants around the country. The NRC monitors these and claims that they are safe for the foreseeable future. But Mr Klein, its chairman, tactfully hints that it would be prudent for the government to find a more permanent solution, especially since it is encouraging a dramatic expansion of nuclear power. Nonetheless, Mr Klein believes that the expansion of nuclear energy is now in motion and is unlikely to be slowed down by concerns about what to do with the waste. The only thing that could stop a nuclear renaissance now, he suggests, is a serious accident at an existing plant. Unfortunately, it would not be the first. Einleitung 57 1.7.10 Appendix: World Energy Data Resource for all Data Sheets: BP Statistical Review of Worl Energy, 2004. Oil Peaking? Comparing production with discoveries Source: Bentley Roger W. , Global Oil and Gas Depletion -- A Letter to the Energy Modelling Community, International Association for Energy Economists, Newsletter, Second Quarter 2006, www.iaee.org, p 5-14. Price Projections : Source: Ressourcen 58 2 Theorie der optimalen Förderung nicht erneuerbarer Ressourcen Die jüngere Vergangenheit, etwa seit 1974, ist gekennzeichnet durch ein wiedererwachtes Interesse in der Analyse der optimalen Nutzung finiter Ressourcen. Dieses Interesse resultierte sowohl aus dem apokalyptischen Bericht des Club of Rome, Meadows et al: "Limits to Growth", als auch der Strategie der OPEC, Ende 1973 die Ölpreise drastisch zu erhöhen. Diesem Interesse steht eine Vernachlässigung dieses Phänomens in allen Standardlehrbüchern der Ökonomie seit Jahrhunderten gegenüber. Trotzdem sind die Grundzüge dieser Theorie bereits seit längerem bekannt (Ricardo -"Land", Malthus), und H. Hotelling schrieb Contemplation of the world's disappearing supplies of minerals, forests and other exhaustible assets has led to demands for regulation of their exploitation. The feeling that these products are now too cheap for the good of future generations, that they are selfishly exploited at too rapid a rate, and that in consequence of their excessive cheapness they are being produced and consumed wastefully has given rise to the conservation movement. Dieses Zitat klingt wie aus den Zeitungen des Jahres 1974/75, stammt jedoch aus einer für unsere Überlegungen grundlegenden Arbeit aus dem Jahre 1931. Der essenzielle Unterschied der Ressourcentheorie zu anderen ökonomischen Fragestellungen ist die Notwendigkeit der Betrachtung internationaler Zusammenhänge; z. B. schrieb Siebert (1981): Allokationsentscheidungen verlangen ein Abwägen zwischen dem Nutzen einer Aktivität und ihren Opportunitätskosten. Bei intertemporalen Allokationsproblemen fallen Nutzen und Opportunitätskosten zeitlich auseinander. Einem Vorteil heute steht ein Nachteil morgen gegenüber - oder vice versa. Das allgemeine Prinzip der Optimalität fordert, dass sich heutiger Nutzen und der abdiskontierte Nutzenverlust in der Zukunft gerade die Waage halten, dass also Indifferenz zwischen heute und morgen besteht. Welche Allokationsresultate lassen sich aus diesem allgemeinen Prinzip ableiten? Wie sind die Opportunitätskosten der Zukunft - die sog. Nutzungskosten (user costs) - zu spezifizieren? Von welchen Bestimmungsfaktoren werden sie beeinflusst? Und inwieweit wird diese Fragestellung verkompliziert, wenn der Nutzenzuwachs heute und der Nutzenentgang morgen unterschiedlichen Individuen oder verschiedenen gesellschaftlichen Gruppen zufallen? 2.1 Nutzungskosten und intertemporale Sachzusammenhänge Siebert: "Nutzungskosten sind definiert als die in zukünftigen Perioden entgangenen Nutzen infolge der Entscheidung zugunsten einer Aktivitätseinheit heute. Beispielsweise bedeutet für Robinson Crusoe der Verzehr einer Einheit Zwieback heute einen Nutzenentgang in der Zukunft (Page 1977, S. 152). Nutzungskosten können als Schattenpreis von Variablen interpretiert werden. Angenommen, es fällt - im Wege des Gedankenexperiments - zu irgendeinem (auch zukünftigen) Zeitpunkt t eine zusätzliche Einheit eines Gutes wie Manna vom Himmel: Um wie viel steigt dann der (Gegenwartswert des) Nutzen(s), um wie viel verbessert sich der Wert der Zielfunktion (Arrow 1968, S. 93/94)? Die Größe gibt die zukünftige Bewertung des Gutes an. Analog können wir fragen, wie sich der Nutzen verringert, wenn wir zu irgendeinem Zeitpunkt t dem System eine Einheit eines Gutes per Gedankenexperiment "entziehen". Die dadurch verursachten Nutzenentgänge der Zukunft kennzeichnen die Opportunitätskosten..." Ressourcen 59 Dies erfordert, i.A. dynamische Optimierung, etwa Variationsrechnung (Euler'sche Differentialgleichung) oder moderne Ansätze wie die Kontrolltheorie oder dynamische Programmierung. Die folgenden, beispielhaften Modelle betrachten diskrete Zeitperioden, so dass einfache Analysis und das Kuhn-Tucker Theorem aus Kapitel 2 die Ableitung der wichtigsten Eigenschaften gestatten. Zu Beginn der Diskussion muss jedoch der Begriff finite oder erschöpfbare Ressource genauer präzisiert werden. Wenn vom Prozess der Extraktion/Förderung als Produktionsprozess abgesehen wird, ist eine Ressource ein nicht produziertes Gut, als ein Primärinput für den Wirtschaftskreislauf. Aber auch "Land" ist ein Primärinput, ohne dass wir Land in dem selben Sinne als erschöpfbare Ressource wie etwa fossile Brennstoffe betrachten. Das Charakteristikum finiter erschöpfbarer Ressourcen ist, dass das gesamte intertemporale Service dieses Gut beschränkt ist. Land hingegen kann unter entsprechender Kultivierung eine unbegrenzte Dienstleistung über die Zeit erbringen. Dies ist auch der Unterschied zu erneuerbaren Ressourcen, etwa biologischen Populationen wie Fisch, Wald, die bei entsprechend konservativen Fangraten eine unbegrenzte Dienstleistung über die Zeit erbringen können. 2.2 Wohlfahrtsoptimum Eine soziale, etwa eine gesamte Volkswirtschaft zieht aus dem Konsum der Ressource einen Nutzen: u(q) beschrieben durch eine zweimal stetig differenzierbare Funktion, wobei keine Sättigungen beobachtbar sind u' > 0 jedoch der Grenznutzen abnimmt, also der Konsum einer zusätzlichen Einheit weniger Gewinn bei bereits hohem Konsumniveau als bei niedrigem Niveau bringt: u'' < 0. Sei im folgenden qt der Konsum = Förderung der betrachteten Ressource in der Periode t R der Gesamtbestand der nicht erneuerbaren Ressourcen, wobei wir die Zeiträume t = 0, 1, 2 betrachten, dann gilt aufgrund der Definition: R q0 + q1 + q2 Weiter sei r der Zinssatz Ressourcen 60 zum Vergleich der Einnahmen oder des Nutzens aus verschiedenen Perioden. (Die Verwendung von Diskontraten zum Vergleich unterschiedlich datierter Erträge wird teilweise auf ethischer Basis kritisiert, da jetzige Generationen gegenüber später folgenden bevorzugt werden, vergleiche die späteren Ergebnisse). Zur einfachen Darstellung der wichtigsten Behauptungen und Ergebnisse der Ressourcetheorie nehmen wir an, dass Förderkosten vernachlässigbar sind. Eine zentrale Planung versucht nun den Barwert, das ist die abgezinste Summe aus dem Nutzen, in den verschiedenen Perioden zu maximieren: 2 max qt ,t 0,1, 2 (1 r ) t u( qt ) (1) t 0 Dabei sind folgende Beschränkungen zu beachten; der Konsum kann nicht negativ werden, qt 0, t = 0, 1, 2 (2) und die Summe der Dienstleistungen ist durch R beschränkt: R - (q0 + q1 + q2) (3) Definiere die Lagrangefunktion 2 2 2 t o t 0 t 0 L (1 r ) t u (qt ) t qt ( R qt ) wobei µt, t = 1, 2, 3 und die Kuhn-Tucker Multiplikatoren für (2) und (3) sind. Differenzieren und die komplementären Schlupfbedingungen liefern aufgrund der Annahme die notwendigen und hinreichenden Bedingungen für eine optimale Politik. L (1 r ) t u (qt ) t 0 , t= 1, 2, 3 qt (4) t qt 0 (5) t 0 2 ( R qt ) 0 , 0 t 0 Aufgrund der Eigenschaft u' > 0 folgt, dass der gesamte Ressourcestock R verwendet wird: 2 q t 0 t R (6) Ressourcen 61 so dass >0 Angenommen qt>0, t = 1, 2, 3 folgt das optimale intertemporale Konsumprofil aus (4) u'(qt)=(1+r)t (7) da µt= 0 aufgrund von (5). Diese innere Lösung ist unter der zusätzlichen Annahme z. B. hoher Grenznutzen für geringen Konsum, wie in Abb. 2. 1 bereits eingezeichnet, gesichert: lim u( q) q0 Dieses Ergebnis ist in Behauptung 1 zusammengefasst und in der Abb. 2. 1 grafisch konstruiert. Behauptung 1: Die gesamtgesellschaftlich optimale Extraktionspolitik { q0, q1, q2} wird so gewählt, dass der Grenznutzen mit dem Zinssatz wächst, d. h. der abgezinste Grenznutzen konstant bleibt. Dies impliziert für r>0 ein fallendes Konsumprofil über die Zeit. Abb. 2.1: Berechnung des optimalen Konsumprofils Dieses Ergebnis stellt genau den Ausgleich des Gewinns aus dem Konsum einer zusätzlichen Einheit jetzt mit dem auf heute abgezinsten marginalen Nutzenentgang in der nächsten Periode dar: Ressourcen u (q 0 ) 62 u (q1 ) (1 r ) Bemerkungen: 1. q0(r) ist eine wachsende Funktion, d. h. stärkeres Abzinsen verzerrt das Konsumprofil mehr in die Ausgangsperiode zu Lasten späterer Perioden. Die Abb. 2. 2 vergleicht Extraktions- (oder Konsumpfade) bei unterschiedlichen Diskontraten r. Der Spezialfall r=0 impliziert ein konstantes Profil über der Zeit, q0=q1=q2=R/3. Abb. 2.2: Ressourceförderung und Zinssatz 2. Die Lösung ist invariant gegenüber linearen Transformationen des Nutzenindex u: Sei im folgenden zum Beispiel v = a + bu der gesamtgesellschaftliche Nutzen, dann erhält man aus den Optimalitätsbedingungen (4): V' (1 + r)-t + µt- = 0 t = 0, 1, 2 was für innere Lösung zur selben Bedingung u'(1 + r)-t = /b Ressourcen 63 führt (ausgenommen der Ressource-Schattenpreis). 2.3 Ressourceförderung unter verschiedenen Marktformen Zahlreiche Streitigkeiten über den "richtigen" Preis des Erdöls charakterisierten die öffentliche Debatte in den letzten Jahren, und wenn auch unter anderen Vorzeichen, stellt sie sich auch zum heutigen Zeitpunkt den fallenden Ölpreisen; denn während die meisten Preise für Güter durch die (Grenz)kosten erklärt werden können, versagt dieses Paradigma als Erklärung für die Ölpreise. "Nearly every OPEC member ... rejects the notion that the price of oil is now too high. What do they mean by high? asks Iran Minister of the Interior ... incredulously. He reasons that the price is about equal to what it would cost to obtain an alternative from of energy, such as gas produced from coal. Thus he ... insists that $9.70 per bl is a fair price." "(OPEC supporters) ... seem to be rejecting the play of free market forces in determining prices. In such a market the price of a product is closely related to the cost of producing the last unit of supply that is demanded by a buyer. No one anywhere in the world is pumping oil that cost $10 a bbl. to produce. The cost of brining up a barrel ranges from 10c in Saudi Arabia to 60c in Venezuela to $3 or so in the US. OPEC's defenders seem to have the notion that somehow market forces have never properly recognized the value of oil that its price always should have been higher. This tosses rational economic analysis out of the window." Zum Vergleich verschiedener Marktgewichte unterstellen wir, dass die Konsumentenentwicklung durch eine - Preis-Nachfragebeziehung P = p(q) reflektiert ist. Diese Nachfrage sei zeitinvariant. Dabei bezeichnet man mit _ P:= p(0) als choke oder Backstop-Preis, d. h. jener Preis, bei dem die Ressourcenachfrage verschwindet. Ressourcen 64 Abb. 2.3: Inverse Nachfragefunktion 2.3.1 Konkurrenzmarkt Angenommen, viele Minen- (Ölfeld-) Besitzer fördern die betrachtete Ressource, so dass die Entscheidungen eines einzelnen Produzenten keinen Einfluss auf den Marktpreis des Gutes haben, so bedeutet dies, dass jeder Produzent basierend auf der Preiserwartung seine Produktion plant: Sei {pt, t=0,1,2} der Marktpreis für die zu extrahierende Ressource, dann versucht jeder individuelle Produzent: 2 (1 r ) t 0 t pt qt zu maximieren unter den üblichen Beschränkungen qt 0 2 R qt 0 t 0 Verlangen wir von einem Marktgleichgewicht, dass die betrachtete Ressource in allen Perioden zur Verfügung steht, also: qt > 0 dann ist dies nur möglich, wenn der Marktpreis exponentiell wächst: Pt = (1 + r)t Dieses Ergebnis, dass ein Konkurrenzgleichgewicht durch exponentiell wachsende Preise charakterisiert ist, heißt Hotelling' Regel. Ressourcen 65 Behauptung 2: Im Falle einer perfekten Konkurrenz unter den Minenbesitzern muss für ein Marktgleichgewicht der Ressourcepreis exponentiell mit dem Zinssatz wachsen. Dies führt dazu, dass die Produzenten indifferent über das Datum der Förderung und deshalb bereit sind, soviel zu fördern wie die momentane Nachfrage ist. Dies führt zu einem fallenden Extraktionsprofil für den gesamten Zeitraum. Dieses Ergebnis ist plausibel, denn nur für dieses Preisprofil sind die individuellen Produzenten indifferent über das Datum der Förderung. Bei jedem anderen Preisprofil würde die Förderung in einer der beiden Perioden unterbleiben; da durch Reallokation über die drei Zeitpunkte eine entsprechende Arbitrage realisierbar ist. Indirekt sei z. B.: Pt = P0(1 + )t und <r, dann ist die Lösung: q0 = R, q1= q2 = 0 optimal, da der heutige Barwert für spätere Förderungen geringer ist als der momentane Preis P0. Analog erhält man für > r: q2 = R, q0 = q1 = 0 Beide Allokationen stellen jedoch kein Gleichgewicht dar. Aus der Preisregel folgt jedoch kein Anhaltspunkt über den Anfangspreis P0. Die individuellen Entscheidungen der Produzenten sind unabhängig vom Niveau des Ausgangspreises P0. Daher argumentieren einige Autoren, dass die freie Konkurrenz zuwenig Information besitzt, um den "optimalen" Anfangspreis P0 zu bestimmen. In anderen Worten, freie Konkurrenz garantiere nicht die optimale Ressourceverwendung; z. B. sei P0 zu hoch angesetzt und die Hotelling Regel gültig. Daher hat keiner der Produzenten einen Anreiz, sein Verhalten, d. h. Indifferenz über das Datum der Föderung zu ändern. Jedoch aufgrund des zu "hohen" Preises ergibt sich in allen Perioden eine zu niedrige Nachfrage, so dass Ressourcen ungenutzt bleiben. Nur unter der zusätzlichen Randbedingung der richtigen Wahl von P0 ergibt sich die sozial optimale Lösung. 2.3.2 Planwirtschaftliche Förderung (Soziales Optimum) Die Analyse planwirtschaftlicher Allokation ist ein Spezialfall der Untersuchung aus 2. 2 für eine spezielle Nutzenfunktion; und zwar wird die Konsumentenrente ("Consumer surplus") plus den Einnahmen aus der Förderung als gesamtgesellschaftliche Nutzenfunktion definiert verwendet. Ressourcen 66 Die soziale Nutzenfunktion u ist dann durch: q u (q ) : p ( x)dx p (q )q 0 beschrieben. Für das Optimierungskalkül erhält man: 2 max (1 r ) t t 0 qt p( x)dx 0 Konsumentenrate + Einnahmen qt 0 2 R qt 0 t 0 Analog zur Analyse in den vorherigen Kapitel 2.2 und 2.3.1 erhält man: p(qt) = (1+r)t so dass dieselbe Regel wie in 2.3.1 abgeleitet wird, wobei jedoch die Randbedingung: 2 R qt t 0 ein integraler Bestandteil der Lösung ist. Behauptung 3: Im Falle planwirtschaftlicher Allokation der Ressourcennutzung führt dies zu einem Preis, der mit dem Zinssatz über die Zeit wächst. Der Vergleich der planwirtschaftlichen Allokation mit der durch die freie Konkurrenz implizierten Konsumrate zeigt, dass die freie Konkurrenz die gesellschaftlich optimale Allokation garantiert voraussetzt, dass der Anfangspreis Po entsprechend gewählt wird. 2.3.3 Monopol Der Monopolist, d. h. ein alleiniger Anbieter für die betrachteten Ressourcen, kennt das PreisNachfrageverhalten der Konsumenten p(q) und wählt die Extraktionsrate so, dass der Barwert seiner Profite maximal wird: 2 max : (1 r ) t qt p (qt ) t 0 Ressourcen 67 Annahme: (q):=qp(q), Einnahmen (=Profit, da Kosten Null), konkav, '' < 0. Definition: Grenzeinnahmen ("maginal renvenues"): ' = qp' + p d. h. die Einnahmen aus dem Verkauf einer zusätzlichen Einheit. Geht man entsprechend den vorherigen Kapiteln vor, erhält man: '(qt)=(1+r)t Das bedeutet, dass für die Profit maximierende Förderung die Grenzeinnahmen mit dem Zinssatz inflationiert werden; in anderen Worten, der Barwert der Einnahmen aus dem Verkauf einer zusätzlichen Einheit bleibt konstant. Dieses Ergebnis ist intuitiv plausibel. Indirekt sei {q0,q1,q2} eine Profit maximierende Förderstrategie, wobei: (q 0 ) (q1 ) (1 r ) Dann wäre auf Barwertbasis der Ertrag aus einer heute zusätzlich geförderten Einheit größer als in der folgenden Periode 1. Dadurch könnte der Profit durch eine Reallokation dieser kleinen Einheit noch erhöht werden. Dann aber wäre das Optimum noch nicht erreicht. Widerspruch. Die Lösung ist grafisch in 2.4 dargestellt. Abb.2.4: Profit maximierende Strategie eines Monopols Ressourcen 68 Aufgrund dieser Darstellung folgt unmittelbar die Charakterisierung der monopolistischen Extraktionsstrategie. Behauptung 4: Der Monopolist wählt die Extraktionspolitik so, dass die laufenden Grenzeinnahmen mit dem Zinssatz wachsen; d. h. die Einnahmen aus dem Verkauf einer marginalen Einheit müssen auf der Basis von Barwerten für alle Perioden gleich sein. Dies führt zu einer fallenden Förderpolitik. Ein Charakteristikum der bisher abgeleiteten Resultate ist, dass die Förderpolitik für beschränkte Ressourcen in den untersuchten Marktverhältnissen zu fallender Produktion führt. Da die Eigenschaft monoton fallender Förderpolitiken in den beiden extremen Fällen - freie Konkurrenz (soziales Optimum), und Monopol auftritt, wollen wir andere Unterschiede studieren. Im besonderen scheint die Frage relevant, welche Marktform sorgsamer mit den Ressourcen umgeht. Die folgende Behauptung beantwortet diese Frage. Behauptung 5: Der Monopolist fördert zu Beginn weniger als sozial optimal wäre, so dass mehr an Ressource für die späteren Perioden verbleibt. Dieses Ergebnis mag viele überraschen, da in diesem Fall die Interessen von Umweltschützern mit denen des Monopols übereinstimmen, "The monopolist is the conservationist's best friend" (Hotelling (1931)). vergleicht die sozial optimale Strategie (bzw. perfekte Konkurrenz) mit der des Monopols. Oligopole, d. h. "wenige", aber mehr als ein Produzent, liegen zwischen diesen Extremen. Abb. 2.5: Vergleich der Förderung: Monopol vs Konkurrenz Jedoch im Falle von "common pool" Problemen, d. h. mehrere Firmen extrahieren aus einem gemeinsamen Reservoir, können mehrere Firmen, insbesondere auch perfekte Konkurrenz, zu einem zu schnellen Abbau führen. Ressourcen 2.4 69 Backstop Technologien Die folgende Darstellung legt nur die Grundzüge einer Theorie über Backstop- Technologien dar, da wichtige Überlegungen, etwa timing, in den diskreten Modellen nicht abgehandelt werden können. Wir verstehen unter einer Backstop-Technologie eine Technik, die zu bestimmten Kosten ein perfektes Substitut für die betrachtete Ressource darstellt: c Kosten zu Herstellung eines synthetischen und nicht erneuerbaren Substitutes für eine Ressource. Als Backstoptechnologien wurden im Laufe der Zeit unter anderem Kohleverflüssigung, Schieferöl, Teersände (für Erdöl) geannt, obwohl diese auf Grund ihrer Erschöpfbarkeit eigentlich keine Backstoptechnologiem im engen Sinne sind. Perfekte Backstops sind alle Formen der Sonnenenergie (z.B. Photovoltaik) und die aktuellste Form mit den momentan besten Chancen ist die Brennstoffzelle. Brennstoffzelle: The Economist, July 24th, 1999: „It gets wet and hot and that’s all. .... In simple terms, it gobbles up hydrogen and combines it with oxygen from the air to generate electricity, avoiding combustion and by-products any nastier than water and heat. Although there are rival varieties of fuel cell, the most promising is the proton-exchange membrane. This is a sandwich of two electrodes, a cathode and anode, with an electrolyte stuffing called a polymer membrane placed in between. At the anode, hydrogen gives up its electron with the help of a platinum catalyst. While hydrogen passes across the membrane in the form of positively charged ions, its electrons, which cannot cross the membrane, instead stream around an external circuit, rather as electrons do if you connect the poles of a battery. And as with a battery, this current can powr a car or a computer. When the hydrogen ions reach the cathode, they are united with electrons and combined with oxygen to create water and heat. Ressourcen 70 2.4.1 Einfaches Modell optimalen Übergangs zu erneuerbaren Energieträgern Vereinfachend nehmen wir an, dass die Kosten konstant sind, so dass für p = c beliebig viel angeboten werden kann. Wir betrachten das soziale Planungsproblem aus 2.3.2 und unterstellen, dass in der Periode t = 2 eine Backstop-Technologie zur Verfügung steht. y beschreibt Produktion des Backstop-Gutes. Das entsprechende Optimierungskalkül ist dann: 1 qt q2 y t 2 max p( x)dx (1 r ) (1 r ) p ( x)dx cy t 0 0 0 qt ≥ 0 yt ≥ 0 2 q t 0 t R Ansetzen der Lagrange Funktion, differenzieren und die Voraussetzung innerer Lösungen, >0, µ0 = µ1 = 0 liefert für die ersten beiden Perioden die bekannte Regel: p(q0) = => p1 = (1 + r) p0 p(q1) = (1 + r) exponentiellen Wachstums. Für die Produktionsrate der letzten Periode erhalten wir (µ3 Kuhn-Tucker Multiplikator für y ≥ 0): L (1 r ) 2 p (q 2 y ) 2 0 q 2 L (1 r ) 2 p (q 2 y ) c 3 0 y Fall 1: q2 > 0, y > 0 => µ2 = µ3 = 0 C = p(q2 + y) = (1 + r)2=p0(1 + r)2 das bedeutet, das exponentielle Wachstum wird fortgesetzt analog zur planwirtschaftlichen Allokation ohne Backstop-Technologien. Fall 2: y = 0, d. h. angenommen die Backstop-Technologie wird gar nicht verwendet: µ3 > 0, und es folgt: Ressourcen 71 (1+r)2 = p0(1 + r)2 = p(q2) = c-µ3(1 + r)2 < c so dass p2 < c, d. h. die Kosten sind so hoch, dass die Technik gar nicht eingesetzt wird. Aus dem Vergleich dieser beiden Fälle folgt, dass die Präsenz einer auch nur teilweise eingesetzten alternativen Technologie den Preis in allen Perioden reduziert, da c dann den Ressourceschattenpreis beschränkt. Fall 3: q2 = 0 => µ2 > 0, d. h. es wird angenommen, dass die Ressourcen bereits in den ersten beiden Perioden aufgebraucht werden: -2 (1 + r) p(y) + µ2 - = 0 -2 (1 + r) [p(y) - c] = 0 Daraus folgt: 2 2 2 p2 = c = (1 + r) ( - µ2) = (1 + r) - (1 + r) µ2 da: p1 = (1 + r) => p2 < (1 + r)p1 so dass die Backstop-Technologie das gewohnte Ressourcepreiswachstum stoppt. 2.4.2 Ressource-Preise und Innovation alternativer Energieträger Die betrachtete Industrie - in der Folge werden "Erdöl" und "Sonnenenergie" als Synonyme für ressourcebasierende und erneuerbare Quellen verwendet - besteht aus einem monopolistischen Kartell ("OPEC"), das die finite Ressource fördert, und aus vielen kleinen Firmen und Ingenieuren, die in die Forschung von alternativen Energieträgern investieren. Dieser Forschungsprozess sei entweder bereits abgeschlossen oder noch im Gange. Die Forschung nach alternativen Energiequellen stellte einen Kernpunkt des Programmes Project Independence der Administration Carter dar. Der damalige amerikanische Präsident maß der Energiepolitik einen hohen Stellenwert bei, wie sich u. a. durch die Errichtung eines eigenen Energieministeriums und aus der Aussage, "dass die Verringerung der Energieimporte den moralischen Stellenwert eines Krieges hätte", ablesen lässt. Deshalb wurden alle Formen alternativer Technologien wie Sonnen- und Windenergie, der Abbau von Teersänden und Schieferöl, die Förderung schwerer Öle und tertiäre Fördermaßnahmen usw. finanziell gestützt. In der folgenden Administration Reagans wurden - im Zuge der allgemeinen Deregulierung der amerikanischen Wirtschaft - alle Förderungen dieser Forschungsvorhaben gestrichen. Die Regierung Reagans ging - im Gegensatz vom paternalistischen Sendungsbewusstsein der Regierung Carter - von der Voraussetzung aus, dass die Unternehmen im Energiemarkt selbst am besten die Notwendigkeit und Chancen von Alternativen abschätzen können. Eine ausführliche Analyse zu Fragen über Innovation, Wettrennen um Patente für Produkte, die als Substitute für nicht-erneuerbare Ressourcen dienen, und die Konsequenz unter- Ressourcen 72 schiedlicher Marktformen, findet man in Stiglitz-Dasgupta. Diese Arbeiten bilden auch die Grundlage für die folgende Darstellung. Die Marktnachfrage nach Energie könne sowohl durch "Erdöl" als auch durch "Sonnenenergie" befriedigt werden, so dass die betrachteten Brennstoffe perfekte Substitute von der Warte des Konsumenten aus seien. Die Marktnachfrage sei durch eine inverse Nachfragefunktion: p = P(x + y) , P' < 0, pc := P(0) < Ñ p Marktpreis für Energie pc "choke" (oder backstop)-Preis x Ressourceangebot (Erdölförderung) y Angebot alternativer Energieträger in zu x äquivalenten Einheiten (1) beschrieben. Die Kosten der Ressourceförderung seien vernachlässigbar. Hingegen erfordere die Produktion einer Einheit von y, des erneuerbaren alternativen Energieträgers, die konstanten Grenzkosten c. Die Produktionskosten müssen geringer als der maximal erzielbare Ressourcepreis sein, also c < pc, da anderenfalls die betrachtete Technologie wirtschaftlich obsolet ist. Die Produktion von y erfolge in einem perfekten Konkurrenzmarkt, so dass für Marktpreise geringer als c kein Produzent anbietet, und beim Preis p = c die gesamte Nachfrage gedeckt werden kann. Diese Technologie sei jedoch erst ab einem Zeitpunkt S verfügbar. Diese Annahme, dass der kompetitive Sektor sofort die ursprüngliche Ressourcenachfrage befriedigen kann, ist eine typische Annahme in der Literatur über Backstop-Technologien. Backstop Technologien stellen ein (perfektes) Substitut für eine finite Ressource jedoch mit "hohen" Kosten zur Verfügung. Diese Kosten bilden dann ein Limit für die mögliche Ressourcepreisentwicklung. Der Ausdruck backstop geht auf W. D. Nordhaus, The Allocation of Energy Resources, Brookings Paper on Economic Activity, Vol. 3, 1973, 529-576, zurück. Die Annahme eines kompetitiven Konkurrenzsektors führt zu einem Knick in der Einnahmefunktion, p(x), des Ressourcekartells: x(t ) P ( x(t )) wenn t S ~ p ( x) x(t ) P ( x(t )) wenn t S und x(t ) x ~ cx(t ) wenn t S undx(t ) x (2) ab dem Datum S - der Entdeckung der alternativen Technologie; dabei wird x durch die folgende Beziehung bestimmt. ~ ~ x := P(x) = c (3) Ressourcen 73 Das heißt, dass der Ressourceproduzent in jenen Perioden, wo die alternative Technologie bereits bekannt ist, das Konkurrenzprodukt infinitesimal unterpreisen wird, um den ganzen Markt zu bedienen. Die Einnahmefunktion für t ≥ S lässt sich auch in der folgenden Form anschreiben: p(x) = min{xP(x), cx} für t ≥ S (4) Abb. 2.7 zeigt die Einnahmefunktionen vor und nach der Innovation des Substitutes. Sowohl in der Abbildung als auch in der folgenden Analyse wird eine konkave Einnahmefunktion unterstellt. Abb 2.7: Einnahmefunktion des Monopolisten (Ressource) Abb. 2.8: Grenzeinnahmefunktion (Marginal Revenues): MR Das Ressourcekartell wird versuchen, den Profit aus der Förderung zu maximieren, mathematisch: Lösung des folgenden deterministischen Kontrollproblems, wenn von Unsicherheiten abstrahiert wird: Ressourcen S 74 T max e x(t ) P ( x(t ))dt e rt minx(t ) P ( x(t )), cx(t )dt (5) . X(t) = x(t), X(0) = 0, X(T) = R (6) x rt 0 S X(t) kumulative Förderung, T Ausbeutung, R Ressourcestock, Die notwendigen Optimalitätsbedingungen des Kontrollproblems (5) und (6) lauten: H = I(t)[0,S]P(x(t))x(t)+I(t)[S,T]min{P(x(t))x(t),cx(t)}+mx(t) (7) max H x (8) (t) = r(t) (9) H(T) = 0 (10) Dabei sind I(t)[0,S] und I(t)[S,T] Indikatorfunktionen, die eins sind, wenn der Zeitpunkt t aus dem jeweils indizierten Intervall ist; außerhalb des indizierten Intervalles verschwindet die jeweilige Indikatorfunktion. Die obigen notwendigen Optimalitätsbedingungen, insbesondere das Maximumprinzip, können durch einfache Umformungen und Definition von MR als Grenzeinnahmen (oder durch direkte Anwendung des Hotelling Prinzips, siehe Hotelling6 oder Dasgupta-Heal7) in der folgenden Form angeschrieben werden: m(t ) e r (T t ) p(T ) MR( x) ~ MR( x) (t ) wenn t t1 wenn t t1 (11) Dabei beschreibt {-m(t)} den Schattenpreis einer zusätzlichen Einheit Öl in der Lagerstätte (zum Zeitpunkt t) und p(T) den am Ausbeutungsdatum T erzielbaren Preis. Der Endpreis hängt von der Konkurrenzsituation ab: p(T) = c wenn S < T und p(T) = pc wenn S > T, z. B. wenn keine alternative Technologie erwartet wird, S = Ñ. Das Datum t1 beschreibt den Zeitpunkt, zu dem die Forderung nach den wachsenden Grenzeinnahmen aus der ersten Zeile in (11) erstmals zu einer Förderung unter x führen würde (und damit zu einem Ressourcepreis über c) und die alternative Technologie bereits bekannt ist: t1 ≥ S. Ab diesem Zeitpunkt können die Grenzeinnahmen nicht mehr erhöht werden. Abb. 2.8 zeigt den Verlauf der Grenzeinnahmefunktion. Deshalb wird der Monopolist ab diesem Zeitpunkt t1 bis zum Datum der 6H. Hotelling, The Economics of Exhaustible Resources, Journal of Political Economy, Vol. 39, 1931, 137 175. 7P. Dasgupta und G. M. Heal. Ressourcen 75 Ausbeutung auf dem Knick bei x auf der Einnahme und Grenzeinnahmefunktion verharren. Dies führt zum konstanten Produktionsniveau x(t) = x und dem Ressourcepreis p = c, wobei c die infinitesimale Verbilligung gegenüber der Konkurrenz andeutet, die diese Konkurrenz damit noch vom Markt fernhält. Die alternative Technologie tritt erst zum Zeitpunkt T in den Markt ein, so dass das technische Patent im Zeitraum [S,T] "schläft", also technische und ökonomische Innovation auseinander fallen. Obwohl das Patent nicht zur Anwendung vor dem Ausbeutungsdatum T kommt, wirft es seinen "Schatten" auf den Ressourcemarkt ab dem Zeitpunkt, wo die Ressourcepreisentwicklung die Produktionskosten des Substitutes erreicht. Das Ergebnis einer marginalen Verbilligung gegenüber dem Konkurrenzsektor ist intuitiv plausibel; im folgenden sei dies auch formal bewiesen. Das Verharren am Knick der Grenzkostenkurve erfordert die Produktion x. Jedoch für eine geringere ~ Produktion x < x gilt: ~ ~ H(x = x) = (c + m)x > (c + m)x = H(x = x) (12) ~ daher kann x < x die Hamiltonfunktion nicht maximieren. Im folgenden sei die Frage gestellt, ob ein ambitioniertes Forschungs- und Entwicklungsprogramm, das die alternative Energieform zu einem früheren Zeitpunkt zur Verfügung stellt, auch den Ressourcepreis, also den Ölpreis, reduziert? Dies scheint einer der wichtigsten Motivationen sowohl für Carter's Project Independence als auch für die IEA-Strategien - Forcierung von Kernenergie, Kohleverflüssigung usw. - gewesen zu sein. Intuitiv würde man vermuten, dass eine frühzeitige Konkurrenz das Ressourcekartell zu einem weniger ausbeuterischen Verhalten und zu niedrigeren Preisen zwingt. Zuerst werden die Randfälle eines möglichen Zeitpunktes der technologischen Innovation der alternativen, erneuerbaren Energieform betrachtet. Angenommen, die Technologie alternativer Energieträger sei bereits zu Beginn bekannt, S = 0. Dann bestimmen die folgenden Gleichungen: ~ -r MR(x) = e (T - t1)c (13) ~ R = (T - t1)x + X(t1) (14) die beiden Zeitpunkte (t1,T). Dies erlaubt in Verbindung mit (11) die Berechnung der optimalen Lösung. Das Patent der alternativen Technologie schläft den ganzen Zeitraum [0,T] aufgrund von (12). Aus der obigen Analyse ist unmittelbar ersichtlich, dass jeder Innova-tionszeitpunkt S[0,t1] die obige Analyse nicht ändert; der Ressourcepreis, insbesondere p(0), Ressourcen 76 bleibt dadurch unverändert. Obwohl das Patent erst zum Zeitpunkt T angewandt wird, hat es eine ökonomische, d. i. preisreduzierende Wirkung bereits im Intervall [t1,T]. Hingegen im Intervall [0,t1] ist das Patent auch ökonomisch bedeutungslos, und Investitionen in eine allzu frühzeitige Entwicklung (vor t1) sind dann auf jeden Fall eine Verschwendung. Abb: 2.9 Optimale Förderrate der Ressource, S = 0 Abb. 2.10: Optimale Ressourcepreisstrategie des Monopols, S = 0 Abb. 2.9 zeigt die optimale Förderrate. Die Eigenschaft fallender Förderraten im Intervall [0,t1] folgt unmittelbar aus Abb. 2.8 und dem Hotelling-Prinzip, so dass die (laufenden) Grenzeinnahmen (relativ mit der Diskontrate r) wachsen müssen. Abb. 2.10 zeigt die entsprechende Ressourcepreisentwicklung. In beiden Abbildungen wird das Ergebnis entsprechend der Annahme über das technologische Innovationsdatum S = 0 indiziert, z. B. T0 ist das optimale Ausbeutungsdatum, wenn S = 0. Sei nun das Gegenteil S = Ñ angenommen - also keine Alternative zu Erdöl gegeben - dann folgt die Extraktion entlang einer inneren Lösung mit: Ressourcen MR(x(t))=e -r(T-t) pc 77 (15) Dieses Ergebnis stellt die berühmte Hotelling Regel; (für einen Monopolisten) dar und besagt, dass die Grenzeinnahmen von der Barwert-Perspektive aus konstant gehalten und in laufender Betrachtung mit der Zinsrate r eskaliert werden müssen. Dies garantiert, dass durch intertemporale Reallokationen marginaler Mengen der Profit nicht mehr erhöht werden kann. Daraus folgt unmittelbar, dass die Förderung monoton fällt und der Preis monoton steigt, aber im Durchschnitt8 geringer als mit dem Zinssatz: p < rp. Aus der Annahme pc < Ñ folgt, dass das Ausbeutungsdatum, indiziert entsprechend der Innovation S = Ñ, finit ist: T < Ñ. Daraus ergibt sich unmittelbar, dass Innovationen aus dem Intervall (T,Ñ) die Förderpolitik nicht verändern. Es ist durch einfache Überlegungen leicht nachzurechnen, dass jedoch Innovationen vor T und nach dem Zeitpunkt t2: t2: P(x(t2)) = c, (16) x, monopolistische Förderung ohne Konkurrenz von Alternativen die Ressourcepreise zu Beginn reduzieren. Jedoch eine Vertagung der Innovation von S = t1 nach S' > S = t1 reduziert den Ressourcepreis zu Beginn. Das heißt, die Erwartung, dass erhöhter Forschungsaufwand und dadurch frühere Verfügbarkeit alternativer Energiequellen die OPEC zu momentan niedrigeren Ressourcepreisen zwingt, ist trügerisch und eigentlich unberechtigt. Der Beweis wird indirekt geführt; es sei also die verspätete technische Entwicklung S' > S (wie erwartet) mit einer Preiserhöhung verbunden: pS’(0) > pS(0) (17) wobei das Innovationsdatum wieder zum Indizieren der Lösung verwendet wird. Jedoch (17) ist äquivalent zu: -µS'(0)>- µS(0) <=> TS’ < TS (18) Aus der linken Ungleichung von (18) und dem Ausgleich von Grenzeinnahmen und Ressourceschattenpreis folgt, dass die Produktion jetzt geringer sein muss, in [0,S']: xS'< xS. In den späteren Zeitpunkten wird in beiden Fällen x produziert, so dass die rechte Ungleichung (18) zum Widerspruch führt, da die Förderung xS'(t) jetzt den Ressourcestock nicht mehr ausbeutet; siehe Abb. 2.11. 8Unter gewissen Regularitätsannahmen - etwa erhöhter Preissensitivität bei höheren Preisen (dies folgt zumindest lokal um den Punkt p für finite backstop Preise) - gilt, daß der Ressourcepreis des Monopolisten nie schneller als mit dem Zinssatz eskaliert. Ressourcen 78 Abb. 2.11: Förderraten für S' > S wenn TS > TS' Eine ähnliche Argumentation kann für S2 > S1 > S = t1 durchgeführt werden, so dass das obige Ergebnis nicht von der Wahl S = t1 abhängt. Betrachte folgende (allgemeinere) Argumenta-tion: für Si, i = 1,2 gilt: -mSi(Si) = MR(x); abzinsen auf t = 0 liefert: -mS1(0) > -mS2(0); Ausgleich des Ressourceschattenpreises mit den Grenzeinnahmen liefert xS1(0) < xS2(0) (da MR eine fallende Funktion ist) und somit pS1(0) > pS2(0) nach (1). Daraus folgt das Ergebnis, dass - in einem interessanten Bereich - die Energieforschung und die damit verbundene verfrühte Innovation eines Substitutes den Energiepreis verteuert. Eine intuitive Erklärung dieses überraschenden Ergebnisses ist, dass eine frühere Entdeckung den Monopolisten zwingt, früher abzusahnen, da ab dem Entdeckungsdatum die Grenzeinnahmem durch die Kosten des erneuerbaren Substitutes beschränkt sind. Das Ergebnis dieser Untersuchung ist abschließend in der folgenden Behauptung zusammengefasst und graphisch in Abb. 2.12 dargestellt. Behauptung (Stiglitz-Dasgupta9): Ausgenommen für sehr langsame Entwicklungsprozesse (S > t2, t2 bestimmt nach (16)), hat eine beschleunigte Entwicklung alternativer erneuerbarer Energiequellen entweder keinen Effekt (S < t1, t1 bestimmt nach (11)) oder erhöht sogar im Anfangsintervall [0,t1) die ressourcebasierenden Energiepreise. Dieses Ergebnis besagt, dass Förderung der Forschung und Entwicklung alternativer Energieträger - abgesehen von der Möglichkeit einer Fehleinschätzung des Marktes (etwa der Nachfrage, der Ressourcensituation) - ein problematisches und möglicherweise sogar ein kontraproduktives Instrument ist. 9J. E. Stiglitz und P. Dasgupta, Strategic Considerations in Invention and Innovation: The Case of Natural Resources. Ressourcen 79 Abb. 2.12: Ressourcepreis p(0) vis à vis Innovationsdatum S Die sozial optimalen Preise für das Wohlfahrtskriterium der Konsumenten - plus Produzentenrente (als konkav vorausgesetzt) ergeben sich aus folgendem Kalkül: T rt max e x, y x (t ) y (t ) o P(q)dq cy(t )dt (19) 0 x(t) ≥ 0 (20) y(t) ≥ 0 . X(t) = x(t), X(0) = 0, X(T) = R (21) (22) Definition der Hamiltonfunktion (H) und der Lagrange-Funktion (L) mit den Kuhn-Tucker Multiplikatoren a,b liefert (wie üblich wird im folgenden der Zeitindex unterdrückt): x y H P(q)dq cy mx, L H ax by (23) 0 Im folgenden sind die notwendigen (und hinreichenden) Optimalitätsbedingungen zusammengefasst: P(x + y) + m + a = 0 (24) P(x + y) – c + b = 0 (25) m = rm (26) ax = 0, a ≥ 0 (27) Ressourcen by = 0, b ≥ 0 80 (28) so dass der Marktpreis P(x + y) entweder gleich dem Ressourceschattenpreis (-m) ist - wenn x> 0 - oder gleich den Produktionskosten des synthetischen Brennstoffes - wenn y > 0. Aus (24) und (25) folgt unmittelbar, dass y(t) = 0 - keine Erzeugung des synthetischen Substitutes - solange die Ressource gefördert wird, also: y(t) = 0, t[0,T]. Weiter folgt aufgrund von (24) und (26), dass der Ressourcepreis mit dem Zinssatz wächst: p = rp solange die Ressource extrahiert wird (x > 0 => a = 0). Zum Ausbeutungsdatum erreicht der exponentiell wachsende Preis die Kosten der alternativen und erneuerbaren Energieträger: p(T) = c. Damit ergibt sich die folgende Behauptung. Behauptung: Die sozial optimale Politik ist charakterisiert durch: exponentiell mit dem Zinssatz wachsende Ressourcepreise bis zum Zeitpunkt der Ausbeutung; der Anfangspreis muss so gewählt werden, dass zum Zeitpunkt der Erschöpfung der Lagerstätten der Ressourcepreis die Kosten der Backstop-Technologie erreicht. Im Gegensatz dazu, wählt der Monopolist anfangs eine höhere Preisstrategie und beutet die Lagerstätten später aus10. Die alleinige Konkurrenz einer Industrie alternativer Energieträger diszipliniert ein Ressourcemonopol nicht hinreichend, so dass es sozial optimale Preise verrechnet. Der Teil über die konservierende Haltung des Monopolisten aus der obigen Behauptung ist noch zu beweisen. Bezeichne der Index m die Monopol- (Problem (5) und (6) mit S = 0) und der Index * die sozial optimale Lösung (Kontrollproblem (19)-(22)); z. B. Tm das Ausbeutungsdatum des Monopolisten und T* die sozial optimale Nutzungsdauer der Ressource. Der Beweis wird indirekt geführt. Angenommen es sei Tm ≤ T*, daraus folgt: m p*(t)=ce-r(T*-t) ≤ ce-r(T -t) = -m(t) = MR(xm(t)) < pm(t) (29) Die Gleichheit, -mm(t) = MR(xm(t)), gilt nur für t + [0,t1). Außerhalb dieses Intervalles gilt ohnedies x*(t) ≥ xm(t), t + [t1,Tm], da p* ≤ pm ≤ c. Somit würde der Monopolist nicht nur kürzer, sondern auch zu jedem Zeitpunkt weniger produzieren. Dies würde Ressourcen ungenutzt lassen, was im Widerspruch zur Optimalität steht, daher: Tm > T*. Unter bestimmten Regularitätsannahmen über die Nachfrage - z. B. die (absolute) Preiselastizität steigt mit wachsenden Preisen - folgt, dass der Monopolpreis zu Beginn höher ausfällt. 10Die Aussage von H. Hotelling, a O., daß der Monoplist der beste Freund des Umweltschützers ist ('the monopolist is the conservationist's best friend') mag viele überraschen. Der Artikel von S. Clemhout und H. Y. Wan jr.;, Does Cartelization Conserve Endagered Species?, in: Optimal Control Theory and Economic Analysis 2, hrsg. von G. Feichtinger, Amsterdam 1985, 549-568, versucht diese inhärente Tendenz von Monopolen und Kartellen auch für die Umweltpolitik - Schützung bedrohter Arten - auszunützen. Ressourcen 81 Abb. 2.13 vergleicht die Preisstrategie eines Ressourcekartells, pm, mit der sozial optimalen Strategie p*. Die sozial optimale Allokation differiert hier von der Lösung durch den Markt, trotz der hit and run Konkurrenz. Die Konkurrenz durch Eindringlinge beschränkt nur die Möglichkeit des Absahnens. Dieses Ergebnis bestärkt die Bedeutung der ersten Annahme in der Definition eines perfekt anfechtbaren Marktes, dass auch der Eindringling Zugang zur effizientesten Produktionstechnologie haben muss. Im Bereich von finiten Ressourcen ist diese Bedingung notwendigerweise nicht erfüllt. Denn das Ressource-Monopol hat einen (Kosten-) Vorteil in der Produktion. Aufgrund von Eigentumsrechten haben andere Produzenten keinen Zugang zur Ausbeutung der Lagerstätten. Abb. 2.13: Vergleich von Monopol- und sozial optimalen Preisen für finite Ressourcen bei Backstop-Technologie 2.4.3 Other topical backstop examples Stirrings in the corn fields, May 12th 2005, From The Economist print edition Diesel fuel made from oilseeds, petrol replaced by ethanol made from corn, sugar or grain—or even straw. They're here and are starting to change energy markets. AMERICAN output of maize-based ethanol is rising by 30% a year. Brazil, long the world leader, is pushing ahead as fast as the sugar crop from which its ethanol is made will allow. China, though late to start, has already built the world's biggest ethanol plant, and plans another as big. Germany, the big producer of biodiesel, is raising output 40-50% a year. France aims to triple output of the two fuels together by 2007. Even in backward Britain a smallish biodiesel plant has just come on stream, and another as big as Europe's biggest is being built. And after long research a Canadian firm has plans for a full-scale ethanol plant that will replace today's grain or sugar feedstock with straw. Output is still tiny compared with that of mineral fuels. But the day of the biofuel has arrived. The reason is simple. Forget greenery or energy security, the grounds on which governments justify subsidising biofuels. Just take the past year's soaring price of mineral fuels, subtract the biofuel subsidy, and the answer is plain: for the user, biofuels are currently cheaper. Indeed, in America's corn (maize) states, locally produced ethanol is close to being competitive even without subsidy; imported Brazilian ethanol could have been so long ago, had not a federal tax credit for ethanol, originally 54 cents per American gallon, been carefully balanced by a 54 cent tariff. Ressourcen 82 Though production methods are rapidly evolving, the new fuels are new only in their rampant growth. An engine that Rudolf Diesel showed at the 1900 World Exhibition in Paris ran on peanut oil, and biodiesel has been in small-scale use here and there since the 1930s. You can make it from animal fats, oilseeds, used cooking oil, sugar, grain and more. Indeed, you can feed your diesel vehicle with cooking oil from the supermarket and it will run, until (as they will) the filters gunge up. As for ethanol, Henry Ford was an enthusiast for crop-based ethanol in the 1920s. Modern uses were sparked by the oil shock of 1973. Brazil, rich in sugar-cane but not oil, led the way, building cars adapted to burn pure ethanol until the late 1980s, when sliding oil prices and rising sugar prices made sugar a more profitable end-use for the cane growers and the subsidy for ethanol too costly for the state. In 1989-90 ethanol pumps began to run dry, and sales of these cars collapsed. Today, both biofuels tend to be used in mixtures. Europeans typically use “B5”—standard diesel, blended with 5% biodiesel, usually made from rape (canola) oil. In America, many drivers, often unaware of it, are using E10 “gasohol”—10% ethanol, 90% standard gasoline. But the proportions can be higher than that. Some American and Canadian public-sector vehicles run on B20. Californians use unmixed, 100% biodiesel, and, with additives to keep it usable down to –20°C, it is sold even in such colder places as Germany and Austria. As for ethanol, in its pure form it can damage standard gaskets and hoses. But, to meet Brazil's supply problems, carmakers there, already familiar with the stuff, in 2003 brought in “flex-fuel” engines that can run on any ethanol-petrol blend you like; at present 75% to 25% is standard. These now win 30% of new car sales there. The American version of flex-fuel runs on E85 (in practice, 70-85% ethanol, depending on the region and the season). Already America has 4m such cars, and they are multiplying. So are E85 pumps for them. Indeed, the corn-state press delights in anecdotes of John Doe who habitually fills his ancient Chevy with E85 and avers that it suffers no harm. If he's right, he is no fool: E85 (though not E10) gives a bit less oomph per gallon than standard fuel, but even so he is saving money. Supply constraints may prevent E85 being the future of ethanol in America. But if the oil price stays high, Mr Doe and other penny-pinchers will certainly be using more biofuel. The oil companies were originally far from happy to see “their” filling stations openly selling a rival fuel. They are still not eager. But pro-ethanol pressure has grown. America's environmentalists favour it (except the purists who object, truly enough, that the real “green” issue there is not the fuel but the cars that guzzle it). And the law, in some areas, is with them. Anti-smog rules require a clean-burn additive to petrol, and one formerly favoured, known as MTBE, turned out to have nasty properties, and is being phased out. Ethanol—as such, or used roughly half and half with another chemical in a compound known as ETBE— can do the job. There is pressure too from the corn-growers, gleefully envisaging a huge new market; and hence from their politicians. The market is big already: of America's 255m tonnes of maize last year, 30m went into ethanol. One or two states have adopted mandatory requirements for a certain use of this fuel; Minnesota requires E10 as a minimum, and its legislature has just voted to make that E20. A federal bill launched in March, calls for the use of eight billion gallons of biofuels a year by 2012. This and less ambitious bills are still merely bills, not law; and even eight billion gallons, though near double this year's likely American output, looks trivial beside total Ressourcen 83 motor fuel use, which already exceeds 175 billion gallons. Yet if oil stays high that target may be exceeded, law or no law, greens or no greens, because drivers will demand ethanol. Do the sums The arithmetic is simple. Ethanol's federal tax credit is by now 51 cents per gallon (in European terms, 10.5 euro-cents per litre). So-called “small” producers, making up to 30m gallons a year, get an extra 10 cents. Several states add their own tax breaks, which can be worth 10-20 cents a gallon. Say, very crudely, 70 cents in all: 7 cents per gallon of E10, and nearly 60 cents for E85. The subsidies in theory go mostly to the blender; how much in fact ends up with whom depends on the market, and is not simple at all. Witness some figures from filling stations in Minnesota—the E85 capital of America— in early May. The pump price of the E10 gasoline standard in that state varied little, from around $1.90 a gallon to $2.10. E85 prices varied more, from about $1.50 to $1.80. And the gap between the two varied wildly: 26 cents in Austin, 34 in Owatonna, 45 in Eagan and Shakopee, 50 in Redwood Falls, 58 in Alden. Say, typically, 35-45 cents and what the figures show is again simple, and conclusive: at today's prices, in that corn state, the wise driver buys subsidised E85 ethanol if he can; and it is only 10 cents or so from being cheaper than standard gasoline even were there no subsidies at all. Other obstacles may be on the way out. Even now, a new flex-fuel car costs barely more than a standard one. There is little reason for any real differential, and as these cars gain popularity there may be none—as in Minnesota already. Guarantees have been a trouble: John Doe and his Chevy are past caring, but would you buy a brand-new car and risk invalidating its guarantee by using E85? But the car makers' attitudes are changing. Guarantees are especially relevant to America's infant biodiesel industry. A heavy truck or combine harvester is a big investment to put at risk. But Case, a leading farm-equipment maker recently extended its guarantees to B5 (and at another, John Deere, machines leave the factory filled with B2). Volkswagen has just done likewise, as it and others did long ago in Europe, for its diesel-engined cars, a rare species in America, but now spreading. American output of biodiesel is still trivial: last year 30m gallons, in a total on-road diesel consumption of 36 billion. A year ago, biodiesel cost about 20-30 cents a gallon more than petro-diesel. But in October a new law gave it too a federal tax credit: one cent for every 1% of biodiesel in the mix. Oil prices are higher now. And new rules requiring diesel in 2006 to be all-but free of sulphur will help. Taking the sulphur out makes the fuel less slippery; adding biodiesel can make it more so. The story has been much the same in Europe, though the leader there is biodiesel. In Germany, where more than half of all cars are diesel-engined, pure biodiesel, retailed as such, has long escaped fuel tax. In January 2004 blends up to B5 were legalised, and the exemption was extended, pro rata, to them. Per “biolitre”, it is now worth €0.47 (in American terms, $2.30 a gallon). Italy takes off 40 eurocents, France 33 (though both governments set a quota for output), Spain and Britain 29. The public hears little of these tax breaks: in Germany or in France—where pure biodiesel is not sold—the driver looking for “diesel” seldom knows, or cares, that he may be getting B5. And even in Germany the pure stuff is available at only one filling-station in ten, thanks to the hostility of the oil companies. But where it is, drivers are eager for it: it is 10-12 euro-cents a litre cheaper than plain diesel. Big users buy in bulk, to blend for themselves at whatever percentage they like. And demand from the oil companies, since blending was authorised, has given Germany's biodiesel producers a huge boost. Go, diesel, go! As in America, there is also political pressure, though the politics, so far, is more that of the green lobby than the farmers. The European Union, unlike the United States, has ratified the Kyoto treaty on emissions and the environment, and the EU authorities in 2003 issued indicative targets for translation into national law: 2% of motorfuel consumption should be biofuel by 2005, and 5.75% by 2010. Ressourcen 84 Many of the 25 EU governments have thumbed their noses at Brussels. In February, the European Commission sent warnings to 19 for failing to put their targets into law; and later to nine for not even fixing targets. Even of those that have, many picked figures below the EU's hopes. The politics sounds like a typical EU non-event. In fact, not so: EU governments dislike being tied down by Brussels, but few will mind tying down their own citizens, or at least cajoling them with tax breaks. And there is national pressure for that, from committed greens below and ministers eager to look green above. Even Britain's government this year extended its biodiesel subsidy to bioethanol too. France is to enlarge the quotas of biofuel output that qualify for subsidy. Yet in the end it is the market—producers, intermediaries and consumers—that will decide. And there are already signs that, given the price signals (and the supply of raw materials) they may in time leave governments behind. Really? In America and Europe alike, that today looks far from likely. And if oil prices slump, the signals will not come. Yet look at the response, already visible, to the leap in oil prices and the biofuel savings or profit opportunities it represents. In America, by late 2005 ethanol capacity may hit 4.4 billion gallons a year, against 3.4 billion in 2004. There are 84 existing plants, 16 being built, and new projects galore. And while one big grain firm, ADM, used to dominate the ethanol industry, many are backed by local farmers, eager for a new outlet as corn prices have slid. In Missouri, 730 farmers put in $24m of $62m needed for a 50m-gallon plant—a size that reflects the cost of corn transport. State governments aid such plants. Missouri gives producers 20 cents a gallon for their first 12.5m gallons, 5 cents for the second. Besides $7m for an ethanol research centre, and freeing biofuels from state sales tax on biofuel, Illinois has put $4.8m into one project to help it raise other capital. North Dakota has done likewise. Predictably, though, enthusiasm is abruptly reversed if the fuel is not American-made (or even, in some cases, made from home-state corn). The import tariff apart, two bills came up in the Senate last year to block the small volume from Brazil that could avoid it by being partly processed in the Caribbean basin. Sprouting plants In Europe, Germany's biodiesel producers say output has trebled since 2002 to maybe 1.5m tonnes (about 1.7 billion litres, or 450m American gallons) this year, as new plants come on stream. The producers say that by now 4% of all diesel sold there is theirs—over 2% of all motor fuel already, even if ethanol were never to make its mark there (as it certainly will). France's biggest diesel producer, Diester Industrie, already making 250,000 tonnes a year at Europe's biggest plant, near Rouen, plans to double another plant in the north to 200,000 tonnes, and build a 160,000 tonne one in central France. It is also in talks with Cargill, an American grain and oilseed giant, about yet another plant at west-coast Saint-Nazaire. In Britain, though half of all motor fuel sold is diesel, biodiesel use has been tiny. But a new 50,000-tonne Scottish plant is due to be overtaken later this year by a 250,000-tonne monster on Teesside, near the east coast. And, with partners, Tesco, a supermarket giant that also runs filling stations, plans another east-coast plant. It will not be huge, but in Britain Tesco's name could give biofuels a huge boost. So, in a different way, may the decision of Fortum Oil, part of Finland's Neste conglomerate, to build a 170,000tonne biodiesel plant at its Porvoo refinery near Helsinki, which now makes 4m tonnes of conventional diesel. The oil companies' war with biofuels has already become a truce; now it may become an alliance. Not all their skills are transferable: coastal biofuel plants, like refineries, have an eye on bulk, seaborne inputs, but most of Europe's biodiesel is made from rapeseed (or rape oil) brought in by truck, not tanker or pipe. It is the economics of supply, more than distribution, that inspire the wide spread and relatively modest size of biofuels plants. But the oilmen are mighty. Europe's coming ethanol boom in part reflects a different aspect of supply: its source. Italy has just cut the total of its biodiesel output eligible for tax relief, switching the money to ethanol. A greener fuel? No. But the rape or soya that go into biodiesel are not common crops in Italy; the grain, sugar or wine used for ethanol are. Likewise, France's tax-aided biofuel push will be more ethanol-slanted than its far bigger biodiesel industry thinks fair. Lo, wheat and sugar beet, the main inputs for ethanol there, matter far more to French farmers than Ressourcen 85 rape does. Three new German ethanol plants, due to make about 500,000 tonnes a year, mostly from rye, will eat near three times that weight of grain—3% of Germany's total harvest. No wonder the EU's offer to take a billion litres (near 800,000 tonnes) a year of Brazilian ethanol duty-free alarms EU farmers; they want imports limited, as in America, to a percentage of EU output. And as the EU cuts direct subsidies to farmers, their search to open, but then protect, new outlets will surely gain influence. There may be good news for them (and, for once, for EU buyers of their products too). A firm from Spain, Abengoa, is the European leader in ethanol, with 260,000 tonnes of capacity there, and 160,000 more on the way. Big also in America, it hopes, using its experience there, to build the EU's first maize-based plant, in southwest France. But it may lead Europe in a far more significant direction than that. The biofuellers make much of their green credentials. Critics claim their stuff takes more energy to make than it gives out; not so, say allies, citing advances in technology. But neither greenery nor energy-efficiency is the real issue. It is double-headed. First, can they compete, unsubsidised, with mineral oil? Not yet in biodiesel, says German experience. Nor in Europe's ethanol, says Abengoa's boss, Javier Salgado: oil would have to reach $70 a barrel. But in America, yes, at about $50 a barrel. So... And another thing Second, can they compete with each other? The big transatlantic difference is in raw material costs: about 30 euro-cents (39 American ones) a litre in the EU, half that figure in America or Brazil, lament the EU's ethanolmakers. The Brazilians gleefully agree. They expect to make some 16 billion litres of ethanol this year, about as much as America. And overall, they say, American ethanol costs 50% more to make than theirs, European ethanol 150%; their stuff, they claim, became competitive with petrol, at pre-tax prices, in 2002. By 2010 their state oil company, Petrobras, hopes to be exporting 8 billion litres a year. So, in a free-market world, only Brazil and the traditional oil companies would be keeping transport moving? Not necessarily. Biofuel technology is rapidly advancing. Even in Europe, Abengoa reckons its ethanol could compete with mineral fuels within ten years. And a new technology, aided by some biotech, may both cut costs and ease raw-material constraints. Mr Salgado's firm, under an EU contract since 2003, has been studying how to make ethanol not from grain but straw. It is not alone—nor indeed first. A Canadian firm, Iogen, backed with capital not just from the government (which freed ethanol from federal tax in 1992) and ex-state-owned Petro-Canada, but from Shell, opened a pilot plant for such “cellulosic” ethanol a year ago. It now plans a full-scale one in the Canadian prairies or Idaho. Another firm has begun studying a plant, proposed for British Columbia, using wood. America's Department of Energy heavily finances similar research, and enthusiasts there say that within 20 years the result could cost only 80 cents a gallon, well below today's gasoline cost. And in a study, “Growing Energy”, put out last December, serious dreamers claim that by 2050 cellulosic biofuels, mainly ethanol from switchgrass, a native American plant, could total nearly 120 billion gallons a year—over two-thirds of today's total motor-fuel needs. That is blue-sky stuff, and none of this is sure to happen: if the oil price were to slump (or, as America's wind farms have shown, if subsidies yo-yo), much may develop much more slowly or never. But the old idea of biofuels as merely a green diversion from the real world can no longer hold. Fine, when oil was $20 a barrel; not even oil companies believe it now. Canada’s Oil Boom. Building on Sand. The allure and perils of investing in Alberta's oil sands11 EACH tyre on the massive trucks carting gritty black goo around a mine in northern Canada weighs as much as four cars, an engineer explains excitedly; the trucks, in turn, can carry 400 tons. They are driving around a hole in the ground that is several hundred metres deep, several kilometres wide, and growing fast. Open-cast mines like this are planned for some 3,000 square kilometres of the surrounding area, and subterranean ones beneath a further 35,000 square kilometres. 11 The Economist, May 24th, 2007. Ressourcen 86 Canada's oil sands, or tar sands, as the goo is known, are outsized in every way. They contain 174 billion barrels of oil that can be recovered profitably, and another 141 billion that might be worth exploiting if the oil price rises or the costs of extraction decrease—enough to give Canada bigger oil reserves than Saudi Arabia. They are attracting huge investment from oil giants such as Royal Dutch Shell, Exxon Mobil and Total. But they are also stirring great controversy. Until recently, most big oil firms shunned the oil sands as too expensive to exploit. In most cases, extracting oil involves chopping down the forest that blankets the region, draining the boggy ground, stripping off the topsoil and literally digging up the oily sand below. Producers must then mix it with water, heated using natural gas, to separate the oil from the sand. Some do all this underground by pumping steam into deeper deposits and pumping out the resulting slurry. Both processes produce bitumen, which needs extra treatment before it can be refined into petrol. All this consumes lots of energy, and so costs C$20-25 ($18-23) per barrel of output in operating expenses alone. Analysts at Citibank reckon the oil price needs to remain above $40 a barrel to make the development of the oil sands worthwhile. But with oil selling for around $70 a barrel, and with big oil firms struggling to find new resources, the oil sands suddenly seem much more attractive. There is no exploration risk: the oil is definitely there. Once up and running, oil-sands mines produce a steady flow of oil for 30 years or more, whereas the output of more conventional fields is much less predictable. Best of all, the oil sands are in Canada, a hearteningly moderate and stable country. So the oil majors are piling in. This month Total said it would increase its total investment in the region to as much as C$15 billion. Norway's Statoil has just spent $2 billion on a Canadian firm with oil-sands rights. Shell, Exxon, Chevron and others are joining in. Production from the region, now 1.2m barrels per day, is expected to rise to 4m by 2020, putting Canada's output on a par with Iran's. But not all the oil giants are convinced. BP, for one, has steered clear. If the price of natural gas rises, or that of oil falls, the oil sands will look less enticing. As it is, development costs have roughly tripled since 2001, according to industry figures, thanks to a shortage of labour and parts—such as those massive tyres. Meanwhile, the province of Alberta is reviewing the tax regime. Back in the 1990s, when there was little interest in the oil sands, it sought to lure investment by setting a nominal royalty of just 1% of revenues until investment costs were recovered. Today, although production is booming, the province's revenue from royalties is actually falling, as oil firms take advantage of that and other tax breaks. Critics argue that times have changed and that producers can now afford to pay more. More broadly, they contend that the rapid growth of the industry is fuelling inflation in the province and overloading its infrastructure, and should be slowed. The mayor of the main oil-sands district has called for a lull in new projects. But the biggest uncertainty is over the environment. Extracting oil from oil sands produces two or three times as much carbon dioxide as pumping it out of a normal well, according to the Pembina Institute, an environmental group. Yet the Canadian government has vowed to reduce Canada's emissions. To that end, it will soon require oil-sands projects to reduce the ratio of emissions to oil produced by 2% a year. Activists at WWF, another pressure group, say a much tougher regime is needed. Meanwhile, California and 11 other American states are planning to adopt pollution laws that would ban the sale of petrol from emissionsintensive sources. Shell and other big investors in the oil sands hope to meet such requirements by siphoning off emissions from their mines and storing them underground—although the technology to do so is still in its infancy. The uncertainties surrounding the oil sands, in other words, are as big as the developments themselves. Ressourcen 2.5 87 Ressourcen und Wachstum 2.5.1 Is oil wealth a blessing or a curse?12 THREE decades ago, the Organisation of Petroleum Exporting Countries (OPEC) sent oil prices rocketing. By 1980, a barrel cost $30, ten times the price in 1970. Consumers suffered, whereas oil producers reaped an enormous windfall. Many assumed then that oil was a gift of God that would transform poor countries into flourishing economies within a generation. Yet even during those heady early days there were doubts. Juan Pablo Pérez Alfonso, a founder of OPEC, complained in 1975: “I call petroleum the devil's excrement. It brings trouble...Look at this locura—waste, corruption, consumption, our public services falling apart. And debt, debt we shall have for years.” Several new publications argue that history has proved him right. A new book from the Open Society Institute, a foundation financed by George Soros, points out that resource-poor countries grew two to three times faster than resource-rich countries between 1960 and 1990 (even after adjusting for differences in population, initial income per head and other variables). Revealingly, the resource-rich countries began to lag only after the 1970s—in other words, only after oil wealth started to pour in. Two factors explain this. The main economic problem is known as Dutch Disease, after the effects of the discovery of natural gas in the Netherlands in the 1960s. An oil bonanza causes a sudden rush of foreign earnings; this drives up the value of the currency. That, in turn, makes domestically produced goods less competitive at home and abroad. Over time, domestic manufacturing and agriculture fade and growth suffers. Tricky as this problem is, oil economies such as Norway and Alaska have come up with a clever (though still imperfect) solution: they hive off much of the oil income into “stabilisation” funds, disbursing “dividends” to citizens slowly—directly in Alaska, via social spending in Norway—so that the economy does not overheat. Chile, one of the world's more successful developing countries, has a similar fund for its copper revenues. Contrast this cautious approach with the recklessness of the OPEC countries of the Middle East, which expanded domestic spending by about 50% a year between 1974 and 1979. This enriched the elite, but spawned white-elephant projects and fuelled inflation of more than 15% a year. Venezuela has earned over $600 billion in oil money since the 1970s, but the real income per head of its citizens fell by 15% between 1973 and 1985. It is falling again today. On top of these economic difficulties can come even worse political problems. Because oil infrastructure can be controlled easily by a few, it often leads to a concentration of political power. Michael Ross, of the University of California at Los Angeles, argues that oil worsens poverty by stunting democratic development, among other things. It also tends to cause, or at least aggravate, civil wars. A new report by Christian Aid, a charity, says that oil economies are more likely than non-oil economies to maintain large armies, and generally do worse on 12 The Economist, May 24th, 2003, p78. Ressourcen 88 literacy, life expectancy and other measures of human development. In addition, sudden oil wealth affords ample opportunity for corrupting the politicians who award contracts to foreign oil firms. Wishful thinking? These recent reports are troubling, but is there really any prospect of change? Surprisingly, the answer may be yes. For some time now, Publish What You Pay—a collection of activist groups—has been pestering Big Oil to reveal all the payments it makes to governments, which usually insist that such details be kept secret. Now some big investors are getting in on the act too. On May 19th, ten investment funds managing some $600 billion of assets declared their support for transparency: “This is a significant business risk, making companies vulnerable to accusations of complicity in corrupt behaviour...and possibly compromising their long-term commercial prospects.” Tony Blair has been promoting the Extractive Industries Transparency Initiative, a scheme that calls for voluntary disclosures. Britain now plans to push for an international approach by raising the topic at the G8 summit in France next weekend and at a ministerial meeting on June 17th. A multilateral approach would certainly be more realistic than any national or unilateral steps. That is what BP discovered when it recently voluntarily revealed the terms of its contracts in Angola. No other oil company followed suit, and the local powers let it be known that they were displeased. A multilateral approach could involve the World Bank and the International Monetary Fund, which could push countries to publish the details of contracts and to set up resource funds. Some countries howl that such initiatives violate their sovereignty, but that is a smokescreen: rulers with nothing to hide would surely welcome transparency. Others, including Abu Dhabi and Kazakhstan, boast that they already have such funds—but these are weakened by a lack of proper oversight. In contrast, the American proposal for dealing with Iraqi oil revenues could result in the creation of a fund monitored by Kofi Annan. But reform will not be easy. The World Bank recently demanded transparency in return for backing a controversial pipeline running from Chad to Cameroon. After much hesitation, both countries agreed to set up mechanisms that will allow outside monitoring of oil revenues and vowed that the funds will be used only for development purposes. The ink had barely dried on the accord when Chad's ruler was caught diverting oil money to military spending. Getting firms to “publish what you pay is an essential first step,” observed George Soros at the launch of the Open Society book, but the harder step is to get governments to “publish what you receive...and then be accountable for what you receive.” Ressourcen 89 2.5.2 Can the world economy continue to shrug off high oil prices? Economist Aug. 27th 2005, p57-58. HAD you been told in late 2001—not long after that September's terrorist attacks, and when stockmarkets had been tumbling for 18 months or so—that the price of crude oil would more than triple within four years, you might well have predicted global economic meltdown. The price of a barrel of West Texas Intermediate has risen from $18 in November 2001 to record levels: it hit yet another new high, above $67, this week. This is similar in scale to the price jumps of 1973-74, 1978-80 and 1989-90, all of which were followed by worldwide recession and rising inflation. Today, though, global GDP growth is well above trend, while inflation remains low. Why has the world economy fared so comfortably this time? There are several popular explanations. The simplest is that, although the latest price increase is about as big as those in previous episodes, it has been more gradual. In 1979 the price of oil doubled in six months; this time it took 18 months, giving households and firms more time to adjust and so doing less damage to their confidence and finances and hence to economic activity. This is plausible, but unlikely to be the whole story: no matter what the pace of the increase, it pains Americans to pay $3-plus for a gallon of petrol. Another common line is that in real terms oil is not terribly expensive. True, adjusted for American consumerprice inflation, the price of a barrel of crude would have to be about $90 to beat the mark it set in 1980. But this is small comfort: thus measured, the real price is already above its peaks of 1974 and 1990, which were high enough to bring on recession. Moreover, a calculation of real prices depends on the deflator used. Relative to American producer output prices, the appropriate measure for businesses, real oil prices are already close to their 1980 peak. For an oil-importing economy as a whole, however, the relevant deflator is arguably export prices, since the main way that dearer oil causes pain is through the terms of trade. Relative to global export prices, oil prices are at an all-time high (see chart). A third argument used by the sanguine is that the modern economy now runs on brain power and microchips rather than on oil. Developed countries use half as much oil per real dollar of GDP as in the mid-1970s, thanks to improved energy efficiency, a switch to other sources of energy and the shift from manufacturing to services. Ressourcen 90 This means that a given rise in oil prices makes a smaller dent in output. However, while rich countries have greatly reduced the oil content of their GDP, many emerging economies are still big energy guzzlers. Some Asian economies, such as India and South Korea, use more oil per dollar of GDP today than they did in the 1970s. Furthermore, even if America consumes less oil relative to GDP than it did 30 years ago, it also produces less, so its net oil imports are roughly the same as a percentage of GDP (just under 2%). And the impact of oil prices on GDP depends on net imports not on consumption, because oil producers gain when prices rise. Crude analysis According to the IMF's model, an increase of $10 a barrel in oil prices should knock three-fifths of a percentage point off the world's output in the following year. Thus the increase of $30 over the past year or so should have reduced global growth by almost two percentage points. However, all such ready-reckoners are based on previous oil shocks, when the main cause of higher prices was a disruption to oil supplies: the OPEC oil embargo in 1973-74; the Iranian revolution in 1979; and Iraq's invasion of Kuwait in 1990. The current episode, however, has its origin in increasing demand, notably in China, the rest of Asia and the United States. Last year's increase in global oil consumption was the biggest for almost 30 years. The old rules of thumb based on supply shocks do not work for price increases driven by rising demand. If oil prices rise because of a shortfall in supply, they will unambiguously cause GDP growth to fall. However, if higher oil prices instead reflect strong demand, then they are the product of healthy global growth. They will therefore be less damaging. The downside is that, if prices are high because of strong demand rather than a supply shock, they are likely to stay high for longer. In past oil shocks, a rise in price as a result of a temporary supply disruption caused oil consumption to decline, so that when supply returned to normal prices promptly fell. But if oil prices are being pushed higher largely by rising demand in China and other emerging economies, a sudden collapse is less likely. This is not to deny the role of speculators, whose bets that prices have further to climb have given the market an extra momentum—perhaps leaving it vulnerable to a future drop. Even so, with demand growing strongly and supply unusually tight as a result of years of inadequate spending on exploration, development and refining capacity, any serious supply disruption would push prices yet higher. The basic fact is that the equilibrium price of oil has risen: analysts at Goldman Sachs expect oil to fetch an average of $68 a barrel next year and $60 for the next five years. In the long run, such high prices will encourage exploration and bring forth increased supply that will eventually dampen prices, but this will take time. The inflation novelty The relatively gradual rise in prices, the lower oil-intensity of many economies and the role of strong demand rather than a fall in supply all go some way to explaining why this time the effects of higher oil prices on world GDP have so far been muted. However, perhaps the biggest difference between today's high oil prices and earlier bouts lies in the response of inflation and interest rates. In the past, rising oil prices pushed inflation up sharply; sooner or later, central banks raised interest rates. And this time? Figures out last week showed that the headline rate of inflation in America leapt to 3.2% in July from 2.5% in June, largely because of higher oil prices, yet the core rate of inflation only edged up from 2% to 2.1%. Indeed, inflation worldwide is unusually low, thanks partly to global competitive pressures from China and elsewhere. Subdued inflation, and the expectation that it will stay that way, have allowed central banks to hold interest rates lower than in the past. As a result of low interest rates, America and some other economies have enjoyed a boom in house prices, accompanied by a surge in household borrowing and a falling saving rate. Higher oil prices have acted like a tax on consumers, leaving them less money to spend on other goods. But in America this has been fully offset by borrowing against soaring home prices. This explains why higher oil prices appear to have depressed domestic de- Ressourcen 91 mand by more in Europe than in America: in most euro-area economies there has been little or no cushion from increased borrowing against property. The fact that America's economy has been able to shrug off higher oil prices mainly as a result of a housing and mortgage bubble is hardly a comforting thought. What happens when house prices flatten, or even fall? Consumers will then feel the full force of dearer oil. Come to think of it, a further spike in oil prices could even be what pops the housing bubble, if it unsettles consumers enough. So far, the rising oil price has done little harm; but worse may well be on the way. Ressourcen 92 3 Energiemärkte und Politik Die jüngsten politischen Ereignisse, die Umstrukturierung und die damit verbundenen Krisen in der Sowjetunion und Saddam Husseins temporäre Annexion von Kuwait und der darauffolgende Krieg haben einen substantiellen Einfluss auf die zukünftigen Energiemärkte. Diese Arbeit konzentriert sich auf die Konsequenzen aus dem Golfkrieg. Die Implikationen der reinen ökonomischen Theorie, d. h. von Effizienz- und Profitbetrachtungen, besagen, dass die Politik vermutlich nur einen geringen Einfluss hat. So zeigt Wirl (1992), dass Iraks gewaltsame Annexion von Kuwait nur einen vernachlässigbaren, dauerhaften Einfluss auf die Weltölpreise gehabt hätte. Diese optimistische Hypothese wird durch politisch-ökonomische Betrachtungen kontrastiert, wobei weitere Krisen wahrscheinlich scheinen (d. h. kompatibel mit dem rationalen Kalkül der Herrscher). Diese Drohung führt dazu, dass (rationale) Konsumenten nicht alle Vorteile niedriger Energiepreise realisieren und daher sowohl die Konsumenten als auch die Produzenten ansehnliche Summen verlieren. Der einzige Weg für die Produzenten, diese Marktsituation zu verbessern, sind Verpflichtungen, deren Glaubwürdigkeit jedoch fraglich bleibt. Eine Möglichkeit dafür wäre eine (partielle) Rückkehr zur vertikalen Integration, insbesondere dadurch, dass den internationalen Ölgesellschaften wiederum mehr Verantwortung übertragen wird. 3.1 Ökonomische und polito-ökonomische Gründe für temporäre Beschränkungen Die Quintessenz der theoretischen Ökonomie scheint, dass politische Veränderungen nur einen geringen Einfluss auf die realen Prozesse haben. Insbesondere ist Handel immer vorteilhaft für beide, Produzenten und Konsumenten, so dass Embargos auch den Produzenten weh tun und daher unwahrscheinlich sind. Adelman (1990) entwickelt nun ein "ökonomisches" Argument für Outputbeschränkungen. Adelman betrachtet die OPEC Regierungen als brutales Monopol, weit brutaler als jedes private Unternehmen in der industrialisierten Welt. Er argumentiert, dass jede starke Ausbeutung von Konsumenten durch private Monopole derartig mächtige Lobbys kreiert, die kurzen Prozess mit einem solchen Monopol machen, im schlimmsten Fall durch Verstaatlichung. Die OPEC erhöht im Zeitraum 1973 - 1981 den realen Ölpreis um etwa 1500 %. Kein privates Monopol hätte sich eine solche Strategie erlauben können, sondern und nur souveräne Staaten, wo das Produzenteninteresse dominiert. Diese plausible Beschreibung von Adelman ist jedoch nach wie vor ungenügend, um absichtliche Outputbeschränkungen zu erklären, so dass andere Eigenschaften notwendig sind, als die einer brutalen OPEC. Zuerst muss noch vorausgesetzt werden, dass Konsumenten sehr inflexibel hinsichtlich ihrer kurzfristigen Optionen sind, so dass eine temporäre Beschränkung des Outputs die Einnahmen für die Produzenten erhöht. Jedoch intertemporale Betrachtungen (Berücksichtigung zukünftiger Marketingmöglichkeiten) und das Verlangen nach einer guten Reputation, um den Goodwill der Konsumenten zu erhalten, genügt gewöhnlich, um diese kurzfristigen Ausbeutungstendenzen zu eleminieren, zumindest in konventionellen Gütermärkten. Daher ist auch diese modifizierte Theorie von Adelman noch ungenügend, um böswillige Angebotsbeschränkungen zu erklären, und so offeriert Adelman folgende zusätzliche Erklärung: "Not as Arabs or Muslims or some other irrelevancy, but as rational economic actors, the OPEC countries must take the money and run." Das kann dahingehend interpretiert werden, Ressourcen 93 dass jede potentiell bedrohte Regierung eines Entwicklungslandes jede kurzfristige Profitopportunität realisieren muss, irrespektive der langfristigen ökonomischen Kosten. Trotz all dieser Modifikationen ist Adelmans Argument nicht durchhaltbar auf rein ökonomischer Basis, sondern erfordert zusätzliche politisch-ökonomische Rahmenbedingungen, da ansonsten das myopische Verhalten der OPEC-Entscheidungsträger unplausibel bleibt. Wirl (1991a,b) entwickelt ein rein ökonomisches Argument, um gelegentliche Preisspitzen, d. h. die andere Seite der Medaille von Outputbeschränkungen zu erklären. So zeigt Wirl, dass gelegentliche oder sogar immer wiederkehrende Preisspitzen optimal sein können für weitsichtige Produzenten und sogar für rationale Konsumenten, nämlich dann, wenn die Nachfrage konvex und dynamisch ist. Beide Argumente, die von Wirl (1990, 1991) und die von Adelman (1990), verwenden explizit oder implizit die Eigenschaft, dass der Erdölmarkt sehr träge ist. In der Tat, diese Eigenschaft ist auch essentiell für die folgende politisch-ökonomische Betrachtungsweise. Politiker (überall und nicht nur im Golf) kümmern sich weniger um Profite als Geschäftsleute. Der Grund dafür ist, dass politische Märkte (zumindest kurzfristig, das heißt bis zur nächsten Wahl) manchmal Entscheidungen belohnen, die der Wirtschaft schaden. Daher reduziert sich die Ökonomie zu einer Beschränkung für politische Entscheidungsfindung, wenn auch einer wichtigen. Jedoch ist die Ökonomie nicht das alles überschreibende Prinzip. Tatsächlich haben die Planwirtschaften Osteuropas bewiesen, dass grundlegende ökonomische Kräfte über einen relativ langen Zeit ignoriert werden können. In diesem Sinne ist nicht der Zusammenbruch von Planwirtschaften das Überraschende, sondern die Tatsache, dass solche absurden Ökonomien einen so langen Zeitraum überdauern konnten. Die grundlegende Hypothese für den Öl- und Energiemarkt ist nun, dass politische Ambitionen oder möglicherweise sogar kurzsichtige ökonomische Betrachtungen das zukünftige Ölangebot bedrohen. Daher sind politische, nicht-ökonomische Betrachtungen wie die Fiktion einer islamischen Welt, der Mythos einer arabischen Einheit etc. wichtig für Analysen des Weltölmarktes. Der Grund ist, dass rationale Politiker diese Gefühle zu ihrem Nutzen ausbeuten. Angenommen, dass diese Gefühle für einige Zeit vorherrschen, dann muss man mit wohlgezielten Outputbeschränkungen rechnen, und zwar je mehr der Westen abhängig vom arabischen Öl ist, desto höher sind die Möglichkeiten der Erniedrigung des Westens und daher der potentielle Gewinn für arabische Führer. Deshalb werden Politiker, die die entsprechenden populistischen Unterstützungen benötigen, versucht sein, diese Waffe gelegentlich einzusetzen. Die Wahrscheinlichkeit solcher Strategien wird noch dadurch bestärkt, dass wohlgezielte Outputbeschränkungen bedingt durch höhere Einnahmen sich wegen der bereits oben erwähnten Trägheit der Märkte auch kurzfristig finanziell bezahlt machen. Dies unterstreicht die Bedeutung dieser Eigenschaft, Trägheit der Energiemärkte, die wichtig ist, um diese politischen und ökonomischen Benefizien zu lukrieren. Die Quintessenz der obigen Argumente - ökonomisch und polito-ökonomisch - ist, dass hohe Nachfrage den arabischen Führern für eine Beschränkung des Outputs zwei Dinge offeriert: hohe kurzfristige Einnahmen (aber langfristige Verluste); Unterstützung bei der breiten Masse wegen der arabischen bzw. islamischen Ressentiments gegenüber dem "Westen". Diese ökonomischen und politischen Effekte sind umso stärker, je höher die momentane Nachfrage ist, wegen mangelnder Alternativen. Daher setzt hohe Nachfrage die Konsumenten dem Risiko aus, einigen Ölproduzenten als Beute für ökonomische oder politische Zielsetzungen zu die- Ressourcen 94 nen. Dieses Szenario - der Konsument als mögliche Geisel der Produzenten - impliziert, dass durchaus für präventive Maßnahmen zur Erhöhung der Versorgungssicherheit argumentiert werden kann, konträr zu konventioneller ökonomischer Anschauung. 3.2 Effiziente Verwendung von Öl - ein Dilemma? Erdöl und insbesondere die Reservoirs im Nahen Osten stellen eine sehr billige Energiequelle mit hohem Nutzen dar. Daher, ist es angebracht, diese Ressourcen effizient zu verwenden, denn Missmanagement oder gar Nichtverwendung wären gleichbedeutend mit dem Verzicht auf Unsummen von Milliarden von Dollars für beide, Produzenten und Konsumenten. Deshalb haben Konsumenten und Produzenten ein Interesse an diesen Ölressourcen, wenn auch gelegentlich Streitigkeiten über die Aufteilung des Überschusses, das heißt Debatten über den "richtigen" Preis von Öl entstehen. Abgesehen von dieser Propaganda favorisieren beide Gruppen ein freundliches und kommerzielles Klima wegen rein ökonomischer Gründe. Es ist jedoch so, dass nicht immer die reine Ökonomie die Welt regiert. Dies führt zu Unsicherheit in den Energiemärkten und deshalb zu einem Dilemma für die Konsumenten, die heute investieren müssen, was ihren zukünftigen Bedarf bestimmt. Im Extremfall kann man sich vorstellen, dass der Ölbedarf in der Periode t (wenn die Zeitintervalle genügend klein gewählt werden) komplett durch historische Entscheidungen bestimmt ist. Unter solchen Umständen kann der Produzent den Konsumenten als Geisel nehmen und diese Situation für seine (politischen) Zwecke missbrauchen. Prinzipiell kann auch ein ökonomisch denkender Produzent zu einer solchen Strategie verführt werden. Diese Strategie - die Produzenten nützen den ex-post Opportunismus aus, der hier aufgrund der Zeitinkonsistenz optimaler Pläne resultiert - bedroht die Konsumenten dahingehend, ihren heutigen Bedarf auszuweiten. Als eine Konsequenz dieser Gefahr sparen sie zu viel. Daher ist folgendes Szenario denkbar: Die politischen Instabilitäten im Nahen Osten (vier Krisen in den letzten zwanzig Jahren) haben - im Gegensatz zu allen ökonomischen Argumenten - gezeigt, dass das Ölangebot unsicher ist und dazu dient, gelegentlichen politischen (oder auch ökonomischen) ex-post Opportunismus auf der Produzentenseite zu befriedigen. Und die Kosten, die mit einer solchen Strategie verbunden sind, können enorm werden, sowohl in monetären Ausdrücken als auch hinsichtlich von Menschenleben, wie drei Kriege deutlich dokumentierten. Deshalb werden die Konsumenten vermeiden, dass sie wieder in eine solche geiselähnliche Situation kommen, und investieren daher in verschiedene Maßnahmen, um den Ölkonsum zu reduzieren. In anderen Worten; Energiesparen wird zu einer Versicherung, die notwendig wird wegen der unsicheren Erdölversorgung aus politischen Motiven. Ab diesem Punkt wird das Konsumentendilemma auch ein Produzentendilemma, weil diese potentielle Gefahr sowohl den heutigen als auch zukünftigen Ölmarkt schädigt. In dieser Situation würden die Produzenten gerne eine Verpflichtung eingehen, um diese negativen Auswirkungen der Unsicherheit auf dem Erdölmarkt zu beseitigen. Jedoch werden die Konsumenten solchen Verpflichtungen kaum trauen. Der Grund ist, dass ein nachfolgender Diktator mit den Ambitionen eines Saddam Hussein's kaum zögern wird, diese eingegangenen Verpflichtungen zu brechen. Diese Vorsicht rationaler Konsumenten führt zu niedrigem Ölkonsum, irrespektive wie niedrig heutige Erdölpreise sein werden, so dass diese Instabilitäten durch politische Märkte Milliarden und Milliarden Dollar vernichten, sowohl für die OPEC als auch für die Konsumenten. Ressourcen 3.3 95 Verpflichtungen Eine Möglichkeit für die OPEC, diesen Schaden zu begrenzen und die Chancen der Ölvermarktung zu verbessern, ist, durch eingegangene Verpflichtungen die Gefahr von zukünftigen Preissprünge, Knappheiten und Krisen zu mildern. Dies ist jedoch keine leichte Aufgabe, und verbale Versprechungen werden in den folgenden Jahren nicht genügen. Der wichtige Punkt dabei ist, dass den Konsumenten sehr wohl jetzt bewusst ist, dass sie wiederum die Subjekte sind, die eventuell einem ex-post Opportunismus ausgeliefert sind. Unter solchen Umständen, so argumentiert Williamson (1981, 1983), ist vertikale Integration eine Möglichkeit, diese Transaktionskosten, die durch Marktoperationen zwischen Produzenten, Ölgesellschaften und Konsumenten entstehen, zu begrenzen. In Prinzip sind hier zwei Wege denkbar. Die OPEC-Mitglieder investieren in Downstream-Aktivitäten, Marketing, ja sogar in Verkaufsnetze in den Konsumentenmärkten. Das heißt, sie versuchen, eine Rolle ähnlich den internationalen Ölgesellschaften zu übernehmen. Tatsächlich hat Kuwait ein relativ großes Distributionsnetz - die Q8 Stationen - erworben. Diese Strategie kann die Glaubwürdigkeit zukünftiger Lieferverpflichtungen unabhängig von der Struktur des zukünftigen Regimes erhöhen, aber sieht sich gravierenden Hürden, wie Konkurrenz mit den internationalen Ölgesellschaften, fehlendes Know-How und fehlenden Goodwill der Konsumenten gegenüber. Weiterhin haben diese neuen, vertikal integrierten Gesellschaften das Risiko feindlicher Regierungen in den Konsumentenländern, die möglicherweise ihre eigenen Ölgesellschaften unterstützen. Daher scheint mir für die OPEC der folgende Weg sinnvoller zu sein, um den Konsumenten zu signalisieren, dass die Verpflichtungen hinsichtlich zukünftiger Erdöllieferungen ernst genommen werden, nämlich die internationalen Ölgesellschaften wiederum einzuladen, in der Produktion aktiv zu werden. Der Vorteil dieser Strategie ist, dass diese Gesellschaften das entsprechende technische Know-How haben, sowohl auf der Produktionsseite als auch in der Raffinierung, in der Verteilung und im Marketing raffinierter Produkte. Darüber hinaus erfreuen sich diese Gesellschaften eines substantiellen Goodwills der Konsumenten, der für neue Ölgesellschaften in der Hand von OPEC-Ländern schwierig zu akquirieren wäre. Diese Strategie ist jedoch nicht billig für OPEC, insbesondere hinsichtlich seiner politischen Dimensionen. Denn um diese Verpflichtungen zu unterstreichen, werden die Ölgesellschaften eine Machtfülle erhalten müssen, die in etwa jener gleicht, die vor 1973 den Ölmarkt bestimmt hat. Tatsächlich sind bereits erste Anzeichen in diese Richtung erkennbar, The Economist (1991). 3.4 Zusammenfassung Eine rein ökonomische Betrachtung zeigt, dass politische Instabilitäten ja sogar eine Re-allokation der Erdölreserven durch brutale Gewalt (irakischer Imperialismus) nur einen geringen Effekt auf internationale Erdölpreise hätte. Der Grund ist, dass wer immer - Diktator, König oder Parlament - Irak, Saudi Arabien, die UdSSR oder ein anderes ölexportierendes Land regiert, er wird ein hohes Interesse daran haben, Öl langfristig profitabel zu vermarkten. Dieser Optimismus ist jedoch nicht notwendigerweise gerechtfertigt, wenn politische Interventionen mit Geschäftsinteressen konfliktieren und wenn gleichzeitig der Markt träge ist. Dies wurde ausreichend durch vier Krisen in den letzten zwanzig Jahren bestätigt und exemplarisch im Falle Kuwaits aufgezeigt. Präziser, es mag sich für einen rationalen Politiker auszah- Ressourcen 96 len, die öffentlichen Gefühle - den Hass gegen den Westen im allgemeinen und gegenüber Israel im besonderen, die Gefühle für arabische Einheit und die islamische Religion - auszunützen, selbst wenn das bedeutet, dass finanzielle Einnahmen verloren gehen. Um den Westen zu demütigen und zu erniedrigen, könnten die arabischen oder die islamischen Länder oder irgend eine andere Koalition von Ländern den Output reduzieren. Aufgrund der Besonderheiten des Erdölmarktes, nämlich seiner Trägheit, mag sich diese politisch motivierte Strategie sogar kurzfristig finanziell positiv auswirken, zumindest wenn nicht genügend andere Kapazitäten zur Verfügung stehen. Und solche Situationen, dass die Produzenten die Konsumenten als Geiseln nehmen, können nicht dadurch ausgeschlossen werden, dass man auf die intertemporalen ökonomischen Kosten einer solchen Strategie hinweist. In der Tat, sind solche strategischen Reduktionen des Outputs oder sogar Embargos bei weitem harmloser als etwa die absurde Handelspolitik der vormaligen Comecon-Länder, die grundlegende ökonomische Kräfte für mehr als 40 Jahre negierte. Ironischerweise ist dieser Schluss - Erdölangebot bleibt potentiell unsicher - zu einem Zeitpunkt zu ziehen, als die OPEC-Mitglieder (alle anderen außer Irak und Kuwait) sehr wohl ihrer Verpflichtung nachkamen und den Output erhöhten, um die ausgefallene Produktion zu kompensieren. Der Hauptgrund für diese Skepsis der Konsumenten ist, dass sich die Konsumenten sehr wohl bewusst sind, dass die nächste Krise wahrscheinlich nicht in einer solch günstigen Situation wie zuletzt passieren wird, als die Angebotskapazitäten die Nachfrage bei weitem überstiegen. Diese Unsicherheit hinsichtlich der zukünftigen Versorgung senkt die momentane Ölnachfrage, weil die heutigen Ankäufe an dauerhaften Investitionsgütern (Autos, Häuser, Wohnungen usw.) den zukünftigen Bedarf mitbestimmen. Daraus ergibt sich, dass Milliarden und Milliarden von Dollar verschwendet werden, bei beiden, Produzenten und Konsumenten. Die Konsumenten verlieren, weil sie auf Möglichkeiten verzichten, die bei den niedrigen Ölpreisen lukrierbar wären. Die Produzenten verlieren, weil sie sich einer niedrigeren Nachfrage gegenüber sehen, ohne den Vorteil zu haben, höhere Preise dafür zu verlangen, denn die Einsparungen heute sind die Antwort auf potentielle zukünftige Drohungen. Eine Möglichkeit, wie die OPEC den heutigen Bedarf erhöhen kann, ist es, Verpflichtungen hinsichtlich zukünftiger Lieferungen einzugehen. Vertikale Integration, wie sie Williamson vorgeschlagen hat, kann solche Verpflichtungen glaubwürdig erscheinen lassen. Tatsächlich repräsentiert dieser Vorschlag alte OPEC Ideen, Konsumenten- und Produzenteninteresse zu integrieren und kooperativ zu lösen. Die leichteste und wahrscheinlich effizienteste Art und Weise, diesen Effekt zu erzielen, ist es, die internationalen Ölgesellschaften einzuladen, zurückzukommen und ihnen eine ähnliche Rolle zu geben wie vor 1973. Die andere Möglichkeit - die Produzentenländer integrieren Raffinerien und Distributionsnetze in ihr Netzwerk - ist jedoch weniger glaubwürdig, weil die Unsicherheit des Angebots wegen politischer Märkte, z. B. der Notwendigkeit, dem islamischen Fundamentalismus nachzugeben, bestehen bleibt, wenn auch die Kosten einer solchen Strategie steigen. Tatsächlich haben sich überall die politischen Märkte als weniger vorhersehbar und stabil als die ökonomischen Märkte herausgestellt, weil Firmen ihr eigenes Geld investieren und versenken und daher glaubwürdiger sind als Politiker, die das Geld anderer ausgeben. Ressourcen 3.5 97 Die ökonomischen Konsequenzen eines "Groß-Irak" Der Zweck dieses Kapitels ist zu demonstrieren, dass Iraks gewaltsame Annexion von Kuwait nur einen vernachlässigbaren, dauerhaften Einfluss auf die Weltölpreise gehabt hätte. Diese Untersuchung basiert auf Wirl (1992) und ist hier stark komprimiert. Diese Arbeit betrachtet ein Differentialspiel unter den OPEC-Mitgliedern, wo jetzt 12 (Irak und Kuwait sind jetzt vereinigt), anstatt der 13 Länder in Konkurrenz stehen. Jedes Mitglied wählt ein Extraktionsprofil und das Ausbeutungsdatum so, dass der Barwert an zukünftigen Profiten maximiert wird. Der Weltmarktpreis für Erdöl resultiert dann aus einer inversen Nachfragefunktion, die vom aggregierten Angebot an OPEC-Erdöl abhängt. Diese Funktion statuiert, dass OPEC eine Erhöhung des Outputs nur durch Preissenkung durchsetzen kann und umgekehrt Produktionseinschränkungen (etwa mittels Quoten) Preiserhöhungen zur Folge haben. Die Produzenten haben bei der Förderung konstante Kosten und diskontieren unterschiedlich die zukünftigen Einnahmen. Dieses Optimierungskalkül hat zwei Randbedingungen: 1. Nicht negative Produktion; d. h. wir exkludieren Spekulation der Produzenten. 2. Die Erdölreserven sind beschränkt. Sowohl die Erdölreserven als auch die Produktionskosten und die Nachfrage nach OPEC-Öl sind allen Spielern bekannt. Tabelle 1 dokumentiert die Annahmen hinsichtlich Reserven, Produktionskosten und Diskontraten. Letztere variieren auf der Basis von Ressourceper-capita-Quotienten, was in etwa die absorbtive Kapazität eines Landes bestimmt; vergleiche dazu Hnyilicza and Pindyck (1976). Tabelle 1: Annahmen Reserven, Produktionskosten, Diskontraten & Bevölkerung Algerien Ecuador Gabon Indonesien Iran Iraq Kuwait Libyen Nigeria Qatar Saudi Arabien V. Arab. Em. Venezuela bewiesene Reserven je Reserven Kosten 80- Diskontraten Bevölkerung Bevölkerung 10^9 Fass $/b jährlich (Mio.) b/cap. 8,40 3,00 0,15 24,60 342,00 1,40 3,00 0,15 10,50 133,00 0,50 3,00 0,15 1,10 446,00 8,30 3,00 0,15 178,20 47,00 92,90 2,00 0,10 54,00 1.722,00 100,00 2,00 0,10 17,80 5.632,00 91,90 2,00 0,05 2,10 44.829,00 22,00 2,00 0,05 4,40 5.023,00 16,60 3,00 0,15 128,30 125,00 3,20 2,00 0,05 0,30 9.697,00 170,00 2,00 0,05 14,40 11.781,00 96,20 2,00 0,05 1,60 62.065,00 58,10 3,00 0,10 19,30 3.018,00 OPEC 676,10 2,50 0,10 456,40 1.481,00 Kuwait + Irak Arab. Golf(a) 191,90 461,30 2,00 2,00 0,10 0,08 19,90 36,20 9.643,00 12.743,00 Quellen: BP (1989), OPEC (1990), a Iraq, Kuwait, Qatar, UAE & Saudi Arabien. Ressourcen 98 Die Annahmen werden komplettiert durch eine empirische Spezifikation einer inversen Nachfragefunktion für OPEC-Öl: P(q,t) = 39.4 - 1.93qt + 0.38t wobei der Index t die jährlichen Mengen bestimmt. Diese Gleichung bestimmt die möglichen Kombinationen an Preis (P) und Mengen (q), aus denen die OPEC wählen kann. Präziser, diese Beziehung bestimmt für vorgegebene OPEC Produktion den entsprechenden Preis und repräsentiert den stationären Zustand einer geschätzten dynamischen Nachfragefunktion für OPEC-Öl; für Details, siehe Wirl (1992). Dieses Differentialspiel wird nun für verschiedene Mengen an Spielern gelöst. Das Ergebnis ist in der Abbildung 1 verglichen. Diese Abbildung vergleicht folgende Szenarien: die 13 Mitgliedsländer aus Tabelle 1; Irak und Kuwait vereinigt und als Extremszenario ein Vereinigter Arabischer Golf. Das überraschendste Ergebnis dabei ist, dass all diese nicht-kooperativen Strategien sehr eng beisammen liegen, insbesondere für den realistischen Zeitraum der nächsten 20 Jahre. Tatsächlich hätte Iraks Annexion von Kuwait höchstens einen vernachlässigbaren Einfluss (10 Cents pro Fass, zu Preisen und Wechselkursen von 1980). Dieser Schluss gilt für die ganze Preistrajektorie. Ja sogar die Gründung eines Vereinigten Arabischen Golfproduzenten hat einen vergleichsweise geringen Einfluss auf die Preise, wenn man bedenkt, dass dieser Produzent mehr als 2/3 der gesamten OPECÖlreserven besitzt. Daher kann gesagt werden, dass die Unterstellung (etwa von der europäischen Friedensbewegung), dass der Krieg gegen den Irak wegen Erdöl ausgetragen wurde, in einer rein ökonomischen Welt nicht verteidigbar ist. In anderen Worten, es würde nicht nur zynisch, sondern ausgesprochen dumm sein, diesen Krieg durch Verweis auf niedrigere Ölpreise zu verteidigen, selbst wenn man mit dem Detail dieser Untersuchung nicht übereinstimmt. Diese Quantifizierungen in Abbildung 3.1 beschränkten sich auf den "persistenten" Effekt. So könnte eine Analyse, die die Trägheit der Energienachfrage berücksichtigt, auch den vorübergehenden Einfluss herausfinden, d. h. den wahrscheinlich starken Anstieg des Ausgangspreises, der für ein Löschen des Marktes notwendig ist, wenn selbst nur wenige Fässer vom Markt genommen werden. In der Tat sind die Erdölpreise in Folge des irakischen Überfalles beträchtlich gestiegen (die Nordseesorte Brent auf über $30/b), wenn auch bedeutend geringer als von manchen erwartet. Um diesen Verlust klarzulegen, nehmen wir an, dass ein Fass Erdöl den Wert von 60 Dollar für den Konsumenten repräsentiert. Zur Vereinfachung nehmen wir an, dass dieses Fass Erdöl kostenlos produziert wird. Weiter unterstellen wir beispielhaft, dass die Produzenten, das heißt hier die OPEC, in einer Situation ohne politische Unsicherheiten 35 Dollar pro Fass verlangen könnte und damit mehr als die Hälfte dieses inhärenten Wertes lukrieren könnte; wichtig in diesem Szenario ist, dass der Wert von 60 Dollar voll ausgeschöpft wird. Nun führt aber die Unsicherheit hinsichtlich zukünftiger OPEC-Versorgung etwa zu der Situation, dass die OPEC nur 20 Dollar je Fass Erdöl verlangt. Jedoch die verängstigten Konsumenten wählen eine Nachfrage, die einem hypothetischen Preis von 40 Dollar pro Fass entspricht, indem sie extensive Energiesparmaßnahmen substituieren. Daraus ergibt sich, dass 20 Dollar des inhä- Ressourcen 99 renten Wertes eines Fasses Erdöl verschwendet werden, aufgrund der befürchteten Instabilität. Oil Prices and Competition within OPEC 70.0 60.0 1980-US$/barrel 50.0 Iraq + Kuwait 40.0 30.0 Monopoly 20.0 United Arab 10.0 OPEC (13) 0.0 0 10 20 30 40 50 60 70 time (t = 0 corresponds to 1990) Oil Prices under different hypothesis of competition within OPEC 30.0 1980-US$/barrel 25.0 Monopoly 20.0 United Arab 15.0 Iraq + Kuwait OPEC (13) 10.0 5.0 0.0 0 2 4 6 8 10 12 14 16 18 20 time (t = 0 corresponds to 1990) Abbildung 3.1: Vergleich an OPEC Preisstrategien Zusammenfassend: Die jüngste Golfkrise hat großen Schaden am zukünftigen Marketing von Erdöl angerichtet. Als Folge daraus werden sowohl Konsumenten als auch Produzenten Milliarden und Milliarden Dollar verlieren. Eine Möglichkeit, die Skepsis der Konsumenten zu mildern und dadurch die Ölnachfrage anzukurbeln, scheint es, die Rolle der internationalen Ölgesellschaften neu zu überdenken und ihnen wieder mehr Verantwortung zu übertragen. Die politische Situation in der vormaligen Sowjetunion verstärkt diese Unsicherheiten. Wiederum gilt streng ökonomisch und rational, dass jede zukünftige Konstellation sowohl ökonomisch als auch territorial/national am zu erwartenden Energieangebot wenig ändert. Im Gegenteil, Liberalisierungen und marktwirtschaftliche Öffnung mögen sogar helfen, das Angebot zu erhöhen (etwa bei der fallenden Ölproduktion in Russland). Jedoch eine politischökonomische Betrachtung lässt auch hier auf temporäre Probleme schließen, etwa in dem Moment, wo die Erdölarbeiter realisieren, dass sie eine der wenigen sind, die noch "reales Ressourcen 100 Geld" (d. h. konvertierbare Währung) produzieren, aber nur in "Papiergeld" (d. h. Rubel) bezahlt werden. Streiks scheinen in einer solchen Situation unausweichlich. 3.5.1 The economics of war Calculating the consequences13 Recent studies suggest that even a successful military campaign in Iraq could carry a hefty price tag “IT SEEMS likely that Americans are underestimating the economic commitments involved in a war with Iraq,” says William Nordhaus, an economics professor at Yale University. Given all the imponderables surrounding such a war, it is surprising how many experts (like Mr Nordhaus) are trying to work out how much it might cost. After all, it is not clear whether Saddam Hussein's grip will crumble or if he might use weapons of mass destruction. And it is anybody's guess whether OPEC countries will replace any lost Iraqi production—or might slash output in a general Arab boycott. The findings of the most ambitious effort to date, undertaken by the Centre for Strategic and International Studies, an American think-tank, were unveiled this week in New York. Over the course of the past few months, CSIS has tapped experts from various fields to try and quantify the likely impacts of war. First, the group's military and geopolitical gurus defined four likely military outcomes: no war; a benign war that lasts four to six weeks; a thornier intermediate option that lasts up to three months; and a “worse” case that drags on for as long as six months. The group intentionally set aside still worse possibilities, such as the use of nuclear weapons. For each of these options, oil-market analysts convened by CSIS speculated over the likely path of oil prices. Their predictions were then fed into macroeconomic models that took into account the positive inputs, such as higher government spending, as well as the negative ones, such as higher inflation. They also factored in the role of market psychology, recalling the experience of the 1970s when oil shocks were accompanied by hoarding and panicky behaviour. The group reached some striking conclusions. For a start, the no-war scenario is not necessarily the best for the economy. That is because lingering uncertainty about a possible war will continue to depress markets and add a risk premium that boosts oil prices and acts as a drag on growth. At the other extreme, if things turn ugly, the team predicts that oil prices could spike up to $80 a barrel and, more damaging in economic terms, stay at around $40 for many months thereafter (see chart). In the end, though, the group's assessment of the cumulative cost of war to the end of 2004 is not overly alarming: about $55 billion in the benign scenario, and around $120 billion in the worse-case scenario. (The higher numbers in the table below are for a whole decade.) The Congressional Budget Office and a committee of the House of Representatives have also done some sums, and both came up with estimates of $50 billion-60 billion for a shortish war. The Gulf war cost about $80 billion in today's money, although much of that was recouped by contributions from Saudi Arabia and other allies, which are not likely to be repeated this time. Even so, America can afford all the scenarios. Some even suggest that the war could be an economic boon. Most wars in America's history have—thanks to massive government spending on defence—tended to stimulate the economy. A notable exception to that, however, was the Gulf war, which was followed by recession. Even so, say some extreme imperialists, if Saddam 13 The Economist, Nov. 28th, 2002. Ressourcen 101 Hussein is ousted, then America will be able to turn Iraq into its own private pumping-station. Private or not, higher Iraqi output would mean that oil prices would drop for a while and America's economy (along with other oil-consumers') would benefit. Larry Lindsey, a top economic adviser to President George Bush, made precisely this argument recently: “When there is a regime change in Iraq, you could add 3m-5m barrels of production to world supply...successful prosecution of the war would be good for the economy.” The snag in this rosy plan is the dilapidated state of Iraq's petroleum infrastructure: oilmen say it would take 5-10 years for Iraqi output to reach such unprecedented levels (even assuming a post-Saddam Iraq would actually want to flood the world market with oil). Mr Lindsey offered an even more cheerful forecast: he estimated that even a prolonged war would not cost more than $100 billion-200 billion, or about 1-2% of America's GDP. What's the worry, then? Hang on a minute, says Mr Nordhaus, who argues in the latest New York Review of Books that none of the recent analyses of war goes far enough. In general terms, he agrees with their estimates for the direct military costs for the various scenarios. But he insists they underestimate the long-term costs to America from an Iraqi war. He points to the high costs likely to be incurred after a military victory is secured: eg, in peacekeeping, reconstruction and nation-building. Mr Bush has openly committed America to rebuilding Iraq after ousting Mr Hussein. By examining international experience in post-war Kosovo, East Timor, Haiti and other recent cases, Mr Nordhaus estimates that such non-military costs could reach $600 billion if a liberated Iraq turns out to be more like the West Bank than Kosovo. He also worries that an Arab boycott or some other political factor could keep a significant share of OPEC oil off the market for many months. And that, of course, would mean higher oil prices, higher inflation, lost economic output, and so on. All told, Mr Nordhaus thinks that even an Iraqi invasion that went well would probably cost about $120 billion in today's money over the next decade—and one that went horribly wrong could end up costing a whopping $1.6 trillion. The estimators differ in the purpose, methodology and sophistication of their analysis. But, taken together, recent prognoses point to one conclusion: even a short war will prove fairly costly, while a messy one could deal the economy a severe blow. Mr Bush has often stressed the possible price—in terms of national security— of not going to war against Saddam Hussein. These studies suggest that he should start preparing Americans for the economic costs of going to war as well. 4 Energy price volatility (based on IEA) There is an increasing concern about price volatility in energy markets, particularly oil markets, and this paper is to address the following key questions relevant to policy makers: - How is volatility of energy prices measured and how has it been evolved? - What are the underlying reasons for the current pronounced levels of volatility? - What are the possible economic impacts of volatility, notably with respect to the industry’s investment and economic activity? - What are the mid-term prospects for price volatility? One of the most common indicator of price volatility is to measure dispersion of daily price changes over a certain period. The analysis of daily Brent price in this paper indicates that oil prices have been more volatile during the last several years. This change in oil price movement can be attributed to a change in OPEC’s production policy. However, a number of other Ressourcen 102 factors such as the decline in spare crude oil production capacity in the oil producing countries, and lower level of desired inventories and rapid decline in surplus capacity in the global refining industry also enhanced this transformation to a period of more volatility. The resulting tightly balanced market has become more sensitive to actual or threatened supply disruptions, and swings in demand are increasingly met by price changes rather than delivery from storage. Liberalization of trading markets and development of transaction tools such as derivatives and information technology seem to intensify volatility. Increasing volatility is not specific to oil markets. Natural gas and electricity markets also show the increasing trend in volatility over the last two years, which, like the oil market, can be attributed to the decline in spare capacity. While the progress of market reforms improved the quality of service and efficiency of the industry, subsequent mounting competition might have reduced return on capital and discouraged incentives of the industry to invest on supply and transport capacity. Since changes in prices affect market variable such as production and inventories, sharp and unpredictable swings in energy prices complicate economic management and lead to ineffective policy and inefficient allocation of capital. The level of prices is the key determinant of investments, although the degree of price volatility has a significant impact. Our regression analysis implies that an increase in oil price volatility is associated with a decline in investments by the oil industry, and that there is a positive correlation between investment and price changes, confirming the intuitive hypothesis that investment rises with price levels. Similarly, in the current competitive electricity markets, price volatility can hinder decisions of market participants to build, buy, sell, or retire power plants and transmission facilities. Whatever the adverse effects of oil price volatility, it seems that oil prices will remain highly volatile in the foreseeable future, given the growing dependence on oil imports from Middle East OPEC producers. Unless significant amount of surplus capacity in crude oil production and refining emerges, markets will remain sensitive to actual or feared disruptions. Similarly, electricity and gas prices will remain volatile, unless market reforms under progress are more carefully redesigned. Price stability does not mean fixed prices. A certain price variation is inevitable. However, increasingly volatile energy markets can distort the mid- and long-term development path of the industry and even countries’ economy as a whole. The “mutually reinforcing volatility effects,” where reduced investment is partly responsible for the current volatile price regime and at the same time, is partly the result of volatility, highlight the energy security in today’s context. 4.1 Introduction 1. Oil prices have been more volatile during the last several years than at any time in this century, and concerns about the increase in price volatility rest on an unarguable fact, as was cited at IEA’s Ministerial Meeting of May, 2001: “We recognize the need for less volatility in oil prices in the interest of global economic growth.” Until the oil price collapse in the mid1980’s, the major movements of oil prices were increases in the price level. Since then, a pat- Ressourcen 103 tern of large price increases and decreases is reflected in a substantial rise in the volatility of oil prices. This change in oil price movement can be attributed partly to the fact that OPEC changed from setting the price and letting production fluctuate to setting production quotas and letting the price fluctuate. However, a number of other changes also enhanced this transformation to a period of more volatility. In addition, volatility is not specific to oil markets, and it is increasingly recognized by Ministers that volatility is becoming phenomenon in gas and electricity markets. 2. The volatility of energy prices introduces additional costs for supply and presents many challenges for producers, consumers, and companies in the industry, and policymakers everywhere. Sharp, unpredictable swings in oil prices complicate economic management and lead to ineffective policy and inefficient allocation of capital. 3. Given this context, this paper is to address the following key questions with respect to price volatility of energy markets, particularly the oil market: How is volatility of energy prices measured and how has it been evolved? What are the underlying reasons for the current pronounced levels of volatility? What are the possible economic impacts of volatility, notably with respect to the industry’s investment and economic activity? What are the mid-term prospects for price volatility? 4.2 Is Volatility Increasing ? 4.2.1 Measuring Volatility 4. Volatility is a measurement of change in price over a given period. Markets are never free from the concept of volatility. In fact, price changes are an integral part of an open market economy, and market participants are advised that volatility is their friend. However, it is no wonder that many market participants have troubles to understand what volatility really means and how it affect their behavior. Thus, the first thing that one thinks about when trying to evaluate volatility is that the standard concept should be used. 5. The standard definition for volatility is the standard deviation of return/price.14 The volatility of return of a mutual fund might be estimated from the fund’s returns over the last100 trading days. Standard deviation of a stock price measures how closing prices of the stock are dispersed from its average. 20 days, which represents about a month, is a popular 14 The standard deviation measures how widely actual values are dispersed from the average. The larger the difference between the actual value from the average value, the higher the standard deviation will be and thehigher volatility. Ressourcen 104 number of periods to use. Instead of the simple average, an n-period simple moving average or n-period exponential moving average can also be used to derive the standard deviation. Since standard deviation of prices/returns is a statistical term that provides a good indication of volatility, this method is widely used in the financial market. 6. If a person is looking for a very simple way to measure volatility, the standard deviation of the closing prices will work well enough. However, use of the standard deviation assumes that there is a normal distribution. If prices were normally distributed, the implication would be that there could be negative prices. This we know is impossible. Therefore, we can take the standard deviation of the logarithmic price changes (the percentage changes in prices) measured at regular intervals of time. An easy way to calculate volatility is simply to take the standard deviation of LOG (Pt/Pt-1) over certain periods, where “P” is the price and “t” is the time. 7. Based on conversation with experts and some literatures on price volatility, this paper takes as volatility the standard deviation of the logarithmic changes in the daily prices of oil and other energy products. 4.2.2 Evolution of Oil Price Volatility 8. The oil is currently experiencing two kinds of volatility: major price movements over prolonged periods such as from one month or one year to the next (medium and long-term volatility) and fluctuations in prices over shorter periods such as one week or one day (shortterm volatility). Ressourcen 105 9. Figure 1 above, which shows the evolution of the monthly average price of daily Brent for the last twelve years, illustrates how prices have tended to become more volatile over the medium and long-term since the mid-1990s. With the exception of a period of a few months when the Brent price spiked at over $35/b in the run-up to the Gulf War in 1991, crude prices fluctuated between a historically narrow range of $13-22/b between 1987 and 1995. Since 1996, prices have tended to fluctuate much more on a monthly and annual basis. Between October 1997 and February 1999, oil prices fell from 23 $/b to as low as 10 $/b. Prices started to increase in March 1999, reaching 30$/b at the beginning of 2000. The main reasons for the price slump were an OPEC decision (in October 1997) to increase its production quotas, the Asian financial crisis and warm winters in 1997 and 1998. OPEC production cutbacks in March 1999, together with economic recovery in Asia and strong economic activity elsewhere in the world, led to sharply higher prices in 1999 and 2000. In 2001, as the US economy slows down, there has been downward pressure on the price. Although the terrorist attack on September 11 temporarily increased the price level, the price declined below the lower end of OPEC’s target range under the uncertainty surrounding subsequent tension around the globe and its impact on the world economy. 10. Analysis of short-term price movements shows that oil prices have become more volatile on a daily and weekly basis since the Gulf War and particularly 1998. In order to measure trends in the volatility of daily Brent prices, we looked at the standard deviation of daily price changes in each month.15 Figure 2 displays the results of this exercise. Daily price fluctuations reached record levels in 1998 and have remained at historically pronounced level since. A large swing of prices immediately after the terrorist attack was observed, and there is an increasing concern of more volatility arising from the consequences of military actions taken by the United States and its allies in the South/Central Asia. An analysis of weekly price movements yielded very similar results. 11. It is sometimes confused that the higher volatility is always associated with the higher price level. However, volatility can be high even during the low price period and vice versa. For example, in mid- to late 1998 when its price level was as low as 10$/b, volatility of dated Brent prices reached the historical highs. On the other hand, in early to mid-2000 when the price has been in the range of 27 to 30$/b level, volatility was relatively low, compared to the trend after the Gulf war. 15 It should be noted that, for simplicity, nominal prices were used and that no adjustments (seasonal adjustment, annualization, etc.) were made. Annualization, if implemented, would yield the similar results. Also, terms of trade (spot trading vs. long-term contract) are not considered. In case of long-term contract, volatility may increase as the expiration date approaches. Ressourcen 106 12. How then does oil price volatility compare with those of other energy products as well as non-energy commodities? Is increasing volatility specific to oil prices? 13. As Figure 3 and 4 show, daily spot gas prices at the Henry Hub and the Victoria Electricity Market over the last two years also show the increasing trend of volatility. Although we need to be aware that volatility in these sport markets could be generally higher than in forward markets (such as dated Brent), it should be underlined that, among three energy markets, volatility is highest in the electricity market, followed by gas, and lowest in the oil market, which is also confirmed by another study. Why we see this order of volatility is closely related to factors contributing to the increasing volatility, and will be discussed later. Ressourcen 107 14. When compared with other non-oil commodities (aluminum, copper, lead, nickel, tin, zinc, gold, silver, and wheat), it was found that prices of crude oils (WTI and Brent) are in the upper range of volatility over the 1985-1994 period, though they are not outside of the bounds Ressourcen 108 set by other commodities.16 (This study did NOT discuss if volatility of those commodity prices is increasing or not.) 15. The financial markets have also been experiencing the increasing volatility, as are observed in S&P and NASDAQ indices (see Figure 5 and 6).17 16 A. Plourde and G.C. Watkins, “Crude Oil Prices between 1985 and 1994: How Volatile in Relation to Other Commodities,” Resource and Energy Economics 20 (1998). The study looked at three dimensions of volatility including the dispersion of monthly rate of price changes. 17 In the financial markets, traders often look at the Bollinger Band of concerned stocks and bonds. The “band” is calculated by taking the moving average of prices for a given period and adding to or subtracting from this average the specified number of standard deviations for the same period. This band is useful for determining if current prices are behaving normally or breaking out in a new direction. Ressourcen 4.3 109 Roots of Volatility 4.3.1 General Discussions 16. It is widely perceived that, in general, liberalization of trading markets and development of transaction tools such as derivatives and IT intensify volatility. There are more and more people intervening markets at the same time, and reforms of financial and commodity markets and development of IT enable those increasing number of markets’ participants to make transactions not only across commodities/stocks within the concerned market, but also across several markets, with greater mobility. The subsequent increasing transactions in turn cause additional volatility. Thus, price fluctuation and volatility are an integral part of open and market-based economies. 17. Prices change in response to news which influences market participants’ views on if it is the time to buy or sell. The development of IT increases the accessibility to the relevant information, on one hand, and intensifies the reaction of the markets’ participants to such news, on the other. However, whether the quality of news is improved due to the development of IT is not certain. The exact state of the supply-demand balance which drives price changes is generally unknown, anyway. 18. In the tight markets, price needs to swing more than in normal markets in order to balance demand and supply. Figure 7 illustrates this price effect of inelastic supply and demand. In California, it is suspected that constraints on electricity transportation generated very inelastic markets and led to increases in both price level and volatility. Power companies were forced Ressourcen 110 to be heavily dependent on the very volatile spot market because of insufficient capacity and because of restriction on long-term contracts imposed by the authority, and after all, they failed to manage volatility. 19. The dynamics of future markets is also behind volatility. When the term price structure is in contango and if the positive price differentials between successive contract months is sufficiently large, there is an economic incentive to build up stocks. Since piling up stocks is usually considered to indicate that products are overproduced, there is a vicious circle where lower prices encourage further stock build which lead to a further price fall. Similarly, when the price structure is in backwardation, the incentive is to draw from stocks, sending a signal of underproduction which pushes up prices.18 20. In fact, many roots of volatility can be listed: economic factors such as production/consumption balance and transportation costs; political factors such as market regulation, cartels, taxes, and environmental regulation; geographical factors such as shipping availability, weather, and seasonality; and comparative factors such as quality of commodities, market preference and existence of alternative commodities. 4.3.2 Factors Contributing to Increasing Oil Price Volatility 21. Among those factors, we can identify several factors specific to the recent increase in volatility of the oil prices. The principal cause of price volatility in the mid- and long-term is the production policies of OPEC. The uneven distribution of world oil resources and inelastic 18 R. Mabro, “Does Oil Price Volatility Matter?” Oxford Institute for Energy Studies Monthly Comment (June 2001) Ressourcen 111 demand gives a small number of states the potential to influence oil prices. Speculation over future OPEC production policies has also added to the volatility of prices in the short term. OPEC has used production quotas since 1983 as a way of managing the market, but has not always been successful in defending targeted price levels because of lack of discipline by some member states in abiding by quota and due to miscalculations by OPEC over the call on its production. In the early half of the 1990s, OPEC was reasonably successful in adjusting production to match shifts in demand (taking account of non-OPEC production trends). The cartel was much less successful in defending prices in 1997-1998 for the reasons cited above, but was eventually able to drive prices sharply higher in 1999 and 2000 through production cutbacks amid rising global oil demand. The extent of the initial collapse in prices gave a strong incentive to producers to defend rigorously higher prices in 2000 to compensate for the earlier loss of revenues. 22. Short (and long)-term oil price volatility has tended to increase for a number of other reasons. The decline in spare crude oil production capacity in the oil producing countries is a key factor. In particular after the Gulf War (1990/1991), the size of OPEC surplus capacity (which has always been largely concentrated in Saudi Arabia and a small number of other Gulf countries) has declined significantly (see Figure 8). Historically, virtually all non-OPEC producers produce at near capacity. As increasing demand has eroded excess production capacity, the resulting tightly balanced market has become more sensitive to actual or threatened supply disruptions. Downstream companies have been exposed to a fierce competition and they committed to reducing operating costs and investment. Subsequent lower level of desired inventories, rapid decline in surplus capacity in the global refining industry as well as limited surplus in tanker utilization rates are adding to increasing volatility (see Figure 9 for increasing capacity utilization rate of refinery industry of OECD countries). Ressourcen 112 23. As a result, swings in demand, even predictable seasonal swings, are increasingly met by price changes rather than delivery from storage in the increasingly inelastic markets.19 This 19 M. Lynch, “Oil Prices Enter New Era,” Oil and Gas Journal (February 12, 2001) Ressourcen 113 means that prices are likely to be downwardly volatile as well as upwardly. Uncertainty over the availability of Iraqi crude oil production in recent years has exacerbated the perceived tightening of crude oil supplies. 24. Crude oils can not be used in most applications until it is converted into oil products, and refineries must match the heterogeneous mix of crude qualities with a variable slate of oil products needed in a particular region at a particular time. Given this fragmented nature of oil products, the recent increase in the stringency of environmental regulations and product quality requirement has contributed to increasing short-term price volatility. New environmental standards, such as RFG II in the United States and new diesel specifications in Europe, have tended to result in more highly fragmented oil product markets and a greater potential for localized, short-lived supply problems. 25. Also, insufficient data on oil supply and demand plays an important role in increasing market uncertainty and, therefore, price volatility. In particular, inaccurate data on oil supply, partly the result of the OPEC production quota system, as well as increasing time-lags in the release of demand data in many countries, have reduced the integrity of the data essential for the proper functioning of the oil market, despite the development of IT. 26. The success of OPEC in achieving and maintaining higher prices in early 2001 may also be contributing to increased short-term price volatility through the effects on stocking behavior. Futures and forward crude oil and products markets have in recent months been in backwardation: prices are higher for prompt supply than for oil supplied later. This encourages refiners to minimize their crude oil inventories, and discourages crude processing since they are punished for hedging forward. This in turn makes markets even more vulnerable to unexpected events and increases short-term price volatility. The opposite effect, the contango vertex dominated in 1998 and added significantly to the price decline. 4.3.3 Volatility in Gas and Electricity Markets 27. By nature, most electricity systems lack storage for all practical purposes, and the electricity markets experiences pronounced volatility due to the need for continuous balancing of demand and supply. Volatility in the electricity market is rooted in hourly, daily, and seasonal uncertainty associated with fundamental market drivers and the physics of generation and delivery of electricity. 28. Like the oil market, increasing volatility electricity markets can be attributed partly to the decline in spare capacity (see Figure 10). While the progress of market reforms improved the quality of service and efficiency of the industry, the increasing number of market participants and subsequent mounting competition might have reduced return on capital, thereby discouraging incentives of the industry to invest on supply and transport capacity for the future. In other words, as a side effect of market reforms, suppliers tended to seek immediate return on investments and reduced their supply cushion. Stricter environmental regulations make it more difficult and costly to build power stations and transmission lines. This limited capacity of supply and distribution of electricity can help not only push up their peak prices but also increase price volatility. Ressourcen 114 Source: IEA Secretariat 29. Certainly the tightened supply-demand balance has contributed the increasing volatility as well as price hikes in the US natural gas markets, too. The booming economy in the past decade has helped boost energy demand and natural gas became the first choice for environmental and economic reasons, especially in the power sector, but there has been the lack of supply cushions and limited pipeline capacity.20 It is also pointed out that speculative transactions might have led to overreaction of natural gas prices to this limited supply flexibility, as is in the oil market. 30. Why are natural gas and electricity more volatile than oil? One reason is lack of supply cushions that can absorb fluctuations in supply demand balance. In the oil markets, a wide range of options are still available from oil stocks held by private firms, strategic oil stocks, and petroleum products imports, although the availability of such options has been decreasing as we discussed above. Natural gas has more limited storage than oil, and electricity, by its nature, can not be stored. Therefore, demand of both natural gas and electricity is immediately affected by temperature, and can swing largely even in every second, while oil demand, which is also responding to the weather condition, is fairly constant in a relative term. Natural gas and electricity have strong grid constraints, and routes/methods of transportation is more limited. As a result, imbalances of supply and demand come immediately for electricity, rapidly for natural gas, and quite slowly for oil, and this explains the order of price volatility among three energy markets. 20 Ken Koyama, “Recent Price Spikes and Volatility in the US Energy Market,” Institute of Energy Economics, Japan (2001) Ressourcen 115 4.3.4 Does Price Volatility Really Matter ? 31. Price change is the mechanism to adjust imbalance between supply and demand, and volatility is the nature of market. In turn, changes in prices, namely volatility, can affect market variable such as production, inventories, and even prices. The economic theory states that markets send signals about the allocation of resources through the price mechanism. However, conditions of those “rational” markets, such as perfect information and rapid adjustment in supply and demand, do not hold in reality. The commodity traded is not only physical oil but also claims on future oil or simple price differentials. 32. Adjustment process to new market equilibrium is always accompanied by some costs, and continuous volatility can exemplify those adjustment costs. Volatility of oil and other energy prices introduces additional costs for supply and presents many challenges for producers, consumers, and companies in the industry, and policymakers everywhere. In addition, sharp, unpredictable swings in energy prices complicate economic management and lead to ineffective policy and inefficient allocation of capital. It is the uncertainty and risk generated by volatility that matters to market participants, given that most of them is basically risk averse. 4.3.5 Volatility: a Barrier to Investments 33. Volatility of oil prices, in addition to the absolute level of prices, plays a noticeable role in the level of oil industry investment. In theory, since the current level of oil prices contains little information about future oil prices during periods of high volatility, rational agents will be more reluctant to invest since the uncertainty associated with future returns is higher. This increasing uncertainty can push up risk premiums, and discourage oil companies investment. Thus, high volatility would be expected to create a barrier to investment in the oil industry. 34. In order to test this empirically, we carried out a regression analysis using standard econometric techniques, with the annual change in the amount of investment in global oil exploration and production expressed as a function of both changes in the annual aggregates of daily oil price volatility and annual changes in price levels.21 To take into account the full impact of price changes on investment decisions, we lagged the volatility and price changes by one year. 35. The results suggest that this is a robust model.22 The level of prices is the key determinant of exploration and production investments, although the degree of price volatility has a significant impact. It points to a strong inverse relationship between the investment changes and volatility, implying that an increase in volatility results in a decline in investments and viceversa, and that there is a positive correlation between investment and price changes, confirm- 21Time-series for the investment in global oil exploration and production are based on the “ The E&P Spending Survey” of Schroder-Salomon-Smith-Barney (2001). 22Diagnostic tests yielded satisfactory evidence that the results are statistically significant at a confidence level of more than 95%, that the model provides a good fit with the data and that there is no serious autocorrelation (suggesting that the relationships are not spurious). When the model was modified such that changes in investment were regressed solely against price changes and volatility, respectively, the results were not statistically significant. Ressourcen 116 ing the intuitive hypothesis that investment rises with price levels and vice-versa. The elasticity of investment change with respect to changes in volatility is -0.11, while it is 0.44 against price change. In other words, one percent increase in price level is associated with 0.44 percent increase in investment, and one percent increase in volatility is associated with 0.11 percent decline in investment, when other things such as interest rates are kept constant. Adam Sieminski, Oil Strategist of Deutsche Bank Alex. Brown, pointed out in the Wall Street Journal dated November 19, 2001, that “volatility leads to lower capital investment, because you can’t plan…volatile energy prices the past few years have deterred many companies from investing in longer-term prospects that would ultimately yield more oil and natural gas.” 36. Similarly, in the current competitive electricity markets of some countries, price volatility hinders decisions of market participants to build, buy, sell, or retire power plants and transmission facilities. Although investment decision usually depends on the net cash flows, forward markets are often lacking in the power sector and price volatility, which is higher than in oil markets, makes it much harder to estimate risk premiums needed to derive the net cash flows, thereby increasing uncertainty of investment. 37. While reduced investments, which has led to a tighter balance between oil demand and installed production capacity, is partly responsible for the current volatile price regime, it is at the same time partly the result of volatility. Bearing in mind the very capital-intensive nature of the energy industry, the mutually reinforcing volatility effects may have a significantly adverse impact on oil supply due to the increase in the rate of return demanded by the source of capital. World Energy Outlook 2000 and World Energy Outlook 2001 Insights: Assessing Today’s Supplies to Fuel Tomorrow’s Growth highlight the need for very large investments in the expansion of capacity in oil and non-oil energy markets as a major challenge for the global energy industry over the next two decades. Attracting future capital flows for this expansion will cost more in a volatile price environment. The higher cost of capital will tend to choke off investment, thus contributing to increased volatility. 4.3.6 Prospects for Energy Price Volatility 38. Whatever the adverse effects of oil price volatility, it seems likely that oil prices will remain highly volatile in the foreseeable future. The growing dependence on oil imports from Middle East OPEC producers and their increased market power suggests that oil prices will continue to fluctuate in the mid- and long-term according to changes in OPEC production policies, quota discipline and market perceptions and expectations.23 Unless significant amount of surplus capacity in crude oil production and refining emerges, markets will also remain sensitive to actual or feared disruptions in supply whether of a political or technical nature, which will most likely keep prices highly volatile in the short-term. A failure to improve oil market transparency through more reliable, timely and accurate data may exacerbate this situation. 23 World Energy Outlook 2000 projects that current 26% market share of OPEC Middle East countries in worldoil supply will increase to 32% by 2010 and 41% by 2020. Ressourcen 117 39. It seems that electricity and gas prices will also remain volatile under the progress of reforms in electricity and gas markets, unless those reforms are more carefully redesigned. Both markets have much less experience of spot trading than oil market. The increasing competition and declining capacity margins, together with premature spot markets where trade volume is small and risk premiums are difficult to identify, may keep the markets less flexible to adjust imbalances between supply and demand through the quantity adjustment mechanism and prices more volatile. 40. Sharply fluctuating oil prices could have severe effects on the energy investments in developing countries and therefore, their future economic growth. The share of energy investment in total investment in developing countries is in general much higher than in OECD countries. For example, energy accounts for 26% of total investment in China and 19% in India, compared to only 10% in Japan and in the United Kingdom, respectively.24 Much of this energy investment is in oil refining and distribution, and power generation. World Energy Outlook 2000 estimates that the required future annual investment only for the power generation sector over the next twenty years is $26 billion for China and $10 billion for India, compared to $12 billion for OECD North America. This illustrates a huge magnitude of the task, and increasing volatility of energy prices would not only make it difficult to attract the investment but would also make it more costly. 4.4 Conclusions 41. Oil markets are unstable by nature and the instability derives both from internal and external factors to the oil market, such as weather, economic events unrelated to the oil market per se and non-oil geopolitics. Late and incomplete data and the inherent conflict between maintaining both market share and revenues are chronic features of the oil market. Some degree of price volatility is inevitable and must be accepted, since some external factors simply cannot be controlled. Producers and consumers need to recognize this fundamental volatility and to work to encourage a flexible and efficient response rather than impose rigid rules such as ban of futures trading and setting up an international organization to manage prices, volumes and buffer stocks of oils. The similar discussion is applicable to natural gas and electricity markets. 42. Although producers, consumers, and policymakers need to differentiate the impacts of volatility (short-term volatility) from those of change in price level (long-term volatility), it is not an easy and straightforward task to identify and quantify the economic impacts of increasing energy price volatility. However, our brief analysis implies that it has negative impacts on investment by the industry and on economic management of oil importing developing countries. Political impacts of price changes could be sometimes high enough to undermine eco- 24 Data is derived mainly from National Account Statistics of the countries: China Statistical Yearbook 1998, India’s National Income Statistics 1998, Japan Statistical Yearbook 1998, and United Kingdom National Accounts 2000. Ressourcen 118 nomic growth, especially in developing countries. The volatile energy markets can distort the mid- and long-term development path of the industry and even countries’ economy as a whole. The above-stated “mutually reinforcing volatility effects,” where reduced investment is partly responsible for the current volatile price regime and at the same time, is partly the result of volatility, raises a concern about the energy security as a real issue. 4.4.1 Oil 43. Better stock provision and the availability of alternative energy supplies can soften the impacts of price volatility, as have been pursued by IEA and our member countries. We can certainly work to improve market data, and better data contribute to quicker responses to evolving market conditions. The crucial question is thus how to encourage investment in the expansion of global oil production capacity, given such an uncertain pricing environment. Our analysis suggests that with increasing short-term price volatility, higher price levels than in the past may be needed to call forth the necessary investment in oil production capacity and energy infrastructure generally. This implies higher energy costs for consuming countries and adverse macroeconomic effects, especially for developing countries. 44. On the supply side, OPEC’s basket price is not transparent. Although it is a simple arithmetic average, several of the seven component crudes in the basket are not traded in open spot market. Others are sold at different prices to different regions, and nobody knows what the market prices could be. As Mr. Sehikh Ahmed Zaki Yamani, Chairman for Global Energy Studies, pointed out at IEA’s Millennium Conference on Oil Security Strategy in March 2001, 25$/b, the minimum target price within the basket by a major OPEC country, is a price set by budgetary requirements and does not reflect fundamental economic costs.25 For both producers and consumers to have regular demand growth, they need stable oil prices, and incorporating costs of debt unrelated to the oil production into oil prices seems to undermine stability of prices. 4.4.2 Gas and Electricity 45. Again, how to encourage investment on supply and transport facilities is crucial to electricity and gas markets. We can certainly work to design better and more careful energy markets reform to secure enough supply margins. The fact that volatility is a nature of markets means that the estimation of volatility can play an important role. There must be some balance among futures, spot, and long-term markets, as was indicated by the California’s experience. Volatility is a new concept, especially to power markets, and developing price forecasts equivalent to financial markets could help policymaker design those market reforms as well as power companies commit to more investment. 46. The increasing energy price volatility highlights the energy security in today’s context, and measures for stable energy prices in the global market are the urgent issues to be dis- 25 WEO2001 Insights: Assessing Today’s Supplies to Fuel Tomorrow’s Growth provides an analysis of cost of supply for oil that is around 4$/b in many Middle East OPEC countries. Ressourcen 119 cussed. Price stability does not mean fixed prices. A certain price variation is inevitable and even welcomed in some cases. What is required is a market that reflects correctly the state of the current and future balance of supply and demand and that does not discourage capitalintensive and long lead-time investment for supply. Along with further development of liberalized markets, the sanctity of contracts freely entered into, the fairness and transparency of pricing, and the breaking down of barriers to trade such as distorting tariffs, taxes and subsidies would also be desirable. This requires cooperation of all major players (IEA’s member and non-member countries with one dimension, and policymakers, producers and consumers with another dimension). In order to support this, EAD/LTO is planning to look at the priceinvestment nexus in the World Energy Outlook 2003 Insights: Global Energy Investment Outlook, starting late 2002, by analyzing impacts of energy policy and markets development on investment. 5 OPEC Policies and Oil Price Volatility Conventional economic paradigms and applied modelling from 1974 on all suggested a smooth and mostly monotonically increasing evolution of future oil prices. The several polls of Manne/Schrattenholzer show a pattern considered as typical to resource price evolutions, although the level of price forecasts itself has been lowered over time. Nonmonotonic (three out of ten) projections have been derived by the Energy Modelling Forum26 in a surveyed and comparison of ten different models of the world oil market. But none of these and other investigations predicted the likelihood and the magnitude of the price collapse observed at the beginning of 1986. This chapter attempts to reconcile price volatility within rational economic models and within a political framework. Both approaches to describe the world oil market -economics and "Realpolitik"- lead to similar conclusions. The dynamic, more precisely the sluggish, nature of the energy markets is the clue to all these findings. The lack of recognition of this difference between the short-run rigidity and the long-run flexibility has led to numerous mistakes in the energy policy of some industrialized countries, and, on the other side to overambitious development plans by some of the oil exporting countries. 5.1 Opec as a pure economic cartel We start with the traditional model of resource depletion. Assume that a monopoly, or a cartel within the resource extracting industry, attempts to maximize the present value of profits (using the discount rate r): T max e-rt(p(t) - k)x(t)dt {p(t), T}, 0 (1) The depletion date T and the price strategy {p(t)} are the decision variables of the monopolist. To concentrate on the implications of consumer dynamics and consumer expectations assume that the marginal production costs k are constant. Adelman (1989) argues that sovereign 26Energy Modelling Forum, World Oil: Summary Report, EMF Report #6, Stanford, California, (1982). Ressourcen 120 states are much closer to the economic view of cartels than any private group could ever be. The reason is that for private companies, say the large oil companies, no price policy comparable to OPEC's policy 1974 or 1980 would have been possible. The objective (1) must be maximized subject to the laws of demand and subject to the isoperimetric constraint: . X(t) = x(t), X(0) = 0, X(T) = R (2) i.e. cumulative production X(t) must equal the reserves R at the date of depletion. The evolution of demand {x(t)} results from intertemporal decisions of the consumers. The Eisner - Strotz model (1966), is here applied to describe the consumer's intertemporal choices. The consumers will solve the following control problem: T min e-rt {[f(p(t),t) - x(t)]2 + ßu2(t)} dv u 0 . x(t) = u(t), x(0) = x0, x(T) = 0 (3) (4) if they have rational expectations, i.e. they know with certainty (perfect foresight within a deterministic model) both the future oil price evolution {p(t),t[0,T]} and the depletion date T. The boundary condition x(T) = 0 arises from the supposition of a market equilibrium once the resources are depleted and rational consumers will take that into account. The function f(p,t) denotes the downward sloping (fp < 0) equilibrium demand and x(t) denotes the current demand. The objective (1) supposes that a consumer faces two quadratic costs for adjustment (u) and for deviations from the equilibrium demand; and ß are positive coefficients. This penalty approach of the Eisner - Strotz model looks ad hoc. However, this description approximates a conventional problem: maximize consumer's utility minus energy expenses and minus adjustment costs. A similar model may be defined for NONOPEC supply, except that a long run supply function replaces the demand relation. In fact, the original Eisner - Strotz model addresses supply aspects. To simplify the matter suppose that the control problem (3) and (4) describes the difference between global demand minus competitive fringe supply. Furthermore, x(t) will be called demand, or intertemporal consumer behaviour, even if we actually mean excess demand for OPEC oil. Ressourcen 121 Define the (current value) Hamiltonian (H), using y = y(t) to denote costate variable27: H = (f - x)2 + ßu2 + yu (5) Differentiate H with respect to control: Hu = 2ßu + y = 0 (6) The costate (y) must evolve according to: . y = ry + 2(f - x) (7) Now differentiate (6), i.e. the maximum principle, with respect to time and substitute the costate dynamics (7) to derive the following rule for optimal adjustment: . u = ru - (f - x)/ß (8) The differential equation (8) and the state dynamics (4) plus the two boundary conditions of consumption define a two point boundary value problem. The corresponding solution, substituting the correct price trajectory {p(t)}, describes the optimal consumption path for consumers with rational expectations. A myopic consumer substitutes at any instant of time the current price p(t) into the above optimization calculus and supposes that this price prevails forever. In particular, the myopic consumer does not foresee resource scarcity, i.e. T = . The optimal consumer policy of this control problem can be written as a linear feedback law: u(t) = [f(p(t)) - x(t)]/ (9) ________ ... time constant, = 1/{ -r/2 + r2/4 + /ß} More precisely, the consumers recalculate the optimal control problem (3) subject to (4) at any instant in time to determine their current adjustment. However, only the current decision u(t) is binding and all adjustments planned for a later date, e.g. for t + h, may be continuously modified up to the date t + h. The time constant () of the linear differential equation (9) depends on the interest rate r and the cost parameters , ß. A higher rate of discount and/or larger adjustment costs (i.e. an increase of ß) increase the time constant, i.e. the adjustment towards the equilibrium slows 27The time argument but also other arguments are suppressed to abbreviate the notation. Subscript letters denote partial derivatives, e.g. Hu = H/u. Thess conventions apply also in the sequel. For economic treatises of mathematical optimal control theory see Kamien-Schwartz (1981) and Feichtinger-Hartl (1986). Ressourcen 122 down. A stronger penalization of the deviations from ideal consumption (i.e. an increase of ) reduces the time constant, i.e. accelerates the motion to the equilibrium. A Stackelberg differential game describes the intertemporal interactions between the monopolistic supplier and competitive consumers. Hence, the leader, i.e. the resource cartel, adjoins the consumer behaviour as additional constraints to his profit maximization calculus. The supposition of myopic behaviour leads then to the following optimal control problem: T max e - rt (p(t) - k)x(t) dt {p(t),T} 0 . x(t) = [f(p,t) - x(t)]/, x(0) = x0 . X(t) = x(t), X(0) = 0, X(T) = R (1) (9) (2) The model of Pindyck (1978) implies a reduced form relation of type (9) for residual demand for OPEC oil. Hence, myopic expectations are implicitly assumed. The only essential difference of (1) - (9) - (2) compared with Pindyck (1978) is that he assumes the costs to be reciprocal to reserves. Hence, "user costs", i.e. the increase of future extraction costs due to a reduction of the reserves through the additional extraction of one barrel today, rather than scarcity determines the resource shadow price. Furthermore, Pindyck (1978) does not attempt to solve the problem analytically but relies instead on numerical calculations. Perfect foresight of the consumers implies the following control problem in order to compute the profit maximizing policy: T max e-rt (p(t) - k)x(t) dt {p(t), T}, 0 . x(t) = u(t), x(0) = x0, x(T) = 0, . u(t) = ru(t) – [f(p,t) - x(t)]/ß . X(t) = x(t), X(0) = 0, X(T) = R (1) (4) (8) (2) In order to expedite an empirical application assume further that the equilibrium demand is linear but for realism nonautonomous: f(p,t) = a + bp + ct (10) which implies for the (equilibrium) backstop price: _ _ _ p(t): f(p, t) = 0 = > p(t) = - (a + ct)/b (11) Ressourcen 123 This provides a framework applicable to empirical problems, e.g. to model OPEC's price decisions. Pindyck (1978) chooses also a linear equilibrium demand relation but considers an exponential time trend. Additionally, suppose that the set of admissable price strategies is exogenously28 constrained, p(t)[pmin(t), pmax(t)]. Examples for such restrictions are numerous and easy to envisage. For example too high prices pose the threat of public regulation, price controls or nationalization, or may induce the loss of political goodwill in the case of an international cartel. The requirement to earn a minimum cash flow in any period is an example to determine pmin. However, the quantification of these constraints for a certain commodity market and for a particular point of time is extremely difficult. Wirl (1989) provides a general and theoretical discussion of the above two nonlinear control problems. The basic result is that a modified Hotelling rule and hence a "smooth" policy applies if equilibrium demand is concave. However, a convex (equilibrium) demand implies that the optimal cartel policy is to alternate discontinuously between "high" and "low" prices. This result applies even to the case of rational expectations. This last proposition is surprising because the apparent innocuous modification from instant demand behaviour to a dynamic, albeit presumably very fast, adjustment completely changes the quality of the optimal policy. Indeed, some authors are not aware of these consequences, e.g. Pindyck (1978) mentions and Marshalla - Nesbitt (1986) report the results from constant elasticity relation of demand. This relation, however, is convex such that according to the above proposition no optimal policy exists, let alone the smooth policy shown in Marshalla Nesbitt (1986). In the end, the basic economic reason for this result is simple because the convexity of f implies: a one dollar decrease in price stimulates demand more than a one dollar price increase lowers demand. Therefore it pays off to first lower the price to raise demand and skim off the profits immediately afterwards. 5.2 A temporary and politico-economical cartel Section 2 investigated OPEC decision making under pure and extreme economic assumptions - monopoly and oligopoly - and indicated, that dynamic demand behaviour could provide an incentive for OPEC to apply a volatile price strategy. The pure economic description of Opec is in this section replaced by the following two assumptions: Assumption 1: Suppose, that Opec is not a cartel in the narrow economic sense, but a loose arrangement of also politically motivated members. More precisely, assume, that cartel arrangements, i.e. production quotas among the OPEC member countries to support a price increase of crude oil, are only sustainable if the demand for OPEC oil remains so high, that the 28Actually, the constraints could be endogenized without affecting the major conclusions. For example, the monopolist may choose the limit price pmax in order to maximize expected profits. The risk of price control increases with an excessively predatory pricing strategy pmax. Ressourcen 124 swing suppliers - particularly Saudi-Arabia - accept a reduction of their residual demand. If Saudi Arabian output falls below a certain treshhold cooperation will cease. Assumption 2: OPEC is differentiated into flexible and inflexible producers, and suppose, that the Iran/Iraq conflict is resolved in the near future and that these two countries are not willing to swing with total OPEC output due to their urgent need for foreign exchange. The above description of Opec behaviour is not limited to the conditions of Realpolitik; but the so called "Realpolitik" may itself be explained by the recent economic theory of transaction costs developed and advocated by Williamson29. The gains from cooperation are small if applied to an equilibrium relation and may not pay the costs associated with such an agreement. Hence, cooperation becomes unlikely along such an equilibrium path. However, the (ex ante) gains from cartelization, i.e. from an agreement about production quotas (to support a price increase), are substantial if current demand is not in equilibrium but 'high' and sluggish. The associated monopoly strategy requires a high price. Hence, the arrangement of cooperation will lead to a (presumably large) price increase over the price level prevailing during the previous regime of oligopolistic behaviour. However, as aggregate Opec demand and individual quotas decrease, the gains from opportunism and deceit increase. And sooner or later the contract will be breached by some members due to these ex post opportunities. Some simplifying assumptions are now introduced to quantify the consequences of this description. First suppose, that the dynamic relation (2) describes the demand for Opec oil. This empirical relation is by no means essential to the following arguments. Any model of the world oil market with more complex but dynamic features would lead to similar qualitative conclusions. Furthermore, assume, that Saudi Arabia will support a price increase if its output has surpassed a critical threshold, say 10 mb/d but will dissolve any agreement if its output falls below 5 mb/d. Again, the exact numbers are not important but only suggestive. This policy leads in both cases to an abrupt change in prices due to the low short run price elasticity. The assumptions introduced in this section imply low oil prices and that no substantial real price increase is possible until a sufficient level of demand is reached. Therefore, the prices will fluctuate - probably substantially - responding to short term agreements or disagreements among OPEC members and to political circumstances in the Middle East. Suppose, that a moderate price level is maintained in real terms during the following years. Then, according to (2) a substantial demand pressure will develop over time, which then only price hikes can stop. Hence, the discrepancy between the short-run rigidity and the long-run flexibility of demand makes it impossible to generate a smooth price profile compatible with the assumptions of this section. Furthermore, the small short-run price elasticity offers enormous short-run profits and provides the economic basis for a successful cooperation of Opec members (possibly including other important oil exporting countries) for another price hike. Again, these high prices will affect, i.e. reduce, after some time global demand for Opec oil and subsequently require a 29Williamson Oliver E., "The Modern Corporation: Origin, Evolution, Attributes", Journal of Economic Literature, 19, 1537-1568, (1981), Williamson Oliver E., The Economics of Governance: Framework and Implications, Zeitschrift für gesamte Staatswissenschaften, 140, 195-223, (1984). Ressourcen 125 reduction of the production quotas. These circumstances of high oil prices but low production quotas increase the potential profits from ex post opportunism. As a consequence prices will tumble - sooner or later - due to the continuous erosion of cartel discipline. Hence, the dynamic demand rationalizes the temporary collusion of OPEC members followed by oligopolistic competition. 5.3 Multiple Equilibria and backward bending supply functions. The issue of multiple equilibria is one that receives considerable attentio, recently in particular with respect to social interactions. In this case the major clue is a supply function that has backward-bending parts. Fig. x shows a demand and supply diagram. Demand is downward sloping, as usual, while supply is S-shaped with three intersections of which the upper (at price pH) and the lower (at price pL) are stable and the intermediate is unstable. price pH pL demand Quantity, x Fig.5.1: Multiple equilibria A better detailed and explicit analysis of such multiple equilibria and the possibility of cycling is the following based explicitly on the consideration of dynamic demand. Suppose that demand for OPEC oil, x(t) is dynamic as in subsection 1 (t denotes again the time constant and f the equilibrium demand): . x(t) = [f(p) - x(t)]/, x(0) = x0, (9) and two different kinds of OPEC behavior: 1. Competitive so that price p equals marginal costs (mc, mc’ > 0): pc = mc(x) Ressourcen 126 2. Monopolistic supply, m(x), price that maximazes intertemporaly the net present value of profits, m’ > 0. pm = m(x) The actually charged prices is a weighted average of both extremes: p(x) = m(x) + (1 – )mc(x), (10) and the weight is an increasing function of the revenues (px): (px). (11) This implies (by the implicit function theorem) a supply function s(p) for OPEC: x = s(p), s’ = 1 ' x m mc m' 1 mc' ' p m mc (12) First of all, the monopoly price prevails more or less for large revenues and thus for high demands and the competitive price is approached for little revenues and thus weak demand. The sign of the numerator is ambiguous andf if it is negative over some domain an S-shaped supply curve, as shown in the figure below, results. price Monopoly price, pm = m(x) Competitive price p = mc (marginal costs) Demand p = )mc 1– m +( p ~1986 2000 Figure 5.2 : price jumps and oscillations Quantity, x Now suppose initial demand is weak. Then the price is close to the competitive one. Since demand is below the equilibrium relation, it will increase over time. Since the backward bending part is sub-optimal, the price jumps upward once the point of infinite slope of the supply function is reached. The opposite holds for high initial demand that triggers a price close to the monopolistic solution that albeit still is gradually lowered until a ‘catastrophe’ occurs and the price falls to the lower and up-wrad sloping part of the supply function. Ressourcen 5.4 127 Price reaction function Many papers that investigate the world oil market empirically use the hypothesis that OPEC's price policy is to respond to demand pressures relative to available capacity. More precisely, this framework stipulates an increasing relation between oil price changes and capacity utilization in order to endogenize OPEC decision making: . p(t)/p(t) = g(x(t)), p(0) = p0. (13) The PRF g(.) may be an arbitrary, but sufficiently smooth and increasing function that abscissa. This formulation simplifies implicitly to a constant capacity so that demand pressure x(t) determines the rate of a price change. Gately-Kyle (1977) is, at least to my knowledge, the first work that offers this description of OPEC decision making. The US Energy Information Administration's Oil Market Simulation model, see Suranovic (1993), and models of the world oil market in Baldwin-Prosser (1988), Hogan (1989) and US are recent examples that use the price reaction function (PRF in the following). All these papers, however, omit a stability analysis although the calculations, already in Gately-Kyle (1977) and recently in Suranovic (1993), show a cyclical oil price evolution over time. Rauscher (1988a) proves the stability of the PRF for a particular class of dynamic demand relations and offers this hypothesis. 0.8 0.6 80 0.4 change of real price (rel.) 79 0.2 81 0 85 76 87 84 82 83 77 75 78 -0.2 88 -0.4 86 -0.6 -0.8 0.40 0.50 0.60 0.70 0.80 0.90 1.00 1.10 capacity utilization Fig. 5.3: Price reaction function Fig. 5.3 shows empirical realizations of the price reaction function and two stylized representations of the PRF. All the above quoted works use a globally convex relation, similar to the convex curve shown. The calculations here use the S-shaped description so that there exist two regions where prices change dramatically. This S-shaped description provides presumably a better explanation of the 1986 collapse of crude oil prices. Ressourcen 128 This system of the price reaction function can be combined with the demand framework of the previous sections, either myopic: . x(t) = [f(p) - x(t)]/, x(0) = x0, (9’) yielding the result: Proposition 1: The equilibrium of the two simultaneous differential equations (9) and (13), which describes the intertemporal adjustment of myopic consumers, is stable. However, complex eigenvalues e12, e12 1 1 pg ' f ' 2 2 4 are possible. Therefore, prices may oscillate transiently. A similar result holds for rational expectations of consumers, which, however, dampens oscillations and speed up convergence, as highlighted in an example in the figure below. 35 30 myopic expectations 25 20 $/b rational 15 86 10 87 88 5 0 0 10 20 30 40 50 60 Time Fig. 5.4: Effects of expectations on convergence within a price reaction framework (Wirl (1993)) 5.5 Summing up This section introduced different approaches to model Opec decision making to project and to analyze the evolution of crude oil prices. The comparison of an oligopolistic and monopolistic Organization of Petroleum Exporting Countries indicated that the current market situation tends to reflect an oligopolistic market. The prices prevailing during the first half of the eighties were roughly in line with an optimal cartel strategy. But the difference in profits calculated from a standard static framework are too small to explain the successful cooperation of Opec in the recent past. The sluggish nature of the energy demand relations offers - at least temporarily - large profits and suggests a volatile oil price strategy. Such a dynamic relation may lead to an optimal cartel policy which alternates between 'high' and 'low' oil prices or equiva- Ressourcen 129 lently between a penetration and a skimming policy. Since only high prices require a formal cooperation, Opec as an economic cartel may be a reoccurring but probably shortlived phenomenon. The same conclusion is derived within the political framework that cartel arrangements are only sustainable if the demand for Opec oil, in particular if the production level of the swing or residual suppliers is sufficiently high. A scheme of low production quotas but high prices is not sustainable because the potential gains from opportunistic behaviour are large. world oil prices are expected to remain low for some time until the nineties when a sufficient demand momentum will be triggered and another discontinuous adjustment is expected. But opportunism of Opec members will limit the duration of cooperation and the high prices will weaken subsequently. The above conclusions are valid only with certain caveats. Some energy experts argue that past empirical energy price elasticities are not suitable for projection making. More precisely, it is arguable, that demand will not respond to the reduction in energy costs, because past R&D and more efficient equipment will continue to determine energy demand patterns. Actually, this point is not essential to the quality of the argument, but only for the quantitative assessment of the date of another oil price hike. More precisely, the hypothesis of lesser price sensitivity during the periods of low energy prices will reduce the growth of energy demand and will hence delay the date of the next oil price hike, for example to the mid of the nineties or even later. This implies a somehow inverse Robinson-Amoroso relation: the smaller the (absolute) price elasticity the longer the duration of the low oil price regime. More important is the fact, that the analysis did not include the actions on behalf of governments and traders. Appropriate policies of both may reduce future price volatility. However, the experience, in particular the handling of strategic oil inventories, shows that the past energy policy of consuming countries has probably increased rather than reduced the volatility of world oil prices. 6 Erneuerbare Ressourcen Die nichterneuerbaren Ressourcen sind charakterisiert durch die dynamische Beziehung für das Reservoir: Rt = Rt-1 - qt oder in kontinuierlicher Zeit dR . R(t ) q(t ) dt Jedoch für biologische Ressourcen: Fisch, Wald etc. gibt es eine (Netto) Wachstumsfunktion h, die von der Population (R) abhängt: h (R). Damit ergeben sich folgende Modifikationen der obigen dynamischen Beziehungen: Rt = h(Rt-1) - qt oder in kontinuierlicher Zeit Ressourcen 130 . R (t) = h(R(t)) - q(t) Für geringere Populationen R < R0 stirbt die Biomasse aufgrund zu geringer Dichte für Vermehrung aus. Jenseits von R0 ist ein starkes Wachstum aufgrund eines Futterüberschusses feststellbar. Jedoch jenseits von Rmax fällt dieses Wachstum wiederum, etwa aufgrund von Futtermangel oder anderen Auswirkungen einer Übervölkerung. Abb. 6.1: Biologische Wachstumsfunktion h(R) Die minimale Population zur Vermehrung (und damit zur Erhaltung) R0 wird oft mit treshhold bezeichnet. Unter dieser Dichte ist die Wahrscheinlichkeit einer Paarung zu gering, um die natürliche Todesrate zu kompensieren. Die Population Rmax beschreibt jene Population, wo das maximale Nettowachstum erreicht wird. Dieser Populationsstand ermöglicht langfristig die größten Ernten q = Rmax, da bei dieser Ernte (Fangrate) die Population unverändert bleibt. Genauer: die langfristig maximal haltbare Fangrate errechnet man aus dem stationären Zustand: . R = -q + h(R) = 0 daher q = h(R) und das Maximum über q erhält man aus h'(R) = 0 Ressourcen 131 so dass: qmax = h(Rmax) Diese statische Überlegung gilt jedoch nicht für eine intertemporale Optimierung. Dabei wird das langfristige q optimalerweise so gewählt, dass h' = r. Aus dieser "Ungeduld" resultiert eine geringere stationäre Population R* und daher eine auch geringere Fangrate als ideal bei statischer Betrachtung erscheint. Im Gegensatz zu den Realitäten der Förderung der fossilen Energieträger oder von Metall, fehlt im Falle der Hochseefischerei das entsprechende Eigentumsrecht, so dass im Falle einer positiven Rente neue Fischereiunternehmen angezogen werden und es zu einem "Überfischen" kommen kann. Dies wurde als "common pool problem" bereits bei nicht erneuerbaren Ressourcen angedeutet. Umwelt 132 7 Umwelt 7.1 Ein einfaches Modell zu externen Effekten Wir betrachten eine Ökonomie, die entlang eines Flußlaufes zwei Industrien installiert hat; am Fluß-Oberlauf eine Stahlfabrik und am Fluß-Unterlauf eine Fischerei. Der Output der Stahlfabrik ist abhängig vom Input an Arbeitskräften und beschrieben durch eine Produktionsfunktion s = f(ls) s ... Output an Stahl ls .. Input an Arbeit in der Stahlfabrik f ... Produktionsfunktion: f'>0, f'' ≤ 0. Jedoch involviert die Produktion von Stahl eine Verschmutzung: h(s) h' > 0, h'' > 0 die in den Fluß abgeleitet wird. Am Fluß-Unterlauf produziert die Fischereiindustrie den Output c - abhängig von Input Arbeitskräfte lc und vom Grad der Wasserverschmutzung: c = g(lc,h) Weiter seien die Preise p ... der Stahlpreis q ... der Fischpreis w ... die Lohnrate vorgegeben, d. h. die bekannten Firmen sind klein - verglichen zur gesamten Marktgröße. Ohne institutionelle Vereinbarungen versucht jede Branche ihren Profit zu maximieren, also Stahlfabrik: pf(ls) - wls ... ->. max. Fischerei: qg(lc, h) - wlc .-> max. Das führt zu den bekannten Bedingungen, daß das Grenzprodukt gleich den Kosten bzw. die Grenzkosten der Erzeugung gleich dem Preis sind: pf' = w oder p = w/f' Umwelt 133 g(lc,h (s*)) q -------------- = w lc wobei s* der optimale Output der Stahlfabrik ist. Es ist offensichtlich, daß diese Situation sozial nicht effizient ist. Der Output der Stahlfabrik hat einen negativen Effekt auf die Fischerei, jedoch dieser Effekt wird von den Stahlerzeugern ignoriert. Als Ergebnis erhält man, daß zuviel Stahl produziert wird. Berechnen wir das soziale Optimum für die gesamte Ökonomie: max pf (ls) + qg(lc, h (f(ls)) - w(ls + lc) Die Bedingungen erster Ordnung liefern: g h p f' + q ---- f`- w = 0 h s g q ── - w = 0 lc Die Bedingung für die Stahlfabrik kann umgeschrieben werden in g p + q -- │ f' = w s so daß der negative Effekt der Stahlfabrik vom Stahlpreis abgezogen werden muß. Dieses Beispiel zeigt, daß Profitmaximieren individuell preisnehmender Firmen nicht notwendiger Weise zu einer effizienten Allokation der Ressourcen führt. Wie kann dieses Fehlverhalten des Marktes korrigiert werden? a) Steuern und Subventionen: Die Idee dabei ist, daß die Stahlfabrik nur den falschen Preis für ihr Produkt erlöst; denn der sozial gerechtfertigte Preis ist nicht p, sondern der Preis in der Klammer. Dies könnte durch eine Steuer im Ausmaß g (lc*, h (s*)) = q ---------------s erzielt werden. Umwelt 134 Die Schwierigkeit dabei ist das Festlegen des Steuersatzes , da die öffentlichen Behörden zur Berechnung von technologische Informationen hinsichtlich der Stahlerzeugung als auch der Fischzucht im großen Detail zur Verfügung stellen muß. b) Fehlende Märkte: Der obige Fehler individueller Ressource-allokation resultiert daraus, daß es keinen Markt für Verschmutzung gibt. Erweitern wir die Analyse dahingehend, daß die Stahlfabrik eigentlich 2 Outputs hat: Stahl und Verschmutzung, wäre ein entsprechender Preis für die Verschmutzung gegeben. Dann würde die Stahlfabrik automatisch den richtigen Output produzieren. Was wäre nun dieser Gleichgewichtspreis für die Verschmutzung? Klarerweise wäre die Fischerei für eine kleine Verringerung der Verschmutzung maximal soviel bereit zu zahlen als der Profit dadurch verbessert werden kann. Vom Standpunkt der Fischerei ist die Verschmutzung exogen vorgegeben. Betrachten wir nun die Variation in den Nettoerträgen der Fischerei abhängig von der Verschmutzung [q g (lc, h) - w lc] h dann erhalten wir aufgrund des Envelopentheorems g r: = q -h so daß r der Preis für die Verschmutzung (r < 0) ist. Angenommen, die Stahlfabrik müßte dafür aufkommen, also versucht p f (ls) + r h (f (ls)) - w ls zu maximieren, dann führt dies nach einsetzen von r auf das soziale Optimum. c) Integration: die Stahlfabrik soll die Fischerei, oder umgekehrt, aufkaufen. 7.2 Energy taxes – some critical remarks The purpose of this paper is to draw attention to certain fallacies to which proponents of energy and environmental taxes seem to be prone. The paper does not attempt to weigh the pros and cons but is restricted to a critique because the pros are covered in wide body of the literature; von Weizsäcker (1990), Robertson (1990), Pearce and Turner (1990) and Pearce (1991) are recent summaries of these well known arguments. This often uncritical and enthusiastic support of energy taxes (based on Pigouvian motives) provokes this critique. However, this does not imply that the author opposes any kind of a pollution tax, rather the contrary: I agree by and large with the normative arguments, in particular that taxes are superior to standards, but politics and strategic behavior require proper constraints. Umwelt 135 Taxation of commodities may serve two quite different purposes: 1. To raise revenues to finance public goods, e.g. lighthouses, national defense, security. 2. To internalize external factors and thereby to alter the behavior of firms and individuals. The traditional purpose of a tax system is to raise revenues in order to finance public goods and other tasks performed by the state. These necessary revenues may be raised via income taxes (the dominant procedure in industrialized countries), or commodity taxes or a combination of both; developing countries focus on a specific variant of commodity taxes, namely, import tariffs. The classical treatment of commodity taxes is Ramsey (1927); Auerbach (1985), Mirrlees (1986) and Stiglitz (1987) are some recent surveys on taxation. The second objective of taxes is to influence the behavior of people and not to raise revenues. This second justification of taxation dates back to Pigou's (1920) seminal treatise of welfare economics. Pigou argues that external 'goods' or 'bads', have to be internalized in final goods' prices in order to achieve an efficient allocation. Therefore, externalities justify government intervention within a market economy in addition to the provision of public goods. These propositions of Pigou provide the foundation for the economists' proposals concerning environmental policy making; this literature favours by and large taxes over other instruments (like standards). However, Pigou's propositions are not uncontested. In particular, Coase (1960) and Buchanan and Tullock (1962) argue that a rearrangement of property rights (bargaining) leads to efficiency, which can be achieved by voluntary actions because internalization results in net gains. Therefore, state intervention is not justified in general, but only if the transaction costs prevent bargaining. Moreover, Pigou's proposals to 'internalize the external costs' may be inefficient even if bargaining is impossible (because they are one-sided) and anyway naive, because of the presumption that 'benevolent' dictators levy the tax. Politicians relied until recently on non-market, command oriented instruments, like pollution standards, despite the economists' criticism of standards (except for some special cases, see Baumol-Oates (1975)) and their support of pollution taxes. However today, many politicians seem to give in and argue along the lines of Pigou and the later following environmental economics literature in order to justify these new taxes as efficient instruments to combat pollution. This support seems independent of ideology, e.g. the Conservative parties in Austria and in the U.K., the Republicans in the U.S., the Greens almost everywhere, the Social Democrats in the F.R.G. and Sweden support pollution taxes. It is interesting to observe that the real threat of pollutants (like sulphur dioxide, nitrogen oxide, particulates etc.) could not move the discussion towards taxation while the much more conjectural and elusive threat due to global warming triggered an international round of tax proposals culminating in an EC proposal about tax harmonization. The EC considered to introduce a tax of 10$ per barrel of crude oil equivalent (by 2000, starting with 3$ in 1993) that consists of an energy and of a carbon component, each accounting for 50%. These plans were suspended around the Earth Summit in Rio de Janeiro, June 1993, when the other industrialized regions refused to introduce similar taxes, so that European ministers feared for their energy intensive industries. The taxation of fossil energy carriers is the cornerstone in these otherwise (across countries) differing policy proposals. The taxation of energy seems justified by the vast externalities that Umwelt 136 are associated with the burning of fossil fuels. Energy consumption is almost entirely responsible for acid rain and contributes largely to the greenhouse effect through the emissions of CO2 and methane (from natural gas and coal production). Furthermore, an energy tax is easy to administer and the low price elasticities, see e.g. EMF (1981), guarantee stable and sizable revenues. This paper provides a non-formal discussion; however, most of the findings can be made rigorous. First, we show that the 'polluter pays principle' may lead to inefficiency. This draws heavily on the widely quoted paper of Coase (1960). Unfortunately, these quotations are normally largely restricted to the Coase Theorem - private and social costs coincide in a world of negligible transaction irrespective of the initial property rights - but omit the point that Pigou's proposal may be inefficient even if large transaction costs exclude the bargaining solution. Then we explore the prospects for pollution taxes to substitute for income taxes. This discussion falls into three groups: OPEC may retaliate; rent seeking activities and Leviathan governments exploit sentiments of Pigouvian taxes to collect revenues; the potential volatility of taxes that should raise a fixed amount of revenues. Finally, we argue that the conservation impact from energy taxes remains small, in particular, if these taxes are set at the actually proposed rates, i.e., if final energy prices remain too low. A summary completes the paper. 7.2.1 Possible inefficiency of the 'polluter pays principle' In this section, we criticize the new dogma - the polluter pays principle (abbreviated PPP) that underlies almost all actual environmental policies and proposals, in particular, pollution and energy taxes, the possibility to litigate for any damage due to pollution, etc. The following argument follows Coase (1960) that starts "This paper is concerned with those actions of business firms which have harmful effects on others. The standard example is that of a factory, the smoke from which has harmful effects on those occupying neighboring properties." and then summarizes the above argument " ... economists have largely followed the treatment of Pigou in The Economics of Welfare. The conclusions to which this kind of analysis seems to have led most economists is that it would be desirable to make the owner of the factory liable for the damage caused to those injured by the smoke; or to place a tax on the factory owner varying with the amount of smoke produced equivalent in money terms to the damage it would cause.." Therefore, consider the usual justification of PPP along the above example. Suppose that a competitive industry (or a factory) emits smoke in the course of production when bargaining is impossible. These emissions impose external costs on a residential neighborhood. It is easy to see why decentralized decisions and in particular unilateral profit maximization of the firm is inefficient. Profit maximization implies that smoke is used as an 'input' up to the point where its contribution to output vanishes. Thus, the emission of the last unit of smoke provides only an infinitesimal benefit to the firm so that the reduction of pollution by one unit is actually free. On the other hand, the emission of this unit of smoke imposes positive external costs on the residential neighborhood. Therefore, social surplus can be increased by withholding this unit of smoke because the reduction is free and the external costs are reduced by a positive amount. This re-allocation improves the social surplus so that decentralized profit maximization is not efficient. Umwelt 137 Now, PPP makes the firm liable for this damage so that the residentials may litigate for compensation for any costs incurred due to smoke emissions. However, this policy is inefficient too, because (in the words of Coase): "The question is commonly thought of as one in which A inflicts harm on B and what has to be decided is, How should we restrain A. But this is wrong. We are dealing with a problem of reciprocal nature. To avoid the harm to B would be to inflict harm to A. The real question that has to be decided is, Should A be allowed to harm B or should B be allowed to harm A?"30 Therefore, one must consider the actions the residential can take in order protect themselves from damages. That is to say that an efficient outcome has to account for the firms' and the residentials' possibilities to lower these external costs. In the setting of Coase (1960), with no transaction costs, bargaining establishes this efficient outcome irrespective of the assignment of who is liable for the damage (Coase Theorem). However, legal rules that single out a particular participant as the 'polluter' irrespective of the costs may be inefficient, if transaction costs are significant and impede bargaining. In other words, the 'victim pays principle' may be efficient! The inefficiencies of PPP are not just a theoretical construct but of substantial policy relevance. In fact, many real world examples highlight this deficiency: people who acquire first cheap land close to freeways then chose to litigate for compensation; weekend homes built in a farming area (again characterized by cheap land) followed by the sueing of the farmers for all the noise they make, are just two recent Austrian examples. It is not difficult to imagine that this movement will swell and will lead to substantial economic inefficiencies if PPP is upheld in courts. Therefore, the possibility of litigation seems the most threatening consequence of PPP. The other Pigouvian instrument, pollution taxes, results in less inefficiency than complete liability of the polluter because it does not deter actions (other than litigation) by the 'victim'. Nevertheless, inefficiency may result if the tax is unilaterally based on the firms' input decisions but neglects the residentials' potential for protection; for a proof see Wirl (1992a). In other words, energy taxation that fully reflects the 'polluter pays principle' may in principle lower social welfare compared with laissez-faire (and associated market failure). 7.2.2 Revenues from energy taxes The prime concern of many advocates of energy taxes is the protection of the environment. For example, von Weizsäcker (1990) advocates an 'ecological tax reform' where energy taxes should substitute income taxes (at least partially). This section analyzes some crucial aspects about the scope and use of the revenues resulting from energy taxes. This discussion is organized under three different aspects: A. retaliation or preemption by producers; B. either a Leviathan or a pressure group uses green arguments as a figleaf to appropriate tax revenues; C. energy taxes as a means to raise revenues for the provision of public goods may be volatile in a realistic setting 30For a better understanding, consider Coase's example of two neighboring farmers, one plants crops and the other raises cattle so that fencing may become necessary. Who inflicts now the externality on whom? Umwelt 138 7.2.3 Retaliation and preemption by producers Von Weizsäcker (1990) and many others (including politicians) argue that Pigouvian energy taxes do not harm consumers' purchasing power, if these revenues are returned to the people. Technically speaking this is not totally correct because commodity taxation results in a loss to consumers (in technical terms, a 'triangle loss' in consumer surplus) even if the tax revenues are entirely transferred to them. Fig. 7.1 outlines this argument showing a demand curve. Considering the untaxed price p, the consumers' surplus is equal to the triangle under the demand curve right off p, i.e., this triangle measures the savings of all those consumers who are willing to pay a price higher than p. Adding a tax reduces the consumers' surplus to the much smaller triangle right off p + . The tax revenues are no loss to this society (and to the consumers if the money is returned to them in one form or another) so that only the triangle, often called the deadweight loss, counts as a welfare loss. However, this triangle loss is not the point here, but rather how far it is possible to compensate consumers for higher energy prices, i.e., how much from the rectangle in Fig. 7.1, the Pigouvian tax revenues, may be lost. tax deadweight loss tax revenues transfer demand (inverse) energy Fig. 7.1: Deadweight loss from energy taxes This comparatively small loss in consumers' surplus must be weighed against improved environmental conditions, so that quite large taxes may pass such a cost-benefit test. However, this argument assumes implicitly that taxation does not affect the producers' strategy, the price p in Fig. 7.1, which seems unlikely. Indeed, von Weizsäcker's' claim can be strengthened in some cases because energy taxes lower demand and thereby the associated monopoly price. That is, p falls and the deadweight loss triangle in Fig. 7.1 overestimates the costs to consumers because energy taxes reap some parts of the monopoly rent; Wirl (1992b) proves this possibility for a static Nash game between consumers and producers. However, more aggressive producers may retaliate by raising the price at front in order to reap at least some parts of the intended tax revenues. For example, energy taxation raises the monopoly's price in a von Stackelberg game (for convex demand and with OPEC leading) and moreover encourages cartelization; see Wirl (1992b). Indeed there is a well known analogy from political econom- Umwelt 139 ics and real world politics, namely, voluntary export restraints, which avoid import duties at the expense of the consumers of the importing country who have to pay the higher market clearing price without any revenues compensating (compare Baldwin (1989)). The following example provides another and very simple argument for producers preempting an energy or carbon tax; preemptive moves can also be demonstrated in a dynamic framework, see Wirl (1993). To simplify the exposition, assume a purely monopolistic energy supplier, call it OPEC or whatever you like. This assumption is the opposite from the competitive environment that is implicitly supposed in Weizsäcker (1990) and in the recent literature on global warming. This monopoly faces a single consumer, say the OECD that plans to introduce energy taxes in order to reduce associated external costs. Of course, the energy suppliers will not passively accept this tax but will change their price policy. Assume (quite realistically) that low externalities do not justify taxation due to the associated social costs, in particular transaction costs (setting up a bureaucracy that raises, collects and distributes the revenues), and presumably penalties to politicians (since new taxes are never popular, irrespective of the magnitude). As a consequence, a high producers' price p, p > p0 in Fig. 7.2, remains untaxed. The reason is that a high price p ensures a low energy demand and thereby low externalities, which in turn implies a small Pigouvian tax that is insufficient to cover fixed costs. Since such a tax results in a net loss to the consumers, no tax is optimal. However, the government will add a Pigouvian tax once the import price p falls below a certain treshhold, p < p0. This tax strategy starts with a positive level (to cover the above addressed fixed costs31) and increases as the producers lower the price p. Hence, this Pigouvian tax declines with respect to p, because higher world market prices p lower demand and thereby the (marginal) external costs. Put briefly, the optimal tax strategy declines with respect to the producers' price p, exhibits a discontinuity p = p0 and is zero for p > p0. This in turn leads to a discontinuous demand curve that the producers face with respect to their instrument, the price p. Fig. 7.2 shows the demand side with respect to the suppliers' energy price p: tax and demand (taxed and untaxed). The impact of taxation on the producers' profits are shown in Fig. 7.3 This set up corresponds to a Stackelberg equilibrium, where the oil cartel has the first move, i.e., it adjoins the consumers' government's optimal reaction, tax = tax(p), into its calculation. Therefore, the producers face the discontinuous demand, the bold line in Fig. 7.2, and choose that price p that maximizes their profits. Fig. 7.3 shows the profits of the energy supply cartel with respect to their instrument p, again with and without energy taxes. In this example, the cartel's profits are maximized at the price p = p*< p0 if no Pigouvian tax is levied. However, the environmental concern of the consumers' government leads to a tax, if the monopoly continues to charge p*. This modifies the monopoly's profits to the lower curve with a discontinuity at p = p0 and given the profit constellation shown in Fig.7.3, the corner solution p = p0 is optimal. The reason is that charging a sufficiently high price avoids the tax and thereby maximizes profits. In short, there is no scope for tax revenues (and associated transfer) in the OECD region, because OPEC internalizes these external costs already at the wellhead. 31Clearly, tax collection requires large fixed but low marginal costs so that the collection of small taxes is always inefficient. Umwelt 140 untaxed taxed demand tax p* p0 Fig.7.2: Pollution tax and demand, taxed and untaxed untaxed profit taxed p* p0 Fig. 7.3: Profit to energy supplier (OPEC), with and without a tax Of course, Fig.7.2 and Fig. 7.3 sketch the worst outcome and that appears constructed. However, the oil market situation of 1986 provides a precedence that fits the above argument: during 1986, Saudi Arabia intended to punish non-complying members of OPEC (and non-OPEC oil producers) by letting the price fall even below $10/b; in Fig. 7.2, a price below p0. Yet, as Umwelt 141 prices were falling, the threat of an import fee (strongly advocated by the oil industry in the United States) increased. Facing this threat, Saudi Arabia quickly cut back production to raise the price to a level (p0 in Fig. 7.2) that avoided the tax, because of the associated costs to the American politicians if they raise the price of petrol too much; this is another interpretation of fixed costs of taxes that politicians face. Moreover, the conclusion - strategic responses of energy suppliers weaken the potential tax revenues - applies in other instances as well as mentioned above. The basic reason is that the 'tax revenue' itself is up to a contest between consumers' governments and producers, if taxation follows purely Pigouvian prescriptions. 7.2.4 Positive explanations of energy taxes The above argument is normative, i.e., it assumes that the sole motivation to tax is Pigouvian. The assumption that politicians act like benevolent dictators seems unrealistic. Modern political economy (or Public Choice32) emphasizes the private motives of politicians about getting re-elected, increasing discretionary power through an enlargement of government spending or implementing their ideological platform; all these objectives have the common feature that they require revenues. Even retaining the hypothesis of benevolent politicians leads to the questions why did it take seventy years until the politicians understand the analysis of Pigou? Of course, some normative arguments may explain this, e.g., the increase in public environmental concern; Pearce and Turner (1990, p 96-98) offer some normative (but not really convincing) excuses - uncertainties about justice and damage and the natural force of a status quo. However, this is only a part of the story, although an important one because the perception of environmental damages and threats altered the cost-benefit balances for politicians and for political pressure groups. It is easy to see that real world energy taxation is at least partially driven by politics with little reference to environment and economic efficiency. For example, how can one reconcile a theory of politicians following a normative Pigouvian framework when the most harmful energy carrier, coal, is (partly heavily) subsidized while other and much cleaner fuels, in particular natural gas, are taxed? Therefore actual policy making cannot pass the minimal normative test that the relative taxes on fuels should be corrected before proceeding to tax increases. In the following, two positive arguments are sketched why the introduction of green taxes, in particular of energy taxes, is likely. Becker (1983) presents a theory of pressure groups. Pressure groups spend economic resources to maximize subsidies and to minimize tax burdens. Considering a Nash equilibrium, Becker shows that those proposals win that minimize deadweight loss, i.e., social costs over and above the subsidy. Thus, proposals that tax public 'bads', cigarettes, alcohol and now pollution, will be more successful than those who argue for the taxation of public 'goods', like schools and universities. Now combining this argument of Becker with the observations: (a) 32For energy consumption has a significant negative impact on the nowadays much higher alued environment; a good exposition see Mueller (1989). Umwelt (b) 142 substantial disincentive effects from an increase of the income tax when marginal come tax is already 'high';33 may explain why today's politician are more receptive to a Pigouvian motivation for energy taxes. Competition of pressure groups requires that any claim for subsidies must be accompanied by a proposal on how to finance this subsidy. First, due to condition (a) the deadweight costs of energy taxes must be balanced against the gain in environmental conditions. Income taxes distort only the decisions between labour and leisure while commodity taxes lead additionally to inefficient allocation so that income taxes induce less deadweight costs than commodity taxes as long the disincentive effects are small. However, disincentive effects that are attributable to high marginal income taxes affect (or even change) this relative position of taxes, so that, combined with (a) taxing those commodities that impose negative external costs are preferable to financing subsidies. A topical example is the subsidization of 'poor' East Germans through an increase of the tax on gasoline in the FRG, a country with high marginal income taxes. On the other hand, in countries with low marginal tax rates, like the United States, the opposition against energy taxes is much stronger and generally an increase in income taxes is preferred to energy taxes.34 Therefore, politicians' recent approval of the economists' proposals of Pigouvian taxes may be due to pressure group competition outlined above rather than to the usually given normative reasons. Another positive explanation is that Pigouvian welfare economics provides an argument for new taxes that may be used to blow up public spending (the government as a Leviathan). Brennan-Buchanan (1980) outline a tax constitution for the Leviathan35, where a restricted tax base is advocated contrary to the usual efficiency arguments that favour a broad tax base (to minimize deadweight loss). Therefore, the (constitutional) abolition of certain taxes should be a prerequisite before introducing and supporting environmental taxes. Otherwise, our good intentions may simply feed the Leviathan. Of course, the increased public awareness of environmental damages and potential harms may (and are to some extent) responsible for the consideration of green taxes. Thus the critical test is to explain why some countries consider green taxes as a revenue instrument while others still rely on income taxes to raise additional revenues. I claim that recent events - some Scandinavian countries, the Netherlands and the FRG will and have already introduced new taxes on energy and on particular fuels - seem to corroborate both the Leviathan-hypothesis and Becker (1983) but contradict the efficiency hypothesis. These European finance ministers are 33In fact, tax revenues may fall with rising taxes according to the well known Laffer curve phenomenon. to a poll published in Time (1991), 71% of the Americans favour an increase of marginal income taxes (for high incomes, of course) but only 33% consider the introduction of energy tax (and only 24% favour a gasoline tax) as just to lower the budget deficit. However, recently the political prospects of a petrol tax seem to have improved, The Economist, January 7th, 1993, Coming soon, to a station near you, p 48. 35This description is appropriate for honest politicians too, e.g., Sandmo (1990) defends this assumption: "Suppose that you are entering into a contract with a carpenter about repairs on your house. You may already have a theory of the behavior of carpenters as being on average highly skilled, punctual, and honest. Would you write the contract on the assumption that the theory applied also in this particular case? Probably not; the careful homeowner would like to have a contract that protected him against the possibility of the carpenter having the opposite characteristics." 34According Umwelt 143 presumably aware of the disincentive effects from a further rise of income taxes due to the already very high marginal (and average) tax rates. In this sense, the deadweight costs associated with an expansion of government expenditures may be lower if these revenues come from energy taxes compared with an increase of income taxes. On the other hand, the people of the United States, who face a much lower marginal income tax, resist much stronger any proposal to raise domestic energy prices, despite much lower energy prices at the outset. Considering now (a) - environmental degradation is a public bad - and (b) - the significance of disincentive effects at high marginal income tax rates - tilts the choice from an increase in income taxes towards the introduction of energy or pollution taxes in those countries with already high income taxes. Summarizing, the public environmental concern and goodwill for green objectives plus the two positive hypotheses (Becker's competition of pressure groups, the government as Leviathan), may explain the presently favorable climate for energy taxes. The positive explanations account for private objectives but require constraints on the tax base to keep a potential Leviathan (as well as potential rent seekers) in check. However, there is a positive aspect of the Leviathan. While Pigouvian motives may encourage producers to preempt the tax, Leviathan motives (to raise taxes) deters such a behavior because raising the price at front cannot avoid taxation. 7.2.5 Stability of energy taxes as a revenue instrument As indicated at the beginning of this section, some researchers (in particular, von Weizsäcker) argue for a general tax reform such that taxation of resources and environmental goods (starting with energy) should substitute for income taxes; in other words, taxing scarce resource inputs instead of labour. This raises the question of stability, because higher prices lower the demand, which in turn requires higher taxes to raise the same amount of revenues and so on. Thus in contrast to the so far expounded Pigouvian motivation for energy taxes, we consider the pure revenue aspect of energy taxes. Therefore, we assume that the government wants to raise a fixed share s of income (GDP, denoted y) via an energy tax rather than as before through an income tax. For this purpose, consider the following simple adjustment model of demand (d): dt = (1 - )D(pt + t, yt) + dt-1 (1) dtt = syt (2) D denotes the equilibrium demand for given consumer prices p + , p import price, tax, and income y; denotes the adjustment lags, 0 < < 1. Equation (1) captures the sluggishness that is typical for energy demand relations. More technically, (1) describes the optimal dynamic adjustment of consumers using myopic expectations; most of the following findings hold for rational expectations too. The government must choose its tax strategy { t} such that the revenue constraint (2) is satisfied at all times t. Wirl (1991) proves the stability of (1)(2) if prices p are constant, income is constant and/or demand D exhibits unitary income elas- Umwelt 144 ticity and energy demand is inelastic (stability holds even for moderately elastic demand; this assumption is definitely met for aggregate energy demand). However, the tax must rise, if: (i) the long run energy-income elasticity, lnD/lny, is below unity, (ii) international energy prices pt increase over time, e.g., for a Hotelling type path. For a formal proof see Wirl (1991).36 The above two points suggest that energy taxes are a suboptimal choice for opportunistic politicians, because they have to increase the tax rate t continuously; moreover, taxes must rise whenever OPEC price increases hurt already the consumers (=voters). Fig. 7.4 shows some examples for the framework (1)-(2); the tax is normalized to 1 for the initial period. The two stabilizing curves refer to unitary income elasticity and constant energy prices. This proves that energy taxes will converge to a stationary tax level given the two conditions, unitary income elasticities, constant international energy prices pt = p for all t, and if demand is not too elastic. However, a large time constant, e.g. k = 0.9, requires a fair amount of time until the tax stabilizes (but rational expectations accelerate convergence). The fast growing tax rate in Fig. 7.4 assumes an income elasticity of 0.5 and confirms the above proposition (i). The erratic curve assumes a volatile energy price trajectory where energy prices increase every ten years by 50% but this increase lasts for three years only. This scenario shows substantial tax increases whenever international energy prices increase. In other words, the finance ministers have to increase energy taxes whenever OPEC ministers decide to increase crude oil prices. I doubt that politicians seeking popular support would opt for such a strategy. Therefore, the motivation for energy taxation appears largely as a means to increase the tax base rather than to replace other taxes. 36Wirl (1991) studies within a continuous time framework the stability properties of commodity taxes for myopic and rational consumers' price expectations. Umwelt 145 Fig. 7.4: Energy taxes that raise a fixed share of GDP. Adjustment lag k = 0.5, unitary income elasticities, both unless otherwise indicated; price elasticity equals -0.5. For further details see Wirl (1991). It is only fair to say that the advocates of energy taxes are quite aware of these problems and therefore urge for some flexibility of the required revenues. However, this may be illusionary considering the constraints imposed by 'Realpolitik'. More precisely, tight budgets do not leave room for the desired flexibility and any occasional excess of revenues will attract pressure groups that want to tap this revenue. In short, political practice proves that such a flexibility exists only on paper. 7.2.6 Energy taxes and conservation The major purpose of energy taxes is to lower consumption. After experiencing two oil price shocks, it seems that economists have beaten the pessimists, the engineers, the lawyers and the politicians, because demand and supply reacted substantially to the high energy prices during 1974-1985 as predicted by many econometric investigations but contrary to engineering investigations that stressed rigidities. A common consensus, e.g. EMF (1981), seems that an energy price elasticity is roughly -0.5, i.e. a 10% increase in final energy prices will lower the long run demand for energy by 5%. This elasticity suggests substantial conservation even for moderate tax rates. Umwelt 146 However, such empirical elasticities may be inappropriate to quantify today the energy conservation impact from Pigouvian taxes. The reason is that this historical elasticity consists of consumers' adjustments as well as improved technical efficiencies which depend on the level of energy prices too, yet in an non-trivial, asymmetrical way. More precisely, the period of 'high' energy prices, from the end of 1973 to the end of 1985, did not only induce consumers to cut energy consumption but triggered also substantial research and development efforts to engineer more fuel efficient appliances. These research efforts led sometimes to dramatic reductions in fuel requirements for particular services. The reader is familiar with such examples, e.g., the increase in mileage across all different categories of cars, the substantial reduction in electricity consumption for television, computers, cleaning, lighting, etc. Fig. 7.5 documents this for a sample of European cars. This sample of cars is characterized by attributes that are fairly consistent over time, in order to separate, as far as possible, efficiency improvements from other characteristics, such as power (speed and acceleration), comfort, safety etc., that inevitably change over time and in turn affect fuel efficiency. This figure highlights the delay between high energy prices and the availability of more efficient cars (and even further lagged until these cars capture a major share on the road). Furthermore, these improvements stopped towards the end of the eighties, because the low gasoline prices made further research and improvements unprofitable. Finally, new cars retain the historically acquired efficiency (more or less), because this technological know how, if once acquired, is free. Fig. 7.5: Fuel requirements, liters per 100 km, ECE mix and DIN (adjusted), for a sample of European cars. Source: Schweizer Automobilrevue. Fig. 7.6 outlines the basic argument following Wirl (1988). The figure shows two conventional, static demand curves, i.e. we abstract from the details of an adjustment process over time. The upper curve connecting AB corresponds to the initially prevailing state of technology. Now, a price rise from the initial consumer price Ð1 to Ð2 would induce the consumers to Umwelt 147 lower their energy requirement from A to B. But this price increase and the persistence of high prices37 motivates research and development (R&D) to engineer more energy efficient appliances. These technological breakthroughs allow the consumers to shift their demand curve down to the line that connects CD. Hence, the consumers' demand moves to C rather than to B. This description stylizes the demand adjustments covering the period 1973-1985. The curve AC draws thus the long run demand curve, i.e. including price-induced technological improvements. However, knowledge is irreversible and a once acquired technology persists even in a period of low prices. Therefore, the price decline that followed in 1986, roughly back to Ð1, will not cause the demand to return to its original equilibrium A. Fig. 7.6: Energy demand with and without R&D However, this asymmetry of demand behavior is not the point here. What is important is that energy taxes will have only a moderate impact on demand, unless dramatic taxes are imposed.38 Assume that by 1985 all research for efficiency improvements, which were economically justifiable for the price level Ð2, have been completed so that further R&D requires consumer prices greater than Ð2. Now consider the present price Ð1 and an energy tax so that the final consumer price remains below the (real) price level Ð2; this assumption is met by all proposals, in particular, by the EC $10/boe tax. This final price is insufficient to trigger further efficiency improvement, so that this tax will influence consumer behavior only. In geo- 37Or expectation of further price increases, e.g. the IEA projected rising energy prices as late as in 1985, IEA (1985). 38A similar conclusion holds for a small country, even if the energy tax is set sufficiently high, because it does not pay to improve the technology (e.g., the mileage of cars) for small markets. Umwelt 148 metrical terms, consumers move along their conventional demand curve CD so that demand, starting from C, adjusts towards to E and not to F that would result from applying the long run price elasticity derived from observations along AC. This reasoning implies that current energy demand, due to its history dependence, has a kink at C: the flatter curve CD applies for prices below Ð2 and the steeper curve AC for high prices, Ð > Ð2. Therefore, even a large tax so that the final price exceeds Ð2 will not induce conservation similar to the slope AC, because only the difference (Ð + tax - Ð2) triggers technological efficiency gains. Now all considered and debated energy or carbon taxes are much too low to achieve further significant improvements in technical efficiency so that the conservation effect will be presumably small. Therefore, these taxes would collect large sums, e.g. the EC proposal of $10/boe on each primary energy carrier would raise annually 300 billion dollars if collected in all OECD countries, but achieve little environmental gain, i.e., just food for the Leviathan. And this is dangerous (from a green point of view), because the electorates' goodwill might be wasted for coming, necessary environmental burdens. 7.2.7 Summary This paper summarized some of the fallacies that proponents of Pigouvian taxes (and in particular supporters of an energy tax) make. One weakness is the overwhelming concern of this literature with efficiency considerations, i.e. the preoccupation with normative questions. Therefore, environmental economics might fall into the same trap as welfare economics, which argued for state intervention for any perceived market failure without investigating the motives of politicians and bureaucrats; i.e. it is assumed that the political realm functions perfectly. Buchanan-Vanberg (1988) is an interesting paper in the right direction because it makes the proper institutional comparison: market failure, i.e., no internalization due to high transaction costs, versus policy failures, i.e. politicians (opportunistic, vote maximizing, pork barrel politics) and majority voting will lead to a biased internalization. Now considering political motives and constraints (pork barrel politics, Leviathan governments) a proper tax constitution is required before going ahead with the introduction of pollution taxes on a wide scale, i.e. the definite abolition of other taxes, or better restrictions on the total tax base. Put into a nutshell: green taxes raise, quite unintentionally, public revenues; this, for many a positive side effect, is at the core of the addressed problems because both Leviathan governments and pressure groups will speak of the green issue but in fact mean the money; the biggest advantage of tradeable emission permits is, transaction costs aside, that politicians and pressure groups cannot participate in the associated financial flows. Moreover, trade barriers removed by GATT and other international agreements may re-emerge under a green heading (see The Economist (1992)). Interestingly, Pearce's (1991) investigation of carbon taxes - in his own words more 'political economy' than economics - is entirely normative and neglects any critique stemming from modern political economy (or Public Choice) such as in BrennanBuchanan (1981). Furthermore, pollution taxes score poorly as a device for collecting revenues. First, the associated tax would be quite volatile in a realistic setting with considerable political costs, because tax rates must be raised whenever OPEC increases the price. Second, OPEC and other energy suppliers may retaliate to the threat of energy taxes. The threat of consumers' govern- Umwelt 149 ments to tax primary energy carriers in order to lower pollution will induce energy suppliers to revise their price strategies. For example, if internalization (and nothing else) is the problem (i.e. a purely Pigouvian motive), all that is needed is that energy is priced appropriately; this correct signal to consumers can be the result of a low wellhead price plus a high tax or, a sufficiently high wellhead price with no tax at all. Given this situation, the energy suppliers themselves might prefer to raise the price of energy rather than to leave these entire revenues to foreign governments. For some extreme cases there is no scope at all for revenues from a Pigouvian tax for the consumers' government because OPEC internalizes beforehand the entire external costs at the wellhead! Finally, observe that the above addressed constitutional constraints (such as limiting the tax base, abolishing and restricting other taxes) that should accompany the introduction of energy taxes increases the credibility of consumers' governments tax policy and may therefore deter strategic producers' preemption. 7.2.8 References: Auerbach A. J., Excess Burden and Optimal Taxation, in Alan J. Auerbach and Martin Feldstein (Ed.), Handbook of Public Economics, I, 61-127, North Holland, (1985) Baldwin Robert E., The Political Economy of Trade Policy, Journal of Economic Perspectives, 3, 119-135, (1989). Baumol W. J., Oates Wallace E., The Theory of Environmental Policy; Externalities, Public Outlays, and the Quality of Life, Prentice Hall, (1975). Becker G. S., A Theory of Competition among Pressure Groups for Political Influence, Quarterly Journal of Economics, 98, 371-400, (1983). Brennan G. and J. M. Buchanan, The Power to Tax: Analytical Foundations of a Fiscal Constitution, Cambridge: Cambridge University Press, (1980). Buchanan J. M., Vanberg Viktor J., The Politicization of Market Failure, Public Choice, 57, 101-113, (1988) Buchanan J. M., Tullock Gordon, The Calculus of Consent, Logical Foundations of Constitutional Democracy, University of Michigan, (1962). Coase R. H., The Problem of Social Cost, Journal of Law and Economics, III, 1-44, (1960). EMF#4 Working Group, Aggregate Elasticity of Energy Demand, The Energy Journal, Vol. 2, No.2, 37-75, (1981). International Energy Agency (IEA), Electricity in IEA Countries, Issues and Outlook, OECD/IEA, Paris, (1985). Kraus M. and H. Mohring, The Role of Polluttee Taxes in Externality Problems, Economica 42, 171-176, (1975). Umwelt 150 Mirrlees J. A., The Theory of Optimal Taxation, in Kenneth J. Arrow and Michael D. Intriligator (Ed.), Handbook of Mathematical Economics, Vol. III, 1197-1249, North Holland (1986). Mueller D. C., 1989, Public Choice II (Cambridge University Press, Cambridge). Pearce David, The Role of Carbon Taxes in Adjusting to Global Warming, Economic Journal 101, 938-948, (1991). Pearce David and R. Kerry Turner, Economics of Natural Resources and the Environment, Harvester Wheatsheaf, Hertfordshire, (1990). Pigou A. C., The Economics of Welfare, MacMillan, London, (1920). Ramsey Frank P., A Contribution to the Theory of Taxation, Economic Journal, 37, 47-61, (1927). Robertson David, The Global Environment: Are International Treaties a Distraction, The World Economy 13, 122-128, (1990). Sandmo Agnar, Buchanan on Political Economy: A Review Article, Journal of Economic Literature, XXVIII, 50-65, (1990). Schweizer Automobilrevue, Jahresausgabe, Sondernummer anläßlich des Genfer Salons, Bern, March, issues from 1970 on. Stiglitz Joseph E., Pareto Efficient and Optimal Taxation and the New Welfare Economics, Handbook of Public Economics, II, 991-1042, North Holland, (1987). The Economist, Don't green GATT, p 15-16, December 26th, 1992. Time, Ignore my Lips, 34-36, May 21 1991. von Weizsäcker, Ernst U., Global Warming and Environmental Taxes, International Journal of Global Energy Issues, 2, 14-19, (1990). Wirl Franz, Asymmetrical Energy Demand Pattern: Some Theoretical Explanations, Opec Review, 12, 345-359, (1988). Wirl F., Dynamics of Commodity Taxation - an Example of an Energy Tax, System Dynamics Review 7, 145-158, (1991). Wirl F., The Problem of Social Costs Revisited - The 'Efficiency' of Laissez Faire over Pigouvian Intervention, to appear in International Review of Economics and Finance 1, (1992a). Wirl F., Energy Pricing when Externalities are Taxed, mimeo, (1992b). Umwelt 151 Wirl F., Pigouvian Taxation of Energy for Stock and Flow Externalities and Strategic, NonCompetitive Pricing, Journal of Environmental Economics and Management, (1994). Öffentliche Unternehmen 8 8.1 152 Normative Theorie öffentlicher Versorgungsunternehmen Erklärungen für die Einrichtung öffentlicher Elektrizitätsversorgung Das häufigste Argument zur Verteidigung des staatlichen oder (wie in den Vereinigten Staaten) öffentlichen Monopols ist die Hypothese, dass in diesen Branchen wachsende Skalenerträge (increasing returns to scale) vorliegen. Daher sei es günstiger, die gesamte Nachfrage von einer Firma - dem natürlichen Monopol - abzudecken, als durch mehrere sich konkurrenzierende Unternehmen. Dieses (natürliche) Monopol würde sich ohnedies durch einen Verdrängungswettbewerb einstellen. Da jedoch private Monopole einen überhöhten Preis verrechnen, entsteht ein Verlust an allgemeiner Wohlfahrt (d. h. der erhöhte Profit des Monopols kann den Verlust bei den Konsumenten aus den höheren Preisen nicht kompensieren; sogenannter deadweight loss). Zur Korrektur dieser Fehlallokation - oder auch Marktversagen genannt - kann die öffentliche Hand verstaatlichen oder mittels Reglementierungen die Unternehmen (versuchen zu) zwingen, dass die korrekten Preise verrechnet werden. Dieser Argumentation beugte sich sogar Friedman39. Einzig Demsetz (1968) stellte die Implikation Monopol => Monopolpreise in Frage. Öffentliche Güter, also Güter, wo Individuen vom Konsum nicht ausgeschlossen werden können, z. B. Landesverteidigung, Straßenbeleuchtung, Leuchtturm, öffentliche Sicherheit, Parks etc., werden - trotz ihrer Bedeutung für die allgemeine Wohlfahrt - in der Regel nicht oder in zu geringem Ausmaße von privaten Unternehmungen bereitgestellt. Somit muss hier der Staat einspringen und diese Dienstleistungen bereitstellen (Samuelson 1955). Diese Theorie hat jedoch einige Schwächen. So sind rein öffentliche Güter selten anzutreffen und einige solcher öffentlichen Güter können und werden durchaus auch privat angeboten. So ist Fernsehen ein (nahezu) perfektes Beispiel für ein öffentliches Gut, weil niemand vom Konsum ausgeschlossen werden kann40. Trotzdem sind international zahlreiche private Fernsehanstalten eingerichtet. Andere Güter verdienen diese Charakterisierung "öffentliche Güter" nur über einen gewissen Nutzungsbereich, da bei erhöhtem Gebrauch Überfüllung (congestion) auftritt und die Konsumenten eigentlich bereit wären, für eine Reduzierung der Überfüllung zu zahlen; Beispiele dafür sind öffentliche Parks, Naturdenkmäler und Straßen. Als Brücke zwischen den reinen öffentlichen und den privaten Gütern führen Buchanan (1965) und Olson (1965) die Klubtheorie ein, die versucht, freiwillige Vereinigungen wie Klubs, Genossenschaften etc. bei "unreinen öffentlichen Gütern" zu erklären. Die folgende Darstellung folgt Sandler-Tschirhart (1980) und Cornes-Sandler (1986). Die Klubtheorie ist ein Versuch, soziale Vereinigungen vom individuell rationalen Standpunkt zu erklären. So könnte über die Idee von Klubs das Problem fallender Durchschnittskosten und der daraus entstehenden Defizite durch Grenzkostentarife beseitigt werden. Es wird ein Klub, etwa der Strombezieher, gegründet mit einer Eintrittsgebühr und festen Preisen für die abgenommenen 39"There is unfortunately no good solution for technical monopoly. There is only a choice among three evils: private unregulated monopoly, private monopoly regulated by the state, and government operation". 40Falls das Signal nicht gestört wird und der Empfang kein entsprechendes Decodiergerät benötigt, ist Fernsehen ein perfektes öffentliches Gut. Öffentliche Unternehmen 153 Mengen. Die Eintrittsgebühren41 können dazu verwendet werden, die Fixkosten abzudecken. Der Anreiz für diesen Klub ist es, fixe Kosten gemeinsam zu teilen und so zu niedrigeren Durchschnittskosten zu gelangen.42 Manche der sogenannten gemeinwirtschaftlichen Unternehmungen können als ein Klub interpretiert werden. Wenn ein Klub einmal existiert, so tendiert er dazu, auch andere Aufgaben zu übernehmen, bei denen kein separater Verband zustande käme. So übernahmen Arbeitervertretungen auch den Konsumentenschutz. Die Existenz solcher Klubs und Vereinigungen, eventuell basierend auf rechtlichen oder anderen institutionellen Grundlagen, fördert öffentliche Eingriffe.43 Dies erklärt unter anderem das weite Spektrum von Aufgaben, die von den Sozialpartnern in Österreich übernommen wurden. Einige Beispiele für öffentliche Unternehmen und Einrichtungen fallen unter den Sammelbegriff Infrastruktur und soziales overhead Kapital. Da private Firmen diese Güter nicht - oder nicht in ausreichendem Maße - zur Verfügung stellen, muss die öffentliche Hand einspringen. Mehr sogar, die Proponenten einer expansiven öffentlichen Infrastrukturpolitik argumentieren, dass diese Investitionen das Wachstum des privaten Sektors erhöhen. Dieses Argument ist sowohl merkantilistisch als auch paternalistisch44. Es gibt keine Hinweise darauf, was der Staat tatsächlich tun sollte und was er wirklich tut. Dies führt zur Überbetonung und teilweise ungenügender Begründung meritorischer Güter (merit wants) wie "Energiesparen", "Versorgungssicherheit" im Falle energiewirtschaftlicher Fragen; ein anderes Beispiel wäre "Bildung" (eines der Hauptargumente für das Rundfunkmonopol, kostenlose Schul- und Universitätsbildung). Der Staat ist in der Regel ein schlechter und in den seltensten Fällen ein innovativer Unternehmer. Nahezu alle - heute öffentlichen - Unternehmen wie Bahn, Strom, Gas usw. gehen auf private Initiativen zurück. Erst später wurden diese Unternehmungen von der öffentlichen Hand übernommen. Zusammenfassend kann diese Hypothese fehlender Unternehmer kaum als Erklärung für den heutigen öffentlichen Einfluss dienen. Jedoch spielen meritorische Güter eine gewisse Rolle für staatliche Unternehmungen im allgemeinen und im besonderen in der Energiepolitik. Daraus werden unterschiedlichste Regulierungen und die phantasievollsten 41Die Eintrittsgebühr kann im allgemeinen auch negativ sein, wenn zusätzlicher Benützer positive Externalitäten verursacht, etwa in einem Kommunikationssystem. 42Dieser Gedanke ist eventuell für die öffentlichen Verkehrsunternehmen bedeutender als für die Elektrizitätswirtschaft. Ein Auto wird von den Individuen wegen der Summe der zur Verfügung gestellten Mobilität gekauft. Bei der Evaluierung jeder spezifischen Fahrt, etwa ins Büro, Ausflug etc., werden jedoch korrekterweise nur die Grenzkosten betrachtet. Die öffentlichen Unternehmen verrechnen jedoch Durchschnittskosten (wenn man von den direkten und indirekten Subventionen absieht), was daher den Individualverkehr begünstigt. 43Diese möglicherweise marktfeindlichen Konsequenzen sind altbekannt wie aus dem folgenden und bekannten Zitat von Adam Smith (1930) erkennbar ist: "People of the same trade seldom meet together, even for merriment and diversion, but the conversation ends in a conspiracy against the public, or in some contrivance to raise prices. It is impossible indeed to prevent such meetings, by any law which could be either executed or would be consistent with liberty and justice. But though the law cannot hinder people of the same trade form sometimes assembling together, it ought to do nothing to facilitate such assemblies; much less to render them necessary." 44Immanuel Kant, Eine Regierung, die auf dem Prinzip des Wohlwollens gegen das Volk ... errichtet wäre, d.i. eine väterliche Regierung (imperium paternale) ..., ist der größte denkbare Despotismus. Öffentliche Unternehmen 154 und widersprüchlichsten Eingriffe abgeleitet, wie an den obigen Beispielen bereits angedeutet wurde. Weiter können öffentliche oder aber auch gemeinwirtschaftliche Unternehmen die Rolle eines "Hechtes im Karpfenteich", Hesselbach (1966)45, eines ansonsten monopolistisch oder oligopolistisch organisierten Marktes privater Güter übernehmen; Vogelsang (1982) versucht eine analytische Betrachtung dieses Ziels. Die jüngere Erfahrung mit solchen Unternehmen, etwa der Neuen Heimat (in Deutschland), Bauring (in Wien), zeigt, dass die Firmen entweder wie die privaten Unternehmen agieren - also kein Hecht mehr sind (z. B. Konsum, Bawag, die Versicherungen im öffentlichen Besitz nach der Freigabe der Kfz-Versicherung usw.) - oder aber bankrott gehen bzw. direkte oder indirekte öffentliche Subventionen benötigen. Thiemeyer (1983) und auch Nowotny (1987) versuchen den (deutschen) Begriff der "Gemeinwirtschaftslehre" zu verteidigen, ohne jedoch das fehlende theoretische Gerüst zu liefern. Insbesondere werden übliche ökonomische Kriterien wie Grenzkostenpreise, keine Quersubventionen dem Ziel des "gemeinsamen Wohles" geopfert, nach dem Motto: "Wenn es für das allgemeine Wohl ist, was ist dann daran schlecht?". Die Bedeutung dieser Theorie für die Entwicklung öffentlicher Unternehmen im deutschen Sprachraum ist nicht zu unterschätzen. Jedoch das "allgemeine Wohl" ist operational ein kaum Fassbarer und möglicherweise sogar ein gefährlicher Begriff; Kaufer-Blankart (1983) und Smekal (1986) kritisieren deshalb auch diese Theorie. Ein weiteres gebräuchliches Argument für staatliche Intervention bezieht sich auf langsame oder oszillierende Marktanpassungen, wenn die Marktpreise - etwa entlang eines Spinnweb (oder bekannter cob-web) Anpassungsprozesses - stark schwanken. Aus schwankenden Preisen resultiert unter Umständen ein Wohlfahrtsverlust bedingt durch notwendige Anpassungskosten, so dass eine gewisse Regulierung gerechtfertigt sein mag. Zum Beispiel unterliegen Taxitarife international einer Preisregelung.46 8.2 Ramsey-Preise Vorteile der Großproduktion gegenüber kleineren Produktionseinheiten über den gesamten bzw. für eine Volkswirtschaft relevanten Bereich führen zu natürlichen Monopolen. Dieser Vorteil der Großproduktion wird häufig mit dem Begriff zunehmender Skalenerträge (increasing returns to scale) verbunden.47 Im Falle mehrerer sich konkurrenzierender Firmen kann der Kostenvorteil der Großproduktion nicht komplett ausgenützt werden. Deshalb besteht für die effizienteste Firma der Anreiz diese Monopolposition zu gewinnen. Dieser Kostenvorteil rechtfertigt die Existenz einer einzigen Firma aus wohlfahrtstheoretischen Überlegungen. Dabei kann eine vom Monopol abweichende Marktform, etwa durch Verstaatlichung, das Prei- 45Hesselbach war Vorstandsdirektor der Bank für Gemeinwirtschaft, die dem deutschen Gewerkschaftsbund gehört. 46Eine neue und interessante Begründung für Staatsinterventionen bei zyklischen Prozessen (in einer perfekten Welt mit rationalen Erwartungen) findet man in Grandmont (1985), während Benhabib-Nishimure (1979), Wirl (1992), Feichtinger-Novak-Wirl (1993) zeigen, daß solche Oszillationen durchaus auch optimal sein können! 47Tatsächlich sind wachsende Skalenerträge weder notwendig noch hinreichend für ein natürliches Monopol sondern die Subadditivität der Kosten. Öffentliche Unternehmen 155 sen nach Monopolregeln und die damit verbundenen Effizienzverluste vermeiden helfen. Die Verstaatlichung der natürlichen Monopole erfolgte, zumindest teilweise auch aus Gründen der ökonomischen Effizienz, denn die Monopole setzen 'falsche' Preise. Die übliche Lösung, Preis=Grenzkosten, wird von vielen als "erstbestes" Optimum verstanden; das anfallende Defizit solle durch Steuern, am besten Kopfsteuern (lump sum taxes) gedeckt werden. Dieser Vorschlag ist nicht so unrealistisch wie er im ersten Moment erscheinen mag, da er tatsächlich und sogar häufig angewandt wird; z. B. ist das Überqueren von Brücken, das Benützen der Gehsteige, Parks etc. umsonst (weil bei öffentlichen Gütern die Grenzkosten, d. h. die Kosten durch meine zusätzliche Benutzung verschwindend gering sind). Die allgemeine Anwendung dieses Prinzips führt jedoch zu Problemen, etwa: Es kann nicht entschieden werden, ob die Produktion dieses Gutes/Dienstleistung überhaupt sinnvoll ist, weil bei geringen Grenzkosten und entsprechendem Preis immer eine Nachfrage anfällt, aber der soziale Nutzen so gering sein kann, dass damit verbundene, eventuell hohe Fixkosten nicht zu rechtfertigen sind. Oder, da Kopfsteuern kaum möglich sind, führt jede andere Steuer selbst zu Verzerrungen und Fehlallokationen, und es ist a priori nicht klar, welche Alternative - Abweichen von Grenzkostenpreisen zur Kostendeckung oder Einkommenssteuer - effizienter ist. Weiter fehlt, wenn das Defizit ohnedies abgedeckt wird, jeder Anreiz für das Management, zumindest Kostenminimierung zu betreiben (siehe ÖBB). Aus all diesen Überlegungen kommt kostendeckenden Tarifen, oder auch Eigenwirtschaftlichkeitsregel genannt, eine besondere Bedeutung zu. In anderen Worten, die Preise müssen simultan zwei unterschiedliche Funktionen erfüllen: sie sollen - so weit wie möglich eine effiziente Allokation gewährleisten, gleichzeitig jedoch genug Einnahmen liefern, um die Kosten abzudecken. Diese zusätzliche Randbedingung der Kostendeckung führt dazu, dass das eigentliche Optimum nicht mehr erreicht werden kann. Deshalb spricht man von "zweitbesten" (second best) Lösungen. Aus der Bedingung nach Eigenwirtschaftlichkeit wird oft geschlossen, dass Durchschnittspreise verrechnet werden müssen. Dies folgt jedoch nicht aus dieser Annahme und führt zu, vermutlich großen, (Wohlfahrts-) Verlusten, wie im folgenden an einfachen Beispielen illustriert wird. So ist die Verwendung von natürlichen Einheiten zur Aufteilung der Gesamt- (oder bereits besser der Fix-) Kosten absolut willkürlich. Angenommen, die Bahn will die Fixkosten entlang einer Linie auf drei unterschiedliche Speditionsaufträge für Diamanten, Federn und Granitsteine aufteilen. Jedoch jede scheinbar natürliche Einheit wie Gewicht, Volumen und Wert führt zu einer komplett unterschiedlichen Reihung der entsprechenden "Durchschnittskosten". Zur effizienten Aufteilung der Fixkosten, das sind die - wie schon der Name sagt - der Produktion nicht zuordenbaren Kosten, betrachte folgendes Beispiel. Beispiel (nach Baumol-Willig (1983)): Eine Eisenbahnlinie mit einer Länge von 10 Meilen soll 1 Million Tonnen Kohle und 1 Million Tonnen Holz transportieren. Die Kosten für die Erhaltung der Linie betragen $2 Millionen und die variablen Kosten belaufen sich auf 10 cents pro Tonne und pro Meile. Der Ertrag für den Spediteur beträgt bei Holz 16 cents und bei Kohle 26 cents jeweils pro Tonne und Meile. Die Festlegung des Preises mit 20 cents pro Tonne und Meile scheint fair, da beide Aufträge dieselben variablen Kosten haben und die erwarteten Einnahmen von $4 Millionen genau die Kosten abdecken. Jedoch bei einem Tarif Öffentliche Unternehmen 156 von 20 cents findet der Holztransport nicht statt, da dies einen Verlust für den Spediteur von 4 cents pro Tonne Holz und pro Meile Transport bedeutet. Durch den Ausfall des Holztransportes müßte nun der Kohletransport die gesamten Fixkosten plus die variablen Kosten abdecken. Bei dem entsprechenden Tarif von 40 cents kommt jedoch auch die Spedition der Kohle nicht zu Stande. Betrachten wir jedoch die am Markt orientierten Preise von 25 und 15 cents je Tonne und Meile für Kohle und Holz. Bei diesen Preisen kommt der Transport zu Stande, liefert der Eisenbahnlinie die notwendigen Einnahmen von $4 Millionen zur Kostendeckung, und die Spediteure selbst verdienen dabei jeweils $100000, verglichen mit dem Bahndefizit von $2 Millionen bei 'fairen' Durchschnittspreisen. Dieses Beispiel unterstreicht bereits alle wichtigen Elemente der Ramseypreisregel: 1. Die relativen Aufschläge über den Grenzkosten (oder variablen Kosten) dürfen nicht auf der Basis durchschnittlicher, historischer, buchhalterischer Aufwendungen basieren, sondern müssen proportional dem entsprechenden Wert (der marginalen Zahlungsbereitschaft) getroffen werden. Dieser Wert ist reziprok zur (absoluten) Preiselastizität der Dienstleistung oder des Gutes, so dass eine hohe (niedrige) Preiselastizität hohe (niedrige) Flexibilität und daher geringen (hohen) Verlust aus einer Preiserhöhung signalisiert. 2. Die Aufschläge müssen in Summe so gewählt werden, dass Kostendeckung gewährleistet ist. Arithmetisch stellt sich diese Preisregel für jede angebotene Dienstleistung i = 1,...,n, n Anzahl der angebotenen Dienstleistung (z. B. Strom differenziert nach Tag und Nacht, Sommer und Winter und nach Konsumentegruppen, Industrie, Gewerbe, Haushalte) so dar: Preis(i) - Grenzkosten(i) ----------------------------- = Konstante (Ramseyzahl) x reziproke Preiselastizität, Preis(i) so dass der relative Aufschlag über die Grenzkosten (linke) Seite proportional zur reziproken Preiselastizität sein muss. Die Bedingung verlangt zuallererst, dass die Preise über den (marginalen) Gestehungskosten liegen müssen und dass jene Güter, die durch eine geringe Nachfrageelastizität charakterisiert sind, mehr zur Abdeckung der Fixkosten beitragen sollen; also bei Gütern mit hoher Nachfrageelastizität wird der Preis relativ nahe an den Grenzkosten orientiert, während inelastische Nachfragen einen hohen Aufschlag über den Grenzkosten bezahlen. Es gilt (approximativ), dass in diesem second best Optimum alle Güter um denselben Faktor aus der ('erst besten') Lösung, wo die Nachfrage durch Grenzkostenpreise bestimmt ist, verschoben sind. Die Konstante - sie wird auch oft als Ramsey-Zahl bezeichnet - muss dabei so gewählt werden, dass die Kostendeckung gewährleistet ist. Die politischen Randbedingungen, dass einer öffentliche Firma ein gewisses Defizit erlaubt wird (wie z. B. der Bahn) oder ein Min- Öffentliche Unternehmen 157 destprofit erbracht werden muss, bestimmen somit das Preisniveau und die Ramsey-Preisregel die Preisverhältnisse, d. h. die optimale Preisdifferenzierung. Die Preiselastizität approximiert den Wert eines Gutes bzw. einer Dienstleistung. Dienstleistungen mit einem hohen Wert für den Konsumenten werden eine geringe Preiselastizität aufweisen (und umgekehrt). Denn, wenn im Falle einer Preiserhöhung nur mit geringer Nachfrageänderung reagiert wird, dann muss der Wert des entsprechenden Gutes für den Konsumenten hoch sein, d. h. weit über dem Preis liegen. Somit sollen jene Dienstleistungen mit hohem Wert für die Konsumenten mehr zur Abdeckung der nicht zuordenbaren Kosten beitragen, anstatt einer an Durchschnitten, oder auf der Basis anderer ad hoc Verfahren, orientierten Aufteilung. Dieses Schema kann daher in gewissem Sinne als egalitär bezeichnet werden, weil (approximativ) der Beitrag zur Fixkostenabdeckung proportional dem Wert der unterschiedlichen Dienstleistungen entspricht. Die Konsequenz wohlfahrtsoptimaler Tarife besteht darin, dass inelastische Konsumentengruppen die Hauptlast der Fixkosten tragen. Dieser "asoziale" Aspekt - die geringe Preiselastizität korreliert oft mit wenig Wahlmöglichkeiten (z. B. Abhängigkeit vom öffentlichen Verkehrssystem, wenn kein PKW vorhanden ist) - erklärt die Grenzen der direkten Anwendung dieses Konzeptes. Dieses Problem kann durch explizite Inkorporation egalitärer Ziele berücksichtigt werden - die sogenannten Feldstein-Preise nach Feldstein (1972). Dieser Ansatz garantiert - zumindest im allgemeinen - nicht, dass "notwendige" Güter billiger werden, obwohl die Inkorporation egalitärer Ziele notwendige Güter gegenüber Luxusgütern tendenziell favorisiert wird; vergleiche Bös (1986). Darüberhinaus provozieren Feldstein-Preise durch exzessive Besteuerung der Luxusgüter die Konkurrenz privater Unternehmen, was langfristig auch bei rigiden Abschottungen des öffentlichen Monopols die Einnahmebasis für diese Quersubventionen eventuell gefährdet. Dieses Thema korrekten Verhaltens öffentlicher und/oder natürlicher Monopole ist von besonderem aktuellen Interesse sowohl aus politischen Gründen (Reprivatisierungsdebatte, Reprivatisierung vieler öffentlicher, bisheriger Monopolunternehmen in England) als auch aus theoretischen Überlegungen durch die neue Theorie anfechtbarer Märkte (contestable markets), Baumol-Panzar-Willig (1982, 1989). Letzere Theorie besagt, dass auch ein Monopol, wenn der Markt offen gegenüber Eintritt und Verlassen ist, sozial korrekte (Ramsey-Preise) und weder überzogene noch ineffiziente Preise verrechnet. 8.2.1 Ableitung der Ramsey-Preise Wir betrachten ein öffentliches Multiprodukt Unternehmen, das die n-Produkte x = (x1,...,xn)t herstellt48. Die Produktion erfolge unter zunehmenden Skalenerträgen, so dass das öffentliche Unternehmen ein natürliches Monopol darstellt und Grenzkostenpreise zu Defiziten führen würden. Dieses Unternehmen soll eine effiziente Preisstrategie anwenden unter der Randbedingung der Kostendeckung. Als Wohlfahrtskriterium W(.) wird für die folgende Argumentation auf die Konsumentenrente zurückgegriffen, wobei x = f(p) bzw. ausgeschrieben: 48 t steht für transponieren. Öffentliche Unternehmen xi = fi(p1,p2,...,pn) i = 1,..,n 158 (5.1) die Nachfragefunktionen abhängig von den Preisen p = (p1,..., pn)t beschreibt. Diese Formulierung nimmt implizit an, dass die Einkommenseffekte durch öffentliche Preisgestaltung gering sind. Zur weiteren Vereinfachung unterstellen wir, dass die einzelnen Nachfragen unabhängig sind49, so dass: xi = fi(pi), fi' < 0. (5.1') Die Konsumentenrente, die definiert ist als das Kurvenintegral, ist dann unabhängig vom Integrationspfad und durch: n n W(p)= fi dui = i =1 pi i =1 fidui pi (5.2) gegeben50. Die Ertragsfunktion des Unternehmens, (p), ergibt sich als die Differenz der Einnahmen weniger den Aufwendungen an Produktionskosten (C(x)): n (p) = fi(p)pi - C(f1(p),...,fn(p)) (5.3) i=1 wobei die Nachfragebeziehungen sowohl zur Umsatz- als auch zur Kostenbestimmung herangezogen werden. Unter diesen Annahmen müssen wohlfahrtsoptimale, gleichzeitig aber kostendeckende Preise so gewählt werden, dass sie die Konsumentenrente (5.2) unter Beschränkung keiner Verluste maximieren: max W(p) so dass (p) = 0 p (5.4) Die Analyse dieses Problems von Lagrange liefert, nach Definition der Lagrange-Funktion L: L = W + µ (5.5) mit dem Lagrange Multiplikator µ die folgenden notwendigen Optimalitätsbedingungen: 49Diese Ableitung kann auf Kreuzpreiseffekte verallgemeinert werden mit demselben Ergebnis, wenn man eine entsprechende 'Superelastizität' anstatt der Preiselastizität einsetzt, Baumol-Bradford (1970). 50Die Nachfragefunktionen sind so angenommen, daß für alle Preiskombinationen die Nachfrage nichtnegativ wird. Dies bedeutet, daß die Konsumenten nicht selbst mit den Gütern zu handeln beginnen. Öffentliche Unternehmen 159 -xi + µ(fi'pi + xi - Cifi') = 0, i = 1,...,n (5.6) =0,µ0 (5.7) wobei die Funktionsargumente unterdrückt wurden. Ci:=C/xi beschreibt die Grenzkosten der Erzeugung des i-ten Gutes. Herausheben von fi' aus der Klammer von (5.6) und Division durch fi' liefert: -(1 - µ)(xi/fi') + µ(pi - Ci) = 0 (5.8) Umformen, Verwendung von: fi pi i:=- -pi zi (5.9) von i für die Bezeichnung der (absoluten) Preiselastizität51 des i-ten Gutes und Vereinfachung aufgrund der Annahme (5.1') liefert für die optimale Preisregel: pi-Ci 1 (1-a) = -- pi i a (5.10) bzw. für das Preisverhältnis zwischen den Gütern i, j: (pi-Ci)/pi j = -(pj-Cj)/pj i (5.11) Die sozial-optimale Preisregel (5.10) hat, mit Ausnahme des Proportionalitätsfaktors und der Profite, dieselbe Struktur wie die eines privaten Monopols. Der private Monopolist maximiert direkt seinen Profit , Gleichung (5.3), indem er die Grenzeinnahmen mit Grenzkosten ausgleicht. Grenzeinnahmen (MRi) = pi + xi/fi' = Ci =Grenzkosten (5.11) Diese Beziehung (5.11) des optimalen Monopolpreises lautet in der Form der inversen Elastizitätsregel: 51Die Elastizität _i gibt die prozentuelle Nachfragereduktion bei einer 1 % Preiserhöhung an. Öffentliche Unternehmen pi-Ci 1 = -pi i 160 (5.12) Die Monopolpreise übersteigen die sozial optimalen Preise, da öffentliche Firmen gegenüber den Monopolpreisen den proportionalen Abschlag von [(1-µ)/µ] in (5.10) gegenüber der Monopolregel (5.12) gewähren; oder umgekehrt: die öffentliche Firma benimmt sich wie ein Monopolist, aber inflationiert zuerst die Preiselastizitäten mit dem Faktor [µ/(1-µ)]. Der Monopolist ist der eine Grenzfall einer öffentlichen Firma, wenn die Ramsey-Zahl genau 1 wird und nur Profitmaximieren die Kosten abdeckt. Der andere Grenzfall, der Aufschlag über die Grenzkosten verschwindet (oder µ = -1), ergibt sich, wenn die Grenzkostenpreise kostendeckend seien. Falls Grenzkostenpreise zu finanziellen Überschüssen führen, würde µ weiter steigen und Ramsey-Preise einen Abschlag gegenüber den Grenzkosten bedeuten. Letztere Anwendung ist unökonomisch, da erstbeste, Grenzkostenpreise, möglich wären. 8.3 Spitzenlastpreisbildung Der zweite wichtige Ansatz der öffentlichen Tarifierung geht von linearer Produktionstechnologie aus. Dabei wird vorausgesetzt, dass die Nachfrage in unterschiedlichen Perioden unterschiedliches Niveau hat und dass das produzierte Gut nicht gelagert werden kann. Die zu installierende Kapazität steht aber dann in allen Perioden - quasi als freies Gut - zur Verfügung. Das zentrale Problem ist die Aufteilung dieser Kapazitätskosten auf die verschiedenen Perioden. Dieser Ansatz geht zurück auf Steiner (1964). Das Buch von Crew-Kleindorfer (1979) gibt eine exzellente Darstellung dieser Theorie. Die lineare Produktionstechnologie ist charakterisiert durch variable Kosten b und Kapazitätskosten ß je installierte Einheit Kapazität. Im Gegensatz zu den Annahmen in den vorherigen Ansätzen gibt es keine zunehmenden Skalenerträge (daher auch und keine Fixkosten), sondern eine Technologie mit zwei Kostenkomponenten für Produktion und Kapazität. Die Analyse optimaler Preisbildung bei unterschiedlichem Bedarf über die Zeit und unter der Annahme hoher Investitionskosten in die notwendigen Kapazitäten spielt eine zentrale Rolle in der Diskussion über öffentliche Tarife. Diese Bedeutung wird für die Elektrizitätswirtschaft noch verstärkt durch die Tatsache, dass die Variationen der Nachfrage gekoppelt sind mit der Unmöglichkeit Strom, wie viele andere Produkte (etwa Heizöl), zu lagern. Dementsprechend groß ist die Literatur zu diesem Thema mit einem eigenen Schwergewicht für Elektrizität. Die lineare Produktionstechnologie garantiert Kostendeckung bei Anwendung des Prinzips von Grenzkostenpreisen. Dies gilt jedoch nur für deterministische Ansätze. Stochastische Überlegungen der Spitzenlasttariffierung zeigen, dass die finanzielle Tragfähigkeit nicht gegeben sein muss, Brown-Johnson (1969), Crew-Kleindorfer (1979). In diesen Fällen entsteht ein Subventionsbedarf, oder aber es müssen zweit-beste Tarife - also Modifikationen der Grenzkostentarife ähnlich zu Ramsey-Preisen - angewandt werden. Das Prinzip der Spitzenlasttariffierung kann an Hand des folgenden einfachen Falles dargelegt werden. Ein öffentliches Versorgungsunternehmen produziert und vertreibt ein Gut unter den Öffentliche Unternehmen 161 folgenden Voraussetzungen. Die Nachfrage teilt sich in 2 gleich lange Abschnitte (etwa Sommer- und Winterhalbjahr, oder Tag und Nacht), wobei sich die Spitzenlastproblematik daraus ergibt, dass in der Periode 2 bei gleichen Preisen eine höhere Nachfrage resultiert. Wie schon angedeutet sind die Produktionskosten linear: die (variablen) Erzeugungskosten belaufen sich je Einheit auf b; die Kapazitätskosten je Produktionseinheit pro Periode, belaufen sich auf ß, so dass die gesamten Kapazitätskosten sich ergeben aus dem Produkt ß mal der zu installierenden Kapazität (q). Diese Kapazität ist identisch mit dem Maximum der Nachfrage, weil Rationierung ausgeschlossen wird. Die Preise p1 und p2 sollen so gewählt werden, dass die gesellschaftliche Wohlfahrt (Konsumenten- plus Produzentenrente) maximal wird. Die Lösung dieses Spitzenlastproblems ist im folgenden graphisch dargestellt. In der folgenden Analyse und in den Abbildungen muss zwischen zwei Varianten unterschieden werden: (i) die strenge Spitzenbelastung, (ii) wandernde Spitze. Im Falle (i) - der strengen Spitze, so dass nach wie vor in der Periode 2 die Spitzenbelastung anfällt - sind die optimalen Preise durch: p1=variablen Kosten=b p2=Kapazitätskosten plus variable Kosten ß + b gegeben, d. h., die Kapazitätskosten werden alleine durch den Bedarf in der Spitzenlastperiode abgedeckt, während außerhalb der Spitze nur die laufenden (Grenz-) Kosten verrechnet werden. Dieses Ergebnis ist eine unmittelbare Konsequenz der Aussage, dass Grenzkostenpreise optimal sind, da eine Produktionstechnologie mit konstanten Skalenerträgen vorausgesetzt wurde. Die Abb. 8.1 gibt eine graphische Darstellung der Lösung im Falle einer festbleibenden Spitze. Die polare Preisregel ist jedoch nur solange optimal als bei den obigen Preisen, keine Verschiebung der Spitzenebelastung (von der Periode 2 in die Periode 152), wegen der möglicherweise stark unterschiedlichen Preise stattfindet. 52Ein Beispiel dafür war der sogenannte "Mondscheintarif", der das Telefonieren in der Bundesrepublik und den Abend- und Nachtstunden verbilligte. Diese Maßnahme, die gedacht war die Spitzenbelastung des Telefonnetzes untertags zu entlasten, führte dann zu neuerlichen und unerträglichen Spitzen in den Abendstunden, so dass dieser Tarif wieder aufgelassen werden mußte. Öffentliche Unternehmen 162 ÖS Nachfrage D1 p2 b+ß p1 b D2 q1 q2 Menge kWh Abb.8.1: Optimale Tarife bei festbleibender Spitzenbelastung Führt aber diese Preisregel zu einer Verschiebung, spricht man von einer wandernden Spitzenbelastung - Fall (ii). In diesem Falle können jedoch die obigen Preise nicht mehr optimal sein, da sie auch keine Grenzkostenpreise mehr sind. Die optimalen Preise müssen nun so gewählt werden, dass der gesamte Erlös die gesamten Kosten abdeckt. Die Aufteilung auf die einzelnen Perioden erfolgt durch jene Preise, die bei Produktion an der Kapazitätsgrenze (in beiden Perioden 1 und 2 wird jetzt gleich viel produziert) den Markt räumen. Daraus folgt, dass beide Nachfragesegmente einen Beitrag zur Abdeckung der Kapazitätskosten leisten, dass jedoch die Nachfrage während der Spitzenperiode einen höheren Anteil an den Fixkosten abdecken muss, weil p2 > p1 > b. Dieses Ergebnis rechtfertigt z. B. eine Diskriminierung zwischen Winter- und Sommerstrom, Tag- und Nachtstrom. Mehr sogar, diese Diskriminierung ist auch gerechtfertigt, wenn die daraus resultierende Nachfrage etwa in der Nacht das Niveau der Nachfrage am Tag erreicht. Die einzige dafür notwendige und realistische Bedingung ist, dass bei gleichen Preisen die Nachfrage untertags höher wäre. Eine Darstellung der Aufteilung der Kapazitätskosten bei wandernder Spitzenbelastung ist in der Abb.8.2 unten gegeben. Zuerst werden die beiden Nachfragefunktionen zur gesamten Nachfrage aufaddiert. Wo die aggregierte Nachfrage die gesamten Kosten 2b + ß schneidet, liegt die optimale zu installierende Kapazität. Die Kapazität wird in beiden Perioden ausgelastet, d. h. x1 = x2 = q. Die entsprechenden markträumenden Preise ergeben sich aus dem Schnittpunkt der vertikalen Angebotskurve mit den einzelnen Nachfragekurven. Öffentliche Unternehmen 163 ÖS D1 + D2 2b + ß D2 D1 b+ß p2 p1 b q1 q2 q1 = q2 = x Menge kWh Abb. 8.2: Optimale Tarife bei wandernder Spitzenbelastung Das wichtigste und auch robuste Ergebnis dieser Analyse besteht darin, dass der Bedarf, der ursprünglich die Spitzenbelastung (bei konstanten Preisen) verursacht, einen höheren Beitrag zu Kapazitätskosten liefern soll, als die Nachfrage außerhalb der Spitze; bei ausgeprägter Spitzenbelastung und/oder niedrigen Kapazitätskosten sollte diese Periode allein die Kapazitätskosten tragen. 8.3.1 Anwendung: Zeitvariable Tarife Die beiden normativen Theorien, die der Ramsey-Preise und die der Preisbildung bei Spitzenlastproblemenen, liefern die Grundlage für neue, zeitlich differenzierte Tarifsysteme, sogenannte Time-of-Use Tariffs oder kurz TOU Tarife. Neben zahlreichen akademischen Ar- Öffentliche Unternehmen 164 beiten zu diesem Thema, wurden auch bereits mehrere Experimente (in den USA) unternommen. Unter Berücksichtigung der Erhöhung der Messkosten ist die Abwägung zwischen dem Nutzen dieser Tarife und den (Mess-) Kosten gemischt; siehe Aigner (1986). Tabelle 1.1 Fasst einige Arbeiten zu diesem Thema zusammen; Quellen: Hirschberg-Aigner (1983), Berg-Sullivan (1983), Lillard-Aigner (1984), Howrey-Varian (1984), GallantKoenker (1984), Parks-Weitzel (1984), Hausmann-Trimble (1984), Aigner-Leamer (1984), Rolla-Acton (1984), Woo (1985), Mountain-Hsiao (1986). Die Quintessenz dieser zahlreichen Untersuchungen scheint zu sein, dass die Nachfrage signifikant auf die Preise reagiert, aber die Elastizität insbesondere in der Spitzenperiode oft gering ist und dass die Wohlfahrtsgewinne - wenn überhaupt - klein ausfallen und überdies starker Preisdifferenzierung bedürfen. Diese Schlussfolgerungen aus den Experimenten scheinen zu pessimistisch. Mein Argument gegen diese Abschätzungen ist, dass den Teilnehmern keine entsprechend adaptierten Anwendungsgeräte zur Verfügung standen. Daher ist auch die beobachtete geringe Flexibilität der Konsumenten - mit wenigen Ausnahmen - nicht überraschend. Denn die Entwicklung von entsprechenden Anwendungsgeräten unterblieb natürlich für diese vereinzelten Experimente, während hingegen bei einer allgemeinen Einführung zeitabhängiger Tarife - zumindest langfristig - entsprechende Geräte angeboten werden. Solch flexiblere Anwendungsgeräte werden die Konsumentenreagibilität vermutlich substantiell erhöhen und dadurch die Kosten-Nutzenbilanz verbessern. Diese Tendenz wird durch den technischen Fortschritt in Mikroelektronik beschleunigt, der die Messkosten reduzieren wird. Ähnliches gilt für Firmen. So analysieren Tishler (1984) und Bosworth-Pugh (1985) darüber hinaus den Einfluss zeitvariabler Tarife auf die Wahl von Arbeitsschichten in der Industrie. Daher scheinen weitere isolierte Experimente nicht unbedingt notwendig; innerhalb der Vereinigten Staaten sind die bisherigen Ergebnisse - mit der obigen Einschränkung nach Caves-Christensen-Herriges (1986) ohnedies übertragbar. Dazu kommt noch, dass Experimentteilnehmer unangenehme individuelle Anpassungen für ein Experiment unterlassen, die sie bei einem lang anhaltenden zeitlich differenzierten Tarif durchführen würden. Alleine der zweite Aspekt der Konsumentenanpassung zeigt sich deutlich in Filippini (1995), der auf der Basis von Querschnittsdaten für die Schweiz, wo zeitlich differenzierte Tarife eine lange Tradition haben, ungleich höhere Preiselastizitäten (mit 2 ungefähr einen Faktor 10 über den amerikanischen) ermittelt. Dieser Unterschied an höherer Flexibilität der Konsumenten hat natürlich signifikant positive Auswirkungen auf eine entsprechende Kosten-Nutzenanalyse. Öffentliche Unternehmen 165 Tabelle 1.1: Analyse zeitvariabler Tarife-Literaturübersicht Autoren Methode Sektor-Region Ergebnis ─────────────────────────────────────────────────────────────── Hirschbergtranslog Southern Cal. signifikante Aigner Edison Preiselastizitäten ActonMitchell Los-Angeles W>0 BergSullivan ökonomischtechnisch kalibriert W0, Y<0 LillardAigner CES-Funktion Southern California Ed. W0 Caves et al. verallg. Leontief Haushalte Illinois W<0 ParksWeitzel translog v. Leontief Wisconsin Haushalte signifikante Elastiz. W0 HowreyVarian CES-Funktion, Arizona Haushalte W0 GallantKoenker DY>0 Trimble kont. Zeit v. Leontief N. Carolina Haushalte W0 Experim. W>0 optimal KohlerMitchell "hybride" Nachfrage Querschnitt Haushalte CavesChristensen CES-Funktion Querschnitt Haushalte AignerLeamer CES vert. Koeff. Querschnitt Haushalte ParkActon linear Querschnitt Industrie W>0 Woo v. Leontief translog California Kleinverb. keine Haush. Leontief Spez. ist robuster, geringe Effekte auf Spitze Anwendungen Ergebnisse können auf andere Gebiete übertragen werden Mountaintranslog, CES Ontario substantielle Cheng Leontief Industrie Substitutionselas. ─────────────────────────────────────────────────────────────── W = gesamter Wohlfahrtsgewinn=Verbesserungen der Konsumentenrente, Y = reduzierten Kosten - zusätzlichem Meßaufwand. Öffentliche Unternehmen 8.4 8.4.1 166 Zweigliedrige Tarife Einleitung Ein zweigliedriger Tarif, Grundpreis und Arbeitspreis, stellt eine Alternative zu den Ramsey-Preis bedingten Aufschlägen über den Grenzkosten dar, um eventuell auftretende Fixkosten abzudecken und die Abweichung von Grenzkostentarifen zu minimieren. Dieser Vorschlag wird in Coase (1946) als Alternative zur dogmatischen Grenzkostentariffierung (Hotelling, 1938) gemacht. Darüberhinaus wird dieser Tarif traditionell, zumindest in der Elektrizitätswirtschaft, verwendet. Jedoch erst spätere Arbeiten - insbesondere Schmalensee (1981), aber vgl. auch Oi (1971), Ng-Weisser (1974) - setzen sich formal genauer mit diesem Vorschlag auseinander und kommen aber im allgemeinen zu komplizierten, wenn auch zu wohlfahrtsverbessernden, Tarifen, wo der Arbeitspreis trotzdem von den Grenzkosten abweichen kann. Präziser, im Spezialfall identischen Nachfrageverhaltens (respektive dem Arbeitspreis) oder der Möglichkeit individuell differenzierter Grundpreise gilt die Coase'sche Vermutung: Arbeitspreis=Grenzkosten. Hingegen impliziert unterschiedliches Nachfrageverhalten, dass Grenzkostentarife nicht notwendigerweise die optimale Wahl in einem zweigliedrigen Tarif für den Arbeitspreis darstellen. Der Grund ist, dass unter Umständen ein zu hoher Grundpreis als Reflexion der Fixkosten potentielle Kunden mit niedrigem Bedarf abschreckt, die ungeachtet dessen kostendeckend durch einen niedrigeren Grundpreis, aber einen höheren Arbeitspreis bedient werden können und damit die Wohlfahrt erhöhen. Die Komplexität des entsprechenden Tarifs resultiert aus dem notwendigen Ausgleich des Nutzengewinns 'marginaler' Konsumenten (also jene Kunden, die erst durch eine Absenkung des Grundpreises gewonnen werden können) mit dem Verlust 'intramarginaler' Konsumenten (also von "Stammkunden"); letztere erleiden einen Verlust, weil jetzt der Arbeitspreis die Grenzkosten übersteigt und sie daher ihren Bedarf etwas einschränken.53 Da diese Abweichung von der Anschlusselastizizät abhängt, d. h. von der Sensitivität mit der Kunden das Stromnetz verlassen, und diese Elastizität vernachlässigbar scheint (von wenigen Wochendhaushalten abgesehen), wäre approximativ zumindest die einfache Coase'sche Vermutung optimal: der Arbeitspreis entspricht den Grenzkosten, und der Grundpreis den dadurch nicht gedeckten Fixkosten. Gleichzeitig würde ein zweigliedriger Tarif helfen, andere Probleme (Wochendwohnungen, insbesondere von Ausländern decken über ihren relativ geringen Bedarf nicht die Fixkosten) zu lösen. Es ist vielleicht auch noch erwähnenswert, dass zweigliedrige Tarife nur dann sozial optimal sind, wenn tatsächliche Fixkosten auftreten, dass jedoch ein privater Monopolist mittels zweigliedriger Tarife Konsumentenrente in Gewinn überführen kann, wenn die Produktionstechnologie linear ist (also keine Fixkosten aufweist). Weitere Details und eine stringente Analyse zweigliedriger Tarife sind im Anhang C zusammengestellt. 53Diese Komplexität der Tarife kann dadurch umgangen werden, indem eine RamseyPreisformel den Grundpreis festlegt, während sich der Arbeitspreis, wie in Coase (1946), strikt an den Grenzkosten orientiert. Siehe dazu Wirl (1990), wo auch gezeigt wird, daß eine solche Differenzierung der Fixkostenaufteilung allen Konsumentegruppen nützen kann (am Beispiel des Fernwärmeausbaus). Öffentliche Unternehmen 8.4.2 167 Ableitung zweigliedriger Tarife Elektrizitätstarife und auch viele andere öffentliche Dienstleistungen sind durch zweigliedrige Tarife charakterisiert. Das Recht auf Bezug dieser Dienstleistung wird mittels eines Grundpreises (G) erstanden, während der Arbeitspreis (p) den Preis je konsumierter Einheit bestimmt. Dieser Tarif (G,p) ist ein Beispiel allgemeiner, nichtlinearer Tarife. Die klassische Arbeit zu diesem Thema ist von Oi im Zusammenhang der Eintrittstarife für Disneyland, der auch bereits erkannte, dass vermutlich ein Monopol notwendig ist, um diese Tarife zu implementieren. Andernfalls, könnte ein Konkurrent durch lineare Tarife (über den Grenzkosten) alle jene Konsumenten an sich ziehen, die nur einen geringen Verbrauch haben. Die Analyse beginnt mit der Vereinfachung, dass die Konsumenten, nachdem sie sich an das Netzwerk angeschlossen haben, ein identisches Konsumverhalten aufweisen. Die Konsumenten differieren jedoch hinsichtlich ihrer Bereitschaft sich anzuschließen. Unter dieser Voraussetzung gilt die Vermutung von Ronald Coase (1964)54, dass der Arbeitspreis den Grenzkosten entspricht. Dies gilt sowohl für Wohlfahrtsüberlegungen als auch für Monopolisten! In der Folge wird dieser Ansatz erweitert auf unterschiedliches Verbraucherverhalten. Dies führt dann zu komplizierten Tarifen. Identischer Verbrauch, unterschiedliche Konsumenten Die aggregierte Nachfrage (X) ist das Produkt der angeschlossenen Konsumenten (n) mal der Nachfrage des typischen Konsumenten (x), X = xn. Die Nachfrage jedes einzelnen Konsumenten ist unabhängig vom Grundpreis G und hängt nur vom Arbeitspreis p ab. Hingegen hängt die Anzahl jener Konsumenten, die sich an das Netzwerk anschließen, von den Gesamtkosten, das heißt von beiden Tarifen ab n = n(G,p). Daher folgt X = X(G,p) = x(p)n(G,p). Die Grundannahme in diesem Kapitel dieses Anhangs ist, dass die Konsumenten ähnlich, präziser identisch in der Wahl der Dienstleistung sind, falls sie sich an das Netzwerk anschließen. In anderen Worten, der repräsentative Konsument wählt folgendes Nutzenmaximierungskalkül: v(G,p):=max u(x) – px - G x (1) wobei u eine konventionelle wachsende und konkave Nutzenfunktion beschreibt; v definiert wie üblich die indirekte Nutzenfunktion. Diese Formulierung abstrahiert implizit von Einkommenseffekten. Das Optimierungsproblem (1) impliziert unmittelbar, dass die Wahl von x unabhängig vom Grundpreis G ist, d. h. x = x(p) und x' = (1/u'') < 0. Das Envelopentheorem impliziert: vG = -1 (2) und 54Coase attackiert scharf die Befürworter von Grenzkostentarifen falls dies zu Defiziten führt und schlägt anstatt dessen zweigliedrige Tarife vor. Öffentliche Unternehmen vp = -x. 168 (3) Tiefgestellte Indizes stehen, wie üblich, für partielle Ableitungen, z. B. vG = v/G. Die Nutzenfunktion u - bzw. v - ist zwar gleich für alle Konsumenten, trotzdem differieren die Konsumenten hinsichtlich ihres Reservationsnutzens vr, der durch Zurückgreifen auf Alternativen erreicht werden kann. Zum Beispiel im Falle eines Fernwärmeanbieters kann der Konsument andere Brennstoffe als Öl, Gas, Strom, Holz, Kohle usw. verwenden, um seine Nachfrage nach thermischem Komfort zu befriedigen. Diese Alternativen liefern einen Nutzen vr. Ein Konsument wird die Dienstleistung x (hier im Beispiel die Fernwärme) nur dann beanspruchen, falls dadurch der Nutzen erhöht werden kann: v(G,p) > vr. Angenommen, dieser Reservationsnutzen vr ist stetig verteilt (über die Menge der Haushalte) mit einer stetigen Dichtefunktion f(.). Daher ergibt sich die Anzahl der sich anschließenden Konsumenten aus: v n(v)= f(x)dx 0 (4) und n' = f(v) wegen der Leibniz'schen Regel. Die Produktionskosten setzen sich zusammen aus nicht zuzuordnenden Fixkosten k0, variablen Produktionskosten c = c(xn) und Kosten, die abhängen von der Anzahl der Konsumenten. Beispiele für Fixkosten, die je Konsument anfallen, sind wohl bekannt, z. B. die Kosten einen Konsumenten an ein existierendes Netzwerk anzuschließen. Zur Vereinfachung unterstellen wir, dass diese "Anschlusskosten" konstant pro Konsument und gleich k sind. Unter Verwendung des üblichen Wohlfahrtskriteriums, Konsumenten- plus Produzentenrente, ist folgende Zielfunktion J zu maximieren: v(G,p) [v(G,p) - vr]dvr + [px(p) + G - k]n(v(G,p)) - k0 – k - c(x(p)n(v(G,p))) 0 = vn – vr +[px + G - k]n - k0 - c :=J (5) := (Gewinn) Die erste Linie in (5) listet alle Argumente und verwendet x = x(p), entsprechend der Hypothese, dass (1) die Konsumentenentscheidungen beschreibt. Die zweite Zeile in (5) verwendet (6). Die Definition von: Öffentliche Unternehmen v r v := xf(x)dx und dvr/dv = vf(v) 0 169 (6) als aggregierter Überschuss, falls die Dienstleistung x für die n Konsumenten nicht möglich ist, zerlegt die soziale Wohlfahrtsfunktion J in (5) in zwei Ausdrücke, in die Konsumentenrente (vn - vr) und in den Profit . Letzterer ist das Ziel privater Unternehmen. Das folgende Lemma vereinfacht den Beweis der folgenden Behauptungen. Lemma 1: p = xG + (p-c')nx' Beweis: Dieses Resultat folgt aus der multiplikativen Eigenschaft der aggregierten Nachfrage und den partiellen Ableitungen der indirekten Nutzenfunktion. Partielles Differenzieren von und die Verwendung der partiellen Ableitungen aus (2) und (3) ergibt: G = -n'[px + G - k] + n + c'xn' (7) p = -n'x[px + G - k] + [px' + x]n - c'[x'n - x2n'] (8) Umformen beweist die Behauptung. ▀ Die wohlfahrtsoptimale Politik, Maximierung von J, definiert in (5), muss folgende Randbedingungen beachten, nichtnegative Tarife: G0 (9) p0 (10) und eventuell Kostendeckung für zweitbeste Lösungen: 0 (11) Dieses Kalkül führt zu den folgenden notwendigen (und hinreichend, falls J und konkav sind) Optimalitätsbedingungen. JG = -n + (1 + )G + µ1 = 0 (12) Jp = -nx + (1 + )p + µ2 = 0 (13) µ1G = 0, µ1 0 (14) µ2p = 0, µ2 0 (15) Öffentliche Unternehmen = 0, 0 170 (16) Die Ableitung der Konsumentenrente verwendet wiederum die Ableitungen der indirekten Nutzenfunktion basierend auf (2) und (3), n' = f folgt aus (4) und die Ableitung dvr/dv = vf folgt aus (6). Die wohlfahrtsoptimale Politik ist es, den Arbeitspreis an den Grenzkosten zu orientieren, p = c'. Der optimale Grundpreis bestimmt sich aus den dem Konsumenten zuzuordnenden Fixkosten, G = k, falls diese Politik kostendeckend ist, oder falls Defizite keine Rolle spielen. Im besonderen gilt, dass ein linearer Tarif dann und nur dann optimal ist, wenn keine dem Konsumenten zuzuordnenden Fixkosten anfallen, k=0. Beweis: Der Kuhn-Tucker-Multiplikator verschwindet aufgrund der Voraussetzung, dass die Profitbeschränkung nicht bindend sei. Substitution von (7) in (12), Ausnützung der Annahme, dass eine innere Lösung G 0 existiert, und einfaches Umformen ergibt: JG = -n + G = -n'[(p - c')x + G - k] = 0 (17) Bedingung (13) aber impliziert Jp = xJG + nx'(p - c') = 0. (18) Zusammenfassung von (17) mit (18) bestätigt die Behauptung für innere Lösungen. Jedoch kann der Grundpreis G keine Randlösung sein, denn G = 0 => JG = -µ1 < 0 => [(p - c') - k]>0 und diese Implikation verletzt (18). Die Unterstellung einer Randlösung G=p=0 impliziert µ1 > 0 und µ2 > 0, das trivialerweise die Bedingungen (12)-(16) verletzt.▀ Arbeitspreise orientieren sich nach wie vor an den Grenzkosten, p = c', selbst wenn die Forderung nach Kostendeckung bindend ist. Eventuelle Defizite sollten in diesem Fall über den Grundpreis finanziert werden, wobei eine "inverse Elastitizitätsregel" zur Anwendung kommt: G n G-k 1 = - --- und := -- -- . G 1+ n G (19) Dabei beschreibt die Anschluss-Grundpreiselastizität. Beweis: Angenommen, eine innere Lösung beschreibt die optimale Preisstrategie, also µ1=µ2=0. Die Hypothese einer Randlösung führt, ähnlich zu den Argumenten im Beweis von Behauptung 8, zu einem Widerspruch. Umformen der Optimalitätsbedingungen (12)-(16) ähnlich zu (17) und (18) führt auf: -n + (1 + )G=0 (20) -nx + (1 + )p = x[-n + (1 + )G] + (1+)nx'(p - c') = 0 => p - c'=0 (21) Öffentliche Unternehmen 171 Substitution von (20) in (21) verifiziert wiederum die Optimalität von Grenzkostentarifen. Einsetzen der Grenzkostentarife in (21) ergibt: n - (1 + )(G - k)n'=0 (22) und elementares Umformen beweist die Regel (22).▀ Dieses Ergebnis schlägt unmittelbar folgende Verallgemeinerung auf Multiproduktunternehmen und zweigliedrige Tarife vor. Bei einem Mehrproduktunternehmen soll der Arbeitspreis nicht über die Grenzkosten mittels einer Ramsey-Formel angehoben werden, sondern soll sich an den Grenzkosten orientieren. Hingegen soll eine "inverse Elastizitätsregel", analog zur Ramsey-Preisregel bei linearen Tarifen, den Grundpreis festlegen. Präziser, der relative Aufschlag über die (marginalen) Anschlusskosten k soll proportional der reziproken, absoluten Anschluss-Grundpreiselastizität sein. Eine andere Interpretation ist die Differenzierung des Grundpreises je Konsumentengruppen basierend auf dieser AnschlussGrundpreiselastizität, falls unterschiedliches Nachfrageverhalten der Haushalte vorliegt. Lineare Tarife implizieren, dass ein profitmaximierender Monopolist den Preis so wählt, dass Grenzeinnahmen gleich den Grenzkosten sind. Da die Grenzeinnahmen geringer als der Preis sind, impliziert dies Tarife über den Grenzkosten. Die Flexibilität eines zweigliedrigen Tarifes könnte diese Regel modifizieren. Tatsächlich würde ein Monopolist folgenden zweigliedrigen Tarif verlangen: Der profitmaximierende zweigliedrige Tarif setzt den Arbeitspreis gleich den Grenzkosten. Der Grundpreis liegt über den Anschlusskosten und konvertiert Konsumentenrente in Monopolprofite. Deshalb würde der Monopolist auch zweigliedrige Tarife bei linearer Produktionstechnologie, k=k0=0, verrechnen. Beweis: Direkte Konsequenz aus Lemma 1 für innere Lösungen; Randlösungen können wiederum ausgeschlossen werden.▀ Unterschiedlicher Verbrauch Die obigen Ergebnisse, Arbeitspreis=Grenzkosten und Grundpreis dient zur Defizitabdeckung (oder für Profit), bestätigen die Vermutung von Coase. Und diese Vermutung wurde hier auf unterschiedliche Konsumenten verallgemeinert. Es stellt sich jedoch heraus, dass die Annahme identischer Nachfrage nach eventuellem Anschluss dafür essentiell ist. Gibt man diese Voraussetzung auf, wird die Bestimmung zweigliedriger Tarife kompliziert. ur Verifikation dieser Behauptung betrachten wir unterschiedliche Konsumenten, etwa zwei potentielle Konsumenten mit den (parallelen) Nachfragekurven wie in Abb. 8.3 Die Grenzkosten c' seien konstant und die Anschlusskosten unbedeutend, k = 0. Hingegen treten Fixkosten k0 auf, und das Unternehmen muss kostendeckend arbeiten. Öffentliche Unternehmen 172 X 0 X2 X2 X1 * X2 * X1 C’ P* _ _ P1 P2 P Abb. 8.3: Ineffizienz von zweigliedrigen Grenzkostentarifen bei unterschiedlichen Konsumenten Angenommen, der Grenzkostentarif p = c' impliziert für den ersten Konsumenten eine Konsumentenrente v1, die unter den kostendeckenden Grundpreis G = k0/2 fällt, also v1(c') < k0/2. Daraus folgt, dass der erste Konsument nicht anschließt und der optimale (kostendeckende Grenzkosten-) Tarif (k0,c') nur den zweiten Konsumenten betrifft mit dem sozialen Überschuß v2(c'); bedingt durch Kostendeckung verschwindet hier die Produzentenrente. Dies ist in der Abbildung durch das Dreieck (c',x20,p2) bestimmt; p2 beschreibt den "backstop" Preis, der die Nachfrage der zweiten Gruppe verschwinden lässt. Eine Absenkung des Grundpreises auf G* und eine gleichzeitige Erhöhung des Arbeitspreises auf p*, so dass v1(p*) G* und dass Kostendeckung gewährleistet ist, erhöht die soziale Wohlfahrt, wenn die Fläche des dadurch verlorenen Viereckes, c'p*x2*x20, geringer ist als v1(p*), d.i. das Dreieck p*x2*p2. Ein solches Beispiel ist jedoch leicht zu konstruieren, etwa c' = 5, k = 30 und: x1(p) = 10 - p (23) x2(p) = 20 - p (24) Öffentliche Unternehmen 173 Grenzkostentarif p0 = c' impliziert v1(5) = 12.5 < 15 = k0/2. Daraus ergibt sich für den sozialen Überschuss: W0 = v2(5)=112.5. Setzt man aber p* = 5.53 und G* = v1(p*) = 10 so ist Kostendeckung gewährleistet und eine Wohlfahrtsverbesserung damit verbunden, denn W* = v1(p*) + v2(p*) = 114.7. Deshalb gilt folgendes Ergebnis. Unterschiedliches Nachfrageverhalten, x = x(p,h) für die Haushalte h impliziert, dass Grenzkostentarife nicht notwendigerweise die optimale Wahl in einem zweigliedrigen Tarif sind, wenn die Vorschrift der Kostendeckung bindend ist. Somit erfordern zweigliedrige Tarife im allgemeinen eine kompliziertere Überlegung als die Vermutung von Coase andeutet. Das obige Beispiel zeigte klar, dass (niedrige) Grenzkostentarife und hohe Grundpreise Konsumenten mit einem niedrigen Bedarf ausschließen. Diese Konsumenten können aber durch eine Abweichung - höherer Arbeitspreis, niedriger Grundpreis - durchaus kostendeckend bedient werden, was unter Umständen das übliche Wohlfahrtskriterium verbessert. Im Gegensatz zu (1) ist die Nutzenfunktion u(q) = u(q,h) abhängig vom Haushalt h, so dass sowohl die indirekte Nutzenfunktion v = v(G,p,h) = S(p,h) - G, S übliche Konsumentenrente, als auch die Nachfrage vom Index h abhängen. Ohne Verlust an Allgemeinheit seien die Haushalte aufsteigend nach der Konsumentenrente gereiht und stetig mit der Dichte f auf [0,1] verteilt, so dass der marginale Haushalt h, jener der gerade noch anschließt, durch folgende Bedingung implizit charakterisiert ist: S(p,h) = G (25) Diese Bedingung besagt, dass der Haushalt h bei dem Tarif (G,p) gerade ausgeglichen bilanziert. Das implizite Funktionentheorem impliziert (da Sh > 0): h = h(G,p) (26) und: hG = (1/Sh) > 0 (27) hp = -Sp/Sh = xhG (28) wobei Sp = -x aus (3) folgt. Die Anzahl der Konsumenten, die sich bei (G,p) anschließen, ergibt sich dann aus: 1 n(G,p)= f(h)dh h(G,p) Analog bestimmt man die aggregierte Nachfrage: (29) Öffentliche Unternehmen 1 X(G,p)= x(p,h)f(h)dh h(G,p) 174 (30) Wiederum erleichtert ein Lemma analog zu Lemma C.1, das die partiellen Ableitungen charakterisiert, die folgende Analyse. Lemma 2: Definiere x die Nachfrage des marginalen Haushaltes, x := x(p,h), dann gilt np = -hpf = xnG (31) nG = -hGf (32) 1 Xp = -hpxf + xp(p,h)f(h)dh = x(p,h)np + h XG = np (33) (34) Beweis: (31), (32) und (34) folgen unmittelbar durch Differenzieren und Verwendung von (27) und (28). Die mittlere Seite von (33) folgt nach Anwendung der Leibniz'-schen Regel. Der Preiseffekt auf die Nachfrage setzt sich der Nachfrage des marginalen Konsumenten, erster Ausdruck in der Summe von (33) und der "inframarginalen" Nachfrageänderung, bezeichnet das Integral, zusammen. _ Als zweitbestes Wohlfahrtskriterium ist nun folgendes Optimierungskalkül zu lösen: 1 max W(G,p)= v(p,h)f(h)dh + (p - c')X(G,p) + (G - k)n(G,p) h(G,p) = (p - c')X(G,p) + (G - k)n(G,p) k0 (35) (36) wobei zur Vereinfachung konstante Grenzkosten c' unterstellt werden. Partielles Differenzieren des Wohlfahrtszieles respektive dem Arbeitspreis liefert im Detail: 1 W -- = -hpf(h)v(p,h) + ⌡ vp(p,h)f(h)dh + (p - c')Xp + X + (G - k)np p h =0 -X(p,G) (37) Öffentliche Unternehmen 175 Der erste Ausdruck in (37) verschwindet, da der marginale Konsument keinen Nettonutzen zieht, v(p,h) = 0 oder S = G. Die Vereinfachung des Ausdruckes unter dem Integral verwendet wieder (3) und (30). Daher erhält man für (37): Wp = (p - c')Xp + (G-k)np (38) WG = (p-c')XG + (G-k)nG (39) Die Ableitung von (39) ist analog. Zur Lösung des Optimierungskalküls (35) und (36) sei wie üblich die Lagrangefunktion L definiert: L = W + µ (40) wobei µ den Kuhn-Tucker Multiplikator für die Profitbeschränkung bezeichnet. Differenzieren ergibt: Lp = Wp + µ[(p - c')Xp + X + (G-k)np] = 0 (41) LG = WG + µ[n + (G-k)nG] = 0 (42) Einsetzen der obigen Ergebnisse (35)-(38), Definieren von = /(1 + µ), Verwendung von (33) für Xp und von (31) zur Eliminierung von [XG - xnG] liefert unmittelbar folgendes Resultat: Zweitbeste, zweigliedrige Tarife (G,p) bestimmen sich aus den folgenden simultanen Bedingungen: X + [(G -k) + (p - c')x]np + (p - c')[Xp - xnp] = 0 (43) n + [(G - k) + (p - c')x]nG = 0 (44) so dass p > c' und G 0. Beweis: Es bleibt hier nur zu beweisen, dass der Arbeitspreis die Grenzkosten übersteigt und dass keine Subventionen für einen Anschluss gezahlt werden. Der Arbeitspreis muss die Grenzkosten übersteigen, denn Substitution von (44) in (43) zur Eliminierung der eckigen Klammer55 liefert unter Verwendung von (31) und (33): 55Der Ausdruck in der eckigen Klammer beschreibt die Einnahmen über den Grenzkosten für den Hauhalt h. En passent sei hier erwähnt, dass dieser Ertrag auch für den Konsumenten mit der geringsten Nachfrage positiv ausfällt. Öffentliche Unternehmen (p-c') = (nx - X) 176 (45) Nach Voraussetzung, dass die Haushalte aufsteigend nach der Konsumentenrente S bzw. der Nachfrage x gereiht werden, impliziert, dass x die geringste Nachfrage beschreibt und daher die rechte Seite in (45) negativ ist. Da aber auch < 0 folgt die Behauptung. Eine Subvention, G < 0, führt dazu, dass alle Konsumenten sich anschließen: h = 0 und marginale Änderungen der Subvention die Anzahl n nicht verändern, nG = 0. Dies widerspricht jedoch (44). 8.5 Nichtlineare Tarife Allgemeiner oder als Alternative zu zweigliedrigen Tarifen können nichtlineare Tarife verwendet werden, um gleichzeitig Konsumententenrente zu maximieren, Kostendeckung zu erzielen und trotzdem effiziente Preissignale zu senden. Dieses Problem tritt dann auf, wenn einerseits "günstige" Kraftwerke (teilweise bereits abgeschriebene Investitionen, Wasserkraftwerke, Kernkraftwerke) und andererseits "teure", kalorische Kraftwerke im Einsatz sind; dieser Unterschied war auch Grundlage der Diskussion der Tabelle 1 in der Zusammenfassung. Der daraus resultierende Durchschnittstarif liefert natürlich ein ineffizientes Signal zum privaten Sparen, aber diese Form der Kostenregulierung wird üblicherweise mit einem sozialen Argument verteidigt. Dies ist jedoch unzulässig, ja in vielen Fällen sogar zynisch, wenn man nichtlineare Tarife (die übrigens in Wien angewandt werden) zulässt. Zur Widerlegung der sozialen Motivation von Durchschnittstarifen gehen wir von der in Abb. 8.4 dargestellten Kostenfunktion aus. Die hervorragende, aber leider im Ausmaß beschränkte Technik 1 ermöglicht die Stromproduktion zu Kosten c1 je kWh (bis zum Niveau E1) und die Technik 2 zu Kosten c2 > c1. Kosten Grenzkosten C2 Durchschnittskosten C1 Menge Öffentliche Unternehmen 177 Abb. 8.4: Grenz- und Durchschnittskosten für zwei Produktionstechniken, wobei die günstigere Technik ("Wasserkraft") beschränkt ist. jedoch um Kostendeckung und gleichzeitig billige Tarife zu erzielen, kann neben eines Durchschnittstarifes folgender nichtlinearer Tarif verrechnet werden: wenn Stromverbrauch p= c2 > c1 emin In die politische Diskussion eingebettet besagt dieser Vorschlag, dass jeder Bürger einen aliquoten Anteil an den günstigen Anlagen besitzt und diesen zum Preis c1 beziehen kann. Jede darüber hinausgehende Menge ist jedoch mit dem Preis c2 zu bezahlen. Es ist offensichtlich, dass dieser Tarif sozial schwachen Haushalten mit typischerweise niedrigen Verbräuchen mehr entgegenkommt als der Durchschnittstarif. Weiter, wählt man emin so, dass es unter dem momentanen Bedarf fällt, dann wird mit diesem Tarif gleichzeitig das effiziente Preissignal gesetzt.56 56Diese letzte Bedingung wurde leider mit einem ‚grünen’ Tarif der Wiener Stadtwerke verpaßt, da über 90 % der Haushalte eine Nachfrage unter emin haben und damit ineffizient reagieren, d. h. zuwenig sparen. Öffentliche Unternehmen 178 9 Positive Theorie Öffentlicher Unternehmen 9.1 Einleitung Die Neue Politische Ökonomie oder auch Public Choice, geht auf Buchanan, Downs und andere zurück. Vorläufer dieser Ideen sind Knut Wicksell, John Stuart Mill (von Buchanan selbst oft angemerkt), Schumpeter (in seinem Werk "Kapitalismus, Sozialismus und Demokratie", 1942) und Karl Popper57, so argumentierte zumindest Wirl (1993). Mueller (1989) und Inman (1987) geben einen Überblick über diese Theorie, die momentan bedeutenden Einfluss auf die Wirtschaftstheorie gewinnt, wie durch die Nobelpreisverleihung 1986 an Buchanan auch dokumentiert wurde. Die Grundannahme dieses Ansatzes besteht in der Ausweitung des Prinzips des homo oeconomicus auf Politiker und Bürokratie. Die öffentlichen Entscheidungsträger versuchen ebenfalls, individuellen Nutzen zu maximieren, und es interessiert sie per se nicht - wie in vielen neoklassischen Ansätzen unterstellt wird -, der allgemeinen Wohlfahrt zu dienen.58 Der Hauptunterschied zwischen den üblichen Betrachtungen und Agenden der Wirtschaftstheorie und des Ansatzes der Neuen Politischen Ökonomie kann am Beispiel der öffentlichen Firmen, etwa der Stromversorgung, erläutert werden. Ein traditioneller Ökonom wird als Berater beim Erstellen eines neuen Tarifsystems versuchen, jene Preise zu bestimmen, die die öffentliche Wohlfahrt maximieren. Zusätzlich wird er stillschweigend voraussetzen, dass die Politiker bzw. andere Entscheidungsträger überredet werden können, diese Politik zu übernehmen. Der Schule der Neuen Politischen Ökonomie fehlt dieser Optimismus, optimale Preise festlegen zu können. Denn "sozial optimale" Entscheidungsregeln sind in gewisser Form diktatorisch und negieren die Interessen der Beteiligten und den politischen, demokratischen Prozess. Da der Versuch des Durchsetzens von optimalen Regeln die eingesessenen Vorteile von Gruppen verletzt und die theoretisch möglichen Kompensationen kaum stattfinden, werden sich Gruppen und Lobbys zur Verhinderung des Vorhabens zusammenschließen. Deshalb schlägt Buchanan vor, nur einstimmig (das sind Pareto Verbesserungen) akzeptierte Veränderungen zu betreiben. Dieser Verzicht auf eine normative Politik führe zu einer Verzerrung der Entscheidungen zu Gunsten des status quo, könne also als konservativ bezeichnet werden. Demgegenüber kann jedoch argumentiert werden, dass eben die Berücksichtigung der unterschiedlichen Interessen und Institutionen überhaupt erst eine Änderung ermöglicht und somit eigentlich progressiv ist. Blankart (1981) schließt demzufolge daraus, dass das Kriterium der Durchsetzbarkeit, das heißt geringer Widerstand, das adäquate Kriterium für die Politikberatung durch (ökono- 57Popper (1963, S 341)"... naive collectivism, has to be replaced by the demand that social phenomena, including collectives, should be analyzed in terms of individuals and their actions and relations." und Popper (1968, S121), "How can we so organize political institutions that bad or incompetent rulers can be prevented from doing too much damage." 58Buchanan-Tullock (1962, S 20): “No one seems to have explored carefully the implicit assumption that the individual must somehow shift his psychological and morale gears when he moves between the private and social aspects of life. We are therefore placed in the somewhat singular position of having to defend the simple assumption that the same individual participates in both processes against the almost certain onslaught of the moralists.” Öffentliche Unternehmen 179 mische) Experten sei. Angewandt auf empirische Probleme bedeutet das, dass die Deregulierungsbestrebungen sich auf jene Sektoren konzentrieren sollten, wo Einkommens-, Angebotsund (absolute) Nachfrageelastizitäten hoch sind. Zum Beispiel bedeutet eine geringe Preiselastizität, dass das betrachtete Gut von "hohem" Wert (d. h. weit über den Güterpreis hinaus) ist, und der Konsument nur geringe Ausweichmöglichkeiten hat. Daher wird jede substantielle Preisänderung auch die individuelle Einkommenssituation beeinflussen. Dieses Paradigma erklärt eventuell die Freigabe der raffinierten Produktpreise59, jedoch die weitere Regulierung der Stromtarife. Eine kritische Annahme der (traditionellen) Wohlfahrtstheorie ist, dass Transfers die gesamte Wohlfahrt einer Volkswirtschaft nicht verändern. Tullock (1967) hatte als erster die Einsicht, dass Transfers soziale Kosten verursachen, eine Tatsache, die nach wie vor in der traditionellen Wohlfahrtsökonomie übersehen wird. Der Begriff selbst - rent seeking - geht auf Krueger (1974) zurück. Dieses Problem von rent seeking wird häufig im Zusammenhang von Monopoltarifen behandelt, siehe Abb. 9.1 Das Monopol verlangt den Preis pm, der über dem sozialen Optimum (charakterisiert durch Grenzkostentarife, p*) liegt. Dies reduziert die Konsumentenrente, aber erhöht gleichzeitig den Unternehmensgewinn im Ausmaße des Rechteckes. Diese Gewinnausweitung kann jedoch nicht vollständig den Verlust der Konsumenten ausgleichen, so dass durch das Monopol ein sozialer Verlust im Ausmaß des angedeuteten Dreieckes auftritt. Da die Monopolrente nur einen Transfer (von Konsumenten an die Produzenten) darstellt, ist nach konventioneller Wohlfahrtsökonomie nur das Dreieck als sozialer Verlust zu zählen. Ähnlich wird bei allen Formen von Transfers, Subventionen und Steuern argumentiert, wo nur eventuelle 'Tonnageverluste' (deadweight losses, auch „Dreiecksverluste“ genannt nach Abb. 9.1) in Betracht gezogen werden. € Nachfrage pm Monopolrente Verlust Grenzkosten p* Menge Abb. 9.1: Sozialer Verlust verursacht durch Monopole. 59Wenigstens die Angebotselastizität ist hoch, nämlich nahezu unendlich, aufgrund der geringen Importmengen relativ zur Größe des internationalen Marktes. Öffentliche Unternehmen 180 Diese übliche Ansicht - Transfers finden kostenlos im luftleeren Raum statt - ist jedoch höchst naiv. Denn die Existenz von Transfers - oder generell von schlecht definierten oder durch die öffentliche Hand zugeteilten Eigentumsrechten - verursacht unter den potentiellen Nutznießern einen Kampf um eben diese Transfers. Und diese Konkurrenz um die Erringung dieses Preises verschlingt reale Ressourcen. Dies wird am Beispiel in Abb. 9.1 klar. Wenn ein Monopol lizenziert werden soll und n identische Firmen an diesem Monopol interessiert sind, dann werden risikoneutrale Unternehmen bereit sein, bis zum Betrag (1/n) vom erwarteten Gewinn zu investieren, Tullock (1967) und Posner (1975). In diesem Fall wird im Rahmen dieses Wettkampfes die gesamte Rente verschwendet, da all diese Ausgaben an sich unnötig sind und keinen sozialen Wert haben. Daher ist zu dem üblichen Dreiecksverlust noch die gesamte Monopolrente, das Rechteck, hinzuzufügen, um den gesamten sozialen Verlust von Transfers zu bestimmen. Dieser Verlust - im Ausmaß des Trapezes - ist im Gegensatz zum Verlust des Dreieckes60 signifikant. 9.2 Postive Erklärungen für öffentliches Elektrizitätsversorgung Buchanan (1968) gibt als erster ein Modell zur Erläuterung kollektiver Preisbestimmung für öffentliche Unternehmen an. Eine zentrale Rolle in der Reglementierung der öffentlichen, aber in privatem Besitz befindlichen Unternehmungen spielt die Frage, zu wessen Gunsten Konsumenten oder Produzenten - dieser Entscheidungsprozess beeinflusst wird. Stigler (1971) argumentiert, dass sich die kleinere Gruppe der Produzenten besser arrangieren kann als die große Gruppe der Konsumenten (aufgrund der Schwarzfahrerproblematik). Somit können die Produzenten die Entscheidung einer Regulierungskommission zu ihren Gunsten beeinflussen. Wagner (1966) argumentiert dagegen, dass politische Entrepreneurs den Bedarf für Protektion (Schutz) dieser Gruppen erkennen, und sie protegieren in der Hoffnung, ihre Stimmen zu bekommen. Peltzman (1976) versucht die Randpunkte - entweder zugunsten der Produzenten oder zugunsten der Konsumenten - zu integrieren, indem eine stimmenmaximierende Regulierungskommission die Interessensunterschiede zwischen Produzenten und Konsumenten ausgleicht. Blankart (1983) versucht vom Standpunkt dieser Theorie aus, die Existenz und Rolle öffentlicher Unternehmen zu erklären. Auf der Ebene der Verfassung werden in einem einstimmigen Verfahren die Grundrechte - wie freie Vertragswahl und Schutz des Eigentums garantiert. Die freie Vertragswahl garantiert effiziente Ressourceverwendung durch Konkurrenz, und ein Minimum an sozialen Regeln vermeidet gleichzeitig die Anarchie. Der freie Markt kann jedoch weder öffentliche Güter bereitstellen, noch Externalitäten gänzlich vermeiden. Diese Probleme der Festlegung des Ausmaßes öffentlicher Güter, z. B. die Festlegung des Verteidigungsbudgets, verlangen nach einem kontinuierlichen, politischen Prozess. Im Gegensatz zur Verfassung kann für diesen Prozess keine Einstimmigkeit mehr verlangt werden, und andere Regeln, etwa die Majoritätsregel, müssen angewandt werden. Dies erlaubt jedoch ein Abweichen von marktwirtschaftlichen Bedingungen über die obigen Sonderfälle 60So errechnet Harberger (1954) für die Vereinigten Staaten einen Dreiecksverlust aus Monopolpreisen von 0.1 % gemessen am Bruttoinlandsprodukt. Diese empirischen Ergebnisse wurden dann durch weiterführende Studien herausgefordert, wobei meistens versucht wurde, die Unterschätzung des tatsächlichen Verlustes zu beweisen. Jedoch die höchste Quantifizierung dieses Verlustes liegt um 1 % des Bruttoinlandproduktes nach der Übersicht in Leibenstein (1982). Öffentliche Unternehmen 181 hinaus. So wird jede abrupte Preisänderung, die irgendeine Gruppe negativ beeinflusst, eine Lobby auf den Plan rufen, die versucht, eine entsprechende Regulierung durchzusetzen. Dabei ist oft eine hohe Asymmetrie gegeben. Z. B. besteht für die kleine Gruppe der Imker ein hoher Nutzen aus einer Berufsvereinigung zum Durchsetzen von Importzöllen auf ausländischen Honig. Für die Konsumenten resultiert zwar daraus ein Verlust, der jedoch individuell als zu gering empfunden wird, sich gegen dieses Privileg der Imker zu engagieren. Aufgrund dieser Schwarzfahrerproblematik kommt es daher zu keiner effektiven Koalition unter den Konsumenten. Diese individuellen Privilegien führen wegen der Majoritätsregel demokratischer Prozesse zu Stimmenhandel (log rolling, vote trading).61 Noll (1983) verwendet in seiner Analyse die demokratische Wahl (persönlich gewählte Abgeordnete - USA und Großbritannien, repräsentative Demokratie), politische Entrepreneurs und rationale Wähler. Die Grundaussage ist, dass nur partikuläre Ziele Unterstützung finden und oft lange keinen Widerstand hervorrufen, da die große Gruppe der Betroffenen sich nicht organisiert. Erst wenn ein politischer Entrepreneur diese Marktlücke erkennt und mit entsprechenden Behauptungen und Informationen - z. B. über die Verschwendung, Privilegien und Ineffizienz öffentlicher Unternehmen - aufwartet, wird die große Gruppe der Betroffenen opponieren. Daher sind vermutlich Deregulierungen eher seltene Ereignisse. Feichtinger-Wirl (1991) zeigen, dass politische Herrscher durchaus rational zwischen wachsender Regulierung und folgender Deregulierung wechseln, im Gegensatz zum politischen Konjunkturzyklus (siehe unten), der durch das exogen gegebene Wahldatum erzeugt wird. Eng verbunden mit dem demokratischen Prozess in den westlichen Volkswirtschaften ist der Versuch der Politiker, die Wiederwahl durch Beeinflussung der Wirtschaft im allgemeinen und im besonderen der Konjunktur zu begünstigen. Ein Ansatz zur politischen Erklärung von politischen Konjunkturzyklen stammt von Nordhaus (1975). Zur Erzielung dieses Effektes der gewünschten Konjunktursteuerung ist ein großer öffentlicher Sektor dienlich. HubkaObermann (1977) finden eine Bestätigung dieser Hypothese für die Wahl der öffentlichen Tarife in Österreich. Peltzman (1987) ist eine neuere Studie, die den Zusammenhang zwischen wirtschaftlichen Rahmenbedingungen und Wahlausgang analysiert. Crew-Rowley (1988) verwenden ein rent seeking Argument zur Erklärung öffentlicher Monopole. Ein institutionalisiertes Monopol erlaubt Profite, oft sogar substantielle Gewinne (siehe Telefon). Ziel einer Regulierung (oder Verstaatlichung) ist es nun nicht, diese Monopolprofite zu eliminieren, sondern sie als Quelle für andere Aufgaben, "Quersubventionen", heranzuziehen. In der Tat ist es höchst naiv anzunehmen, dass die Änderung der Eigentümerverhältnisse an der Monopolsituation etwas ändert und wenn, dann eher im Gegenteil, dass Monopole im öffentlichen Eigentum noch besser gegen Konkurrenz abgesichert werden. In anderen Worten, Monopolgewinne sind nach wie vor möglich, aber diese sind im öffentlichen Bereich zu verteilen und entsprechend zu tarnen. Diese Möglichkeit der Quersubventionierung zieht Gruppen an, die die Gewinne dieser Monopole zur Finanzierung ihrer Wünsche benützen wollen. Beispiele für solches rent seeking Gruppen sind offensichtlich: etwa die Angestelltengewerkschaft solcher Unternehmungen (Forderung nach höheren Löhnen und/oder höherer sozialer Sicherheit), Industrien und Konsumentengruppen (sie versuchen, niedrige 61Vgl. dazu die Diskussion in Frey (1984) im Zusammenhang über Importtarife. Öffentliche Unternehmen 182 und begünstigte Tarife zu erhalten), Finanzierung von sonst nicht finanziell lebensfähigen kommunalen Aktivitäten (Schwimmbäder) und Subventionierung (Nahverkehr). 9.3 X-Ineffizienz Abb. 9.2 zeigt die Grenze der Produktionsmöglichkeiten eines Multiprodukt-Unternehmens bei gegebener Inputkonstellation (production frontier). Alle Punkte an dieser Grenze sind X-effizient, alle Punkte darunter, z.B. die Punkte A, B in Abb. 9.2, sind X-ineffizient, d.h. es ist möglich, ohne Erhöhung eines Inputs zumindest einen der Outputs zu erhöhen, ohne dabei andere Outputs abzusenken. Leibenstein gibt ein mikroökonomisches Modell an, das diese Ineffizienz auf Trägheit und das principal-agent Problem zurückführt. z2 C A D B E z1 Abb. 9.2: X-Effizienz und X-Ineffizienz Das individuelle Arbeitsangebot eines Arbeitnehmers kann durch die Arbeitszeit x0 und den Einsatz q0 beschrieben werden. Die öffentliche Firma offeriert den Lohn p0x0 abhängig von der Arbeitszeit, aber unabhängig vom Einsatz. Dies scheint eine realistische Beschreibung öffentlicher oder bürokratischer Einrichtungen und eine Erklärung, warum hier X-Ineffizienz häufiger als in privaten Unternehmen anzutreffen ist, die über zusätzliche Anreize den Einsatz motivieren kann. Der individuell optimale Einsatz, d.h. dort, wo der individuelle Nutzen maximiert wird, liegt bei q0 in Abb. 9.3. Durch eine entsprechende Einstellungspolitik kann erreicht werden, daß q0 immer nahe am X-effizienten Punkt q* liegt. Zusätzlich sei angenommen, daß die Änderung der eigenen Arbeitsqualität mit individuellen Kosten verbunden ist, etwa durch das Absolvieren von Kursen, die Unannehmlichkeiten aus einer Versetzung in eine andere Abteilung, etc., und diese gegenüber einem entsprechenden Nutzengewinn aus veränderter Arbeitsintensität in Abzug gebracht werden müssen. Zur einfachen grafischen Darstellung sei unterstellt, daß jede Änderung die konstanten Kosten D verursacht. Damit ist bei keinem Arbeitseinsatz zwischen A und B ein Anreiz zu einer Anpassung des Verhaltens gegeben; der Arbeitnehmer ist in diesem Bereich der Gefangene seiner Trägheit. Öffentliche Unternehmen 183 Eine private Firma wird den Lohn mit der Qualität der erbrachten Leistung eher koppeln als ein bürokratisch orientiertes Unternehmen, sodaß der individuelle Nutzen stärker vom Einsatz abhängt. Durch diese zusätzlichen Anreize ergibt sich die strichlierte individuelle Nutzenfunktion in Abb.9.3. Diese schränkt den individuellen Trägheitsbereich substantiell auf das Intervall [C,D][A,B] ein. A C q* q0 D B q Abb. 9.3: Optimaler Arbeitseinsatz & X-Ineffizienz. Vergleich öffentliches & privates Unternehmen 9.4 Positive Modelle, Motive und Ansätze für bürokratische EVUs Die Motivation der öffentlichen Firma unterscheidet sich gravierend von den Zielsetzungen privater Firmen. Die institutionellen Rahmenbedingungen verlangen vom Management der öffentlichen Firma, dass es sowohl den Konsumenten, als auch den Wünschen der politischen Entscheidungsträger Rechnung trägt. Durch die sowohl soziale als auch die politische Interessenslage ist keine direkte Zielgröße vorhanden, um entsprechende Anreize zu bieten. Darüberhinaus, hat die Bürokratie private Informationen (etwa über die wahren minimalen Kosten), die sie zu ihrem Vorteil verwenden kann. Daher können weder Politiker noch andere Gremien verhindern, dass die Bürokratie - zumindest partiell - auch ihre eigenen Interessen, wenn auch entsprechend getarnt ("Versorgungssicherheit") verfolgt. Demgegenüber kann sich die private Firma voll auf ihre Kunden konzentrieren. Die private Firma kann darüberhinaus ihren Profit maximieren, während von der öffentlichen Firma verlangt wird, ausgeglichen zu bilanzieren. Aus der Tatsache, dass die öffentliche Firma nicht den Profit maximiert, folgt jedoch nicht, dass die gesellschaftliche Wohlfahrt maximiert wird. Wahrscheinlicher ist, dass die Bürokratie aufgrund des Fehlens wohldefinierter und mit entsprechendem Anreiz versehener Ziele ihre eigenen Zielsetzungen entwickelt. Maximierung von Einfluss, Prestige, Untergebenen (Parkinson'sches Gesetz) etc., also Größen in verschiedens- Öffentliche Unternehmen 184 ten Einheiten, sind Beispiele bürokratischer Zielfunktionen, die dann das Profitmotiv privater Unternehmen ersetzen. Eine der Grundvoraussetzungen für staatliche Einflussnahme - ein staatliches Arrangement sei besser als ein privates Monopol - ist nicht immer gewährleistet. Während in Konkurrenz stehende Firmen gezwungen sind (Input), effizient zu produzieren (da sie ansonsten vom Markt verschwinden), und auch ein privates Monopol Anreize zur Kosteneffizienz hat, besteht für ein öffentliches - meistens noch durch Zutrittsrestriktionen für mögliche Konkurrenten abgesichertes - Monopol (z. B. die Post) nicht die Notwendigkeit, effizient zu produzieren. Denn, dem Management der öffentlichen, von Konkurrenz abgeschotteten Firma, fehlt der nötige Anreiz, effizient zu produzieren, falls Profite dem Management nicht honoriert werden und eventuelle Verluste sowieso gedeckt werden (wie etwa bei Bahn, Theater, Museen usw.).62 Der Aspekt der Input-Ineffizienz, wenn auch im Zusammenhang mit privaten Firmen, wird erstmals von Leibenstein (1966) erwähnt. Leibenstein vermutet, dass die Verluste durch Input-Ineffizienz höher ausfallen, als jene durch die allokative Ineffizienz - etwa durch das Vorhandensein privater Monopole. Die Annahme des vorigen Abschnittes - alle Politiker wären benevolent und die Bürokratie wohlfahrtsmaximierend - scheint unrealistisch. Deshalb ist es auch nicht überraschend, dass normative Ansätze der Tarifpolitik oft zum Scheitern verurteilt waren. Positive Ansätze erweitern das ökonomische Kalkül des individuellen Nutzenmaximierens auf die Entscheidungsträger. Die Arbeit von Niskanen (1971) charakterisiert erstmals bürokratisches Verhalten in Relation zu betriebs- und volkswirtschaftlichen Zielen. Das Hauptziel der Bürokratie sei es, die drei berühmten Ps, - Prestige, Power, Pay - zu maximieren, was Niskanen durch die skalare Größe des verfügbaren Budgetrahmens approximiert. Die Quintessenz verschiedener bürokratischer Modelle ist, dass die (Niskanen-) Bürokratie die tatsächlichen Grenzkosten unterschätzt. Dies führt zu einer sozial adversen Ausweitung bürokratisch verwalteter Bereiche, vgl. Abb. 9.4, aber möglicherweise um den Preis niedriger Qualität. Ein Modell dazu wird im folgenden Unterkapitel diskutiert. 62"noble Unternehmen" - überhöhte Löhne, Sozialleistungen etc., Öffentliche Unternehmen 185 Preis Grenzkosten Grenzeinnahmen Modifizierte Grenzkosten Monopol Menge sozial optimal Bürokratie Abb. 9.4: Vergleich des Outputs: Monopol, sozial optimal, Bürokratie. Positive Ansätze können viele Phänomene öffentlicher Firmen erklären, die in einem neoklassischen Ansatz entweder irrational oder paradox erscheinen. So ist es nahezu paradox, dass private Unternehmen seit langem das Prinzip der (zeitlichen) Preisdifferenzierung anwenden, z. B. die Fremdenverkehrsindustrie, aber öffentliche Unternehmen die für sie eigens konzipierte Theorie ignorieren. Unterstellung bürokratischer Ziele in diesen Unternehmen kann dieses Verhalten erklären. Nehmen wir hypothetisch an, dass die Bürokratie der Elektrizitätsversorgungsunternehmen an einem großen Kraftwerkspark interessiert sei, da dies am ehesten Macht und Einfluss repräsentiert. Daraufhin werden scheinbar paradoxe Verhalten erklärbar. Mit dieser Hypothese steht in Einklang (bzw. ist daraus ableitbar): die geringe Forcierung des Ausbaus der Fernwärme (trotz öffentlicher, politischer Unterstützung), die Beschränkung der Nachtstromtarife auf Speicherheizungen und die Weigerung, Strom von der Industrie zu vergleichbaren Bedingungen zu akzeptieren. Denn die erste Behauptung folgt aus der Annahme, dass Strom und Fernwärme zumindest partielle Substitute sind, und jede - wenn auch nur geringe - Konkurrenzierung ist unerwünscht. Der Punkt, Fernwärmeausbau zur Quersubventionierung des Strommarktes wird für die Hypothese - das Management maximiert die Kraftwerkskapazität im Anhang D analysiert. Die Limitierung des Nachtstromtarifes auf Speicheröfen ermöglichte den Elektrizitätsversorgungsunternehmen in neue Märkte einzudringen, ohne die Bedarfsspitzen abzutragen. Dadurch musste der Kraftwerksausbau nicht reduziert werden. Aus dem obigen Ergebnis - bürokratisches Verhalten unterschätzt die Grenzkosten - werden auch Öffentliche Unternehmen 186 Kraftwerksprojekte "rational" erklärbar, die bei den üblichen Kriterien als unökonomisch erscheinen. Die Arbeit von Bös (1983) und auch anderer Autoren unterstellt dem Politiker stimmenmaximierendes Verhalten, dass die Manipulation der öffentlichen Tarife diesem Ziel unterordnet. Das Ergebnis dieses Ansatzes ist, dass der Politiker jene Tarife favorisiert, die die Gruppe der Unentschlossenen und der primär auf ökonomische Anreize reagierende Wählerschaft (Wechselwähler) betrifft. Diese Tatsache hat einen positiven Effekt, da trotz möglicherweise starker (ideologischer) Präferenzen die tatsächlichen Entscheidungen einer Regierung bewertet werden, weil auch Wahlen üblicherweise an der Grenze, das heißt am marginalen Wähler, entschieden werden. Die Bevorzugung dieser sensitiven Gruppen hat jedoch prinzipiell nichts mit den - wenn auch oft vorgegebenen - egalitären Zielen zu tun. 9.4.1 Budgetmaximierende Büros Öffentliche Unternehmen werden aus den unterschiedlichsten Gründen subventioniert, etwa auf Grund meritorischer Güter. Üblicherweise garantiert der Sponsor, meistens die öffentliche Hand, nicht jeden Betrag, sondern macht die Subventionszahlung s vom Output des Unternehmens (z) abhängig: 2 2 s = s(z), s/ze > 0, s/ze < 0, eE (1) Dabei beschreibt z den Vektor der produzierten öffentlichen Güter, E die Indexmenge der öffentlichen Güter und s die Allokation von Subventionen in wachsender und konkaver Abhängigkeit vom Output. Neben den direkten Subventionen steht der Bürokratie der Erlös aus dem Verkauf von z zur Verfügung, sodaß der gesamte zur Verfügung stehende finanzielle Rahmen, B, durch B(z) = peze + s(z) eE (2) gegeben ist. Dieses gemischte Büro, wie es Niskanen nennt, ist typisch für viele Unternehmen, bei denen ein Ministerium einen Teil der Kosten übernimmt, sodaß keine kostendeckenden Tarife verlangt werden müssen; die Beispiele reichen von der Bahn, bis hin zu Theater, Museen etc. Niskanen nimmt nun das gesamte Budget als Approximation für die eigentlichen Ziele des Bürokraten (die berühmten 3 Ps: pay, power, prestige) wie Einfluß, Macht, Untergebene, Prestige, Einkommen etc. Die Maximierung seines Budgets ist beschränkt durch die Vorgabe einer Defizitbeschränkung, d.h. einer Forderung, mit Hilfe der Subvention ausgeglichen zu bilanzieren, also: p(z) = peze + s(z) - C(z) = 0 eE (3) Öffentliche Unternehmen 187 Dabei wird hier vom Netput-Konzept des Abschnitts C abgegangen und eine explizite Kostenfunktion C zur einfacheren Darstellung (wie in den Abschnitten C und D) verwendet. Das Optimierungskalkül, Maximierung von (2) unter der Beschränkung (3): max B(z), sodaß p(z) = 0 {pe, eE } (4) kann auf übliche Weise gelöst werden. Definiere die Lagrange Funktion L mittels des Multiplikators : L = peze(1 + ) + s(z)(1 + ) - C(z) eE (5) Differenzieren nach den Instrumenten pe liefert: s C zj S [(1 + )pj + (1+) ---- - ----]---- = - (1 + )ze, eE jE zj zj pe (6) Daraus folgt, daß sich der Bürokrat wie ein Monopolist benimmt, aber die modifizierte Grenzkostenfunktion C s -------- - ---zj 1+ zj (7) verwendet anstatt der üblichen Grenzkosten C/z. s/zj beschreibt die marginale Unterstützung durch den Sponsor, wenn der Output des Gutes j erhöht wird. Dies kann als Abschätzung des externen sozialen Effektes der Dienstleistung j betrachtet werden. Diese Einschätzung verwendet der Bürokrat in seinem Kalkül zur Reduktion der Grenzkosten, die nach (7) durchaus auch negativ werden können: Der Bürokrat, dessen Budget sowohl durch Erlöse als auch durch einen Sponsor abgedeckt werden, benimmt sich wie ein Monopolist, der die Grenzkosten untersch„tzt. Dies kann soweit gehen, dass sogar negative Grenzkosten in die (für den Niskanen-Bürokraten) optimale Allokationsentscheidung eingehen. Abb. 9.4 vergleicht die Lösung bei unterschiedlichen Organisationsformen eines öffentlichen Unternehmens, das ein Produkt herstellt: die Outputentscheidung eines Monopols (Grenzeinnahmen = Grenzkosten), das Wohlfahrtsoptimum (Preis = Grenzkosten), P(z) = C'(z)) und den Output einer budgetmaximierenden Bürokratie. Öffentliche Unternehmen 9.4.2 188 Bürokratische Tarife - "Strom" und "Fernwärme"* Der Hauptzweck dieses Beispiels ist, die Operationalität des Ansatzes der Neuen Politischen Ökonomie (hier an Hand eines Modelles für eine Bürokratie) und die möglichen Konsequenzen darzulegen. Dazu betrachten wir das Elektrizitätsunternehmen als ein typisches Mehrproduktunternehmen, das durch einen vorgegebenen Kapitalstock - Kraftwärmekopplungsanlagen - gleichzeitig Strom und Fernwärme erzeugt, wobei ein (wahrscheinlich) hoher Anteil der Fixkosten keinem der Prozesse direkt zuzuordnen ist. Dieser Produktionsprozesse ist somit durch economies of scope charakterisiert. In der Möglichkeit der gemeinsamen Nutzung von Anlagen in der Erzeugung von Elektrizität und Fernwärme sehen manche Autoren einen substantiellen Vorteil und prognostizieren der Fernwärme eine große Zukunft. Im Vergleich zu diesen optimistischen Prognosen scheint die tatsächliche Entwicklung des Fernwärmemarktes sehr träge63. Eine mögliche Erklärung für diesen geringen Ausbau der Fernwärme, relativ zu ihrem Potential liegt im bürokratischen Verhalten von EVUs. Die folgende Analyse versucht diesen Aspekt unter Berücksichtigung bürokratischer anstatt traditionell ökonomischer Motive zu durchleuchten. Die öffentlichen Versorgungsunternehmen sehen sich einem (inversen) Nachfragesystem nach "Strom" (Index 1) und "Fernwärme" (Index 2) gegenüber64: p1 = P1(z1,z2), (1) p2 = P2(z1,z2). (2) Aus der Voraussetzung, dass beide Produkte zumindest teilweise substituierbar sind (d. h., die Kreuzpreiselastizitäten sind positiv) und dass die Eigenpreiselastizitäten dominieren, folgt, dass die Jacobi-Matrix von (1) und (2) negative Elemente und eine positive Determinante besitzt. Die Produktionskosten seien explizit durch die Kostenfunktion C(z1,z2) beschrieben. Die Profitfunktion, (z1,z2) := z1P1(z1,z2) + z2P2(z1,z2) - C(z1,z2), (3) sei konkav; weiters falle der Grenzprofit eines Produktes, wenn die Produktion des Substitutes ausgeweitet wird: 2/z1z2 < 0. Die Produktionsgrenze zwischen den beiden Produkten sei im allgemeinen durch die implizite Funktion (z1,z2) gegeben, aber bei der momentanen Marktsituation bestimme z1 ("Strom") die zu installierenden Anlagenkapazitäten. 63Tatsächlich konnte die Fernwärme - auch in den Perioden hoher Energiepreise - kaum im freien Markt reüssieren. Der Großteil der momentanen Fernwärmeabnehmer ist dirigistisch verordnet: Öffentliche Gebäude, Spitäler, Schulen, Gemeindewohnungen, usw. 64Das Modell ist allgemein und kann auch auf andere öffentliche und substituierbare Güter übertragen werden. Die Bezeichnungen "Strom" und "Fernwärme“ dienen nur der besseren Illustration. Öffentliche Unternehmen 189 Die Bürogröße65 bzw. hier der Anlagenpark als sein Äquivalent sei das eigentliche Ziel der Bürokratie dieses öffentlichen Unternehmens. Unter den obigen Voraussetzungen und der Forderung nach ausgeglichenem Budget ergibt sich folgendes bürokratische Kalkül: max z1 so dass 0. (4) Anwendung von (6.10) bzw. explizites Nachrechnen über die Lagrangefunktion als der Kuhn-Tucker Multiplikator für die Forderung nach ausgeglichener Bilanzierung, liefert: MR1 = MC1-1/, (5) MR2 = MC2, (6) wobei MRi die Grenzeinnahmen des i-ten Produktes beschreibt: MRi= fi+ ziPi/zi + zjPj/zi , i=1,2 und j = i, (7) und MCi:=C/xi wie üblich die Grenzkosten. Die folgende Behauptung gilt allgemein für eine Anlagenpark-maximierende Bürokratie, die substituierbare Güter in einem Kuppelprozess produziert, wobei ein Gut die Anlagenkapazität bestimmt. Die Bezeichnungen "Strom" und "Fernwärme" dienen (wie bereits erwähnt) nur der besseren Fassbarkeit dieser Begriffe, verglichen mit den Bezeichnungen Produkt 1, Produkt 2. Die Anlagenpark maximierende Bürokratie benimmt sich wie ein Monopolist, der die Grenzkosten der Erzeugung von "Strom" unterschätzt. Das Unternehmen bietet "Fernwärme" nach derselben Regel wie ein Monopolist an. Der Erlös aus diesem Bereich dient daher der Quersubvention. Das bürokratische Verhalten der öffentlichen Unternehmung impliziert, dass mehr Elektrizität, aber weniger Fernwärme als im Falle eines privaten Monopols angeboten wird. Der erhöhte Ausstoß an Elektrizität führt nach der Regel (6) aber zu einem niedrigeren Fernwärmepreis gegenüber einem monopolistischen Unternehmen; auch der öffentliche (bürokratische) Stromtarif liegt unter dem eines privaten Monopols. Im Vergleich zu sozial optimalem (Ramsey-) Angebotsverhalten offeriert die Bürokratie hingegen ein zuviel an Elektrizität, aber zuwenig Fernwärme. Dieses Ergebnis ist ökonomisch plausibel. Die Bürokratie will nach Voraussetzung (4) primär neue Anlagen bauen (da z. B. nur ein weiterer Ausbau den momentan hohen Personalstand rechtfertigt). Daher ist jede, auch interne Konkurrenz - wie hier durch "Fernwärme" - unerwünscht, wenn sie die Chancen der Vermarktung von "Strom" - der treibenden Kraft im Anlagenbau - verschlechtert. Die obige Behauptung rationalisiert auch die Opposition öffentlicher Unternehmen gegenüber zeitabhängigen Tarifen, da dies etwa eine Substitution des Tagstroms durch den Nachtstrom ermöglicht. Denn (korrekt angewandte) zeitdifferenzierte 65Die Tendenz wachsender Büros ist auch unter Begriff Parkinson'sches Gesetz bekannt. Öffentliche Unternehmen 190 Tarife reduzieren die Kapazität, die zur Bedarfsdeckung notwendig ist, und reduzieren damit die (bürokratische Ziel-) Größe des Anlagenparks. Der erste Teil der obigen Behauptung folgt unmittelbar aus (5) und (6) und 0. Die Aussagen über den Vergleich der öffentlichen und monopolistischen Tarife sind dann eine unmittelbare Konsequenz der Annahmen über die Nachfragefunktionen. Somit bleibt die Aussage zu beweisen, dass diese Unternehmensform im Vergleich zum Monopolisten zuviel Strom und zu wenig Fernwärme anbietet. Definiere mit zB und zM das bürokratische und das monopolistische Angebotsverhalten; [2] beschreibe die (reguläre) Matrix der zweiten Ableitungen der Profitfunktion, d. h., [2] besteht aus den (negativen) Elementen 2/zizj. Die Differenz zwischen den bürokratischen und den monopolistischen Entscheidungen liefert nach linearer Taylorapproximation folgende Beziehung: [2](zM - zB) (-1/,0)t (8) sodass nach Multiplikation von (8) mit [2]-1 und nach Verwendung von > 0 unmittelbar die obige Behauptung folgt: z1B > z1M, z2B < z2M. Der Vergleich des bürokratischen Verhaltens mit den sozial optimalen Ramsey-Tarifen kann auf folgende Art geführt werden. Das Ramsey-optimale Verhalten (z*) kann in der folgenden Form angeschrieben werden: /z2 = (MR2-MC2) < 0 (9) d. h., die letzte produzierte Einheit liefert einen negativen marginalen Beitrag zum Profit. Abschätzung der Differenz zwischen bürokratischem und Ramsey-optimalem Verhalten des Fernwärmeangebotes liefert: 2(z*) B * (zB) (z*) 2(z*) B * - (z1 - z1) + (z2 - z2) z2 z2 z1z2 z22 (10) =-(z*)/z2>0 Aufgrund der Voraussetzung, dass z1B der maximale Wert aus der Nullprofitkurve (=0) ist, gilt: (z1B - z1*)>0. Daher muss (z2B-z2*)<0 sein, da die rechte Seite in (10) positiv ist. 9.5 Amerikanische Regulierung Im Gegensatz zu den europäischen institutionellen Rahmenbedingungen sind die wichtigsten öffentlichen Einrichtungen in den Vereinigten Staaten durch private Investoren finanziert. Diese Eigentümer unterliegen jedoch im Austausch für die Lizenz eines öffentlichen Monopols der öffentlichen Regulierung. Die verschiedensten Regulierungskommissionen über- Öffentliche Unternehmen 191 wachten (Imperfekt, da aufgrund der Deregulierung in den 80er Jahren einige Kommissionen aufgelassen oder zumindest eingeschränkt wurden) die Tätigkeiten so wichtiger Industriezweige wie der Telekommunikation - American Telefon and Telegraph (AT & T), der Energieversorgungsunternehmen, den (zwischenstaatlichen) Flugverkehr, des Transportwesens usw. Im Vergleich zu europäischen Preisbehörden, die hinter verschlossenen Türen tagen, ist die amerikanische Regulierung durch einen offenen Austragungsmodus und allgemeine Parteienstellung charakterisiert. Infolgedessen mag sie für manche als Alternative zu verstaatlichten Unternehmen attraktiv erscheinen. Tatsächlich ist jedoch trotz dieser Offenheit des Verfahrens die amerikanische Erfahrung mit den verschiedenen Regulierungskommissionen nicht befriedigend. Insbesondere die Prozesse um das Monopol der AT & T zeigten, wie AT & T die Regulierungsbehörde über Jahrzehnte in ihrem Sinne beeinflusste und Eindringlinge vom Markt fernhielt; siehe Evans (1983). Die Analogien des Vorgehens der AT & T haben überraschenderweise viele Parallelen mit dem Versuch der AUA, die Lauda Air vom Fluggeschäft fernzuhalten66. Darüberhinaus erwies sich, dass die Regulierung zu ineffizienter Produktion der öffentlichen Unternehmen in privater Hand führt. Die Konsequenz eines solchen institutionellen Arrangements auf die Entscheidungen eines regulierten Unternehmens wurde erstmals von Averch-Johnsen (1962) analysiert. Das Hauptergebnis der Analyse von Averch-Johnson ist, dass Ertragsbeschränkungen zu einem ineffizienten Inputmix, genauer zu einer Überkapitalisierung führen, so dass nicht am kostenminimalen Punkt produziert wird. Diese X-Ineffizienz wird üblicherweise als Averch-Johnson Effekt bezeichnet. Anhang H gibt einen formalen Beweis für dieses Ergebnis. Zusätzlich zu dieser direkten Ressourceverschwendung begünstigt diese Regulierung kapitalintensive Güter, was darüberhinaus auch noch die Outputpreise verzerrt. Das bedeutet, dass Wohlfahrtsverluste in Kauf genommen werden müssen, obwohl die Regulierung ja eingeführt wurde, die Wohlfahrtsverluste aus (unreglementiertem) Monopolverhalten zu vermeiden (dabei sind die direkten Kostenaufwendungen für die Regulierungsbehörden nicht eingerechnet). So kann diese Regulierung die Ausbeutung des Konsumenten durch einen Monopolisten zwar reduzieren, führt aber gleichzeitig zu anderen sozial-adversen Konsequenzen wie ineffizienter Produktion. Es ist a priori und im allgemeinen nicht klar, bei welchem Reglement - Regulierung oder Nichtstun die Verluste überwiegen. Diese Form der Regulierung spielt auch eine große Rolle in den privaten Monopolen der Elektrizitätsversorgung. Auch in der Elektrizitätswirtschaft wird ein regionales Monopol lizenziert, dafür aber reguliert, weil man glaubt, dass ein natürliches Monopol vorliegt. Die Tabelle 2.1 zeigt die Verteilung der Eigentümer an der Produktion und an der Kapazität der amerikanischen Elektrizitätsversorgung. Das amerikanische System garantiert einer privaten Firma (investor owned utility, kurz IOU), das (regionale) Monopol zur Ausnützung günstige- 66So argumentierten sowohl AT&T als auch die AUA, daß es das effizienteste Unternehmen sei, dass nur für ein Unternehmen Platz am Markt wäre und daß letztendlich der Eindringling finanziellen Schiffbruch erleiden müsse. Öffentliche Unternehmen 192 rer Produktionskosten, aber unterwirft sie gleichzeitig einer Renditenregulierung. Diese Form der Organisation bestreitet den Großteil der Produktion und der Verteilung von Elektrizität in den Vereinigten Staaten. Das bekannteste Beispiel eines staatlichen Elektrizitätsversorgungsunternehmens in den Vereinigten Staaten ist die Tennessee Valley Authority, kurz TVA, die auf den New Deal der Roosevelt Administration zurückgeht und als größtes Unternehmen etwa 5 % des Marktes abdeckt. Tabelle 2.1: Eigentümeranteile der Elektrizitätsindustrie in den Vereinigten Staaten (1980) Eigentümer Kapazität Produktion ───────────────────────────────── Private 78.0 78.0 Kooperative 2.5 2.8 Bundesstaatliche 9.6 10.3 Stadtwerke 5.6 3.8 andere öffentliche 4.5 5.2 ───────────────────────────────── Quelle: Joskow-Schmalensee (1985). Dieses (theoretische) Ergebnis von Averch-Johnson (1962) bestätigt sich sowohl empirisch vgl. dazu Spann (1974), Cowing (1978), Atkinson-Halvorsen (1986) - als auch theoretisch in einigen für die Elektrizitätswirtschaft speziell zugeschnittenen Ansätzen über Investitionen in Spitzenlastkapazitäten, Bailey (1972). Darüberhinaus zeigen Crew-Kleindorfer (1979) in einem stochastischen Modell, dass "Versorgungssicherheit" als Vorwand der Kapazitätsausweitung und der Verdeckung der Monopolprofite dienen kann. In diesem von CrewKleindorfer analysierten Fall führt dieses Arrangement der Regulierung zur Übertreibung des Sicherheitsgedanken: Die installierte Kapazität übersteigt die mögliche Variation des Bedarfes und dient vornehmlich der Verschleierung von Profiten vor der Regulierungskommission, "gold plating reliability". Sowohl der Ansatz von Bailey (1972) als auch die stochastische Variation von CrewKleindorfer (1979) erklären die Fakten, dass die amerikanischen EVUs kaum Spitzenlasttarife anwendeten und anstatt dessen lieber eifrig in Spitzenkapazität investierten. Wirl (1994) zeigt, dass diese Form der Regulierung plus zusätzlicher Anreize die Aufwendungen amerikanischer EVUs für Investitionen in Energiesparprogramme erklärt, aber diese Unternehmen gleichzeitig ermuntert, ineffiziente Programme (teure Programme mit geringem Sparerfolg) zu wählen. In anderen Worten, diese Sparaktivitäten sind kein Beweis ihrer Wirtschaftlichkeit, sondern können als Folge regulatorischer Verzerrungen erklärt werden! Ineffizienz der (amerikanischen) Renditenregulierung. Die folgende Analyse verwendet das Modell aus Averch - Johnson (1962). Eine monopolistische Einproduktfirma produziert die Outputmenge x durch zwei (homogene) Inputs, Kapital (K) und Arbeit (L). Die technologischen Input - Outputmöglichkeiten seien durch eine neoklassische Produktionsfunktion: x = f(K,L). (1) Öffentliche Unternehmen 193 gegeben, die für jede Inputkombination den (maximal) erzielbaren Output angibt. Die Kosten für die einzelnen Inputfaktoren betragen: pro Einheit Kapital und w pro Arbeitseinheit, so dass die Gesamtproduktionskosten durch (K + wL) gegeben sind. Weiter sieht sich der Monopolist einer Preis - Absatzfunktion gegenüber, die durch die inverse Nachfragefunktion P beschrieben wird: p = P(x). (2) wobei x die vom Monopolisten angebotene Menge bezeichnet. Somit erhält man für den Erlös R, R = px = P(x)x = P(f(K,L))f(K,L): = R(K,L), (3) und den Profit : (K,L) = R - K - wK. (4) Beide, R und , hängen von den Variablen Arbeit und Kapital ab. Ohne Beschränkung würde der Monopolist nun versuchen, seinen Profit durch geeignete Wahl von K und L zu maximieren, also das Grenzprodukt mit den Grenzkosten ausgleichen: RK = , (5) RL = w. (6) Diese bekannten Grenzproduktivitätsbedingungen liefern die profitmaximierenden (und gleichzeitig kostenminimalen) Inputmengen K0, L0. Diese rationale Wahl der Inputs impliziert eine optimale Kapitalrendite von 0 = (R(K0,L0) - wL0)/K0. Um diese Strategie zu unterbinden, erlaubt die Regulierungsbehörde, dass die laufenden Kosten gedeckt werden und gestattet eine "faire" Rendite, mit 0 > 0 > (die Beschränkung in der Form von 0 wäre überflüssig) auf das eingesetzte Kapital: R(K,L) – wL K, (7) oder: R(K,L) - wL - K 0. (8) Das Hauptergebnis der Untersuchung von Averch - Johnson ist: Die Regulierung der Rendite verzerrt die Inputkonfiguration zu Gunsten des Kapitals, das heißt, es kommt zu einer Überkapitalisierung der regulierten Firma und daher zu ineffizienter Produktion. Somit kreiert die Regulierungsbehörde, die eigentlich versucht den Wohlfahrtsverlust durch Monopolpreise zu beseitigen, selbst Wohlfahrtsverluste, weil die Renditenregulierung nicht mehr die Produktion am kostenminimalen Punkt ermöglicht. Im allgemeinen Fall ist daher nicht gewährleistet, Öffentliche Unternehmen 194 dass die Regulierung die gesellschaftliche Wohlfahrt erhöht, insbesondere wenn man die zusätzlichen Kosten für die Administrierung dieser Auflage berücksichtigt. Der folgende Beweis orientiert sich an Takayama (1969). Der Produzent versucht den Profit, Gleichung (4), unter Beschränkung des Ertrages auf das Kapital, Ungleichung (7), zu maximieren. Definiere in üblicher Art die Lagrange - Funktion mit µ als Kuhn - Tucker Multiplikator (die Funktionsargumente sind im folgenden unterdrückt): L = R(1 - µ) - wL(1 - µ) - K( - µ). (9) Daraus ergeben sich die folgenden Kuhn - Tucker Bedingungen: (RL - w)(1 - µ) = 0, (10) (1 - µ)RK - ( - µ) = 0, (11) µ 0, µ(K + wL - R) = 0, (12) die nur notwendig, aber nicht hinreichend sind. Denn die übliche Annahme, dass die Profitfunktion konkav sei, um ein eindeutiges Optimum zu garantieren, ist nur gewährleistet, wenn R selbst konkav ist. Dies impliziert jedoch, dass die Beschränkung (7) auch konkav und nicht konvex ist, wie für ein hinreichendes Kriterium67 verlangt wird. Die Annahme < 0 garantiert, dass die Bedingung (7) bindend ist und somit µ > 0. Gleichzeitig muss µ = 1, denn µ = 1 impliziert dann aufgrund von (11) = im Gegensatz zur Voraussetzung < . Somit kann die Gleichung (9) durch (1 - µ) durchdividiert und umgeformt werden. Die Beziehung (10) reduziert sich dann auf die übliche Grenzproduktivitätsbedingung. Auch die Gleichung (12) ist unabhängig von µ, da die Beschränkung der Rendite als bindend angenommen wurde, d. h. µ > 0. Somit können die Kuhn - Tucker Bedingungen in der folgenden Form angeschrieben werden: RL = w, (13) RK = - µ( - )/(1 - µ), (14) R - wL - K = 0, (15) µ > 0. (16) Die erste Bedingung (13) ist die übliche Grenzproduktivitätsbedingung. Die Wahl des optimalen Inputs an Kapital nach (14) orientiert sich jedoch an einem niedrigeren Preis als den ei- 67Die Vernachlässigung dieses Aspektes wurde an der Originalarbeit heftig kritisiert, insbesonders Takayama (1969). Dies ist jedoch kein essentielles Problem für die Analyse. Denn übliche Annahmen über Produktions und Einnahmefunktionen garantieren, daß der Gewinn für große Inputs negativ wird und somit das Minimum einer stetigen Funktion über einer kompakten Menge gesucht wird; und dieses existiert (Satz von Weierstraß). Öffentliche Unternehmen 195 gentlichen Kosten, was zu einer Inflationierung des Kapitalstockes über den (Kosten - ) optimalen Punkt hinaus führt. Die Beweisidee (nach Takayama (1969)) ist es, am Punkt = 0 eine komperativ statische Analyse durchzuführen. Dabei wird vorausgesetzt, dass die optimalen Inputs K(), L() stetig vom Regulierungsparameter abhängen. Differenziere die Gleichungen (13) und (15), die beide unabhängig von µ sind, nach : RLL(dL/d) + RLK(dK/d) = 0, (17) (RL - w)(dL/d) + (RK - )(dK/d) - K = 0. (18) Für = 0 erhält man aus (14), dass µ = 0, RK - kann durch - 0 ersetzt werden und RL w verschwindet, so dass aus (18) folgt: K dK K = = - < 0. d RK - = 0 0 - (19) Aus (19) folgt die Behauptung von Averch - Johnson als lokales Ergebnis am Punkt = 0, wo die Beschränkung gerade noch nicht bindend ist, so dass jede leichte Verschärfung den behaupteten Effekt hat. Da jedoch RK finit ist für positive Inputs K,L folgt, dass dK/d immer ungleich Null ist und somit folgt aus der Annahme der Stetigkeit der Inputs dK/d < 0. ■ 9.6 Öffentlich versus private Organisation Nach welchen Kriterien sollen nun die institutionellen Rahmenbedingungen für ein öffentliches Versorgungsunternemen aus den Alternativen: Staatsmonopol (oder andere Formen öffentlichen Eigentums) in bürokratischer Verwaltung (wie z.B. bei Bahn, Post, Telephon, Wasser, Elektrizität, Rundfunk, Müllabfuhr etc.), ein privates Monopol mit öffentlicher Regulierung (wie traditionell in den Vereinigten Staaten), oder eine private Industrie, ausgesetzt den Marktturbulenzen, vorgeschlagen und ausgewählt werden? Brennan-Buchanan68 schlagen eine radikale Anwendung des Prinzips des homo oeconomicus vor, falls über die institutionellen Rahmenbedingungen öffentlicher Einrichtung, z.B. die Errichtung einer Mülldeponie, Änderung der Stromversorgung, etc., entschieden werden soll. Dies sei nicht nur der Tradition politischer 68 G. Brennan; und J. M. Buchanan;, Predictive Power and the Choice among Regimes, in: Economic Journal, Vol. 93, 1983, 89-105. Öffentliche Unternehmen 196 Wissenschaft69, sondern auch dem Problem angemessen. Im besonderen kritisieren die beiden Autoren die Übertragung (mittlerer) empirischer Evidenz - etwa, dass das private Monopol doch nicht ganz so ausbeuterisch wäre, als die Theorie vorschlägt, der Bürokrat nicht nur „Niskanen“, sondern auch sozial motiviert sei - auf die neue Entscheidung. Als Grundlage ihres Argumentes dient die Konvexität einer sozialen Verlustfunktion bei Abweichen von dem sozial-optimalen Verhalten. Die bisherige Analyse und die empirische Evidenz über öffentliche Firmen offenbart den ersten Trugschluß. Neben ideologischen Motiven der Verstaatlichung öffentlicher Unternehmen oder (scheinbarer) Monopole stand die Illusion im Vordergrund, daß der soziale Wohlfahrtsverlust, der durch Monopolpreise entsteht (deadweight loss, linkes schraffiertes Dreieck in Abb. A.1) bei öffentlichem Eigentum wieder für die Gemeinschaft gewonnen werden kann. Jedoch die mit diesem Unternehmen betreute Bürokratie hat zu geringes Interesse, die öffentlichen Ziele zu verfolgen. Deshalb wird das Management einer öffentlichen Firma nicht den Output q* produzieren, sondern selbst Wohlfahrtsverluste (rechtes schraffiertes Dreieck) verursachen durch die Produktion qN; Darüber hinaus können Verluste durch X-Ineffizienz in der Produktion von qN entstehen. Grenzkosten Nachfrage qm q* qN q Abb. 9.5: Wohlfahrtsverlust bei Monopol & Bürokratie 69 J. S. Mill;, Essays on Politics and Society, "The very principle of constitutional government requires it to be assumed that political power will be abused to promote the particular purposes of the holder; not because it always is so, but because such is the natural tendency of things to guard against which is the special use of free institutions.", zitiert nach G. Brennan; und J. M. Buchanan; a.a.O. Öffentliche Unternehmen 197 L L(qN)/2 m q q* _ q q q q N Abb. 9.6: Wohlfahrtsverlust abhängig in Abweichungen von q* Abb. 9.5 zeigt, daß Marktversagen auf Grund ungenügender Konkurrenz (meistens) zu einem zu geringen Angebot führt und dadurch Wohlfahrtsverluste verursacht. Öffentliche, bürokratische Unternehmen tendieren hingegen dazu, zu viel anzubieten, was ebenfalls zu Wohlfahrtsverlusten führt. Da beide Situation sozial unerwünscht sind, wird es immer Kritik geben, die die andere institutionelle Variante als effizienter ansieht. Dies gilt im besonderen dann, wenn man die ideologische Präferenz von politischen Parteien in Betracht zieht. Abb. 9.6 zeigt den Wohlfahrtsverlust auf, der durch Abweichen von der optimalen Regel Preis=Grenzkosten auftritt. Aus Abb. 9.5 folgt, daß jede Abweichung vom Optimum q* eine quadratische (bedingt durch Integration), also eine konvexe Verlustfunktion (L) darstellt. Das Einsetzen des mittleren Verhaltens liefert daher nicht den Verlust, wenn das tatsächliche Verhalten durch eine Wahrscheinlichkeitsverteilung mit demselben Mittel beschrieben wird. Zur besseren Illustration, daß das Einsetzen des durchschnittlichen Verhaltens den Wohlfahrtsverlust unterschätzt, betrachte das Beispiel eines Bürokraten, der 50% seiner Zeit heroisch an seine öffentliche Aufgabe denkt und q* wählt. Die andere Zeit benimmt er sich jedoch wie ein Niskanen-Bürokrat und wählt den Output qN (da er ja die Grenzkosten stark unterschätzt, vgl. drittes Kapitel, Abschnitt F). Jedoch das Einsetzen des mittleren Outputs q = (q*+qN)/2 in die Verlustfunktion unterschätzt den tatsächlichen Verlust: _ = = _ L(q) < ½L(q*) + ½L(qN) = ½L(qN) = L(q), q > q. (A.1) Öffentliche Unternehmen 198 Der mittlere Verlust entspricht eigentlich einem Verhalten von q > q, das näher beim bürokratischen Output qN liegt. Dieses Ergebnis unterstellt Risikoneutralität des Entscheidungsträgers. Bei (wahrscheinlichem) risikoaversen Verhalten ist die Verzerrung, d.i. die Unterschätzung der sozialen Verluste beim best fit Modell, noch stärker und die Approximation durch den Extremfall des Niskanen-Bürokraten noch besser70. Die obigen Abbildungen skizzieren das grundlegende Dilemma in Märkten, wo ein Marktversagen vorliegt. Dieses Abweichen vom sozial optimalen Output q*, genauer die Unterversorgung durch den freien Markt, kann durch ungenügende Konkurrenz oder aber auch durch andere Aspekte wie Externalitäten, Komponenten eines öffentlichen Gutes (z.B. „Versorgungssicherheit“) bedingt sein. Die Verstaatlichung als Korrektur dieses Marktversagens wird aber auch nicht zum optimalen Output tendieren. Im Gegenteil, wie bereits mehrfach gezeigt, tendiert eine bürokratische Einrichtung zu einer Überversorgung. Daher ist bei realen Entscheidungen eine (empirische) Abwägung ohne ideologische Präferenz zwischen diesen Alternativen notwendig. Rürup71 argumentiert ähnlich und berücksichtigt eventuelle X-Ineffizienz durch Kontrollkosten. 70 Darüber hinaus ist das "best fit" Modell für einen Monopolisten auch noch aus anderen Gründen verzerrt: z.B. wenn intertemporale Aspekte wie Konsumententreue (good will) und/oder eine Lernkostenkurve (learning by doing) vorliegen. Dann wählt der Monopolist in beiden Fällen einen niedrigeren Preis als die Robinson-Amoroso; Beziehung vorschlägt und erscheint freundlicher als er tatsächlich ist; vgl. dazu auch die Analyse im dritten Kapitel, Abschnitt E. 71 B. Rurüp;, Öffentliche Unternehmen versus regulierte private Unternehmen, in: Privatisierung und die Zukunft der öffentlichen Wirtschaft, hrsg. von H. Brede, Baden-Baden 1988, 89-103. Öffentliche Unternehmen 199 10 Regulierung mittels ökonomischer Anreize Die üblichste und traditionelle Form der öffentlichen Regulierung ist die Beschränkung des Unternehmensgewinnes auf eine faire Rendite auf das eingesetzte Kapital. Diese Regulierung erlaubt dem privaten Unternehmen alle Kosten auf den Preis überzuwälzen und führt zur Aufblähung des Kapitalstockes ("Überkapitalisierung"), so dass nicht am kostenminimalen Punkt produziert wird. Diese X-Ineffizienz der Renditenregulierung, bekannt als Averch-Johnson Effekt nach Averch-Johnson (1962), stellt die Frage nach alternativen Regulierungsformen, die diese Ineffizienz beseitigen oder zumindest reduzieren. Im Gegensatz zur Renditenregulierung handelt es sich bei den folgenden Vorschlägen eher um Ansätze als um komplett spezifizierte Regulierungsmechanismen. Die folgende Analyse geht davon aus, dass entweder die Qualität der dargebotenen Dienstleistung hinreichend beobachtbar und daher leicht regulierbar ist, oder aber Reputationseffekte eine gewünschte Qualität sicherstellen. Dies ist deshalb notwendig, da alle folgenden Anreize versuchen, die Kosten zu senken, ohne dies durch Qualitätsverluste zu erkaufen (was ja ein triviales Unterfangen wäre). Für eine umfassendere, neuere Diskussion von Regulierungsanreizen siehe dazu Train (1991). Für Anwendungen der principal-agent Theorie (bzw. der Theorie des mechanism design) auf Regulierungsprobleme siehe das exzellente Buch von Laffont-Tirole (1993).72 Aufgrund der momentanen Reprivatisierungswelle von verstaatlichten und öffentlichen Unternehmen kommen den Formen der Monopolregulierung, insbesondere der gebräuchlichen Renditenregulierung, auch in Europa erhöhte Bedeutung zu. So vermutet Beesley, "Like it or not we are here at the beginning of a public regulatory process". Dies ist am offensichtlichsten in Großbritannien, wo mit neuen Ansätzen der Regulierung seit mehr als zehn Jahren experimentiert wird. 10.1 Demsetz-Auktion Demsetz (1968) bestreitet, dass öffentliche Regulierung als Mittel zur Vermeidung von Monopolprofiten gerechtfertigt ist. Demsetz schreibt in Why regulate Utilities?: “The natural monopoly theory provides no logical basis for monopoly prices. ... To the extent that utility regulation is based on the fear of monopoly prices, merely because one firm will serve each market, it is not based on any deducible economic theorem", und gibt dann Chadwick (1859) als einen Vorläufer an, der bereits zwischen competition within the field und competition for the field unterschied. Der Vorschlag von Demsetz ist, in den Fällen natürlicher (möglicherweise regionaler) Monopole, die nicht mögliche oder zumindest ineffiziente Konkurrenz in einem Markt, durch eine Konkurrenz um den Markt selbst zu ersetzen. Demsetz schlägt eine Auktion vor, wo der Produzent, der zu niedrigsten Kosten einen Service übernimmt, für einen bestimmten Zeitraum das Monopol eingeräumt bekommt. Im Detail schlägt Demsetz wiederholte Auktionen vor, um öffentliche Dienstleistungen an Private zu übertragen. In dieser Auktion wird zuallererst die effizienteste Firma den Zuschlag erhalten, da diese die Dienstleistung zum billigsten Tarif anbieten kann. Weiter hat diese Firma dann auch alle Anreize so effizient wie möglich 72Diese speziellen Ansätze zur Bestimmung optimaler Kontrakte und Auktionen berücksichtigen explizit divergierende Interessen und private, asymmetrische Informationen. Wegen des damit verbundenen und notwendigen hohen formalen Anspruchs wird von diesen Ansätzen hier abgesehen. Öffentliche Unternehmen 200 zu produzieren, denn jede Kostensenkung über das Auktionsergebnis hinaus bleibt der Firma als Gewinn. Dieses Arrangement garantiert X-Effizienz und mache - so Demsetz - eine Regulierung obsolet. Jedoch spezifische langfristige Investitionen, unvollständige Spezifikation des Vertrages und ex-post Opportunismus - kurz Transaktionskosten - erfordern eine begleitende Regulierung. Denn nach Ersteigern des Kontraktes für einen fixen Zeitraum ergeben sich ex-post opportunistische Möglichkeiten aus der temporären Monopolsituation. Somit würde der Vorschlag von Demsetz in vielen Fällen nicht die Regulierung als solche beseitigen, sondern nur den Namen der Kommission ändern. 10.2 Der Vorschlag von Loeb-Magat Loeb-Magat (1979) schlagen folgende Form einer Regulierung - im folgenden L-M Anreiz vor. Die Behörde schreibt der Firma die Durchschnittskosten als obere Schranke vor. Dies ist natürlich nicht sozial effizient und daher verspricht die Behörde eine Subvention in dem Ausmaße, in dem es dem Unternehmen gelingt, die Konsumentenrente zu verbessern.73 Somit fallen soziales Ziel und Firmeninteresse zusammen, und das (gewinnorientierte) Unternehmen wählt den sozial optimalen Preis entsprechend den Grenzkosten, ohne dass die Behörde Information über die Kosten hat. Der Vorteil des L-M Schemas ist, dass die Regulierungsbehörde die wahren Grenzkosten nicht zu kennen braucht (und in der Regel auch nicht kennt). Nachteile sind: (a) Dieses Regulierungsschema benötigt Kenntnis der Nachfragekurve, um die Subvention festlegen zu können. (b) Hohe Subventionszahlung an die Firma, d. h., das Unternehmen erhält allein alle Verbesserungen der Konsumentenrente. Da jedoch viele Regulierungsbehörden, aber insbesondere viele Politiker, nicht neutral zwischen Konsumentenrente und Produzentenrente sind, ist diese Regulierung nicht populär. Dieser Nachteil hoher Subventionszahlungen kann zumindest theoretisch dadurch eliminiert werden, indem mittels einer Auktion (in Anlehnung an Demsetz) der erwartete Profit aus den Transferzahlungen ex ante abgeschöpft wird. 10.3 Vogelsang-Finsinger Anreiz und Erweiterungen Vogelsang-Finsinger (1979) schlagen eine iterative Regulierungsprozedur (im folgenden V-F abgekürzt) vor. Die Autoren setzen statische, zeitinvariante, mit allen üblichen und angenehmen Eigenschaften ausgestattete Funktionen der Kosten (c) und der Nachfrage, f(p) vektoriell (d. h., die Firma ist also ein Mehrproduktunternehmen), voraus. Die Regulierungsbehörde kennt und beobachtet in der Periode t die Preise pt, die Nachfrage xt = f(pt) und den 73Ohne Änderung des Prinzips kann von dieser Subventionszahlung eine fixe Summe a priori abgezogen werden. Öffentliche Unternehmen 201 Profit t. Für die nächste Periode kann das öffentliche Monopol die Preise nun mehr so wählen, dass beim Output des Vorjahres kein Profit mehr realisierbar wäre, d. h.: pt+1Rt+1:={p: Einnahmen-Kosten:=ptxt-c(xt)0} p Preisvektor, pt Preise als Zeilenvektor (t für transponiert) Rt+1 Beschränkung des Preisindex in Periode t+1, c(xt) Kosten der Produktion in der Periode t. Diese Beschränkung Rt+1 kann so interpretiert werden, dass der Firma für die Periode t+1 ein Laspeyre-Preis Index für das gesamte vertriebene Güterbündel vorgeschrieben wird, jedoch Flexibilität in der Preisstruktur dem Produzenten erhalten bleibt (partielle Deregulierung). Unter der Annahme74 myopischer Profitmaximierung des Unternehmens konvergiert dieses Schema gegen die sozial optimalen Ramsey-Preise. Mehr sogar, dieses Schema garantiert eine ständige Verbesserung. Denn die Konsumenten können in jeder Periode das Bündel aus der vorherigen Periode finanzieren. Wählen sie jedoch ein anderes Bündel, so kann dann dieser Gütervektor ihre Wohlfahrt nur erhöhen. Dieses V-F Anreizschema verzichtet (bewusst?) auf Information über die Nachfragefunktionen, führt daher zu langsamer Konvergenz zu den optimalen Ramsey-Preisen. Sappington-Sibley (1988) kombinieren den Vogelsang-Finsinger mit dem Loeb-Magat Anreiz, incremental surplus subsidy scheme, was zwar Information über die Nachfragefunktionen erfordert, aber dafür in einem Schritt zu Ramsey-Preisen führt. 10.4 "Price-caps" Eine momentan sehr bedeutende Form der Regulierung ist die Regulierung durch sogenannte Price-Caps. Dieses Konzept wurde durch Littlechild popularisiert.75 Price-cap Regulierung in unterschiedlichen Varianten wird in Großbritannien durchgängig als Regulierungsinstrument eingesetzt. Das Prinzip kann am besten und am einfachsten an Hand einer ersten Anwendung, der Regulierung von British-Telecom, dargestellt werden. Die privaten Monopole (ob British Telecom, Wasserversorgung oder Flughäfen) werden durch die mittlerweile allgemein bekannte und nahezu sprichwörtliche Formel: 74Weitere Annahmen sind: Fallende Durchschnittskosten entlang von Outputstrahlen; Konsumentenrente ist konvex in den Preisen. 75Es ist eigentlich ein Spezialfall des Vorschlages von Crew-Kleindorfer-Sudit (1979), der Firma einen Teil des Produktivitätszuwachses überlassen. Öffentliche Unternehmen 202 RPI - X RPI = Inflationsarte X = Abzug für (erwarteten) technischen Fortschritt geregelt. Daher darf der Preis für die gesamten Telefondienstleistungen mit dem Konsumentenpreisindex eskalieren (als Approximation für geänderte Faktorkosten) weniger einem (mit 3 % ausgehandelten) Abzug für Produktivitätssteigerungen. Diese Form der Regulierung hat folgende Vorteile: - Einfache Administration. - Das Management hat einen großen Anreiz, die vorgeschriebene Produktivitätssteigerung zu überbieten, da jede weitere Einsparung voll einbehalten werden darf: Der marginale Ertrag kann mit dem marginalen Aufwand ausgeglichen werden, was theoretisch zu X-Effizienz, aber zumindest zu einer substantiellen Verbesserung der Input-Effizienz des Unternehmens führt. Die Idee und die Effizienz dieses Ansatzes beruht darauf, dass eine exogene Vorschrift getroffen wird, die sich somit ähnlich verhält wie Kopfsteuern im Falle von Besteuerungsfragen: der marginale Einsatz wird voll belohnt. Ein Nachteil dieses Anreizschemas ist, dass nur sehr bedingt (etwa durch Erlaubnis für Preisdifferenzierung) allokativ effiziente Preise angestrebt werden. In anderen Worten, dieses Verfahren bemüht sich nicht, die Monopolprofite gänzlich zu eliminieren. In einem langfristigen politisch-ökonomischen Prozess ist diese Exogenität von Preisobergrenzen wahrscheinlich eine unhaltbare Voraussetzung, so dass Beobachtungen über Kosten und Gewinne dazu verwendet werden, die Vorschrift in Zukunft zu verändern oder anzupassen. Aber diese Unsicherheit über zukünftige Revisionen, die wiederum vom Gewinn des Unternehmens abhängen, wird den Aufwand des Managements begrenzen oder eventuell sogar auch strategisches Verhalten ermutigen. Denn temporär hohe Profite, etwa aufgrund glücklicher Umstände oder auch enormer Anstrengungen, provozieren vermutlich politische Entrepreneurs, die diese Profite anprangern. Unter solchen politischen Randbedingungen wird auch hier das Unternehmen versuchen, exzessive Profite entweder gar nicht anzustreben, oder aber durch andere Aktivitäten zu verstecken; X-Ineffizienz und Analogie zum AverchJohnson Effekt. In anderen Worten, die Notwendigkeit von Revisionen der RPI-X Formel provoziert möglicherweise strategisches Verhalten, aber reduziert in jedem Fall den Aufwand tatsächlich alle Kosteneinsparungen unmittelbar zu realisieren. Schlimmer, Price-Cap Regulierung verlangt einseitige Bindungen der Regulierungsbehörde über den gesamten Zeitraum. Dies kann jedoch in Demokratien nie gewährleistet werden, denn wer garantiert, dass eine kommende Labour-Regierung in Großbritannien diese Randbedingungen honoriert, auch im Falle hoher Profite? Diesem Aspekt ist der Anhang E gewidmet. Öffentliche Unternehmen 203 10.4.1 Ansätze zur Bestimmung des X-Faktors Bei der ersten Implementierung von RPI-X wurde die Frage nach dem „optimalen“ X nicht gestellt, weil primär eine Verbesserung der Kosteneffizienz in Bereichen angestrebt wurde, in denen es seit Jahrzehnten lang daran gefehlt hat. RPI-X bestimmte einfach, dass die realen Preise um den Faktor X fallen und somit die Konsumenten im Ausmaß dieses Faktors X an den Kostenersparnissen partizipieren sollen. Daher war die Festlegung von X primär das Ergebnis eines Auslotens des Verhandlungsspielraums zwischen dem Regulator und den regulierten Unternehmen. In der Folge wurde sowohl der Ansatz als auch die Praxis dieser Form der PCR, insbesondere auch die Festlegung des X Faktors, mehrmals analysiert und kritisiert. Die wichtigsten Stimmen sollen kurz widergegeben werden. Die Verbindung der X Faktoren mit der Gesamtproduktivität (total factor productivity, TFP) wurde bei der ersten Festlegung der X Faktoren in England nicht hergestellt. Die Idee der RPI-X Regulierung war, den Unternehmen einen Anreiz zur Suche nach den Kostenfunktionen zu geben, d.h. zur Reduzierung produktiver Ineffizienzen. Solange die Unternehmen überzeugt sind, die Gewinne auch tatsächlich behalten zu dürfen, werden sie sich auf die Suche begeben, unabhängig, ob der X Faktor „richtig“ oder „falsch“ ist. Beesley/Littlechild (1989) sprechen die Unterschiede für die erste und die folgenden Festlegungen der X Faktoren an. Die erste Festlegung in England war Ergebnis einer politischen Entscheidung und Teil des Privatisierungsprozesses der Unternehmen. Nicht die erwarteten TFP waren ausschlaggebend, sondern das X sollte so gesetzt werden, dass die staatlichen Unternehmen fit für die Privatisierung werden. „The initial level of X is set by the government at the time of privatisation, as part of the privatisation process, whereas X is reset by the regulator as part of the continuing regulatory process. This has three important implications.” Des weiteren gab es bei der ersten Festlegung keine Interessenskonflikte zwischen Aktionären und Konsumenten, da die Unternehmen in öffentlicher Hand waren. „Second, the initial level of X is set by the government as owner of the company, whereas X is reset by a regulator who does not own the shares. The government as owner can choose, if it wishes, to take lower proceeds in return for, say, lower prices for customers. The regulator does not have that extra degree of freedom: any shift in favour of one interest group (such as customers) will be at the expense of another group (such as shareholders). The regulator is constrained by the expectations of shareholders and customers, which were established at privatisation, and his discretion is limited to whatever range is deemed acceptable (or can be so presented).”76 „The third difference between setting and resetting X, which reinforces the previous two, relates to the effect on the company’s share price. In both cases the level of X will influence the share price via its effects on expected net revenue streams, so the stock market in fact decides the yield to shareholders…The regulator cannot ignore this consideration in his decisions, and it reinforces the greater constraints on setting it initially.” (457). „In the UK, neither governments nor regulators have given detailed reasons for their decisions on X. This reduces the basis for challenge (by company, competitors, or customers). The consequences of these four differences…is that there is greater scope for bargaining in RPI-X than in rate-of-return regulation…In short, X may be thought of as one of several variables in a political and commercial bargaining process.” (461). Die Verbindung des X Faktors mit der Gesamtproduktivität lehnen Crew/Kleindorfer (1996) ausdrücklich ab. Die Interpretation von X als ein „productivity offset“ ist mit der ursprünglichen Idee von RPI – X nicht vereinbar. Die falsche Anwendung von ökonomischen Theorien in den USA bewirkte, dass „(t)he basically simple idea of the X factor was replaced by the notion of the “productivity offset”, particularly in telecommunications. The economic clothing surrounding the productivity offset was such that regulators bought into concept. The idea was that the X factor, instead of being considered nothing more than the real reduction in prices to be provided to the monopoly customers, was coupled directly with the productivity growth of the company. Prices would rise not by the CPI minus X factor but by the CPI minus the productivity offset, where the productivity offset was intended to reflect the productivity of the firm” (216). Dies hat zur Folge, dass die regulierten Unternehmen 76 In diesem Zusammenhang siehe den Artikel von Sawkins (1996). Öffentliche Unternehmen 204 Berater zur Ermittlung der historische und zukünftigen Gesamtproduktivitätsentwicklung beauftragen, um im Verhandlungsprozess den X Faktor möglichst gering halten zu können. „In the United Kingdom, by contrast, there was no direct coupling of the X factor with a productivity offset…[because] setting the X factor involves several factors other than the productivity offset…“ (216). Selbst wenn die Gesamtproduktivitäten ordentlich gemessen werden könnten, lehnen Crew/Kleindorfer (1996) eine Verbindung mit dem X Faktor ab, da bei Vorliegen von ökonomischen Profiten, bzw. X-Ineffizienzen die Bindung an die Gesamtproduktivität ein zu geringes X ergeben würde. „If measurements of TFP were entirely accurate and not subject to any controversy whatsoever, we would still argue against the use of the productivity offset in setting the X factor…Moreover, where economic profits exist, even when the X factor exceeds the “true” rather than the measured value of TFP, the company can still increase its profits. This is particularly apparent when real growth in demand or inflation are present” (217). Die Autoren weisen jedoch der Gesamtproduktivität als untere Grenze für den X Faktor aber auch als vorhersehbare Regel eine Bedeutung zu.77 Littlechild (1988) stellt im Zusammenhang mit der Regulierung der Wasserwirtschaft Überlegungen zur Ausgestaltung von RPI-X auf ein „’permanent natural monopoly’ problem“ an. Er betont weiterhin, dass es nicht nur ein „richtiges” X gibt, sondern dieses in einer Bandbreite liegt. Sein Lösungsvorschlag basiert im wesentlichen auf zwei Pfeilern: (1) der Kontrolle durch den Kapitalmarkt und (2) einem exogenen X basierend auf durchschnittlichen Werten der Wasserindustrie. Der Zwang zur X-Effizienz soll vorrangig durch den Kapitalmarkt und nicht durch ein scharfes X erfolgen. „A privatised authority must be prevented from extracting monopoly profit in the form of inefficient management…The main pressure for efficiency must come from within; from the incentive of a private company to reduce costs so as to increase profits…An important role in securing efficiency is played by competition in the capital market. The stock market sharpens the drive to efficiency because it provides such an immediate feedback on performance, both past and expected in the future…The stock market also sharpens competition in the market for managerial talent. Top managers can more easily demonstrate success…The less able managers will be asked to step down” (51). Die Kontrolle erfolgt durch Übernahmen. „If the incumbent management of a water authority is failing to operate efficiently, the takeover bid is precisely the means whereby a more efficient management can replace it. It is a continuous test…A privatised water authority which insist in ‘empire building’, when contracting out would be more cost-effective, will be more vulnerable to takeover” (52). Damit diese Übernahmen nicht gehindert werden, spricht sich Littlechild (1988) für einen gänzlichen Rückzug der öffentlichen Hand aus diesen Unternehmen aus. Bei der Neufestsetzung des X Faktors muss sichergestellt werden, dass das eigene Verhalten des Unternehmens auf die Höhe des eigenen X Faktors keine Auswirkung hat, da sonst der Anreiz zu Kostenreduktionen gemindert wird. Littlechild (1988) meint deshalb, dass „(t)he availability of ten water authorities means that the maximum price increase allowed to each authority could be based, not on changes in that authority’s own costs and performance, but on changes in cost and performance in the water industry as a whole” (48). „To avoid blunting the incentive to efficiency, it is necessary to base the revision of X on factors outside the direct control of each authority, but none the less relevant to that authority’s situation. An ‘industry yardstick’, reflecting performance and prospect in the industry as a whole could be developed for this purpose. Each authority then knows that the future level of X is essentially independent of its own performance. If it fails to maintain comparable efficiency to the rest of the industry, it loses profits and its shareholders suffer. If it performs above average, it keeps the profits and its shareholders benefit. Future levels of X will reflect the past and the expected future performance of the water industry as a whole” (59). Da die neu festgesetzten X Faktoren auch die zukünftige Entwicklung widerspiegeln sollen, „…the economic regulator needs to examine the company’s production methods and investment programme. He must ascertain the scope for cost and price reductions through increased productivity and efficiency, and the need for capital expenditure. He needs to predict the consequences of different levels of X on what the company will do, how it will do it, how consumers will be affected, and how consumers and others will react… It should now be evident that rate of return considerations are necessarily implicit in setting and resetting X” (59-60). Bei der Neufestsetzung von X ist speziell darauf zu achten, dass die Kosten nicht zu sehr von den Preisen abweichen, d.h. die allokativen Ineffizienzen nicht zu groß werden. Sowohl die einfache Admi- 77 Vgl. hiezu Kapitel 3.3.2. Öffentliche Unternehmen 205 nistrierbarkeit als auch die Entkoppelung der RPI-X Regulierung von den Kosten wird somit relativiert.78 Die von Beesley/Littlechild (1989) angeführten Hauptargumente gegen RPI-X werden somit schlagend. „The main counterargument against the incentive and efficiency claim may be summarized as follows. The level of X must in practice be set, and repeatedly adjusted to secure a reasonable rate of return. If not, allocative inefficienencies will arise (from prices being out of line with costs), and there will be political pressures from company or consumers. If the criteria for revising X are left unclear, this will increase the cost of capital and/or discourage investment. Clear guidelines must therefore be laid down, or must emerge from precedent, for resetting X. These guidelines will have to embody an explicit feedback from cost reduction to (eventual) price reduction. This will negate the superior incentive effects claimed for RPI-X…In this view, RPI-X is merely a special form of rate-ofreturn control, embodying no significant net advantage over the U.S. approach on grounds of economic efficiency” (456). Wirl (1991) hinterfrägt, inwieweit man von der Annahme exogener Preisgrenzen ausgehen kann und insbesondere wie sich Regulierungsbehörde und Politik an solche Versprechen immer gebunden fühlen, egal was komme. Weisman (2002) greift diesen Aspekt wieder auf, in dem er sich auf den Fall Hope, ein Gasversorgungsunternehmen, als Präzedenzfall für weitere Regulierung bezieht. Professor Littlechild sieht nach persönlicher Kommunikation auch heute noch in seiner Preisobergrenzenregulierung primär einen Anreiz, um auf Unternehmensebene Suchprozesse zur Kostenreduktion und zur Vermeidung von Verschwendung auszulösen und keinerlei Versprechen A-Effizienz zu erreichen. Dies steht jedoch im Widerspruch zu seinen Vorschlägen im Zusammenhang mit der Regulierung der britischen Wasserindustrie, wo er meinte, dass „(a) permanent RPI-X system must nevertheless provide for periodic revisions of X, to prevent prices and costs getting too far out of line“ (Littlechild, 1988: 60). Zieht man jedoch den Kapitalmarkt als erweiterte Ergänzung zu RPI-X heran, so könnte man in der Tat argumentieren, dass selbst bei stark falschem Setzen des X-Faktors (d.h. zu niedriges X, sodass die Gewinne des regulierten Unternehmens zu Lasten des Konsumentengewinnes steigen) für die Konsumenten durch gleichzeitigen Erwerb von Aktien des regulierten Unternehmens die Möglichkeit besteht, sich gegen diesen Fall zu versichern. 10.4.2 Bestimmung des X-Faktors nach Bernstein/Sappington (1999) Die theoretische ökonomische Grundlage für den Vorschlag der ECG basiert auf einem Artikel von Bernstein/Sappington (1999), der sich als erster und bis dato als einziger mit einer „ökonomisch wissenschaftlichen“ Festlegung des X Faktors beschäftigt. Die Autoren selbst beschreiben aber nur die amerikanische Praxis der Federal Communications Commission (FCC) bei der Festlegung der X Faktoren im Zusammenhang mit der Regulierung der Tele- 78 Interessant erscheint in diesem Zusammenhang, dass sich bei der konkreten Ausgestaltung der Regulierung der Wasserwirtschaft, die sich sehr an die Vorschläge von Littlechild (1988) gehalten hat, eine Unterteilung des X Faktors in einen unternehmensindividuellen und einen generellen findet. „As a result of the efficiency review undertakers were placed in four efficiency bands and the banding determined the assumed reduction in operating costs. In addition it was assumed that a benchmark saving of 1 per cent per annum was achievable by all undertakers ‘to cover the spur to efficiency associated with privatisation and technological change in the future’” (Cowan, 1999: 124, in Matthew Bishop/John Kay/ Colin Mayer, Privatization and economic performance”) Die die Werte festlegende Monopoly and Merger Commission gab den Prozess zur Ermittlung des generellen X Faktors nicht bekannt. Öffentliche Unternehmen 206 fontarife, das heißt eine tatsächlich bei der Regulierung von Netzwerkindustrien angewandte Methode.7980 Eine pointierte Beschreibung der allgemeinen Auswirkung von Wettbewerb auf Unternehmen und den sich daraus ergebenden Zusammenhang mit der Festlegung des X Faktors findet sich bei Bernstein/Sappington (2000): „Competitive forces compels firms to realize productivity gains and to pass these gains on to their customers in form of lower prices, after accounting for unavoidable increases in input prices. Therefore, if all industries in an economy were competitive, output prices in the economy would grow at rate equal to the difference between the growth rate of input prices rise and the rate of productivity growth.” (Bernstein/Sappington, 2000: 64) Bernstein/Sappington (1999) meinen jedoch relativierend, dass ihre Ausführungen nur als „useful guidelines for setting the X factors“(7) dienen. Und in der Folge schränken sie ein, dass bei der Setzung von X auch andere Aspekte berücksichtigt werden müssen und „(t)he ideal X factor is typically difficult to estimate precisely“(7). In diesem Zusammenhang verweisen die Autoren auf Beesley/Littlechild (1989) und betonen diese Einschränkung am Ende des Artikels erneut! „Before concluding, we repeat our earlier caveat that our analysis provides a framework for determining the most appropriate X factor, rather than a formula that specifies exactly the ideal X factor in every conceivable setting.” (Bernstein/Sappington, 1999: 23) Ausgangspunkt ist ein reguliertes Unternehmen, das auf einen Gewinn von Null Gewinn (П) = Umsatz (R) – Kosten (C) = 0 (4) beschränkt werden soll, wobei der Rest der Ökonomie (indiziert mit E für elsewhere) kompetitiv sei und daher ebenfalls keine (Super- bzw. ökonomischen) Gewinne machen kann: ПE = RE – CE = 0. (5) Für die Beziehung (4) gilt nun folgende notwendige, aber nicht hinreichenden Bedingung, für aggregierte Outputs und Inputs. Das Wachstum der Outpreise in % ( P̂ ) ist gleich dem Inputkostenwachstum in % ( Ŵ ) weniger der Produktivitätssteigerung in % ( T̂ ) oder kurz 79 Vgl. Lowry/Kaufmann, 1994, Price Cap Designer’s Handbook Eine Diskussion zur Anwendung der Methode der Federal Communications Commission auf die Regulierung der Verteilnetzbetreiber in New South Wales (Australien) findet sich in IPART (1999), wo explizit auf Crew/Kleindorfer (1996) Bezug genommen wird. „TFP can make a potentially significant contribution to the regulatory process (and one that may increase over time) by providing important information on operational efficiency, but it is not a ‘magic bullet’. Nor is it the only source of such information” (IPART, 1999: 17). 80 Öffentliche Unternehmen 207 Pˆ Wˆ Tˆ (6) Zur Bestimmung der für das Unternehmen wichtigen Kostenerhöhungen kann ein üblicher Laspeyre-Index verwendet werden: m Wˆ p x it i 0 i 1 m p 1 , (7) i 0 xi 0 i 1 wobei pit die Preise für die i = 1, ... , m Inputs xit zum Zeitpunkt t, t = 0 ist die Basisperiode, bestimmt. Beachte, dass ein solcher Laspeyreindex den Kostendruck überschätzt81, weil implizit durch die fixen Gewichte jede Substitution innerhalb der Inputs unberücksichtigt bleibt. Diese Darstellung, Preiswachstum auf der Basis der gesamten Faktorproduktivität (TFP = total factor productivity) entspricht auch dem Vorschlag von Crew/Kleindorfer/Sudit (1979), der als Vorläufer der PCR anzusehen ist. Beachte, dass die Beziehung (6) für das Unternehmen daher der sinnvollste Ausgangspunkt für eine flexible, beide Seiten zufriedenstellende Vertragspreisbestimmung in einem langfristigen Liefervertrag ist, denn was anderes im rechtlichen Sinne sollte eine Regulierung nicht sein (aber wahrscheinlich bedingt durch den politischen Einfluss und die staatlich koerziven Maßnahmen doch ist). In der Tat sind solche Verträge mit Preisgleitklauseln üblich und auch stabil, etwa im Erdgasgeschäft mit noch dazu weitaus längerer Laufzeit als für eine Regulierung je in Erwägung genommen wurde. Auf diesen Punkt, dass eigentlich (6) die Grundlage eines Regulierungsvertrages bilden sollte, kommen wir nochmals zurück. Eine analoge Beziehung gilt für den Rest der Ökonomie, zumindest wenn dieser kompetitiv ist (was für Österreich cum grane salis zutrifft): Pˆ E Wˆ E Tˆ E . (8) Dabei steht auf der linken Seite mit P̂ E ein ökonomieweiter Deflator (vielleicht auch nur durch den Konsumentenpreisindex approximiert), wenn der Einfluss der regulierten Branche auf die Gesamtwirtschaft vernachlässigbar ist, und auf der rechten Seite (a) die Änderungsrate der Gesamtinputkosten, Ŵ E , und (b) die Verbesserung der gesamtwirtschaftlichen Faktorproduktivität – kurz die Rate des (technischen) Fortschritts – definiert als (gewichtetes) %Wachstum der Outputs weniger dem (gewichteten) %-Wachstum aller Inputs, T̂ E . Diese Beziehung (8) hat folgende wichtige Implikation, die aus der RPI – X Formulierung von Littlechild nicht unmittelbar sichtbar und auch nicht erwähnt wird. Verwendet man wie von Littlechild ursprünglich vorgeschlagen einen Gesamtdeflator (z.B. den GDP-Deflator 81 Die Überschätzung der Inflation durch den Konsumentepreisindex spielt eine große Rolle in der politoökonomischen Diskussion, weil zahlreiche Transferzahlungen (z.B. Pensionen) daran gekoppelt sind. Hausman (2002) ist eine jüngste Analyse zu den Gründen dieser Verzerrung (u.a. neue Produkte, Qualitätsverbeserungen). Öffentliche Unternehmen 208 oder auch den Konsumentenpreisindex), dann wird implizit der regulierten Branche bereits eine Produktivitätssteigerung im Ausmaß der gesamten Wirtschaft unterstellt und jedes X > 0 verlangt darüber hinaus noch weitere Effizienzsteigerungen. Zieht man die beiden Beziehungen für das Preiswachstum voneinander ab und arrangiert in der Form, dass auf der linken Seite das Wachstum der zu regulierenden Preise und auf der rechten Seite die Inflationsrate P̂ E stehen, dann erhält man: ˆ E Wˆ . Pˆ Pˆ E Tˆ Tˆ E W (9) X Das heißt der X-Faktor setzt sich aus zwei Differenzen zusammen, inwieweit das Wachstum der Faktorproduktivität im regulierten Bereich höher Tˆ Tˆ E und das Wachstum der Inputpreise niedriger als in der Gesamtwirtschaft, Wˆ E Wˆ , ist. Beachte, dass diese Darstellung des Wachstums der Preisobergrenzen weder eine Vereinfachung darstellt noch geringere Information verlangt. Ganz im Gegenteil: Es sind neben T̂ und Ŵ äquivalente Werten für die Gesamtwirtschaft zu berechnen. Die Gefahr, dass durch Schätzfehler das Endergebnis verzerrt wird, steigt natürlich an, speziell wenn die ermittelten Zahlen sehr gering sind und ein an sich kleiner Schätzfehler von 0,5% erhebliche Auswirkungen haben kann! 10.4.3 Beispiele internationaler Anwendungen 10.4.3.1 England In England sind zwei Stufen bei der Festsetzung der X Faktoren zu unterscheiden: (i) die erstmalige und (ii) die darauffolgende Festsetzung. Ziel der ersten Regulierungsperiode von 1990/1 bis 1994/5 war, die 12 Regional Electricity Companies (RECs) im Hinblick auf die Privatisierung im Dezember 1990 als gewinnversprechendes Kaufobjekt zu positionieren. Bei der Erstfestsetzung handelte es sich um einen exogenen Fixpreisvertrag mit – im nachhinein betrachtet – sehr großzügig gewählten X Faktoren für die Netzentgelte zwischen 0 und -2,5%, d.h. die Unternehmen durften die Tarife im Durchschnitt um 2% über die Inflationsrate anheben! Tatsächlich entpuppten sich die RECs als höchstprofitable Investments und während der ersten Regulierungsperiode lag der durchschnittliche interne Zinsfuß bei 33%, mehr als doppelt so hoch wie die geschätzten Kapitalkosten für die RECs von 6-9% (Parker, 1997). Bei der Neufestsetzung stand man vor dem Problem, ob die Performance der RECs der ersten Regulierungsperiode berücksichtigt werden, mit dem negativen Effekt, dass dadurch die Anreize zu Kosteneinsparungen gemildert werden, oder ob das X weiterhin auf unternehmensexogen Faktoren beruhen soll. Im August 1994 verfügte der damalige Direktor von OFFER, Littlechild, eine einmalige Reduktion der Preise zwischen 11 und 17% für das Jahr 1995/6 und die nachfolgenden Jahre ein (RPI – 2). Diese als zu gering empfundenen Reduktionen lösten in der Öffentlichkeit eine heftige Diskussion über die „zu hohen“ Gewinne der RECs und deren Verteilung an die Konsumenten aus. Verstärkt wurde die Diskussion noch durch den Umstand, das auch der Kapitalmarkt die neue Regulierung als sehr generös für die RECs Öffentliche Unternehmen 209 betrachtete, da deren Aktienkurse in der Folge anstiegen. Darüber hinaus bot Northern Electric im Zuge einer Übernahmeabwehr seinen Aktionären große Bonuszahlungen an. Der öffentliche Druck und die durch den Kapitalmarkt bereitgestellt Information über die Profitabilität der RECs führte zu einer von niemanden wirklich erwarteten – speziell weil der Regulator Littlechild hieß! – Wiederaufnahme des Regulierungsverfahrens im März 1995: „(The) regulator considered that his determination of the cap a few months earlier had been ill-judged.“ (Parker, 1997: 303) OFFER verschärfte die ein Jahr vorher festgelegte Regulierung und verfügte 1996/7 eine weitere einmalige Reduktion der Preise um 10-13% und ein RPI-3 für 1997-2000. Also selbst der Erfinder von RPI-X, Littlechild als Direktor von OFFER, brach zumindest einmal sein für die zweite Regulierungsperiode ex-ante abgegebenes Versprechen. Trotzdem verstummte in der öffentlichen Diskussion nicht die Kritik an den Gewinnen der RECs bzw. aller privatisierten Unternehmen. Trotz realer Preisrückgänge für Telefon, Gas und Strom seit der Privatisierung hat Tony Blair (als neuer und moderate Führer der LabourParty) zuerst eine Steuer für Versorgungsunternehmen angekündigt, um diese „hohen“ Gewinne für die Gesellschaft wiedereinzuholen (The Economist, August 13th, 1994, S68), und dies dann auch tatsächlich 1997 durchgeführt. 24 Unternehmen hatten eine windfall tax in Höhe von £ 5,2 Mrd. zu bezahlen, £ 1,25 Mrd. die RECs. Die Netztarifkontrolle im Jahre 2000 brachte eine weitere Reduktion der Netztarife. Die Preise wurden im Jahre 2000/1 einmalig um durchschnittlich 26% gesenkt. Davon entfielen 2% auf die Kapitalkosten, 9% auf die Reallokation von Kosten vom Netz zum Vertrieb, 11% auf realisierte Reduktionen der variablen Kosten, OPEX (kurz für operating expenditures), und 4% auf zukünftige Reduktionen der OPEX zur Erreichung einer Effizienzgrenze. Die Effizienzgrenze ergibt sich aus einem Benchmarking der OPEX der 12 RECs. Die Unternehmen auf dieser Grenze werden zweifach belohnt. Einerseits wird die Effizienzgrenze auf dem Niveau von 1997/98 belassen, d.h. kein frontier shift verlangt, und somit verbleiben die Gewinne aus einer Verschiebung in der folgenden Regulierungsperiode zur Gänze bei den Unternehmen. Andererseits wird auf die zulässigen beeinflussbaren OPEX für die nächste Periode ein Aufschlag von 1% gewährt. Es darf jedoch nicht der Eindruck bestehen, dass die effizientesten Unternehmen auf dem Status Quo verbleiben können, müssen sie doch zumindest wegen der oben genannten Eigenschaft von RPI-X die Produktivitätssteigerungen der Gesamtwirtschaft erreichen. Für die Periode von 2001/2-2004/5 wurde ein RPI-3 festgelegt. In England hat sich RPI-X im Laufe der drei Regulierungsperioden doch erheblich verändert. Von einem exogenen Fixpreisvertrag kann nur mehr bedingt die Rede sein, da bei der Neufestsetzung sehr wohl das vergangene Verhalten der Unternehmen bei der Bestimmung des X berücksichtigt wird. Weiters stellt die Regulierungsbehörde basierend auf den Daten der Vergangenheit Schätzungen der zukünftigen Kapital- und operativen Kosten an und leitet daraus die zulässigen jährlichen Umsätze in der folgenden Regulierungsperiode ab. Das Verfahren selbst erweckt aber nicht den Eindruck der „Wissenschaftlichkeit“, sondern stellt vielmehr eine mit Zahlen unterlegte pragmatische „Daumenregel“ dar (vgl. OFGEM, 1999). Öffentliche Unternehmen 210 Das Beispiel England weist auf die Probleme im Zusammenhang mit der Bindung des Regulators bzw. des politischen Marktes hin. Natürlich waren die Gewinne der RECs nach der Privatisierung massiv und die öffentliche Forderung nach einer Aufteilung verständlich, jedoch stellt sich die Frage, ob die Unternehmen, wenn sie gewusst hätten, dass ihnen die „hohen“ Gewinne ex post weggenommen werden, ähnliche Gewinne und Produktivitätssteigerungen überhaupt produziert hätten? Andererseits kann man natürlich auch fragen, inwieweit der öffentliche Druck vermieden hätte werden können, wenn nicht generell als zu „lax“ empfundene X Faktoren zu Beginn der Regulierung gesetzt worden wären? 10.4.3.2 Niederlande Eine PCR mit einem X-Faktor bestehend aus einem allgemeinen und unternehmensspezifischen Teil findet sich bei der niederländischen Regulierung der Netzbetreiber. Dort heißt es: “The final estimates of X will be partially made up of a combination of the estimate of likely productivity growth rate for the most efficient firm (the ‘frontier shift’ effect) and the rate at which the relative inefficiency for the given firm(the ‘catch up’ effect) can be eliminated.”(DTe, 1999: 35) Der Aufholbedarfs (‚catch up’ effect) der einzelnen Unternehmen wurde mittels eines Benchmarking ermittelt, wobei sich der Regulator, DTe, für eine DEA entschieden hat. Bei der DEA besteht der formale Ansatz darin, die beobachteten Input- und Outputdaten der Unternehmen durch eine Produktionsmöglichkeitsgrenze (Effizienzgrenze), welche von den „relativ“ effizientesten Unternehmen gebildet wird, zu umschließen. Unternehmen, welche nicht auf der Grenze liegen, gelten als relativ ineffizient. Bei dieser Methode wird keine optimale Produktionstechnologie für die Unternehmen auf der Effizienzgrenze geschätzt, sodass über die Effizienz der Unternehmen auf der Effizienzgrenze nichts ausgesagt wird. Im Zuge der DEA wurde die Frage aufgeworfen, ob ein Model mit variablen oder konstanten Skalenerträgen angenommen werden sollte, wobei sich DTe dem Ratschlag von Frontier Economics (2000) folgend für konstante Skalenerträge entschlossen hat82. Auf Grundlage der Ergebnisse des Benchmarking und der Schätzung der zukünftigen optimalen Kapitalkosten wird mittels eines nicht näher zu beschreibenden Finanzmodell der Umfang des Aufholbedarfs in einen unternehmensspezifischen Teil für den X Faktor umgelegt. Im Finanzmodel wird auch der frontier shift Effekt berücksichtigt (DTe, 1999). Der frontier shift, den auch die relativ effizienten Unternehmen vornehmen müssen, wird hauptsächlich mit dem Hinweis, dass die Unternehmen in einem internationalen Vergleich nicht relativ effizient sind, begründet. Während jedoch für die Berechnung des catch up Effekt eine genaue Methode, abhängig von der relativen Ineffizienz der Unternehmen, angegeben wird, findet sich nichts ähnliches für den frontier shift Effekt. Die Heranziehung der historischen TFP wird implizit abgelehnt, wenn DTe bei der allgemeinen Diskussion, ob der X Faktor auf exogenen oder unternehmensindividuellen Daten basieren soll, meint: 82 7) „(S)cale is a factor that the companies can control through changes in ownership.”(Frontier Economics, 2000: Öffentliche Unternehmen 211 „The simplest form of CPI-X would set the X equal to the actual or lagged value of the chosen TFP index’s rate of growth…The disadvantage of this measure is that it does not take into account any company specific information on initial cost inefficiency and hence the scope for cost reduction…The DTe is of the view that setting X equal to a measure of TFP growth is not desirable for the first regulatory review period.”(DTe, 1999: 30) Die vorhanden Daten über die TFP am Anfang der Regulierungsperiode reichen für eine Verbindung mit dem allgemeinen X somit für DTe nicht aus. Dies gilt jedoch nicht für alle Zukunft, da die während der ersten Regulierungsperiode ermittelten Unternehmensdaten bei der Festlegung in der zweite sehr wohl herangezogen werden (DTe, 2000: 14). Der Wert des ersten frontier shift Effekt in der Höhe von 2% durch DTe war vielmehr Ergebnis einer „Daumenregel“, was aus dem Abschlussbericht von Frontier Economics (2000) gut ersichtlich wird:83 „From the limited information available, DTe has decided to presume that a reasonable level for frontier shift is 2% per year. This is smaller than the figure suggested by the analysis of U.S. companies and is consistent with the view that half of the productivity growth in the UK are due to frontier shift.” (Frontier Economics, 2000: 30) Darüber hinaus finden sich ähnliche Argumente wie bei Beesley/Littlechild (1989). Der geänderte Regulierungsrahmen sollte selbst dem relativ effizienten Unternehmen eine Erhöhung der Produktivität ermöglichen. Sind sie erfolgreich, wird der Unternehmenswert steigen und der Konsument als Steuerzahler beim Verkauf von öffentlichen Anteilen an den Unternehmen profitieren: „The exact rate of the frontier shift in the Netherlands is probably, therefore, not too important, providing that the target level is not set too high.”(DTe, 2000: 14) Wesentlich ist jedoch, dass bei einer Übererfüllung des allgemeinen X Faktors nicht ex post der „exzessive“ Gewinn abgeschöpft wird (DTe, 2000: 14). Das niederländische Regulierungsmodell ist als zwei Stufenmodell geplant. Die erste Stufe von 2000-2003 dient dazu alle Unternehmen auf ein einheitliches neues Effizienzniveau zu bringen und bedient sich hierbei des oben beschriebenen zweigliedrigen X Faktors (catch up und frontier shift). In der zweiten Stufe ist jedoch geplant die regulierten Preise von den individuellen Kosten der einzelnen Unternehmen zu entkoppeln. Dies soll durch eine Yardstick Regulation84 erfolgen, bei der aus den vorhanden Daten durchschnittliche Kosten für Netzanschluss, kWh, KW usw. bestimmt und daraus angemessene Preise für das Durchschnittsunternehmen ermittelt werden. Auf individuelle Effizienzverbesserungsziele wird verzichtet und auf einheitliche branchenbezogene übergegangen. Es ist zu erwarten, dass auf der Grundlage der Daten der ersten Regulierungsperiode zur Bestimmung der branchenbezogenen X Faktoren Malmquist-Produktivitätsindizes herangezogen werden. 83 84 vgl. DTe (2000: 14) Zur Darstellung der Yardstick Regulation siehe Shleifer, 1985. Öffentliche Unternehmen 212 Zusammenfassend gilt, dass in den Niederlanden die Zweiteilung des X Faktors nur eine Vorstufe, zum Zwecke der Angleichung aller Unternehmen auf ein Effizienzniveau, für eine Yardstick Regulierung mit einheitlichem X darstellt. Des weitern gilt, dass die erstmalige Festlegung des generellen X Faktors in der Höhe von 2% eher im Sinne von Littlechild erfolgt ist: Es ist nicht notwendig, das „richtige“ X zu finden! 10.4.3.3 Norwegen In Norwegen wurde nach der ersten Phase mit einer kostenorientierten Regulierung (19921996) zum Teil auch auf Wunsch der Unternehmen selbst – wenn sie schon reguliert werden, wollten sie auch die Möglichkeit haben, durch Produktivitätssteigerungen höhere Gewinne zu realisieren – auf eine anreizorientierte Regulierung umgestellt. Im Unterschied zu England und den Niederlande entschied sich Norwegen jedoch nicht für eine Preisobergrenzen-, sondern Erlösobergrenzenregulierung. Als Ziel für die neue Regulierung (1997-2001) wurde die Steigerung der Kosteneffizienz genannt. 1997 wurde ein DEA Benchmarking der Unternehmen durchgeführt. Im Unterschied zu den Niederlande wurden die Ergebnisse jedoch nicht eins-zu-eins für die Berechnung der Produktivitätsabschläge verwendet, sondern dienten der Einteilung der Unternehmen in Effizienzgruppen, aus denen individuelle jährliche Abschläge von 0-3% abgeleitet wurden. Darüber hinaus wurde ein allgemeiner jährlicher Abschlag von 1,5% festgelegt. Die Erlösobergrenzen werden jährlich aufgrund der Inflationsentwicklung (Konsumentenpreisentwicklung) sowie aufgrund der Nachfrageentwicklung angepasst. In der laufenden Regulierungsperiode (20022006) wurde der allgemeine Abschlag erneut auf 1,5% und die individuellen – wieder basierend auf einem DEA Benchmarking – zwischen 0-5,2% festgelegt. Als Vorstufe zum Übergang auf die neue anreizbasierte Regulierung hat der norwegische Regulator eine Studie über die Produktivitätsentwicklung der Verteilungsunternehmen für die Zeitperiode 1983-1989 in Auftrag gegeben. „When selecting a regulatory regime, and in particular for productivity improvement targets, for Norwegian electric distribution utilities it is of great interest to have information on the past productivity record.” (Forsund/Kittelsen, 1998: 208) Førsund/Kittelsen (1998) stellen für diese Zeitperiode eine jährliche Steigerung der TFP von durchschnittlich 1,9% fest, wobei der frontier shift mit 1,7% den catching up Effekt mit 0,1% überwiegt. Im Zusammenhang mit dem generellen Abschlag ist jedoch nur der frontier shift bedeutsam. Der Wert von 1,5% kommt den 1,7% somit sehr nahe, wodurch angenommen werden kann, dass der Regulator bei dessen Bestimmung sehr wohl auf die Produktivitätsstudien Bezug genommen hat. In diesem Zusammenhang muss aber erwähnt werden, dass die verlangte generelle Produktivitätssteigerung von 1,5% noch um die in der Inflationsrate versteckte gesamtwirtschaftliche Produktivitätssteigerung erhöht werden muss. Ist Wˆ E Wˆ 0 aber Tˆ E 0 so müssen die Unternehmen einen höheren frontier shift als in der Periode 1983-1989 erreichen. Ein Umstand der jedoch akzeptiert wurde. Das norwegische Beispiel zeigt, dass es sehr wohl im Interesse der regulierten Unternehmen selbst sein kann, auf ein für Regulator, Konsumenten und Unternehmen akzeptables neues Öffentliche Unternehmen 213 Regulierungsregime rasch überzutreten, damit die Unternehmen ausgestattet mit einem klaren Planungshorizont sich auf die Führung des Unternehmens und nicht auf die Auseinandersetzungen mit dem Regulator konzentrieren können. 10.5 Vergleichende Konkurrenz Ein zentrales Problem vieler Anreizregulierungen ist, dass sie vom eigenen historischen Verhalten abhängen. Dies wiederum provoziert strategisches Verhalten und dadurch Ineffizienz, siehe folgendes Unterkapitel. Eine Möglichkeit, dieses Verhalten zu unterbinden, ist, dass die Prämie abhängt vom Verhalten anderer und vergleichbarer Unternehmen anstatt vom eigenen. Zum Beispiel wird dem Unternehmen ein Preis vorgeschrieben, der die Durchschnittskosten vergleichbarer Konkurrenten (z. B. anderer Landesgesellschaften und Stadtwerke) beschreibt. Dies führt (in einem nichtkooperativen Spiel mit Nash-Gleichgewicht, siehe Anhang F) zu Kostenminimierung und Effizienz. Der Grund ist, dass es einem Unternehmen nichts nützt, sich strategisch zu verhalten. Aus diesem Grund kann man den Zutritt von zusätzlichen Firmen selbst bei natürlichen Monopolen verteidigen, um Information über Kosten zu gewinnen und Anreize zur Kostenminimierung zu geben. Dieses Effizienzergebnis gilt jedoch nur, wenn die regionalen Märkte hinreichend ähnlich sind. Zu unterschiedliche Marktbedingungen (zusätzlich zu imperfekter Information) - was realistisch erscheint - führen dann zu Schlupf, auch bei einem optimalen (principal-agent) Kontrakt. Weiter kann kollusives Verhalten des Managements die Effizienz dieser Regulierung unterlaufen, insbesondere bei Beibehaltung der Marktstrukturen und des Managements, das in der Elektrizitätswirtschaft nicht gerade in Konkurrenz trainiert ist. Eine naheliegende, praktikable Anwendung zumindest einer gemilderten Form dieser Regulierungsform bietet sich für Stadtwerke an, weil hier im großen und ganzen ähnliche oder vergleichbare Bedingungen gegeben sind und daher zumindest Abschätzung über die Effizienz der jeweiligen Gesellschaft möglich ist: So müßten Gesellschaften mit höheren Abnahmedichten billiger sein, ceteris paribus, weil dieser Markt durch wachsende Skalenerträge charakterisiert wird. Auch in den jüngsten Erfahrungen mit den regionalen britischen Stromvertriebsgesellschaften moniert der Economist, August 13th, 1994, das Fehlen selbst verbalen Anprangerns ineffizienter Gesellschaften. Die folgende Darstellung verwendet das in Shleifer (1985) entwickelte principal-agent Modell. Angenommen, n Firmen, etwa regionale Gesellschaften, sind mit dem Angebot einer Dienstleistung betraut. Die Regulierungsbehörde kann die Stückkosten (ci) zwar beobachten, aber weiß nicht, ob diese Kosten durch Aufwand und Fleiß des Managements (ai) zustande kommen oder durch glückliche Umstände, Õi. Ci = i-ai, i = 1,...,n. (1) Für ein individuelles, unreguliertes Unternehmen ergibt sich folgendes Ziel: U = [p - c]q - (a), (2) Öffentliche Unternehmen 214 zu maximieren, d. h., die Unternehmensführung liebt Profit, aber haßt Anstrengungen. Dabei sind alle Firmen als sehr ähnlich vorausgesetzt, so dass die Indizierung nach Unternehmen, i = 1,...,n unterbleiben kann. Das soziale Wohlfahrtskalkül lautet: W = S(q) - ( - a)q - (a). (3) Maximierung von W (respektive q und a) liefert folgende erstbeste Bedingungen: p = -a, (4) '(a) = q. (5) Diese Lösung kann jetzt auch dezentral und ohne Kenntnis von installiert werden. Die Grundidee ist, dass die Preisvorschriften vom Verhalten der anderen Unternehmen abhängig gemacht werden, etwa für Firma i: _ ┌ ┐ pi = ci := cj /(n-1). j≠i (6) Individuelles Optimieren der Firmenzielfunktion Ui durch die Wahl des Aufwandes ai bei vorgegebenem Preis pi nach (6) liefert folgende notwendige Bedingung: q(ci) = '(ai). (7) In einem Nash-Gleichgewicht muss die Bedingung (7) für alle Firmen i, i = 1,...,n, gleichzeitig erfüllt sein. In einem symmetrischen Nash-Gleichgewicht muss daher die erstbeste Lösung ' = q gelten. Eine Implikation des Ansatzes von Shleifer ist das Benchmarking vergleichbarer oder ähnlicher Einheiten wie Elektrizitätsversorgungsunternehmen, Spitäler, Schulen, Gefägnisse, etc. Der wichtigste empirische und praktische Ansatz dazu ist die Data-Envelopment Analyse, die im folgenden Kapitel kurz beschrieben wird. 10.6 Data Envelopment Analysis (DEA)85 This section is an introduction to Data Envelopment Analysis (DEA) for people unfamiliar with the technique. For a more in-depth discussion of DEA, the interested reader is referred to Seiford and Thrall [1990] or the seminal work by Charnes, Cooper, and Rhodes [1978]. DEA is commonly used to evaluate the efficiency of a number of producers. A typical statistical approach is characterized as a central tendency approach and it evaluates producers relative to an average producer. In contrast, DEA is an extreme point method and compares each 85 http://www.etm.pdx.edu/dea/homedea.html#Intro_to_DEA Öffentliche Unternehmen 215 producer with only the "best" producers. By the way, in the DEA literature, a producer is usually referred to as a decision making unit or DMU. Extreme point methods are not always the right tool for a problem but are appropriate in certain cases. A fundamental assumption behind an extreme point method is that if a given producer, A, is capable of producing Y(A) units of output with X(A) inputs, then other producers should also be able to do the same if they were to operate efficiently. Similarly, if producer B is capable of producing Y(B) units of output with X(B) inputs, then other producers should also be capable of the same production schedule. Producers A, B, and others can then be combined to form a composite producer with composite inputs and composite outputs. Since this composite producer does not necessarily exist, it is sometimes called a virtual producer. The heart of the analysis lies in finding the "best" virtual producer for each real producer. If the virtual producer is better than the original producer by either making more output with the same input or making the same output with less input then the original producer is inefficient. Some of the subtleties of DEA are introduced in the various ways that producers A and B can be scaled up or down and combined. The procedure of finding the best virtual producer can be formulated as a linear program. Analyzing the efficiency of n producers is then a set of n linear programming problems. The following formulation is one of the standard forms for DEA. lambda is a vector describing the percentages of other producers used to construct the virtual producer. lambda X and lambda Y and are the input and output vectors for the analyzed producer. Therefore X and Y describe the virtual inputs and outputs respectively. The value of theta is the producer's efficiency. DEA Input-Oriented Primal Formulation It should be emphasized that an LP of this form must be solved for each of the DMUs. There are other ways to formulate this problem such as the ratio approach or the dual problem but I find this formulation to be the most straightforward. The first constraint forces the virtual DMU to produce at least many outputs as the studied DMU. The second constraint finds out how much less input the virtual DMU would need. Hence, it is called input-oriented. The factor used to scale back the inputs is theta and this value is the efficiency of the DMU. Öffentliche Unternehmen 216 Simple Numerical Example A simple numerical example might help show what is going on. Assume that there are three players (DMUs), A, B, and C, with the following batting statistics. Player A is a good contact hitter, player C is a long ball hitter and player B is somewhere in between. Player A: 100 at-bats, 40 singles, 0 home runs Player B: 100 at-bats, 20 singles, 5 home runs Player C: 100 at-bats, 10 singles, 20 home runs Now, as a DEA analyst, we play the role of Dr. Frankenstein by combining parts of different players. First let us analyze player A. Clearly no combination of players B and C can produce 40 singles with the constraint of only 100 at-bats. Therefore player A is efficient at hitting singles and receives an efficiency of 1.0. Now we move on to analyze player B. Suppose we try a 50-50 mixture of players A and C. This means that lambda=[0.5, 0.5]. The virtual output vector is now, lambda Y = [0.5 * 40 + 0.5 * 10, 0.5 * 0 + 0.5 * 20] = [25, 10] Note that X = 100 = X(0) where X(0) is the input(s) for the DMU being analyzed. Since lambdaY > Y(0) = [20, 5], then there is room to scale down the inputs, X and produce a virtual output vector at least equal to or greater than the original output. This scaling down factor would allow us to put an upper bound on the efficiency of that player's efficiency. The 50-50 ratio of A and C may not necessarily be the optimal virtual producer. The efficiency, theta, can then be found by solving the corresponding linear program . It can be seen by inspection that player C is efficient because no combination of players A and B can produce his total of 20 home runs in only 100 at bats. Player C is fulfilling the role of hitting home runs more efficiently than any other player just as player A is hitting singles more efficiently than anyone else. Player C is probably taking a big swing while player A is slapping out singles. Player B would have been more productive if he had spent half his time swinging for the fences like player C and half his time slapping out singles like player A. Since player B was not that productive, he must not be as skilled as either player A or player C and his efficiency score would be below 1.0 to reflect this. This example can be made more complicated by looking at unequal values of inputs instead of the constant 100 at-bats, by making it a multiple input problem, or by adding more data points but the basic principles still hold. Graphical Example The single input two-output or two input-one output problems are easy to analyze graphically. The previous numerical example is now solved graphically. (An assumption of constant returns to scale is made and explained in detail later.) The analysis of the efficiency for player B looks like the following: Öffentliche Unternehmen 217 Graphical Example of DEA for Player B If it is assumed that convex combinations of players are allowed, then the line segment connecting players A and C shows the possibilities of virtual outputs that can be formed from these two players. Similar segments can be drawn between A and B along with B and C. Since the segment AC lies beyond the segments AB and BC, this means that a convex combination of A and C will create the most outputs for a given set of inputs. This line is called the called the efficiency frontier. The efficiency frontier defines the maximum combinations of outputs that can be produced for a given set of inputs. The segment connecting point C to the HR axis is drawn because of disposability of output. It is assumed that if player C can hit 20 home runs and 10 singles, he could also hit 20 home runs without any singles. We have no knowledge though of whether avoiding singles altogether would allow him to raise his home run total so we must assume that it remains constant. Since player B lies below the efficiency frontier, he is inefficient. His efficiency can be determined by comparing him to a virtual player formed from player A and player C. The virtual player, called V, is approximately 64% of player C and 36% of player A. (This can be determined by an application of the lever law. Pull out a ruler and measure the lengths of AV, CV, and AC. The percentage of player C is then AV/AC and the percentage of player A is CV/AC.) The efficiency of player B is then calculated by finding the fraction of inputs that player V would need to produce as many outputs as player B. This is easily calculated by looking at the line from the origin, O, to V. The efficiency of player B is OB/OV which is approximately 68%. This figure also shows that players A and C are efficient since they lie on the efficiency frontier. In other words, any virtual player formed for analyzing players A and C will lie on players A and C respectively. Therefore since the efficiency is calculated as the ratio of OA/OV or OC/OV, players A and C will have efficiency scores equal to 1.0. The graphical method is useful in this simple two dimensional example but gets much harder in higher dimensions. The normal method of evaluating the efficiency of player B is by using an LP formulation of DEA. Öffentliche Unternehmen 218 Returns to Scale Since this problem uses a constant input value of 100 for all of the players, it avoids the complications caused by allowing different returns to scale. Returns to scale refers to increasing or decreasing efficiency based on size. For example, a manufacturer can achieve certain economies of scale by producing a thousand circuit boards at a time rather than one at a time - it might be only 100 times as hard as producing one at a time. This is an example of increasing returns to scale (IRS.) On the other hand, the manufacturer might find it more than a trillion times as difficult to produce a trillion circuit boards at a time though because of storage problems and limits on the worldwide copper supply. This range of production illustrates decreasing returns to scale (DRS.) Combining the two extreme ranges would necessitate variable returns to scale (VRS.) Constant Returns to Scale (CRS) means that the producers are able to linearly scale the inputs and outputs without increasing or decreasing efficiency. This is a significant assumption. The assumption of CRS may be valid over limited ranges but its use must be justified. As an aside, CRS tends to lower the efficiency scores while VRS tends to raise efficiency scores. The CRS assumption can be made in the case of baseball batting since each at-bat is relatively independent and the cumulative batting statistics are then the sum of individual events. For example, it is expected that doubling the number of at-bats or plate appearances will double the number of home runs that a player hits which implies that the CRS assumption can be used. Therefore other situations such as VRS, IRS, and DRS are not covered here. This also explains why most of the examples concentrate on cases with equal inputs. In the one input model, the CRS assumption allows players to be scaled up or down and so the multiplication of player inputs to achieve some constant value is implied in some cases. 10.7 Strategisches Managementverhalten Der Optimismus verbunden mit verschiedenen Anreizregulierungen ist möglicherweise unbegründet. Denn die Präferenzen des Managements (für "Trägheit") und die Tatsache, dass nur ein Teil des Erfolges einbehalten werden darf, impliziert, dass die X-Ineffizienz regulierter Unternehmen nie gänzlich eliminiert werden kann. Präziser, mit Ausnahme der vergleichenden Konkurrenz, hängen viele Anreizmechanismen - z. B. Price-Caps, Vogelsang-Finsinger Anreiz - vom historischen, eigenen Verhalten ab. So zeigt bereits Sappington (1980), dass das V-F Schema strategisches Verhalten des Unternehmens provoziert, d. h., das Unternehmen produziert zu Beginn bewusst ineffizient; ratchet effect. Hollander-Haurie-L'Ecuyer (1987) zeigen noch drastischere Konsequenzen aus strategischem Managementverhalten auf, wenn die Anreizregulierung vom historischen Verhalten abhängt und das Management in Voraussicht das Schema unterläuft. Dann kann nicht nur die durchschnittliche Performance verschlechtert werden, sondern das führt zu einem sogenannten "Drehtür-Effekt": Das Management schwankt zwischen Effizienz und Ineffizienz, um abwechselnd für Verbesserungen belohnt werden zu können. Dies ist kurz im Anhang G ausgeführt. Die Lehre, die aus dieser Untersuchung zu ziehen ist, ist, dass bei jedem, oft an Hand eines statischen Modelles vorgeschlagenen Anreiz auch untersucht wird, wie das Öffentliche Unternehmen 219 Unternehmen langfristig die Daten des Anreizsystems zu seinen Gunsten manipulieren kann. Daher ist mit vielen bis dato vorgeschlagenen Anreizen vorsichtig umzugehen und ihre statisch gegebene Effizienz selten auf die dynamische Praxis übertragbar.86 86Diese Möglichkeit wird leider in aktuellen Politik (etwa in der Sozialpolitik, aber auch bei EVU-Sparprogrammen, vgl. Wirl, 1994), bewusst oder unbewusst unterlassen mit teilweise dramatischen finanziellen Konsequenzen. Öffentliche Unternehmen 220 11 Eine ökonomische Theorie der Deregulierung Drei unterschiedliche Regime gegenüber öffentlichen Unternehmen sind prinzipiell denkbar: - freier Markt, - öffentliches Eigentum, Bürokratie unter politischer Kontrolle, - privates Eigentum mit öffentlicher Regulierung. Die erste Variante wurde bis vor kurzem mit dem Argument Marktversagen kaum probiert. Jedoch auch die beiden anderen Arrangements konnten nicht ganz für Marktimperfektionen korrigieren. Die Firmen im öffentlichen Eigentum produzieren ineffizient, vergleiche Borcherding-Pommerehne-Schneider (1982), bedingt durch bürokratisches Verhalten, fehlende Eigentumsrechte87 und politischen Druck. Aber auch private, regulierte Unternehmen produzieren ineffizient aufgrund des bereits erwähnten Averch-Johnson Effektes. Aus diesem Dilemma ineffizienter Industriestrukturen scheint es kein Entkommen zu geben. Jedoch die in den 70er und achtziger Jahren entwickelte Theorie anfechtbarer Märkte (theory of contestable markets) in Baumol-Panzar-Willig (1982, 1989)88 beschreibt Märkte weit weg vom Ideal der perfekten Konkurrenz, z. B.: Industrien mit sehr wenig Firmen, in denen die sozial angenehmen Eigenschaften von Konkurrenzmärkten gelten. In anderen Worten, der Wirkungsbereich der unsichtbaren Hand von Adam Smith hat einen weit größeren Wirkungsbereich, als traditionell angenommen wurde. Wichtiger Vorläufer dieser Theorie sind Bertrand (1883) mit seiner Kritik an der Lösung des Oligopol-Modells durch Cournot und Demsetz (1968), "Why Regulate Utilities?". Ein anfechtbarer Markt ist durch folgende Voraussetzungen charakterisiert: - die Produktionstechnologie ist bekannt Fixkosten sind reversibel - keine sunk costs und allgemein zugängig, und alle - die am Markt befindlichen Firmen können die Preise nur langsam ändern, - die Konsumenten können relativ schnell auf Preise reagieren. - keine Annahmen über Skalenerträge! Diese Randbedingungen - die Autoren nennen es kurz und illustrativ hit and run - führen auch für Märkte mit wenigen Firmen zu sozial optimaler Allokation und ab zwei Firmen zu erstbesten Preisen (Grenzkostentarifen). Dieses Ergebnis ist unabhängig von Voraussetzungen über die Produktionstechnologie, außer der Abwesenheit von sunk costs. Im Gegensatz dazu 87Private Eigentümer müssen und setzen sich auch intensiver mit dem principal-agent Problem auseinander und geben dem Management entsprechende Anreize. Bei öffentlichen Unternehmen fehlt schon die Grundlage der Bemessung sozial optimalen Verhaltens. 88Kompaktere Darstellungen findet man etwa in Baumol (1982), Bailey-Friedlaender (1982), Spence (1983) und Waterson (1987). Öffentliche Unternehmen 221 verlangt die traditionelle Analyse von Konkurrenzmärkten, dass die Skalenerträge beschränkt und die Anzahl der Unternehmen groß ist. Dieser Ansatz der anfechtbaren Märkte erweitert die Konkurrenz auf Firmen, die momentan noch außerhalb des Marktes stehen, die aber bei günstigen Bedingungen in den Markt eintreten können, die Technologie duplizieren und dabei einen Gewinn realisieren können. Bei Änderung des Verhaltens der im Markt befindlichen Firmen wird die Operation wieder abgeschlossen, und der Eindringling zieht sich vom Markt zurück. Diese potentielle Drohung diszipliniert die im Markt operierenden Firmen. Somit sind günstige Bedingungen des Ein-, aber auch des Austritts kritisch für die Existenz eines anfechtbaren Marktes. Die Existenz von sunk costs ist ein gewichtiges Argument, dass ein anfechtbarer Markt nicht gegeben ist. 11.1 Eigenschaften von Kostenfunktionen (eindimensional) Definitionen: c(y) = Gesamtkosten, die bei der Produktion von y Outputeinheiten anfallen. c(y)/y = Durchschnittskosten (average cost, ac), also die Gesamtkosten pro Stück c’(y) = Grenzkosten (marginal cost, mc) Skalenertrag: S c( y ) 1 , c' ( y ) * y c wachsend, wenn S > 1, konstant wenn S = 1 und fallend, wenn S < 1. Eine Kostenfunktion ist subadditiv, wenn gilt: c(y + z) < c(y) + c(z) für alle Zerlegungen/Aufteilungen des Gesamtoutputs y + z. Das heißt, wenn eine gemeinsame Produktion in jedem Fall billiger kommt als getrennt. Eigenschaften (siehe dazu das folgende Beispiel): Das Vorliegen einer subadditiven Kostenfunktion ist das Kriterium für das Vorliegen eines natürlichen Monopols. Es bedeutet, dass technisch die Kosten so sind, dass sie ihr Minimum haben, wenn nur ein Unternehmen am Markt ist, und den ganzen Output allein produziert. Meist werden natürliche Monopole mit wachsenden Skalenerträgen verbunden. Diese sind aber weder notwendig noch hinreichend für das Vorliegen eines solchen. Weiters impliziert ein natürliches Monopol nicht, dass die Durchschnittskosten fallen. Öffentliche Unternehmen 222 11.2 Einführung an Hand eines Beispiels (Einproduktunternehmen) Die folgende Diskussion verwendet eine U-förmige Form der Durchschnittskosten zur Illustration: Fixkosten (f) und quadratische variable Kosten mit dem Koeffizienten (v); d.h. die Grenzkosten haben den Anstieg 2v. Die Produktionskosten einer Firma i bei Produktion yi sind somit durch 2 C(yi) = f + vyi (1) bestimmt. Die minimalen Durchschnittskosten liegen dann beim Output y*=(f/v)½ jeder Firma bzw. bei ganzzahligen Vielfachen davon für die gesamte Industrie. Die kostenminimale Aufteilung des Gesamtoutputs auf 2 Firmen verlangt, daß jede Firma genau die Hälfte produziert: yi = Y1/2, i=1,2. Die Verallgemeinerung auf m Firmen ist analog. Ein unmittelbares Korollar der obigen kostenminimierenden Aufteilung auf m Firmen ist, daß dabei dieselben Grenzkosten bei jeder Firma anfallen. Im Falle eines natürlichen Monopols muß die Kostenfunktion subadditiv sein, also bei gegebener Marktnachfrage Y1, muß jede Aufteilung der Nachfrage Y1 auf zwei oder mehr Firmen die Produktionskosten erhöhen, also: C(Y1) < 2C(Y1/2). (2) Dies ist dann und nur dann der Fall, wenn: Y1 < (2f/v)½. Dieser subadditive Bereich (und damit der Bereich ein natürliches Monopol) ist in Abb. 11.1 eingetragen. Für höhere Outputs ist die Aufteilung auf mehrere Firmen kostenminimal. Aber trotzdem sind in einem Teilbereich (f/v)½ < y < (2f/v)½ dieses sub-additiven Bereichs die Durchschnittskosten, C(y)/y = (f/y + vy), steigend und auch die Skalenerträge S = C/(C’y) = (f + vy2)/(2vy2), fallend. Abb. 11.1 zeigt die durchschnittlichen Produktionskosten der einzelnen Firmen (strichlierte Parabel). Diese Kostenfunktionen sind an den Punkten jy* (minimaler Produktionskosten) positioniert. Die durchgezogene Kurve zeigt die Durchschnittskosten der gesamten Industrie Öffentliche Unternehmen 223 bei effizienter Konfiguration. Diese Funktion umhüllt die Kostenfunktionen der einzelnen Unternehmen. Weiters sind zwei inverse Nachfragefunktionen P1 und P2, um unterschiedliche Industriegleichgewichte zu charakterisieren. Bei der Marktnachfrage P1 liegt das Gleichgewicht im subadditiven Bereich. Daher stellt ein Monopol die effiziente Industriestruktur dar. Steigt jedoch die Nachfrage auf das Niveau P2, dann sind zwei Firmen (also ein Duopol) optimal. Durchschnittskosten. 3 zwei Grenzkosten 2.5 2 ein Unternehmen 1.5 1 0.5 P2 P1 Y 0 0 0.5 1 1.5 2 2.5 3 3.5 4 f = ½, v = 1 Abb. 11.1: Beispiel (1) für eine Industrie abhängig vom Gesamtbedarf Y Aus dieser Abbildung lassen sich bereits fogende interessante Konsequenzen der Theorie ablesen: - Die optimale Industriestruktur, das ist die kostenminimale Anzahl von Firmen (m*), kann unmittelbar bestimmt werden. Die optimale Firmenanzahl m* ist bestimmt durch Y/y*, wenn der Quotient ganzzahlig ist bzw. durch eine der benachbarten ganzen Zahlen: m* = (Y/y*)Ý1. - Je höher die Marktnachfrage ist, desto mehr nähert sich die Kurve der Durchschnittskosten der gesamten Industrie, auch bei beliebigen Outputs, den minimalen Kosten an, die bei den Outputs j(f/v)½ (j-mal die kostenminimale Firmengröße, j natürliche Zahl) anfallen; und diese Annäherung ist rasch. Somit gilt bereits ab wenigen Firmen die übliche Nullprofitbedingung perfekter Konkurrenzmärkte. Ersetzt man den Bereich minimaler Durchschnittskosten durch einen Bereich konstanter Grenzkosten, erhält man auch für sehr geringe Marktteilnehmer bereits "erst-beste" Resultate: Preis = Grenzkosten = minimale Durchschnittskosten. - Wachsende Durchschnittskosten können durchaus konsistent mit einem natürlichen Monopol sein (z.B. für (f/v)½ < Y < (2f/v)½ in der Kostenfunktion (1)) Öffentliche Unternehmen 224 - Die Bedingung für die Existenz eines natürlichen Monopols hängt nicht nur von der Kostenstruktur und Technologie, sondern auch von der Nachfrage ab; erhöht sich z.B. die Nachfrage auf P2 und Output Y2, dann produzieren zwei Unternehmen effizienter; deshalb ist eine einmalig - durch den Beweis, daß die Bedingungen eines natürlichen Monopols gegeben sind gewährte Sonderstellung regelmäßig bei wachsender Nachfrage (aber auch bei Technologieänderungen) zu überprüfen. - Grenzkostenpreise müssen (auch bei einem natürlichen Monopol) kein Defizit implizieren. - Ein natürliches Monopol ist möglicherweise nicht gegen einen nichtinnovativen Eintritt gewappnet, sodaß fehlende legale Eintrittshürden zu Ineffizienz führen können. Das bedeutet, es existiert im allgemeinen kein Marktgleichgewicht. 11.3 Ergebnisse Ein Gleichgewicht eines (perfekt) anfechtbaren Marktes hat folgende - durchweg sozial angenehme - Eigenschaften: - effiziente Industriestruktur, d.h. kostenminimale Bereitstellung der nachgefragten Mengen - keine X-Ineffizienz, - kein Profit für die im Markt operierenden Firmen, - sozial-optimale Preise: (erstbeste) Grenzkosten ab einem Duopol, (zweit-beste) Ramsey-Preise in einem Monopol (weak invisible hand theorem, Baumol-BaileyWillig, 1976), also allokative Effizienz, - keine Quersubventionen. Diese Theorie hat neben den oben skizzierten Ergebnissen andere interessante Facetten. Sie unterstreicht die Notwendigkeit, dass natürliche Monopole und damit verbundene Lizenzen zu unterschiedlichen Zeitpunkten (höhere Nachfrage, neue Technologien) kritisch zu untersuchen sind. Eine andere wichtige Erweiterung dieser Theorie ist die Analyse von Multiproduktunternehmen. Auf diese interessanten Details soll hier nicht näher eingegangen werden. Die prinzipielle und wirtschaftspolitische Aussage dieser Theorie ist: Die Beseitigung von Zutrittsrestriktionen in anfechtbaren Märkten ermöglicht durch potentielle Konkurrenz die Entwicklung effizienter Industriestrukturen auch in dünn besetzten Märkten. Damit ist, zumindest für anfechtbare Märkte, das eingangs erwähnte Politikdilemma lösbar: unregulierte Märkte garantieren Effizienz. 11.4 Gleichgewicht und dessen Nachhaltigkeit Ein anfechtbarer Markt ist dann im Gleichgewicht, wenn für keinen (potentiellen) Eindringling eine Profitopportunität besteht (sustainability). Die Existenz dieses Gleichgewichtes ist im allgemeinen nicht gesichert. Das heißt, selbst ein effizientes und nur Durchschnittspreise verrechnendes Unternehmen ist nicht vor dem Eintritt eines nicht-innovativen Konkurrenten gefeit. Abb. 11.1 zeigt die Durchschnittskosten eines Versorgungsunternehmens, z. B. der Wasserversorgung vis a vis der Anzahl an Anschlüssen (N). Die Durch- Öffentliche Unternehmen 225 schnittskosten fallen bis zur Anschlussdichte N1. Weitere Ausdehnung des Netzes erhöht die Durchschnittskosten, z. B. durch geringere Dichte und/oder geringeren Bedarf der zusätzlichen Abnehmer. Die Marktnachfrage sei durch die fallende Kurve beschrieben, die die Durchschnittskostenkurve bei N2 schneidet. Selbst wenn das Unternehmen nur den Durchschnittstarif P2 verrechnet, kann ein anderes Unternehmen einen Preis Pe < P2 verlangen, den Output bis N1 anbieten und einen Profit (schraffiertes Rechteck in Abb. 11.2) realisieren. P2 Pe N N1 N2 Abb. 11.2: Durchschnittskosten vis a vis Anschlüssen (N) Die allgemeine Ansicht ist, dass dieses Problem in der Regulierung von Monopolen weniger bedeutend ist, als im ersten Moment scheint. Denn kaum ein Markt ist wirklich perfekt anfechtbar. Und im Falle von Eintrittskosten kann der Monopolist meist noch einen Preis finden, der den Eintritt verhindert (allerdings für den Preis einer reduzierten Rente). Weiter stellt die Hypothese eines preisfixierenden Monopols die angenehmste Situation für einen potentiellen Eindringling dar (deshalb auch die hohe Disziplinierung bei bereits sehr wenigen Marktteilnehmern). Brock-Scheinkmann (1983) zeigen, dass im Falle eines mengenfixierenden Monopols (und alle Kosten sind versunken) dieses Problem der Marktzutrittsresistenz effizienter natürlicher Monopole verhindert werden kann. Insbesondere wird dieses theoretische Problem - auch effiziente natürliche Monopole benötigen begleitende Zutrittsrestriktionen - nicht als Rechtfertigung für legale Barrieren angesehen. Denn juristische Beschränkungen können nicht zwischen sozial wertvoller, innovativer Konkurrenz und "Rosinenpicker" unterscheiden. Die Bedeutung potentieller Herausforderung an ein öffentliches Monopol braucht wohl keine zusätzliche Begründung, wenn man sich die rasch ändernden technologischen Bedingungen unserer Zeit vor Augen führt. Öffentliche Unternehmen 226 12 Internationale Vergleiche von Regulierungen und Erfahrungen mit Deregulierung und Privatisierung 12.1 International89 Adam Smith (1723 – 1790), The Wealth of Nations, I Book V Chapter II Part II, 1776: “In every great monarchy of Europe the sale of the crown lands would produce a very large sum of money, which, if applied to the payment of the public debts, would deliver from mortgage a much greater revenue than any which those lands have ever afforded to the crown (...). When the crown lands had become private property, they would, in the course of a few years, become well-improved and well-cultivated (...) the revenue which the crown derives from the duties of customs and excise, would necessarily increase with the revenue and consumption of the people.” Figure 12.1: Privatisations in the world90 The process began in the late Seventies, with the Thatcher government in Great Britain but it quickly spread across countries and continents to become a distinguishing feature of fin de siècle capitalism. In a cross-country analysis Bortolotti, Fantini, Siniscalco and Vitalini (1997, 2nd draft: 1998) provide data and figures for the period of 1977 to 1996 which also clearly indicate that privitization has become a major trend in industrial countries, transition economies and emerging countries (Figure 12.1). Their investigations also show that privatizations are now common to most countries and occur across geographical regions (Figures 12.2 and 12.3) and sectors (Figure 12.4). 89 Based on the seminar paper of Gabriele Benisek, 2003. Source Bernardo/Fantini, Marcella/Siniscalco, Domenico/Vitalini, Serena, "Privatisations and Institutions: A Cross-Country Analysis", Fondazione Eni Enrico Mattei, Nota di Lavoro 67.97, September 1997, Second Draft, March 1998 (www.feem.it/web/resun/wp/67-97.html). 90 Öffentliche Unternehmen 227 In another study Bortolotti, Fantini and Siniscalco (November 1998) find that privatization processes around the world usually follow the same pattern: Typically, privatization starts with small scale operations in non strategic sectors (f.e. agriculture, industry, banking, etc.). At a second stage, privatization spreads into utilities and network industries (gas, electricity, TLC, transports, etc.), often sold in various tranches due to the dimension of corporate assets. Despite this common trend, privatization processes evolve at different speed – some governments have decided to transfer ownership and relinquish control in utilities and other SOEs while other have stuck to partial privatization. (While the UK and Argentina went the farthest in privatization in the shortest time, f.e. France and Italy experienced an abrupt interruption in the mid-eighties.) Reasons for that might be the particular legal and regulatory framework of a country.91 Figure 12.2: Sales by Area (Source: Bortolotti et al., 1998) Figure 12.3: Revenues by Area (Source: Bortolotti et al., 1998) 91 See www.feem.it/web/active/newsl/398/r6.html [4th April, 2003]and Bortolotti/Fantini/Siniscalco: Regulation and Privatization: The Case of Electricity, 1998. Öffentliche Unternehmen 228 Figure 12.4: Privatizations 1977 – 1996: Sectors (Source: Bortolotti et al., 1998) 12.2 Privatization: Definitions, Pros and Cons After these introducing words which obviously furnished evidence for the fact that privatization plays an important role in restructuring economies throughout the world, one might ask oneself what the term "privatization" actually refers to. Merely defining "privatization" is difficult as it is a very broad term and there exist numerous definitions in the literature.92 Among others a very general definition of the term is: "Any process aimed at shifting functions and responsibilities, in whole or in part, from the government to the private sector."93 Narrowly defined, "privatization" simply means a transfer of ownership from the state to private companies or individuals. More broadly, it means the transfer of state or public sector functions and responsibilities. More broadly still, its definition can include a range of measures – otherwise termed commercialisation – aimed at introducing more market-like methods, structures and cultures into public activities. One problem with defining privatization on an international scale is that different people mean and understand different things by it: 92 i.e. see definitions at www.aft.org/privatization [4th April, 2003] or www.privatization.org/database/WhatIsPrivatization.html [4th April, 2003]. 93 See www.gao.gov/special.pubs/gg97121.htm [4th April, 2003]. Öffentliche Unternehmen 229 "Privatization is used to describe both a policy instrument applied to particular enterprises or public services AND a more general economic and social policy: the term is used at the 'micro' and the 'macro' levels. In terms of the 'micro' level Public Services International (1997) provide a scheme grouping "privatization" into five categories, although particular measures can and often do manifest more than one of them94: 1. Privatization of responsibility: - formal transfer to private organisation - transfer to user via abolition of service - transfer to user via reduction in service - liquidation of state-owned enterprise - liberalisation/deregulation of sector 2. Privatization of ownership: - share flotation - direct sale - auction sale - sale to investment fund - voucher privatization - restitution (to previous owners or in compensation) - transfer to management and/or employees - management buy-out - management and employees buy-out - disposal of land or other assets 94 Due to scarce place I can only give a short summery. For more detailed information on forms of privatization please see www.world-psi.org/publications or for a detailed list of "Types and Techniques of Privatizations" see www.privatization.org/Collection/WhatIsPrivatization/Privatization_techniques.html [both sources: 4th April, 2003]. Öffentliche Unternehmen 230 3. Privatization of provision: - contracting-out - lease - operating concession - management contracting - purchasing (i.e. private supply of goods/service) 4. Privatization of financing: - private finance for public infrastructure development - recapitalisation of public companies through private investment - joint venture - new or higher user charges 5. Commercialisation/marketisation: - competitive tendering between in-house and outside contractors - restructuring to create internal market; e.g. purchaser/provider split, client/contractor split - introduction of commercial goals - measures and techniques to create commercial ethos/culture - corporatisation: reconstituting enterprise in private form Privatization was begun because of the recognition that SOEs perform badly (high costs, loss making, old technology, exessive staffing etc.) in spite of various attempts to improve their performance. Therefore perhaps the most important objective of privatization is to improve the economic performance of privatized companies.95 Generally spoken the objectives of programmes and particular measures of privatization vary depending on a range of national characteristics (i.g. relative size of public and private sectors, degree of development, political and industrial relations environments, etc.) and on the sector concerned. Some of the objectives at the 'macro' level might be96: 95 See www.developmentgateway.org/node/130679 [6th April, 2003] Again the distinctions between the categories are relative and the same object might fall into more than one. See www.world-psi.org/publications [4th April, 2003]. 96 Öffentliche Unternehmen 1. Political: - to adhere to pro-private and pro-market ideology - to comply with lender/donor conditionalities - to establish property rights - to win votes by cutting taxes 2. Macro-economic: - to liberalise the economy - to enable more integration into the international economy - to increase efficiency and competitiveness - to develop national capital markets - to develop a strong private sector as the engine of growth - to attract private capital for infrastructure development - to repay state debts and/or reduce borrowing - to redirect subsidies to other areas of state spending 3. Institutional: - to redirect the administrative capacity of the state - to undermine corrupt and parasitic use of state resources - to sever links between politicians and management 4. Micro-economic: - to increase efficiency, performance and productivity - to enable diversification - to gain access to international capital and markets - to introduce or increase competition 5. Managerial: - to commercialise management behaviour 231 Öffentliche Unternehmen - to gain access to external techniques, skills, knowledge - to provide personal incentives for managers, employees - to enable attacks on union organisation and agreements - to enable staff cuts and pay systems changes - to externalise problems of service efficiency and quality 232 6. Distributional: - to create profitable opportunities for politicians - to legitimise corrupt and parasitic use of state resources - to compensate for losses (to previous owners or others) - to enable higher salaries for executive and directors - to expand markets for private capital and companies - to widen share ownership In addition to factors specific to particular countries or countries of particular types, there are four related groups of factors which have been driving public sector change on an international scale97: 1. Globalisation (i.g. pressure of global competition for markets and capital is driving national states to cut spending) 2. Changes in Technology & Technique (i.g. changing the nature of the labour market and increasing the range and quality of skills required to produce high quality services efficiently) 3. Public Sector Problems (i.g. concerning efficiency, effectiveness etc.) 4. Ideological pressure (i.g. general message of neo-liberalism: private is good - public is bad, market forces are good – state regulation is bad) Many recent empirical studies conclude that privatization will improve company performance (f.e.: Megginson, Nash and van Randenborgh, 1994; Boubakri and Cosset, 1998; Megginson and Netter, 1998; D'Souza and Megginson, 1999; Lízal and Svejnar, 2002) and especially according to Megginson and Netter (1998), who give a comprehensive survey of empirical studies on privatization, there is little doubt now that privatization “works”. Yet – privatiza- 97 For more details and further examples see www.world-psi.org/publications [4th April, 2003]. Öffentliche Unternehmen 233 tion is like any other political tool – it can work well or poorly, depending on how it is done. And, like other policy tools, there is plenty of argument about its virtues and vices. Generally the standard argument for privatization is that in most circumstances private ownership leads to the best possible economic performance of firms.98 According to Peter Young (1997)99 other common arguments for privatization are: - Reducing government debt: Privatization has reduced many governments’ need to continue large subsidies to SOEs, significantly improving overall health. - Consumers benefit: Consumers benefit from privatization in the majority of cases. Efficiency improvements in regulated industries have been passed on to the consumer in the form of lower prices. Consumers also enjoy greater access to goods and services that previously had been unavailable to them. - Employing workers: Even this is a crucial point to put here as – we will see later – it is often argued that employees do not benefit from privatization, Young finds, that employees tended to benefit in three different ways: (1) employment levels tended to increase after privatization; (2) remuneration packages tended to improve after privatization; and (3) many employees bought shares in the privatized enterprises, further benefiting when the value of those shares increased. - Strengthening capital markets: Privatization has done much to strenghten capital markets and widen the ownership of capital, although such effects are closely related to the methods of privatization pursued by individual countries. - More competition: Privatization has encouraged competition in most cases. - Increasing investment: Privatization has become an important means for countries to attract foreign investment. The process of selling SOEs to private owners often elicits high emotions. Those who support privatization tend to consider it one of the most important economic events of the millennium, while those who oppose it are equally convinced that the process threatens the foundations of the modern welfare state, if not of democracy itself.100 In this respect Public Services International101 (1997, The roots of privatisation) points out that negative consequences of privatization are observable in many fields: 1. The effect of privatization on employment and pay: 98 Megginson, Nash and van Randenborgh (1994) and La Porta and Lopez-de Silanes (1999) for instance compare the pre- and post-privatization performance of privatized firms. 99 For more detailed information and examples see www.cipe.org/publications/ [28th March, 2003]. 100 See Megginson, “The Impact of Privatization”, 1998 101 See www.world-psi.org/publications [4th April, 2003] Öffentliche Unternehmen 234 Many jobs have undoubtedly been lost in the course of privatizations, particularly in the former communist countries (i.g. 70.000 local government jobs have been lost in the U.K. as a result of contracting-out and competitive tendering; one heavy engineering plant in Russia reduced employment from 70.000 to 20.000 in the three years after privatization; a Czech government survey of 572 privatized companies showed a significant decline in employment; etc.) 2. Privatization and economic and social welfare: One of the most rigorous research programmes into privatization’s effects was carried out at Oxford University in England, by a team led by former World Bank economist Percy Mistry, who concluded that ‘the somewhat ambitious claims made for privatisation need to be scaled down’ and that it could even be ‘counter-productive, especially in smaller developing countries’. Other evidence shows that regulation of privatized utilities is also no guarantee against abuse. In the case of water privatization in the U.K., for example, services have failed to improve or have got worse. Prices have risen much faster than inflation and ‘executives of privatized companies have enriched themselves to an extent that has become a national scandal’. The social impact of other forms of privatization, such as contracting-out, cuts in services and new or higher user charges, has also often been catastrophic, especially for the poor. Increasing user fees in health care is promoted by the World Bank – which spends nearly twice as much on health-related projects each year as the World Health Organisation does – on the grounds that fees stop people seeking medical attention they do not need. But a study in Zaire found it was expectant mothers, under-fives and people on the lowest incomes who stopped going to the doctor when fees were raised. Similar effects have been recorded in a number of other African countries. 3. Concentration of wealth and power: Perhaps the greatest long-term menace to economic and social welfare, and to economic and political democracy, arising from privatization is its contribution to the concentration of wealth and power. The United Nations Development Programme (UNDP), in its 1993 Human Development Report, described the results in the poorest countries as ‘more of a “garage sale” to favoured individuals and groups than a part of a coherent strategy to encourage private investment’. In less poor countries too, the already rich and powerful have been the major beneficiaries. In Mexico, the 37 businessmen who already owned between them about a quarter of the country’s gross national product were the main buyers in all but one of the sales or liquidations of nearly 1.000 enterprises. Öffentliche Unternehmen 235 Having observed all the pros and cons for/against privatization I’d like to finish this section with a summarizing statement of a study carried out by the World Bank102 (Kikeri, Nellis and Shirley, 1992). The authors of the study find that most privatization success stories come from high-income and middle-income countries. Privatization is easier to launch and more likely to produce positive results when the company operates in a competitive market, and when the country has a market-friendly policy environment and a good capacity to regulate. The poorer the country, the longer the odds against privatization producing its anticipated benefits, and the more difficult the process of preparing the terrain for sale. Having analysed the pros and cons for/against privatization in a study, most authors try to derive some kind of lessons that can be drawn from their findings (among others: Young, ?; Kikeri/Nellis/Shirley, 1992; Megginson/Netter, 1998). To give a few examples: Privatization works best when it is a part of larger program of reforms promoting efficiency. Regulation is critical to the successful privatization of monopolies. Governments must pay special attention to developing a social safety net. There is a clear need to bring new, entrepreneurially-oriented management into privatized firms to maximize performance improvements. Governments use three basic techniques to privatize their SOEs: share issue privatization (SIPs), asset sales, and voucher or mass privatizations. SIPs are generally preferred over asset sales for large SOE divestitures, in countries with more developed capital markets, and where income per capita is relatively high, while asset sales are preferred when a government is in greater need of immediate income from sales receipts. When asset sales are used, it is generally better (more revenue is raised) to increase the number of bidders in an open auction than to rely on direct negotiations with a smaller number of bidders. Voucher privatizations are the least economically-productive divestment technique, but those governments adopting it generally have few other realistic options. 12.3 Deregulierung in den USA Der Wulst an Regulierung der amerikanischen Wirtschaft beginnt mit Roosevelt's New Deal vergleichsweise spät. Die Deregulierung begann bereits unter den Administrationen Ford und Carter, wurde aber erst in der Administration Reagan energisch vorangetrieben (Time, July 6th, 1987). Eines der zentralen Anliegen der Administration Reagan's war es, die amerikanische Wirtschaft vom Ballast der öffentlichen Regulierung zu befreien. Bailey (1985) ist eine der ersten kompetenten Zusammenfassungen der amerikanischen Erfahrung mit der Politik der Deregulierung viel wichtiger, vormals regulierter Industriezweige zusammen. Die erste Behauptung von Bailey lautet, dass die amerikanische Deregulierungspolitik auf einer zusammenhängenden Logik fußt. Das zu Grunde liegende Kriterium ist nicht wie einst die Prä- 102 See www.worldbank.org . Öffentliche Unternehmen 236 senz zahlreicher Firmen und Konkurrenz in einem Markt, sondern das Kriterium der Anfechtbarkeit. Somit bildet die Theorie anfechtbarer Märkte (theory of contestable markets) eines der theoretischen Fundamente und auch das Kriterium für eine erfolgreiche Deregulierung. Die Theorie impliziert, dass in anfechtbaren Märkten nach einer Deregulierung die Quersubventionen aufhören (zumindest reduziert werden), die Preise sich in der Folge näher an den Kosten orientieren, neue Produkte entstehen und durch effizientere Produktion (im Vergleich zur ineffizienten Produktion bei Regulierung - Averch-Johnson Effekt) die Kosten abgesenkt werden. Der Aktienhandel wurde bis 1975 reguliert, so dass die Händler sich nicht über den Preis konkurrenzieren konnten. Daher wurden in der Folge - durch Konkurrenz bedingt - zusätzliche Dienstleistungen dem Kunden kostenlos geboten. Diese Regulierung benachteiligte die großen institutionellen Anleger und bevorzugte den kleinen Anleger (gemessen am Kostenaufwand) - also eine für Regulierungen übliche Quersubvention. Seit 1975 sind die Handelsbedingungen individuell aushandelbar. Im Jahre 1980 wurden zusätzlich Bankregulierungen aufgelassen. Dies erwies sich als notwendig, da die Banken durch die Konkurrenz von Anlagefirmen, die höhere Renditen auf Anlagen gaben, als der geregelte Einlagezins der Banken, zusehends aus dem Markt gedrängt wurden. Sowohl die Tarife als auch der Zutritt zu zwischenstaatlichen (im Sinne amerikanischer Bundesstaaten) Flugrouten wurde durch eine eigene Behörde, die Civil Aeronautics Board (CAB), reglementiert. Die CAB entwickelte sich aus dem Civil Aeronautics Act aus dem Jahre 1938 zur Reglementierung der damals natürlichen Monopole der Luftpost (der geringe Passagierverkehr war damals vernachlässigbar). Panzar (1983), einer der Pioniere der Theorie der anfechtbaren Märkte und der Deregulierung der amerikanischen Luftfahrt, hält retrospektiv diese Entscheidung für richtig. Aber in den 60er und 70er Jahren änderte die Ausweitung des Bedarfes die Marktsituation. Die Unsinnigkeit der Regulierung kam dadurch auf, dass in den zwei größten Staaten, insbesondere in Kalifornien, innerstaatliche Flüge unter dem entsprechenden CAB Tarif für dieselbe Streckenlänge (der zusätzlich noch auf versteckten Quersubventionen von den Langstreckendestinationen basierte) angeboten wurden. Trotz dieser niedrigeren Tarife waren die innerstaatlichen Fluglinien in einer besseren finanziellen Lage als die kränkelnden großen Fluglinien. Da es sich um innerstaatliche Flüge handelte, konnte die CAB nicht einschreiten. Somit ergab sich das Paradoxon, dass sowohl niedrige als auch hohe Tarife kostendeckend sein können. Ähnlich dem obigen Beispiel des Aktienhandels ersetzte hier die Qualitätskonkurrenz - viele Flüge und zu günstigen Zeitpunkten mit der Folge geringer Maschinenauslastung - die Preiskonkurrenz. Die Tarife wiesen eine starke Quersubvention von den profitablen Langstrecken zu den oft unprofitablen Kurzstrecken auf. Die Deregulierung war mit 1983 beendet. Am 1. Januar 1985 geschah etwas - für eine Behörde - Überraschendes: Die Civil Aeronautics Board schloss ihre Pforten. Die Sicherheitsvorschriften blieben davon ausgenommen und werden von der Luftfahrtbehörde (Federal Aviation Administration) wahrgenommen. Die Regulierung des amerikanischen Transportgeschäftes durch die Interstate Commerce Commission (ICC) führte zu einer "Balkanisierung"103. Die ICC ist die älteste Regulie- 103Zum Beispiel durfte die Bahn Milch, aber nicht Joghurt und Eiscreme transportieren. Öffentliche Unternehmen 237 rungsbehörde, sie wurde im Jahre 1887 zur Regulierung der Bahn etabliert und im Laufe der Zeit auf die Konkurrenz LKWs und Luftfracht ausgedehnt. Im Jahre 1980 wurde eine teilweise Deregulierung dieses Wirtschaftsbereiches Gesetz. Abschätzungen zeigen, dass allein die Deregulierung dieses Wirtschaftssektors den amerikanischen Konsumenten bis jetzt US$ 72 Milliarden brachte. Monopolistische Nischen, etwa der Kohletransport über die Eisenbahn zu den Kraftwerken, bleiben nach wie vor reguliert. Dies ist eine klare Anwendung des Prinzips anfechtbarer Märkte. Das Fernmeldewesen schien lange Zeit als natürliches Monopol gesichert vor dem Marktzutritt unliebsamer Konkurrenten. Für diesen Vorteil nahm es gerne die öffentliche Regulierung in Kauf. Mit dem Auftreten von neuen Technologien wurde das Monopol durch zahlreiche Klagen bedroht und im Jahre 1984 im Rahmen (eines Vergleiches) bei einem Antitrust-Verfahren letztendlich aufgebrochen. So versuchte Microwave Communications Inc. (MCI) seit mehr als einem Jahrzehnt in den Markt einzutreten und wurde schließlich mit US$ 1.8 Milliarden kompensiert. Dies ist deshalb interessant, weil mit der öffentlichen Regulierung das Antitrust-Gesetz nicht außer Kraft tritt. Im Fernmeldewesen wurde zwar Marktzutritt gestattet und das vormalige Monopolunternehmen AT&T zerschlagen, aber nicht dereguliert. Deshalb, Crandall (1988), sind die Tarife nach wie vor durch (teilweise hohe) Quersubventionen charakterisiert. Im gesamten erwiesen sich die Prognosen aus der ökonomischen Theorie als richtig. Als Folge der Deregulierung orientierten sich die Preise näher an den Kosten, z. B. wurden Langstreckenflüge billiger, während die Kurzstreckentarife leicht stiegen (so dass die Quersubventionen eliminiert wurden), Frachttarife fielen seit der Deregulierung um 25 % bei großen LKW-Ladungen und geringer bei kleineren Ladungen und am wenigsten bei der Bahn. Abb. 12.5 zeigt die Entwicklung der Frachtraten und der Flugtarife basierend auf Tabellen von Bailey (1985). Öffentliche Unternehmen 238 105 100 95 Bahn LKW klein LKW groß Flug-meist benützter billiger Tarif 90 85 80 75 70 1974 1976 1978 1980 1982 1984 Abb.12.5: Entwicklung der Tarife als Folge der Deregulierung in den USA Anfang der 80er Jahre nach Bailey (1986). Die Verbilligung ist tatsächlich noch bedeutender, wenn man anstatt der historischen Tarife jene betrachtet, die in einem regulierten System gelten würden. Denn beide Sektoren erfuhren durch den zweiten Ölpreissprung und die Deregulierung des amerikanischen Erdölmarktes eine Kostenerhöhung weit über der allgemeinen Inflation. Die angebotene Produktpalette wurde substantiell erweitert. So gibt es jetzt Diskontmakler und Makler, die alle Dienstleistungen anbieten, Ersteklasseflüge und Billigstflüge mit einem Minimum an Service. Entgegen der Vermutung einer Einschränkung lokaler Flugverbindungen nach der Deregulierung, da diese durch Quersubventionen begünstigt wurden, wurden diese Verbindungen nach der Deregulierung substantiell erweitert. Das ist damit begründet, dass die Fluglinien die wachsenden Skalenerträge aus einer höheren Auslastung von Maschinen nur dann ausnutzen konnten, wenn regionale Flugverbindungen den Transport zu den Zentralflughäfen der betreffenden Linie bewerkstelligten. Somit ermöglichte die Deregulierung nicht nur eine effizientere Struktur des amerikanischen Luftverkehrs, sondern verbesserte auch noch die Infrastruktur. Die Tarife reflektieren jetzt auch Spitzenlastprobleme: Geschäftszentren mit Spitzenbelastungen am Morgen und am Abend sind teurer als Touristenzentren, die über den ganzen Tag angeflogen werden können und Komfortdifferenzierung: Direktflüge sind teurer verglichen mit Flügen, die ein Umsteigen in zentralen Flughäfen (hub-and-spoke system) erfordern. Spätere Analysen, Kahn (1988), Bailey-Williams (1988), bestätigen im großen und ganzen die positive Erfahrung mit der Deregulierung. Ähnliche Effekte werden im Speditionsgewerbe beobachtet, wo Fusionen von Firmen und neue Routen die wachsenden Skalenerträge jetzt voll nützen, so dass ein teilweise kompliziert erscheinendes Routing alle Kostenvorteile ausnützt. Eine positive Bilanz ziehen auch BlairKaserman-McClave (1986) über die Deregulierungsmaßnahmen im Transportwesen. BlairKaserman-McClave (1986) finden, dass dadurch in Florida die Frachttarife im Durchschnitt Öffentliche Unternehmen 239 um 14 % gefallen sind, aber bezweifeln, dass die Quersubventionen bereits gänzlich eingestellt wurden. Auch im traditionellen Bereich der Telekommunikation wurden neue Dienstleistungen kreiert. Dies betrifft insbesondere die weitverbreiteten Möglichkeiten von electronic mail und einfache Antwortdienstleistungen durch Operator. Verlierer dieser Politik, findet Bailey (1985), gibt es nur wenige. Die Gewerkschaft der betroffenen Branchen ist sicher ein Verlierer. Die Regulierung begünstigte eine Monopolisierung. Dies ermöglichte den organisierten Arbeitsnehmerverbänden, einen Teil der Monopolprofite für ihre Mitglieder - in der Form höherer Löhne und anderer Vergünstigungen, die über dem Niveau des amerikanischen Arbeitsmarktes lagen - herauszuschlagen. So fielen als Folge der Deregulierung, insbesondere im Speditionsgewerbe und im Flugverkehr, die hohen Löhne auf das übliche Niveau104. Dieser Zwischenbericht von Bailey (1986) wird in zahlreichen später folgenden Untersuchungen bestätigt, die von Winston (1993) zusammengefasst wurden. Winston (1993) sieht die amerikanische Deregulierung als großen Erfolg für die amerikanische Wirtschaft (und auch für seine Profession, die Mikroökonomie, deren Prognosen mehr oder weniger eintraten), siehe Tabelle 2.2, die Bandbreiten für die abgeschätzten Gewinne angibt. Der tatsächliche Gewinn der amerikanischen Deregulierung zu Beginn der 80er Jahre ist noch höher, da aus unerklärlichen Gründen die Abschätzung von Winston (1993) die Gewinne aus der Deregulierung der absurden (vgl. Stalon (1986) und Broadman (1987)) Erdgasregulierung außer acht lässt mit weitreichenden positiven Folgen auf diesen Markt, der durch freien Zutritt, unbundling der Kontrakte und Spotpreisen enorm an Konkurrenz und dadurch an Effizienz gewonnen hat, vgl. Doane-Spulber (1994). Tabelle 2.2: Jährliche Gewinne aufgrund der amerikanischen Deregulierung in Milliarden 1990-US$ Branche Konsumenten Produzenten Total öff. Unterstützung ───────────────────────────────────────────────────── Fluglinien (8.8 - 14.8) 4.9 (13.7, 19.7) 69 % Eisenbahn (7.2, 9.7) 3.2 (10.4, 12.9) LKW 15.4 - 4.8 10.6 Telekommunikation (.73, 1.6) (0.73, 1.6) 52 % Kabelfernsehen (.37, 1.3) (0.37, 1.3) 42 % TOTAL (32.6, 43.0) 3.2 (35.8, 46.2) ───────────────────────────────────────────────────── Quelle: Winston (1993). Vor diesem Hintergrund scheint es mir wichtig vor jenen Stimmen zu warnen, die Regulierung wiederum fordern, weil möglicherweise nicht das gesamte Potential an Verbes- 104So ermöglichte erst der Bankrott von Continental Airlines eine Neuverhandlung der Verträge und Senkung der Arbeitskosten. Öffentliche Unternehmen 240 serungen ausgeschöpft wurde. Denn die Forderung nach Regulierung, die, wie klar bewiesen, große Verluste brachte, weil möglicherweise nicht alle Versprechungen der Theorie eingehalten werden konnten, ist absurd. 12.4 Deregulierung in Großbritannien Die Analyse von Kay und Thompson (1986) über die britische Welle der Reprivatisierung fällt kritischer aus als Baileys und Winstons Darstellung für die Vereinigten Staaten von Amerika. Im Falle der britischen Privatisierung von mittlerweile 20 Branchen fallen 15 unter die Kategorie kompetitiver Industrien, wo Staatsfirmen verkauft wurden (Stahl, Flugverkehr, Autofirmen, Flugmotoren usw.) und nur 5 unter die Kategorie öffentlicher Monopole, die uns hier vorwiegend interessieren. Kay-Thompson gehen von der Annahme aus, dass die Eigentumsstrukturen sekundär für die Effizienz von Firmen sind und dass nur Konkurrenz das Management diszipliniert und Ineffizienzen vermeidet. Diese Voraussetzung ist eine etwas extensive Interpretation der Übersicht in Borcherding-Pommerehne-Schneider (1983). Um die Privatisierung durchzusetzen, verbündete sich die Regierung mit dem Management der vormals verstaatlichten Unternehmen. Dieses Management ist durch die Erfahrung in staatlichen Monopolen einer Konkurrenz gegenüber traditionell feindlich eingestellt. Somit führt die Privatisierung dieser staatlichen Monopole zur Installation privater Monopole, anstatt ein entsprechendes Konkurrenzklima mit freien Marktzutritten zu gestatten. Während Kay-Thompson (1986) der Meinung sind, dass diese Politik der Regierung Thatcher schlechter ist als Nichtstun, kritisiert Brittan (1986) zwar auch das Vorgehen der britischen Regierung, findet es aber trotzdem besser als die Ausgangssituation. Kay-Thompson limitieren ihre Analyse auf die Effizienzverbesserungen der Unternehmen, negieren aber (positive) Nebeneffekte der Privatisierung, wie geringere Einflussnahme der Regierung auf private Unternehmen, Reduktion der Macht der Gewerkschaft öffentlicher Bediensteter, zusätzliche Staatseinnahmen, breitere Streuung von Kapitalbesitz usw. Weiter beschränkt sich die Kritik von Kay-Thompson auf die Privatisierung öffentlicher Monopole. Deshalb sind ihre Schlüsse nicht gültig für jene reprivatisierten Unternehmen, die sehr wohl in einem stark konkurrenzierten Markt operieren, wie die Autofirma Jaguar, British Petrol, British Aerospace, National Freight Consortium, u.s.w. Für die "kritischen" Unternehmen aber, wie etwa für Rolls Royce (Flugzeugmotoren), wurden ohnedies Auflagen der (nationalen) Eigentümerschaft geschaffen. Brittan deutet an, dass die britische Regierung die Reprivatisierung als ideologisches Substitut für die Unfähigkeit, die Budgetausgaben zu senken, verwendet. Und im Gegensatz zur Budgetsanierung stieß die Privatisierung auf überraschend wenig Widerstand. Diese Gefahr ist auch in anderen Ländern bei Reprivatisierungsbestrebungen zu berücksichtigen. Insbesondere erlöst - wenn auch nur einmalig - der Verkauf von Staatsfirmen gigantische finanzielle Mittel, die kurzfristig wieder vom Problem eines Budgetdefizits ablenken. So begann die britische Deregulierung mit Aerospace im Jahre 1980 und erlöste seither (bis 1986, nach Andrews (1987)) aus dem Verkauf (inklusive British Gas und British Telecom) £ 25 Milliarden. Vickers und Yarrow (1988) geben einen profunden Überblick über die britische Privatisierung. Ähnlich wie Borcherding-Pommerehne-Schneider (1982) sind sie der Meinung, dass Eigentumsstrukturen zwar wichtig sind, aber nur wenn gleichzeitig disziplinierende Konkurrenz herrscht. Dies kreiert jedoch Probleme für eine Regierung, die sich der Privatisie- Öffentliche Unternehmen 241 rung verschreibt. So ist es schwierig, die vormals staatlichen und wohlgebetteten Unternehmen ertragreich zu verkaufen, falls man sie in ein rauhes Konkurrenzklima entlässt. Mit einer solchen Strategie setzt man sich dem (falschen) Vorwurf aus, "Familiensilber zu verschleudern". Diesen Weg vermied die britische Regierung. Den Preis für die "erfolgreiche" Reprivatisierung entsprechend den obigen Erlösen zahlt somit zumindest teilweise der Konsument. Diese politisch bedingte Strategie - kein Familiensilber zu verschleudern - führte dann in einigen Fällen dazu, dass ein verstaatlichtes Unternehmem zuerst saniert werden musste, um es dann erst zu privatisieren, anstatt von vornherein das Unternehmen zu veräußern und auf die Disziplinierung des Marktes zu setzen. Über diese bekannten Beispiele hinaus ist die Reprivatisierung und die Neuorganisierung von öffentlichen Unternehmen ein internationaler Trend, der sogar die Entwicklungsländer erfasst. Die Hauptursache für diesen Trend liegt hier höchstwahrscheinlich nicht (nur) bei ideologischen Motiven oder bei ökonomischen Effizienzüberlegungen, sondern resultiert aus den Budgetdefiziten aller Länder und den Schwierigkeiten, die explodierenden Defizite des öffentlichen Sektors zu finanzieren. Fig. Number of Deals and Revenues from Privatisation Table: Investors’ Gain (internal rate of return, %) due to privatisation (Parker, 1997) Begebung bis Ende erster Regulierungsperiode British Telecom British Gas Water () RECs () 19,9 18,4 24,0 33,0 Ende erster Begebung Handelstag bis 27.3.1997 Ende erster Regulierungsperiode 9,4 14,4 13,7 10,5 17,6 24,0 23,7 38,2 bis Ende erster Beginn der Handelstag bis zweiten Regu27.3.1997 lierungsperiode bis 27.3.1997 9,6 9,7 8,1 2,6 18,4 24,0 30,1 76,9 Öffentliche Unternehmen 242 13 Elektrizitätsmarkte: Spezifika und Erfahrungen mit Liberalisierungen 13.1 Spezifika der Elektrizitätsversorgung Ein zentrales Charakteristikum der internationalen Energiewirtschaft, aber insbesondere der Elektrizitätswirtschaft ist die staatliche Intervention, entweder direkt als Eigentümer oder indirekt über Regulierung. Der Wähler sollte der eigentliche Souverän in den westlichen Demokratien sein, und er delegiert in einer repräsentativen Demokratie seine Entscheidungen an eine gewählte Regierung. Diese Regierung ist zwar typischerweise an Einfluss, aber nicht an den Tagesfragen eines EVUs interessiert, sondern überträgt diese Aufgaben an ein Management. In den Vereinigten Staaten überwacht eine Regulierungsbehörde das EVU, da die Profitinteressen des EVUs von den öffentlichen Interessen abweichen. Im Falle der kontinentaleuropäischen Institution verstaatlichter oder quasi-verstaatlichter Unternehmen fehlt oft eine formale Institution einer öffentlichen Regulierungsbehörde amerikanischen Ausmaßes, was aber nicht notwendigerweise bedingt, dass das Management europäischer EVUs mehr Freiraum hat. Im Gegenteil, diese einseitige Abhängigkeit - Verlängerung des Managementkontraktes durch Politiker - garantiert den Polikern Wohlverhalten (etwa keine Tariferhöhungen vor Wahlen, vgl. Hubka-Obermann (1977)), aber erspart den Politikern Verantwortung für unangenehme Eventualitäten und die Beschäftigung mit betrieblichem Detail. Was jedoch typisch für das europäische, im Gegensatz zum amerikanischen, Unternehmen ist, ist das Fehlen von jeglichem Profitinteresse. Dieses fehlende Profitinteresse impliziert jedoch nicht allgemeine Interessenlosigkeit, sondern es treten andere, die eigentlichen und primären Ziele eines jeden Managements in den Vordergrund, etwa die 3 Ps Niskanens (1971), pay, power, prestige. Daraus folgt die Bedeutung von Geld, Einfluss und Macht, die gut mit physikalischen Größen, wie Anzahl der Untergebenen, Aktivitäten von Kraftwerksbauten (vgl. staatliche Energieanleihen und Förderung der Kernenergie), aber eventuell in Zukunft auch mit Sparinvestitionen korrelieren; Niskanen (1971) verwendet das dem Bürokraten zur Verfügung stehende Budget als Approximation für die eigentlichen Ziele. Als letzter erscheint in dieser Hierarchie der Konsument, der jedoch identisch mit dem Souverän Wähler ist, so dass sich die Hierarchiekette in Abb. 13.1 schließt. Die Ziele zwischen der Regulierungsbehörde und dem EVU müssen nicht notwendigerweise differieren, wie Stigler (1971), theory of capture, argumentiert. Die öffentliche Regulierung mag zwar ursprünglich mit der Intention einer Wohlfahrtsverbesserung kreiert worden sein, aber dieses Ziel wird im Laufe der Zeit korrumpiert. Die eigentlich zu regulierenden Firmen bekommen zusehends Einfluss auf die Regulierungsbehörde, und die Regulierung dient dann den öffentlichen Monopolunternehmen etwa, um unliebsame Konkurrenz vom Markt fernzuhalten, anstatt sie zu disziplinieren. Ein Beispiel für dieses Verhalten war die amerikanische Telefongesellschaft AT&T, die die Regulierung über Jahrzehnte hinweg benutzte, um den Eintritt von unliebsamen Konkurrenten zu verhindern. Und natürlich müssen wegen des teilweise substantiellen Freiraums der Beteiligten in der obigen Hierarchie (etwa bedingt durch asymmetrische Information) die Vorgaben der Regulierungsbehörde nicht mit den Interessen des Souveräns identisch sein. Diese obigen Unterstellungen mögen manchem Leser als unrealistisch und als übertrieben erscheinen. Tatsächlich bleiben alle Ergebnisse qualitativ dieselben, wenn die hier postulier- Öffentliche Unternehmen 243 ten Ziele auch nur inter alia einen Wert für Bürokratie und Politiker haben, siehe Buchanan (1987): "The minimal critical assumption for the explanatory power of the economic theory of politics is only that identifiable economic self interest (for example, net wealth, income, social position) is a positively valued good. This assumption does not place economic interest in a dominating position and surely does not imply imputing evil or malicious motives to political actors; in this respect the theory remains on all fours with the motivational structure of standard economic theory of market behaviour." Wähler Parlament, Regierung Regulierungsbehörde Management des EVUs Konsument (=Wähler) Abb. 13.1: Hierarchie öffentlicher Unternehmen Die prinzipielle Schwierigkeit einer effizienten Reorganisation der Elektrizitätswirtschaft liegt darin, dass der Bereich, in dem erfolgreich Marktbedingungen eingeführt werden können, zu Beginn (upstream) des momentanen vertikalen Verbundes liegt. Die folgenden Bereiche, Verteilung und Vertrieb, sind natürliche, nicht anfechtbare Monopole (downstream). Das Monopol des Vertriebes ist letztendlich der Kontraktpartner für die Konsumenten. Denn selbst bei einem perfekt funktionierenden Markt der Stromproduktion ist es ungewiss, ob Monopole des regionalen Vertriebes - verstaatlichte oder private, aber regulierte Unternehmen - effiziente Öffentliche Unternehmen 244 Tarife verlangen. Daher kann eine Änderung der Struktur dieser Industrie primär die Effizienz in der Produktion - dort fällt allerdings der Großteil der Kosten an - verbessern.105 Diese Anordnung der Elektrizitätswirtschaft stellt ein echtes Hindernis dar, um erfolgreich Marktbedingungen einzuführen, und kontrastiert die Anordnung der in Bailey (1986) und Winston (1993) beschriebenen erfolgreich deregulierten Märkte - die sunk costs liegen dort jeweils upstream. Dieses Spezifikum des Strommarktes ist exemplarisch in Abb. 13.2 mit dem Transportwesen verglichen. Dieser Schluss wird verstärkt durch die Tatsache, dass Regulierung wie auch immer mit Anreizen versüßt - eine höchst imperfekte Angelegenheit bleibt und nur in Ausnahmefällen (Möglichkeiten einer vergleichenden Konkurrenz unter Vertriebsgesellschaften, Auktionen für wohldefinierte Dienstleistungen) Effizienz ermöglicht. upstream downstream Flughäfen Straßen Bahnhöfen, Schienennetz └──────────┬──────────┘ sunk costs Kraftwerke └────┬────┘ "Markt" Fluglinien Spedition, PKW, Busse Züge (Fracht, Person). └──────────┬──────────┘ "Märkte" Verteilung Vertrieb └───────────────┬────────────┘ sunk costs Abb.13.2: Vergleich des Transportmarktes mit dem Strommarkt Die Rettung dieser an sich möglichen Effizienzgewinne in der Erzeugung für die Endabnehmer und die Anwendung effizienterer Tarifierung erfordert substantielle Änderungen der bestehenden Organisationsform. Manche werden den Vorschlag radikal finden. Unabhängig vom Erfolg bzw. Mißerfolg der britischen Reprivatisierungswelle106 hat das Experiment der Regierung Thatcher jedoch gezeigt, dass die Reorganisation, d. h. im britischen Fall Reprivatisierung, öffentlicher Einrichtungen auf relativ wenig Opposition in der Öffentlichkeit gestoßen ist. In diesem Lichte scheinen die hier unterbreiteten Vorschläge als nicht radikal und durchaus realistisch. Tatsächlich ist eine schrittweise Deregulierung wirtschaftlich ineffizient107, wenn auch oft politisch dienlich (vgl. dazu Wirl (1991b) und oft sogar kontraproduktiv, wie die vergangenen österreichische Schritte in eine Privatisierung. Eine Minimalforderung für den Strommarkt ist jedoch die vertikale Integration zu überdenken und Multiproduktunternehmen, deren Struktur nicht auf economies of scope basiert, zu entflechten, d. h. eine Neuorganisation der Stadtwerke in einzelne Unternehmen (dies gilt aber auch für an- 105Dies hat sich auch in England bestätigt, wie die große Unzufriedenheit mit den Vertriebsfirmen zeigt, siehe The Economist, 13. August, 1994, S 34-35. 106Dazu vgl. Beesley (1994) und auch Abromeit (1988). 107Dies zeigte sich auch für den ersten britischen Versuch mit dem Energy Act 1983. Öffentliche Unternehmen 245 dere Branchen wie Telekommunikation und Bahn108). Denn Quersubventionen sind ein hinreichender Indikator für rent seeking durch bestimmte Gruppen (Crew-Rowley, 1988), was zu Ineffizienz (aber auch zu Unfairneß nach Faulhaber-Levinson (1981)) führt. Die inhärenten Schwierigkeiten verbunden mit der Organisation der Elektrizitätsindustrie - die Marktelemente liegen zu Beginn in der Produktion - lassen es unvermeidlich erscheinen, dass zwar Imperfektionen verbleiben aber doch bestehende Ineffizienz gemildert werden könne. Wenn auch in anderen Branchen, insbesondere im Transportsektor109 (etwa ÖBB, Busse), aber auch Telekommunikation, einer Deregulierung und einer eventuell begleitenden Reprivatisierung einfacher (und daher der unmittelbare gesellschaftliche Gewinn auch höher) sein mag als im Strommarkt, rechtfertigt dies keine Vertagung einer Reorganisation der Elektrizitätsindustrie, wegen deren zentralen Bedeutung der Elektrizitätsindustrie für die Industrie und die gesamte Volkswirtschaft. 13.2 Privatisierung der englischen und walisischen Stromerzeugung Die britische Stromerzeugng war typisch für ein europäisches Unternehmen organisiert (vgl. Klopfer (1993)): Erzeugung und Übertragung wurden zentral vom Central Electricity Generating Board betrieben, während der Vertrieb in 12 sogenannte Area Boards organisiert war. Der British Electricity Act aus dem Jahre 1989 restrukturierte die vormals zentralisierte britische Elektrizitätswirtschaft (Central Electricity Generating Board, CEBG) in vier Unternehmen: National Power, Power Gen (beide privatisiert) und Nuclear Electric (öffentliches Eigentum) produzieren Elektrizität. Da Nuclear Electric aufgrund von Subventionen den Preis unter den Grenzkosten der kalorischen Kraftwerke anbieten kann, werden die Kernkraftwerke einen Teil der Grundlast decken während alle Schwankungen durch National Power und Power Gen abgefangen werden müssen, Das heißt, Power Gen und National Power sind die marginalen Anbieter, die den Marktpreis bestimmen. Die National Grid Company, sie ist Eigentum der 12 regionalen Elektrizitätsgesellschaften, bleibt ein Monopol, das das Angebot an Strom mit der Nachfrage ausgleichen soll. Daneben existieren die regionalen Vertriebsgesellschaften weiter, wobei Konsumenten der direkte Zugang zum Netz gestattet ist. Das erste, auffallende und wichtige Charakteristikum dieser Reorganisation ist die strikte Auftrennung der vormaligen vertikalen Integration. Dies ist strikt durchgehalten: so darf zwar eine Vertriebsgesellschaft auch Lizenzen für Produktion erwerben, aber nur bei streng getrennter Gebarung. Das Kernstück der Deregulierung ist der sogenannte Poolbetrieb, d. h. die Zuteilung der Produktion mittels Ausschreibung und Auktion. Am Vortag der täglichen Bezugsperiode werden 108So verstehe ich nur schwer, warum sich das Speditionsgewerbe permanent als der große Umweltsünder prügeln läßt, anstatt zu fordern, daß es die Spedition über die Bahn in Eigenregie und Eigeninitiative betreiben kann, um damit die Kosten zu senken und die Umwelt zu entlasten. 109In der Tat ist es verwunderlich in den momentanen Klage über die Ineffizienz des Transportsektors und der Bedeutung öffentlicher Verkehrsträger, wie die offensichtlichen und dramatischen Ineffizienzen dieser öffentlichen Unternehmen hingenommen werden, im Gegenteil, diesen Unternehmen weitere Milliarden offeriert werden, ohne Auflage die Effizienz zu steigern. Öffentliche Unternehmen 246 die Angebote je Produktionsblock von den Betreibern eingeholt. Diese Angebote inkludieren (neben der Leistung) die Startkosten und die Kosten je eingesetzte MW, die ihrerseits wiederum vom Auslastungsgrad abhängen können (bis zu drei unterschiedliche inkrementelle Preise dürfen dabei spezifiziert werden. Aufgrund der Lastprognose wird dann basierend auf den Angeboten ein vorläufiger, halbstündiger Kraftwerkseinsatz bestimmt, der die erwartete Last bei minimalen Systemkosten deckt. Noch am Abend vor der Bezugsperiode werden die so errechneten, voraussichtlichen 48 Poolpreise, Systemgrenzkosten ("Schattenpreise"), veröffentlicht. Der tatsächliche Einsatz kann natürlich von diesem Plan abweichen, einerseits wegen der Berücksichtigung von Beschränkungen im Netz, andererseits wegen Abweichungen von der nachgefragten Last und dem Ausfall von einzelnen Blöcken. Unmittelbar nach der Bezugsperiode werden die Produzenten für die Lieferungen mittels dem PIP, pool input price, entschädigt. Dieser Preis setzt sich aus den Grenzkosten des Systems (System Marginal Price, SMP), basierend auf der Optimierung, und einem Kapazitätselement zusammen. Das heißt die gelieferten kWh werden, unabhängig vom eigenen Angebot, zu den Kosten der teuersten aber doch notwendigen Einheit kompensiert. Diese kurzfristige Grenzkostentariffierung wird in Bohn-Caramanis-Schweppe (1984) analysiert und vorgeschlagen. Zu diesen kurzfristigen variablen Grenzkosten kommt eine Entschädigung für die Fixkosten der Inbetriebnahme. Die zugrundeliegende Idee ist einfach: Während bei Kraftwerken die Startpreise über den gesamten 24-h Zyklus aufgeteilt werden, werden diese Startpreise bei Kraftwerken, die nur zu Spitzenlastzeiten eingesetzt werden, proportional umgelegt. Dazu kommt noch ein Kapazitätselement. Dies Kapazitätselement berücksichtigt den Fall, dass, wenn die Nachfrage das Angebot überschreitet, an sich Strom rationiert werden müsste, value of lost load, VOLL. Die Differenz, VOLL-SMP (d. h. Zahlungsbereitschaft minus Kosten), stellt den sozialen Nutzen dar, wenn nicht rationiert werden müsste. Deshalb ergibt sich dann das Kapazitätselement als: (VOLL-SMP)*LOLP, wobei LOLP (loss of load probability) die Wahrscheinlichkeit beschreibt, dass die Nachfrage nicht gedeckt werden kann; diese Wahrscheinlichkeit kann mittels gängiger statistischer Verfahren bestimmt werden. Abb. 13.3 schätzt dieses Kapazitätselement ab, wobei VOLL auf 2.285 Pfund je kWh gesetzt wurde, und LOLP vernachlässigbar ist bei genügender Reservekapazität und erst bei knapper Überschusskapazität ansteigt. Abb. 13.3 stellt diese Elemente grafisch dar. Es kommt sowohl aus dem merit order Prinzip - Einsatz der Kraftwerke aufsteigen sortiert nach Kosten (bzw. Angeboten) - als auch aus dem Kapazitätselement - der Umlegung der Startkosten auf Einsatzdauer - zu einer etwa 60 % zeitlichen Differenzierung der Poolpreise. Öffentliche Unternehmen 247 Kapazitätselem ent (Pence/kWh) Loss of Load Probability 0,05 12 0,045 10 0,04 0,035 8 0,03 6 0,025 0,02 4 0,015 0,01 2 0,005 0 0 0 2 4 6 Reserven in GW 8 10 12 0 2 4 6 8 10 12 14 16 R e se r v e n i n GW Abb. 13.3: Abschätzungen für LOLP (loss of load probability) und Kapazitätselement als Bestandteil von PIP nach Klopfer (1993, Tabelle 4). Die ökonomische Motivation dieser Auktion auf dem Pool ist die Behauptung oder Hoffnung, dass die Unternehmen sich wie Bertrand-Oligopolisten konkurrenzieren, so dass aufgrund dieser Preiskonkurrenz effiziente (für Details siehe Anhang) Tarife entsprechend den Grenzkosten resultieren. Technisch gesprochen entspricht diese Form der Ausschreibung einer Konkurrenz in Angebotsfunktionen, siehe Klemperer-Meyer (1989). Dieser Produktionsbereich der Elektrizitätswirtschaft ist nicht reguliert und daher ist auch Zutritt möglich. Da aber dieser Zutritt nicht von Heute auf Morgen stattfinden kann, ist in den Anfangsjahren der Privatisierung das Oligopol, eigentlich ein Duopol (denn die Kernenergie stellt aufgrund von Subventionierung nur Grundlast zur Verfügung ohne Einfluss auf den PIP). GreeneNewberry (1992) kritisieren nun diese Organisation als Duopol, weil hier eine Konkurrenz in Angebotsfunktionen nicht notwendigerweise in Effizienz resultiert, wie konventionelle Betrand-Argumente vermuten lassen. Dieses Argument ist kurz im Anhang I dargestellt. Die Erfahrung mit dem Poolbetrieb ist jedoch positiv, sind doch die Preise gegenüber der traditionellen, vergesellschafteten Organisation gefallen: um 37 % real bei dem niedrigsten und um 20 % beim höchsten Preis 1990, Klopfer (1993, Tabelle 1)). Dies bedeutet nicht, dass partielle oligopolistische Gewinne ausgeschlossen werden können (weil gleichzeitig die private Unternehmen die Kosten senken konnten, insbesondere durch Entlassungen von redundantem Personal, aber auch der Bezug Kohle kam billiger110), aber dass trotzdem Effizienzgewinne realisiert wurden. Ergänzt wird dieser Poolbetrieb durch Kontrakte (forward and futures), die eine Versicherung gegenüber den schwankenden Poolpreisen bieten. 110Aber auch diese Tatsache muß den privaten Eigentümern zumindest teilweise zugute gehalten werden, weil öffentliche EVUs ungleich weniger aktiv sind den Kohlebezugspreis zu senken, vgl. dazu die deutschen und österreichischen EVUs. Öffentliche Unternehmen 248 Die Übertragung und Verteilung als natürliche Monopole, und im obigen Sinne nicht anfechtbaren Monopole, sind nicht nach Wettbewerbsregeln organisiert. Der Normalfall des Grid Operators, der zentralen Verbundgesellschaft, ist es, den berechneten optimalen (unconstrained) Kraftwerkseinsatzplan zu exekutieren. Es kommt jedoch regelmäßig davon zu Abweichungen, um den Sicherheitsstandard der Übertragung zu gewährleisten. Vom Standpunkt der politischen Ökonomie und den charakeristischen Eigenschaften von Bürokratien ist diese Entmachtung der vormaligen Zentralmacht des Central Electricity Generating Board bemerkenswert. Auf der Konsumentenseite ist die gravierendste Änderung der freie Netzzutritt (mittels Erwerb einer Lizenz) ab einer Spitzenlast von 1MW. Dies Schranke wurde jedoch 1994 auf 0.1 MW reduziert und entfällt mit 1998 überhaupt. Dieser freie Zutritt von Konsumenten, soll die regionalen Verteilungsgesellschaften disziplinieren. Da jedoch dieser Markt als 'nicht perfekt anfechtbar' scheint, ist nach der Theorie potentielle Konkurrenz vermutlich ungenügend, um Verteilungsunternehmen zu disziplinieren. Tatsächlich wurde diese Marktöffnung auf der Vertriebsseite ausgiebig genützt, und die Vertriebsgesellschaften mussten starke Markteinbußen in Kauf nehmen. Dies kam allerdings vorwiegend den Großabnehmern, der Industrie, zugute, aber weniger den Haushalten; dies mag zwar kostengerecht sein, populär ist es nicht. Deshalb sind die regionalen Vertriebsgesellschaften in jüngster Zeit heftiger Kritik ausgesetzt (siehe The Economist, 13th of August, 1994, p 34-35), und werden von Stephen Littlechild, dem Erfinder der Price-cap-Regulierung und dem Regulierungsaufseher des Strommarktes, genötigt die Preise real um 2 % per annum zu senken. Überraschend dabei ist, dass auch hier keine Elemente der vergleichenden Konkurrenz einflossen und nicht einmal das ineffizienteste Unternehmen (nach The Economist, 13th of August, 1994, p 34-35 machte die Preissteigerung bei Eastern mehr als das dreifache jener von NORWEB aus). Die bisherigen Erfahrungen sind weitgehend positiv. Dabei fällt besonders auf die dramatische Steigerung der (wirtschaftlichen) Effizienz. Abb. 13.4 zeigt die Entwicklung der Arbeitsproduktivität. Während die Arbeitsproduktivität der verstaatlichten Elektrizitätsindustrie, CEGB, d. h. der gesamten Stromerzeugung und nicht nur die der Erzeuger, etwa gleich wie jene der gesamten britischen Industrie verlief, konnte die Arbeitsproduktivität seit der Privatisierung um über 50 % gegenüber dem allgemeinen Wachstum angehoben werden. Für die Erzeuger ist dies noch dramatischer: PowerGen, National Power und auch die staatliche Nuclear Electric konnten ihre Arbeitsproduktivität über den Zeitraum 1990 - 1995 um 98 %, 119 % und 117 % steigern. Dies unterstreicht den Schlupf des alten Systems. Öffentliche Unternehmen 249 Abb. 13.4 Entwicklung der Arbeitsproduktivität der englischen Elektrizitätsindustrie im Vergleich zur gesamten britischen Industrie, entnommen aus Newberry-Pollitt (1995). Auch die vorläufige Erfahrung mit dem Poolbetrieb ist jedoch positiv, sind doch die Preise gegenüber der traditionellen, vergesellschafteten Organisation gefallen: um 37 % real bei dem niedrigsten und um 20 % beim höchsten Preis 1990, Klopfer (1993, Tabelle 1)). Tabelle 2.1 zeigt die Entwicklung der Poolpreise. Dies bedeutet nicht, dass partielle oligopolistische Gewinne ausgeschlossen werden können (weil gleichzeitig die private Unternehmen die Kosten senken konnten, insbesondere durch Entlassungen von redundantem Personal, aber auch der Bezug von Kohle kam billiger), aber dass trotzdem Effizienzgewinne realisiert wurden. Ergänzt wird dieser Poolbetrieb durch Kontrakte (forward and futures), die eine Versicherung ge-genüber den schwankenden Poolpreisen bieten. Öffentliche Unternehmen 250 Eines der Hauptprobleme des Poolbetriebes betrifft die Kompensation für die Kapazität. Der Grund ist die Tatsache, dass bei nur wenigen großen Erzeugern die strategische Möglichkeit besteht, dass durch die Planung von Wartungsarbeiten, Verzögerungen bei der Reparatur (z. B. die Reparatur ist technisch bereits abgeschlossen, aber aus strategischen Gründen wird diese Einheit nicht rückgemeldet) die Kapazität strategisch verknappt werden kann. Dies erhöht die Kapazitätszahlungen über LOLP, die Wahrscheinlichkeit des Ausfalls ist eine nichtlineare Funktion der Differenz vorhandene Kapazität weniger Nachfrage. Diese strategische Manipulation wird verstärkt durch die Tatsache, dass an den 15 Spitzentagen im Jahr 50 % der gesamten Ausschüttung für Kapazität anfallen; an 11 Tagen übersteigen die Kapazitätszahlungen jene für die Arbeit. Tatsächlich bestätigt anekdotische Evidenz, dass Manipulationen vorkommen und auch jetzt verboten sind (aber zumindest ein strategisches Element für Rückmeldung einer Einheit lässt). Weiter erklärt dies die Abmeldung von alten Einheiten; so wurden 1994 - 95 8.1 GW alter Kapazität abgemeldet. Das überraschende und damit die Kritik von Newberry und Greene etwas relativierende Ergebnis war der schnelle Eintritt von Konkurrenten. Diese unabhängigen Produzenten konnten mit folgendem Paket - Gasturbinen (combined cycles gas turbines, CCGT), langfristige Verträge, Beteiligung von RECs - den Markt erobern, "So attractive was this package that within a few months contracts had been signed for 10 GW of CCGT plant, which would displace about 25 million tons of coal compared to the 1992 generation coal burn of 60 million tons", Öffentliche Unternehmen 251 Newberry (1995, S 52). Mittlerweile ist der Kontraktpreis für solche Verträge 2.65 p/kWh auf 2.4 p/kWh, also 38 g je kWh (!) gefallen. Die Übertragung und Verteilung als natürliche Monopole, und im obigen Sinne nicht anfechtbaren Monopole, sind nicht nach Wettbewerbsregeln organisiert. Der Normalfall des Grid Operators, der zentralen Verbundgesellschaft, ist es, den berechneten optimalen (unconstrained) Kraftwerkseinsatzplan zu exekutieren. Es kommt jedoch regelmäßig davon zu Abweichungen, um den Sicherheitsstandard der Übertragung zu gewährleisten. Vom Standpunkt der politischen Ökonomie und den charakeristischen Eigenschaften von Bürokratien ist diese Entmachtung der vormaligen Zentralmacht des Central Electricity Generating Board bemerkenswert. 13.3 Die kalifornische Elektrizitätskrise111 Die Krise der kalifornischen Stromerzeugung manifestierte sich in zwei in der Öffentlichkeit viel diskutierten Ereignissen: Die hohen Preise Ende 2000 (siehe Abb. 13.5) , die in der Folge die preisgeregelten Elektrizizätsversorger in den Bankrott trieb (etwa PG&E) und zu ökonomisch bedingten (weil die Stromproduzenten nichts mehr den zahlungsunfähigen Stromversorgern lieferten) Ausfällen. Technisch bedingte Ausfälle (black outs) und Abschaltungen (brown outs), ebenfalls in Skandinavien, Italien, Griechenland. Die folgende Darstellung beschränkt sich auf den ersten Aspekt der unmittelbaren ökonomischen Auswirkungen der kalifornischen Strommarktliberalisierung, weil dies oft auch als Totschlaginstrument für jede Liberalisierung verwendet wird. Die Entwicklung: 111 - 1992 beginnt die California Public Utility Commission (CPUC) mit einem Umstruktierungsplan. - 1996 wird dieser beschlossen (einstimmig!) - Bis zum Frühjahr 2000 funktioniert das liberalisierte System, bis im Herbst 2001 zur Krise kommt. - Als Folge der langen Vorlaufzeit dieser Regulierung erlosch praktisch die Investitionstätigkeit, die jedoch mit der Liberalisierung wieder aufgenommen wird. Jedoch auf Grund der langen Bauzeiten für Kraftwerke stehen diese dann in der Krise nicht zur Verfügung, während die langjährige Absenz von Investitionen zu einer Kapazitätsknappheit bei ungünstigen Umständen führte. Die folgende Darstellung basiert auf James L. Sweeney, The Califoirnia Electricity Crisis, 2002. Öffentliche Unternehmen 252 Abb. 13.5 (aus Joskow (2001)) Abb. 13.6: Anträge für neue Kraftwerke (aus Sweeney 2002). Die Motivation für das Abgehen von der traditionellen Renditenregulierung (75% der kalifornischen Stromversorgung erfolgte durch private Unternehmen, investor owned utilities) waren die relativ hohen kalifornischen Strompreise (50% über denen der anderen westlichen Bundesstaaten). Öffentliche Unternehmen 253 Die Kernpunkte der Re-organisation waren: Konkurrenz in der Erzeugung und Großhandel. Zur Erhöhung des kompetitiven Charakters werden die vormalig vertikal integrierten Elektrizitätserzeugungsunternehmen gezwungen, Kraftwerkskapazitäten abzugeben. Installierung zur Kontrolle und Steuerung einerseits eine Strombörse (Power Exchange, PX) und andererseits einen unabhängigen Systemadministrator, ISO = independent system operator). Alle Versorgungsunternehmen wurden gezwungen, Strom von diesem Markt, der als Markt für den folgenden Tag (Day Ahead ähnlich dem englischen Pool) konzipiert war, zu beziehen. Dies eröffnete den Produzenten trotz der scheinbar kompetitiven Situation einer Auktion strategisches Handeln auf Grund der Spezifika der Stromerzeugung (siehe dazu die folgenden Unterkapitel, die zwei Ansätze dazu päsentieren). Regulierung der Verbraucherpreise, wobei dieses Niveau so gedacht war, dass dadurch die stranded costs (etwas das auch wir zahlen, etwa für das Kraftwerk Freudenau), das sind die Kosten, die im vormals regulierten System in gutem Glauben und Vertrauen versenkt wurden, gedeckt werden können. Daher war die Verbraucherseite komplett (aber nur scheinbar, wie sich dann herausstellt) gegen die Unsicherheiten auf der Angebotsseite geschützt. Dies stellte sich als einer der zentralen Pferdefüße in der Krise heraus, weil dadurch auf jede Konsumentenreaktion auf Preise verzichtet wurde. Sweeney macht nun eine Verknüfung von vier Stufen, wo auf jeder eine gute eine schlechte Entscheidung möglich war, für das Desaster verantwortlich: 1. Risiko: Die Verbraucherpreisregulierung, verstärkt durch das nunmehrige Fehlen eigener Kraftwerkskapizitäten ließ die Versorgungsunternehmen alleine das ganze Marktrisiko tragen, insbesondere das der Preisschwankungen des PX. 2. Herausforderung: Die Unsicherheit des neuen Regulierungsschemas verstärkt durch die Umweltregulierungen112 eliminierte nahezu Investitionen in neue Kraftwerke. Die durch die Deregulierung ausgelösten Investitionen kamen nicht unmittelbar zum Tragen. Eine weitere Herausforderung war, dass die Nachfrage in unvorhergesehenem Maße wuchs (4% 2000/1999). Als Ergebnis resultierte Notwendigkeit ineffiziente und dadurch Gasturbinenkraftwerke anzuwerfen. Diese Situation wurde weiter verschärft durch die gleichzeitige Preiserhöhung von Erdgas, wobei Engpässe im Erdgasnetz auch die Erdgaspreise in Südkalifornien in die Höhe trieb. 112 Ironisch ist dabei, dass CISCO, ein Unternehmen dessen Geräte ohne Strom wertlos sind, das das Unternehmen benachbarte Kraftwerksprojekt Metcalf blockierten. Öffentliche Unternehmen 254 Abb. 13.7: Entwicklung der Strompreise innerhalb und außerhalb von Kalifornien (Sweeney (2002)) 3. Die Krise: Preise, die im April noch bei $30 je MW waren, stiegen bis November auf ein Niveau von bis zu $ 450! Solche Preisspitzen waren allerdings nicht auf Kalifornien beschränkt, aber diese anderen Bundesstaaten erlebten kein ähnliches Drama auf Grund eines anderen Vorgehens (siehe Abb. 13.7). Sweeney meint nun, dass dieses Problem über den Zeitpunkt der Preisspitzen hinaus (also bis ins Frühjahr 2001) lösbar gewesen wäre, wenn man (politisch) gewillt gewesen wäre, diese Preissteigerungen an die Konsumenten weiterzugeben, weil dies zu massiven Einsparungen geführt hätte (dies bestätigt sich auch im natürlichen Experiment in San Diego, weil der dortige Versorger bereits aus der Preisregelung herausgefallen war, weil alle stranded costs bereits gedeckt waren). Das Festhalten an den Verbraucherpreisen führte zur Krise. Der Versorgungskrise auf Grund der oben beschriebenen Knappheiten folgende eine finanzielle Krise: Die Zahlungsfähigkeit der großen Stromversorger Pacific Gas & Electric and Southern California Edison wurde zerstört, weil die Verbraucherpreise nicht mehr die Gestehungskosten auf dem Markt decken konnten so, dass die Stromerzeuger nicht mehr gewillt waren zu liefern und in der Tat traf dieser Ausfall an bezahlten Rechnungen dann auch zahlreiche kleinere Stromerzeuger. Hier trat die Regierung (Gouverneur Davis) in Aktion und zwar als alleiniger Ankäufer von Strom (für die Versorgungsunternehmen und um 10 Milliarden $, die dann den Unternehmen um 3 Milliarden $ verkauft wurden) auf. Juni 2001 war die Krise vorüber: die Preise fielen wieder auf unter $50 je MW. Für 2004 werden 12000 MW mehr an Kapazität erwartet. Öffentliche Unternehmen 255 4. Der Schaden: Zum Bekämpfen einer kurzfristigen Krise wählte die kalifornische Regierung langfristige Lieferverträge für Strom. Unter diesen Verträgen wurde das Doppelte des erwarteten Marktpreises vereinbart; wenn alle Kosten inkludiert sind beläuft sich dies auf ca $100 je MW bis Ende 2003 und $71/MW bis 2011. 13.4 Europa 13.4.1 France's electricity giant is being shaken up 113 THE new year could get off to a cold and dark start in France. The Communist-backed CGT union is threatening to strike at the end of January in protest at reforms planned by Electricité de France (EDF), Europe's largest electricity company. EDF, which was recently partially privatised with a sale of 15% of the company, plans to cut 6,000 jobs in France. The unions are furious at what they regard as a clumsy attempt to please the financial markets. The clash could be but a curtain-raiser if EDF's boss, Pierre Gadonneix, pushes ahead with his plan to transform the giant utility—sales last year were €46.9 billion ($58.2 billion)— into a more efficient company. EDF employees work shorter hours, enjoy longer holidays and get more special benefits than workers in any other French company. A bestselling book about how to do almost nothing at work entitled “Bonjour Paresse” (“Hello Laziness”) was written by Corinne Maier, an EDF employee. The difficulties of reforming the company are, arguably, reflected by the fact that although Ms Maier was subjected to a disciplinary hearing, she kept her job as an economic adviser on how to make EDF more efficient. Mr Gadonneix, a former boss of Gaz de France, was appointed chief executive in September 2004. His brief was to sort out the electricity firm's most urgent problems: gargantuan unfunded pension liabilities, loss-making operations in Argentina and an argument with the Italian government over market access. François Roussely, Mr Gadonneix's predecessor, did most of the negotiating with unions about last year's change of status of EDF from a public enterprise (which means the state guarantees its debts) into a limited company governed by company law. To get the unions' backing for the new status and the planned flotation—or at least to convince them not to bring the country to a standstill—EDF had to promise to leave the pension arrangements unchanged. Compared with the pension headache, the solution to the company's international troubles was almost easy: Mr Gadonneix decided to abandon the company's operations in Argentina rather than continue losing money. He also reached an agreement with the Italian government involving some reciprocal opening of markets. Having paved the way for a share offering, Mr Gadonneix says he is happy with the result, despite lukewarm interest from institutional investors and the shares' lacklustre performance. He argues that investors will eventually recognise that EDF's status as the world's biggest generator of nuclear power is a big advantage, since 95% of its electricity production is independent of the oil price. Even so, investors remain sceptical about a company with high debts and ageing nuclear reactors—where the room for manoeuvre is so restricted by the obligation to reconcile the conflicting interests of the state, unions and 113 Shock to the system, Dec 20th 2005, The Economist. Öffentliche Unternehmen 256 other shareholders. Indeed, the really tough part of Mr Gadonneix's job lies ahead. He needs to increase profits and productivity of the multinational's French operations, which employ 110,000 people in the production, transmission and distribution of energy. By some estimates EDF has twice as many workers as utilities of comparable size. In the foreseeable future, government officials will continue to dictate prices for electricity (and keep them artificially low) and unions will oppose any change to the workforce's perks. Mr Gadonneix admits that reforming his company is fraught with risk. Yet he is determined to improve its productivity and profitability. While EDF made a net profit of €1.3 billion last year, he says net profit will be at least €2.6 billion this year and should increase by at least 10% every year in the next three years. He will cut more jobs by not replacing employees who retire or leave. Mr Gadonneix has drawn up a road map, but it is not clear that he will have enough time to complete the journey. In two years he will be 65, the official retirement age. But if he makes a good start on his reforms, Mr Gadonneix may be that rare EDF employee who is persuaded to stay on, rather than take his pension. 13.4.2 Europe's power struggle, Jul 1st 2004, The Economist. “FREE Gulliver!” declared Philippe de Buck at a recent gathering of European regulators, utility bosses and others involved in energy liberalisation. The secretary-general of the Union of Industrial and Employers' Confederations of Europe urged them to “take their hands off the management of the energy business” and added, “Don't turn back the process of deregulation.” Only thus, he argued, will Gulliver be liberated from the thousands of “Lilliputian rules and restrictions that bind him”. His timing was curious, to say the least, for July 1st marked a crucial step in the emergence of the EU as the world's most liberalised large energy market. The conference that Mr de Buck addressed, in Lyon, France, celebrated the latest advance in the decade-long process of European Union (EU) energy liberalisation. The first big threshold was passed in 1999, when some large firms were allowed to choose their power suppliers. Since July 1st, two-thirds of all customers in Europe have had that right, at least on paper. By 2007, every European will. As recently as three years ago, such progress was unimaginable. France and (with more subtlety) Germany were doing all they could to put off the moment of market opening, blocking negotiations and actively boosting their domestic champions in the energy business. But Europe's energy dinosaurs lost the latest round in the liberalisation fight, beaten by political pressure from the pro-market British and Dutch, and by the tireless work for change of the European Commission. The Commission is even now demanding that the overblown giant, Electricité de France (EDF), return some €1 billion ($1.1 billion) in illegal state aid (see article) for an account of EDF's ever-expanding problems). The Commission is also opposing the British government's bail-out of British Energy, an ailing nuclear operator. Philip Lowe, who heads the Commission's competition directorate, argues that the hard work of liberalisation goes mostly unnoticed. His unit has cracked down on colluding Norwegian gas firms. It insisted that Algerian gas imports not have “destination clauses” that forbid resale; it sided with Marathon Oil, an energy company trying to enter the German market, when Germany's Thyssengas refused it access to its network; and it ordered EDF to auction capacity on its link between France and Britain to newcomers. The liberalisation process is, says Mr Lowe, “a constant grinding away at the nitty-gritty of anti-competitive behaviour”. Even executives of the industry being pushed to liberalise have some kind words for the Eurocrats. Paul Bulteel, secretary-general of Eurelectric, a trade group, says that “despite some flaws, the Commission has done a very good job ensuring that there is a coherent regulatory framework. This is much better than the patchwork that exists in the United States.” That is no idle boast. July 1st brought more than just a mandatory choice of supplier. Vertically integrated firms must now legally “unbundle” the grid from their supply business. (With luck, supply giants such as Gaz de France and Italy's ENEL will now be forced to sell off their grids so that they have no way to discriminate against new entrants.) All EU countries must now have an energy regulator; before July 1st, Germany doggedly Öffentliche Unternehmen 257 refused to establish one. That, complains Gérard Mestrallet of Suez, a French rival to EDF, meant that foreign firms had to haggle with (or sue) provincial utilities to get them to ship power to clients within Germany, which meant that in practice liberalisation in Germany fell far short of how it looked on paper. A final, related, advance is that every country must now have transparent tariffs for using the transmission system. Let there be light So why, given all this progress, did Mr de Buck strike such a cautionary note? Certainly, there is a chance, albeit small, that the reforms will even now be derailed. Perhaps the growing public backlash against blackouts will prompt political action. Last summer's blackouts from England to Italy led some politicians to call for more state intervention to ensure “security of supply”. Loyola de Palacio, the EU's Energy Commissioner, rejects that link: “The blackouts in Europe last year cannot be blamed on the market-opening process.” A more serious worry, that might lead to a rethink, is that deregulation would undermine incentives to make essential investment in new generation and transmission. Fatih Birol, chief economist at the International Energy Agency, estimates that 40% of western Europe's coal plants will need to be replaced by 2015. A lesson from America, which endured its worst blackout ever last August, is that a half-baked approach to deregulation reduces incentives to invest. But so does arbitrary state intervention, such as the imposition of price caps on wholesale markets during California's energy crisis. In contrast, Britain's more coherent regulatory approach has delivered better results. After privatisation, Britain's National Grid company invested in upgrading transmission lines at four times the rate it did before it was sold. Security of supply comes not from central planning, but from a well-regulated, open market. Another fear is that liberalisation will be sacrificed to greenery. The EU prides itself on being the world leader in tackling climate change, by promoting renewable energy and other environmentally friendly technologies. Alas, each EU member country has embraced its own, often muddled, set of energy taxes, wind subsidies, carbonreduction schemes and so on. Eurelectric complains that this has led to “an incoherent and market-distorting patchwork” that deters investment. Far better, it argues, is a market-friendly approach that builds on current plans for pan-EU carbon trading (due next year). But the biggest challenge will come from the entrenched old monopolists, who have lost some of their strength but are seeking new ways to stitch things up. In France, new power firms seeking small customers will find that many do not have sophisticated electronic meters; they must rely on load and risk profiles provided by the mighty incumbent, EDF. And EDF has used the fruits of its monopoly power in France to buy its way into more deregulated foreign markets. As Paolo Scaroni, ENEL'S boss, puts it, EDF has been “pushing forward on liberalisation abroad—but it's very reluctant at home.” There are rumours of impending “asset swaps” (via asset sales) or “energy swaps” (via long-term contracts) among national champions such as EDF, ENEL and Endesa. That would allow some foreign penetration while keeping newcomers out and so limiting the amount of competition. In Spain, a serious obstacle to competition is that the Iberian power grid is poorly connected to the rest of Europe. But “what incentive does a supposedly unbundled Spanish grid operator have to build new interconnections to France?” asks one Commission regulator. Such connections would only let in a flood of cheap nuclear electricity. Italy's regulator worries about the grip that ENI, a national oil giant, has on the gas infrastructure. So how can a stitch-up by various national incumbents be avoided? That regulators are already alarmed is a hopeful sign, although it does not satisfy Suez's Mr Mestrallet. He wants a new pan-EU energy regulator, a “super policeman”, to ensure that Europe builds the inter-connections necessary to forge its balkanised national markets into a “high voltage highway”. That sounds like a Eurocrat's dream, but Brussels is not interested. Rather, officials say that existing forums for co-ordinating regulatory efforts, as well as various bits of EU legislation, are adequate to the task. Indeed, despite the fears of Mr de Buck, it is clear that the often vilified Eurocrats are feeling unusually optimistic about Öffentliche Unternehmen 258 energy liberalisation. Says one top Commission official neck-deep in reforms: “My aim is to shut down this office on January 1st 2007. I'd like to put myself out of a job because we'll have a fully competitive energy market and there will be no need for our services.” Here's hoping. 13.4.3 Power Struggles. Political and business interests collide as Europe's energy firms consolidate114 “WE expected a wave—but what happened was a tsunami,” says Emmanuel Turpin, a utilities analyst at Morgan Stanley, an investment bank. Energy-industry insiders predicted a series of mergers and acquisitions in European utilities at the beginning of this year. But hardly anyone expected the announcement in February of two of the biggest-ever takeovers in corporate Europe: the bid for Endesa, a Spanish electricity company, by E.ON, a German power giant; and the merger of Gaz de France (GDF), a French gas firm, and Suez, another French utility. The latest takeover in the industry, announced this week, is smaller, less spectacular and not much of a surprise. Iberdrola, a Spanish electricity company, announced on November 28th its €17.2 billion ($22.5 billion) bid for Scottish Power, a British utility. Compared with the E.ON bid, now valued at €37 billion, and the €78 billion merger of Suez and GDF, the deal looks like small beer. Yet the acquisition will create one of Europe's six biggest utilities and a world leader in renewable energy. And in striking contrast to the two bigger deals, which are bogged down in legal and political quagmires, it is likely to proceed smoothly. The catalyst for the frenetic merger activity among European utilities is the run-up to full deregulation of the European Union's energy market. For more than a decade the European Commission has been trying to enable energy producers and distributors to compete freely across national borders. The final deadline of the EU's bulky legislative programme to liberalise the market is July 2007. By then member states are supposed to have implemented all EU energy directives. Ignacio Galán, the boss of Iberdrola, said this week that the fast-approaching deregulation in Europe, which will put big, cross-border firms in a stronger position, was one of the reasons for his bid for Scottish Power. But Mr Galán did not mention the more probable driver of the deal. ACS, a Spanish construction company, recently bought a 10% stake in Iberdrola with a view to merging it with Unión Fenosa, another Spanish power company in which ACS has a 40.5% stake. Mr Galán is opposed to the deal. Iberdrola is the world's leading operator of wind turbines, but Fenosa relies heavily on coal-fired plants, so a merger would sully Iberdrola's image. Investors and analysts are lukewarm about his proposed alternative, however. There is an obvious logic to buying PPM Energy, an American wind-power developer owned by Scottish Power, given that Iberdrola took over two other wind-power companies in America earlier this year. But PPM is only one-fifth of Scottish Power's business. Combining Iberdrola with Scottish Power will achieve very few cost savings as there is no other geographic overlap. And Iberdrola is taking on lots of debt to finance the pricey takeover. But at least the objections to the deal are commercial, rather than political or legal, which is more than can be said for Europe's two other big energy mergers. It is a full year since a failed bid for Scottish Power prompted Wulf Bernotat, the boss of E.ON, to plot his big coup: a takeover of Endesa, which would make E.ON one of the world's largest electricity and gas firms, with over 50m customers in more than 30 countries. Mr Bernotat's grand plan is facing strong resistance in Madrid. The Spanish government wants to keep Endesa in Spanish hands, so the country's regulator imposed no fewer than 19 conditions on the German bid (and later added some more for good measure). The deal is also entangled in a legal dispute between Endesa and Gas Natural, another Spanish power company that wants to buy Endesa. Meanwhile the merger of GDF and Suez is in serious trouble. On November 21st a judge in Paris blocked GDF from completing the deal. The judge agreed that workers' representatives, who are afraid of job cuts, needed more time to look at the terms of the deal. GDF immediately appealed, but the appeals court upheld the ruling. 114 The Economist, Nov. 30th, 2006. Öffentliche Unternehmen 259 The delay will postpone a shareholders' vote on the deal until next spring, when the campaign for the French presidency will be in full swing. Doing the deal just before the election will be tricky, but trying to do it afterwards will be even harder. Ségolène Royal, the Socialist candidate for the presidency, has vowed to renationalise GDF if she wins. And Nicolas Sarkozy, the most promising candidate of the centre-right, might well drop his half-hearted support for the merger. But insiders still reckon the two mega-mergers will go ahead. “We are confident the Spanish and French deals will eventually go through,” says José Javier Ruiz Fernández, a utilities analyst at Exane, a French broker. The political cost of the Spanish government's tactics is high, so it will probably give up its resistance to E.ON. The European Commission ruled in September that all but one of the 19 conditions imposed on the E.ON bid were illegal, and it said on November 29th that all of the regulator's new conditions were illegal too. Next year consolidation will continue, though at a less busy pace. Valuations of European utilities are now very high. Governments remain opposed to acquisitions of utilities by foreigners—except, that is, in Britain. After the takeover of Scottish Power, foreigners will own four of Britain's six big utilities. Only Centrica, a gas retailer, and Scottish and Southern, the third-biggest energy utility, will remain in domestic hands. They are tempting targets, but any suitor will need deep pockets—and confidence that the European market will indeed, despite all the political meddling, soon become truly open. 13.5 Konkurrenz in Angebotsfunktionen Das Charakteristikum des britischen Spotmarktes für Strom ist, dass die (vorläufigen) Preise, abhängig von der Nachfrage, im voraus für den nächsten Tag bestimmt werden. Mit der Hilfe eines Computerprogrammes GOAL werden die minimalen Kosten bei erwarteter Nachfrage bestimmt. Als Bestandteil dieser Lösung kann die marginale Produktionseinheit bestimmt werden, und diese Grenzkosten werden dann als Preis an alle Produzenten für die Bereitstellung von Strom in dieser halben Stunde bezahlt, d. h. eine multiunit, single-price auction. Grundlage für diesen Poolbetrieb und die darauffolgende Optimierung ist, dass die Produzenten nicht nur einen Preis offerieren, sondern eine gesamte Preisliste über alle Einheiten und ihre Kapazitätsbeschränkungen. Diese Anordnung Preis-Einheit kann zu einer (ansteigenden) Angebotsfunktion - jene Preise, notwendige sind, um die gewünschte Leistung bereitzustellen - zusammengefasst werden, siehe Abb. 13.8. Öffentliche Unternehmen 260 AS Blockgrösse MW Abb 13.8: Angebotsfunktionen Dabei stellt sich die Frage, welche Angebotsfunktion werden profitmaximierende Duopolisten dem Lastverteiler vorlegen und führt dies zu Effizienz? Die theoretische Analyse der Konkurrenz in Angebotsfunktionen findet man in Klemperer-Meyer (1989). Dieses Konzept der Konkurrenz in Preislisten ist nicht nur von theoretischer Bedeutung und für den hier betrachteten Fall sondern auch von praktischer, betreiebswirtschaftlicher Bedeutung, weil auf vielen Märkten mit solchen Preislisten anstatt mit skalaren Preisen operiert wird. Bolle (1990) und Greene-Newberry (1992) wenden diese Theorie auf das Konzept des englischen Poolbetriebes an. Dazu werden, teilweise abweichend von der Praxis, folgende vereinfachenden Annahmen gemacht. Diese Angebotsfunktion sind in der Praxis Treppenfunktionen (durch den Übergang zu verschieden Blöcken, sieh Abb. 13.8), aber aus analytischen Gründen unterstellen wir differenzierbare Angebotsfunktionen. Diese Annahme hat nur technischen Charakter und erlaubt die Anwendung der Differentialrechnung. Weiter wird davon abgesehen, dass die Produzenten Zusatzprämien erhalten, wenn die Last die Kapazität erreicht (weil dies das Problem nicht-konvex macht). Öffentliche Unternehmen 261 MW Tagesganglinie 19. Feb. 1992 10000 8000 6000 4000 2000 0 0 4 8 12 16 20 24 16 20 24 h Dauerlinie 8000 MW 7500 7000 6500 6000 0 4 8 12 h Abb 13.9: Korrespondenz zwischen Tagesganglinie und Lastgangkurven = Dauerlinie basierend auf dem 19. 2. 1992 und der Betriebsstatistik 1992. Die Nachfrage ist modelliert durch die Lastganglinie, so dass die Nachfrage monoton über dieser der Lastganglinie zugrunde liegenden Zeit ist. Diese Nachfrage ist exakt bekannt und der Anstieg der Nachfrage ist zeitunabhängig: D(p,t), Dp < 0, Dpp 0, Dpt = 0, (1) Nachfrage, wobei t die Anzahl an Stunden t beschreibt, wo die Nachfrage höher als D ist. Abb. 13.9. zeigt die Korrespondenz zwischen Tageslastverlauf und Lastganglinie basierend auf realen österreichischen Daten. Die Nettonachfrage des Oligopolisten i in der Periode t, wenn der Konkurrent j die Angebotsfunktion Sj(p) hat, ist in einem Duopol die Differenz: D(p, t) - Sj(p). (2) Öffentliche Unternehmen 262 Die Funktion C(q) beschreibt die effektiven Kosten für die Aufbringung von q und C'(q) die entsprechenden Grenzkosten, wobei möglicherweise ein Unterschied zur vorgebenen Angebotsfunktion besteht.115 Greene - Newberry (1992) studieren nicht-kooperative Nash-Gleichgewichte allerdings beschränkt auf ein symmetrisches Duopol. Wegen der täglichen Wiederholung der Auktion enstehen kaum Lernkosten, um das Gleichgewicht herauszufinden. Diese Stationarität wiederum verleitet aber zu kollusivem Verhalten, z. B. durch Anwendung des Folk-Theorems für wiederholte Spiele, so dass die Unterstellung von nichtkooperativem Nash-Verhalten eigentlich optimistisch ist. Das Spiel kann nun wie folgt charakterisiert werden: 1. Der Lastverteiler wählt zu jeder Periode t den niedrigsten Preis p(t) so dass: D(p(t), t) = Si(p(t)) + Sj(p(t)). (3) 2. Dabei wählen die beiden Duopolisten ihre Angebotsfunktion Si und Sj als Strategien: qi = Si(p): [0,) - > [0, k]. (4) Diese Strategien qi sind unabhängig von der Dauer t und beschreiben die Bereitschaft beim Preis p die Menge Si(p) zu liefern. 3. Jeder Duopolist i versucht seinen Gewinn i zu maximieren: i(p) = pqi - C(qi) = (D(p,t) - qj(p))p - C(D(p,t) - qj(p)). (5) Optimieren von (5) führt auf folgende Bedingung: di/dp = qi + (Dp - qj')p - (Dp - qj')C' = 0. (6) Daraus folgt: qj' = Dp + qi/(p - C'). (7) Aus der Annahme eines symmetrischen Nash-Gleichgewichtes, qi = qj = q folgt weiterhin folgende Differentialgleichung als Lösung dieses Spiels: q'(p) = Dp + q/(p - C'). 115Da (8) Klemperer und Meyer mit p die Gewinndifferenz, Preis weniger Grenzkosten verstehen, muß die obige Grenzkostenkurve C' durch den Ursprung gehen. Daher ist: C(q) := C*(q) - qC*'(0), wobei C* die tatsächlichen Kosten beschreibt und C(q) jene transformierten Kosten, die notwendig für die Anwendung Klemperer und Meyer sind; C'(q) = C*'(q) - C*'(0). Öffentliche Unternehmen 263 Dieser Differentialgleichung fehlt eine Randbedingung, so dass eine Familie von Lösungen existiert. Analysieren wir folgende Isoklinen dieser Differentialgleichung (8), dann erhalten wir zwei Randfälle: q' = < = > p = C', d. h. die Konkurrenzlösung! q' = 0 < = > p = C' - q/Dp, d.i. die Monopollösung! Alle Trajektorien die dazwischen liegen, stellen nun Lösungen dar; ja sogar Stückelungen aus 'inneren' und Randlösungen stellen ebenfalls potentielle Lösungen dar. Dieses Ergebnis ist in Abb. 13.10 konstruiert, wobei ergänzend die Nachfrage eingetragen ist. Eine Lösung von (8), die durch den Schnittpunkt der Grenzkostenkurve mit der Nachfragekurve (Punkt C) geht (und diese Lösung ist eindeutig nach dem Satz von Peano), ist effizient, obwohl für einige Einheiten die Duopolisten die Preise über den Grenzkosten angeben. Andererseits resultiert die reine Monopollösung (die Trajektorie die durch den Punkt M geht), auch wenn nicht jeder Block entsprechend üblichem monopolistischen Verhalten angepreist wird, sondern billiger. Eine dritte Lösung ist in Abb. 13.10 eingezeichnet, die zwischen diesen beiden Extremen liegt. Monopollösung Nachfrage M C Grenzkosten Abb 13.10: Unterschiedliche Lösungen der Differentialgleichung (8) Öffentliche Unternehmen 264 Beispiel: Konstante Grenzkosten, C’ = , und linearer, separable Nachfrage, Dp = -b. Dies liefert die lineare Differentialgleichung: q' = -b+ [1/(p - )]q (9) mit der Lösung q(p) = (p - )[K -bln(p - )], (9) competitive wobei K eine (unbestimmte) Integrationskonstante ist. Alle Konstanten K, die Lösungskurven zwischen der kompetitiven und der monopolistischen liegen, sind ein zulässiges Nashgleichgewicht. feasible solutions monopolistic Beispiel: D(p, t) = a – bp, a = 1, b = 1, C’ = = 0.1. 13.6 Strategic Elements of Electricity Supply: A Simple Game Approach This section analyzes strategic choices of different suppliers that meet at a ‘marketplace’, like the (former) British pool, the Californian power exchange, or in this analysis the Nord Pool. This mandate that trades should pass through a common marketplace has been presumably created with the intention to foster and to strengthen competition. Yet it seems so characteristic here as for the social sciences in general that this has had unintended consequences. Indeed, accounting for ‘the unintended repercussions of intentional human actions should be the main task of social sciences’, Popper (1972, p 342). In particular, this short note presents briefly a simple supply game that shows how producers feeding such a market have, under certain circumstances, an incentive to declare units unavailable for purely strategic reasons. This reduces supply and drives up the market price. The resulting simple strategic games complement the substantially more complicated arguments based on the competition in supply functions that was developed in Klemperer and Meyer (1988), Bolle (2001) and applied in Newbery and Green (1992) and Green (1996) to the British pool, and in Halseth (1998) to the Nordic electricity market. The advantage of our approach is that it allows to reduce and to classify the interactions of the market participants to the strategic situations of familiar games. Öffentliche Unternehmen 265 Figure 13.11 highlights that some price spikes have been observed in the Nordic power market during the last two years. These price spikes indicate that generators possibly have taken already advantage of this situation according to the argument in this paper. The likelihood of such strategically created spikes increases in the future, because precipitation more than compensated for the increasing demand in the Nordic countries during recent years. But what happens in a year with a shortfall of precipitation? Such a shortfall is assumed for the empirical example of the first theoretically analyzed strategic situations. 7 0 0 ,0 0 1800 6 0 0 ,0 0 price [NOK/MWh] 5 0 0 ,0 0 4 0 0 ,0 0 3 0 0 ,0 0 2 0 0 ,0 0 1 0 0 ,0 0 49 45 41 37 33 29 25 21 17 13 9 5 2000-01 49 45 41 37 33 29 25 21 17 13 9 5 1999-01 0 ,0 0 w eek m in . m a x. a v e ra g e 420 390 360 330 300 270 240 210 180 150 120 90 60 30 0 R e n e w a b le s G a s t u r b in e O il C oal N u c le a r p o w e r 401 385 369 353 337 321 289 273 257 241 225 209 193 177 161 145 129 113 97 81 65 49 33 17 305 356TW h N et c o n s u m p t io n H y d ro p o w e r 1 Production costs [NOK/MWh] Figure 13.11: Average weekly Nordpool system price and maximum and minimum hourly prices by week. Source: NORDEL (2001, p 64) E n e r g y [T W h /Y ] Figure 13.12: Total annual electricity generation (by type of power plant and corresponding production costs) and total consumption in the Nord Pool area in 2000. Source: Nordpool ASA (2001) Öffentliche Unternehmen 266 13.6.1 The Model It is supposed that aggregate electricity demand (say for tomorrow) must be met by two suppliers. The restriction to two suppliers is chosen to simplify and to highlight the strategic aspects. Although the results carry over to N suppliers, such an extension would complicate the analysis in the chosen strategic form framework and this would run counter to the major intention of this paper, namely to outline the strategic elements in a most simple form. These two identical suppliers have the same cost schedules {ci, i = 1, ... K} for their K units of supply where ci cj for all i < j. Each plant produces ‘one’ unit. Hence, the aggregate capacity of each supplier is K that must exceed half of the aggregate demand, K > ½D, in order that aggregate demand, D an even integer, can be met (a necessity for the functioning electricity networks). Figure 13.12 shows an example of such an efficient utilization of power plants in the Nordpool area scheduling total annual generation (by type of power plant) and the intersection with total consumption in 2000 In particular, this figure highlights the high dependency on hydro energy (on average, 98,9% in Norway and 53,5% for the entire Nord Pool area). In order to highlight the strategic elements we assume further that the regulator, or the auctioneer of the power exchange, knows the marginal costs ci of each of the K plants of the two suppliers and chooses the plants such that the costs for satisfying demand D are minimized. Indeed, this practice of ‘knowing’ the costs, or at least of having a reasonable guess is common in many applications to the electricity market, see e.g. the recent analysis of the Californian electricity market in Joskow and Kahn (2001). The merit order principle implies that the plant n = D/2, is the marginal plant. Firms receive a price p equal to the marginal costs, thus p = cn. This efficient scheduling leads to the profit n 0 cn n ci (1) i 1 for each of the firms; the index 0 refers to this benchmark of ‘efficient’ scheduling and full supply. Withdrawing the most costly plant n Now suppose that supplier 1 declares plant n not available. First of all note that if a supplier declares a plant unavailable for purely strategic reasons, then it must be plant n and not plant i < n, since the latter sacrifices the cost advantage of plant i. Suppose player 1 deviates from the above supply inducing the profit 0 by declaring plant n unavailable due to maintenance, break down or by just pretending such an event. As a consequence, plant (n + 1) instead of n becomes now the marginal plant determining the price, Öffentliche Unternehmen 267 p = cn+1. It is assumed that this plant (n + 1) is run half by each of the suppliers; actually it does not matter who supplies what share of this marginal unit since its operation yields zero profit anyway. This deviation induces the following profits beginning with the deviating (subscript d) player (superscript 1), n 1 d1 cn 1 ( n 1) ci , (2) i 1 while the non - deviating player (indexed 2, subscript c for complying) receives: n c2 cn 1n ci . (3) i 1 Hence the gain to player 1 from declaring unilaterally plant n unavailable is n 1 n i 1 i 1 d1 0 cn 1 (n 1) ci cn n ci cn 1 cn ( n 1) 0 , (4) while the full supplying player 2 receives the incremental gain n n i 1 i 1 c2 0 cn 1n ci cn n ci cn 1 cn n . (5) That is, declaring one of the (two) marginal plants unavailable both suppliers benefit albeit the one still supplying reaps the larger gain. Finally suppose that both suppliers withdraw their nth plant. This leads to the incremental profit (no differentiation between the suppliers is necessary) d 0 cn 1 cn ( n 1) 0 (6) for both players. These different payoffs are summarized in Table 1 yielding a game in normal form where the strategies are to declare the marginal plant n available or not. Indeed, the game is a version of the familiar game of chicken. Proposition 1 summarizes the corresponding Nash equilibria. Table 1: Payoffs, incremental profits due to declaring the marginal plant n available or not, c := (cn+1 – cn). i=2 Available Available 0, 0 Not available nc, (n - 1)c Not available (n - 1)c, nc (n - 1)c, (n - 1)c i=1 Öffentliche Unternehmen 268 Proposition 1: The game in Table 1 has three equilibria: two asymmetric equilibria in pure strategies 1 = available, 2 = not available, 1 = not available, 2 = available, and a third equilibrium in mixed strategies (probabilities) available = 1/n, not available = (n – 1)/n. The probabilities of the mixed strategies equilibrium follow from the well known payoff equating method, i.e., the indifference between playing any of the pure strategies if the opponent applies a randomized strategy making the plant available with probability a and not available with probability (1 – a). Then c = (1 – a)nc = d = a(n – 1)c + (1 – a)(n – 1)c, where the subscripts c and d refer to complying (i.e. supplying) and deviating (i.e. declaring the plant for unavailable) respectively as above. The cost differential c cancels such that the crucial probability depends only on n yielding the claimed result. As an example, consider the Nord Pool and the two players: 1. Consortium of Vattenfall, Statkraft, Sydkraft, Fortum and Elsam&Elkraft that have around 46,5% of hydro, 70,5% of nuclear and 48,7% of thermal generation. 2. All other generators in Scandinavia who own consequently around 53,5% of hydro - , 29,5% of nuclear - and 51,3% of thermal - power (according to Fleten - Lie (2001, p 10)). Plant size is 500 MW so that the marginal plant for the so far observed peak (January 2000) of 60.1 MW is n = 61, a coal fired power plant, see Fig. 13.13 The following scenario considers a winter day (e.g. in January 2003, 2004, ...) and assumes that the corresponding water reservoir availability is only 60% of the maximum in this period of time (see Fig. A1 in the Appendix). The corresponding supply curve for the Nord Pool area is shown in Fig. 13.13; the construction of this supply curve and of the calculations of the following payoffs are documented in detail in the Appendix. Fig. 13.13 highlights that the price increase due to withdrawing a plant is only significant if this requires that a more costly plant becomes necessary instead. Indeed, the following calculations – simplified by neglecting cost variations within a power plant type, e.g. all hydro power plants have the same costs, see Fig. 13.13 – underpin arguments above. This necessity to turn on another plant type happens for a winter peak between 61.5 and 62 MW and when 60% of the hydro capacity is available only. Then withdrawing the so far marginal coal power plant requires its replacement by a more costly oil fired plant. The cost differences lead to the payoffs corresponding to the above ‘chicken’ game that are tabulated in Table 2. Hence, the suppliers have a strong incentive to withdraw a plant due to the equilibria characterized in Proposition 1, since the potential gains are quite substantial. Öffentliche Unternehmen 269 Production Costs [NOK/MWh] 4 5 0 .0 0 4 0 0 .0 0 3 5 0 .0 0 3 0 0 .0 0 W in te r o ff p e a k 0 3 .0 0 h o u r: 4 6 ,2 G W h /h 2 5 0 .0 0 2 0 0 .0 0 M a x. s ys te m lo a d 3 rd W e d n e s d a y in J a n 2 0 0 0 1 7 .0 0 h o u rs -1 8 .0 0 h o u rs : 6 0 ,1 G W h /h 1 5 0 .0 0 1 0 0 .0 0 5 0 .0 0 69 65 61 57 53 49 45 41 37 33 29 25 21 17 13 9 5 1 0 .0 0 C a p a c ity [G W ] Figure 13.13: Supply curve, Nord Pool, Winter 2000, 60% water reservoirs availability A similar situation can arise during a summer peak, see Table 3; cancellation of the marginal hydro power plant requires drawing on combined heat and power from industry. However, the gain is only a fraction (less than 10%) of the possible gain during a winter peak. Hence, considering the risk of getting caught by the regulator suggests that this kind of gaming is much more likely to happen during winter. Indeed the already observed spikes shown in Figure 13.11 seem to confirm this. i=2 Available Not available 0,0 325500, 3202500 3202500, 325500 3202500, 3202500 Available i=1 Not available Table 2: Gains (NOK per hour) from withdrawing the marginal plant n = 61 (coal fired) during a winter peak when only 60% of the hydro capacity is available (game of chicken). i=2 Chicken Game available Available Not available 0,0 320000, 312000 312000, 320000 312000, 312000 i=1 not available Table 3: Gains (NOK per hour) from withdrawing the marginal plant (hydro) during a summer peak when 85% of the hydro capacity is available only (game of chicken). Declaring plant j < n as not available Öffentliche Unternehmen 270 The suppliers cannot claim credibly that always just the marginal plant n is not available, but most rotate among the different plants arguing with reference to maintenance and other plausible justifications like occasional failures of certain units. In this case, the cost sacrifice is larger so that declaring plant j < n unilaterally (hence, the plant index j is now identified) as not available yields the incremental profit dj1 01 cn 1 cn n cn 1 c j . (8) This difference is still positive for a sufficiently large n, even for large differentials in costs, but not necessarily for n small. Therefore, a low demand, which is equivalent to n small, reduces the incentives to declare rather efficient plants unavailable. In fact, it can harm the suppliers. The corresponding payoff for the supplying player (2) is: cj2 02 cn 1 cn n . (9) If the second player withdraws plant j too, then the gain to the players 1 is as above, dj 0 cn 1 cn n cn 1 c j . (10) And by symmetry, the same payoffs result for player 2 contingent on player 1’s strategy. This results in the following modified game shown in Table 4 and the implications are summarized in Propositions 2 and 3. Table 4: Payoffs for declaring plant j < n not available, cj = (cn + 1 – cj) i=2 available available 0, 0 not available nc, nc - cj not available nc - cj, nc nc - cj, nc - cj i=1 Proposition 2: If nc - cj < 0, i.e. demand is low (n small) and the cost differential cj is sufficiently large, then the dominant strategy in the game in Table 2 is to declare every unit as available. As a consequence, the Nash equilibrium is efficient (with respect to the players’ payoffs as well as socially). Proposition 3: If nc - cj > 0, then Table 4 implies a ‘game of chicken’ with the already familiar asymmetric pure strategies (1 = available, 2 = not available, 1 = not available, 2 = available) and again an equilibrium in mixed strategies but with different weights: Öffentliche Unternehmen 271 available = a = cj/[cj + (n – 1)c], not available = 1 – a. As a consequence, the probability a that the plant j is available increases with respect to the cost difference, cj = (cn+1 – cj). That is, in the case of sufficiently high demand, even withdrawing a rather cost efficient plant results again in a game of chicken with the already familiar asymmetric pure strategies and again an additional equilibrium in mixed strategies. However, the weights of the mixed strategies differ yet can be again obtained by the payoff equation method (the subscripts c and d have the same meaning as above in (7)): c = (1 – a)nc = d = a(n – 1)c + (1 – a)[nc - cj]. (11) Elementary simplification yields the claim. Although a corresponding situation can be obtained for the calibrated Nordpool examples, it is omitted here after showing already payoff matrices corresponding to a chicken game. An example corresponding to Proposition 2 is shown in Table 5: winter, off - peak demand and withdrawing a nuclear power plant (again, the details are documented in the Appendix). In this case, no strategic withdrawal is the dominant strategy of both players. i=2 Available Available Not available 0,0 0, - 15000 - 15000, 0 - 15000, - 15000 i=1 Not available Table 5: Gains (NOK per hour) from withdrawing an intermediate plant (nuclear power, 32 < j < 44, see Appendix) winter, off peak. 13.6.2 Concluding Remarks This paper considered the strategic decisions of electricity generators to withdraw plants supposed to supply a common exchange. Analyzing these decisions, a game of chicken results if demand is large and the cost difference between the marginal and the cancelled plant is small. This game has two asymmetric equilibria in pure strategies – one withdraws a plant, the other not – and a symmetric equilibrium in mixed strategies where retracting a plant attracts the lion share (in particular if the supply of the marginal plant can be cancelled). Otherwise – low demand, high cost differences (i.e. withdrawing a cost - efficient plant, which is necessary to disguise this price - rigging strategy) - the strategic interactions result in a game with full supply being the dominant strategy. The corresponding equilibrium is Pareto - efficient for the players and socially efficient since electricity is produced at minimal cost. Looking at specifics of the Nord Pool, both situations can be found, with substantial gains from withdrawing marginal units during winter peaks in particular if water reservoir availability is low (due to a dry year). Öffentliche Unternehmen 272 This theoretical analysis can explain the recent spikes, those that are shown in Fig.13.11 for the in the Nord Pool that are were observed in other spot markets (e.g. in Germany, December 2001, Leipzig power exchange (2002)) too. This analysis suggests in addition the following, at least in principle, empirically testable hypotheses: 1. Declaring a marginal (or a relatively expensive) plant unavailable is much more profitable than very cost - efficient plants. Hence (observed claims of) ‘maintenance’ should be biased towards the expensive plants, everything else equal. 2. ‘Less’ last minute withdrawals (or possibly even less maintenance) during off peak periods. 3. The incentive to withdraw is only large if its consequence is to replace it with a more costly type. This leads again to an at least in principle testable pattern of withdrawals. However, these and related tests require a detail of data that was not available to us. Moreover, such detail is also far beyond the intention of this paper of providing a simple explanation of the strategic situation in electricity markets. Therefore, this is left for future research and these tests might be also helpful for regulators in order to detect strategic actions by suppliers. 13.6.3 Annex: Application to the Nord Pool The supply curves are constructed from the capacity in the Nord Pool area reported in Table A1. The monthly water reservoir availability (i.e. generation from hydro power) is shown in Fig. A1, the planned outages of nuclear plants in Fig. A2; standardized plant size is 500 MW. Furthermore the costs do not vary within a power plant type, e.g. all hydro power plants have the same marginal costs. As a consequence the withdrawal of marginal plants is only effective in the sense of raising the price if another power plant type is necessary to meet demand. Installed capacity, total Hydro Nuclear Power Thermal Power CHP district heating Condensing Power CHP industry Gas Turbines Other Renewable Wind Power Geothermal Power Denmark 11.940,00 11,00 0,00 9.548,00 7.815,00 958,00 487,00 288,00 2.381,00 2.381,00 0,00 Finland 16.576,00 2.938,00 2.640,00 10.960,00 3.692,00 3.912,00 2.478,00 878,00 38,00 38,00 0,00 Norway 27.781,00 27.463,00 0,00 305,00 12,00 73,00 185,00 35,00 13,00 13,00 0,00 Sweden 30.894,00 16.229,00 9.439,00 4.985,00 2.264,00 448,00 932,00 1.341,00 241,00 241,00 0,00 Total 87.191,00 46.641,00 12.079,00 25.798,00 13.783,00 5.391,00 4.082,00 2.542,00 2.673,00 2.673,00 0 Table A1: Installed capacity by power plant type on 31. Dec. 2000, NORDEL (2001, p 47) Öffentliche Unternehmen 273 100 Water reservoirs [%] 90 80 70 60 50 40 30 20 10 0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 1.10 1.11 1.12 31.12 Time period Finland Norway Sweden Average 47 35 41 23 29 11 17 51 5 39 45 27 33 15 21 9 3 49 37 43 31 19 25 13 20 02 -1 7 Figure A1: Water reservoirs availability in 2000, NORDEL (2001, p 57) 0 -5 0 0 -1 0 0 0 [GWh/h] -1 5 0 0 -2 0 0 0 -2 5 0 0 -3 0 0 0 -3 5 0 0 -4 0 0 0 w eek Figure A2: Planned outages of nuclear plants up to 2004, NORDEL (2001) In order to determine the seasonal variations of hydro power supply as a part of the total supply curve, it is necessary to link the water reservoirs availability and corresponding hydro power capacity. In detail, the capacity P of a hydro power station can be calculated with following equation: P = g(dm/dt)h [W] in which P...........capacity of hydro power station, …....... efficiency of the total energy conversion [1], g…....... gravity constant [m/s2], dm/dt….mass flow rate [kg/s], h...........difference between upper and lower water reservoir level [m]. (1), Öffentliche Unternehmen 274 The basic assumption is, that the water reservoir availability equals the capacity of the hydro plant. Hydro plants with significant dependence on water reservoir availability are especially storage power plants where the relative difference between the upper and lower water reservoir level (h) is low and, subsequently, a decrease in h in the reservoir due to less water availability is negligible. Of course, it is possible to increase the mass flow rate but this implies that the reservoir is faster depleted. Therefore it is assumed that the mass flow rate (dm/dt) is proportional to the water reservoir availability. This combined with the equation above yields that the water reservoir availability determines the capacity of hydro power plants. Assuming that only 60% of the hydro power plant capacity is available on a single winter day (according to Fig. A1), the corresponding supply curve is constructed in Table A2 (see also Fig. 13.13) Table A3 is the analogue for a typical summer day. System Load [GWh/h] Hydro CHP Industry Nuclear CHP district heating Coal Oil Gas Renewables 0 - 28 28 - 32 32 - 44 44 - 58 58 - 62 62 - 64 64 - 67 67 - Costs [NOK/MWh] 30,00 46,00 60,00 90,00 125,00 230,00 300,00 400,00 Table A2: Supply curve, winter 2000, assuming 60% of water reservoirs availability (see Figure A1) Because of the planned outages of the nuclear power plants (see Figure A2) in the summer month it is assumed that all nuclear units are online. This leads to the modified winter supply curve without gaming in Table A2. System Load [GWh/h] Hydro CHP Industry Nuclear CHP district heating Coal Oil Gas Renewables 0 - 40 40 - 44 44 - 52 52 - 66 66 - 70 70 - 72 72 - 75 75 - Costs [NOK/MWh] 30,00 46,00 60,00 90,00 125,00 230,00 300,00 400,00 Table A3: Supply curve, summer 2000, assuming 85% availability of water reservoir (see Figure A1) Öffentliche Unternehmen 275 According to water reservoir availability in July 2000 it is assumed that 85% of the hydro power plant capacity is available on a single day. Because of scheduled outages of nuclear power plants 4GW will be offline (see Figure A2). Winter peak, withdrawing marginal plant n The so far observed winter peak demand of 60,1GWh/h falls into a domain where reducing supply by one unit (i.e. 500 MW) does not affect the market price due to the simplifying assumption of no cost variation within a power plant type (see e.g. Figure 13.12 and Table A2). However if this peak grows such that 61,5GW < demand <62GW, then the corresponding marginal unit is n = 62. Withdrawing this plant requires to use now an oil fired plant so that the cost differences according to Table A2 are: c = cn + 1 - cn = 230NOK/MWh - 125NOK/MWh = 105NOK/MWh. (2) As a consequence, the gain of the fully supplying player is c 0 (cn 1 cn )n 6510 NOK/MWh , (3) while the player withdrawing the otherwise marginal (coal fired) plan realizes the incremental gain: d 0 (n 1)c 6405 NOK/MWh (4) The total gain must be multiplied by 500, due to the chosen unit of 500 MW plants, and the number of hours where this strategy is applied; this holds for all the following calculations too. Winter off peak, declaring plant j < n not available Similarly, we consider now analogously a demand level that is typical for winter day but off peak demand = 46.6 GW so that the marginal plant is n = 47. However, the suppliers cannot withdraw this marginal plant since that raises the suspicion of the regulators. Hence, if then they must pull out a rather efficient plant, say a nuclear unit: 32 < j < 44. Öffentliche Unternehmen 276 The corresponding cost differences are c = cn + 1 - cn = (90 NOK/MWh – 90 NOK/MWh) = 0 NOK/MWh, (5) since the marginal plant does not change, and cj = cn - cj = (90 NOK/MWh – 60 NOK/MWh) = 30 NOK/MWh. (6) Calculating the corresponding incremental gains yields for withdrawing the plant j: cj 0 nc 0 NOK/MWh , (7) dj 0 nc c j 30 NOK/MWh , (8) so that the game in Table 4 results. Summer peak, declaring a marginal plant not available A demand between 35GW and 40GW (see also Table A3) can be expected between 09.00 and 20.00 in July. We assume demand = 39,6GW, so that n = 40 is the marginal plant and this is a hydro power plant. Yet its withdrawal demands a replacement by industrial CHP. The corresponding cost difference c = cn + 1 - cn = 46 NOK/MWh – 30 NOK/MWh = 16 NOK/MWh, (9) leads to the following payoffs for (skipping now the already sufficiently documented detail) for or for not withdrawing this marginal plant: c 0 ( cn 1 cn )n 640 NOK/MWh , (10) d 0 (n 1)c 624 NOK/MWh , (11) so that the chicken game of Table 3 results. Öffentliche Unternehmen 277 13.6.4 References Bolle Friedel, Competition with supply and demand functions, Energy Economics 23, 253 – 227, 2001. Fleten S.-E. and T. T. Lie, “Market Power in the Nordic Electricity market – the Effect of hydro and Contracts”, Department of Industrial Economics and Technology Management, Norwegian University of Science and Technology, Trondheim, 2001. Green Richard J. and David M. Newbery, Competition in the British Electricity Spot Market, Journal of Political Economy 100, 992 - 953, 1992. Green Richard J., Increasing Competition in the British Electricity, Journal of Industrial Economics 2, 205 - 216, 1996. Halseth Arve, Market power in the Nordic electricity market, Utilities Policy 7, 259 - 268, 1998. Joskow Paul and Edward Kahn, Identifying the Exercise of Market Power. Refining the Estimates, mimeo, 2001. Klemperer Paul D. and Margaret A. Meyer, Supply Function Equilibria in Oligopoly under Uncertainty, Econometrica 57, 1243 - 1277, 1989. Leipzig Power Exchange, http://www.lpx.de, 2002. Newbery David M., Problems of liberalising the electricity industry, European Economic Review 46, 919 - 927, 2002. NORDEL, Energy and Power Balances for the three - year period 2002 - 2004, NORDEL Balance Group,12. September 2001. Source: http://www.nordel.org NORDEL, Annual Report, http://www.nordel.org/ - Annual Report, Page 46 - 65 Nord Pool ASA, “The Nordic Power Market Electricity Power Exchange across National Borders”, 15. September 2001 Popper Karl R., Conjectures and Refutations, 4th revised edition (paperback), Routledge and Kegan Paul, London, 1972. Öffentliche Unternehmen 278 14 Liberalisierung des österreichischen Elektrizitätsmarktes 14.1 Einleitung Der Beginn der EU - weiten Öffnung der Energiemärkte wurde durch die am 19.2.1997 in Kraft getretene Elektrizitätsbinnenmarktrichtlinie 96/92/EG (ElRL) eingeläutet. Die Öffnung und die damit erhoffte Bereitstellung von billiger Elektrizität – der wichtigsten Energiequelle in der EU – sollte sowohl die internationale Wettbewerbsfähigkeit der europäischen Industrie als auch den Wohlstand der Masse der nichtindustriellen Kunden heben. Die Mitgliedsstaaten hatten binnen einer Frist von zwei Jahren ein nationales Gesetz im Sinne der Richtlinie als Rahmenbedingung für die Liberalisierung zu erlassen. Sah das erste österreichische Gesetz noch eine stufenweise Marktöffnung im Sinne der ElRL vor, entschied sich der österreichische Gesetzgeber zwei Jahre später von den Mindestanforderungen der ElBR abzuweichen und den Strommarkt für alle Konsumentengruppen mit Stichtag 1.10.2001 zu öffnen. Früher als Österreich hat in der EU nur Finnland (1997), England (1998), Schweden (1998) und Deutschland (1999) eine 100% Marktöffnung vorgenommen. Die anderen Mitgliedsländer planen diesen Schritt erst (EU - Kom. 2001a). In diesem Aufsatz versuchen wir eine erste Bestandsaufnahme des liberalisierten österreichischen Strommarktes, der sich daraus resultierenden industriellen Organisation und der beobachtbaren Formen der Konkurrenz. Zu diesem Zweck wird zuerst der Status der alten Elektrizitätswirtschaft und dann dazu im Vergleich die Veränderungen beschrieben. Die Analyse konzentriert sich auf den per 1.10.2001 geöffneten Markt für Endabnehmer (Haushalte und Gewerbe) unter Ausklammerung der Großindustrie, die schon seit Februar 1999 ihre Versorger frei wählen kann. 14.2 Die vergesellschaftete österreichische Elektrizitätswirtschaft 14.2.1 Historisch und rechtliche Entwicklung nach dem 2. Weltkrieg. Nach dem zweiten Weltkrieg benötigte die zerrüttete österreichische Wirtschaft zum Wiederaufbau finanzielle Mittel, die nach damaliger weitverbreiteter Ansicht nicht von privater inländischer Seite aufzutreiben waren. Neben die ideologischen Gründe für den staatlichen Einfluss auf die Wirtschaft traten auch realpolitische, da somit wesentliche Wirtschaftsbetriebe dem Einfluss der Besatzungsmächte entzogen werden sollten (Bachinger et.al, 1989; Sandgruber, 1995). Für die Elektrizitätswirtschaft wurde eine Verstaatlichung unter Beteiligung von Bund, Ländern und Gemeinden beschlossen. Das 2.Verstaatlichungsgesetz (VerstG) im März 1947 übertrug die Elektrizitätsunternehmen ab einer bestimmten Größe ins Staatseigentum. Gemeinsam mit dem Elektrizitätswirtschaftsgesetz wurde dadurch die Struktur der Elektrizitätswirtschaft in die mehrheitlich im Bundeseigentum befindliche Verbundgesellschaft, in neun Landesgesellschaften und fünf Stadtwerken mit (a) ausschließlichen Versorgungskonzessionen, (b) ausschließlichen Versorgungsgebieten und (c) ausschließlichen Anschluss und Versorgungspflichten festgelegt. Öffentliche Unternehmen 279 14.2.2 Die wirtschaftlichen Auswirkungen Als charakteristische Momentaufnahme des noch vollkommen geschützten monopolistischen, wenn auch formal nur mehr teilweise verstaatlichten, Elektrizitätsmarktes wird das Jahr 1995 gewählt. Im folgenden sollen einige charakteristische Punkte dargestellt werden. 14.2.2.1 Preisdifferenzierungen Insbesondere bei den Endabnehmern nahmen die Elektrizitätsunternehmen kaum saisonale oder Tag/Nacht Differenzierungen der Strompreise vor. Und dies obwohl ein Großteil der normativen Theorie der Preisdifferenzierung extra für die öffentlichen Unternehmen entwickelt wurde. Die einzige Differenzierung auf der Kundenseite betraf den Nachtstrom, dessen Verwendung allerdings auf Heizung und Warmwasser und dabei oft zusätzlich noch auf einen Kundenstock (z.B. auf Kunden ohne andere Bezugsmöglichkeiten – Erdgas oder Fernwärme vom Monopolisten) eingeschränkt war. Vor diesem Hintergrund keiner zeitlichen Differenzierung der Tarife ist das Fehlen von sonstigen Differenzierungen und insbesondere das Fehlen von nichtlinearen Tarifen wenig überraschend. Die einzige Ausnahme stellte der Wiener Tarif dar, der jedoch wiederum, bar jeglicher ökonomischen Logik, Kunden mit hohem Bezug bestrafte. Abb. 14.1 zeigt die Absurdität dieses Tarifes auf. Die mangelnde Anreizkompatibilität gibt großen Haushalten, die Benachteiligten dieses Tarifs, einen Anreiz, sich in kleinere Einheiten aufzuteilen, wodurch Einsparungen ermöglicht werden, die um ein vielfaches über den aus einer Liberalisierung erzielbaren liegen. Preis 6000 2 ÖS/a ÖS je k Wh Einsparungen 8000 2.5 1.5 4000 1 2000 0.5 0 0 0 5000 10000 15000 k Wh /a 0 5000 10000 15000 20000 kWh/a Abb. 14.1: Preise beim Wiener Haushaltstarif und Einsparungen an jährlichen Ausgaben durch eine fiktive Aufteilung eines Haushalts und damit Unterlaufung des „progressiven“ Tarifs (ohne Berücksichtigung der Investitions - und der laufenden Messkosten). 14.2.2.2 Benachteiligung des Gewerbes Die Tarife für Leistung (kW) führten im Gewerbe oft zu absurden impliziten Durchschnittspreisen für eine kWh. Einige Branchen, wie zum Beispiel Tischler, waren mit Preisen bis über 73 Cent/kWh konfrontiert, da das Leistungsentgelt durch Addition der Leistung aller vorhandenen Geräte, die aber nie parallel laufen, berechnet wurde. Diese Preise sind natürlich nicht durch Kosten zu erklären, sondern bestätigen die Public Choice These (vgl. Mueller (1989)), dass nur politisch gut vertretene Gruppen von einer politischen Gestaltung der Tarife profitieren. Öffentliche Unternehmen 280 14.2.2.3 Mangelnde überregionale Koordination Die Struktur der Landesgesellschaften verbunden mit dem Mangel an institutionalisierten Handelsregeln – kein Stromhandel, nur gelegentliches informelles Abtauschen von Überschüssen – führte in der Praxis zu einem sub - optimalen Kraftwerkseinsatz, d.h. die Grenzkosten der Produktion in den unterschiedlichen Landesgesellschaften wurden nicht ausgeglichen. Im Detail ersichtlich wird dies beispielsweise an der Bewirtschaftung der Speicherkraftwerke (Wirl, 1988). Kalorische Kraftwerke Leistung E - On Bayern* 615,63 MW Dürnrohr (Verbund/EVN) 405 MW Voitsberg (KELAG**) 330 MW Neudorf (STEWEAG**) 285 MW Mellach (STEWEAG**) 246 MW Riedersbach (EnergieAG) 231 MW Timelbach (EnergieAG) 178 MW Zeltweg (KELAG**) 137 MW St.Andrä (KELAG**) 124 MW Pernegg (STEWEAG**) 100 MW * Durchschnittswert der 8 E - On Bayern Kraftwerke ** Kraftwerke wurden an den Verbund übertragen Tab.1: Kalorische Kraftwerke in Bayern und Österreich Die regionale Ausrichtung findet sich nicht nur im Kraftwerkseinsatz, sondern bereits in deren Dimensionierung, wo auf potentielle Skalenerträge wegen der kleinen Märkte verzichtet wurde. Tab.1 zeigt die Leistung österreichischer kalorischer Kraftwerke, die im Vergleich zu denen der E - On Bayern gering ausfallen (selbst Dürnrohr!). Die Vermutung der Ineffizienz dieser Größenwahl in Österreich wird einerseits durch die Tatsache bestätigt, dass die gewählte Größe nicht den bei Baubeginn geltenden technischen Vorstellungen über die optimale Kraftwerksgröße entsprochen haben – im Zeitraum der Errichtung von Riedersbach in den 70ern und 80ern lag die optimale Größe von kalorischen Kraftwerken bei ungefähr 600 - 800 MW (Künneke, 1999) – und andererseits E - On Bayern zwei kalorische Kraftwerke mit einer Nettoleistung von ungefähr je 400 MW aus Gründen der Unwirtschaftlichkeit stilllegt. In der Tat ist es eine Ironie, dass das ökonomische Hauptargument für eine vergesellschaftete Elektrizitätswirtschaft, nämlich technisch bedingte Skalenerträge und daher ein natürliches Monopol, von der existierenden verstaatlichten Industrie nicht ausgenützt wurde. In anderen Worten, die Österreicher akzeptierten die Nachteile einer solchen Ordnung, ohne dass die eigentlichen Vorteile einer solchen Organisationsform – wie etwa in Frankreich – genützt wurden. Öffentliche Unternehmen 281 14.2.2.4 Durchschnittserlöse, Kosten und Vergleiche Ein Rätsel von Unternehmen im öffentlichen Besitz stellt an sich die Ignoranz von Information dar. Das heißt nicht nur, dass eine solche Organisationsform nie die Information von Märkten bereitstellen kann, da Grenzkosten im Markt auszufechten und nicht das Ergebnis eines LP - Programmes oder eines Planers sind, sondern dass auch vorhandene Information häufig gar nicht verwendet wird. Im Falle der Elektrizitätswirtschaft war aus der regionalen Struktur der Versorgungsunternehmen ein Vergleich der Effizienz auf der Basis der unterschiedlichen Stromkosten immer möglich. Diese Kosten ergeben sich zwangsläufig aus dem Erlös, da die Unternehmen keinen Gewinn abwerfen durften. Diese Durchschnittserlöse der Landesgesellschaften weisen starke Unterschiede – die Streuung beträgt 1,31 Cent – auf, die jedoch durch Kosten verursachende Faktoren schwer erklärbar sind. Berücksichtigt man nämlich die bekannte Tatsache großer Kostendegression über die Netzdichte116, ist es unerklärlich, wenn nicht sogar ungeheuerlich, welche Strompreise den Bewohnern in den Städten verrechnet wurde. So verlangte entsprechend der Abb. 14. 2 die TIWAG, die mit Tirol ein denkbar kostenungünstig zu versorgendes Land sowohl wegen der mangelnden Abnahmedichte als auch der alpinen Topographie hat, um etwa 50% weniger als die Stadtwerke von Wien, Salzburg und Graz. Diese Kostendifferenz wurde gänzlich ignoriert. Diese Ignoranz im öffentlichen Sektor ist leider nicht auf die Elektrizitätsversorgung beschränkt. Selbst wenn man die wohlwollende These vertritt, dass in manchen öffentlichen Bereichen direkte Konkurrenz nicht zuzulassen sei, ist es unzulässig (für Spitalspatienten sogar lebensbedrohend) wie an sich vergleichbare Daten bewusst ignoriert werden. 116 Eine in diesem Zusammenhang interessante Untersuchung ist Kumbhakar – Hjalmarsson (1998). Diese Studie vergleicht die Effizienz schwedischer Elektrizitätsvertriebsunternehmen (retail electricity distribution), wobei Netzeigenschaften berücksichtigt werden. Dabei werden zwei unterschiedliche Verfahren - statistischökonometrisch und die Data Envelopment Analyse (oft kurz DEA genannt), ein Verfahren, das es ermöglicht parameterfrei die unterschiedliche, relative Effizienz von Unternehmen aus gegebenen Input- und Outputdaten zu vergleichen - eingesetzt. Die empirischen Ergebnisse kurz zusammengefasst sind: wachsende Skalenerträge, insbesondere bei den Stadtwerken, relativ homogener aber sich verlangsamender technischer Fortschritt (oder Effizienzsteigerungen) von vormals 2-3% per annum auf 1-2%, wobei die Stadtwerke eher unten rangieren. In allen Modellen, die die Autoren getestet haben, sind im Durchschnitt die privaten Unternehmen die effizientesten und die Stadtwerke am ineffizientesten. Diese Unterschiede könnten dazu verwendet werden, um mittels Regulierung auf der Basis vergleichender Konkurrenz, der sogenannten yardstick competition (Shleifer, 1985), die Effizienz zu steigern. Allerdings führt dieser Ansatz zu geringen Anreizen der Kostenminimierung, weil insbesondere die großen Stadtwerke die Skalenerträge verbunden mit der sehr hohen Abnahmedichte haben. Öffentliche Unternehmen 282 1,600 Bewag Kelag L.A. Verk. SAFE EVN Brixen OKA OBAG Bruneck Etschw. STEWEAGVKW 1,400 Erlös je kWh Salzburg 1,200 Wienstrom ENEL TIWAG 1,000 0,800 0,600 200 1200 2200 3200 4200 Energieabgabe (MWh) je km2 Outlier, Grazer Stw. (22600 MWh, ÖS 1.50) ekludiert Abb. 14.2: Kosten je gelieferte kWh approximiert durch den Durchschnittserlös versus Abgabedichte basierend auf Dorfmann (1995). 14.3 Der liberalisierte österreichische Elektrizitätsmarkt 14.3.1 Der Weg zur Liberalisierung Der durch die ElRL vorgeschriebenen Verpflichtung zur Liberalisierung des Elektrizitätsmarktes kam Österreich durch die Erlassung des Elektrizitätswirtschafts - und organisationsgesetzes (ELWOG1) im Juli 1998 nach. Dieses sah eine stufenweise Marktöffnung vor. Weiters wurde das VerstG durch das „BVG mit dem die Eigentumsverhältnisse an den Unternehmen der österreichischen Elektrizitätswirtschaft geregelt werden“ (BGEigentumsverhältnisse) ersetzt. Wesentliche Änderungen ergaben sich dadurch nicht, da dieses weiterhin den 51%igen Aktienanteil öffentlicher Gebietskörperschaften an den Elektrizitätsunternehmen vorschreibt. Das „Antiprivatisierungsgesetz“ stellt den zukünftigen Einfluss der öffentlichen Hand und somit der Politik auf die Elektrizitätsunternehmen sicher und erschwert gleichzeitig die Neuorganisation der Elektrizitätswirtschaft nach unternehmenspolitischen Gesichtspunkten. Das ELWOG1 wurde Anfang 2000 durch das Energieliberalisierungsgesetz (EnlibG) novelliert und ergänzt117. Dieses hat folgende wesentlichen Inhalte: (a) 100% Liberalisierung des Elektrizitätsmarktes in Österreich zum 1.10.2001; (b) Verschärfungen der Bestimmungen über die Entflechtung von Erzeugung und Übertragung/Verteilung; und (c) Neuordnung der Energieaufsicht durch die Schaffung unabhängiger Regulierungsbehörden (Elektrizitäts Control GmbH, Elektrizitäts - Control Kommission). 117 Das novellierte ELWOG2 bildet den Artikel 7 des EnlibG, das „Bundesgesetz über die Aufgaben der Regulierungsbehörden im Elektrizitätsbereich und die Errichtung der Elektrizitäts-Control GmbH und der Elektrizitäts-Control Kommission“ (ElControlG) den Artikel 8. Öffentliche Unternehmen 283 Der österreichische Gesetzgeber ist von den Mindestanforderungen der ElRL hinsichtlich der Marktöffnung bei weitem abgewichen. Auch die Einrichtung einer Regulierungsbehörde kann als Verbesserung gegenüber dem ELWOG1 bezeichnet werden. Schade ist nur, dass man das EnlibG nicht zu einer Bereinigung der bestehenden Kompetenzverteilung in der Elektrizitätswirtschaft zwischen Bund und Ländern genutzt hat, weshalb jedes Bundesland eigene Ausführungsgesetze zum ELWOG2 erlassen muss. Erneut findet sich das österreichische Phänomen, dass eine Liberalisierung ein Konvolut an Gesetzen – mit der Gefahr von Unklarheiten – nach sich zieht. Für die zukünftige Entwicklung der Rechtslage in der EU und Österreich ist ein Vorschlag der EU - Kommission vom März 2001 über eine Änderung der ElRL (EU - Kom, 2001b) interessant, der unter anderem vorsieht: (a) die Ausdehnung des Grundsatzes der freien Wahl des Versorgungsunternehmers auf alle Elektrizitätskunden ab dem 1.1.2005 (100% Marktöffnung); (b) die rechtliche und nicht nur buchhaltere Entflechtung von Erzeugung, Übertragung und Verteilung, wobei hierbei von den Mitgliedstaaten eine Untergrenze eingezogen werden darf, um kleine lokale Verteilerunternehmen nicht zu überfordern; und (c) die Verpflichtung der Mitgliedstaaten unabhängige nationale Regulierungsbehörden einzusetzen, deren Aufgabe die Festlegung bzw. Genehmigung von Tarifen und Bedingungen für die Netzbenutzung ist. Der erste und der letzte Punkt ist mit dem EnlibG schon abgehackt. Die rechtliche Entflechtung könnte noch bevor stehen. 14.3.2 Der Schiedsrichter Die wirtschaftsrechtliche Aufsicht über die Elektrizitätswirtschaft wird mit dem EnlibG mit der Einrichtung einer Elektrizitäts - Regulierungsbehörde, bestehend aus der Elektrizitäts Control GmbH und der Elektrizitäts - Control Kommission völlig neu gestaltet. Oberste Aufsichtsbehörde bleibt weiterhin der BMfWA, dem auch die Aufsicht über die Regulierungsbehörde zukommt. Mit der Errichtung einer sektorspezifischen Regulierungsbehörde für die Elektrizitätswirtschaft liegt Österreich ganz im internationalen Trend. In der EU haben alle Länder bis auf Deutschland eine solche Behörde eingerichtet118. Die Notwendigkeit einer Regulierungsbehörde dürfte in Anbetracht der janusköpfigen Struktur der vertikal integrierten Elektrizitätsunternehmen – einerseits natürlicher Monopolist im Netzbereich und andererseits Teilnehmer am Wettbewerb bei der Erzeugung/Vertrieb – und 1,7 Mill. zugelassener Kunden unbestritten sein. Sie hat Aufgaben wahrzunehmen, die für das Gelingen der Liberalisierung von entscheidender Bedeutung sein werden. Exemplarisch seien die Festlegung der Netznutzungstarife, die Genehmigung der allgemeinen Geschäftsbedingungen der Netzbetreiber, die Überwachung der Entflechtung, die Entscheidung im Verfahren über Netzzugangsverweigerung und 118 In Deutschland erfolgt die Liberalisierung des Strommarktes – aufgrund des verhandelten und nicht regulierten Netzzugangs – unter der allgemeinen wettbewerbsrechtlichen Aufsicht durch das Bundeskartellamt. Eine Alternative, die jedoch in Ermangelung einer allgemeinen Wettbewerbsbehörde und einer entsprechenden Tradition in Österreich undenkbar erscheint. Aber auch in Deutschland mehren sich die Stimmen nach einer sektorspezifischen Behörde (Piltz, 2001; Keller-Brunekreeft, 2001). Einstweilen hat man auf diese aber nur mit der Einrichtung einer eigen Beschlussabteilung über die E-Wirtschaft im Bundeskartellamt reagiert. Öffentliche Unternehmen 284 die Erstellung und Veröffentlichung von Strompreisvergleichen für Endverbraucher genannt. Auch die Ausgliederung der Regulierungsbehörde, speziell der wichtigen E - Control GmbH, aus der Verwaltungsorganisation des Bundes ist im Hinblick auf die dadurch gewonnen erhöhte Flexibilität zu begrüßen (Wieser, 2000). Aufgabe der Behörde ist auch die Bestimmung des Regulierungsmechanismus für die weiterhin als natürliches Monopol geltende Netzinfrastruktur. Hierbei ist eine Abwägung der beiden entgegenstehenden Ziele der Kosteneffizienz und der Versorgungssicherheit vorzunehmen. Bei der Wahl des Mechanismus hat der Gesetzgeber im §25 Abs. 2 ELWOG2 der Regulierungsbehörde einen weiten Spielraum gelassen. Die Tarife sind nämlich „kostenorientiert“, wobei aber eine „Zugrundelegung einer Durchschnittsbetrachtung, die von den Kosten eines rational geführten, vergleichbaren Unternehmens ausgeht“ zulässig ist, zu bestimmen. Weiters können der „Preisbestimmung Zielvorgaben zugrundegelegt werden, die sich am Einsparungspotential der Unternehmen orientieren (Produktivitätsabschläge)“. In die ökonomische Regulierungstheorie übersetzt heißt dies, dass sowohl eine Cost - plus - , eine Price - cap - , eine Yardstick - competition - Regulierung und natürlich auch eine Mischform zulässig ist. Auf eine genauen Regulierungsmechanismus hat sich die Regulierungsbehörde noch nicht festgelegt und verweist auf ein diesbezügliches Projekt, das Ende 2002 abgeschlossen sein soll (E - Control, 2001: 25). Wahrscheinlich ist eine Price - Cap - Regulierung mit einem Benchmarking119 der einzelnen Netzbetreiber ähnlich dem niederländischen Model (DtE, 2000)120. Die Tatsache, dass mit Beginn der Liberalisierung am 1.10.2001 noch kein Regulierungsmechanismus etabliert wurde, erscheint ein wenig problematisch, da sich die vormaligen Monopolisten durch noch vom Wirtschaftsminister festgelegte sehr hohe Netzgebühren vor Konkurrenten, deren Auftreten speziell am Anfang der Liberalisierung massiv erwartet werden sollte, schützen konnten. Es sei jedoch bemerkt, dass die Entwicklung eines Regulierungsmechanismus keine triviale Angelegenheit darstellt und von der Regulierungsbehörde in der kurzen Zeit ihres Bestehens vielleicht nicht adäquat gelöst werden hätte können. Der Gesetzgeber hat nicht Synergieeffekte im Auge gehabt, als er der Regulierungsbehörde nicht die Kompetenz zur Bestimmung aller im ELWOG2 vorkommenden behördlich festzulegenden Tarifen zuwies. Warum eine Behörde, die die Netzsystemnutzungstarife festlegt und zu diesem Zwecke entsprechendes Fachwissen und Informationen sammeln muss, nicht auch den Zuschlag für Ökostrom121 bzw. für Kraft - Wärme - Kopplung - Energie (KWK) zum Systemnutzungstarif gem. §34 ELWOG2 bestimmt, sondern dies den Landeshauptleuten zukommt, erscheint doch sonderbar. Der Umstand, dass der Landeshauptmann gleichzeitig auch 119 vgl. hiezu Filippini/Wild, 2002; Burns/ Davies/Riechmann, 1999 Es ist wohl zu empfehlen im Sinne eines Commitment der Regulierungsbehörde, dass der genaue Regulierungsmechanismus in das ELWOG2 aufgenommen wird. Ähnliches ist in den Niederlanden geschehen. 121 In Zusammenhang mit dem Ökostrom sei auf ein strukturelles Problem innerhalb des ELWOG2 verwiesen. Zur Steigerung des Anteils von Ökostrom sind die Betreiber von Verteilernetzen verpflichtet, Strom aus den an ihr Netz angeschlossenen Ökostromanlagen abzunehmen. Ein Netzbetreiber sollte aber in einem System eines konsequenten Unbundling nur mehr eine reine Dienstleistungsfunktion, nämlich die Durchleitung von Strom, ausüben, womit eine Abnahmeverpflichtung die einen Wiederverkauf impliziert nicht vereinbar ist. Konsequenterweise sollte deshalb solch eine Verpflichtung den Endverbrauchern bzw. den Stromlieferanten auferlegt werden (Pauger, 2001). 120 Öffentliche Unternehmen 285 als Eigentümervertreter der Landesversorger fungiert und durch die Bestimmung hoher Zuschläge zum Netznutzungstarif unliebsame Wettbewerber für „sein“ Unternehmen aussperren kann, macht dies noch unverständlicher. Dass dies kein akademisches Problem darstellt, beweist die Diskussion über den KWK - Zuschlag auf die Netzgebühren für das Versorgungsnetz der WienStrom von 0,74 Cent/kWh, welcher per Verordnung des Bürgermeisters der Stadt Wien – gleichzeitig Eigentümervertreter – festgelegt wurde (Die Presse, 2001). Der Vorwurf von Wettbewerbern, dass dieser Aufschlag wegen seiner Höhe als Markteintrittsbarriere und gleichzeitig als Quersubventionierung verwendet wird, erscheint, wenn man die Aussagen der WienStrom ernst nimmt, dass ein Teil der Preiserhöhungen für die Nutzung des Netzes durch Reduktionen der Energiepreise abgefangen werden, nicht unbegründet. Unabhängig davon sollten vom technischen Standpunkt aus die Kosten für die KWK eigentlich eher der Erzeugung als dem Stromnetz zugerechnet werden. 14.3.3 Die Spieler Im Vorfeld der Liberalisierung gab es heftige Diskussionen über eine Österreich - Lösung in der Stromwirtschaft. Ein Scheitern solch eines Vorhabens war jedoch schon frühzeitig absehbar, da Tirol und Vorarlberg von Anfang an klarstellten, an solch einer Lösung nicht interessiert zu sein. Anfang 2002 wurden die Verhandlungen über eine österreichische Lösung wieder aufgenommen, wobei die TIWAG und die VKW erneut ihr Desinteresse bekundeten. Tab. 2 gibt in der Folge einen Überblick der österreichischen Elektrizitätsunternehmen, der im wesentlichen der sich aus dem VerstG ergebenden Struktur mit einem Verbundunternehmen, neun Landesgesellschaften und fünf Stadtwerke entspricht122. Die Anzahl der Stadtwerke hat sich aber durch die Fusion der SAFE mit den Salzburger Stadtwerken zur Salzburg AG um eine verringert. Die Unternehmen sind durchwegs sowohl in der Erzeugung als auch in der Verteilung zum Endverbraucher tätig, wobei die Bedeutung im Bereich der Verteilung durch die Anzahl der Kundenanlagen geschätzt wird. Ausnahmen bilden die BEWAG und die Steweag - STEG GmbH, die über keine eigene Erzeugung verfügen und nur als Vertriebs - und Verteilungsunternehmen agieren, und der Verbund, welcher wegen seiner bisherigen Aufgaben im Endkundenmarkt, mit Ausnahme von großen Abnehmern, nicht vorhanden war, andererseits aber als der mit Abstand größte Erzeuger (2000: 27.650 GWh) in Erscheinung tritt. Die Beteiligungen123 sollen einen Einblick in die wechselseitigen Verflechtungen der einzelnen Unternehmen geben, ein Erbe des VerstG. In der Eigentümerstruktur hat sich im Vorfeld der Vollliberalisierung einiges verändert, wobei besonders der Einstieg ausländischer Unternehmen hervorzustreichen ist. Wirl (1999) ver- 122 Nicht in der Tabelle enthalten sind kleine städtische Versorger. Einen Überblick über deren Anzahl bietet die E-Control (www.e-control.at) mit einer „Liste der Verteilnetzbetreiber (Stand: Juli 2001)“. 123 Die wechselseitigen Beteiligungen stellen aber kein österreichisches Unikum dar, sondern bestanden auch in der deutschen Elektrizitätswirtschaft, jedoch wurden diese im Rahmen des Fusionsverfahrens (RWE/VEW bzw. VEBA/VIAG) durch Auflagen des Bundeskartellamtes (BKA, 2000) bzw. der EU-Kommission (Eu-Kom., 2000) bereinigt. Öffentliche Unternehmen 286 suchte die Veränderungen der Eigentümer nach der Teilprivatisierung ökonomisch einzuordnen und kam zum Ergebnis, dass die gegenseitigen Beteiligungen nur der Verringerung der Konkurrenz durch Nachbarunternehmen dienen und gleichzeitig die Teilprivatisierung ohne verbundene Strukturänderungen jede Neuordnung der österreichischen Elektrizitätswirtschaft erschwert. Die französische EdF hat sich mit 25% + 1 Aktie an der Energie Steiermark Holding AG beteiligt (eine weitere Ironie der Privatisierung à l’Autriche), die deutsche RWE mit 49% an der Kärntner Energieholding GmbH – und dabei den Verbund ausgestochen – und die EnBW hat ihren Aktieanteil am Verbund auf 6,3% erhöht. Der Verbund hat sich mit der deutschen E - On im Juli 2001 auf eine Bündelung der Wasserkraftwerke in eine eigene Gesellschaft die European Hydro Power GmbH verständigt, an der der Verbund 60% und E - On 40% halten soll. Das endgültige Zustandekommen dieser Kooperation ist aber noch äußerst fraglich. Im Falle eines Erfolges der wiederaufgenommen Verhandlungen über eine österreichische Lösung in der Elektrizitätswirtschaft – Verhandlungspartner sind der Verbund und die Unternehmen der EAA – dürfte die European Hydro Power GmbH noch vor ihrer eigentlichen Gründung der Vergangenheit angehören. Schon vor der Liberalisierung bestand eine enge vertragliche Bindung zwischen der deutschen EnBW und der VKW sowie der E - On und der TIWAG. Im August 2001 beschlossen und per 1.April vollzogen wurde die Fusion der STEWEAG mit der STEG zur STEWEAG - STEG GmbH zwischen der Energie Steiermark Holding AG und dem Verbund. Im Rahmen der Fusion der beiden Unternehmen wurden deren Wasserkraftwerke und Wärmekraftwerke an die verbundeigene Austrian Hydro Power AG bzw. Austrian Thermal Power AG übertragen, sodass die STEWEAG - STEG GmbH nur mehr eine reine Vertriebs - und Verteilungsgesellschaft darstellt, welche ihren Strom vom Verbund über Bezugsrechte und Dritte bezieht. Es handelt sich hier um einen Schritt des Verbund im Massenkundengeschäft Fuß zu fassen. Schon vorher ging die STEWEAG mit den Grazer Stadtwerken und weitere regionalen Versorger eine Vertriebspartnerschaft ein. Die ESTAG hat sich mit einem Kaufangebot in den laufenden Verkaufsprozess der Grazer Stadtwerke beteiligt. Der Verbund stieg weiters durch die Beteiligung an bzw. Gründung von zwei neuen Vertriebsgesellschaften in das Endkundengeschäft ein. MyElectric wurde von der SalzburgAG (50%) und der EnergieAG (50%) gegründet. Nach dem Ausstieg der EnergieAG beteiligte sich der Verbund mit 50%. Inwieweit der Einstieg des Verbund bei MyElectric auf eine zukünftige engere Zusammenarbeit mit der SalzburgAG schließen lässt, bleibt abzuwarten. Zur Bearbeitung des ländlichen Bereiches hat der Verbund gemeinsam mit der Raiffeisen Ware Austria (RWA) die Raiffeisen Ware Wasserkraft (RWW) gegründet. Sowohl MyElectric als auch RWW sind Bestandteil der Strategie des Verbunds den Kundenkreis über die Landesgesellschaften und Großkunden auf Haushalte und Gewerbekunden auszuweiten und positionieren diesen somit als neuen Spieler im Endkundenmarkt. WienEnergie, EVN, BEWAG/Begas, EnergieAG und LinzAG gründeten mit der EnergieAllianzAustria (EAA) eine strategische Allianz zwischen den Unternehmen, wobei der Verkauf von 25% + 1Aktie der EnergieAG an die EAA im März 2002 beschlossen wurde. Die EAA, genauer die Allianzpartner, verfügen in Österreich über einen Marktanteil bei Strom bezogen auf die Stromzähler von 72%. Auf Basis der direkten Stromendkunden ist die EAA mit 2,8 Öffentliche Unternehmen 287 Mio. – E - On (12 Mio.), RWE (10 Mio) – die Nummer 10 in Europa. Zur optimalen Nutzung von Synergien wurden zwei Leitgesellschaften eingerichtet: die EAA Vertrieb GmbH124, zuständig für die Steuerung des Energievertriebs der Partnerunternehmen und die e&t, zuständig für die Energieeinsatzoptimierung, den –einkauf, den –handel und das Risikomanagement. Die EAA verfolgt im Massenkundengeschäft eine Zwei - Marken - Strategie. Die Marke „Optima“125, welche von den Allianzpartnern angeboten wird, und die EAA eigene Diskontmarke „Switch“, mit der wechselbereite und preissensible Kunden in ganz Österreich gezielt angesprochen werden sollen126. Eine Änderungen der wechselseitigen Beziehungen kann auch in Tirol beobachtet werden, wo die TIWAG einerseits durch den Erwerb von kleineren Elektrizitätsunternehmen eine Arrondierung des Versorgungsgebietes vornimmt und andererseits eine verstärkte Zusammenarbeit zwischen der TIWAG, der Innsbrucker KB AG und mehreren kleinen Stadt - und Gemeindewerke stattfindet. Anfang 2002 wurde der Verkauf von 25% + 1Aktie der InnsbruckerKB AG an die TIWAG ausverhandelt. 124 Die Anteile an der EnergieAllianz verteilen sich wie folgt: BEWAG/Begas (10%), LinzAG (10%), EnergieAG (17%), EVN (31,5%), WienEnergie (31,%). 125 Wien Strom, die EVN und die Linz AG bietet „Optima“ schon an. Die EnergieAG gedenkt aber ihr eigenes Tarifmodel beizubehalten. 126 De facto ist mit der EAA auf dem österreichischen Markt ein Spieler mit 72% Marktanteil entstanden, da zwischen den Allianzpartnern kein Wettbewerb mehr stattfinden wird. Es erscheint deshalb schade, dass keine Prüfung des Zusammenschlusses durch das Kartellgericht stattgefunden hat, da in solch einem Verfahren nämlich die Möglichkeit bestanden hätte, ähnlich wie bei der Fusion RWE/VEW (BKA, 2000) bzw. VEBA/VIAG (EU-Kom., 2000) wettbewerbsfördernde Maßnahmen durchzusetzen, z.B. eine rechtliche Entflechtung von Erzeugung/Vertrieb und Netzinfrastruktur, um so Wettbewerbern den Zugang zum Markt der EAA zu erleichtern. Öffentliche Unternehmen 288 Tab. 2: Elektrizitätsunternehmen (Stand: März 2002) Unternehmen Eigentümer Beteiligungen Erzeugung* Verteilung** Wien Strom GmbH 100% Stadt Wien 31,5% EnergieAllianzAustria GmbH 3810,3 2.260.000 2489,07 904.000 2.234,56 415.000 keine 172.000 665,68 337.000 50% MyElectric Stromvertrieb GmbH 1.443,32 260.000 63,85% Kärtner Energieholding 10% Austrian Hydropower AG 1.019,18 240.000 Beteiligungs GmbH (Land 10% Austrian Thermal Power AG 112,14 60.881 3.314,70 170.000 373,28 124.387 keine 334.000 2,71 112.120 31,5% e&t, 50% e&i EVN AG 51% Land Niederösterreich 31,5% EnergieAllianzAustria GmbH 49% Börse 31,5% e&t, 50% e&i, 10% Verbund 66,83% Burgenland Holding AG Energie AG BEWAG Linz AG 75% - 1 Aktie Land Oberösterreich 17% e&t 25% + 1 Aktie EnergieAllianz1 17% EnergieAllianzAustria GmbH 51% Land Burgenland 10% EnergieAllianzAustria GmbH 49% Burgenland Holding AG 10% e&t 100% Stadtgemeinde Linz 10% EnergieAllianzAustria GmbH 10% e&t Salzburg AG 42,56% Land Salzburg 31,31% Stadt Salzburg 26,13% Energie AG KELAG Kärnten, 51%/ RWE 49%) 35,12% Verbund Stadtwerke Klagenfurt AG 100% Stadt Klagenfurt TIWAG 100% Land Tirol Innsbrucker KB AG 75% - 1 Aktie Stadt Innsbruck 7% Verbund, 0,32% VKW AG 25% + 1 Aktie TIWAG2 STEWEAG - Steg GmbH3 65% Estag (75% - 1 Aktie Land Steiermark, 25% + 1 Aktie EDF) 35% Verbund Grazer Stadtwerke AG 99,46% Stadt Graz VKW AG 95,75% Illweke Verbund 51% Bund 75% Verbund StromvertriebsgmbH 10% EVN (25% Estag) 7% TIWAG 60% Austrian Thermal Power AG 10% Wiener Stadtwerke (30% Estag, 10% KELAG) 6,3% EnBW, 80,3% Austrian Hydro Power AG 15,7% Streubesitz (5,3% Estag, 10% KELAG, 10% WienStrom, EVN, EnergieAG, Land Tirol und Burgenland) 100% Austrian Power Grid GmbH 14,4% EVN, 35,1% KELAG 10% Burgenland Holding AG 35% Steweag - STEG GmbH 50% RWW GmbH 50% MyElectric Stromvertrieb GmbH 661,50 146.000 31.735,534 keine*** Öffentliche Unternehmen 289 14.3.4 Öffentliche Hand Im Kontext der Energiewirtschaft darf selbst bei vollständiger Privatisierung und Liberalisierung die öffentliche Hand und die Politik nicht übersehen werden. Prima facie stellt der Rückzug der Politik aus diesem Bereich eine substantielle Einschränkung des Wirkungsbereichs der Politik dar. De facto ist dieser Rückzug kleiner, weil auch eine privatisierte und deregulierte Elektrizitätswirtschaft politischem Druck ausgesetzt sein wird: Daher kann kein privates Unternehmen hier Monopolpreise verrechnen ohne zu riskieren, wieder vergesellschaftet oder zumindest bestraft – beispielsweise die nachträgliche windfall profit tax in Großbritannien auf die Gewinne der Elektrizitätsversorgungsunternehmen – zu werden. Anders sieht die Situation für die Landesgesellschaften aus, denen durchaus von den öffentlichen Eigentümern direkt oder indirekt Renten verschafft werden können, z.B. der WienStrom über spezielle Abgaben und Zuschläge. Ein weiteres Manko des Einflusses der öffentlichen Hand ist im Einfluss auf die Eigentümerstrukturen zu sehen (vgl. obiges Unterkapitel) beginnend mit der halbherzigen Privatisierung von 49%, die in ihrer Auswirkung, bedingt durch die zahlreichen Querverschränkungen, diese Bezeichnung nicht verdient, sondern eine sinnvolle Neuorganisation – auch in Form einer rechtlichen Separation von Erzeugung/Vertrieb und Netzinfrastruktur – (bewusst?) erschwert. Zuletzt kommt noch, dass sich die öffentliche Hand den Weg in die Liberalisierung durch Einführung und Erhöhung von Abgaben teuer bezahlen ließ. So ist im Raum Wien die Abgabenbelastung auf Strom – Energieabgabe, Beitrag für Stranded Costs, Gebrauchsabgabe für die Stadt Wien, Zuschlag für KWK und Ökostrom – mit 25,58 % auf dem besten Weg mit der Mineralölsteuerbelastung auf Diesel von 34,94 % gleichzuziehen127. 14.4 Wirtschaftliche Auswirkungen der Liberalisierung 14.4.1 Verhalten der EVUs 14.4.1.1 Preiswettbewerb Die E - Control weist für den Zeitraum vor der Liberalisierung (1999) und ab 1.10.2001 eine durchschnittliche Preissenkung bei Haushalten bzw. Gewerbe von –20% bzw. –40% der Nettostromkosten (Energie - und Netzpreis, exkl. Abgaben und Steuern) aus, wodurch sich diese Konsumentengruppe seit 1999 etwa 200 - 290 Mill.€ an Stromkosten erspart hat (Abb.14.3). 127 Bei Normalbenzin liegt diese bei 44,85%. Öffentliche Unternehmen Strompreisvergleich für Haushalte (3.500 KWh) 1999 und 2001 Strompreisvergleich für Gewerbe (10.000 KWh) 1999 und 2001 20 10 1999 ro m W G A K W ie nS t V G TI W ST E W EA G G EL A Sa lz bu rg A K EV N eA G ag 0 En er gi Cent/KWh ro m W G A K W ie nS t V G 01.12.2001 TI W ST E G 1999 W EA G EL A K Sa lz bu rg A EV N eA G Be w ag 0 30 Be w 5 En er gi Cent/KWh 15 10 290 01.12.2001 Abb. 14. 3: Strompreisvergleich für Haushalte und Gewerbe Quelle: E - Control Trotz dieser massiven Strompreissenkungen befinden sich die österreichischen Haushaltstarife noch immer im europäischen oberen Mittelfeld (E - Control, 2001: 67); dabei muss allerdings erwähnt werden, dass die Preise für primäre Energie im Jahr 2001 signifikant niedriger als im Jahr 2000 waren ($28.44 versus $24.44 je Fass Brent im Jahresdurchschnitt, OPEC (2002)). Ausschlaggebend hiefür sind größtenteils nicht die dem Wettbewerbsdruck ausgesetzten Energiepreise, sondern die noch auf sehr hohem Niveau regulierten Netznutzungstarife sowie Steuern, Abgaben und unterschiedliche Zuschläge der öffentlichen Hand. So wurde die Energieabgabe, noch vor der Liberalisierung per 1. Juni 2000, von 0,73 Cent/KWh auf 1,5 Cent/KWh mehr als verdoppelt. Die Beiträge für Stranded Costs betragen 0 - 0,0922 Cent/KWh, der Zuschlag für Ökostrom 0 - 0,124 Cent/KWh und für KWK in Wien 0,7427 Cent/KWh, in der Steiermark 0,217 Cent/KWh und in Kärnten 0,042 Cent/KWh. Hinzu kommen noch Gemeindeabgaben, die je Gemeinde variieren (E - Control, 2001). Obwohl die Benachteiligung des Gewerbes reduziert wurde (siehe Abb.14.3), sind diese Tarife nach wie vor zu hoch und nicht frei von Ungereimtheiten: So zahlt im Bereich der Wienstrom ein Gewerbekunde mit 100.000 kWh und einem gleichmäßigen und großteils in der Nacht anfallenden Nachfrageprofil (etwa Bäckerei) so viel wie Haushaltskunden, ja bei einigen Anbietern erhält man als Haushalt sogar den günstigeren Tarif verglichen mit dem Gewerbe (z.B. bei RWW €13.726,81 anstatt €14.089,09 und bei Wienstrom Optima für €14.139,80 anstatt €14.279,06 für MEGA 2003, was zusätzliche eine Bindung bis 31.12.2003 bedingt). Die Preissenkungen der Elektrizitätsunternehmen erfolgte größtenteils schon vor der gänzlichen Liberalisierung per 1. 10. 2001. So weist beispielsweise die Betriebsleistung der Unternehmen im Jahre 2000 gegenüber 1999 eine durchschnittliche Erhöhung von 3,7% auf, obwohl der Mengenzuwachs bei der Stromabgabe 19,7% betrug. Offensichtlich wurde die Erlösentwicklung durch Preisreduzierungen erheblich eingebremst (Hess, 2001, 22). Aufgrund dessen konnte in den ersten Monaten des freien Marktes zwischen den vormaligen Monopolisten kein Preiskampf festgestellt werden. Die dem Wettbewerb ausgesetzten durchschnittlichen Energiepreise für Haushalte sanken in der Periode zwischen April und Dezember 2001 nur noch um bescheidene 0,41 Cent/KWh (siehe Abb. 14.4). Der Preiswettbewerb ab 1.10.2001 war anfangs noch dadurch abgeschwächt, dass einige Anbieter noch nicht über das Versorgungsgebiet des integrierten Verteilerunternehmens liefern konnten und die Unterneh- Öffentliche Unternehmen 291 men der EAA in das Versorgungsgebiet der Partnerunternehmen keine Stromlieferungen vornahmen und vornehmen werden. Vergleich der Strompreiskomponenten TIWAG und STEWEAG (3500 KWh) Strompreisdifferenz Dezember/April 2001 für Haushalte (3500 KWh) 12,00 1,00 10,00 0,00 8,00 Cent/KWh 2,00 -1,00 -2,00 6,00 4,00 Be E n wa er g gi eA G EV K N E Sa L A lz bu G ST rgA EW G EA TI G W A G V K W ie W nS tro Li m nz A G G ra ze rS t w St Inns w .K K B la ge D ur nfur ch t sc hn itt 2,00 Gesamtpreis (exkl. Steuern und Abgaben) Energiepreis 0,00 Netzpreis 4/2001 Netzpreis 12/2001 Energiepreis 4/2001 Energiepreis 12/2001 STEWEAG 9,74 8,66 2,18 3,95 TIWAG 5,89 5,89 5,01 3,49 Abb. 14.5: Vergleich der Strompreiskomponenten Abb. 14.4: Strompreisdifferenz Dezember/April 2001 Quelle: E - Control, Netzpreis (Netznutzungs - , Netzfür Haushalte verlustentgelt und Entgelt für die Messleistungen) Quelle: E - Control, eigene Berechnung Der im Zuge der Liberalisierung mögliche Stromlieferantenwechsel erfordert von den vormals geschützten Unternehmen Strategien, um den Kundenstock zu behalten bzw. auszuweiten. Während des Prozesses der Netzkostenbestimmung durch die Behörde, die dabei auch auf die Angaben der Unternehmen angewiesen ist, stehen dem vertikal integrierten Unternehmen im Preiswettbewerb zwei Optionen offen. Es gibt angemessene Netzkosten an und konkurriert tatsächlich über die Energiepreise, wobei hier jedoch die Gefahr besteht, durch einen billigeren Anbieter Kunden zu verlieren. Oder es sperrt durch einerseits hohe Netzgebühren und andererseits niedrige – durch die Netzgebühren quersubventionierte – Energiepreise, vielleicht sogar unter den Grenzkosten liegende, andere Anbieter vom Markt aus. Für den Zeitraum zwischen April und Dezember 2001 können bei der Preissetzung der Elektrizitätsunternehmen beide Verhaltensweisen entdeckt werden. Für den ersten Fall dient die TIWAG als Beispiel, welche den Energiepreis um 1,52 Cent/kWh bei gleichbleibenden Netzgebühren gesenkt hat. Für den zweiteren die STEWEAG, deren Energiepreis von 2,18 Cent/kWh bei gleichzeitigen Netzgebühren von 9,74 Cent/kWh im April 2001 auf einen Missbrauch der Durchleitungsgebühren zur Marktabschließung hindeuten. Die Erhöhung des Energiepreises um 1,77 Cent/kWh auf 3,95 Cent/kWh, nach der hoheitlich verordneten Senkung der Netzpreise um 1,08 Cent/kWh dürfte diese Vermutung noch verstärken (siehe Abb.14.5). Am Preiswettbewerb beteiligen sich neben den etablierten Unternehmen seit der gänzlichen Marktöffnung ab 1.10.2001 bundesweit drei neue Mitspieler. Den Beginn machte der im Eigentum der EAA stehende Anbieter Switch im April 2001 mit einem Preisangebot für die gelieferte Energie von 3,12 Cent/kWh128. Es folgten MyElectric mit 3,42 Cent/kWh und 128 exkl. Netznutzungsgebühren, Steuern und Abgaben. Öffentliche Unternehmen 292 RWW mit 3,12 Cent /kWh129. Abb. 14.6 zeigt, dass die Energiepreise speziell von Switch und RWW sehr oft unter jenen der Landesgesellschaften und Stadtwerke liegen. Kunden der EVN könnten sich mit einem Umstieg auf einen der beiden Anbieter 0,94 Cent/kWh oder 32,9€ bei einem Jahresverbrauch von 3.500 KWh (Stand: Dezember 2001) sparen, ein Betrag der auch das geringere Beratungsservice abgelten sollte. Die beobachtete Bereitschaft, den Versorger zu wechseln, ist jedoch gering und lag im Dezember 2001 für Haushalte bei 0,6%. Zu dieser Zeit hatte Switch 5.000, MyElectric 3.500 und RWW 6.000 Kunden. 4,50 4,00 3,50 3,00 2,50 2,00 1,50 1,00 0,50 0,00 En er gi e R W AG AW ** sw itc h V K W In ns Bew br uc ag k Sa er K lz bu B M rgA yE G le ctr ic TI * W A K G EL A W G i St enS w t K ro m la ge G nfur ra ze t rS tw Li n ST zA EW G EA G EV N Cent/KWh Energiepreise für Haushalte (Stand: 1.12.2001) Abb. 14.6: Energiepreisvergleich (Stichtag: 1.12.2001) Quelle: E - Control Diese geringe Anzahl mag auf den ersten Blick nicht verwundern. Die Wechselrate bei Privatkunden in Deutschland zwischen April 1998 und Herbst 2000 – ein längerer Zeitraum – betrug beispielsweise 2,1%. Diese Zahlen werden häufig durch die geringen Einsparungsmöglichkeiten begründet, da die meisten Konsumenten angeblich erst ab einer jährlichen Ersparnis von 44€ zum Lieferantenwechsel bereit sind (Johannsen, 2001). Aber dieses Argument ist doch einigermaßen verwunderlich, bückt sich doch ein jeder um einen auf dem (schmutzigen!) Gehsteig liegenden 10 € - Schein. Eine Erklärung für die niedrige Wechselrate liegt vielleicht darin, dass die Kunden die Transaktionskosten eines Stromlieferantenwechsels als signifikant ansehen und mit 44 € bewerten, was bei der vorhandenen Möglichkeit eines Anbieterwechsels per Internet doch überrascht. Betrachtet man den Lieferantenwechsel als Option so können die anscheinend doch signifikanten Transaktionskosten dazu führen, dass die Konsumenten die Option erst dann ausüben wollen, wenn der Kapitalwert des Gewinns entweder hinreichend groß wird, oder sich die Unsicherheit über den günstigsten Anbieter legt. Es besteht aber auch die Möglichkeit, dass Jahrzehnte des Stromsbezuges von einem de facto öffentlichen Amt bzw. Behörde speziell in der Anfangsphase der Liberalisierung bei den potentiell wechselwilligen Konsumenten eine subjektive Furcht vor der Revanche dieser „Behörde“ bei Zusatzdienstleistungen (zB. Nachtstrom) auslöst, welche durch die erwarteten Einsparungen nicht kompensiert werden kann130. 129 MyElectric verlangt einen Grundpreis von 15,12 €/Jahr, welcher aber ab einem Verbrauch von 3500 kWh/Jahr entfällt. RWW verlangt einen Grundpreis von 12,60 €/Jahr. 130 Vgl. in diesem Zusammenhang die Kritik der RWW an der EVN, welche bei einem Kundenwechsel von der EVN zur RWW der RWW die Benutzung der Nachtstromanlage untersagt (Standard, 2001 und Kurier). Öffentliche Unternehmen 293 Die Vergleichbarkeit der einzelnen Preisangebote, welche Voraussetzung für einen Lieferantenwechsel und einen Preiswettbewerb ist, wird durch mehrere Faktoren erschwert: (a) die Unternehmen nehmen eine Heterogenisierung des Produktes „Strom“ vor, indem sie beispielsweise Zusatzleistungen anbieten, (b) die Unternehmen setzen nichtlinerare Tarife, welche vom Stromverbrauch abhängen und (c) mangelnde Preistransparenz. Letzteres ergibt sich daraus, dass die vertikal integrierten Unternehmen bei ihren (neuen) Angeboten einen Pauschalpreis, d.h. Energie - plus Netznutzungsgebühren (im Versorgungsgebiet des integrierten Verteilers) angeben. Direkte Vergleiche mit bundesweiten Anbietern des Produktes „Strom“ werden dadurch erschwert. Ausnahmen bei der Preisauszeichnung und als solche vorbildlich hinsichtlich der Preistransparenz sind beispielsweise die VKW und die InnsbruckerKB AG. Die im §4 der Systemnutzungstarifverordnung vorgesehene Verpflichtung zur gesonderten Ausweisung der Netznutzungsentgelte für den Endverbraucher stellt bloß eine ex post Verpflichtung auf der Rechnung für die Endverbraucher dar. Unter dem Gesichtspunkt der Entflechtung integrierter Unternehmen und der Markttransparenz wäre eine Ausweitung der Verpflichtung zur gesonderten Ausweisung auf die ex ante Angebote wünschenswert. Dies würde nämlich die bloße Dienstleistungsfunktion des Netzinfrastrukturbetreibers für den Stromerzeuger bzw. - händler manifestieren, der bezüglich der Herkunft des durch seine Leitungen transportierten Stroms indifferent ist. Die gesonderte Ausweisung dürfte auch deshalb kein Problem sein, da die Netznutzungstarife behördlich festgelegt sind. Ein weiterer Vorteil bestünde auch darin, dass den Endkunden der Anteil der Netzgebühren, d.h. das Entgelt an den Monopolisten, am gesamten Strompreis bewusst wird und somit der Druck auf den Monopolisten bzw. die Unterstützung der Regulierungsbehörde für eine Tarifsenkung erhöht wird131. Ausländische Anbieter sind am österreichischen Markt für Haushalte und Gewerbe, außer durch die Beteiligungen an Landesversorgern (RWE bei KELAG, EdF bei Steweag, E - On bei Verbund), noch nicht in Erscheinung getreten. Die EnBW beispielsweise beschränkt ihre Aktivitäten nur auf Belieferung von Großkunden, während E - On das Büro in Wien wieder aufgelassen hat. 14.4.1.2 Produktdifferenzierung Eine Möglichkeit Preiskonkurrenz zu reduzieren, stellt die Produktdifferenzierung dar, welche die Preissensitivität der Konsumenten verringert. Dies ist im Falle eines homogenen Produktes wie Strom nicht ganz leicht. Erschwerend kommt noch hinzu, dass das hiefür notwendige Wissen, im besonderen Marketing, aufgrund des geschützten Monopols der Unternehmen und des daraus abgeleiteten Kaufzwangs der Konsumenten, nicht notwendig war. Die sich aus der Liberalisierung ergebende Kundenorientierung erfordert eine grundlegende Neuausrichtung des Unternehmens, welche durch einen Ausbau der Marketingaktivitäten charakterisiert ist. Eine erste Möglichkeit zur Heterogenisierung des Gutes Strom stellt der Aufbau einer Marke dar, welche das Gut für den Konsumenten subjektiv unterscheidbar macht. Die EnBW in Deutschland ließ ihren Strom plötzlich „Yello“ werden. In Österreich führte die STEWEAG mit „Select: die erste Wahl beim Strom“ die erste Strommarke ein. Andere Unternehmen sy131 Vgl. hiezu das Preissetzungsverhalten von US-Ölunternehmen während der Ölkrise 1979 unter dem Einfluss der Medienberichterstattung (Erfle/McMillan, 1990). Öffentliche Unternehmen 294 nonymisierten Strom mit der „umweltfreundlichen“ Erzeugungsart, z.B. „Raiffeisen Ware Wasserkraft“, „Tiroler Wasserkraft“, „KELAG - Strom: Wasser ist unser Element“, um damit dem Bedürfnis vieler österreichischen Konsumenten speziell nach atomfreiem Strom Rechnung zu tragen. Es sei noch einmal an die Zwei - Markenstrategie der EAA einerseits mit der Qualitäts - „Optima“ und andererseits mit der Billigmarke „Switch“ erinnert. Eine weitere Möglichkeit stellt die Spezialisierung auf spezifische Nischen dar. Ein Unternehmen, dass solch eine Strategie gewählt hat, ist die oekostromAG, die „grünen“ Strom aus Sonne, Wind und Kleinkraftwerken vermarktet. Abb. 14.7 vergleicht den Preis der oekostromAG mit dem der RWW, welche Strom aus Wasserkraft – jedoch von Großkraftwerken – des Verbund verkauft132. Der saubere Strom von oekostromAG ist bundesweit um durchschnittlich 3,2 Cent/kWh teurer als der saubere von der RWW. Besonders erheblich ist der Unterschied in Vorarlberg mit 5,6 Cent/kWh. Die zukünftige Geschäftsentwicklung der oekostromAG stellt ein begrüßenswertes Experiment zur Offenlegung dafür dar, welchen Betrag und vor allem wie viele Konsumenten bereit sind, für „ökologisch“ produzierten Strom zu bezahlen (Stand März 2002: 2.000 Kunden). Erschwert wird die Positionierung des Produktes als „echten“ grünen Strom für das Unternehmen, da, wie oben schon erwähnt, auch andere Anbieter mit Strom aus sauberer Wasserkraft werben. ent/KWh Nettopreisvergleich für Haushalte oekostrom und RWW (Dezember 2001) 16 14 12 10 8 6 4 2 0 RWW oekostrom Wien NÖ B OÖ St S K T V Abb. 14.7: Nettopreisvergleich (Netz - und Energiepreis) für Haushalte (3.500 KWh) Quelle: E - Control, eigene Berechnungen Zur Abgrenzung und auch zur Erschwerung der Vergleichbarkeit beinhalten die Angebote der Unternehmen vermehrt Zusatzleistungen zur reinen Stromlieferung. Zu nennen wären: inkludierte Stromunfallversicherungen, Freitage, Beratungs - und Finanzierungsservice über Bauen und Energie, Förderungspakete für Wärmepumpen, Umzugsservice, Clubvorteile (Gutscheinhefte, verbilligte Elektrogeräte, 24 Stunden Reparaturservice, usw.). Aber auch Gesamtpakete über Energie (Strom, Gas, Wärme) und Infrastrukturdienst (Telekommunikation, Internet und Kabel TV) findet man aufgrund der Ausrichtung der Unternehmen als Multi Service Utility immer häufiger. 132 Es handelt sich um den Gesamtpreis (Energie- und Netzkosten), jedoch exkl. Steuern und Abgaben. Öffentliche Unternehmen 295 14.4.1.3 Nichtlineare Tarife Im Zuge der Liberalisierung des Telekomsektors haben sich nichtlineare Tarife in der Form von verschiedenen Menüs herausgebildet, um die den Telephonbetreibern an sich unbekannte Zahlungsbereitschaft nach Telefondienstleistungen abzuschöpfen. Eine ähnliche Entwicklung wird auch im Stromsektor sichtbar, im Vergleich zum Telekomsektor allerdings eher zaghafter. Einen mehrgliedrigen Tarif bietet die BEWAG für Haushaltskunden an, bei dem mit jedem Schritt in eine nächste Verbrauchsgruppe der Stromtarif pro zusätzlicher Einheit sinkt. Dies steht – im Gegensatz zum alten Tarifmodell der WienStrom – im Einklang mit der ökonomischen Theorie (Wilson, 1993) und Effizienzkriterien, da mit steigendem Verbrauch die Preiselastizität der Konsumenten steigt und eine höhere Nachfrage nur mit niedrigeren Tarifen abgeschöpft werden kann. Der mehrgliedrige Tarif ist in diesem Fall, da er nur vom Gesamtverbrauch und nicht vom Zeitpunkt des Verbrauches abhängt, leicht zu implementieren, weil hiezu keine neuen Messgeräte notwendig sind. Stufe ntarif BEWEAG Komfort 17,11 16 14,93 14,75 14,49 11 6 1 <2000 kWh <4000 kWh <10000 kWh Abb.14.8: Nichtlinearer Tarif der Bewag ab 10000 kWh Strompreis (€/kWh) Cent/kWh 21 Stromtarifmenü der Energie AG 0,17 0,16 0,16 0,15 0,15 0,14 0,14 0,13 0 1 2 3 4 5 6 Grundpreis (€/Monat) Abb.14.9: Stromtarifmenü der Energie AG Neben mehrgliedrigen finden sich auch zweigliedrige, bestehend aus einem Grundentgelt und Strompreis, Tarife. Zum Zwecke der Marktsegmentierung und der gezielten Anbotslegung für unterschiedliche Verbrauchergruppen werden zweigliedrige Tarifmodelle entweder neben einem eingliedrigen – wobei hier der Strompreis höher ist – oder einem Menü von Tarifmöglichkeiten angeboten. Für Konsumenten mit einem niedrigen Verbrauch ist der eingliedrige Tarif vorgesehen. Der etwas höhere Strompreis ist bis zu einem bestimmten Verbrauch noch immer günstiger, da keine Fixkosten im Form des Grundentgeltes anfallen. Je höher der Verbrauch desto geringer wird der Anteil der Fixkosten an einer konsumierten kWh, bis zu dem Punkt an dem der Anteil der Fixkosten geringer wird als die Differenz zwischen dem höheren und dem niedrigeren Preis des eingliedrigen und zweigliedrigen Tarifmodells. Abb. 14.9 zeigt ein Tarifmenü bestehend aus einem eingliedrigen und zwei zweigliedrigen Modellen. Ersteres ist für Konsumenten bis zu einem Jahresverbrauch von 5.300 kWh, die beiden letzten für einen ab 5.300 kWh, wobei sich diese durch die Dauer der Kundenbindung unterscheiden, eine längere wird belohnt. Öffentliche Unternehmen 296 Als weitere Segmentierungskriterien neben dem Gesamtverbrauch verwenden die Unternehmen den Zeitpunkt des Verbrauchs. Man findet z.B. Angebote über Nachtstrom – allerdings großteils eingeschränkt auf bestimmte (Heizung und Warmwasser) und direkt steuerbare Geräte - und Wochenendtarife (z.B. „Vario“ bei der EnergieAG). 14.4.2 Überregionale Koordination: Strombörse und Kraftwerkseinsatzoptimierung Der österreichischen Gesetzgeber sieht keine verpflichtende Errichtung einer Strombörse als konstitutionellen Bestandteil der Strommarktliberalisierung vor. Somit differiert die Organisation des österreichischen Marktes auf der bilateralen Basis Erzeuger – Kundenbeziehung mit den zwischengelagerten lokalen Verteilerunternehmen und als Folge die Form des Preiswettbewerbs stark zum britischen Strommarkt (Green, 1994), wo der Strom eines Kraftwerkes ab einer bestimmten installierten Kapazität (100 MW) über eine Strombörse verkauft werden muss133. Die Verpflichtung zum Stromverkauf über eine Börse soll mehrere Zwecke erfüllen. Erstens ermöglicht sie eine höhere Flexibilität, da Strom nur für den nächsten Tag und für Intervalle von 30 oder 60 Minuten gehandelt wird, im Gegensatz zu bilateralen Verträgen über die physikalische Lieferung zwischen Erzeuger und Kunden, die sich typischerweise über Monate oder Jahre erstrecken. Zweitens soll die zentrale Abwicklung der Transaktionen über einen Marktplatz die Transaktionskosten senken. Drittens soll die Strombörse, da sie die Preise transparent macht, die Marktmacht großer Erzeuger reduzieren. Schlussendlich soll der Strompool sicherstellen, dass auch Händler ohne eigene Produktion Zugang zur Erzeugung haben (Riechmann/Schultz, 2000). Obwohl ein verpflichtender Strompool viele oder wie im kalifornischen Fall alle Produzenten zur Marktteilnahme zwingt und somit „Wettbewerb“ etabliert, stellt dies noch keine ausreichende Bedingung zur Reduzierung von Marktmacht dar. Dominante Erzeuger können nämlich nicht nur den Preis sondern auch die angebotene Menge strategisch setzen und durch die Rücknahme von Kapazitäten den Marktpreis erhöhen (Green/Newberry, 1992). Die Käufer ihrerseits müssen dies akzeptieren, da sie keine Ausweichmöglichkeiten zu bilateralen Lieferungsverträgen haben. Dieser Aspekt der strategischen Kapazitätsrücknahme ist beispielsweise im österreichischen Fall geringer, da strategische, dann nur bilateral wirkende, Preiserhöhungen im Preiswettbewerb schaden. Vom verpflichtenden ist der freiwillige Strompool zu unterscheiden, bei dem es den Erzeugern und Käufern auf Großhandelsebene freisteht, entweder über den Pool auf kurzfristiger Basis oder am Pool vorbei mittels langfristiger Verträge miteinander Handel zu treiben. Somit entsteht nicht nur ein Wettbewerb innerhalb des Marktes, sondern auch einer zwischen Märkten (Poolhandel und bilateraler Handel) (Riechmann/Schulz, 2000). Unter der Annahme, dass ex ante die optimale Organisation des Marktes nicht bekannt ist, wird dadurch ein österreichischer Suchprozess nach dieser Organisation mittels des Wettbewerbs zwischen den 133 Ähnliches galt auch in Kalifornien und gilt in Spanien, jedoch in Spanien nur für alte Kraftwerke. Für neue ist die Teilnahme am Pool freiwillig. Öffentliche Unternehmen 297 Handelsinstitutionen induziert. Als Beispiel für einen etablierten freiwilligen Pool sei der skandinavische Nordpool genannt (Bergman/von der Fehr, 1999), wo im Jahre 1998 rd. 20% des in Norwegen, Schweden und Finnland konsumierten Stroms gehandelt wurde. Der Rest erfolgte über bilaterale Verträge. In Deutschland, wo auch der bilaterale Handel überwiegt (Brunekreeft/Keller, 2000), entstanden jeweils in Frankfurt und Leipzig Spot - Märkte für Strom, welche jedoch ihre Handelsaktivitäten im Oktober 2001 fusionierten. Ende März 2002 startete auch in Österreich eine Strombörse (Pool) die Energie Börse Alpen Adria (EXAA) mit Sitz in Graz, welche sich nicht nur als Stromhandelszentrum für Österreich, sondern auch für den gesamten südeuropäischen Raum etablieren möchte134. Aufgrund der schlanken Organisation kann die EXAA nach eigenen Angaben auch mit einem kleinen Handelsvolumen von ca. 1 bis 2% des österreichischen Stromverbrauches überleben, wobei jedoch bei zu geringer Liquidität einerseits die Strompreise nicht mehr repräsentativ wären und andererseits einzelne Stromversorger über die Börse den Preis manipulieren könnten. Betrachtet man die österreichischen Spieler im Erzeugungsbereich, welche aus dem dominanten Verbund, der EAA, der TIWAG, der KELAG und der VKW bestehen, scheinen jedoch Befürchtungen bezüglich Preismanipulationen nicht ganz unbegründet zu sein. Seit dem Marktstart wurden an der EXAA durchschnittlich 2.271,2 MWh Strom pro Tag gehandelt, was einem Anteil von 2,3% am österreichischen Spotmarkt entspricht. Unabhängig von der Existenz einer Strombörse entwickelte sich im Zuge der Liberalisierung in Österreich ein liquider, bilateraler Großhandelsmarkt für die verschiedensten Stromprodukte, an dem rund 20 inländische und ausländische Stromhandelsunternehmen tätig sind und für ein Marktvolumen von 200 TWh im Jahr sorgen (E - Control, 2001). Die Partnerunternehmen der EAA haben ihre Handelsaktivitäten in ein eigenes Stromhandelunternehmen, e&t GmbH, gebündelt. Dieses Unternehmen ist auch für die nun über die Bundeslandgrenzen hinausreichende Einsatzplanung des Kraftwerksparks der Unternehmen verantwortlich. Eine über die Landesgrenzen hinausgehende Kraftwerkseinsatzoptimierung zwischen dem österreichischen Verbund und der deutschen E - On Wasserkraftwerk GmbH könnte durch die schon erwähnte European Hydro Power GmbH entstehen. Diese ist eine Managementgesellschaft, deren ausschließliche Aufgabe im optimalen Einsatz und Betrieb der Wasserkraftwerke der Austrian Hydro Power sowie der E - On Wasserkraftwerk GmbH besteht, wobei das Eigentum an den Sachanlagen aber bei den Gesellschaftern bleibt. Wie schon erwähnt ist das Zustandekommen dieser Kooperation noch höchst fraglich. 14.4.3 Netzdurchleitungstarife Ein erhebliches Potential für eine Reduzierung des Gesamtstrompreises in Österreich besteht bei den Netznutzungstarifen. Deren Höhe im Niederspannungsbereich wurde von der EU Kommission neben den Tarifen in Deutschland, Spanien und Portugal als hoch eingestuft, wodurch die Gefahr einerseits von überhöhten Monopolgewinnen bei den Netzbetreibern und andererseits von Wettbewerbsverzerrungen im Zusammenhang mit vertikal integrierten Un134 An der EXAA ist die Wiener Börse mit 40%, die Kontrollbank, smart technologies sowie das Land Steiermark mit je 10% und der Verbund, die Steweag, die Grazer Stadtwerke, die Energie AG, die VKW, die TIWAG, die KELAG sowie die OMV mit je 3% beteiligt. Öffentliche Unternehmen 298 ternehmen besteht (EU - Kom, 2001a). Per 1.10.2001 übernimmt die Regulierungsbehörde die Kompetenz für die Festlegung der Netznutzungstarife vom BMfWA, wobei sie auch schon vorher bei der Reduktion der Tarife der STEWEAG und der Salzburg AG beratend mitwirkte. Sie hat in dieser Funktion schon punktuelle Reduktionen für den Netzbereich der Verbund - APG, der GrazerStadtwerke, der STEWEAG (jeweils ab 1.1.2002) sowie der Bewag und der WienStrom (jeweils ab 1.4.2002) verordnet. Bei den Netztarifen (siehe Abb. 14.10) setzte sich bei deren erstmaliger Festlegung durch den zuständigen Minister die schon für 1994 festgestellte Ignoranz von bestehenden Informationen in Form der Nichtberücksichtigung unterschiedlicher regionaler Abnahmedichten fort. Unter erneuter Berücksichtigung der Tatsache der Kostendegression über die Netzdichte ergaben und ergeben sich auch noch weiterhin Ungereimtheiten. So betrugen die Netztarife der TIWAG, die mit Tirol noch immer ein denkbar kostenungünstig zu versorgendes Gebiet hat, vor der durch die E - Control veranlassten Preisreduktion per 1.April 2002 5,89 Cent/kWh, um 0,31 Cent/kWh weniger als die der städtischen WienStrom. Diese Diskrepanz wurde zwar beseitigt, sodass die WienStrom ab April 2002 mit 5,77 Cent/kWh um 0,12 Cent/kWh weniger als die TIWAG verrechnet. Ob diese Differenz jedoch tatsächlich die topographischen und abnahmespezifischen Unterschiede zwischen Wien und Tirol widerspiegelt, bleibt fraglich, wobei das höhere Alter und die daraus resultierende längere Abschreibungsdauer der Netze der TIWAG nicht als Grund für die geringe Differenz überstrapaziert werden sollte, speziell unter dem Gesichtspunkt, dass ein Netzbetreiber alle Kosten und die „angemessene“ Höhe der Netzgebühren wegen der Asymmetrie der Informationslage erklären wird können. Es ist zu hoffen, dass die Regulierungsbehörde von der liebgewonnenen Angewohnheit der Ignoranz bestehender Informationen abweichen wird, wofür die Tarifreduktionen in den Städten Graz und Wien zögerliche Anzeichen darstellen. Vergleich der Netznutzungstarife für Haushalte (Stand April 2002) W K V EV N K EL A G Li nz A ST G EW EA Sa G lz bu rg A G En er gi eA G Be w ag St w K la ge In nf ns ur br t uc ke rK B W ie nS tro m TI W A G G ra ze rS tw Cent/kWh 10 9 8 7 6 5 4 3 2 1 0 Abb. 14.10: Netzpreise (Netznutzungs - , Netzverlustentgelt und Entgelt für Messleistungen) für einen Hauhalt (3.500 KWh), Quelle: E - Control. Bei einer Betrachtung der Struktur der bestehenden Tarife für die Haushalte fällt neben der bereits erwähnten Nichtberücksichtigung von Kostendegressionen aufgrund der Abnahmedichte vor allem der hohe Anteil der Netzgebühren an den gesamten Stromkosten auf. Besonders die Kosten für das Niederspannungsnetz speziell im absoluten als auch im relativen Vergleich zum Hochspannungs - bzw. Mittelspannungsnetz erscheinen besonders hoch. Unbestritten ist, dass die Netzkosten für Industriekunden, welche Strom aus der Hochspannungs- Öffentliche Unternehmen 299 ebene entnehmen, aufgrund des günstigen Nachfrageprofils um mindestens 100% günstiger sind als für Entnehmer einer niedrigeren Spannungsebene. Für die Energiepreise ergeben sich Unterschiede zwischen 25 - 50% (Pfeifenberger et.al., 1997). Aus Abb. 14.11 wird ersichtlich, dass die Kostenunterschiede zwischen der Hoch - und Niederspannungsebene in den gewählten Ländern durchwegs mehr als 150% betragen. Auffällig ist jedoch, dass in Österreich nicht nur der absolute Kostenunterschied zwischen der Hoch und Niederspannungsebene mit €57/MWh hoch ist, sondern auch der relative. Die Kosten der Hochspannung multipliziert mit 7,3 ergeben jene der Niederspannung. Dieser Faktor beträgt in den anderen angeführten Ländern – auch Deutschland und Spanien – lediglich zwischen 4,2 bis 5,6. Es liegt die Vermutung nahe, dass rein buchhalterisch die gesamten Aufwendungen für den Verwaltungsapparat und historisch bedingte bzw. verbleibende Ineffizienzen in die Niederspannungstarife überwälzt wurden. Die Folge ist natürlich, dass die Vertriebsunternehmen auf dieser Basis wenig Anlass haben, kosteneffizienzsteigernde Maßnahmen zu unternehmen. Aber auch innerösterreichisch finden sich unlogische Tarifansätze zwischen den Netzebenen. In Oberösterreich betragen beispielsweise die Tarife für die Netzebene 6 nur ein Drittel der Netzebene 7, während jene in Vorarlberg fast gleich sind. Ein Unterschied der auch mit dem Hinweis auf verschiedene Abnahmestrukturen in seiner Höhe nur schwer erklärbar ist. Zusammensetzung des Nettostrompreises für Haushalte (3.500 KWh) 100 80 60 40 20 0 1,0 0,8 0,6 Hochspannung an d (h ) (l) an d mittlere Spannung 0,2 eu tsc hl 0,0 Österreich Deutschland Niederlande England Energiepreis 0,32 0,35 0,53 0,70 Netzpreis 0,68 0,65 0,47 0,30 D eu tsc hl D H ie Sp an U ol la nd n 0,4 K €/MWh Geschätzte Höhe der Netzentgelte: Elektrizität Niederspannung Abb. 14.11: Geschätzte Höhe der Netzentgelte Abb. 14.12: Zusammensetzung der Nettostrompreise Quelle: Commillas, Eurostat - Erhebung Quelle: OECD, Brunekreeft/Keller (2001), E - Control Abb. 14.12 zeigt den Anteil der Netzkosten an den Nettostrompreisen für England, Deutschland, Niederlande und Österreich. Die Aufteilung des Nettopreises in England soll nicht der Kritik des Status quo in Österreich dienen, sondern veranschaulichen, wie die Relation in einem zukünftigen liberalisierten österreichischen Strommarkt ungefähr aussehen könnte. Die EU - Kommission sieht im Vorschlag zur Änderung der ElRL als einzige Netzzugangsart den regulierten Netzzugang vor. Speziell der verhandelte Netzzugang wird wegen der dadurch resultierenden hohen Netznutzungstarife abgelehnt. Aus Abb. 14.12 könnte der Schluss gezogen werden, dass England und die Niederlande einen regulierten und Österreich und Deutschland einen verhandelten Netzzugang haben. Letzteres gilt aber nur für Deutschland. In den Daten über die Niederlande ist weiters noch nicht ein seit Anfang 2001 geltender durchschnittlicher Price - Cap von jährlich 5,9% für die Verteilungsunternehmen enthalten. Ein regulierter Netzzugang darf demnach a - priori nicht mit niedrigen Netztarifen gleichgesetzt Öffentliche Unternehmen 300 werden, dazu bedarf es schon einer aktiven Regulierungsbehörde, die solche Tarife implementiert und durchsetzt. Diese Erkenntnis sollte die Hoffnung, dass der Übergang vom verhandelten zum regulierten Netzzugang im österreichischen Gasmarkt die Preise für die Durchleitung sinken lässt, ein wenig relativieren. Ein Vergleich von relativen Anteilen ist natürlich immer mit Vorsicht zu genießen, da die niedrigeren Netzkostenanteile in den Niederlanden aber auch in England eine Folge von höheren Energiepreisen sein könnten, was deren Anteil an den Nettopreisen entsprechend ansteigen lässt. Aber so ganz dürfte dies nicht zutreffen. Eine Aufteilung wie in den Niederlande, nämlich 53% Netz - und 47% Energiekostenanteil, würde in Österreich beispielsweise dann erreicht werden, wenn alle Konsumenten den Strom von der oekostromAG, welche die Energie nur aus regenerativen Energiequellen (Wind, Photovoltaik, usw.) gewinnt und deshalb nicht als Billiganbieter bezeichnet werden kann, beziehen. Mittelfristig dürften die Netzgebühren tatsächlich einen erheblichen Spielraum nach unten aufweisen. Gegen ein zu forsches Auftreten der Regulierungsbehörde wird oft eingewandt, dass in diesem Fall die Netzbetreiber die Kosten nicht durch Steigerungen der Produktivität, sondern durch eine Vernachlässigung der Netzinfrastruktur erzielen, und vor Netzzusammenbrüchen, - ausfällen als Folge von falschen Kosteneinsparungen gewarnt. Mittelfristig ist dem vielleicht zuzustimmen, kurzfristig aber eher nicht. Einerseits sollte das Kosteneinsparungspotential in den Unternehmen erheblich sein, sind sie doch mehr als fünfzig Jahre lang staatlich geschützte Monopole gewesen, die nur geringem Kostendruck ausgesetzt waren135. Andererseits, warum sollte die Netzinfrastruktur nicht auch durch Stranded costs, durch Investitionen in zuviel Versorgungssicherheit – 99,999% anstatt „nur“ 99% Sicherheit –, genauso wie der Erzeugungsbereich, gekennzeichnet sein136. Desinvestitionen könnten somit vielleicht sogar optimal sein. Die Regulierungsbehörde sollte sich davor hüten, den vorhandenen Produktionsapparat auf Dauer als eine gegebene Größe anzusehen. 14.5 Zusammenfassung und Schlussfolgerungen Der österreichische Gesetzgeber ist mit der 100% Liberalisierung einen mutigen Schritt gegangen insbesondere dann, wenn man bedenkt, dass die Experten der Energiewirtschaft bis Ende der 80 - er Jahre – also bis vor der britischen Privatisierung – bereits viel moderatere Marktöffnungen als technisch unmachbar empfunden haben. Gerade deshalb ist es schade, dass ihn in anderen Bereichen der Mut verlassen hat mit zum Teil negativer Auswirkung auf die zukünftige Entwicklung des Elektrizitätsmarktes. Die Festschreibung des mehrheitlichen Eigentums der öffentlichen Hand an den Elektrizitätsunternehmen lässt auch in Zukunft die Möglichkeit der Unternehmensführung nach „bundes(landes)politischen“ Kriterien offen. „Der“ positive Aspekt des Eigentums des Bundes und der Länder an den Unternehmen, nämlich die Möglichkeit zur vertikalen, rechtlichen Separation von Erzeugung/Vertrieb und Netzinfrastruktur, wurde leider nicht genützt und durch die Teilprivatisierung zumindest er- 135 Vgl. die massiven Produktivitätssteigerungen der Elektrizitätsunternehmen in UK nach der Liberalisierung (Newberry, 1997). 136 Es sei an die Beihilfe von 385 Mill.€ für das Kraftwerk Freudenau erinnert. Öffentliche Unternehmen 301 schwert, wenn nicht gänzlich verspielt. Ebenso wurde die Chance einer Kompetenzbereinigung zwischen Bund und Ländern vertan. Obwohl die Einrichtung einer Regulierungsbehörde positiv zu bewerten ist, hätten dieser alle Preisfestsetzungskompetenzen – auch zur Hintanhaltung von Interessenskonflikten der Landeshauptleute als Preisbehörde und Eigentümervertreter – übertragen werden sollen. Ein weiterer zu kritisierender Punkt ist, dass sich im Zuge der Liberalisierung die öffentliche Hand ihren Rückzug durch die Erhöhung und die zusätzliche Einführung von Gebühren, teilweise zum Nutzen der „eigenen“ Landesgesellschaft – Wien ist hiefür ein Paradebeispiel – teuer bezahlen ließ, so dass der Abgabenanteil bei Strom sich an den von Treibstoffpreisen annähert. Der Preiswettbewerb nach der Liberalisierung gestaltete sich eher bescheiden, da Preisreduktionen schon vorweggenommen wurden, einige Anbieter nicht über das Versorgungsgebiet liefern konnten bzw. wollten und die bloße ex post Auszeichnungspflicht der Netzpreise die Preistransparenz erheblich einschränkt. Letzteres betrifft vor allem die Vergleichbarkeit zwischen bundesweiten Angeboten, welche nur die Energiepreise enthalten, und aus Netz - und Energiepreis bestehenden regionalen Pauschalangeboten. Die niedrigen Wechselraten entsprechen den internationalen Erfahrungen, stellen aber wegen erheblicher regionaler Preisunterschiede trotzdem ein Rätsel dar. Bei der Preisgestaltung selbst konnten vereinzelt Hinweise von Missbräuchen bei der Durchleitungsgebühr gefunden werden. Es sind auch bereits, wenn auch im Vergleich zum Telekomsektor sehr bescheiden, komplexere Tarifmodelle zu beobachten. Trotzdem sind die Tarife noch immer nicht frei von Ungereimtheiten, etwa im Falle des Gewerbes (bei manchen Anbietern erhalten Haushalte niedrigere Tarife als Gewerbebetriebe). Die Organisation des österreichischen Marktes mit der bilateralen Erzeuger - Kundenbeziehung differiert stark vom britischen oder kalifornischen Strommarkt, der zwar viele oder im kalifornischen Fall alle Produzenten zur Markteilnahme zwingt und somit Konkurrenz etabliert, jedoch durch strategische Rücknahmen von Kapazitäten für Preiserhöhungen anfällig ist. Dieser Aspekt ist im österreichischen Fall deshalb geringer, weil strategische dann nur unilaterale Preiserhöhungen im Preiswettbewerb schaden. Bei der überregionalen Koordination konnten durch den verstärkten bilateralen Großhandel, der gebündelten Kraftwerkseinsatzoptimierung über die regionalen Grenzen hinaus und der Gründung einer österreichischen Strombörse, welche Ende März den Handel eröffnete, Fortschritte festgestellt werden. Das wohl größte Defizit des momentanen Zustandes stellen, sowohl wegen der Höhe als auch der regionalen Differenzierung, die Netzgebühren dar. Dies ist deshalb nicht überraschend, weil dieser Bereich keiner Marktdisziplinierung ausgesetzt ist und von den lokalen Landesgesellschaften mit Unterstützung der Eigentümer – so viel zum Rückzug der Politik – missbraucht wird, was hoffentlich durch die unabhängige Regulierungsbehörde zumindest gemildert wird. Ein weiteres Defizit der Netzgebühren ist die mangelnde zeitliche (Tag/Nacht, Öffentliche Unternehmen 302 Sommer/Winter) Differenzierung, sodass die Chance auf eine verbesserte Auslastung und dadurch mögliche Absenkung notwendiger Kraftwerkskapazitäten nicht genützt wird137. Bei all der berechtigten Kritik darf jedoch der Zustand der Elektrizitätswirtschaft vor der Liberalisierung also ihr Ausgangspunkt nicht vergessen werden: (1) ineffiziente Erzeugung – kein Ausgleich bei unterschiedlichen Grenzkosten – und suboptimale Dimensionierung der Anlagen für die regionalen und daher zu kleinen Märkte, sodass der oft genannte Hauptvorteil einer Verstaatlichung (oder auch Regulierung), die Skalenerträge und das damit verbundene natürliche Monopol, verspielt wurde; (2) die Befriedigung politischer insbesondere landespolitischer Begehren (von der Bestellung des Vorstandes, der Direktion bis weit nach unten, der Beauftragung von Firmen im Land, etc.); (3) teilweise ökonomisch absurde Tarife, massive Quersubventionierungen, teilweise schwere Benachteiligung von politisch schlecht vertretenen Konsumentengruppen (insbesondere des Gewerbes) etc. Vor diesem Hintergrund ist selbst der absurde KWK - Zuschlag der WienStrom ein Vorteil, weil diese Subventionierung jetzt zumindest quantitativ offengelegt werden muss. Somit stellen die laufenden Entwicklungen sehr wohl einen Fortschritt dar, wobei jedoch der erhebliche provinzielle Einfluss der öffentlichen Hand auf die strategische Ausrichtung der Unternehmen und deren Organisation im europäischen Kontext – wohl auch weil dort die von der öffentlichen Hand beeinflussten Unternehmen viel größer sind (z.B. EdF) – mittelfristig keinen Platz mehr haben sollte. Über die Hälfte der britischen Stromversorgung befindet sich in ausländischer Hand, stellte die „Financial Times“ nach dem Kauf von Innogy durch die (deutsche!) RWE fest (Die Presse, 2002). Zumindest um eine Diskussion über die – vielleicht auch zukünftig mehrheitlich ausländische – Eigentümerstruktur der Elektrizitätsunternehmen wird auch Österreich zukünftig nicht herumkommen, will es seinen Platz in der Gruppe der europäischen Vorreiter bei der Strommarktliberalisierung weiterhin beibehalten. 137Zugegeben, das Abtragen von Tagesspitzen ist für Österreich alleine weniger vordringlich aufgrund der hohen installierten Leistung von Speicherkraftwerken. Diese Kapazitäten könnten allerdings möglicherweise noch günstiger auf dem europäischen Markt eingesetzt werden. Öffentliche Unternehmen 303 14.6 Bibliographie Bachinger, K., Matis, H. und Hemetsberger - Koller, H. (1989), Grundriss der österreichischen Sozial - und Wirtschaftsgeschichte: von 1848 bis zur Gegenwart, ÖBV - Klett - Cotta, Wien. Bergman, L. und von der Fehr, N - H. (1999), The Nordic Experience: Diluting Market Power by Integrating Markets, S. 116 - 146, in Vaitilingan, R. (Hrsg.), A European Market for Electricity? Monitoring European Deregulation 2, Centre for Economic Policy Research/SNS, 1999. BKA (2000), Entscheidung des Bundeskartellamtes auf dem Gebiet der Fusionskontrolle im Jahre 2000: RWE/VEW, www.bkarta.de/B8 - 309 - 99.pdf. Brunekreeft, G. und Keller, K. (2000), The electricity supply industry in Germany: market power or power of the market, Utilities Policy 9, 15 - 29. Brunekreeft, G. und Keller, K. (2001), Sektorspezifische Ex - ante - Regulierung der deutschen Stromwirtschaft?, Diskussionsbeitrag Nr.80, Institut für Verkehrswissenschaft und Regionalpolitik, Universität Freiburg. Burns, P., Davies, J. und Riechmann, C (1999), Benchmarking von Netzkosten – Data Envelopment Analyse (DEA) am Beispiel der Stromverteiler in Großbritannien, Zeitschrift für Energiewirtschaft, 4/99: 285 - 301. Dorfmann Andreas (1995), Effizienzanalyse der Elektrizitätsversorgungsunternehmen, Diplomarbeit, TU - Wien, Institut für Energiewirtschaft, 1995. Dte (2000), Guidelines for price cap regulation of the Dutch electricity sector: In the period from 2000 to 2003, www.nma - dte.nl/en/default.htm. E - Control (2001), Jahresbericht 2001, www.e - control.at/Jahresbericht/date/e - control.html. Erfle, S. und McMillan, S. (1990), Media, Political Pressure, and the Firm: The Case of Petroleum Pricing in the late 1970s, Quarterly Journal of Economics, 105, 115 - 134. EU - Kom. (2000), Entscheidung der Kommission vom 13.6.2000 zur Vereinbarkeit eines Zusammenschlusses mit dem Gemeinsamen Markt und mit dem EWR - Abkommen:VEBA/VIAG, www.europa.eu.int/comm/competition/mergers/cases/decisions/m1673_de.pdf. EU - Kom. (2001a), Erster Bericht über die Verwirklichung des Elektrizitäts - und Erdgasbinnenmarktes, Arbeitsdokument der Kommissionsdienststellen (SEK(2001) 1957). EU - Kom. (2001b), Vollendung des Energiebinnenmarktes, Mitteilung der Kommission an den Rat und das europäische Parlament (Kom(2001) 125). Öffentliche Unternehmen 304 Filippini, M. und Wild, J. (2002), Berücksichtigung von regionalen Unterschieden beim Benchmarking von Stromverteilnetzen, Zeitschrift für Energiewirtschaft, 26(1): 51 - 59. Green, R. (1994), Britain’s unregulated Electricity Pool, S.73 - 96, in Einhorn, M.A. (Hrsg.), From Regulation to Competition: New frontiers in electricity markets, Kluwer Academic Publishers, 1994. Green, R. und Newberry, D. (1992), Competition in the British Electricity Spot Market, Journal of Political Economy 100(5), 929 - 953. Hess, W. (2001), Die wirtschaftliche Lage der EVU - Landesgesellschaften und Sondergesellschaften, Kammer für Arbeiter und Angestellte Wien. Johannsen, A (2001), Preis als Wechselgrund, Wirtschaftsblatt vom 29.9.2001. Kumbhakar, S.C. und Hjalmarsson, L. (1998), Relative performance of public and private ownership under yardstick competition: electricity retail distribution, European Economic Review, 42, 97 - 122. Künneke, R.W. (1999), Electricity networks: how ‘natural’ is the monopoly?, Utilities Policy, 8, 99 - 108. Kurier (2001), Strommarktaufsicht ist viel zu schwach, Ausgabe vom 7.12.2001. Newbery, D.M. (1997), Privatisation and liberalisation of network utilities, European Economic Review, 41, 357 - 383. Mueller, Dennis C. (1989). Public Choice II, Cambridge, Cambridge University Press. OPEC, Market Indicators from www.opec.org (March 20th, 2002), Pauger, D. (2001), Reform des Strom - und Gasrechts durch das Energieliberalisierungsgesetz, Österreichische Zeitschrift für Wirtschaftsrecht, Heft 1, 1 - 7. Pfeifenberger, J.P, Hanser, P.Q. und Ammann, P.R. (1997), What’s in the Cards for Distributed Resources?, The Energy Journal, Special Issue, 1 - 16. Piltz, H. (2001), Netznutzungsentgelt für Stromlieferungen in der Kritik: Ist jetzt auch in Deutschland eine Regulierungsbehörde erforderlich?, Wirtschaft und Wettbewerb (6), 553 560. Die Presse (2001), Wienstrom bittet Kunden zur Kasse: Kleinverbraucher zahlen jetzt mehr, Ausgabe vom 6.11.2001. Die Presse (2002), Strommarkt: Konzerne üben in Großbritannien Liberalisierung, Ausgabe vom 23.3.2002. Öffentliche Unternehmen 305 Riechmann, Ch. und Schulz, W. (2000), Regulatory Reform in the Electricity Industry, S.330 - 361, in Galli, G. und Pelkmans, J. (Hrsg.), Regulatory Reform and Competitiveness in Europe, II, Edwar Elgar, 2000. Sandgruber, R. (1995), Österreichische Geschichte: Ökonomie und Politik: Österreichische Wirtschaftsgeschichte vom Mittelalter bis zur Gegenwart, Ueberreuter. Shleifer, A. (1985), A theory of yardstick competition, RAND Journal of Economics, Vol.16(3), 319 - 327. Der Standard (2001), Krampus für EVN und Wienstrom, Ausgabe vom 7.12.2001. Wieser, R. (2000), Regulatoren in Netzwerkindustrien – Eine politi - ökonomische Synthese, Working Papers 2/2000, Bundesministerium für Finanzen. Wilson, R.B. (1993), Nonlinear Pricing, Oxford University Press. Franz Wirl, Optimal Electricity Production from Hydro Power Plants with Storage, Zeitschrift für Operations Research 32, B121 - B136, 1988. Franz Wirl, Firmenübernahmen in der E - Wirtschaft: Was erkauft man bei einer Übernahmen eines Versorgungsunternehmens in einem liberalisierten Strommarkt?, Wirtschaftspolitische Blätter, 46. Jg., 609 – 617, 1999. Öffentliche Unternehmen 306 15 Versorgungssicherheit Der Primärenergiebedarf Österreichs muss zur Zeit etwa zu zwei Drittel durch Importe gedeckt werden; in Deutschland liegt diese Quote noch höher. Etwa die Hälfte davon stammt aus dem COMECON - Raum, etwa ein Drittel aus dem OPEC - Raum. Die folgende Analyse betrachtet folgende, vereinfachte Einschränkungen in der Verfügbarkeit von Energieimporten: einen temporären Ausfall (gekoppelt mit hohen Preisen) oder langfristige Knappheit. Weiter basiert die empirische Anwendung auf der österreichischen Situation, jedoch ähnliche (relative) Ergebnisse gelten allgemein, weil nur die Wasserkraft dabei ein österreichisches Spezifikum ist, ähnlich zur deutschen Kohle. _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ (a) kurzfristig (b) langfristig _ _ _ _ Abb. 15.1: Unterschiedliche Arten von Ausfällen Zusätzlich sind zwei Arten von Embargos denkbar: gobal oder gegen Österreich allein gerichtet. In diesem Fall sind jedoch die fehlenden Mengen ohne Probleme (und höchstens mit etwas überhöhten Kosten) auf den Weltmärkten erhältlich. Deshalb wird in der folgenden Analyse eine globale Energieknappheit, kurz - oder langfristig, angenommen. Dabei stehen u.a. folgende Gegenmaßnahmen dem importierenden Land zur Verfügung: Diversifikation, Rationierung, Nachfragereduzierung, verstärkte Nutzung heimischer Energieträger, Lagerstättenpolitik. Diversifikation der österreichischen Energieimporte sowohl unter den Energieträgern als auch den Partnerländern kann einen eventuellen Ausfall an Energieimporten mildern und ist mit _ Öffentliche Unternehmen 307 geringen Kosten verbunden. Dabei erscheint die Aufteilung auf verschiedene Energieträger teurer aber auch erfolgreicher als Streuung über möglichst viele Partnerländer. Denn, im Fall eines signifikanten Ausfalles an globalem Angebot, etwa Revolution in Saudi Arabien, wäre im selben Moment die temporäre Ressourceknappheit in einem hohen Preis reflektiert, so dass auch Diversifikation diesen Kostendruck, wenn überhaupt, nur sehr kurz mindern kann. Ist man in so einer Situation überzeugt, dass sie nur kurzfristig andauern wird, mag Rationierung ein sinnvolles Instrument sein, das den Kostendruck durch hohe Importpreise mildern würde. Die Dauer eines solchen Ereignisses ist meistens schlecht prognostizierbar und deshalb mag auch in solchen Fällen individuelle, "freiwillige" Rationierung als Folge hoher Preise vorzuziehen sein. Die letzte Maßnahme setzt jedoch voraus, dass die Steigerungen des Weltmarktpreises sofort im heimischen Preisniveau reflektiert werden, während Preisreglementierungen diesem Ziel hinderlich wären. Vom Standpunkt der Versorgungssicherheit aus ist es irrelevant, ob die Importnachfrage durch Senkung der heimischen Nachfrage oder durch eine Ausweitung der heimischen Energieproduktion reduziert wird. Diese Reduktion der Importnachfrage ist in der Abb. 15.1 als strichlierte Linie dargestellt. Diese Nachfragereduktion ist Folge von ökonomischen Anreizen und/oder dirigistischen Vorschriften. Einige wichtige Varianten werden im dritten Kapitel auf ihre ökonomische Zweckmäßigkeit überprüft. Sei in Abb. 15.1 die ausgezogene Linie als jene Überschußnachfrage repräsentiert, wenn alle Allokationen ökonomisch sinnvoll für die laufenden Preise sind, d. h., alle in Österreich bei diesem Preis erzeugbaren Energiegüter werden produziert, und alle Energiesparmaßnahmen mit einem positiven Ertrag sind getätigt. Dann wäre eine frühzeitige Einschränkung des Energiekonsums und/oder teure Substitutproduktion begleitet von einem Wohlstandsverlust in den Jahren vor der Knappheit. Selbst wenn es gelänge, als Folge einer solchen Politik die Turbulenzen der Weltenergiemärkte wie in Abb. 5.16a angedeutet, problemlos zu überstehen (da besser angepaßt an die Knappheit), würde die Depression der nicht angepassten Partnerländer eine offene Volkswirtschaft wie Österreich trotz der perfekten energetischen Adaption, arg in Mitleidenschaft ziehen. Dies bedeutet, dass für Österreich alleine genommen nur jene Maßnahmen zu unterstützen sind, die ökonomisch sinnvoll, d. h. sich auszahlen. Das betrifft insbesondere die Eliminierung jener institutionellen Hürden, die den momentanen Energiepreis noch nicht voll zum Tragen kommen lassen: Pauschale Heizungsabrechnungen, Mietengesetz. Von diesem Standpunkt aus sind alle Maßnahmen, die darüber hinausgehen, ob dirigistisch oder marktwirtschaftlich konform, abzulehnen. Jedoch im Falle einer internationalen Absprache innerhalb eines Konsumentenkartells, stellen zusätzliche Einschränkungen der Energieimporte eine strategische Maßnahme gegenüber der Preispolitik eines Erdölkartells dar und können dadurch moderate Preise erzwingen (eine Untersuchung des Autors hat gezeigt, dass die Preiselastizität der sensitivste Parameter für OPEC Politiken ist, also eine Erhöhung des Preisbewusstseins der Konsumenten die Chance auf niedrige Ölpreise stark begünstigt). Ähnliches gilt für die Lagerstättenpolitik. Für Österreich allein betrachtet übersteigen wahrscheinlich die Kosten der Lagerhaltung den eventuell einmal realisierbaren Profit. Jedoch als internationales Instrumentarium mag sie, im Falle besserer Handhabung als in der Vergangenheit, dazu dienen, schwankende Preise zumindest zu dämpfen. Öffentliche Unternehmen 308 Aspekte der "Versorgungssicherheit" spielen eine wichtige Rolle in der Öffentlichen und politischen Reglementierung der Österreichischen Energiewirtschaft, etwa IEA's 90 Tage Vorschrift, Argumente für heimische Energie insbesondere Wasserkraft. Jedoch dominieren dabei Vor - (Urteile) und Faustregeln aber keine Arbeit setzt sich bis dato mit diesem Problem grundsätzlich auseinander. Die Angst vor Importausfällen und damit der Aspekt der Versorgungssicherheit scheint übertrieben, denn die Voraussetzung für jede Art von Handel ist, dass sie den beteiligten Personen (Verkäufer und Käufer) nützt, anderenfalls aber unterbleibt und deshalb ist das mutwillige Vorenthalten von Gütern unwahrscheinlich ist. Dies erkannte bereits Adam Smith (1777): "it is not from the benevolence of the butcher, the brewer, or the baker that we expect our dinner, but from their regard to their own interest. We adress ourselves not to their humanity but to their self - love and never talk to them of our own necessities but of their advantage." Das Modell wird in Anlehnung an den Begriff des Portfolio, entwickelt. Weiter wird Versorgungssicherheit vom Standpunkt des Konsumenten aus betrachtet, so dass auch heimische Quellen in das Konzept eingebunden werden koennen. So ist z. B. im Falle von Großbritannien die inländische Kohleversorgung am häufigsten von Ausfällen (durch Streiks) betroffen und somit auch unsicherer als Importe zu bewerten. Ein Hauptanliegen unserer Überlegungen ist, die wichtigsten versorgungstechnischen Aspekte wie Stochastik und nicht - lineare Kosten allgemein zu behandeln, jedoch zu einem handhabbaren Instrument zu gelangen. 15.1 Ein Modell Probleme versorgungstechnischer Natur ergeben sich aus folgenden grundlegenden Annahmen - konvexe Kosten der Adaption durch Unterbleiben von kontrahierten Lieferungen - Unsicherheiten der tatsächlichen Lieferung Bezeichne im folgenden (fij) die kontraktierte Menge des Brennstoffes (i) aus der Quelle (j). Die tatsächlichen Lieferungen (Fij) seien jedoch durch Zufallsvariable beschrieben. Dabei müssen die Verträge die tatsächlichen Lieferungen zumindest beeinflussen, d. h. Fij ist nur stochastisch determiniert als bedingte Wahrscheinlichkeitsverteilung. Im folgenden seien zwei Beispiele für tatsächliche Lieferungen angeführt: Beispiel 1: Fij ist normal verteilt: Fij~N(fij,(fijij)2) mit Mittel fij und der relativen Streuung (ij) in den Lieferungen. Dieser Fall wird im folgenden verwendet und ist geeignet, alle Unsicherheiten von Primärenergiequellen inklusive jener der heimischen Wasserkrafterzeugung zu analysieren. Beispiel 2: Fij ist alternativ verteilt. Die Wahrscheinlichkeit (W), dass die Lieferungen ausfallen ("Embargo") ist gleich einer positiven Wahrscheinlichkeit (wij): W[Fij=0] := wij Öffentliche Unternehmen 309 und, dass die Verträge (fij) erfüllt werden tritt mit der Residualwahrscheinlichkeit (1 - wij) ein: W[Fij=fij]=1 - wij Die Verträge (fij) müssen so abgeschlossen werden, dass der gesamte Energiebedarf (e) gedeckt werden kann1 e:= fij (5.79) i j Die Gleichung (5.79) (auch falls e für Nutzenergie steht) unterstellt, dass alle Brennstoffe perfekte Substitute sind. Die konträre Annahme, Brennstoffe sind nicht substituierbar, kann durch Aggregationsfunktionen des Typs (5.79) für jeden individuellen Brennstoff beschrieben werden. Falls Kombinationen von perfekten Substituten und Komplimentaritätseigenschaften bestehen, kann dies durch konventionelle lineare Beschränkungen eingeführt werden. Im Falle imperfekter Substituierbarkeit der Brennstoffe ergäbe sich eine nicht - lineare Aggregationsformel (5.79). Die Annahme, dass die Brennstoffe entweder perfekte Substitute sind, oder teilweise komplementär sind, ist analog zu Energieversorgungsmodellen, etwa in MARKAL, und die Anwendung im österreichischen Energiekonzept. Jedoch ex post, d. h. nach Abschluss der Verträge (fij), sind innerösterreichische Substitutionen mit zusätzlichen Kosten verbunden. Dies wird später erarbeitet. Bei Abschluss der Verträge sind gewisse Restriktionen zu beachten, etwa fkl = 0 (5.80) falls von der Quelle (l) der Brennstoff (k) nicht bezogen werden kann (z. B. Kohle von der OPEC) oder min fkl fkl (5.81) falls bereits Verträge über fklmin bestehen (z. B. Gas von der UdSSR) oder max fkl fkl (5.82) falls von der Quelle (5.80) maximal fklmax an Brennstoff (k) verfügbar ist (z. B. heimische Wasserkraft). 1Falls j bereits den Nutzenerigebedarf beschreibt, müssen die Brennstoffe durch entsprechende Wirkungsgrade korrigiert werden. Öffentliche Unternehmen 310 Falls nun von einer geplanten Lieferung des Brennstoffes i, fi:= fij j nur die Mengen Fi:= Fij j geliefert werden, dann fallen Kosten (ci) an, die in den ausgefallenen Mengen (Ai) steigen und und zwar überproportional (Ci ist eine konvexe Funktion): Ai:= fi - Fi ci := Ci(Ai) = Ci(fi - Fi) Ci' > 0, Ci'' > 0, Ci(0) = 0 (5.83) Die Abb. 15.2 stellt ein Beispiel einer solchen Kostenfunktion dar. Die Konvexität (Ci" > 0) beschreibt, dass der Ausfall einer zusätzlichen Einheit bei bereits geringem Liefervolumen einen größeren Verlust verursacht als bei noch hohen Lieferungen. Hingegen werden Überschüsse immer geringer bewertet. Das Erfüllen der Verträge verursacht keine zusätzlichen Kosten. Öffentliche Unternehmen 311 Kosten C1 C1 Ausfall (fi – Fi) Abb. 15.2: Konvexe Kostenfunktion (Ci" > 0) Da Versorgungssicherheit, wie alle "Wohlfahrtsanalysen" vom Standpunkt des Konsumenten aus betrachtet werden müssen, sind alle Versorgungsquellen in die Analyse miteinzubeziehen, also auch die heimische Produktion. Die heimische Erzeugung kann durch eine niedrigere Ausfallswahrscheinlichkeit begünstigt sein oder aber einen Kostenvorteil besitzen. Keiner dieser Punkte ist im allgemeinen gewährleistet, vgl. die Unsicherheit der Kohlegewinnung in Großbritannien, die Varianz im Wasserdargebot für die österreichische Stromerzeugung, oder die hohen Kosten der Förderung der deutschen Kohle. Somit sind aus versorgungspolitischer Sicht die erwarteten Adaptionskosten (J) zu minimieren. min J:= E { Ci (fij - Fij)} i j j fij (5.84) wobei E für den Erwartungsoperator steht und die Beschränkungen (5.79) - (5.82) eingehalten werden müssen. Dieses nicht - lineare stochastische Optimierungskalkül führt im Falle der Normalverteilung aus Beispiel 1 zu einem deterministischen Kalkül mit Mittel und Varianz als zusätzliche Parameter. Die tatsächliche Versorgung durch einen Brennstoff Fi sind die Öffentliche Unternehmen 312 Argumente für die separablen Kostenfunktion Ci. Diese Versorgung wird durch die Zufalls variable Fi = jFij beschrieben, deren Verteilung zu bestimmen ist. Im angenommenen Falle der Normalverteilung ist diese Summe ("Faltprodukt") wieder normalverteilt. Die Unterstellung der Normalverteilung, stochastischer Unabhängigkeit der Ereignisse und quadratischer Kostenfunktionen (Ci) vereinfacht die folgenden Berechnungen und die dafür notwendigen Information138. Fij~N(fij,(fijij)2) (5.85) Ci = ai(fi - Fi) + bi(fi - Fi)2 (5.86) Auf Grund des Faltproduktes ist die Summe wieder normal verteilt: Fi~N( fij,(fijij)2) j j (5.87) so dass die Optimierung des Erwartungswertes in (5.84) auf 2 2 min bi fijij i j (5.88) führt. 15.2 Optimale Versorgung Definiere mit (L) die Lagrange Funktion, den Lagrange - Multiplikator für die Nebenbedingung (5.79) mit (â), und verwende µij und die Kuhn - Tucker - Multiplikatoren für die (5.81) bzw. îij für die Ungleichungen in (5.82). Dann erhält man: 2 2 L = bi fij ij - ( fij - e) i j i j min max + µij (fij - fij ) + νij (fij - fij) i j i j (5.89) 138Diese Einschränkungen sind jedoch nicht essentiell. So kann z.B. die Unabhängigkeit der Lieferungen verschiedener Brennstoffe von der selben Quelle beliebige Korrelationen ersetzt werden, da der Erwartungsoperator ohnedies linear über die Brennstoffe gebildet werden kann. Öffentliche Unternehmen 313 wobei die Summation nur über jene Indices erfolgt, die aus der Komplementärmenge der Indexmenge für die Nebenbedingung (5.80) (keine Liefermöglichkeit des Brennstoffes (k) von der Quelle (l) sind. Differenzieren von (L) liefert: 2 2bifijij - + µij - νij=0 (5.90) zusammen mit e := fij i j (5.79) µij(fij - fijmin) 0, µij 0 (5.91) îij(fijmax - fij) 0, νij 0 (5.92) notwendige und hinreichende Bedingungen für eine versorgungspolitisch optimale Strategie. Für den Spezialfall quadratischer Kosten reduziert sich (5.90) auf eine lineare Beziehung, so dass für die innere Lösung gilt 2bifiij2= (5.93) d. h. die erwarteten Grenzkosten für den Liefervertrag (fij) gleich sind den Kosten einer zusätzlich zu bereitstellenden Einheit an Energie. Daraus folgt, dass der Liefervertrag fij reziprok zur relativen Varianz der Liefertreue, ij2, gewählt wird; ähnliches gilt für den Kostenparameter bi. Dieses Ergebnis entspricht der ökonomischen Intuition, denn im Optimum muss man indifferent hinsichtlich eines weiteren (infinitesimalen) Imports sein. In der Interpretation von (5.93) wird dabei verwendet, dass â den "Schattenpreis" für eine zusätzliche Einheit Energie beschreibt, d. h. = J/e. Weiter ist zu beachten, dass nur die relative Varianz (ij) für die Verträge (fij) eine Rolle spielt, nicht aber die absolute, d. h. in der Erstellung der Inputdaten ist nur die relative Vertragstreue der Lieferanten zu berücksichtigen, nicht jedoch die absolute. Das obige Optimierungskalkül kann auf verschiedene Arten gelöst werden, etwa durch Ausnutzen der Separabilität oder im Spezialfall der quadratischen Zielfunktion durch quadratische Programmierung. Es bietet sich jedoch bei genauer Betrachtung von (5.90) - (5.92) und (5.79) folgende Lösungsidee (durch sukzessive Approximation) an. i) Schätze 0 Öffentliche Unternehmen 314 ii) Berechne aus (5.90) die inneren Lösungen (fij(N)) die nur von N als Paramter abhängen. Dies erfordert im allgemeinen nicht - linearen Fall ein Newtonverfahren, im Fall von (12`) sind aber nur lineare Gleichungen aufzulösen. iii) Berücksichtige die Beschränkung fijN: = fij ( N) fijmin fijmax fijmin fij(N) fijmax wenn: fijmin fij(N) fijmax fij(N) zur Bestimmung eventueller Randlösung. iv) Berechne aus der Beziehung e = fij() i j unter Einbeziehung der Beschränkungen aus (5.81) ein neues N + 1. Dies erfordert wieder im allgemeinen ein Nullstellenverfahren, im obigen Spezialfall jedoch reduziert sich die Bestimmung von N + 1 auf eine explizite Beziehung. v) Solange N - N + 1 nicht klein genug ist setze in ii) fort. vi) Überprüfe, ob die notwendigen und hinreichenden Kuhn - Tucker Bedingungen (5.90) (5.92) tatsächlich erfüllt sind. 15.3 Die österreichische Energieversorgung als Beispiel Als Beispiel betrachten wir die Primärenergieversorgung Österreichs aus 16 verschiedenen Quellen durch vier Energieträger: Kohle, Erdöl, Erdgas, Strom - primär (Wasserkraft) und aus vier Regionen: OECD, OPEC und andere Entwicklungsländer, Osteuropa (Rußland, Polen), Österreich. Die Inputdaten für dieses Beispiel sind in den den folgenden Tabellen zusammengestellt. Die Abb. 15.3 zeigt den Erzeugungskoeffizient der Wasserkraft sowohl im Jahresdurchschnitt als auch für den Jänner, der eine relative Streuung von 8 bzw 17 Prozent über den Zeitraum 1955 - 1983 aufweist (berechnet aus Daten entnommen aus der Brennstoffstatistk 1981). Mit einer ähnlichen Unsicherheit in den Lieferungen ist wohl bei kaum einer anderen Versorgungsquelle zu rechnen. Tatsächlich liegen die Vorteile der Wasserkraft in den günstigen Kosten. Im folgenden Beispiel werden jedoch die OPEC und Öllieferungen aus dem COMECON ähnlich unsicher beurteilt. Zwischen der Unsicherheit der Wasserkraft und dem Risiko eines Lieferstopps bei anderen Energieträgern besteht der Unterschied, dass erstere statistisch erfassbar, abschätzbar und somit kalkulierbar sind. Dieser qualitative Unter- Öffentliche Unternehmen 315 schied muss im folgenden Beispiel vernachlässigt werden. Das Prinzip der konvexen Kosten bei Ausfall von erwarteten Lieferungen - teure thermische Stromerzeugung ersetzt hydraulischen Stromausfall im trockenen kalten Winter - bleibt aber erhalten. Abb. 15.3: Variation der Wasserkrafterzeugung in Österreich Tabelle 5.2 zeigt die für das Rechenbeispiel subjektiv bewertete relative Streuung in den Lieferungen. Die einzig statistisch berechnete Größe ist die (beträchtliche) Schwankung des Angebots an heimischer Wasserkraft. Sie dient, da es nur auf die relative Streuung ankommt, als Referenzfall. Alle anderen Annahmen über die Liefertreue scheinen wohl am oberen Ende plausibler Annahmen, d. h. dramatisieren eher die Bedeutung des Aspektes der Versorgungssicherheit. Tabelle 5.2: relative Streuung in den Lieferungen (Prozente) Energieträger OECD OPEC Osteuropa ÖSTERREICH -- -- -- -- -- -- -- -- -- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle 5 0 3 .1 Erdöl 2 10 10 .1 Erdgas 1 15 5 .1 Wasserk. 0 0 0 8.0 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Öffentliche Unternehmen 316 Die folgenden zwei Tabellen zeigen die möglichen Lieferquellen und die maximal möglichen Lieferungen. Für Österreich wurden dabei aktuelle die Produktionsquoten eingesetzt ausgenommen Wasserkraft, wo eine 30 % Expansion auf das maximale Potential zugelassen wird (die entsprechende Zahl ist in äquivalenten Primäreinheiten ausgedrückt). Die Lieferungen aus der als "sicher" eingeschätzten OECD werden bei Öl und Gas um 50 PJ über die aktuellen Lieferungen hinaus als möglich zugelassen. Tabelle 5.3: Möglich Lieferquellen (indiziert mit *) Energieträger OECD OPEC COMECON ÖSTERREICH - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle * * * Erdöl * * * * Erdgas * * * * Wasserk. * - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Tabelle 5.4: Maximale Liefermengen (fijmax) - Petajoule Energieträger OECD - - - - - - - - - - - - - - - - - - - - Kohle Erdöl 100 Erdgas 50 Wasserk. - - - - - - - - - - - - - - - - - - - - - - - - - - - - OPEC Osteuropa ÖSTERREICH - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 38 57 52 350 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Die Beschränkungen über die minimalen Ströme sichern die Ausnutzung der Wasserkraft (die ohne diese Beschränkung nur zu einem geringen Teil genützt werden würde) und die nicht substituierbaren Anteile des Ölkonsums: Verkehr + Petrochemie, die der OPEC dem COMECON zugeordnet wurden, siehe Tabelle 5.5. Die Tabelle 5.6 listet die typische Zusammensetzung des Eneregieverbrauchs. Öffentliche Unternehmen 317 Tabelle 5.5: Minimale Liefermengen fijmin (PJ) Energieträger OECD OPEC Osteuropa ÖSTERREICH - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle Erdöl 136 79 Erdgas Wasserk. 245 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Tabelle 5.6: Tatsächliche Liefermengen - Petajoule Energieträger OECD OPEC Osteuropa ÖSTERREICH - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle 47 0 64 38 Erdöl 63 234 108 57 Erdgas 1 0 144 52 Wasserk. 0 0 0 245 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Die Variation in der Konsumentenrente ist eine Möglichkeit zur Quantifizierung der Verluste für die Konsumenten aus dem Ausfall eines Brennstoffes. Es sei hier nur wiederholt, dass die Konsumentenrente die Ersparnis jener Konsumenten mißt, die bereit gewesen wären mehr zu zahlen. Als versorgungspolitisches Ziel kann nun postuliert werden, dass der Verlust an Konsumentenrente durch das Ausbleiben von geplanten Lieferungen minimal wird. Also für jeden Brennstoff i beschreibt fi g(x)dx - fig(fi) 0 Fi - g(x)dx - Fig(Fi) 0 (5.94) den sozialen Verlust (Gewinn) bei Ausbleiben (Überschuß) an Lieferungen fi - Fi. Dabei bezeichnet gi die (inverse) Nachfragefunktion nach dem Brennstoff i. Falls eventuelle Ausfälle tatsächlich über den Marktmechanismus gelöst werden, d. h. durch entsprechende Preissteigerungen, dann ist die Konsumentenrente eine gute und sinnvolle Approximation. Mögliche Öffentliche Unternehmen 318 Überschüsse werden dabei positiv bewertet, da sie zu einem niedrigeren Preis führen. Insbesonders die jüngste Schwemme auf den Energiemärkten hat gezeigt, dass Unsicherheiten nicht nur in die Richtung eines Embargos gehen müssen, sondern durchaus auch in die Richtung von Überschüssen und daraus resultierenden niedrigen Preisen gehen könnten. Für den Spezialfall einer linearen Nachfrage nach dem Brennstoff i, gi = i + ßiFi, i > 0, ßi < 0 für jeden Brennstoff i, errechnet man für (5.94): ßi - - - - (Fi2 - fi2) 2 (5.95) Da die Lieferungen Fij normalverteilt und unkorreliert sind gilt, dass die Erwartung des Ausdrucks in der Klammer von (5.95) gleich der Varianz von Fi ist. Daraus folgt die quadratische Kostenstruktur (5.88) als soziale Zielgröße, wobei bi = - ßi/2. Das heißt, dass die quadratische Zielfunktion (5.88) sowohl zur Beschreibung von (technischen) Adaptionskosten als auch zur Evaluierung des sozialen Verlustes über die Konsumentenrente herangezogen werden kann, wenn linearen Nachfragen postuliert werden. Die Parameter für die Konsumentenrente wurden aus empirischen Schätzungen von Nachfragebeziehungen kalibriert. In Wirl (1987) werden Nachfrageelastizitäten kurz - und langfristig für den sektoriellen Brennstoffverbrauch geschätzt. Basierend auf diesen Schätzungen werden aggregierte kurzfristige Nachfragekurven gegenüber den Primärenergiepreisen kalibriert, wobei die folgende Beziehung zwischen End - und Primärenergiepreiselastizität verwendet wird. Sei: Y die Enenergienachfrage nach einem Brennstoff pe der Preis je Einheit Endenergie die sich aus pm dem Importpreis und einem additiven Aufschlag zusammensetzt: pe = pm + e, m die kurzfristige Nachfrageelastizität respektive der Endverbraucherpreise bzw. respektive dem Preis für Primärenergie dann gilt: Öffentliche Unternehmen 319 ln Y Y pe pm pe pm m:= = - - - - = e - ln pm pe pm Y pe pe (5.96) da (pe/pm) = 1, so dass die Primärpreiselastizität immer (absolut) geringer als die des Endenergiepreises ausfällt. Die folgende Tabelle 5.7 fasst die Annahmen über die Preiselastizitäten zusammen und leitet daraus unter Hypothese einer linearen Nachfrageapproximation die Kostenkoeffizienten bi ab. Tabelle 5.7: Kurzfristige Preiselastizitäten (e,m) und Kosten Koeffizient (bi) Industrie Klein Verkehr Sekundär Primär bi - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle - .12 - .90 0.00 - .40 - .18 0.24 Erdöl - .22 - .51 - .30 - .32 - .15 Erdgas - .22 - .44 0.00 - .27 - .17 0.22 Strom - .17 - .26 0.00 - .21 - .02 0.21 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 0.38 - - - - - - - - - - - - - - Die Ergebnisse diese Beispiels sind in der unten stehenden Tabelle 5.8 zusammengestellt. Dabei zeigt sich, dass zusätzliches Erdöl nur aus OECD Quellen bezogen werden sollte. Analog sollte Gas aus dem OECD Raum als auch von der OPEC die einseitige Abhängigkeit von der Sowjetunion reduzieren. Die daraus resultierenden Brennstoffanteile sind jedoch in etwa in Übereinstimmung mit der momentanen Marktverteilung. Tabelle 5.8: Optimale Lieferkontrakte (PJ) Energieträger OECD OPEC Osteuropa ÖSTERREICH - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle 72 0 119 38 Erdöl 100 136 79 58 Erdgas 50 26 79 52 Wasserkraft 0 0 0 245 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Der versorgungspolitische "Preis" für die aktuelle Verteilung ist eine 69 % Verschlechterung gegenüber dem Optimum. Trotz dieser scheinbar substantiellen Verschlechterung resultiert jedoch nur ein unbedeutender Verlust, ausgedrückt in monetären Einheiten, aus dieser Abweichung. Daher scheinen die externen Effekte der Versorgungspolitik für einen weiten und relevanten Bereich der Energiepolitik als vernachlässigbar! Dies kontrastiert stark die Einschät- Öffentliche Unternehmen 320 zung durch Politiker und andere Entscheidungsträger. Diese Aussage ist insbesonders deshalb überraschend (und deshalb robust), da extrem hohe Untreue in den Lieferungen vorausgesetzt wurde. 15.4 Zusammenfassung Die Versorgungssicherheit spielt eine zentrale Rolle in der Energiepolitik. So ist es eine der Hauptaufgaben der International Energy Agency (IEA) die Versorgung der Industrieländer mit Energieträgern sicherzustellen bzw. die Versorgungssicherheit zu erhöhen. Trotz der Bedeutung des Aspektes der Versorgungssicherheit, wurde dieser Aspekt in ökonomischen Analysen des Energiemarktes vernachlässigt. Die Vernachlässigung ist erklärbar, durch den Optimismus der Ökonomen, die davon ausgehen, dass jeder Handel, z. B. auch der Handel mit Erdöl, beiden Parteien nützt. Da nun dieser Handel auch im Interesse der Produzenten liegt, sind Embargos139, und daraus folgende Versorgungsprobleme der Konsumentenländer, kaum zu erwarten. Diese Arbeit versucht beide Aspekte zu integrieren: die Sorge der Politiker um die Versorgungssicherheit eines Landes wird ernst genommen und basierend auf einem ökonomischen Kalkül wird die optimale Energieversorgung aus versorgungspolitischer Sicht errechnet. Neben der Bestimmung des optimalen Mixes an Primärenergieträgern erlaubt diese Analyse auch eine Abschätzung des externen Effektes der Versorgungssicherheit, das heißt, die Abschätzung der möglichen sozialen Kosten, die aus der Unsicherheit von Lieferungen resultieren. Das Problem, Versorgungspolitik ergibt sich nur unter folgenden grundlegenden Annahmen140: - Unsicherheiten der tatsächlichen Liefermengen; - die Adaption bei Unterbleiben von vertraglichen Lieferungen verursacht konvexe (höhere Ausfälle führen zu überproportionalen) Kosten. Unter diesen Voraussetzungen werden die Entscheidungsträger versuchen, die Verträge für Liefermengen an Primärenergie, differenziert nach Energieträger und Herkunftsland, so auszuwählen, dass die erwarteten Anpassungskosten, aufgrund mangelnder Liefertreue eines Vertragspartners, (spezifiziert nach Land und Brennstoff) minimal werden. In dieses Kalkül sind bestimmte Randbedingungen einzubringen, z. B. bereits abgeschlossene Verträge, die nicht mehr revidiert werden können, Forcierung bestimmter Energiequellen aus anderen, nicht versorgungspolitischen Gründen - z. B. Nutzung der Wasserkraft - usw. Für die quantitative Analyse wird dabei folgende technische Voraussetzung getroffen: die tatsächlichen Lieferungen sind normal verteilt; der Vertrag legt nur die mittlere Liefermenge 139Die Verknappung 1973/74 war niemals ein effektives Embargo. Da insbesonders in der Energiewirtschaft die Zuverlässigkeit eine hohe Rolle spielt, ist es für jeden Produzenten wichtig die Reputation eines zuverlässigen Vertragspartners zu erwerben. Dies reduziert erheblich die Wahrscheinlichkeit eines Embargos aus kurzfristigen, opportunistischen Gründen - politisch oder ökonomisch bedingt. 140Sind diese Voraussetzungen nicht erfüllt, dann stellen sich keine versorgungspolitischen Fragen, weil dann keine Vorsorge optimal ist. Öffentliche Unternehmen 321 fest. Das bedeutet, dass die tatsächlich gelieferten Mengen sowohl über als auch unter dem Kontrakt liegen können. Jedoch aufgrund der Eigenschaft konvexer Anpassungskosten werden Ausfälle bedeutend stärker bestraft als eventuelle Überschüsse für gut befunden werden. Die Wahl der Normalverteilung wurde primär durch die Unsicherheiten im Dargebot der Wasserkraft gewählt. Eine alternative Formulierung wäre die Alternativverteilung zu nehmen, so dass mit einer gewissen Wahrscheinlichkeit ein Kontrakt erfüllt bzw. mit der Residualwahrscheinlichkeit verletzt wird und überhaupt nichts geliefert wird. Insbesonders hat die jüngste Schwemme auf den Energiemärkten gezeigt, dass Unsicherheiten nicht nur in die Richtung eines Embargos gehen müssen, sondern durchaus auch in die Richtung von Überschüssen und daraus resultierenden niedrigen Preisen gehen können. Dieser Ansatz wurde auf die Frage der österreichischen Energieversorgung angewandt. Die Kosten, die aus fehlenden Mengen an einem Brennstoff anfallen, werden durch die Konsumentenrente bzw. Änderungen der Konsumentenrente approximiert. Die Konsumentenrente gibt die gesamte Zahlungsbereitschaft der Konsumenten über den tatsächlichen Umsatz hinaus an; das ist jener monetäre Term, den die Konsumenten eigentlich bereit gewesen wären, über den Marktpreis für einen Brennstoff zu bezahlen. Diese Größe gibt somit die zusätzliche Konsumentenersparnis bei Überschüssen bzw. die Kosten und Verluste aus einer Unterversorung an. Basierend auf empirischen Nachfragebeziehungen für Brennstoffe, nach Wirl (1987), wurden die Parameter der Nachfragefunktionen und durch Integration die Parameter der Konsumentenrente bestimmt. Die Tabelle 5.2 zeigt Annahmen über die relative Liefertreue bei einzelnen Brennstoffen und Bezugsregionen. Die Schwankungen in der Wasserkraft sind substantiell. Daher konnte die Ausnützung der Wasserkraft nur durch Restriktionen sichergestellt werden. Die Forcierung nationaler Energiequellen wurde durch die Hypothese sicherer Bezugsquellen implementiert. Diese Annahme ist im allgemeinen nicht zutreffend wie am besten die lokale Kohleversorgung in Großbritannien dokumentiert. Das heißt, vom Standpunkt des Konsumenten aus gesehen - der Souverän in ökonomischen Analysen - ist die heimische Versorgung nicht wirklich immer sicherer als Importe. Alle anderen Schwankungen in den Lieferungen - scheinen nach Meinung der Autoren - am oberen Ende plausibler Bandbreiten zu liegen. Die Abb. 15.4 zeigt das dazugehörige optimale Versorgungskonzept für Österreich. Trotz der Annahme hoher Unsicherheit der Lieferungen resultieren daraus verhältnismäßig geringe externe Effekte, d. h. der versorgungspolitische, monetäre Verlust bei der tatsächlichen Deckung des Energiebedarfes ist gering (verglichen mit dem versorgungspolitischen Optimum). Mit anderen Worten, "Energiesparen" ist aus versorgungspolitischer Sicht kaum zu rechtfertigen und die Vernachlässigung von versorgungspolitischen Gesichtspunkten ist in erster Näherung zulässig. Denn die Betrachtung von unsicheren Lieferungen führt zu keinen Kosten, die in signifikanter Relation zu den Brennstoffpreisen stehen. Öffentliche Unternehmen Abb. 15.4: Primärenergieversorgung Österreichs 322 Anhang: Mathematische Grundlagen 323 16 Einige mathematische Grundlagen In diesem Kapitel sind einige mathematische Begriffe und Sätze teilweise ohne Beweis zusammengestellt. Die erste Sektion stellt einige allgemeine wichtige Sätze zusammen die zweite Sektion betrachtet das Problem der nichtlinearen Optimierung. 16.1 Sätze aus der Analysis Definition: Eine Funktion f von x heißt konkav auf einem Intervall [a,b] R, wenn für alle : 0 1 und für alle x1, x2[a,b] mit x1 x2 gilt: f(x1) + (1 - ) f(x2) f( x1 + (1 - )x2) (1) Bemerkung: Dies besagt, dass der gewichtete Durchschnitt der Funktionswerte an den Punkten x1, x2, das ist die entsprechende Verbindungsgerade von f(x1) nach f (x2) unter den Funktionswerten liegt, vgl.die Abb. 16.1: λ f(x1) + (1- λ) f(x2) a x1 f (x) x2 b x Abb.16.1: Darstellung einer konkaven Funktion Satz: Ist f eine konkave Funktion und x1 x2 dann gilt: (x2 - x1) f' (x1) f(x2) - f(x1) (x2 - x1) f'(x2) d. h. der Anstieg von f fällt. Ist f zweimal stetig differenzierbar, dann ist f dann und nur dann konkav, wenn: f" 0 Die obige Definition kann auf n - dimensionale Funktionen verallgemeinert werden: f: Rn - > R, so dass f für Vektroen x1 x2 die Bedingung (1) erfüllt. Anhang: Mathematische Grundlagen 324 Analog kann der obige Satz für n - dimensionale Funktionen angewandt werden: n i i f f(x2) - f(x1) (x2 - x1) (x1) i=1 xi und eine zweimal stetig differenzierbare Funktion f: ist dann und nur dann konkav, wenn die Hessische Matrix: 2f i,j = 1, n xixj negativ semidefinit ist. Bemerkung: Die Eigenschaft, ob eine Matrix positiv oder negativ semidefinit oder indefinit ist, lässt sich durch Berechnung der Hauptminoren einer Matrix bestimmen. Die Matrix ist negativ definit, wenn die Vorzeichen der Determinanten das Vorzeichen alternierend wechseln. a11 a12 a13 ... a1n a21 a22 a23 ... a2n A:= ..................……. ..................….….. an1 an2 an3 ... ann Semidefinit bedeutet, dass einzelne Determinanten verschwinden können. Die Matrix ist positiv semidefinit wenn A:=[aij] i,j = 1,...n für alle k n gilt: Mk:=[al,m] l,m = 1,...k und Mk 0 ; Mk heißt k - te Hauptminor. Positiv definite Matrizen haben die Eigenschaft, dass die damit assoziierten quadratischen Formen xtAx nur Vektoren mit positiven Elementen liefern, xtAx > 0. Analog liefern negativ semidefinite Matrizen nichtpositive Werte für die dazugehörige quadratische Form. Die Definition ist dementsprechend analog: Die Matrix A:=[aij] , i,j = 1,...n Anhang: Mathematische Grundlagen 325 ist negativ definit, dann und nur dann wenn: sign (Mk) = ( - 1)k Beispiel: A= a11 a12 a11 a 22 A semi - positiv definit ... a11 0 und was wiederum impliziert, dass a22 0, da a12 = a21. (a11 a22 - a12 a21)0 A negativ - semi definit ... a11 0 und (a11a22 - a12 a21) 0 Implizites Funktionen - Theorem sei f: E < Rn + m - - > Rn eine stetig differenzierbare Abbildung so dass: f(a,b) = 0, a = (a1,... an)t b = (b1,...bm)t Dann gibt es offene Teilmengen U < Rn + m und W < Rn wobei (a,b)tU und bW so dass: für alle yW: existiert ein eindeutiges x = (x1,...xn)t: (x,y)tU und f(x,y) = 0 so dass x = g(y) geschieden werden kann mit a = g(b); f(g(y),y) = 0 für alle yW und die partiellen Ableitungen können aus 1 g f f y x y berechnet werden, falls f invertierbar ist. x Bemerkung: Dieses Theorem lässt uns unter den obigen Bedingungen aus einer Beziehung: Anhang: Mathematische Grundlagen 326 f(x,y) = 0 nach x = g(y) auflösen. Da in der Ökonomie sehr oft Optimierungsprobleme studiert werden, wo die notwendigen Bedingungen in der Regel zu einer Bedingung f = 0 führen, ist dieses Theorem sehr hilfreich zur Studie qualitativer Eigenschaften. Beispiel: f: R2 - - > R f(x,y)=0 => Es existiert ein g: y = g(x) f fy:= - - = 0 y und: fx g' = - - fy Beispiel: f(x,y)=x2 + y2 - 1, W ist der Durchschnitt positive Teilraum des R2 mit dem Einheitskreis, W={(x,y)R2 so dass x > 0, y>0 und x2 + y2 1}, dann ist y = 1 - x2. 16.1.1 Enveloppentheorem Betrachte folgendes Maximierungsproblem: max f(x,a) , f:R¨ - - >R x und sei x(a) die optimale Lösung abhängig vom Parameter a. M(a):= f(x(a),a) Für qualitative Analysen ist dabei oft wichtig die Änderung in f(x(a),a) oder x(a) abhängig von der Änderung in a zu untersuchen. Die Kettenregel liefert: dM f dx f - - = - - - - + - da x da a Da jedoch x(a) die optimale Wahl für jedes a darstellt, also f - - =0 x erhält man: dM f - - = - a da Anhang: Mathematische Grundlagen 327 d. h. die Änderung in der Zielfunktion des optimal adaptierten ist gleich der Änderung der Zielfunktion ohne Beachtung der Variationen in x, so dass die gesamte Ableitung und die patielle Ableitung zusammenfallen. 16.1.2 Leibnizsche Regel: Definition: Sei (x,t) - - > f(x,t) eine stetige Funktion definiert auf [a,b]x[A,B] und seien: x - - > (x) x - - > ß(x) stetig auf [a,b] wobei: A (x) B A ß(x) B dann heißt: ( x) g(x) = f ( x, t )dt ( x) ein Parameterintegral. Satz: Falls alle Funktionen: f, und ß stetig differenzierbar sind, dann ist auch g(x) stetig differenzierbar und die Ableitung kann aufgrund der Formel: ( x) g'(x) = f(x,ß(x))ß'(x) - f(x,(x))'(x) + berechnet werden. f ( x, t )dt x ( x) Anhang: Mathematische Grundlagen 328 16.2 Nichtlineare Optimierung In diesem Kapitel wird folgendes Problem studiert: F(x) max x xXRn d. h. eine reellwertige Funktion F:X Rn - - > R ist zu maximieren über einen vorgegebenen Wertebereich X. Die Elemente des Vektors x werden dabei oft Instrument genannt. Falls ein Element von X ist, xX, dann wird x als "zulässig", ansonsten: xX als "unzulässig" bezeichnet ("feasible", "infeasible") Definition: x*X heißt ein lokales Maximum, wenn es eine - Umgebung um x* gibt, N so dass: F(x*) F(x) für alle xN. Definition: x*X heißt ein globales Maximum, wenn: F(x*) F(x) für alle xX. Existenzsatz von Weierstraß: F stetig X abgeschlossen und beschränkt, dann existiert ein globales Optimum. Bemerkungen: X = Rn, F zweimal stetig differenzierbar, dann sind die Bedingungen für ein lokales Optimum bekannt. Notwendig: Verschwinden der ersten Ableitung: F - - =0 xi hinreichend: i = 1,...,n F = 0 und xi 2F negativ semidefinit xi x j Annahmen: Im folgenden seien alle Funktionen F, g, h, ... stetig differenzierbar. 16.2.1 Das Problem von Lagrange Ist der Lösungsraum X durch Gleichungen beschrieben, etwa g(x) = b oder ausgeschrieben: Anhang: Mathematische Grundlagen 329 g1 (x1,...xn) = b1 ............... gm (x1,...xn) = bm erhält man das Problem von Lagrange. max x F(x) so dass: g ( x) = b Angenommen: F(x1,x2) - - > max x1,x2R soll maximiert werden unter der Beschränkung: g(x1, x2) = 0 wobei (g/x2) = 0 sei, so dass das implizite Funktionstheorem angewandt werden kann: h: x2=h(x1) g x und: h' = 1 g x2 Daher kann x2 = h(x1) für x2 eingesetzt werden. Differenzieren nach x1 liefert jetzt als notwendige Bedingung für ein Maximum: F F F F g/x1 + h' = - = 0 x1 x2 x1 x2 g/x2 Analog differenzieren wir die Beschränkung (erlaubt da: g 0) g g g g g/x1 + h' 0 = - x1 x2 x1 x2 g/x2 Anhang: Mathematische Grundlagen 330 Definieren wir: F x2 y: = g x2 erhalten wir für die erste der obigen zwei Gleichungen: F g - y = 0 x1 x1 Multiplizieren der Identität für die Beschränkung mit F/x2 liefert: g F F/ F - = 0 x1 x2 g/x2 x2 also: F g - y = 0 x2 x2 Jedoch die zwei Bedingungen: F g - y = 0 x1 x1 F g - y =0 x2 x2 und die Beschränkung: g(x1,x2) = 0 können als stationärer Punkt einer Funktion: L:= F(x1, x2) - y g(x1,x2) abgeleitet werden. Dieses Prinzip gilt für beliebige Dimension für F und g. Die Funktion L heißt die Lagrange Funktion, die Variable y der Lagrangemultiplikator. Anhang: Mathematische Grundlagen 331 Notwendige Optimalitätsbedingungen für das Problem von Lagrange Satz: Angenommen x* sei ein lokales Optimum des Problems von Lagrange und die Jacobi Matrix der Beschränkungen [g/x] habe maximalen Rang, dann existiert ein Vektor yRm, so dass gilt: L:= F + yt (b - g) t L F g y=0 x x x L - - = b - g(x) = 0 y Dieser Satz liefert (n + m) Gleichungen um (n + m) Variablen zu bestimmen. Satz: Die notwendigen Bedingungen sind hinreichend für ein lokales Optimum, wenn in der Matrix 0 L t yx g x 2 g x 2 L xi x j die letzten (n - m) Hauptminoren ihr Vorzeichen wechseln beginnend mit ( - l). Dies ist äquivalent zur Forderung der Konkavität von L Interpretation der Lösung t I. F g = y x x oder ausgeschrieben: F gi = Σ yi xi j=1 xi m d. h. der Gradient am optimalen Punkt x* setzt sich als gewichteter Durchschnitt der Beschränkungsableitungen zusammen. II., der Lagrange Multiplikator kann als "Schattenpreis" interpretiert werden. Dazu eignet sich eine Verallgemeinerung des Envelopentheorems auf n - dimensionale Probleme: max f(x,a) f: Rn x R - - > R Anhang: Mathematische Grundlagen 332 g(x,a) = 0 g: Rn x R - - > R Sei L(x,y,a) = f(x,a) - ytg(x,a) die Lagrange Funktion und sei x(a) die optimale Wahl von x, und M(a) = f(x(a),a) Dann gilt aufgrund des Enveloppentheorems L (x(a),a) f g dM t - - = = - - - y - a a a da Analog zum eindimensionalen Fall des Envelopentheorems spielt nur die partielle Ableitung eine Rolle im Differentialquotienten. Der Beweis gibt sich einfach, da: dM n f xi f - - = - - + - i=1 xi a a da nach Anwendung der Kettenregel. Aufgrund der Annahme, dass x(a) optimal ist muss x(a) die Bedingungen erster Ordnung für ein Optimum erfüllen: f g t - - =y - x x Weiter gilt: g(x(a),a) 0. Daher ergibt Differenzieren: n g dxi g + - - = 0 i=1 xi da a und Substitution liefert die behauptete Beziehung: dM f g - - = - - - yt - da a a Dieses Ergebnis erlaubt uns die Lagrange Multiplikatoren zu interpretieren, sei: M (a): = max f(x) gi(x) – ai = 0 i=1,...k Anhang: Mathematische Grundlagen gi dann: = - 1 ai 333 f und - - = 0 liefert a aufgrund des Envelopentheorems: M = yi ai d. h. yi gibt uns die Änderung des Zieles als Folge einer marginalen Relaxation der Beschränkung. 16.2.2 Das Theorem von Kuhn – Tucker Problem: max F(x) x wobei: g (x) ≤ 0 Annahmen: F, g stetig differenzierbar, F: Rn - > R, g: Rn - > Rm F konkav und g konvex "constraint qualification": x0: g(x0) < 0 L:= F(x) - µtg(x) = F(x1, x2, …, xn) - m g x , x ,..., x j 1 j j 1 2 (1) g j L F g F m t j 0, i 1,...n xi xi xi xi j 1 xi (2) µj gj(x*1,...x*n) = 0 µj0 (3) gj(x*1,...x*n) 0 n j = 1,...,m j = 1,...,m Die Bedinungen (1) - (3) sind unter den obigen Annahmen notwendig und hinreichend für ein globales Optimum x*. Bemerkungen: 1. falls entweder F nicht global konkav ist und/oder g nicht global konvex ist, dann sind die Bedingungen (1) - (3) nur mehr notwendig. Anhang: Mathematische Grundlagen 334 2. die obigen Bedingungen erlauben uns das Nachprüfen, ob ein bestimmter Punkt tatsächlich das Optimum darstellt, helfen jedoch kaum zum Auffinden dieses Punktes, da dies zum Raten aktiver/nicht aktiver Beschränkungen führt. 3. Die Variablen µjR + heißen Kuhn - Tucker Multiplikatoren und haben eine ähnliche Interpretation wie der Lagrange Multiplikator. Beispiel: max F(x) : = 6x1 + 4x2 + 2x3 - 3x12 - 2x22 - (1/3) x32 g1(x): 0 - x1 g2(x): g3(x): g4(x): 0 - x2 - x3 x1 + 2x2 + x3 - 4 0 0 Die Zielfunktion F ist konkav, die Beschränkungen sind konvex, so dass das Kuhn - Tucker Theorem angewandt werden kann. 4 L:=F(x) - gi(x)µi i=1 L -- - = 6 - 6x1 + µ1 - µ4 = 0 x1 L -- - = 4 - 4x1 + µ2 - 2µ4 = 0 x2 L 2 -- - = 2 - - x3 + µ3 - µ4 = 0 3 x3 x1 µ1 = 0 x2 µ2 = 0 x3 µ3 = 0 µ4 (x1 + 2x2 + x3 - 4) = 0 µi > 0, i= 1, 2, 3, 4 'Rate': xi > 0, i=1, 2, 3 => µi = 0, i= 1, 2, 3 Anhang: Mathematische Grundlagen 335 Daraus folgt: µ4 x1 = 1 - -6 µ4 x2 = 1 - -2 3µ4 x3 = 3 - 2 Einsetzen in die letzte ("complementary slackness") Bedingung: 3µ4 µ4 4 µ4 { (1 - -- ) + 2 (1 - -- ) + (3 - ) - 4} = 0 6 2 2 3 => µ4 = 4 so dass: 7 5 15 x1 = - , x2 = - , x3 = -8 8 8 die optimale Lösung (x1,x2,x3) bestimmt ist. Diese Lösung erfüllt alle Voraussetzungen und Bedingungen des Kuhn - Tucker Theorems und muss daher optimal sein. Deshalb kann keine andere Lösung diese Bedingungen erfüllen. Angenommen: x1 = 0, x2 > 0, x3 > 0, (x1 + 2x2 + x3 - 4) < 0. Daraus folgt: µ1 > 0, µ2 = µ3 = 0 = µ4 daraus folgt: 6 - x1= - µ1 => µ1= - 6 < 0 "Widerspruch" 16.2.3 Ökonomische Nachfragetheorie Ein individueller Konsument kauft und wählt die Güter so aus, dass sie seinen individuellen Präferenzen entsprechen und die Ausgaben durch sein Einkommen gedeckt werden können. Dieses Auswahlproblem kann formal etwa in der folgenden Form dargestellt werden: X Konsumraum, X Rn + Anhang: Mathematische Grundlagen 336 u(x1,...xn): X -- > R heißt eine Nutzenfunktion, so dass für x1, x2 X, zwei Konsumbündel, > "Präferenzrelation": x1 > x2 heißt das Konsumbündel 1 wird dem Bündel 2 vorgezogen. Dann: u(x1) > u(x2) Die Existenz einer solchen Nutzenfunktion ist unter relativ allgemeinen und plausiblen Annahmen gesichert. Weiter seien: p = (p1,...pn)t .......... Güterpreise und M ....... das individuelle Einkommen. Der Konsument versucht durch folgendes Optimierungskalkül eine Konsumentscheidungen zu treffen. max u (x1,...xn) so dass: n pi xi M i=1 Falls es keine Sättigung gibt, u/xi > 0 global, dann ist im obigen System die Ungleichung bindend in der Form einer Gleichung. Wir definieren die Lagrange Funktion: L = u - y(ptx - M) so dass die notwendigen Bedingungen ein Optimum verlangen L u = - ypi = 0 i=1,...,n xi xi L oder: -- = ptx - M = 0 y Anhang: Mathematische Grundlagen 337 u xi pi = -u pj xj das Verhältnis des Grenznutzens (=Substitutionsrate - (absolut) zwischen Güter i und j: für denselben Nutzen; Beispiel (Hilfe: Implizites Funktionstheorem)) muss gleich dem Preisverhältnis sein. Falls tatsächlich eine optimale Lösung existiert und die Bedingung 2. Ordnung strikt erfüllt werden, kann für die optimalen Konsumbedingungen in Abhängigkeit der Preise und Einkommen aufgelöst werden (Implizites Funktionen Theorem). xi*=fi(p1, ... Pn, M) Diese Nachfragefunktionen erfüllen gewisse theoretische Eigenschaften, z. B. müssen homogen vom Grade 0 sein, d. h. eine proportionale Änderung aller Preise und Einkommen sollte die Nachfrage unverändert lassen. Definition: Die Funktion v(p,M) definiert als: v(p,M):= u(x*)= u(f1(p1,...Pn,M),..., fn(p1,...Pn,M)) heißt indirekte Nutzenfunktion. Die indirekte Nutzenfunktion gibt den maximalen Nutzen bei gegebenen Preisen und Einkommen, der durch die optimale Wahl des Konsumbündels x* möglich ist: v(p,M): =max u(x1,...xn) x so dass: ptx - M = 0 Anwendung des Envelopentheorems zur Berechnung von v u t y px M pi pi pi und Verwendung von: u 0, pxt M = xi pi pi v und y = -- ergibt: M v v = - xi* -pi M Anhang: Mathematische Grundlagen oder: 338 v pi xi* = - v -M die letzte Version heißt die Identität von Roy. Definition: Sei xi = fi(p1,...pn,M) eine Nachfragefunktion dann heißt: ln fi ij.: = heißen Preiselastizitäten, wobei ln pj ii ... Eigenpreiselastizität ij. ... Kreuzpreiselastizität ln fi yi: = die Einkommenselastizität heißen ln M Bemerkung: i) ii = ln f i ln pi fi fi = pi pi ∆ xi so dass: ii xi ii die prozentuelle Änderung der Nachfrage (∆xi/xi) bei einer 1%igen Änderung des Preises angibt (pi/pi) ii) "Faustregel" - Preiselastizitäten negativ, Einkommenselastizität positiv, was jedoch i. A. nicht gültig ist und nicht aus dem obigen Optimierungskalkül abgeleitet werden kann, "Giffensches" - Paradoxon. Die Konsumentenrente wird hier für Marshall'sche Nachfragekurven definiert, also für Gütermärkte, wo die Einkommenseffekte von Preisänderungen vernachlässigbar sind. Die Anwendung dieses Prinzips geht auf Dupuit's Anwendung auf öffentliche Projekte zurück, Dupuit (1844), der damit der Vorläufer der modernen Kosten - Nutzenanalyse ist. Dies Konzept Anhang: Mathematische Grundlagen 339 wurde dann von Marshall (1890) aufgegriffen und von Hotelling (1932, 1938) verallgemeinert und auf die öffentliche Preisbildung angewandt, Die Intuition hinter der Konsumentenrente ist einfach: Abschätzung der Ersparnis der Konsumenten bei einem gegebenen Marktpreis. Die Abb.16.2 zeigt eine inverse Nachfragekurve. Beim Preis p1 = P(x1) bzw. bei angebotener Menge x1 und inverser Nachfrage P(x) stellt die schraffierte Fläche die Ersparnis jener Konsumenten dar, die eigentlich bereit gewesen wären, mehr zu zahlen. P CS P(x) p1 p1x1 0 x1 x Abb. 16.2: Darstellung der Konsumentenrente Dies stellt sich arithmetisch als das Integral weniger dem Umsatz dar: x P(y)dy - xP(x) 0 (1) Die Fläche in (1) misst die gesamte Zahlungsbereitschaft (willingness to pay) über den tatsächlichen Umsatz hinaus. Als der Bruttoüberschuss wird oft nur das Integral in (1) bezeichnet, und unter dem Nettoüberschuss versteht man den Bruttoüberschuss weniger den Produktionskosten C(x), die bei der Erzeugung von x anfallen: x P(y)dy - C(x) 0 (2) Anhang: Mathematische Grundlagen 340 Hotelling verallgemeinerte dieses Ergebnis auf n - Güter. Sei nun p = (p1,...,pn)t durch ein inverses Nachfragesystem P bestimmt: p = P(x), P = (P1(x),...,Pn(x)), x = (x1,...,xn)t. Dann wird die Konsumentenrente analog, als Linienintegral (entlang einer Kurve F vom Ursprung 0 nach x) und der gesamte soziale Überschuss nach Abzug der Produktionskosten W= n P ( y)dy C ( x) F ( 0 , x ) i 1 i i (3) bestimmt. Da (3) die natürliche Verallgemeinerung von (2) darstellt, ist die Interpretation über die gesamte Zahlungsbereitschaft analog. Im allgemeinen ist dieses Linienintegral pfadabhängig, außer man addiert sogenannte Integrabilitätsbedingungen: Pi/xj = Pj/xi , für alle i,j (4) Somit folgen für den Spezialfall unabängiger Nachfragen, pi = Pi(xi) die Integrabilitätsbedingungen unmittelbar. Die Bedingung (4) kann auch unter schwächeren und allgemein plausibleren Bedingungen abgeleitet werden, etwa wenn die Budgetbeschränkung der Konsumenten durch die Wahl der hier betrachteten n - Güter nicht bindend ist. Lemma: q = f(x,y), f konkav, fx > 0, fy > 0 => Isoquanten sind konvex und fallend. Beweis: f(x,y) - qo = 0 Explizite Darstellung von y aufgrund des Impliziten Funktionentheorems: y (xj, qo) = g(x,qo) dg fx y'(x) = -- = - -- < 0 dx fy d d fx y"(x) = -- y'(x) = - -- -dx dx fy d fx fy [fxx + fxyy'] - fx [fyyy' + fxy] -- -- = = dx fy f y2 = y' [fxy fy - fyy fx] + [fy fxx - fx fxy] f y2 Division durch fy > 0 Anhang: Mathematische Grundlagen - fx - fx = y' fxy fyy + fxx fxy fy fy fy Aber: fx y' = - -- ... fy so dass: fxy y' + (y')2 fyy + fxx + fxy y' = (y')2 fyy + 2fxy y' + fxx = Dies kann als quadratische Form angeschrieben werden: f xx (1, y') f xy f xy 1 f yy y` die negativ definit ist, wenn f konkav ist d fx d fx => -- -- < 0 und y''(x) = - -- -- > 0 ■ dx fy dx fy < 0, 341