International Industrial Management I

Transcription

International Industrial Management I
Skriptum zum Vertiefungskurs
International Industrial Management I
Univ. Prof. Dr. Franz Wirl
Lehrstuhl für Industrie, Energie und Umwelt
Universität Wien
Brünnerstr. 72 (BWZ), Zimmer 123
Telephon: +43-1-4277-38101
Fax: +43-1-4277-38104
E-Mail: franz.wirl@univie.ac.at
Homepage: http://bwl.univie.ac.at/ieu
Version
WS 2015/16
Franz Wirl: Industriebetriebslehre
2
Inhalt
0
Vorwort ...................................................................................................................................................6
1
Einführung ..............................................................................................................................................9
1.1
Historische Entstehung von Industriebetrieben ..............................................................................9
1.1.1
Exkurs: Die angelsächsische Corporation .............................................................................12
1.1.2
Die Bedeutung der Industrie – Bradford de Long A Note: Natural Resources and PreIndustrial Malthusian Population Dynamics .........................................................................................15
1.2
Gliederung der Industriebetriebslehre...........................................................................................15
1.3
Abgrenzung des Industriebetriebs von anderen Betrieben und Versuch einer Definition ............16
1.4
Systematik und Bedeutung der Wirtschaftszweige .......................................................................17
1.5
Betrachtung der Unternehmen nach Rechtsformen .....................................................................27
1.6
Unternehmenszusammenschlüsse ...............................................................................................27
1.6.1
Kartelle ...................................................................................................................................28
1.6.2
Konzerne................................................................................................................................28
1.7
Ziele und Nebenbedingungen von Wirtschaftsunternehmen ........................................................29
1.7.1
Ziele .......................................................................................................................................29
1.7.2
Nebenbedingungen ...............................................................................................................29
1.8
The Global Car Industry ................................................................................................................30
1.8.1
1.9
2
3
General Motors ......................................................................................................................31
Literaturhinweis: ............................................................................................................................33
Optimale Entscheidungen ....................................................................................................................34
2.1
(Rationale) Entscheidungstheorie .................................................................................................34
2.2
Psychologische Fallstricke ............................................................................................................35
2.2.1
Allais Paradoxon ....................................................................................................................35
2.2.2
Rabin (2000) ..........................................................................................................................35
2.2.3
nach Kahneman .....................................................................................................................36
2.2.4
Anomalien nach Hammond, Keeney and Raiffa....................................................................38
2.2.5
Weiteres .................................................................................................................................38
2.3
Risikomaße und -prämien .............................................................................................................39
2.4
Management Decisions ................................................................................................................39
2.4.1
A Brief History of Decision Making by Leigh Buchanan and Andrew O’Connell ...................39
2.4.2
Evidence-Based Management (Jeffrey Pfeffer and Robert I. Sutton) ...................................46
2.4.3
Competing on Analytics by Thomas H. Davenport...............................................................47
2.5
Management Praxis. .....................................................................................................................53
2.6
Mathematische Methoden zur Optimierung ..................................................................................59
2.6.1
Einleitung ...............................................................................................................................59
2.6.2
Optimierungsprobleme ..........................................................................................................62
2.6.3
Lineare Programmierung .......................................................................................................64
(Internationale) Standortwahl ...............................................................................................................65
3.1
Klassifikation des Industriebetriebes nach dem Standort (Beispiel) .............................................65
3.2
Verfahren zur Standortauswahl nach Klaus Lüder .......................................................................65
Franz Wirl: Industriebetriebslehre
3
3.2.1
Formulierung des Standortproblems .....................................................................................65
3.2.2
Bestimmung betrieblicher Standorte mittels Standortfaktoren und Prüflisten .......................67
3.2.3
Bestimmung betrieblicher Standorte mittels Nutzwertanalyse ..............................................68
3.2.4
Das Steiner-Weber Modell .....................................................................................................70
3.2.5
Modelle auf Basis des Transportproblems ............................................................................71
3.2.6
Das Location-Allocation Modell von Cooper ..........................................................................73
3.2.7
Das Transportation-Location Modell von Cooper ..................................................................73
3.2.8
Simulationsmodelle ................................................................................................................74
3.2.9
Innerbetriebliche Standortprobleme ......................................................................................74
3.2.10
Das CRAFT-Verfahren als Beispiel für heuristische und computergestützte Verfahren .......75
3.3
Standortentscheidung unter Konkurrenz (nach Hotelling) ............................................................77
3.3.1
Anwendung auf Preise für Internet ........................................................................................78
3.4
Ökonomische Geographie – ein Ansatz von Paul Krugman.........................................................84
3.5
Clusters - ein Ansatz von Michael E. Porter .................................................................................90
3.5.1
Evolution von Clusters und Beispiele ....................................................................................91
3.5.2
Ein einfacher Ansatz zur Bildung von Clusters ......................................................................94
3.5.3
Regionale Clusters und Globalisierung .................................................................................96
3.6
Zur Praxis von Standorten: ‚Distanz’ ist noch immer bedeutend ..................................................97
3.7
Vergleiche internationaler Produktivität ......................................................................................102
3.8
Fallbeispiele ................................................................................................................................113
3.8.1
Vergleich von Standorten von Organisationseinheiten in der Automobilindustrie in Japan
und in den USA ..................................................................................................................................113
3.8.2
Hypothetische Fallstudie: Fahrradhersteller Eldora.............................................................116
3.8.3
Beispiele aus der Presse .....................................................................................................118
3.9
Standort Österreich .....................................................................................................................124
3.10
Osteuropa versus Asien ..........................................................................................................130
3.11
Auslandsinvestitionen (Foreign Direct Investment, FDI) .........................................................131
3.11.1
Historische Entwicklungen der Theorien .............................................................................134
3.11.2
Ein Modellansatz .................................................................................................................134
3.11.3
Der Strategieraum ...............................................................................................................136
3.11.4
Dominanzanalyse ................................................................................................................136
3.12
4
Literaturhinweise: ................................................................ Fehler! Textmarke nicht definiert.
Kostenstrukturen von Mehrproduktunternehmen...............................................................................138
4.1
Ermittlung von Durchschnittskosten und Grenzkosten ...............................................................138
4.1.1
Einproduktunternehmen ......................................................................................................138
4.1.2
Mehr- oder Multiproduktunternehmen: ................................................................................138
4.2
Wachsende Skalenerträge (increasing returns to scale, economies of scale) ...........................139
4.2.1
Einproduktunternehmen ......................................................................................................139
4.2.2
Mehr- oder Multiproduktunternehmen .................................................................................139
4.3
Vorteile gemeinsamer Produktion (economies of scope) ...........................................................139
4.4
Natürliches Monopol ...................................................................................................................141
Franz Wirl: Industriebetriebslehre
4.4.1
Subadditive Kostenfunktion .................................................................................................141
4.4.2
Tragfähigkeit eines natürlichen Monopols ...........................................................................142
4.5
5
6
4
Literaturhinweise: .................................................................... Fehler! Textmarke nicht definiert.
Management bei wachsenden Skalenerträgen (increasing returns to scale) ....................................144
5.1
Gründe für wachsende Skalenerträge ........................................................................................144
5.2
Managementmethoden ...............................................................................................................145
5.3
Wirtschaftspolitik am Fallbeispiel Microsoft ................................................................................146
5.4
Fallstudien ...................................................................................................................................146
5.4.1
AT&T Size matters. Is the giant dying, or just resting? .......................................................148
5.4.2
Singapore Airlines ................................................................................................................148
5.4.3
Adobe ...................................................................................................................................149
5.4.4
Volkswagen..........................................................................................................................151
5.4.5
Does IT matter? The Economist, Apri, 1 , 2004..................................................................153
st
5.5
Fallbeispiele oder Fabeln? ..........................................................................................................153
5.6
Literaturhinweise: ........................................................................................................................154
Produktion & Beschaffung ..................................................................................................................155
6.1
„Traditionelle“ Beschaffungsstrategien und Instrumente ............................................................155
6.1.1
Klassifikation von Rohstoffen...............................................................................................155
6.1.2
Optimale Bestellmengen ......................................................................................................156
6.1.3
Heuristische Strategien zur Lagerbewirtschaftung und Bestellung .....................................157
6.2
Just in Time (JIT) und Lean Management ..................................................................................159
6.2.1
Entstehung von JIT ..............................................................................................................159
6.2.2
Toyota ..................................................................................................................................160
6.2.3
JIT in Produktion und Beschaffung ......................................................................................163
6.2.4
Lean Management ...............................................................................................................167
6.2.5
Fallbeispiele zu Lean Management und JIT ........................................................................170
6.2.6
Fallstudie zu Beschaffung: Integration externer Unternehmen: How Chrysler Created an
American Keiretsu, Harvard Business Review July-August 1996, 42-56. .........................................176
6.2.7
The New, Improved Keiretsu ...............................................................................................179
6.2.8
Weitere Erfahrungen mit Lean Management.......................................................................184
6.2.9
David Landes, The American and Japanese Automobile Industries ...................................186
6.2.10
Anmerkungen.......................................................................................................................187
6.2.11
Theoretische Erklärung I der möglichen Effizienz von Lean Management .........................187
6.2.12 Modellansatz II zur möglichen Effizienz von Lean Management: Japanisches versus
amerikanisches System von Lieferverträgen .....................................................................................190
6.3
Weitere Fallstudien .....................................................................................................................193
6.3.1
6.4
Japan and the global supply chain Broken links..................................................................193
Lernen .........................................................................................................................................194
6.4.1
Lernkostenkurven ................................................................................................................194
6.4.2
Wissenstransfer ...................................................................................................................194
6.5
Aktuell: E-Procurement ...............................................................................................................195
Franz Wirl: Industriebetriebslehre
6.6
7
5
Literaturhinweise: ........................................................................................................................195
Langfristige Verträge ..........................................................................................................................197
7.1
Vorteile von Langfristverträgen gegenüber Spotmarkttransaktionen .........................................197
7.1.1
Absicherung transaktionsspezifischer Investitionen ............................................................197
7.1.2
Risikoaversion......................................................................................................................199
7.1.3
Einsparung der Transaktionskosten ....................................................................................201
7.1.4
Auswahl von Partnern – „Screening“ ...................................................................................201
7.2
Vorteile der Langfristverträge gegenüber der vertikalen Integration ..........................................201
7.2.1
Weniger Hierarchie ..............................................................................................................201
7.2.2
Illegitim: Externalisierung des Schadens .............................................................................201
7.2.3
Unabhängigkeit der Unternehmen .......................................................................................201
7.2.4
Outsourcing..........................................................................................................................201
7.3
Langfristverträge in einer Arrow-Debreu Welt ............................................................................202
7.4
Unvollständige, spezifizierte Langfristverträge ...........................................................................205
7.4.1
Vertragsinteresse und wirtschaftliche Unabhängigkeit und Quasirenten ............................205
7.5
Probleme bei langfristigen Verträgen..........................................................................................208
7.6
Verträge zwischen Rigidität und Flexibilität ................................................................................210
7.6.1
Preisabhängige Vertragspreise ...........................................................................................210
7.6.2
Meistbegünstigungsklauseln................................................................................................211
7.6.3
Kostenabhängigen Vertragspreise versus Festpreise .........................................................211
7.6.4
Erfolgsanhängige Vertragspreise ........................................................................................211
7.6.5
Mengenanpassungen und Take-or-Pay Klauseln ...............................................................212
7.6.6
Höhere-Gewalt Klausel ........................................................................................................213
7.6.7
Expost Anpassungen durch Delegation und Neuverhandlung ............................................213
7.7
Private Mechanismen zur Durchsetzung von Langzeitverträgen ...............................................214
7.7.1
Sich selbst durchsetzende Verträge ....................................................................................215
7.7.2
Reputation............................................................................................................................216
7.7.3
Faustpfand (hostages) und andere Sicherheiten ................................................................216
7.7.4
Vertragsstrafen ....................................................................................................................218
7.8
Aktuelle Beispiele ........................................................................................................................218
7.8.1
Netzwerk und Langfristige Verträge am Beispiel von Airbus ..............................................218
7.8.2
Mangelnde Flexibilität am Beispiel des grünen Punktes .....................................................219
7.8.3
Investition und langfristige Verträgen am Beispiel der Deutsche Bahn ..............................219
7.8.4
Wegfall langfristiger Verträge am Beispiel des Strommarktes ............................................220
7.8.5
Erdgasmarkt.........................................................................................................................220
7.8.6
Aufgabe langfristiger Geschäftsbeziehungen am Beispiel Nissan ......................................221
7.8.7
Vertragliche Verpflichtung der Zulieferer zum Umweltschutz am Beispiel von BMW .........222
7.9
Literaturhinweise: ........................................................................................................................223
Franz Wirl: Industriebetriebslehre
0
6
Vorwort
In der Vorlesung beschäftigen wir uns mit Problemen des Industriebetriebs, wobei einerseits auf
Aktualität als auch auf Ansätze und Methoden anstatt Moden Wert gelegt wird. In der Tat wird in dieser
Vorlesung von folgenden Eigenschaften ausgegangen, dass ähnlich zur Medizin
die Probleme dringend sind
und oft neu sind.
Companies using specified
management tools % of total
Beispiele an aktuellen Fragen und geänderten Rahmenbedingungen sind etwa, Fusionen,
Liberalisierung, Deregulierung und Privatisierung, Standortfragen, verstärkter internationaler Wettbewerb,
Umwelt, etc. Auf diesem Faktum wird in der umfangreichen und auch viel gekauften Managementliteratur
mit Moden – Re-engineering, total quality management, shareholder value, strategic management, im
Moment Management der unternehmenswichtigen Talente etc. aber leider oft auch nur mit Phrasen
gekontert. Dies ist in gewisser Weise, gegeben die jeweils neuartigen Probleme, auch berechtigt. Aber
Sinn einer Vorlesung kann nicht sein, die wahrscheinlich mittlerweile bereits auch aus der Mode
gekommenen Ansätze zu vermitteln. Die untenstehende Abbildung vermittelt deutlich wie vormals
gepriesene Ansätze wieder verschwinden. So haben die Anwendungen von 16 von insgesamt 21
gepriesenen Managementwerkzeugen in 1999 gegenüber 1998 abgenommen.
90
Knowledge
management
80
70
Scenario planning
60
50
40
Total quality
management
30
Re-engineering
20
Core competencies
10
0
1993 1994 1995 1996 1997 1998 1999
Year
Abb.0.1 Anwendung von Managementmoden Economist, April 22nd, 2000, p 64, 69.
Der Sinn dieser Vorlesung ist es Ansätze und Verständnis für die Probleme zu vermitteln, ohne dabei zu
suggerieren, dass es universelle Werkzeuge für die jeweiligen akuten Probleme gibt. In dem Sinn, glaubt
der Autor, dass es so etwas, wie auch in der Medizin, wissenschaftliche Grundlagen der
Managementwissenschaften gibt, so wie wir auch hoffen, dass unser Arzt über die wissenschaftlichen
Grundlagen seines Berufs verfügt und nicht ein Quacksalber ist. Dies bedingt allerdings, dass es keine
universellen Rezepte gibt, sondern nur solche, die auf die bestimmten Umstände konditioniert sind. Dazu
kommt, dass oft genau jene Eigenschaften die ein Unternehmen groß machen, nämlich aus der Norm
auszuscheren, auch die sind, die in den meisten Fällen zur Liquidation von Unternehmen führen.
So schrieb Wallace B. Donham, Dekan der Harvard Business School von 1919-1942, in der ersten
Ausgabe des Harvard Business Reviews vom October 1922 (entnommen aus Harvard Business Review,
June 2002, S 156) in A Proper Theory of Business:
The theoretical background for business stand today somewhat where the lax in England and France
stood in the period from 1200-1300. In both countries the law was local to small territorial units. This
corresponds to the present condition of business precedents and practices, which are local to particular
industries or companies.
Unless we admit that rules of thumb, the limited experience of executives, an the general sentiment of the
street are the sole possible guides for decisions of major importance, it is pertinent to inquire how the
representative practices of businessmen generally may be made available as a broader foundation for
Franz Wirl: Industriebetriebslehre
7
such decisions and how a proper theory of business is to be obtained. The theory of business must
develop to such a point that the executive may learn from the experiences of others in the past how to act
under the conditions of the present. Otherwise, business will continue unsystematic, haphazard, and for
many men a pathetic gamble.
No amount of theory can be a substitute for energy, enthusiasm, initiative, creative, ability, and
personality, nor will it take the place of technical knowledge. Now, however, all of these personal qualities
may be coupled with an adequate technical equipment, and yet the executive of wide experience may fail
through our inability to grasp the underlying forces controlling business.
The task of developing business theory scientifically is first, the recording of facts; second, the
arrangement of these facts into series an relationships; third, the development of generalizations. Except
in so far as this method is applied consciously on a large scale, the generalizations of business will be
largely hypotheses more or less fantastic in their nature, and the executive must often gamble with his
most important problems.
Leider sind die für dieses Gebiet Industriebetriebslehre vorhandenen Lehrbücher entweder bereits etwas
datierte Kompendien,
Heinen, Edmund [Hrsg.]: Industriebetriebslehre : Entscheidungen im Industriebetrieb, 9., Aufl. –
Wiesbaden, Gabler, 1991.
Schweitzer, Marcell [Hrsg.]: Industriebetriebslehre : das Wirtschaften in Industrieunternehmungen 2., Aufl.
- München : Vahlen, 1994. - (Vahlens Handbücher der Wirtschafts- und Sozialwissenschaften)
Jacob, Herbert [Hrsg.]: Industriebetriebslehre : Handbuch für Studium und Prüfung *Praxis / 4., überarb.
u. erw. Aufl.. - Wiesbaden : Gabler, 1990.
oder ergehen sich in ‚Listen’, wie etwa
Weber, Helmut Kurt: Industriebetriebslehre / - 3., neubearb. Aufl. – Berlin, [u.a.] : Springer, 1999.
(Springer-Lehrbuch).
Letzteres wird aber trotzdem in der Einführung verwendet wird, weil es das aktuellste ist. Besser mit
einigen interessanten Beiträgen ist der ‚Reader’,
Albach, Horst [Hrsg.]: Industrielles Management : Beschaffung, Produktion, Qualität, Innovation, Umwelt ;
Reader zur Industriebetriebslehre / Wiesbaden : Gabler, 1993.
th
Jay Heizer und Barry Render, Operations Management, 7 Edition, Prentice Hall.
th
Or, why so many business books are awful (The Economist, Aug. 19 , 2004)
IF YOU want to profit from your pen, first write a bestselling business book. In few other literary genres are the
spin-offs so lucrative. If you speak well enough to make a conference of dozing middle managers sit up, your
fortune is made. You can, says Mark French of Leading Authorities, a top speaking agency, make a seven-figure
income from speechifying alone.
Given this strong motivation to succeed, it is astonishing how bad most business books are. Many appear to be little
more than expanded PowerPoint presentations, with bullet points and sidebars setting out unrelated examples or
unconnected thoughts. Some read like an extended paragraph from a consultant's report (and, indeed, many
consultancies encourage their stars to write books around a single idea and lots of examples from the clientele). Few
business books are written by a single author; lots require a whole support team of researchers. And all too many
have meaningless diagrams.
The formula seems to be: keep the sentences short, the wisdom homespun and the typography aggressive; offer lots
of anecdotes, relevant or not; and put an animal in the title—gorillas, fish and purple cows are in vogue this year. Or
copy Stephen Covey (author of the hugely successful “Seven Habits of Highly Effective People”) and include a
number. Here, though, inflation is setting in: this autumn sees the publication of “The 18 Immutable Laws of
Corporate Reputation” by Ronald Alsop. And Michael Feiner has written a book offering “the 50 basic laws that
will make people want to perform better for you”.
The fundamental problem is that a successful business book needs a bright idea, and they, in the nature of business,
come along infrequently. The dotcom boom brought some, the spurs to Clayton Christensen's “The Innovator's
Dilemma” or Rosabeth Moss Kanter's “Evolve!” (accompanied by a CD of the guru herself rapping her message).
Since then, new books have tended to focus on three areas: corporate governance; leadership; and how to make
money out of bits of the business that were forgotten in the boom.
Franz Wirl: Industriebetriebslehre
8
The first category has produced the most meticulous work, with books such as “The Recurrent Crisis in Corporate
Governance” by Paul MacAvoy, an academic, and Ira Millstein, a lawyer. Inevitably, many books have raked over
the lessons of Enron, WorldCom and other failures, trying to explain what went wrong.
Some of the leadership books are written (or ghost-written) by the likes of Rudy Giuliani or Jack Welch, to describe
the secrets of their success. Others explain the mysterious qualities that successful leaders display. Warren Bennis's
“Geeks & Geezers”, for example, compares different formative experiences on the way to the top. Of course, the
most perceptive leadership literature was written 400 years ago by William Shakespeare; and some of today's most
readable books discuss the techniques of past heroes, such as Alexander the Great. They will teach you history, even
if they do not make you Jack Welch.
The sheer number of business books means that the diamonds shine rarely in a mound of dross. Counting everything
from property management to personal finance, there are perhaps 3,000 business titles published each year in the
United States, easily the largest market. One industry insider estimates, on the basis of figures from Nielsen
Bookscan and a hunch about Amazon's sales, which Bookscan excludes, that a total of 8m-10m books that could
broadly be defined as “business” are sold in America each year. They are almost all written by North Americans:
Charles Handy, the Irish author of “The Age of Unreason”, is one of the few non-Americans who has managed to
break into this market.
Including Amazon's figures, the top 50 business books sold around 4m copies in the first seven months of this year.
But many sell fewer than 1,000 in their first year, and the fall-off in sales is almost always dramatic. “The shelf-life
of maximum relevance is measured in months,” says Adrian Zackheim, who made his name publishing Jim Collins's
“Good to Great”, one of the rare business books that has topped bestseller lists for years.
It is hard to believe that many managers run their businesses differently as a result of their reading. Occasionally,
however, a truly great business book will articulate an idea that helps them to explain what it is that they are trying
to do. It creates phrases—such as “core competence” or “emotional intelligence”—that fit the moment. But a few
lines of “Henry IV, Part II” might well serve the same function, and give more pleasure too.
Aus diesem Grund beruht diese Vorlesung auf keinem bestehenden Lehrbuch sondern stellt sich die
entsprechenden Teile
•
Standortwahl
•
Kostenstrukturen (von Mehrproduktunternehmen)
•
Management bei wachsenden Skalenerträgen
•
Produktion & Beschaffung
•
Langfristige Verträge
•
Entscheidungen
selbst zusammen. Auf weiterführende Literatur wird dann am Ende jeden Kapitels hingewiesen.
Auf einige der oben angesprochenen aktuellen Fragen wird dann darauf aufbauend in einer Vorlesung
Industrielles Management eingegangen.
Franz Wirl: Industriebetriebslehre
9
1 Einführung
1.1
Historische Entstehung von Industriebetrieben
Die Industriebetriebe, wie wir sie heute verstehen, entstanden im 18. und 19. Jhdt., basierend auf
technisch-naturwissenschaftlichen Entwicklungen wie Dampfmaschine (1776), Lokomotive (1804),
Koks als Brenn- und Reduktionsmaterial im Hochofen (1797) und Elektrizität (d.h. Versorgung, beginnend
mit Edison, Ende 19Jhdt).
Ein weiterer wichtiger Faktor war der Ausbau des Verkehrswesens, besonders der Ausbau des
Eisenbahnnetzes (um 1850 entfielen etwa 20% der gesamtdeutschen Investitionen auf den
1
Eisenbahnsektor) .
Im Gebiet der Politik soll erwähnt werden, dass zu Beginn des 19. Jhdt. die Gewerbefreiheit eingeführt
wurde. 1833 erfolgte die Gründung des deutschen Zollvereins und damit eine Aufhebung der Binnenzölle,
was eine Vergrößerung des Marktes bewirkte.
Auf der organisatorischen Ebene kommt es zu verstärkter Arbeitsteilung, und damit insbesondere zur
Entwicklung dispositiver Tätigkeiten (Management).
Ein Bild der historischen Produktion – die Bezeichnung „industriell“ wäre hier vermutlich noch nicht ganz
angebracht – in Deutschland vermittelt die Tabelle 1.1:
Tabelle 1.1 Deutschland, Ende 19. Jhdt (Quelle: Jacob, S. 11)
Beschäftigte
1. Webereien
2. Stein- und Braunkohle
3. Lehm- und Tonwaren
4. Spinnereien
5. Hüttenbetriebe
10.1%
9.7%
6.8%
6.5%
5.9%
Anzahl der Betriebe
1. Lehm- und Tonwaren
2. Eisen und Stahl
3. Vegetabilische Nahrungsstoffe
4. Getränke
5. Webereien
12.3%
7.1%
6.9%
6.3%
6.2%
Die folgende Abbildung vom bekannten Wirtschaftshistoriker Alfred Chandler beschreibt die Phasen
wichtiger Unternehmensgründungen und deren Verbindungen zu bestimmten Industrien. QuelleQqq
1
Studie Joel Waldvogel: Der Ausbau des Eisenbahnsektors in Amerika im 19. Jhdt. spielte nicht eine so ausschlaggebende Rolle,
wie sie ihm in der öffentlichen Meinung zugeschrieben wird. Wäre die Entwicklung im Eisenbahnsektor nicht so stark gewesen,
wäre dies vermutlich durch einen stärkeren Ausbau der Schiffahrt und des Straßenbaus kompensiert worden.
Franz Wirl: Industriebetriebslehre
10
Quelle: THE ECONOMIC FUTURE JUST HAPPENED, Dane Stangler, 2009
http://www.kauffman.org/uploadedFiles/the-economic-future-just-happened.pdf
Beispiele:
•
Das Maximum von 63 Unternehmen in den 20-er Jahren datiert aus der Erdölabhängigkeit des
Verbrennungsmotors. Diese Anzahl übersteigt jene aus den vier letzten Dekaden, 1960, 1970,
1980 und 1990 (allerdings für das Jahr 1994).
•
Die Unternehmen vor 1830 stammen aus dem Banken- und Versicherungswesen und Du-Pont
und Colgate-Palmolive sind die einzigen Industrieunternehmen aus der 500-er Liste, die vor dem
Eisenbahnboom gegründet wurden.
•
Die Hälfte (genauer 244) wurde im Zeitraum der Dekaden von 1880 bis 1920 gegründet, davon
alleine 52 oder mehr als 10% stammen aus der Dekade von 1880, dem Beginn des Neuen
Industriellen Zeitalters in den Vereinigten Staaten.
Franz Wirl: Industriebetriebslehre
11
INDUSTRIE IN ÖSTERREICH, Roman Sandgruber, Ökonomie und Politik.
Wirtschaftsgeschichte vom Mittelalter bis zur Gegenwart, Überreuter, Wien, 1995.
Österreichische
Steyr: Vom Mittelalter bis zum 19. Jhdt wichtigste Industriestadt (Messerwerkstätten, Hammerwerke,
Schleifen, Mühlen, Sägewerke, Papiermühlen, Textil- und Lederfabriken)
Tabelle: Transitverkehr (Brenner, in t)
1300
1340
1400
1500
1560
1600
1619
1730
4000
5000
3500
5000
8000
10000
12000
13000
Tonnen
Eisenproduktion in Österreich
100000
90000
80000
70000
60000
50000
40000
30000
20000
10000
0
1500
1600
1700
1800
1900
Abbildung 1.2
Vorläufer des heutigen Industriebetriebs bei der Produktion materieller Güter waren der
Handwerksbetrieb, der Verlagsbetrieb - der vor allem im Textil- und Lederbereich vorkam und dessen
Organisationsform teilweise noch im heutigen graphischen Gewerbe/Verlagswesen erhalten ist – weiters
der Manufakturbetrieb, den man später als Fabriksbetrieb und heute als Industriebetrieb bezeichnet.
Die verschiedenen Merkmale dieser Betriebsformen zeigt Tabelle 1.2:
Franz Wirl: Industriebetriebslehre
12
Tabelle 1.2: Merkmale der verschiedenen Betriebsformen
Quelle: Weber, Abb. 2.1.S. 13
Handwerksbetrieb
Verlagsbetrieb
Manufakturbetrieb
Personen
ein Betriebsinhaber
(Handwerksmeister) arbeitet allein
oder mit mehreren Personen
(Gesellen und Lehrlingen)
eine Person (sog.
Verleger) ist
Auftraggeber für eine
größere Zahl anderer
Personen (sog.
Verlegte)
ein Betriebsinhaber
(Manufakturinhaber)
beschäftigt eine größere
Zahl von Arbeitskräften
(die weder Gesellen noch
Lehrlinge sein müssen)
Produkte
materielle Güter
materielle Güter
materielle Güter
Rohstoffe
werden z.T. von Kunden zur
werden vom Verleger
Verfügung gestellt (Lohnwerk),
den Verlegten zur
werden z.T. vom Handwerksmeister Verfügung gestellt
beschafft (Preiswerk)
werden vom
Manufakturinhaber
beschafft
Werkzeuge,
werden überwiegend vom
Handwerksmeister gestellt
z.T. vom Verleger
gestellt, z.T. den
Verlegten gehörend
werden vom
Manufakturinhaber
gestellt
Ort der
Produktion
zentral, im Hause des
Handwerksmeisters
dezentral, im Hause der zentral, getrennt von den
Verlegten
Wohnstätten
Vergütung
der
Arbeitskräfte
Zeitlohn
Stücklohn
Maschinen
1.1.1
z.T. Zeitlohn, z.T.
Stücklohn
Exkurs: Die angelsächsische Corporation
History shows the Anglo-Saxon corporation to be far from heartless
The Economist, Dec 14th 2002, p 64-65.
ON DECEMBER 10th, George Bush attended the opening ceremony of “Business Strengthening
America” (BSA), an organisation whose aim is “to encourage civic engagement and volunteer service in
corporate America”. Also present were Don Evans, secretary of commerce, Steve Case, chairman of AOL
Time Warner, and Jeffrey Swartz, boss of Timberland, a socially responsible shoe maker.
The high-profile occasion is the first fruit of a meeting held at the White House in June, when the
president called for greater corporate involvement in the community. The collapse of Enron and the rash
of subsequent scandals have made all of American business seem like an ogre who leaves entire
communities high and dry when things go wrong. BSA wants to change this image by helping businesses
to “do well by doing good”.
This issue of corporate social responsibility (CSR)—how responsible companies should be to those other
than their own shareholders—is arousing heated debate, and not just in America. In Europe and Asia, the
battle is often said to be between Anglo-Saxon shareholder capitalism, which says that companies should
pursue exclusively the interests of their shareholders, and stakeholder capitalism, which acknowledges
that companies are also responsible to their workers and local communities—often by having
representatives from both on their boards.
The debate has also become entangled with that about globalisation. One of the main charges that the
anti-globalisation brigade hurls at multinationals is that they behave irresponsibly all round the world.
They exploit third-world workers, trash the environment and challenge democratically elected
governments.
In all these tussles, the left demands that more rules be applied to companies, to make them more
responsible. The right fires back that governments already subcontract far too much of their social policy
to companies, using them as vehicles to limit working hours (in France), to promote racial harmony (in
America) and to clean up the environment (just about everywhere on the planet).
This debate does not lack hot air; but it does lack a sense of history. How irresponsible have Anglo-Saxon
companies been in the past?
Franz Wirl: Industriebetriebslehre
13
Start in the East Indies
In practical terms, all companies—even Anglo-Saxon ones—have to secure what Leslie Hannah, an
economic historian who is now dean of Ashridge Management College in England, calls “a franchise from
society”. Sometimes that franchise entails specific obligations: Mr Hannah points to ICI's altruistic work
designing nuclear bombs for the British government during the second world war.
The franchise comes partly from consumers and other pressure groups in the private sector. As long ago
as the 1790s, Elizabeth Heyrick led a consumer boycott, urging her fellow citizens in Leicester to stop
buying “blood-stained” sugar from the West Indies. The East India Company was eventually forced to
obtain its sugar from slaveless producers in Bengal. Nowadays, the influence of non-governmental
organisations, such as Greenpeace, on corporate policy is far more pervasive.
However, the most enduring force on corporate behaviour has been the state. The mantra that, at some
ideal moment in the misty past, Anglo-Saxon companies had nothing to do with the state is codswallop.
Far from being alien to government, companies are a product of it: it was from the state that they derived
the privilege of limited liability. Until the 19th century, monarchs generally gave companies a “charter”
only if they were nominally pursuing the public good (which could mean anything from building canals in
Lancashire to colonising India).
Indeed, it was the fact that companies were creatures of the state that turned Adam Smith against them.
Most pioneers of the industrial revolution also regarded limited liability as a charter for rogues. The
Victorians changed the perception, largely because a business arose that needed far more capital than
mere partnerships could provide: the railways. By 1862, Britain had made it possible to set up a company,
without parliamentary permission, for just about any purpose. The rest of the world's big countries—
France, Germany, Japan and the United States—soon followed suit.
There was, in theory, a clear split among them, however. In Britain and America, the new joint-stock
companies were freed from any obligation other than to obey the law and pursue profits. By contrast, in
continental Europe (and later in Japan), companies were asked to pursue the interests of their various
stakeholders, notably those of the state. But how different in practice were the Anglo-Saxons?
In Britain, most of the early companies—with the notable exception of the railways—had few dealings
with the government. The gospel of free trade meant that there were no tariffs to go to London to lobby
for. Corporate independence was even more noticeable in America. Businessmen created modern
organisations that spanned the continent more quickly than the government did. In 1891 the Pennsylvania
Railroad employed 110,000 people, three times the combined force of the country's army, navy and
marines. Such monoliths could lay down their own rules.
But this freedom was never absolute. Unions sprang up to defend workers' rights, and “muckraking”
journalists detailed corporate abuses. “I believe in corporations,” said Teddy Roosevelt. “They are
indispensable instruments of our modern civilisation; but I believe that they should be so supervised and
so regulated that they shall act for the interests of the community as a whole.” The supervision did not just
take the form of antitrust legislation (which eventually broke up Standard Oil in 1911), but also of rules on
health, safety, working hours and so on.
The Wall Street crash, a succession of corporate scandals and the Great Depression shifted public
opinion on both sides of the Atlantic even more in favour of restricting the corporate franchise. America
brought trucking, airlines and interstate gas and electric utilities under government control. In Britain,
there was widespread horror at the inability of private coal companies to provide showers for their
workers: they too were soon taken into public ownership.
This tightening continued into the post-war period. The British government nationalised the commanding
heights of industry and, as late as 1967, John Kenneth Galbraith was arguing that America was run by an
oligopolistic industrial state. Since the 1980s, however, the pendulum has swung the other way. AngloSaxon business has become more independent, for which it has to thank not only liberalising politicians
such as Margaret Thatcher and Ronald Reagan, but also a new generation of more aggressive and
numerous shareholders, who have demanded that companies be run in their interests.
This is the capitalisme sauvage that so upsets the French, in particular. But even today, Anglo-Saxon
companies are more constrained than many critics suppose. The past two decades have seen a huge
surge in social regulation, as various “stakeholders” have organised themselves into powerful pressure
groups. In the late 1980s, for example, more than half of America's state legislatures adopted “other
constituency” statutes that allow directors to consider the interests of all their stakeholders, not just
shareholders. Connecticut even passed a law requiring them to do this.
Franz Wirl: Industriebetriebslehre
14
Good deeds aplenty
There is one clear lesson from this history. Anglo-Saxon companies have often willingly taken on social
obligations without the prompting of government. Mr Hannah cites the traditions of the Quaker families
who founded so many of Britain's banks and confectionery firms: they had regular meetings where they
were expected to justify to their peers the good that their businesses were doing.
Nor has corporate social responsibility been the preserve only of a few do-gooders inspired by religion.
The notorious “robber barons” built much of America's educational and health infrastructure. Company
towns, such as Pullman, were constructed, the argument being that well-housed, well-educated workers
would be more productive than their feckless, slum-dwelling contemporaries.
Companies introduced pensions and health-care benefits long before governments told them to do so.
Procter & Gamble pioneered disability and retirement pensions (in 1915), the eight-hour day (in 1918)
and, most important of all, guaranteed work for at least 48 weeks a year (in the 1920s). Henry Ford
became a cult figure by paying his workers $5 an hour—twice the market rate. Henry Heinz paid for
education in citizenship for his employees, and Tom Watson's IBM gave its workers everything from
subsidised education to country-club membership.
Critics tend to dismiss all this as window-dressing. But Richard Tedlow, an historian at Harvard Business
School, argues that they confuse the habits of capital markets with those of companies. Capital markets
may be ruthless in pursuing short-term results. Corporations, he says, have always tended to be more
long-termist.
Alfred Chandler, the doyen of business historians, points out that the history of American capitalism has
largely been the history of managerial rather than shareholder capitalism. For much of the 20th century,
companies were run by professional managers; until the 1980s, institutional investors seldom made their
presence felt. Today, more bosses are sacked, but managers still largely ignore shareholders. In
Delaware, where around half of America's big companies are headquartered, the corporate code is more
sympathetic to managers than it is to owners.
This has often made socially responsible behaviour easier. Rosabeth Moss Kanter, a professor at
Harvard Business School, talks about most parts of the Anglo-Saxon world having a “CEO club” that
successful businessmen are desperate to join. The price of admission is doing your bit for society.
But this cynical approach can be taken only so far. Most companies try to do good because they
genuinely believe that taking care of their workers and others in society is in the long-term interests of
their shareholders. The most successful Anglo-Saxon companies have consistently eschewed shorttermism in favour of “building to last”. For more than half a century, Silicon Valley's pioneering company,
Hewlett-Packard, has been arguing that profit is not the main point of its business.
There are two reasons why acting responsibly is in shareholders' interests.
• The first is that it builds trust, and trust gives companies the benefit of the doubt when dealing with
customers, workers and even regulators. It allows them to weather storms, such as lay-offs or a product
that does not work.
• The second is the edge it gives in attracting good employees and customers. Southwest Airlines is one
of the most considerate employers in its industry: it was the only American airline not to lay people off
after September 11th. Last year, the company received 120,000 applicants for 3,000 jobs, and it was the
only sizeable American airline to make a profit.
Leave well alone
Since Anglo-Saxon companies have tended to be reasonably responsible in the past, without any
government bullying, there must a good a priori case for leaving them alone. The case is strengthened by
the fact that companies are most effective as social volunteers when they are doing things that are close
to their shareholders' interests. Those interests clearly differ: oil companies tend to emphasise building
local infrastructure; Avon, which sells products largely to women, is one of the world's biggest supporters
of breast-cancer research. The idea of imposing one-size-fits-all laws is a mistake, for it undermines
enthusiasm and prevents companies from exploiting their distinctive strengths. Why should all
multinationals have to sign up to the same sort of mission statements that Shell and BP love so much?
In a sense, the corporate social responsibility movement has got it all the wrong way round. It tends to
look for social goods—better housing, better schools, a cleaner environment—and then seek ways to
force companies to provide them. It might do better to look at the things that the private sector does not
deliver, and then get governments to fill the gaps. Left to themselves, companies will do more good than
people give them credit for. But they are not here to build a fairer society. That is the job of government.
Franz Wirl: Industriebetriebslehre
1.1.2
15
Die Bedeutung der Industrie – Bradford de Long A Note: Natural Resources and PreIndustrial Malthusian Population Dynamics
In the year 1--we guess--world population was about 170 million. In the year 1650--we guess--it was
about 540 million. This tripling of world population over the course of one and two-thirds millennia was
accompanied by very little improvement in the standard of living of the median peasant (though things
may well have been very different for the upper-class elite). We can thus say that world real GDP--at least
when measured in terms of necessities rather than luxuries--roughly tripled over this one and two-thirds
millenium.
We can feed these numbers to a standard Solow growth model with natural resources, as in: J. Bradford
DeLong (2006), "Lecture Notes: Econ 101B: Explorations in the Theory of Economic Growth: Natural
Resources
and
Malthusian
Population
Dynamics"
http://delong.typepad.com/print/20060905_lecture_notes.pdf. We then conclude that the rate of real GDP
and population growth over this period was roughly 0.07% per year. Under the further assumption that
natural resources had a parameter of roughly 0.3 in the world economy's production function back then,
we can calculate that total factor productivity growth in the pre-industrial world averaged 0.02% per year.
Compare and contrast that to the 2-3% per year of total factor productivity growth in the world today.
1.2
Gliederung der Industriebetriebslehre
Abbildung 1.3 Gliederung der Industriebetriebslehre (Quelle: Weber, S. 8, Abb. 1.4)
Wie die obenstehende Abbildung 1.3 zeigt, lässt sich die Industriebetriebslehre nach funktionalen
Aspekten (Produktion, Beschaffung, ...) und nach institutionalen Aspekten gliedern, wobei bei letzteren
wieder nach Merkmalen (z. B. Saison- oder Kuppelprodukt) und nach Industriezweigen (Stahl, Chemie,...)
unterschieden werden kann. Von diesen Teilgebieten soll im Rahmen dieser Vorlesung eine Auswahl
etwas näher angesprochen werden, nämlich Beschaffungswirtschafts-, Produktionswirtschafts-, und
Organisationslehre, sowie die BWL des Kuppelproduktionsbetriebs.
Franz Wirl: Industriebetriebslehre
1.3
16
Abgrenzung des Industriebetriebs von anderen Betrieben und Versuch einer
Definition
Die folgenden drei Abbildungen zeigen verschiedene Merkmale auf, anhand derer eine Abgrenzung der
Industriebetriebe von anderen Betrieben erleichtert werden soll.
Tabelle1.3: Abgrenzung vom Landwirtschafts-, Bergbau- und Energiebetrieb (Weber, S. 18, Abb. 2.2.)
Merkmale
Landwirtschafts- Bergbaubetrieb
Elektrizitätswerk
Industriebetrieb
betrieb
Produktionsmaterielle Güter materielle Güter materielles Gut besonderer Art:
materielle Güter anderer
ergebnis
biologischer Art: mineralischer Art elektrische Energie
Art als die vorher
(Produkte)
Pflanzen und
genannten
Tiere
ProduktionsEinsatz von
kein Einsatz von kein Einsatz
Einsatz von
Einsatz von Rohstoffen
einsatz
Gütern der
materiellen
von Rohstoffen Rohstoffen
(Produktions- gleichen Art wie Gütern die zu
faktoren)
die
Produktbestandte
ausgebrachten
ilen werden; d.h.
Produkte
kein Einsatz von
(Nicht- Urproduktion)
(Urproduktion) (NichtRohstoffen
(NichtUrproduktion)
(Urproduktion)
Urproduktion)
ProduktionsAnbau
Abbau
Umwandlung
Umwandlung
Verarbeitung und
prozeß
materieller Güter materieller Güter von Energie
von
Bearbeitung von
bestimmter Art bestimmten
materiellen Gütern
oder: Umformung und
in Energie
materiellen
Umwandlung
anderer Art
Gütern in
bestimmter materieller
Energie
Güter in andere
(Stoffabbau)
(Stoffanbau)
(Stoff-Energie- materielle Güter
(Energie(Stoffumformung,
umwandlung)
umwandlung)
Stoffumwandlung)
Tabelle 1.4 Unterschiede zwischen Handwerk und Industrie (Quelle: Weber, S. 20. Abb 2.2.)
Merkmale
Handwerk
Industrie
Beschäftigungsstruktur
vorwiegend gelernte Arbeiter
vorwiegende angelernte und ungelernte
Arbeiter
Mechanisierung
vorwiegend manuelle Produktion
vorwiegend maschinelle Produktion
Betriebsgröße
vorwiegend relativ klein
vorwiegend mittelgroß, groß und sehr
groß
Kapitalbedarf
vorwiegend relativ gering
vorwiegend groß und sehr groß
Auftragsstruktur
Einzel- und Kleinserienfertigung für
vorwiegend Serien- und
bekannte
Kunden
des
näheren
Massenfertigung für meist anonyme
Einzugsgebiets auf Bestellung
Endabnehmer eines weitreichenden
Vertriebsbereichs
Leitungsstruktur
Leitung durch (mitarbeitende) Mitarbeiter Leitung durch ein auf Leitungsaufgaben
spezialisiertes Management
Verwaltung
keine ausgeprägte Funktionstrennung zur
ausgeprägte Funktionstrennung von den
Erzeugung
anderen Funktionsbereichen
Registerzwang
Handwerksrolle (bei Handwerkskammer)
Handelsregister (bei Amtsgericht)
Interessenvertretung
Handwerkskammer, Innungen
Industrie- und Handelskammer,
Fachverbände
Franz Wirl: Industriebetriebslehre
17
Tabelle 1.5 Einteilung von Dienstleistungsbetrieben (Quelle: Weber, Abb. 2.3 (II. Teil), S 23)
immaterielle Güter, Dienstleistungen, die sich auf
Handelsbetrieb
Überbrücken von Unterschieden qualitativer,
materielle Güter beziehen
quantitativer, räumlicher und zeitlicher Art,
zwischen Angebot und Nachfrage von
materiellen Gütern
Verkehrsbetrieb
immaterielle Güter, Dienstleistungen, die Überbrücken von Unterschieden räumlicher
sich auf materielle Güter, Nachrichten
Art
und Personen beziehen
Bankbetrieb
immaterielle Güter, Dienstleistungen, die Transfer von Geld im Auftrag Dritter,
sich auf Geld beziehen
Gewährung und Aufnahme von Geldkrediten
Versicherungsbetrieb
immaterielle Güter, Dienstleistungen, die Übernahme von Sach-, und Personenrisiken
sich auf Risiken beziehen.
Dritter
Dienstleistungsbetriebe bieten hauptsächlich immaterielle Güter an. Industriebetriebe hingegen stellen
materielle Güter her. Der Handelsbetrieb vertreibt zwar auch materielle Güter, produziert diese jedoch
nicht.
Ausgehend von diesen Abgrenzungen soll nun ein Versuch einer Definition - oder zumindest einer
Einengung - der Charakteristika eines Industriebetriebs unternommen werden:
1. Betrieb zur Deckung des Bedarfs anderer Wirtschaftssubjekte.
2. Produktion materieller Güter, ausgenommen Tiere und Pflanzen. (Hierbei stellt sich dann natürlich die
Frage, wo ein gentechnischer Betrieb einzuordnen wäre)
3. Ausgangspunkte der Produktion sind nicht der Natur direkt entnommen.
4. Die Produktion formt die Vorprodukte um, unter Verwendung von Maschinen und einer größeren
Anzahl von Arbeitskräften.
1.4
Systematik und Bedeutung der Wirtschaftszweige
Abb. 1.4 Systematik des produzierenden Gewerbes
Energie und Wasser
Bergbau
Grundstoffe
Verarbeitend
Investitionsgüter
Bau
Verbrauchsgüter
Nahrungsmittel
Nach der im vorigen Abschnitt erfolgten Unterscheidung des Industriesektors von anderen
Wirtschaftssektoren, sollen nun Einteilungsmöglichkeiten innerhalb des Sektors sowie einige Daten zur
aktuellen Situation gezeigt werden.
Franz Wirl: Industriebetriebslehre
18
Tabelle 1.6 Deutschland (alte Bundesländer): Erwerbstätige und Bruttowertschöpfung je Wirtschaftszweig
der Bruttowertschöpfung
Zahl
Erwerbstätigen
Systematik
Wirtschaftszweig
0
Land und Forstwirtschaft, Fischerei
in 1000
in %
1
Energie- & Wasserversorgung, Bergbau
441
1.5%
74.14
2.7%
2
Verarbeitendes Gewerbe (ohne Bau)
8400
29.0%
753.25
27.5%
3
Bau
1982
6.8%
168.43
6.2%
4
Handel
3965
13.7%
230.12
8.4%
5
Verkehr & Nachrichtenübermittlung
1630
5.6%
155.77
5.7%
6
Kreditinstitute und Versicherungen
951
3.3%
168.9
6.2%
7
Dienstleistungen, freie Berufe
5026
17.3%
785.5
28.7%
8
Organisation, Haushalte
1416
4.9%
74.72
2.7%
9
Gebietskörperschaften, Sozialversicherung
4323
14.9%
298.52
10.9%
880
Summe
in Mrd. DM
3.0%
29014
2738.65
Aufteilung der Wirtschaftszweige in
35.0%
30.0%
25.0%
Erwerbst.
20.0%
Wertsch.
15.0%
10.0%
5.0%
0.0%
0
1
2
3
4
5
6
7
8
in %
29.3
9
Abbildung 1.5 Aufteilung der Wirtschaftszweige in Deutschland
1.1%
Franz Wirl: Industriebetriebslehre
Tabelle 1.7: Produktionswert in
Fachverbänden, nominell, Mio. Euro
der
österreichischen
Industrie
J1999
J2000
J2001
Bergwerke
501.3
552.5
454.1
Erdölindustrie
1078.6
1523.4
2554.0
Eisenhütten
2546.5
3056.8
2698.4
NE-Metallindustrie
1308.8
1894.9
2104.4
Stein- u.keramische Ind.
2414.6
2456.4
2460.3
Glasindustrie
817.8
944.1
1046.2
Chemische Industrie
7210.8
7971.9
7917.5
Papiererzeugende Industrie
2893.1
3600.4
3399.0
Papierverarbeitende Ind.
1308.3
1374.7
1474.4
Holzverarbeitende Industrie
4487.7
4899.1
4821.2
Nahr.- u.Genussmittelind.
5390.6
5470.6
5547.7
Ledererzeugende Industrie
294.6
337.3
404.5
Lederverarbeitende Industrie
329.8
315.4
375.9
Textilindustrie
1686.4
1696.1
1670.6
Bekleidungsindustrie
383.1
416.1
449.4
Gießereiindustrie
771.3
854.7
899.9
Maschinen- u.Stahlbauind.
8141.1
8809.8
8992.1
Fahrzeugindustrie
6035.6
6584.3
7725.1
Eisen- u.Metallwarenind.
5674.1
5994.9
5734.0
Elektroindustrie
8243.0
9431.1
9196.6
Industrie ohne Energie
61517.2
68184.4
69925.2
19
nach
Abbildung 1.6 präsentiert ein weiteres Merkmal, anhand dessen Industriebetriebe eingeteilt werden
können: die Größe. Hierbei ist zu beachten, dass „Größe“ mit Hilfe unterschiedlicher Faktoren gemessen
werden kann. Ein Beispiel: Die Durchschnittsgröße von Betrieben gemessen nach der Beschäftigtenzahl
betrug 1992 180 Personen. Das Maximum lag in der eisenschaffenden Industrie mit 1610, das Minimum
in der Holzverarbeitung mit 26 Arbeitnehmern. Unternehmen mit über 1000 Beschäftigten repräsentieren
nur 0,25% der Anzahl aller Unternehmen, aber 39% der Beschäftigten. Als weiteres Beispiel dafür seien
Tabelle 1.8 und 1.9 angeführt, in welchen europäische Unternehmen einmal nach dem Umsatz und
einmal nach der Börsenkapitalisierung gereiht sind, und Unterschiede in der Platzierung deutlich zutage
treten. Gerade klassische Industriebetriebe stehen bei so einer Klassifizierung nach dem Börsenwert oft
schlechter dar, wobei
zu bedenken ist, dass dabei dem Börsenwert auch Anlagewerte etc.
gegenüberstehen, während bei vielen New Economy Betrieben keine greifbaren Gegenwerte vorhanden
sind.
Franz Wirl: Industriebetriebslehre
Abbildung 1.6 (Quelle: Weber, S. 37, Abb.2.7.) Größe des Industriebetriebs
Fortune 500 (2012)
Rank ▾
Company
Revenues
($ millions)
Profits
($ millions)
1
Exxon Mobil
452,926.0
41,060.0
2
Wal-Mart Stores
446,950.0
15,699.0
3
Chevron
245,621.0
26,895.0
4
ConocoPhillips
237,272.0
12,436.0
5
General Motors
150,276.0
9,190.0
6
General Electric
147,616.0
14,151.0
7
Berkshire Hathaway
143,688.0
10,254.0
8
Fannie Mae
137,451.0
-16,855.0
9
Ford Motor
136,264.0
20,213.0
10
Hewlett-Packard
127,245.0
7,074.0
11
AT&T
126,723.0
3,944.0
12
Valero Energy
125,095.0
2,090.0
13
Bank of America Corp.
115,074.0
1,446.0
14
McKesson
112,084.0
1,202.0
15
Verizon Communications
110,875.0
2,404.0
16
J.P. Morgan Chase & Co.
110,838.0
18,976.0
20
Franz Wirl: Industriebetriebslehre
17
Apple
108,249.0
25,922.0
18
CVS Caremark
107,750.0
3,461.0
19
International Business Machines
106,916.0
15,855.0
20
Citigroup
102,939.0
11,067.0
21
Cardinal Health
102,644.2
959.0
22
UnitedHealth Group
101,862.0
5,142.0
23
Kroger
90,374.0
602.0
24
Costco Wholesale
88,915.0
1,462.0
25
Freddie Mac
88,262.0
-5,266.0
26
Wells Fargo
87,597.0
15,869.0
27
Procter & Gamble
82,559.0
11,797.0
28
Archer Daniels Midland
80,676.0
2,036.0
29
AmerisourceBergen
80,217.6
706.6
30
INTL FCStone
75,497.6
37.3
31
Marathon Petroleum
73,645.0
2,389.0
32
Walgreen
72,184.0
2,714.0
33
American International Group
71,730.0
17,798.0
34
MetLife
70,641.0
6,981.0
35
Home Depot
70,395.0
3,883.0
36
Medco Health Solutions
70,063.3
1,455.7
37
Microsoft
69,943.0
23,150.0
38
Target
69,865.0
2,929.0
39
Boeing
68,735.0
4,018.0
40
Pfizer
67,932.0
10,009.0
41
PepsiCo
66,504.0
6,443.0
42
Johnson & Johnson
65,030.0
9,672.0
43
State Farm Insurance Cos.
64,305.1
845.0
44
Dell
62,071.0
3,492.0
45
WellPoint
60,710.7
2,646.7
46
Caterpillar
60,138.0
4,928.0
47
Dow Chemical
59,985.0
2,742.0
48
United Technologies
58,190.0
4,979.0
49
Comcast
55,842.0
4,160.0
50
Kraft Foods
54,365.0
3,527.0
51
Intel
53,999.0
12,942.0
52
United Parcel Service
53,105.0
3,804.0
53
Best Buy
50,272.0
1,277.0
54
Lowe's
50,208.0
1,839.0
55
Prudential Financial
49,045.0
3,666.0
21
Franz Wirl: Industriebetriebslehre
56
Amazon.com
48,077.0
631.0
57
Merck
48,047.0
6,272.0
58
Lockheed Martin
46,692.0
2,655.0
59
Coca-Cola
46,542.0
8,572.0
60
Express Scripts Holding
46,128.3
1,275.8
61
Sunoco
45,765.0
-1,684.0
62
Enterprise Products Partners
44,313.0
2,046.9
63
Safeway
43,630.2
516.7
64
Cisco Systems
43,218.0
6,490.0
65
Sears Holdings
41,567.0
-3,140.0
66
Walt Disney
40,893.0
4,807.0
67
Johnson Controls
40,833.0
1,624.0
68
Morgan Stanley
39,376.0
4,110.0
69
Sysco
39,323.5
1,152.0
70
FedEx
39,304.0
1,452.0
71
Abbott Laboratories
38,851.3
4,728.4
72
DuPont
38,719.0
3,474.0
73
Google
37,905.0
9,737.0
74
Hess
37,871.0
1,703.0
75
Supervalu
37,534.0
-1,510.0
76
United Continental Holdings
37,110.0
840.0
77
Honeywell International
37,059.0
2,067.0
78
CHS
36,915.8
961.4
79
Humana
36,832.0
1,419.0
80
Goldman Sachs Group
36,793.0
4,442.0
81
Ingram Micro
36,328.7
244.2
82
Oracle
35,622.0
8,547.0
83
Delta Air Lines
35,115.0
854.0
84
Liberty Mutual Insurance Group
34,671.0
365.0
85
World Fuel Services
34,622.9
194.0
86
New York Life Insurance
34,393.5
557.3
87
Plains All American Pipeline
34,275.0
966.0
88
TIAA-CREF
34,079.0
2,388.4
89
Aetna
33,779.8
1,985.7
90
Sprint Nextel
33,679.0
-2,890.0
91
News Corp.
33,405.0
2,739.0
92
General Dynamics
32,677.0
2,526.0
93
Allstate
32,654.0
788.0
94
HCA Holdings
32,506.0
2,465.0
22
Franz Wirl: Industriebetriebslehre
23
95
American Express
32,282.0
4,935.0
96
Tyson Foods
32,266.0
750.0
97
Deere
32,012.5
2,799.9
98
Murphy Oil
31,446.3
872.7
99
Philip Morris International
31,097.0
8,591.0
100
Nationwide
30,697.8
-793.1
Quelle: http://money.cnn.com/magazines/fortune/fortune500/2012/full_list/
Tabelle 1.8 Reihung von Unternehmen in der EU nach dem Umsatz (2011)
Europe
Rank
Company
Global
500
rank
City
Revenues
($ millions)
1
Royal Dutch Shell
2
The Hague
378,152
2
BP
4
London
308,928
3
Total
11
Courbevoie
186,055
4
Volkswagen
13
Wolfsburg
168,041
5
AXA
14
Paris
162,236
6
ING Group
17
Amsterdam
147,052
7
Glencore International
18
Baar
144,978
8
ENI
23
Rome
131,756
9
Daimler
24
Stuttgart
129,481
10
BNP Paribas
26
Paris
128,726
11
Allianz
27
Munich
127,379
12
E.ON
29
Düsseldorf
125,064
13
Carrefour
32
Boulogne-Billancourt
120,297
14
Assicurazioni Generali
33
Trieste
120,234
15
GDF Suez
38
Courbevoie
111,888
16
Nestlé
42
Vevey
105,267
17
Crédit Agricole
43
Paris
105,003
18
HSBC Holdings
46
London
102,680
19
Siemens
47
Munich
102,657
20
Banco Santander
51
Madrid
100,350
21
Enel
56
Rome
97,185
22
Lloyds Banking Group
59
London
95,682
23
Tesco
61
Cheshunt
94,185
24
Aviva
64
London
90,211
25
Metro
65
Düsseldorf
89,081
Quelle: CNN Money, http://money.cnn.com/magazines/fortune/global500/2011/europe/
Franz Wirl: Industriebetriebslehre
24
Tabelle 1.9 Reihung von Unternehmen nach der Marktkapitalisierung
Quelle: Wikipedia,Forbes Global 2000
1970
1985
Rank Company
Revenue
Rank Company
1 General Motors
24,295.1
1 Exxon Mobil
2000
Revenue
Rank Company
90,854.0
1 General Motors
2012
Revenue
Rank Company
189,058.0
1 Exxon Mobil
Revenue
452,926.0
2 Exxon Mobil
14,929.8
2 General Motors
83,889.9
2 Wal-Mart Stores
166,809.0
2 Wal-Mart Stores
446,950.0
3 Ford Motor
4 General Electric
Intl. Business
5
Machines
14,755.6
8,448.0
3 Mobil
4 Ford Motor
56,047.0
52,366.4
3 Exxon Mobil
4 Ford Motor
163,881.0
162,558.0
3 Chevron
4 ConocoPhillips
245,621.0
237,272.0
7,197.3
5 Texaco
47,334.0
5 General Electric
111,630.0
5 General Motors
150,276.0
6 Chrysler
7,052.2
6
45,937.0
6
Intl. Business
Machines
87,548.0
6 General Electric
147,616.0
7 Mobil
6,621.4
7 DuPont
35,915.0
7 Citigroup
82,005.0
8 Texaco
9 ITT Industries
5,867.9
5,474.7
8 AT&T
9 General Electric
33,187.5
27,947.0
8 AT&T
9 Altria Group
62,391.0
61,751.0
10 Gulf Oil
4,953.3
Intl. Business
Machines
10 Amoco
AT&T
11
Technologies
4,883.2
11 ChevronTexaco
12 U.S. Steel
4,754.1
12
Atlantic
Richfield
Quelle: Eigene Darstellung, Daten:http://money.cnn.com
26,949.0
26,798.0
24,686.0
10 Boeing
Bank of America
11
Corp.
SBC
12
Communications
57,993.0
Berkshire
Hathaway
8 Fannie Mae
9 Ford Motor
Hewlett10
Packard
7
143,688.0
137,451.0
136,264.0
127,245.0
51,392.0
11 AT&T
126,723.0
49,489.0
12 Valero Energy
125,095.0
Franz Wirl: Industriebetriebslehre
25
Franz Wirl: Industriebetriebslehre
26
Franz Wirl: Industriebetriebslehre
1.5
27
Betrachtung der Unternehmen nach Rechtsformen
Eine weitere Möglichkeit der Einteilung von Unternehmen besteht anhand der Rechtsform. Öffentliche
Industriebetriebe, die in dieser Vorlesung nicht die Hauptrolle spielen werden, sollen an dieser Stelle der
Vollständigkeit halber genannt werden. Sie können ohne eigene Rechtsform (als unselbständiger Teil von
Bund, Land, Gemeinde oder als verselbständigter Teil, Eigenbetrieb) vorkommen, weiters mit Rechtsform
öffentlich-rechtlichen Charakters (Körperschaft, Anstalt, Stiftung) oder mit privatrechtlicher Rechtsform.
Daten über die Rechtsformen für Privatunternehmen finden sie in der nachfolgenden Tabelle.
Quelle: DESTATIS,
https://www.destatis.de/DE/ZahlenFakten/GesamtwirtschaftUmwelt/UnternehmenHandwerk/Unternehmensregister/Tabellen/Untern
ehmenRechtsformenWZ2008.html;jsessionid=D654B76030101D02E7CCCDC42C0DB3D1.cae1
1.6
Unternehmenszusammenschlüsse
Abbildung 1.7 (Quelle: Weber Abb. 2.8, S. 52)
Franz Wirl: Industriebetriebslehre
28
Es werden Unternehmenszusammenschlüsse kooperativer Art und subordinativer Art unterschieden,
deren Unterteilung in Abb. 1.7 (Quelle: Weber Abb. 2.8, S. 52) dargestellt ist. Als Beispiel zu den
Zusammenschlüssen in Form von gegenseitigen Beteiligungen sind die derzeitige Entwicklung in der
österreichischen Elektrizitätswirtschaft sowie die japanische Unternehmensform Keiretsu zu nennen.
1.6.1
Kartelle
Abb. 1.8: Kartelle
Einkaufskartelle
Vorleistungen
(Roh- und
Hilfsstoffe)
Maschinen und
Anlagen
Verkaufskartelle
Marktsegmentierungskartelle
(Aufspaltung des Marktes in
Teilmärkte und Bearbeitung
jedes Teilmarkes durch ein
anderes Kartellmitglied)
wie
•
Produktschutzkartelle
•
Gebietsschutzkartelle
•
Kundenschutzkartelle
Marktuniformierungskartelle
(einheitliche Bearbeitung
des gemeinsamen Marktes
durch die Kartellmitglieder)
wie
•
•
•
•
•
•
Normungskartelle
Kalkulationskartelle
Konditionenkartelle
Preiskartelle
Quotenkartelle
Syndikate
Die weitere Untergliederung der Zusammenschlussform "Kartell" ist in Abb. 1.8 (Quelle: Weber, Abb. 2.9.
S. 55, adaptiert) dargestellt. Dazu ist zu sagen, dass bei Preiskartellen Preisabsprachen getroffen
werden, bei Quotenkartellen die Produktionsmengen oder Marktanteile aufgeteilt werden, und bei
Syndikaten sowohl Preise als auch Mengen abgesprochen werden.
1.6.2
Konzerne
In der Öffentlichkeit wird unter dem Begriff "Konzern" oft einfach ein großes Unternehmen verstanden.
Betriebswirtschaftlich beschreibt der Begriff einen Zusammenschluss mehrerer rechtlich selbständiger
Unternehmen, gemäß Aktiengesetz (AktG) spricht man von einem Konzern, wenn eine einheitliche
Leitung existiert.
Man unterscheidet rechtlich gesehen Gleichordnungskonzerne (Alle Unternehmen gehen gleichwertig
ein. In der Praxis ist diese Form eher selten, und wird am ehesten mit Hilfe eines Dachunternehmens
verwirklicht.) und Über- bzw. Unterordnungskonzerne. Bei letzteren spricht man von einem faktischen
Konzern, wenn ein Unternehmen de facto von dem an ihm beteiligten abhängig ist. Ein
Vertragskonzern liegt vor, wenn ein Beherrschungsvertrag existiert. Ein institutioneller Konzern
entspricht einem Eingliederungskonzern.
Aus ökonomischer Sicht differenziert man Konzerne in horizontale, vertikale und Konglomerate. Bei
horizontalen Konzernen handelt es sich um Unternehmen gleicher Produktionsstufe. (z.B. Fa.
Volkswagen mit VW, AUDI, Skoda, Seat etc.). Vertikale Konzerne hingegen bestehen aus Unternehmen
mit aufeinander folgenden Produktionsstufen. Diese Form ist derzeit nicht sehr verbreitet, früher war es
jedoch in der Automobilindustrie üblich, von der Schraube bis zum fertigen Wagen alles innerhalb des
Konzerns zu produzieren. Ein weiteres Beispiel sind die großen Ölfirmen, die früher vom Ölfeld bis zur
Tankstelle alles abdeckten. Zur Zeit ist es in der Elektrizitätswirtschaft noch so, dass Stromerzeugung,
Verteilung und Vertrieb in einer Hand sind. Diese Branche ist jedoch derzeit in Umstrukturierung
begriffen. Konglomerate (oder diagonale) sind Konzerne mit Unternehmen aus verschiedensten
Branchen, ohne Synergien. Als Argument für die Bildung solcher Strukturen wird manchmal die bessere
Risikostreuung genannt, diese ist aber auch am Aktienmarkt möglich! Beispiel: Daimler und AEG.
Abb. 1.9 fasst die unterschiedlichen Konzerntypen nochmals zusammen:
Franz Wirl: Industriebetriebslehre
29
Abb. 1.9 (Quelle Weber S. 62)
1.7
1.7.1
Ziele und Nebenbedingungen von Wirtschaftsunternehmen
Ziele
Das vorrangige Ziel, das in der Ökonomie unterstellt wird, ist die Gewinnmaximierung. Das Problem
dabei ist aber, dass eine Separation zwischen Manager und Eigentümern stattfindet, und der Manager
nicht immer das Ziel verfolgt, wirklich den Gewinn zu maximieren.
Ein weiteres Ziel ist die Kostenminimierung, wobei dies in einem kompetitiven Markt fast
gleichbedeutend mit der Gewinnmaximierung ist. Die Rentabilität zu maximieren - im Sinne einer
Maximierung der internen Zinsfüße oder der internen Renditen – würde nur dann Sinn machen, wenn
unendlich viel Kapital vorhanden wäre. Außerdem gilt für die Rentabilität in den meisten Fällen das
Gesetz des abnehmenden Grenzertrages, das heißt die ersten eingesetzten Geldeinheiten bringen hohe
Rendite, die weiteren sukzessive weniger. Wollte man nun die Rentabilität maximieren, würde man nur
wenig einsetzen, auch wenn durch zusätzlichen Kapitaleinsatz noch Geld verdient werden könnte. Eine
bessere Vorgangsweise wäre, beispielsweise zu sagen: es soll der Gewinn maximiert werden, und zu
diesem Zwecke führen wir nur Projekte durch, die eine bestimmte Mindestrentabilität bringen.
Liquidität ist eher zu den Nebenbedingungen als zu den Zielen zu zählen. (Beispielsweise geht Oliver
Hart davon aus, dass bei ausreichender Liquidität die Manager die Eigentümer des Unternehmens
praktisch „ausrauben“ könnten. Deshalb sei es günstiger, das Unternehmen vom Anfang an mit großen
Schulden zu belasten, so dass die Manager gezwungen wären, zum Erhalt ihres Arbeitsplatzes ihr bestes
zu geben, und keine Chance bestünde, Mittel abzuzweigen, ohne den Arbeitsplatz zu vernichten.)
Weitere Ziele können dann noch Marktanteile sowie Macht & Prestige (insbesondere der Manager)
sein.
1.7.2
Nebenbedingungen
Die wichtigsten rechtlichen Beschränkungen sollen hier nur kurz und stichwortartig aufgezählt werden.
1. Das bürgerliche Recht legt Rechtssubjekte fest, und es gilt als eine Art Faustregel der Schutz des
Schwächeren (z.B.: Konsumentenschutz)
2. Im Handelsrecht wird der Kaufmann definiert. Er ist ein Rechtssubjekt mit spezifischen Pflichten,
z.B. die Pflicht zur Rechnungslegung, und im deutschsprachigen Raum damit verbunden ein starker
Gläubigerschutzgedanke. Weiters werden die Rechtsformen für Unternehmen festgelegt.
3. Das umfangreiche Steuerrecht beinhaltet die Vorschriften zur Umsatzsteuer, Einkommensteuer, etc.
4. Das Konkurs- oder Insolvenzrecht regelt die Abwicklung bei Zahlungsunfähigkeit. Große
Unterschiede bestehen hier zwischen dem europäischen und dem angelsächsischen Bereich, wo das
Chapter 11 zum Tragen kommt und das Unternehmen eine Zeit lang dem Zugriff der Gläubiger
entzieht. Zunehmend wird das Insolvenzrecht auch schon bei drohender Zahlungsfähigkeit oder
Überschuldung wichtig.
Franz Wirl: Industriebetriebslehre
30
5. Das Wettbewerbsrecht beinhaltet unter anderem das Gesetz gegen unlauteren Wettbewerb, das
Verbot irreführender Angaben, das Verbot progressiver Werbung (Schneeballsysteme), das Verbot
von Verleumdung und Regelungen betreffend den Verrat von Betriebsgeheimnissen. Das Gesetz
gegen Wettbewerbsbeschränkungen verbietet Kartelle (Ausnahmen: Normenkartelle, genehmigte
Kartelle) und kontrolliert Unternehmenszusammenschlüsse (Ein Zusammenschluss kann untersagt
werden, wenn dadurch ein marktbeherrschendes Unternehmen entsteht.) und Missbräuche. Letztere
wurden im europäischen Raum nicht immer sehr sorgfältig angewandt, da oft vorgezogen wurde,
nationale „Champions“ zu fördern. Im anglo-amerikanischen Raum wurden diese Regelungen
jahrzehntelang sehr streng gehandhabt - manchmal genügten schon Marktanteile von 20%, damit die
Fusion verhindert wurde. Unter dem Einfluss der Theorie der bestreitbaren Märkte und der
Erkenntnis, dass Monopole manchmal nur temporär sind, wurde dies schließlich gelockert.
6. Beschränkungen, die dem Unternehmer vom Arbeitsrecht auferlegt werden, betreffen
beispielsweise die folgenden Bereiche: Mindestlohn, Höchstarbeitszeit, Mindesturlaub, Altersgrenzen,
Kündigungsschutz, Sicherheitsstandards, Schutz bestimmter Gruppen (Behinderte, Jugendliche,
Mütter).
7. Das Sozialrecht regelt z.B. Arbeitgeberbeiträge zu Kranken, Pflege und Pensionsversicherung,
Sozialplan bei Betriebsschließung, Abfertigungen, Mitbestimmungsrecht, Betriebsrat,
Arbeitnehmervertreter im Aufsichtsrat (siehe Bank Austria)
8. Das Umweltrecht beinhaltet Gesetze zum Schutz von Boden, Luft und Wasser, weiters Immissions(wie hoch darf die Konzentration eines Schadstoffes an einem bestimmten Ort sein) und
Emissionsgrenzwerte (wieviel darf ausgestoßen werden), Müllbeseitigung etc. Gerade bezüglich der
Festlegung von Schadstoffgrenzwerten entstehen häufig Diskussionen darüber, in welcher Höhe
diese angesetzt werden sollen. Empirisch sind hier häufig Ineffizienzen festzustellen, dergestalt, dass
Maßnahmen gefordert werden, die teurer, aber weniger wirkungsvoll sind als andere.
9. Bezüglich Außenwirtschaftsrecht ist zu erwähnen, dass es sehr offen und liberal ist.
Einschränkungen gibt es aber im Bereich von Waffen (Kriegsmaterialgesetz) oder Drogen.
1.8
The Global Car Industry
Franz Wirl: Industriebetriebslehre
31
1.8.1 General Motors 2
DELAYED for years by GM’s mounting financial problems, then its bankruptcy and government bail-out,
the promised revamp of the carmaker’s classic Corvette Stingray at times looked like it might never
happen. But on January 13th, on the eve of the Detroit motor show, a gang of reporters and a crowd of
sports-car enthusiasts (who paid $1,200 a ticket) gathered in an abandoned warehouse in a rundown part
of the Motor City and, at last, to the sound of wailing guitars, the new “Little Red Corvette” drove onto the
stage. It won wild applause, even from the hard-bitten hacks.
Things got even better for GM the next morning, when its Cadillac ATS sedan took the show’s top prize,
the North American Car of the Year. This boosted GM’s hopes that Cadillac, its premium brand, can
begin to catch up with pricey European marques such as BMW and Range Rover among the emerging
world’s new rich. The Corvette’s rave reception likewise lifts GM’s dreams of elevating its image from
“successful plumber’s car”, as an executive recently put it, to being a must-have high-performance model
for the global elite, up there with Porsche and Ferrari.
After years as a basket-case, pilloried as “Government Motors”, GM is back in profit, stepping up its
output and creating jobs again. Mark Reuss, its North America boss, believes the double boost at this
week’s show will help it gain momentum by fostering the sense that it is winning again: “Winning can be
very contagious,” he said.
“Halo” cars like the Corvette do not sell in big enough numbers to have much effect on overall profits, but
they do create a sense of excitement around a brand, drawing buyers to showrooms, where they may
end up buying more regular models. Far more important for sales and profits among GM’s launches at
Detroit was the new version of its best-selling model, the Silverado pickup truck. Unlike Europeans,
Americans love pickups, and will pay handsomely for them: profits on them can be around $15,000 a unit,
compared with maybe $4,000 or less for regular cars.
The new models unveiled this week are the start of what may be the most drastic overhaul of GM’s range
in its century-plus of history, as it refreshes a line-up that was starved of investment and left to go stale
2
The Economist, January 19th 2013, p55-56, General Motors. Now it’s time to step on the gas. GM has emerged stronger from the
crisis but it is not yet in the fast lane.
Franz Wirl: Industriebetriebslehre
32
following the bail-out. In the next year or so, reckons Peter Nesvold of Jefferies, an investment bank,
models representing about half of GM’s entire sales volume will be replaced.
The next year will be crucial for other reasons. GM’s boss, Dan Akerson, hopes to persuade credit-rating
agencies to restore the firm to “investment grade” in 2013—it has been rated “junk” since 2005. More
important, the US Treasury plans to sell its remaining 19% stake, erasing the stigma of Government
Motors.
7
8
9
10
11
12
13
14
15
16
17
18
But GM badly needs that new line-up. In its American
home market, its share slipped from 19.6% to just
17.9% last year, the lowest since GM’s rise to preeminence under the leadership of Alfred Sloan in the
1920s. Although its worldwide sales last year rose by
2.9% to 9.2m vehicles, its best since 2007, its global
share slipped by 0.4 points to 11.5%. It looks like
being deposed as number one carmaker by a
resurgent Toyota, with an expected 9.7m sales. And it
is feeling the hot sausage-breath of Germany’s
Volkswagen on its neck: VW’s relentless drive to
become world leader took it to just under 9.1m sales.
19
20
21
22
23
24
25
GM is well ahead of Ford and Chrysler, its Detroitbased rivals, in the Chinese market, now the world’s
biggest, where GM is profiting from its booming joint
ventures with local makers. But growth in Chinese car
sales has slowed markedly in the past two years, and
there are also signs of excess capacity in Brazil,
another big money-spinner for GM.
GM is alive and Osama bin Laden is dead, as Vice-president Joe Biden quips, which is great but not
enough. Its shares, at around $30, are below the $33 at which it was refloated on the stockmarket in
2010, and way below the $70 now needed, after a recent share buy-back by GM, for America’s taxpayers
to break even on the $50 billion they put into the firm in its bail-out.
In the buy-back GM paid the US Treasury $27.50 a share, reducing its stake from 26% to 19% (Canada’s
federal government and Ontario’s provincial administration together own a further 9%). A recent analysis
by Morgan Stanley, another investment bank, foresaw the shares reaching perhaps $47 if, among other
things, American car sales rose again this year.
The report also considered a bull case in which the shares soar to $72, but that depended on GM finding
someone to take its perpetually loss-making European division, Opel-Vauxhall, off its hands without a
dowry. Opel has lost around $18 billion since 1999 and, despite recent management shuffles and plans to
break even by mid-decade, the red ink may keep flowing, given the dire state of Europe’s car market.
Opel is building an alliance with Peugeot, an equally ailing French carmaker, in which they will share
overheads, work together on various types of car and engine, and hope to save $1 billion a year each by
2016. This week, amid rumours that Peugeot might buy Opel, Mr Akerson reiterated that it was not for
sale.
Profits and platforms
Although nowhere near as big a problem as Opel, GM’s American operation has let its stocks of some
models build in recent months, trying to shift them through big sales incentives. This worries analysts like
Joe Philippi of AutoTrends Consulting, who recalls how GM brought about its downfall by overproducing
unwanted cars and selling them at a loss. Mr Akerson promises to cut GM’s incentives to around the
industry average. But as GM brings in all its new models, it may struggle to clear stocks of the old ones
without giveaway prices.
Of the Detroit big three, Chrysler—also bailed out by the government before gaining Fiat of Italy as its
controlling shareholder—was the only one whose American market share rose last year. Like GM, Ford
suffered a slight fall as Toyota and Honda recovered from their post-tsunami troubles. But Ford’s image
has been burnished by the remarkable improvement in its profitability, even though it avoided bankruptcy
and thus had no reprieve from its debts and other liabilities. Mr Nesvold points to one figure that best
illustrates how Ford has made much greater efficiency gains and cost cuts than its bigger rival: North
American pre-tax margins at Ford are now 11-12%, a level unthinkable a few years ago. GM’s are still
about half of that.
Franz Wirl: Industriebetriebslehre
33
Besides its stale model range, the other main reason for GM’s modest profit recovery is its slow progress
in standardising the “platforms”, on which its cars’ bodies and interiors are built. By this year Ford plans to
use just nine common platforms for 85% of all the vehicles it builds worldwide. Although GM has
successfully reinvented Chevrolet as a global mass-market brand—60% of its sales are now outside
America—it has lagged Ford, and VW, in using common platforms to bring down development and
production costs.
GM also needs to be bolder in cutting costs in other areas. Despite Mr Akerson’s image as a nononsense former naval officer, and a few top-level departures, few see signs of the tough action that Wall
Street clamours for, to trim GM’s notorious bureaucracy. It is inevitable that comparisons are being made
between Mr Akerson’s management style and that of his counterparts.
One bold decision Mr Akerson has taken since becoming boss in 2010 has been to reverse the
outsourcing of GM’s massive IT systems, after realising how central they now are to its business (see our
special report this week). He hopes that regaining control of the company’s software systems will make it
easier and quicker to change the way it does business, and give managers a clearer view of how much
profit each vehicle produces (or not).
This will take time, as will the revamp of GM’s models, the struggle to stanch losses in Europe and Mr
Akerson’s battle with the company’s internal bureaucracy. It seems unlikely that GM will revert to being
the chronic loser it once was, but it will be another year, maybe two, before it is clear if it has been reborn
as a winner, or just a plodder.
1.9
Literaturhinweis:
Weber, Helmut Kurt: Industriebetriebslehre / - 3., neubearb. Aufl. – Berlin [u.a.] : Springer, 1999.
(Springer-Lehrbuch) Seite 1-107.
Franz Wirl: Industriebetriebslehre
34
2 Optimale Entscheidungen
Wie im letzten Kapitel dargelegt wurde ist des Aufgabe jeweils ein Ziel (Gewinn oder Kosten) unter
Nebenbedingungen zu maximieren. Grundlage für alle Managemententscheidungen ist die
Entscheidungstheorie, die beschreibt, wie man rational (oder optimal) unter bestimmten Umständen
entscheidet. Grundlage dafür ist ein Ansatz der auf John von Neumann und Oskar Morgenstern
zurückgeht. Diesem normativen Aspekt stehen psychologische fallen gegenüber, die großteils evolutionär
bedingt sind, denn der homo sapiens sapiens ist genetisch identisch mit dem Steinzeitmenschen nach
dem Motto, man kann den Menschen aus der Savanne nehmen, aber nicht die Savanne aus dem
Menschen. Ein weiterer wichtiger Punkt für rationale Entscheidungen vor allem im Managementbereich
betrifft die entsprechenden Methode um die Erreichung von Firmenzielen zu optimieren.
2.1
(Rationale) Entscheidungstheorie
Rationale Entscheidungen folgen aus dem Erwartungsnutzenkalkül von John von Neumann und Oskar
3
Morgenstern, wobei Daniel Bernoulli mit seiner Lösung des St. Petersburger Paradoxons der wichtigste
Vorläufer war, weil der Erwartungswert alleine nicht genügend Information liefert.
Axiome der von Neumann-Morgenstern Nutzenfunktion haben teilweise unterschiedliche Namen und
sind in unterschiedlichen Ausprägungen formuliert: Dabei sind die ersten beiden immer gleich und
identisch zur ordinalen Nutzentheorie
1. Vergleichbarkeit aller Alternativen mit besser, schlechter oder indifferent.
2. Transitivität: Wenn eine Präferenz von A > B (A über B) und B > C dann muss auch A > C sein,
sonst wäre die Präferenzordnung widersprüchlich.
Die beiden weiteren wichtigen sind die der
3. Stetigkeit
4. Unabhängigkeit (von irrelevanten Alternativen)
Alternative Angaben sind:
• Completeness: For any 2 gambles g and g' in G, either g
preferences over all lotteries, and can rank them all.
g' or g'
g. In English, this means that people have
• Transitivity: For any 3 gambles g, g', and g" in G, if g g' and g' g", then g g". In English, if g is preferred
(or indifferent) to g', and g' is preferred (or indifferent) to g", then g is preferred (or indifferent) to g".
• Continuity: Mathematically, this assumption states that the upper and lower countour sets of a preference relation
over lotteries are closed. Along with the other axioms, continuity is needed to ensure that for any gamble in G, there
exists some probability such that the decision-maker is indifferent between the "best" and the "worst" outcome. This
may seem irrational if the best outcome were, say, $1,000, and the worst outcome was being run over by a car.
However, think of it this way - most rational people might be willing to travel across town to collect a $1,000 prize,
and this might involve some probability, however tiny, of being run over by a car.
• Monotonicity: This big ugly word simply means that a gamble which assigns a higher probability to a preferred
outcome will be preferred to one which assigns a lower probability to a preferred outcome, as long as the other
outcomes in the gambles remain unchanged. In this case, we're referring to a strict preference over outcomes, and
don't consider the case where the decision-maker is indifferent between possible outcomes.
• Substitution: If a decision-maker is indifferent between two possible outcomes, then they will be indifferent
between two lotteries which offer them with equal probabilities, if the lotteries are identical in every other way, i.e.,
the outcomes can be substituted. So if outcomes x and y are indifferent, then one is indifferent between a lottery
giving x with probability p, and z with probability (1-p), and a lottery giving y with probability p, and z with
probability (1-p). Similarly, if x is preferred to y, then a lottery giving x with probability p, and z with probability
(1-p), is preferred to a lottery giving y with probability p, and z with probability (1-p).
Note: This last axiom is frequently referred to as the Independence axiom, since it refers to the Independence of
Irrelevant Alternatives (IIA).
Rangordnung der Alternativen: Man sollte in der Lage sein zwischen zwei Alternativen zu unterscheiden.
Weiters sollte man die verschiedenen Alternativen gleich oder unterschiedlich bewerten.
3
eine Münze wird solange geworfen, bis zum ersten Mal „Kopf“ erscheint. Sollte dies beim ersten Wurf der Fall sein, erhält der
Spieler 1 €, beim 2. Wurf 2 €, beim 3. Wurf 4 € usw. Obwohl der erwartete Gewinn unendlich ist, sind nur wenige bereit einen hohen
Einsatz ex-ante zu setzen.
Franz Wirl: Industriebetriebslehre
35
Transitivität: Wenn eine Präferenz von A > B (A über B) und B > C dann muss auch A > C sein, sonst
wäre die Präferenzordnung widersprüchlich.
Kontinuität: Ein Spieler sollte immer das Spiel zwischen dem besten und schlechtesten Ergebnis wählen
und daraus folgt ein sicheres mittleres Ergebnis.
Dominanztheorie: Bei den rationalen Entscheiden sollten keine Strategien angewendet werden, welche
von anderen Strategien dominiert werden. (Kurz: keine Wahl treffen, die von einer anderen dominiert
wird.)
Beständigkeit: Das Prinzip der Beständigkeit setzt fest, dass der Entscheidende nicht von der Art der
vorliegenden Alternativen beeinträchtigt werden sollte. Zum Beispiel sollte ein rationaler Entscheider
keine Präferenz zwischen einem zusammengesetzten (compound) Lotteriespiel und einem simplen
Lotteriespiel haben.
2.2
Psychologische Fallstricke
2.2.1
Allais Paradoxon
Maurice Allais (späterer Ökonomie-Nobelpreisträger) schrieb in den 50-er Jahren seine Kollegen an und
konfrontierte mit der Wahl zwischen zwei Lotterien:
Situation (A), Wahl zwischen zwei Lotterien:
1. Lotterie L1 garantiert sicheren Gewinn von $30,
2. Lotterie L2: mit 80% ein Gewinn von $45 und kein Gewinn mit 20% Wahrscheinlichkeit.
Typischerweise wird L1 gegenüber L2 bevorzugt (revealed preference).
Situation (B): Wieder Wahl zwischen zwei Lotterien
1. K1 verspricht eine 25% Chance auf den Gewinn von $30,
2. K2 eine 20% Chance auf $45.
Hier wird typischerweise K2 bevorzugt. Jedoch die Wahl von L1 unter A und von K2 unter B widerspricht
der Erwartungsnutzentheorie, sind doch im Fall B nur die Wahrscheinlichkeiten durch 4 dividiert!
Assume the typical subject decides among lotteries in the following way. To each of the basic outcomes, a number
is assigned that indicates its attractiveness; say u(0) = 0, u(45) = 1, and u(30) = v (0 < v <1). The overall
attractiveness of a lottery (compared to another lottery) derives as the sum of the outcomes' elementary
attractivenesses, weighted by their respective probabilities. Among two lotteries, the preferred one is that which
offers a higher expected level of overall attractiveness. In this way, the decision maker forms a von Neumann
Morgenstern utility function over deterministic outcomes, the expectation of which provides the criterion for
choosing among uncertain outcomes, such as lotteries. Now in situation A, the revealed preference of L1 over L2
implies u(30) > 0.8 u(45), or v > 0.8; while the revealed preference of K2 over K1 in situation B shows that 1/4 v <
1/5, or v < 0.8.
2.2.2
Rabin (2000)
Rabin and Thaler, 2001 p. 222: „Suppose, for instance, we know that a risk-averse person turns down 5050 lose-$100-or-gain-$105 bets for any lifetime wealth level less than (say) $ 350,000, but know nothing
about his or her utility function for wealth levels above $ 350,000, except that it is not convex. Then we
know that from an initial wealth level of $ 340,000 the person will turn down a 50-50 bet of losing $ 4,000
and gaining $ 635,670.”
Risikoaversion versus Erwartungsnutzenmodell (basierend auf Larry Samuelson, Economic Theory and
Experimental Economics, Journal of Economic Literature XLIII, 65-107, 2005):
Matthew Rabin (2000) (see also Rabin and Richard H. Thaler 2001) presents an argument against the
expected utility hypothesis (as a description of actual behaviour) that we illustrate with the following
example. Suppose Alice would rather take $95.00 with certainty than face a lottery that pays nothing with
probability ½ and $200 with probability ½. Suppose further that Alice would make this choice no matter
what her wealth. Then either the standard model of utility maximization does not apply, or Alice is
absurdly risk averse.
To see the reasoning behind this argument, assume that Alice has a differentiable utility function U( ω)
over her level of wealth ω, with (at least weakly) decreasing marginal utility. Alice’s choice implies that the
utility of an extra 95 dollars is more than half the utility of an extra 200 dollars. This implies that
Franz Wirl: Industriebetriebslehre
36
½200U’( ω+200) < 95U’( ω), where ω is Alice’s current wealth and U’(ω) is the largest marginal utility found
4
in the interval [ ω, ω+200] and U’( ω+200) is the smallest marginal utility in that interval.
Simplifying, we have, for any wealth ω
U ′(ω + 200) ≤
19
U ′(ω ).
20
(1)
Now letting ω0 be Alice’s initial wealth level and stringing such inequalities together, it follows that, for any
ω, no matter how large, Alice’s utility U( ω) satisfies
U (ω ) ≤ U (ω0 ) + 200U ′(ω0 ) + 200U ′(ω0 + 200) + 200U ′(ω0 + 400) + 200U ′(ω0 + 600) + 2
2


19
 19 
≤ U (ω0 ) + 200U ′(ω0 ) + U ′(ω0 ) +   U ′(ω0 ) + 2
20
 20 


 19 
= U (ω0 ) + 200U ′(ω0 ) / 1 − 
 20 
= U (ω0 ) + 4000U ′(ω0 ).
Where the first inequality breaks [0,∞] into intervals of length 200 and assumes that the maximum
possible marginal utility holds throughout each interval, the second repeatedly uses (1), and the
remainder is a straightforward calculation.
Now consider a loss of 3000. A similar argument shows that the utility U( ω0 - 3000) must satisfy
U (ω0 − 3000) ≤ U (ω0 ) − 200U ′(ω0 ) − 200U ′(ω0 − 200) − 2 − 200U ′(ω0 − 2800)
14


20
 20  ′
′
′
≤ U (ω0 ) − 200U (ω0 ) + × U (ω0 ) + 2 +   U (ω0 )
19
 19 


≤ U (ω0 ) − 4400U ′(ω0 ).
Comparing these two results, we have that for any X > 0,
1
1
U (ω0 − 3000) + U (ω0 + X ) ≤ U (ω0 ) − 400U ′(ω0 ) < U (ω0 ).
2
2
Hence, there is no positive amount of money X, no matter how large, that would induce Alice, no matter
how wealthy, to accept a fifty/fifty lottery of losing 3000 and winning X. Risk aversion over relatively small
stakes thus implies absurd risk aversion over larger stakes. Risk aversion over small stakes seems quite
reasonable and is consistent with laboratory evidence (e.g., Holt and Susan K. Laury 2002). How do we
reconcile this with the seeming absurdity of the implied behavior over larger stakes? Taking it for granted
that people are not so risk averse over large stakes, Rabin (2000) and Rabin and Thaler (2001) suggest
that the expected-utility model should be abandoned.
This conclusion poses a puzzle for experimental practice. The use of lottery payoffs appears to be either
unnecessary (because subjects are risk neutral over the relatively modest sums paid in experiments) or
necessarily ineffective (because subjects are risk averse over small sums, and hence cannot be
expected-utility maximizers). The argument is even more challenging for economic theory, where
expected-utility maximization is firmly entrenched.
2.2.3
nach Kahneman
5
Daniel Kahneman, now a professor at Princeton, noticed as a young research psychologist in the 1960s
that the logic of decision science was hard for people to accept. That launched him on a career to show
Hence, 95U’(ω) is an upper bound on the utility of an extra 95 dollars, and 200U’(ω+200)a lower bound on the utility
of an extra 200 dollars. Rabin (2000) contains additional examples and shows that the argument extends beyond the
particular formulation presented here.
4
5
Freud, finance and folly, aus The Economist, A Survey of Risk (Living Dangerously), January 24th, 2004, p5-8.
Franz Wirl: Industriebetriebslehre
37
just how irrationally people behave in practice. When Mr Kahneman and his colleagues first started work,
the idea of applying psychological insights to economics and business decisions was considered quirky.
But in the past decade the fields of behavioural finance and behavioural economics have blossomed, and
in 2002 Mr Kahneman shared a Nobel prize in economics for his work.
Today he is in demand by organisations such as McKinsey and PartnerRe, and by Wall Street traders.
But, he says, there are plenty of others that still show little interest in understanding the roots of their poor
decisions. The lesson from the analyst's couch is that, far from being random, these mistakes are
systematic and predictable:
•Over-optimism. Ask most people about the future, and they will see too much blue sky ahead, even if
past experience suggests otherwise. Surveys have shown that people's forecasts of future stockmarket
movements are far more optimistic than past long-term returns would justify. The same goes for their
hopes of ever-rising prices for their homes or doing well in games of chance. In a recent study of Dutch
game-show contestants, people's estimates of their odds on winning were around 25% too high.
Americans are perhaps the most optimistic: according to one poll, around 40% of them think they will end
up among the top 1% of earners.
Such optimism can be useful for managers or football players, and sometimes turns into a self-fulfilling
prophecy. But most of the time it results in wasted effort and dashed hopes. Mr Kahneman's work points
to three types of over-confidence. First, people tend to exaggerate their own skill and prowess; in polls,
far fewer than half the respondents admit to having below-average skills in, say, love-making or driving.
Second, they overestimate the amount of control they have over the future, forgetting about luck and
chalking up success solely to skill. And third, in competitive pursuits such as betting on shares, they
forget that they have to judge their skills against those of the competition.
•The anchor effect. First encounters tend to be decisive not only in judging the character of a new
acquaintance but also in negotiations over money. Once a figure has been mentioned, it takes a strange
hold over the human mind. The asking price quoted in a house sale, for example, tends to become
accepted by all parties as the “anchor” around which negotiations take place, according to one study of
property brokers. Much the same goes for salary negotiations or mergers and acquisitions. If nobody has
much information to go on, a figure can provide comfort—even though it may lead to a terrible mistake.
•Stubbornness. No one likes to abandon a cherished belief, and the earlier a decision has been taken,
the harder it is to give up. In one classic experiment, two groups of students were shown slides of an
object, say a fire hydrant or a pair of spectacles. The slides started out of focus and were gradually made
clearer until the students could identify the object. Those who started with a very blurry image tried to
decide early and then found it difficult to identify it correctly until quite late in the process, whereas those
who started less out of focus kept a more open mind and cottoned on more quickly.
The same sort of thing happens in boardrooms or in politics. Drug companies must decide early to cancel
a failing research project to avoid wasting money, but find it difficult to admit they have made a mistake.
Bosses who have hired unproductive employees are reluctant to fire them. Mr Kahneman cites the
example of Israel's failure to spot growing threats in the lead-up to its 1973 war with its Arab neighbours.
Part of the explanation was that the same people who had been watching the change in political climate
had to decide on Israel's response. Similar problems have arisen in recent counter-terrorism work in
America. In both cases, analysts may have become wedded early to a single explanation that coloured
their perception. A fresh eye always helps.
•Getting too close. People put a lot of emphasis on things they have seen and experienced themselves,
which may not be the best guide to decision-making. For example, many companies took action to guard
against the risk of terrorist attack only after September 11th, even though it was present long before then.
Or somebody may buy an overvalued share because a relative has made thousands on it, only to get his
fingers burned.
In finance, too much emphasis on information close at hand helps to explain the so-called “home bias”, a
tendency by most investors to invest only within the country they live in. Even though they know that
diversification is good for their portfolio, a large majority of both Americans and Europeans invest far too
heavily in the shares of their home countries. They would be much better off spreading their risks more
widely.
•Winning and losing. Fear of failure is a strong human characteristic, which may be why people are
much more concerned about losses than about gains. Consider the following bet: with the flip of a coin,
you could win $1,500 if the coin turns up heads, or lose $1,000 on the tails. Now describe it in another
way: with heads, you keep all the money you had before the bet, plus $1,500; with tails, you also keep
everything, except $1,000. The two bets are identical, and each one, on average, will make you richer by
Franz Wirl: Industriebetriebslehre
38
$250 (although that average will be little consolation to the punter who has just lost $1,000). Even so,
people will usually prefer the second bet.
Behavioural economists say that is because the prospect of losses seems far more daunting in isolation,
rather than in the context of looking at your entire wealth, even if the average outcome is the same. This
sort of myopia in the face of losses explains much of the irrationality people display in the stockmarket.
•Misplaced priorities. More information is helpful in making any decision but, says Mr Kahneman,
people spend proportionally too much time on small decisions and not enough on big ones. They need to
adjust the balance. During the boom years, some companies put as much effort into planning their
Christmas party as into considering strategic mergers.
•Counterproductive regret. Crying over spilled milk is not just a waste of time; it also often colours
people's perceptions of the future. Some stockmarket investors trade far too frequently because they are
chasing the returns on shares they wish they had bought earlier.
Mr Kahneman reckons that some types of businesses are much better than others at dealing with risk.
Pharmaceutical companies, which are accustomed to many failures and a few big successes in their
drug-discovery programmes, are fairly rational about their risk-taking. But banks, he says, have a long
way to go. They may take big risks on a few huge loans, but are extremely cautious about their much
more numerous loans to small businesses, many of which may be less risky than the big ones.
But at least when businesses try to assess their risks, they have to worry only about making money.
Governments, on the other hand, face a whole range of sometimes conflicting political pressures. This
makes them even more likely to take irrational decisions.
2.2.4
6
•
Status quo-Falle - biases us toward maintaining the current situation--even when better
alternatives exist. Beispiele: Versicherung (default mit Austritt als Option bzw. oder nur freiwillig),
Organspender.
•
Die Sunk Cost Falle (ähnlich zu Counterproductive regret) inclines us to perpetuate the mistakes
of the past.
•
Framing (ähnlich zu anchoring, in den Worten der Autoren “leads us to give disproportionate
weight to the first information we receive“) – Verlust versus Gewinn, unterschiedliche
Referenzpunkte.
•
Endowment Effekt (wertvolle, geschenkte Flasche Wein, die man niemals selbst kaufen würde),
d.h. Unterschiede in der Zahlungsbereitschaft für etwas, bzw. der Akzeptanz einer Aufgabe eines
Stückes (WTP versus WTA).
•
Unterschätzen der Anpassungsfähigkeit (z.B. der Wert einer Pragmatisierung wird ex-ante stark
überschätzt).
•
Vorsichtsfalle (leads us to be overcautious when we make estimates about uncertain events),
Bsp Produktionspläne
•
Recall, ähnlich zu getting close (leads us to give undue weight to recent, dramatic events) oder
wenn Entscheidungen durch vergangene Beobachtungen bzw. ev. erfolgreiche Interventionen
(Kapitän Queeg, in „Die Caine war ihr Schicksal“) beeinflusst werden.
•
Bestätigende Evidenz leads us to seek out information supporting an existing predilection and to
discount opposing information (Bsp., das Auto das man selbst fährt sieht man viel öfter als der
relativen Häufigkeit entspricht).
2.2.5
6
Anomalien nach Hammond, Keeney and Raiffa
Weiteres
•
Reziprozität ≠ Altruismus (Fehr-Schmidt, Bolton-Ockenfels) wird in Ultimatum-, Diktator- und in
öffentlichen-Gut-Spielen beobachtet.
•
Erwartungsnutzenmodell
Nachfrageinteraktionen).
•
Hohe Diskontraten und hyperbolisches Diskontieren.
liefert
gute
Ergebnisse
in
Marktspielen
(Angebot-
John S. Hammond, Ralph L. Keeney and Howard Raiffa, Smart Choices, Harvard Business School Press, 1999.
und
Franz Wirl: Industriebetriebslehre
•
2.3
39
Dauer und Endeffekte: Probanden bevorzugten längere (also dominierte) Prozeduren kürzeren,
wenn die längeren relativ positiv endeten (etwa zum Schluss eine weitere Minute im klaten aber
o
um 1 erhöhten Wasser).
Risikomaße und -prämien
Arrow-Pratt Maß absoluter (AR) und relativer Risikoaversion (RR)
Risikoprämie.
Ein Problem bei Standardberechnung des Kapitalwertes einer Nutzenbewertung (also nach NeumannMirgenstern), dass die obigen Maße für die Risikobewertung gleichzeitig das Maß für die intertemporale
Substitution sind, obwohl dies zumindest konzeptionell zumindest zwei unterschiedliche Paar Schuhe
sind.
2.4
2.4.1
Management Decisions 7
A Brief History of Decision Making by Leigh Buchanan and Andrew O’Connell
Sometime in the midst of the last century, Chester Barnard, a retired telephone executive and author of
The Functions of the Executive, imported the term “decision making” from the lexicon of public
administration into the business world. There it began to replace narrower descriptors such as “resource
allocation” and “policy making.”
The introduction of that phrase changed how managers thought about what they did and spurred a new
crispness of action and desire for conclusiveness, argues William Starbuck, professor in residence at the
University of Oregon’s Charles H. Lundquist College of Business. “Policy making could go on and on
endlessly, and there are always resources to be allocated,” he explains. “‘Decision’ implies the end of
deliberation and the beginning of action.”
So Barnard—and such later theorists as James March, Herbert Simon, and Henry Mintzberg—laid the
foundation for the study of managerial decision making. But decision making within organizations is only
one ripple in a stream of thought flowing back to a time when man, facing uncertainty, sought guidance
from the stars. The questions of who makes decisions, and how, have shaped the world’s systems of
government, justice, and social order. “Life is the sum of all your choices,” Albert Camus reminds us.
History, by extrapolation, equals the accumulated choices of all mankind.
The study of decision making, consequently, is a palimpsest of intellectual disciplines: mathematics,
sociology, psychology, economics, and political science, to name a few. Philosophers ponder what our
decisions say about ourselves and about our values; historians dissect the choices leaders make at
critical junctures. Research into risk and organizational behavior springs from a more practical desire: to
help managers achieve better outcomes. And while a good decision does not guarantee a good outcome,
such pragmatism has paid off. A growing sophistication with managing risk, a nuanced understanding of
human behavior, and advances in technology that support and mimic cognitive processes have
improved decision making in many situations.
Even so, the history of decision-making strategies is not one of unalloyed progress toward perfect
rationalism. In fact, over the years we have steadily been coming to terms with constraints—both
contextual and psychological—on our ability to make optimal choices. Complex circumstances, limited
time, and inadequate mental computational power reduce decision makers to a state of “bounded
rationality,” argues Simon. While Simon suggests that people would make economically rational decisions
if only they could gather enough information, Daniel Kahneman and Amos Tversky identify factors that
cause people to decide against their economic interest even when they know better. Antonio Damasio
draws on work with brain-damaged patients to demonstrate that in the absence of emotion it is impossible
to make any decisions at all. Erroneous framing, bounded awareness, excessive optimism: the debunking
of Descartes’s rational man threatens to swamp our confidence in our choices, with only improved
technology acting as a kind of empirical breakwater.
Faced with the imperfectability of decision making, theorists have sought ways to achieve, if not optimal
outcomes, at least acceptable ones. Gerd Gigerenzer urges us to make a virtue of our limited time and
knowledge by mastering simple heuristics, an approach he calls “fast and frugal” reasoning. Amitai
Etzioni proposes “humble decision making,” an assortment of nonheroic tactics that include tentativeness,
delay, and hedging. Some practitioners, meanwhile, have simply reverted to the old ways. Last April, a
Japanese television equipment manufacturer turned over its $20 million art collection to Christie’s when
7
Harvard Business Review, January 2006.
Franz Wirl: Industriebetriebslehre
40
the auction house trounced archrival Sotheby’s in a high-powered round of rock-paper-scissors, a game
that may date back as far as Ming Dynasty China.
In this special issue on decision making, our focus—as always—is on breaking new ground. What follows
is a glimpse of the bedrock that lies beneath that ground.
Chances Are
Risk is an inescapable part of every decision. For most of the everyday choices people make, the risks
are small. But on a corporate scale, the implications (both upside and downside) can be enormous. Even
the tritely expressed (and rarely encountered) win-win situation entails opportunity costs in the form of
paths not taken.
To make good choices, companies must be able to calculate and manage the attendant risks. Today,
myriad sophisticated tools can help them do so. But it was only a few hundred years ago that the risk
management tool kit consisted of faith, hope, and guesswork. That’s because risk is a numbers game,
and before the seventeenth century, humankind’s understanding of numbers wasn’t up to the task.
A History of Choice
We created this time line to remind readers that the history of decision making is long, rich, and diverse. We
recognize that it presents only a tiny sample of the people, events, research, and thinking that have contributed to our
current understanding of this subject. Many dates are approximate.
Prehistory
For millennia, human decisions are guided by interpretations of entrails, smoke, dreams, and the like; hundreds of
generations of Chinese rely on the poetic wisdom and divination instructions compiled in the I Ching. The Greeks
consult the Oracle of Delphi. Prophets and seers of all kinds peer into the future.
Sixth Century BC
Lao-tzu teaches the principle of “nonwillful action”: letting events take their natural course.
Confucius says decisions should be informed by benevolence, ritual, reciprocity, and filial piety.
Fifth Century BC
Male citizens in Athens, in an early form of democratic self-government, make decisions by voting.
Fourth Century BC
Plato asserts that all perceivable things are derived from eternal archetypes and are better discovered through the
soul than through the senses.
Aristotle takes an empirical view of knowledge that values information gained through the senses and deductive
reasoning.
399 BC
In an early jury-trial decision, 500 Athenian citizens agree to send Socrates to his death.
333 BC
Alexander the Great slices through the Gordian knot with his sword, demonstrating how difficult problems can be
solved with bold strokes.
49 BC
Julius Caesar makes the irreversible decision to cross the Rubicon, and a potent metaphor in decision making is
born.
Ninth Century
The Hindu-Arabic number system, including zero, circulates throughout the Arab empire, stimulating the growth of
mathematics.
Eleventh Century
Omar Khayyám uses the Hindu-Arabic number system to create a language of calculation, paving the way for the
development of algebra.
Fourteenth Century
Franz Wirl: Industriebetriebslehre
41
An English friar proposes what became known as “Occam’s razor,” a rule of thumb for scientists and others trying
to analyze data: The best theory is the simplest one that accounts for all the evidence.
Seventeenth Century
Stable keeper Thomas Hobson presents his customers with an eponymous “choice”: the horse nearest the door or
none.
1602
Hamlet, facing arguably the most famous dilemma in Western literature, debates whether “to be, or not to be.”
1620
Francis Bacon asserts the superiority of inductive reasoning in scientific inquiry.
1641
René Descartes proposes that reason is superior to experience as a way of gaining knowledge and establishes the
framework for the scientific method.
1654
Prompted by a gamblers’ question about the “problem of points,” Blaise Pascal and Pierre de Fermat develop the
concept of calculating probabilities for chance events.
1660
Pascal’s wager on the existence of God shows that for a decision maker, the consequences, rather than the
likelihood, of being wrong can be paramount.
1738
Daniel Bernoulli lays the foundation of risk science by examining random events from the standpoint of how much
an individual desires or fears each possible outcome.
Nineteenth Century
Carl Friedrich Gauss studies the bell curve, described earlier by Abraham de Moivre, and develops a structure for
understanding the occurrences of random events.
1880
Oliver Wendell Holmes, in a series of lectures later published as The Common Law, puts forth the thesis that “the
life of the law has not been logic; it has been experience.” Judges, he argues, should base decisions not merely on
statutes but on the good sense of reasonable members of the community.
1886
Francis Galton discovers that although values in a random process may stray from the average, in time they will
trend toward it. His concept of regression to the mean will influence stock and business analysis.
1900
Sigmund Freud’s work on the unconscious suggests that people’s actions and decisions are often influenced by
causes hidden in the mind.
1907
Economist Irving Fisher introduces net present value as a decision-making tool, proposing that expected cash flow
be discounted at a rate that reflects an investment’s risk.
1921
Frank Knight distinguishes between risk, in which an outcome’s probability can be known (and consequently
insured against), and uncertainty, in which an outcome’s probability is unknowable.
1938
Chester Barnard separates personal from organizational decision making to explain why some employees act in the
firm’s interest rather than in their own.
1944
Franz Wirl: Industriebetriebslehre
42
In their book on game theory, John von Neumann and Oskar Morgenstern describe a mathematical basis for
economic decision making; like most theorists before them, they take the view that decision makers are rational and
consistent.
1946
The Alabe Crafts Company of Cincinnati markets the Magic 8 Ball.
1947
Rejecting the classical notion that decision makers behave with perfect rationality, Herbert Simon argues that
because of the costs of acquiring information, executives make decisions with only “bounded rationality”—they
make do with good-enough decisions.
1948
Project RAND, its name a contraction of “research and development,” separates from Douglas Aircraft and becomes
a nonprofit think tank. Decision makers use its analyses to form policy on education, poverty, crime, the
environment, and national security.
1950s
Research conducted at the Carnegie Institute of Technology and MIT will lead to the development of early
computer-based decision support tools.
1951
Kenneth Arrow introduces what becomes known as the Impossibility Theorem, which holds that there can be no set
of rules for social decision making that fulfills all the requirements of society.
1952
Harry Markowitz demonstrates mathematically how to choose diversified stock portfolios so that the returns are
consistent.
1960s
Edmund Learned, C. Roland Christensen, Kenneth Andrews, and others develop the SWOT (strengths, weaknesses,
opportunities, threats) model of analysis, useful for making decisions when time is short and circumstances
complex.
1961
Joseph Heller’s term “catch-22” becomes popular shorthand for circular, bureaucratic illogic that thwarts good
decision making.
1965
Corporations use IBM’s System/360 computers to start implementing management information systems.
Roger Wolcott Sperry begins publishing research on the functional specialization of the brain’s two hemispheres.
Franz Wirl: Industriebetriebslehre
43
1966
The phrase “nuclear option” is coined with respect to developing atomic weapons and is eventually used to
designate a decision to take the most drastic course of action.
1968
Howard Raiffa’s Decision Analysis explains many fundamental decision-making techniques, including decision
trees and the expected value of sample (as opposed to perfect) information.
1970
John D.C. Little develops the underlying theory and advances the capability of decision-support systems.
1972
Irving Janis coins the term “groupthink” for flawed decision making that values consensus over the best result.
Michael Cohen, James March, and Johan Olsen publish “A Garbage Can Model of Organizational Choice,” which
advises organizations to search their informational trash bins for solutions thrown out earlier for lack of a problem.
1973
Fischer Black and Myron Scholes (in one paper) and Robert Merton (in another) show how to accurately value stock
options, beginning a revolution in risk management.
Henry Mintzberg describes several kinds of decision makers and positions decision making within the context of
managerial work.
Victor Vroom and Philip Yetton develop the Vroom-Yetton model, which explains how different leadership styles
can be harnessed to solve different types of problems.
1979
Amos Tversky and Daniel Kahneman publish their Prospect Theory, which demonstrates that the rational model of
economics fails to describe how people arrive at decisions when facing the uncertainties of real life.
John Rockart explores the specific data needs of chief executives, leading to the development of executive
information systems.
1980s
“Nobody ever got fired for buying IBM” comes to stand for decisions whose chief rationale is safety.
1984
W. Carl Kester raises corporate awareness of real options by suggesting that managers think of investment
opportunities as options on the company’s future growth.
Daniel Isenberg explains that executives often combine rigorous planning with intuition when faced with a high
degree of uncertainty.
1989
Howard Dresner introduces the term “business intelligence” to describe a set of methods that support sophisticated
analytical decision making aimed at improving business performance.
1992
Max Bazerman and Margaret Neale connect behavioral decision research to negotiations in Negotiating Rationally.
1995
Anthony Greenwald develops the Implicit Association Test, meant to reveal unconscious attitudes or beliefs that can
influence judgment.
1996
Web users start making buying decisions based on the buying decisions of people like themselves.
2005
In Blink, Malcolm Gladwell explores the notion that our instantaneous decisions are sometimes better than those
based on lengthy, rational analysis.
Franz Wirl: Industriebetriebslehre
44
Most early numbering methods were unwieldy, as anyone knows who has tried to multiply XXIII by VI.
The Hindu-Arabic numeral system (which, radically, included zero) simplified calculations and enticed
philosophers to investigate the nature of numbers. The tale of our progression from those early fumblings
with base 10 is masterfully told by Peter Bernstein in Against the Gods: The Remarkable Story of Risk.
Bernstein’s account begins in the dark days when people believed they had no control over events and so
turned to priests and oracles for clues to what larger powers held in store for them. It progresses quickly
to a new interest in mathematics and measurement, spurred, in part, by the growth of trade. During the
Renaissance, scientists and mathematicians such as Girolamo Cardano mused about probability and
concocted puzzles around games of chance. In 1494, a peripatetic Franciscan monk named Luca Pacioli
proposed “the problem of points”—which asks how one should divide the stakes in an incomplete game.
Some 150 years later, French mathematicians Blaise Pascal and Pierre de Fermat developed a way to
determine the likelihood of each possible result of a simple game (balla, which had fascinated Pacioli).
But it wasn’t until the next century, when Swiss scholar Daniel Bernoulli took up the study of random
events, that the scientific basis for risk management took shape.
Bernoulli (who also introduced the far-reaching concept of human capital) focused not on events
themselves but on the human beings who desire or fear certain outcomes to a greater or lesser degree.
His intent, he wrote, was to create mathematical tools that would allow anyone to “estimate his prospects
from any risky undertaking in light of [his] specific financial circumstances.” In other words, given the
chance of a particular outcome, how much are you willing to bet?
In the nineteenth century, other scientific disciplines became fodder for the risk thinkers. Carl Friedrich
Gauss brought his geodesic and astronomical research to bear on the bell curve of normal distribution.
The insatiably curious Francis Galton came up with the concept of regression to the mean while studying
generations of sweet peas. (He later applied the principle to people, observing that few of the sons—and
fewer of the grandsons—of eminent men were themselves eminent.)
But it wasn’t until after World War I that risk gained a beachhead in economic analysis. In 1921, Frank
Knight distinguished between risk, when the probability of an outcome is possible to calculate (or is
knowable), and uncertainty, when the probability of an outcome is not possible to determine (or is
unknowable)—an argument that rendered insurance attractive and entrepreneurship, in Knight’s words,
“tragic.” Some two decades later, John von Neumann and Oskar Morgenstern laid out the fundamentals
of game theory, which deals in situations where people’s decisions are influenced by the unknowable
decisions of “live variables” (aka other people).
Today, of course, corporations try to know as much as is humanly and technologically possible, deploying
such modern techniques as derivatives, scenario planning, business forecasting, and real options. But at
a time when chaos so often triumphs over control, even centuries’ worth of mathematical discoveries can
do only so much. Life “is a trap for logicians,” wrote the novelist G.K. Chesterton. “Its wildness lies in
wait.”
The Meeting of Minds
In the fifth century BC, Athens became the first (albeit limited) democracy. In the seventeenth century, the
Quakers developed a decision-making process that remains a paragon of efficiency, openness, and
respect. Starting in 1945, the United Nations sought enduring peace through the actions of free peoples
working together.
There is nobility in the notion of people pooling their wisdom and muzzling their egos to make decisions
that are acceptable—and fair—to all. During the last century, psychologists, sociologists, anthropologists,
and even biologists (studying everything from mandrills to honeybees) eagerly unlocked the secrets of
effective cooperation within groups. Later, the popularity of high-performance teams, coupled with new
collaborative technologies that made it “virtually” impossible for any man to be an island, fostered the
collective ideal.
The scientific study of groups began, roughly, in 1890, as part of the burgeoning field of social
psychology. In 1918, Mary Parker Follett made a passionate case for the value of conflict in achieving
integrated solutions in The New State: Group Organization—The Solution of Popular Government. A
breakthrough in understanding group dynamics occurred just after World War II, sparked—oddly
enough—by the U.S. government’s wartime campaign to promote the consumption of organ meat.
Enlisted to help, psychologist Kurt Lewin discovered that people were more likely to change their eating
habits if they thrashed the subject out with others than if they simply listened to lectures about diet. His
influential “field theory” posited that actions are determined, in part, by social context and that even group
members with very different perspectives will act together to achieve a common goal.
Franz Wirl: Industriebetriebslehre
45
Over the next decades, knowledge about group dynamics and the care and feeding of teams evolved
rapidly. Victor Vroom and Philip Yetton established the circumstances under which group decision making
is appropriate. R. Meredith Belbin defined the components required for successful teams. Howard Raiffa
explained how groups exploit “external help” in the form of mediators and facilitators. And Peter Drucker
suggested that the most important decision may not be made by the team itself but rather by
management about what kind of team to use.
Meanwhile, research and events collaborated to expose collective decision making’s dark underbelly.
Poor group decisions—of the sort made by boards, product development groups, management teams—
are often attributed to the failure to mix things up and question assumptions. Consensus is good, unless it
is achieved too easily, in which case it becomes suspect. Irving Janis coined the term “groupthink” in
1972 to describe “a mode of thinking that people engage in when they are deeply involved in a cohesive
in-group, when the members’ strivings for unanimity override their motivation to realistically appraise
alternative courses of action.” In his memoir, A Thousand Days, former Kennedy aide Arthur Schlesinger
reproached himself for not objecting during the planning for the Bay of Pigs invasion: “I can only explain
my failure to do more than raise a few timid questions by reporting that one’s impulse to blow the whistle
on this nonsense was simply undone by the circumstances of the discussion.”
It seems that decisions reached through group dynamics require, above all, a dynamic group. As
Clarence Darrow neatly put it: “To think is to differ.”
Thinking Machines
Computer professionals eulogize Xerox PARC of the 1970s as a technological Eden where some of
today’s indispensable tools sprouted. But comparable vitality and progress were evident two decades
earlier at the Carnegie Institute of Technology in Pittsburgh. There, a group of distinguished researchers
laid the conceptual—and in some cases the programming—foundation for computer-supported decision
making.
Future Nobel laureate Herbert Simon, Allen Newell, Harold Guetzkow, Richard M. Cyert, and James
March were among the CIT scholars who shared a fascination with organizational behavior and the
workings of the human brain. The philosopher’s stone that alchemized their ideas was electronic
computing. By the mid-1950s, transistors had been around less than a decade, and IBM would not launch
its groundbreaking 360 mainframe until 1965. But already scientists were envisioning how the new tools
might improve human decision making. The collaborations of these and other Carnegie scientists,
together with research by Marvin Minsky at the Massachusetts Institute of Technology and John
McCarthy of Stanford, produced early computer models of human cognition—the embryo of artificial
intelligence.
AI was intended both to help researchers understand how the brain makes decisions and to augment the
decision-making process for real people in real organizations. Decision support systems, which began
appearing in large companies toward the end of the 1960s, served the latter goal, specifically targeting
the practical needs of managers. In a very early experiment with the technology, managers used
computers to coordinate production planning for laundry equipment, Daniel Power, editor of the Web site
DSSResources.com, relates. Over the next decades, managers in many industries applied the
technology to decisions about investments, pricing, advertising, and logistics, among other functions.
But while technology was improving operational decisions, it was still largely a cart horse for hauling
rather than a stallion for riding into battle. Then in 1979, John Rockart published the HBR article “Chief
Executives Define Their Own Data Needs,” proposing that systems used by corporate leaders ought to
give them data about the key jobs the company must do well to succeed. That article helped launch
“executive information systems,” a breed of technology specifically geared toward improving strategic
decision making at the top. In the late 1980s, a Gartner Group consultant coined the term “business
intelligence” to describe systems that help decision makers throughout the organization understand the
state of their company’s world. At the same time, a growing concern with risk led more companies to
adopt complex simulation tools to assess vulnerabilities and opportunities.
In the 1990s, technology-aided decision making found a new customer: customers themselves. The
Internet, which companies hoped would give them more power to sell, instead gave consumers more
power to choose from whom to buy. In February 2005, the shopping search service BizRate reports, 59%
of online shoppers visited aggregator sites to compare prices and features from multiple vendors before
making a purchase, and 87% used the Web to size up the merits of online retailers, catalog merchants,
and traditional retailers.
Franz Wirl: Industriebetriebslehre
46
Unlike executives making strategic decisions, consumers don’t have to factor what Herbert Simon called
“zillions of calculations” into their choices. Still, their newfound ability to make the best possible buying
decisions may amount to technology’s most significant impact to date on corporate success—or failure.
The Romance of the Gut
“Gut,” according to the first definition in Merriam-Webster’s latest edition, means “bowels.” But when Jack
Welch describes his “straight from the gut” leadership style, he’s not talking about the alimentary canal.
Rather, Welch treats the word as a conflation of two slang terms: “gut” (meaning emotional response) and
“guts” (meaning fortitude, nerve).
That semantic shift—from human’s stomach to lion’s heart—helps explain the current fascination with gut
decision making. From our admiration for entrepreneurs and firefighters, to the popularity of books by
Malcolm Gladwell and Gary Klein, to the outcomes of the last two U.S. presidential elections, instinct
appears ascendant. Pragmatists act on evidence. Heroes act on guts. As Alden Hayashi writes in “When
to Trust Your Gut” (HBR February 2001): “Intuition is one of the X factors separating the men from the
boys.”
We don’t admire gut decision makers for the quality of their decisions so much as for their courage in
making them. Gut decisions testify to the confidence of the decision maker, an invaluable trait in a leader.
Gut decisions are made in moments of crisis when there is no time to weigh arguments and calculate the
probability of every outcome. They are made in situations where there is no precedent and consequently
little evidence. Sometimes they are made in defiance of the evidence, as when Howard Schultz bucked
conventional wisdom about Americans’ thirst for a $3 cup of coffee and Robert Lutz let his emotions guide
Chrysler’s $80 million investment in a $50,000 muscle car. Financier George Soros claims that back
pains have alerted him to discontinuities in the stock market that have made him fortunes. Such decisions
are the stuff of business legend.
Decision makers have good reasons to prefer instinct. In a survey of executives that Jagdish Parikh
conducted when he was a student at Harvard Business School, respondents said they used their intuitive
skills as much as they used their analytical abilities, but they credited 80% of their successes to instinct.
Henry Mintzberg explains that strategic thinking cries out for creativity and synthesis and thus is better
suited to intuition than to analysis. And a gut is a personal, nontransferable attribute, which increases the
value of a good one. Readers can parse every word that Welch and Lutz and Rudolph Giuliani write. But
they cannot replicate the experiences, thought patterns, and personality traits that inform those leaders’
distinctive choices.
Although few dismiss outright the power of instinct, there are caveats aplenty. Behavioral economists
such as Daniel Kahneman, Robert Shiller, and Richard Thaler have described the thousand natural
mistakes our brains are heir to. And business examples are at least as persuasive as behavioral studies.
Michael Eisner (Euro Disney), Fred Smith (ZapMail), and Soros (Russian securities) are among the many
good businesspeople who have made bad guesses, as Eric Bonabeau points out in his article “Don’t
Trust Your Gut” (HBR May 2003).
Of course the gut/brain dichotomy is largely false. Few decision makers ignore good information when
they can get it. And most accept that there will be times they can’t get it and so will have to rely on
instinct. Fortunately, the intellect informs both intuition and analysis, and research shows that people’s
instincts are often quite good. Guts may even be trainable, suggest John Hammond, Ralph Keeney,
Howard Raiffa, and Max Bazerman, among others.
In The Fifth Discipline, Peter Senge elegantly sums up the holistic approach: “People with high levels of
personal mastery…cannot afford to choose between reason and intuition, or head and heart, any more
than they would choose to walk on one leg or see with one eye.” A blink, after all, is easier when you use
both eyes. And so is a long, penetrating stare.
2.4.2
Evidence-Based Management (Jeffrey Pfeffer and Robert I. Sutton)
For the most part, managers looking to cure their organizational ills rely on obsolete knowledge they
picked up in school, long-standing but never proven traditions, patterns gleaned from experience,
methods they happen to be skilled in applying, and information from vendors. They could learn a thing or
two from practitioners of evidence-based medicine, a movement that has taken the medical establishment
by storm over the past decade. A growing number of physicians are eschewing the usual, flawed
resources and are instead identifying, disseminating, and applying research that is soundly conducted
and clinically relevant. It's time for managers to do the same. The challenge is, quite simply, to ground
decisions in the latest and best knowledge of what actually works. In some ways, that's more difficult to
do in business than in medicine. The evidence is weaker in business; almost anyone can (and many
Franz Wirl: Industriebetriebslehre
47
people do) claim to be a management expert; and a motley crew of sources--Shakespeare, Billy Graham,
Jack Welch, Attila the Hun--are used to generate management advice. Still, it makes sense that when
managers act on better logic and strong evidence, their companies will beat the competition. Like
medicine, management is learned through practice and experience. Yet managers (like doctors) can
practice their craft more effectively if they relentlessly seek new knowledge and insight, from both inside
and outside their companies, so they can keep updating their assumptions, skills, and knowledge.
2.4.3
Competing on Analytics by Thomas H. Davenport
We all know the power of the killer app. Over the years, groundbreaking systems from companies such
as American Airlines (electronic reservations), Otis Elevator (predictive maintenance), and American
Hospital Supply (online ordering) have dramatically boosted their creators’ revenues and reputations.
These heralded—and coveted—applications amassed and applied data in ways that upended customer
expectations and optimized operations to unprecedented degrees. They transformed technology from a
supporting tool into a strategic weapon.
Companies questing for killer apps generally focus all their firepower on the one area that promises to
create the greatest competitive advantage. But a new breed of company is upping the stakes.
Organizations such as Amazon, Harrah’s, Capital One, and the Boston Red Sox have dominated their
fields by deploying industrial-strength analytics across a wide variety of activities. In essence, they are
transforming their organizations into armies of killer apps and crunching their way to victory.
Organizations are competing on analytics not just because they can—business today is awash in data
and data crunchers—but also because they should. At a time when firms in many industries offer similar
products and use comparable technologies, business processes are among the last remaining points of
differentiation. And analytics competitors wring every last drop of value from those processes. So, like
other companies, they know what products their customers want, but they also know what prices those
customers will pay, how many items each will buy in a lifetime, and what triggers will make people buy
more. Like other companies, they know compensation costs and turnover rates, but they can also
calculate how much personnel contribute to or detract from the bottom line and how salary levels relate to
individuals’ performance. Like other companies, they know when inventories are running low, but they
can also predict problems with demand and supply chains, to achieve low rates of inventory and high
rates of perfect orders.
And analytics competitors do all those things in a coordinated way, as part of an overarching strategy
championed by top leadership and pushed down to decision makers at every level. Employees hired for
their expertise with numbers or trained to recognize their importance are armed with the best evidence
and the best quantitative tools. As a result, they make the best decisions: big and small, every day, over
and over and over.
Although numerous organizations are embracing analytics, only a handful have achieved this level of
proficiency. But analytics competitors are the leaders in their varied fields—consumer products, finance,
retail, and travel and entertainment among them. Analytics has been instrumental to Capital One, which
has exceeded 20% growth in earnings per share every year since it became a public company. It has
allowed Amazon to dominate online retailing and turn a profit despite enormous investments in growth
and infrastructure. In sports, the real secret weapon isn’t steroids, but stats, as dramatic victories by the
Boston Red Sox, the New England Patriots, and the Oakland A’s attest.
At such organizations, virtuosity with data is often part of the brand. Progressive makes advertising hay
from its detailed parsing of individual insurance rates. Amazon customers can watch the company
learning about them as its service grows more targeted with frequent purchases. Thanks to Michael
Lewis’s best-selling book Moneyball, which demonstrated the power of statistics in professional baseball,
the Oakland A’s are almost as famous for their geeky number crunching as they are for their athletic
prowess.
To identify characteristics shared by analytics competitors, I and two of my colleagues at Babson
College’s Working Knowledge Research Center studied 32 organizations that have made a commitment
to quantitative, fact-based analysis. Eleven of those organizations we classified as full-bore analytics
competitors, meaning top management had announced that analytics was key to their strategies; they
had multiple initiatives under way involving complex data and statistical analysis, and they managed
analytical activity at the enterprise (not departmental) level.
This article lays out the characteristics and practices of these statistical masters and describes some of
the very substantial changes other companies must undergo in order to compete on quantitative turf. As
one would expect, the transformation requires a significant investment in technology, the accumulation of
massive stores of data, and the formulation of companywide strategies for managing the data. But at
Franz Wirl: Industriebetriebslehre
48
least as important, it requires executives’ vocal, unswerving commitment and willingness to change the
way employees think, work, and are treated. As Gary Loveman, CEO of analytics competitor Harrah’s,
frequently puts it, “Do we think this is true? Or do we know?”
Anatomy of an Analytics Competitor
One analytics competitor that’s at the top of its game is Marriott International. Over the past 20 years, the
corporation has honed to a science its system for establishing the optimal price for guest rooms (the key
analytics process in hotels, known as revenue management). Today, its ambitions are far grander.
Through its Total Hotel Optimization program, Marriott has expanded its quantitative expertise to areas
such as conference facilities and catering, and made related tools available over the Internet to property
revenue managers and hotel owners. It has developed systems to optimize offerings to frequent
customers and assess the likelihood of those customers’ defecting to competitors. It has given local
revenue managers the power to override the system’s recommendations when certain local factors can’t
be predicted (like the large number of Hurricane Katrina evacuees arriving in Houston). The company has
even created a revenue opportunity model, which computes actual revenues as a percentage of the
optimal rates that could have been charged. That figure has grown from 83% to 91% as Marriott’s
revenue-management analytics has taken root throughout the enterprise. The word is out among property
owners and franchisees: If you want to squeeze the most revenue from your inventory, Marriott’s
approach is the ticket.
Clearly, organizations such as Marriott don’t behave like traditional companies. Customers notice the
difference in every interaction; employees and vendors live the difference every day. Our study found
three key attributes among analytics competitors:
Widespread use of modeling and optimization. Any company can generate simple descriptive statistics
about aspects of its business—average revenue per employee, for example, or average order size. But
analytics competitors look well beyond basic statistics. These companies use predictive modeling to
identify the most profitable customers—plus those with the greatest profit potential and the ones most
likely to cancel their accounts. They pool data generated in-house and data acquired from outside
sources (which they analyze more deeply than do their less statistically savvy competitors) for a
comprehensive understanding of their customers. They optimize their supply chains and can thus
determine the impact of an unexpected constraint, simulate alternatives, and route shipments around
problems. They establish prices in real time to get the highest yield possible from each of their customer
transactions. They create complex models of how their operational costs relate to their financial
performance.
Leaders in analytics also use sophisticated experiments to measure the overall impact or “lift” of
intervention strategies and then apply the results to continuously improve subsequent analyses. Capital
One, for example, conducts more than 30,000 experiments a year, with different interest rates, incentives,
direct-mail packaging, and other variables. Its goal is to maximize the likelihood both that potential
customers will sign up for credit cards and that they will pay back Capital One.
Progressive employs similar experiments using widely available insurance industry data. The company
defines narrow groups, or cells, of customers: for example, motorcycle riders ages 30 and above, with
college educations, credit scores over a certain level, and no accidents. For each cell, the company
performs a regression analysis to identify factors that most closely correlate with the losses that group
engenders. It then sets prices for the cells, which should enable the company to earn a profit across a
portfolio of customer groups, and uses simulation software to test the financial implications of those
hypotheses. With this approach, Progressive can profitably insure customers in traditionally high-risk
categories. Other insurers reject high-risk customers out of hand, without bothering to delve more deeply
into the data (although even traditional competitors, such as Allstate, are starting to embrace analytics as
a strategy).
An enterprise approach. Analytics competitors understand that most business functions—even those, like
marketing, that have historically depended on art rather than science—can be improved with
sophisticated quantitative techniques. These organizations don’t gain advantage from one killer app, but
rather from multiple applications supporting many parts of the business—and, in a few cases, being rolled
out for use by customers and suppliers.
UPS embodies the evolution from targeted analytics user to comprehensive analytics competitor.
Although the company is among the world’s most rigorous practitioners of operations research and
industrial engineering, its capabilities were, until fairly recently, narrowly focused. Today, UPS is wielding
its statistical skill to track the movement of packages and to anticipate and influence the actions of
people—assessing the likelihood of customer attrition and identifying sources of problems. The UPS
Franz Wirl: Industriebetriebslehre
49
Customer Intelligence Group, for example, is able to accurately predict customer defections by examining
usage patterns and complaints. When the data point to a potential defector, a salesperson contacts that
customer to review and resolve the problem, dramatically reducing the loss of accounts. UPS still lacks
the breadth of initiatives of a full-bore analytics competitor, but it is heading in that direction.
Analytics competitors treat all such activities from all provenances as a single, coherent initiative, often
massed under one rubric, such as “information-based strategy” at Capital One or “information-based
customer management” at Barclays Bank. These programs operate not just under a common label but
also under common leadership and with common technology and tools. In traditional companies,
“business intelligence” (the term IT people use for analytics and reporting processes and software) is
generally managed by departments; number-crunching functions select their own tools, control their own
data warehouses, and train their own people. But that way, chaos lies. For one thing, the proliferation of
user-developed spreadsheets and databases inevitably leads to multiple versions of key indicators within
an organization. Furthermore, research has shown that between 20% and 40% of spreadsheets contain
errors; the more spreadsheets floating around a company, therefore, the more fecund the breeding
ground for mistakes. Analytics competitors, by contrast, field centralized groups to ensure that critical
data and other resources are well managed and that different parts of the organization can share data
easily, without the impediments of inconsistent formats, definitions, and standards.
Some analytics competitors apply the same enterprise approach to people as to technology. Procter &
Gamble, for example, recently created a kind of überanalytics group consisting of more than 100 analysts
from such functions as operations, supply chain, sales, consumer research, and marketing. Although
most of the analysts are embedded in business operating units, the group is centrally managed. As a
result of this consolidation, P&G can apply a critical mass of expertise to its most pressing issues. So, for
example, sales and marketing analysts supply data on opportunities for growth in existing markets to
analysts who design corporate supply networks. The supply chain analysts, in turn, apply their expertise
in certain decision-analysis techniques to such new areas as competitive intelligence.
Going to Bat for Stats
The analysis-versus-instinct debate, a favorite of political commentators during the last two U.S. presidential
elections, is raging in professional sports, thanks to several popular books and high-profile victories. For now,
analysis seems to hold the lead.
Most notably, statistics are a major part of the selection and deployment of players. Moneyball, by Michael Lewis,
focuses on the use of analytics in player selection for the Oakland A’s—a team that wins on a shoestring. The New
England Patriots, a team that devotes an enormous amount of attention to statistics, won three of the last four Super
Bowls, and their payroll is currently ranked 24th in the league. The Boston Red Sox have embraced “sabermetrics”
(the application of analysis to baseball), even going so far as to hire Bill James, the famous baseball statistician who
popularized that term. Analytic HR strategies are taking hold in European soccer as well. One leading team, Italy’s
A.C. Milan, uses predictive models from its Milan Lab research center to prevent injuries by analyzing
physiological, orthopedic, and psychological data from a variety of sources. A fast-rising English soccer team, the
Bolton Wanderers, is known for its manager’s use of extensive data to evaluate players’ performance.
Still, sports managers—like business leaders—are rarely fact-or-feeling purists. St. Louis Cardinals manager Tony
La Russa, for example, brilliantly combines analytics with intuition to decide when to substitute a charged-up player
in the batting lineup or whether to hire a spark-plug personality to improve morale. In his recent book, Three Nights
in August, Buzz Bissinger describes that balance: “La Russa appreciated the information generated by computers.
He studied the rows and the columns. But he also knew they could take you only so far in baseball, maybe even
confuse you with a fog of overanalysis. As far as he knew, there was no way to quantify desire. And those numbers
told him exactly what he needed to know when added to twenty-four years of managing experience.”
That final sentence is the key. Whether scrutinizing someone’s performance record or observing the expression
flitting across an employee’s face, leaders consult their own experience to understand the “evidence” in all its forms.
The group at P&G also raises the visibility of analytical and data-based decision making within the
company. Previously, P&G’s crack analysts had improved business processes and saved the firm money;
but because they were squirreled away in dispersed domains, many executives didn’t know what services
they offered or how effective they could be. Now those executives are more likely to tap the company’s
deep pool of expertise for their projects. Meanwhile, masterful number crunching has become part of the
story P&G tells to investors, the press, and the public.
Senior executive advocates. A companywide embrace of analytics impels changes
processes, behavior, and skills for many employees. And so, like any major transition,
leadership from executives at the very top who have a passion for the quantitative approach.
principal advocate is the CEO. Indeed, we found several chief executives who have driven
in culture,
it requires
Ideally, the
the shift to
Franz Wirl: Industriebetriebslehre
50
analytics at their companies over the past few years, including Loveman of Harrah’s, Jeff Bezos of
Amazon, and Rich Fairbank of Capital One. Before he retired from the Sara Lee Bakery Group, former
CEO Barry Beracha kept a sign on his desk that summed up his personal and organizational philosophy:
“In God we trust. All others bring data.” We did come across some companies in which a single functional
or business unit leader was trying to push analytics throughout the organization, and a few were making
some progress. But we found that these lower-level people lacked the clout, the perspective, and the
cross-functional scope to change the culture in any meaningful way.
CEOs leading the analytics charge require both an appreciation of and a familiarity with the subject. A
background in statistics isn’t necessary, but those leaders must understand the theory behind various
quantitative methods so that they recognize those methods’ limitations—which factors are being weighed
and which ones aren’t. When the CEOs need help grasping quantitative techniques, they turn to experts
who understand the business and how analytics can be applied to it. We interviewed several leaders who
had retained such advisers, and these executives stressed the need to find someone who can explain
things in plain language and be trusted not to spin the numbers. A few CEOs we spoke with had
surrounded themselves with very analytical people—professors, consultants, MIT graduates, and the like.
But that was a personal preference rather than a necessary practice.
Of course, not all decisions should be grounded in analytics—at least not wholly so. Personnel matters, in
particular, are often well and appropriately informed by instinct and anecdote. More organizations are
subjecting recruiting and hiring decisions to statistical analysis (see the sidebar “Going to Bat for Stats”).
But research shows that human beings can make quick, surprisingly accurate assessments of personality
and character based on simple observations. For analytics-minded leaders, then, the challenge boils
down to knowing when to run with the numbers and when to run with their guts.
Their Sources of Strength
Analytics competitors are more than simple number-crunching factories. Certainly, they apply
technology—with a mixture of brute force and finesse—to multiple business problems. But they also
direct their energies toward finding the right focus, building the right culture, and hiring the right people to
make optimal use of the data they constantly churn. In the end, people and strategy, as much as
information technology, give such organizations strength.
The right focus. Although analytics competitors encourage universal fact-based decisions, they must
choose where to direct resource-intensive efforts. Generally, they pick several functions or initiatives that
together serve an overarching strategy. Harrah’s, for example, has aimed much of its analytical activity at
increasing customer loyalty, customer service, and related areas like pricing and promotions. UPS has
broadened its focus from logistics to customers, in the interest of providing superior service. While such
multipronged strategies define analytics competitors, executives we interviewed warned companies
against becoming too diffuse in their initiatives or losing clear sight of the business purpose behind each.
Another consideration when allocating resources is how amenable certain functions are to deep analysis.
There are at least seven common targets for analytical activity, and specific industries may present their
own (see “Things You Can Count On”). Statistical models and algorithms that dangle the possibility of
performance breakthroughs make some prospects especially tempting. Marketing, for example, has
always been tough to quantify because it is rooted in psychology. But now consumer products companies
can hone their market research using multiattribute utility theory—a tool for understanding and predicting
consumer behaviors and decisions. Similarly, the advertising industry is adopting econometrics—
statistical techniques for measuring the lift provided by different ads and promotions over time.
The most proficient analytics practitioners don’t just measure their own navels—they also help customers
and vendors measure theirs. Wal-Mart, for example, insists that suppliers use its Retail Link system to
monitor product movement by store, to plan promotions and layouts within stores, and to reduce stockouts. E.&J. Gallo provides distributors with data and analysis on retailers’ costs and pricing so they can
calculate the per-bottle profitability for each of Gallo’s 95 wines. The distributors, in turn, use that
information to help retailers optimize their mixes while persuading them to add shelf space for Gallo
products. Procter & Gamble offers data and analysis to its retail customers, as part of a program called
Joint Value Creation, and to its suppliers to help improve responsiveness and reduce costs. Hospital
supplier Owens & Minor furnishes similar services, enabling customers and suppliers to access and
analyze their buying and selling data, track ordering patterns in search of consolidation opportunities, and
move off-contract purchases to group contracts that include products distributed by Owens & Minor and
its competitors. For example, Owens & Minor might show a hospital chain’s executives how much money
they could save by consolidating purchases across multiple locations or help them see the trade-offs
between increasing delivery frequency and carrying inventory.
Franz Wirl: Industriebetriebslehre
51
The right culture. Culture is a soft concept; analytics is a hard discipline. Nonetheless, analytics
competitors must instill a companywide respect for measuring, testing, and evaluating quantitative
evidence. Employees are urged to base decisions on hard facts. And they know that their performance is
gauged the same way. Human resource organizations within analytics competitors are rigorous about
applying metrics to compensation and rewards. Harrah’s, for example, has made a dramatic change from
a rewards culture based on paternalism and tenure to one based on such meticulously collected
performance measurements as financial and customer service results. Senior executives also set a
consistent example with their own behavior, exhibiting a hunger for and confidence in fact and analysis.
One exemplar of such leadership was Beracha of the Sara Lee Bakery Group, known to his employees
as a “data dog” because he hounded them for data to support any assertion or hypothesis.
Not surprisingly, in an analytics culture, there’s sometimes tension between innovative or entrepreneurial
impulses and the requirement for evidence. Some companies place less emphasis on blue-sky
development, in which designers or engineers chase after a gleam in someone’s eye. In these
organizations, R&D, like other functions, is rigorously metric-driven. At Yahoo, Progressive, and Capital
One, process and product changes are tested on a small scale and implemented as they are validated.
That approach, well established within various academic and business disciplines (including engineering,
quality management, and psychology), can be applied to most corporate processes—even to not-soobvious candidates, like human resources and customer service. HR, for example, might create profiles
of managers’ personality traits and leadership styles and then test those managers in different situations.
It could then compare data on individuals’ performance with data about personalities to determine what
traits are most important to managing a project that is behind schedule, say, or helping a new group to
assimilate.
There are, however, instances when a decision to change something or try something new must be made
too quickly for extensive analysis, or when it’s not possible to gather data beforehand. For example, even
though Amazon’s Jeff Bezos greatly prefers to rigorously quantify users’ reactions before rolling out new
features, he couldn’t test the company’s search-inside-the-book offering without applying it to a critical
mass of books (120,000, to begin with). It was also expensive to develop, and that increased the risk. In
this case, Bezos trusted his instincts and took a flier. And the feature did prove popular when introduced.
The right people. Analytical firms hire analytical people—and like all companies that compete on talent,
they pursue the best. When Amazon needed a new head for its global supply chain, for example, it
recruited Gang Yu, a professor of management science and software entrepreneur who is one of the
world’s leading authorities on optimization analytics. Amazon’s business model requires the company to
manage a constant flow of new products, suppliers, customers, and promotions, as well as deliver orders
by promised dates. Since his arrival, Yu and his team have been designing and building sophisticated
supply chain systems to optimize those processes. And while he tosses around phrases like
Franz Wirl: Industriebetriebslehre
52
“nonstationary stochastic processes,” he’s also good at explaining the new approaches to Amazon’s
executives in clear business terms.
Established analytics competitors such as Capital One employ squadrons of analysts to conduct
quantitative experiments and, with the results in hand, design credit card and other financial offers. These
efforts call for a specialized skill set, as you can see from this job description (typical for a Capital One
analyst):
High conceptual problem-solving and quantitative analytical aptitudes…Engineering, financial, consulting,
and/or other analytical quantitative educational/work background. Ability to quickly learn how to use
software applications. Experience with Excel models. Some graduate work preferred but not required
(e.g., MBA). Some experience with project management methodology, process improvement tools (Lean,
Six Sigma), or statistics preferred.
Other firms hire similar kinds of people, but analytics competitors have them in much greater numbers.
Capital One is currently seeking three times as many analysts as operations people—hardly the common
practice for a bank. “We are really a company of analysts,” one executive there noted. “It’s the primary job
in this place.”
Good analysts must also have the ability to express complex ideas in simple terms and have the
relationship skills to interact well with decision makers. One consumer products company with a 30person analytics group looks for what it calls “PhDs with personality”—people with expertise in math,
statistics, and data analysis who can also speak the language of business and help market their work
internally and sometimes externally. The head of a customer analytics group at Wachovia Bank describes
the rapport with others his group seeks: “We are trying to build our people as part of the business team,”
he explains. “We want them sitting at the business table, participating in a discussion of what the key
issues are, determining what information needs the businesspeople have, and recommending actions to
the business partners. We want this [analytics group] to be not just a general utility, but rather an active
and critical part of the business unit’s success.”
Of course, a combination of analytical, business, and relationship skills may be difficult to find. When the
software company SAS (a sponsor of this research, along with Intel) knows it will need an expert in stateof-the-art business applications such as predictive modeling or recursive partitioning (a form of decision
tree analysis applied to very complex data sets), it begins recruiting up to 18 months before it expects to
fill the position.
In fact, analytical talent may be to the early 2000s what programming talent was to the late 1990s.
Unfortunately, the U.S. and European labor markets aren’t exactly teeming with analytically sophisticated
job candidates. Some organizations cope by contracting work to countries such as India, home to many
statistical experts. That strategy may succeed when offshore analysts work on stand-alone problems. But
if an iterative discussion with business decision makers is required, the distance can become a major
barrier.
The right technology. Competing on analytics means competing on technology. And while the most
serious competitors investigate the latest statistical algorithms and decision science approaches, they
also constantly monitor and push the IT frontier. The analytics group at one consumer products company
went so far as to build its own supercomputer because it felt that commercially available models were
inadequate for its demands. Such heroic feats usually aren’t necessary, but serious analytics does
require the following:
A data strategy. Companies have invested many millions of dollars in systems that snatch data from
every conceivable source. Enterprise resource planning, customer relationship management, point-ofsale, and other systems ensure that no transaction or other significant exchange occurs without leaving a
mark. But to compete on that information, companies must present it in standard formats, integrate it,
store it in a data warehouse, and make it easily accessible to anyone and everyone. And they will need a
lot of it. For example, a company may spend several years accumulating data on different marketing
approaches before it has gathered enough to reliably analyze the effectiveness of an advertising
campaign. Dell employed DDB Matrix, a unit of the advertising agency DDB Worldwide, to create (over a
period of seven years) a database that includes 1.5 million records on all the computer maker’s print,
radio, network TV, and cable ads, coupled with data on Dell sales for each region in which the ads
appeared (before and after their appearance). That information allows Dell to fine-tune its promotions for
every medium in every region.
Business intelligence software. The term “business intelligence,” which first popped up in the late 1980s,
encompasses a wide array of processes and software used to collect, analyze, and disseminate data, all
in the interests of better decision making. Business intelligence tools allow employees to extract,
Franz Wirl: Industriebetriebslehre
53
transform, and load (or ETL, as people in the industry would say) data for analysis and then make those
analyses available in reports, alerts, and scorecards. The popularity of analytics competition is partly a
response to the emergence of integrated packages of these tools.
Computing hardware. The volumes of data required for analytics applications may strain the capacity of
low-end computers and servers. Many analytics competitors are converting their hardware to 64-bit
processors that churn large amounts of data quickly.
The Long Road Ahead
Most companies in most industries have excellent reasons to pursue strategies shaped by analytics.
Virtually all the organizations we identified as aggressive analytics competitors are clear leaders in their
fields, and they attribute much of their success to the masterful exploitation of data. Rising global
competition intensifies the need for this sort of proficiency. Western companies unable to beat their Indian
or Chinese competitors on product cost, for example, can seek the upper hand through optimized
business processes.
Companies just now embracing such strategies, however, will find that they take several years to come to
fruition. The organizations in our study described a long, sometimes arduous journey. The UK Consumer
Cards and Loans business within Barclays Bank, for example, spent five years executing its plan to apply
analytics to the marketing of credit cards and other financial products. The company had to make process
changes in virtually every aspect of its consumer business: underwriting risk, setting credit limits,
servicing accounts, controlling fraud, cross selling, and so on. On the technical side, it had to integrate
data on 10 million Barclaycard customers, improve the quality of the data, and build systems to step up
data collection and analysis. In addition, the company embarked on a long series of small tests to begin
learning how to attract and retain the best customers at the lowest price. And it had to hire new people
with top-drawer quantitative skills.
Much of the time—and corresponding expense—that any company takes to become an analytics
competitor will be devoted to technological tasks: refining the systems that produce transaction data,
making data available in warehouses, selecting and implementing analytic software, and assembling the
hardware and communications environment. And because those who don’t record history are doomed not
to learn from it, companies that have collected little information—or the wrong kind—will need to amass a
sufficient body of data to support reliable forecasting. “We’ve been collecting data for six or seven years,
but it’s only become usable in the last two or three, because we needed time and experience to validate
conclusions based on the data,” remarked a manager of customer data analytics at UPS.
And, of course, new analytics competitors will have to stock their personnel larders with fresh people.
(When Gary Loveman became COO, and then CEO, of Harrah’s, he brought in a group of statistical
experts who could design and implement quantitatively based marketing campaigns and loyalty
programs.) Existing employees, meanwhile, will require extensive training. They need to know what data
are available and all the ways the information can be analyzed; and they must learn to recognize such
peculiarities and shortcomings as missing data, duplication, and quality problems. An analytics-minded
executive at Procter & Gamble suggested to me that firms should begin to keep managers in their jobs for
longer periods because of the time required to master quantitative approaches to their businesses.
The German pathologist Rudolph Virchow famously called the task of science “to stake out the limits of
the knowable.” Analytics competitors pursue a similar goal, although the universe they seek to know is a
more circumscribed one of customer behavior, product movement, employee performance, and financial
reactions. Every day, advances in technology and techniques give companies a better and better handle
on the critical minutiae of their operations.
The Oakland A’s aren’t the only ones playing moneyball. Companies of every stripe want to be part of the
game.
2.5
Management Praxis.
Nicholas Bloom and John Van Reenen, Why Do Management Practices Differ across Firms and
Countries? Journal of Economic Perspectives 24(1), 203-224, 2010, finden eine substantielle Variation in
der Effizienz internationaler Mangementpraxis:
1. First, firms with “better” management practices tend to have better performance on a wide range
of dimensions: they are larger, more productive, grow faster, and have higher survival rates.
2. Second, management practices vary tremendously across firms and countries. Most of the
difference in the average management score of a country is due to the size of the “long tail” of
very badly managed firms. For example, relatively few U.S. firms are very badly managed, while
Brazil and India have many firms in that category.
Franz Wirl: Industriebetriebslehre
54
3. Third, countries and firms specialize in different styles of management. For example, American
firms score much higher than Swedish firms in incentives but are worse than Swedish firms in
monitoring.
4. Fourth, strong product market competition appears to boost average management practices
through a combination of eliminating the tail of badly managed firms and pushing incumbents to
improve their practices.
5. Fifth, multinationals are generally well managed in every country. They also transplant their
management styles abroad. For example, U.S. multinationals located in the United Kingdom are
better at incentives and worse at monitoring than Swedish multinationals in the United Kingdom.
6. Sixth, firms that export (but do not produce) overseas are better-managed than domestic nonexporters, but are worse-managed than multinationals.
7. Seventh, inherited family-owned firms who appoint a family member (especiallythe eldest son) as
chief executive offifi cer are very badly managed on average.
8. Eighth, government-owned firms are typically managed extremely badly.Firms with publicly
quoted share prices or owned by private-equity firms are typically well managed.
9. Ninth, firms that more intensively use human capital, as measured by more educated workers,
tend to have much better management practices.
10. Tenth, at the country level, a relatively light touch in labor market regulation is associated with
better use of incentives by management.
Franz Wirl: Industriebetriebslehre
55
Franz Wirl: Industriebetriebslehre
56
Franz Wirl: Industriebetriebslehre
57
Franz Wirl: Industriebetriebslehre
58
Franz Wirl: Industriebetriebslehre
2.6
2.6.1
59
Mathematische Methoden zur Optimierung
Einleitung
8
Anstatt einer üblichen Einleitung sei hier ein aktueller Artikel aus dem Economist , Business by numbers.
Consumers and companies increasingly depend on a hidden mathematical world, wiedergegeben.
ALGORITHMS sound scary, of interest only to dome-headed mathematicians. In fact they have become
the instruction manuals for a host of routine consumer transactions. Browse for a book on Amazon.com
and algorithms generate recommendations for other titles to buy. Buy a copy and they help a logistics firm
to decide on the best delivery route. Ring to check your order's progress and more algorithms spring into
action to determine the quickest connection to and through a call-centre. From analysing credit-card
transactions to deciding how to stack supermarket shelves, algorithms now underpin a large amount of
everyday life.
Their pervasiveness reflects the application of novel computing power to the age-old complexities of
business. “No human being can work fast enough to process all the data available at a certain scale,”
says Mike Lynch, boss of Autonomy, a computing firm that uses algorithms to make sense of
unstructured data. Algorithms can. As the amount of data on everything from shopping habits to media
consumption increases and as customers choose more personalisation, algorithms will only become
more important.
8
The Economist, September 21st, pp81.
Franz Wirl: Industriebetriebslehre
60
Algorithms can take many forms. At its core, an algorithm is a step-by-step method for doing a job. These
can be prosaic—a recipe is an algorithm for preparing a meal—or they can be anything but: the decisiontree posters that hang on hospital walls and which help doctors work out what is wrong with a patient from
his symptoms are called medical algorithms.
This formulaic style of thinking can itself be a useful tool for businesses, much like the rigour of good
project-management. But computers have made algorithms far more valuable to companies. “A computer
program is a written encoding of an algorithm,” explains Andrew Herbert, who runs Microsoft Research in
Cambridge, Britain. The speed and processing power of computers mean that algorithms can execute
tasks with blinding speed using vast amounts of data.
Some of these tasks are more mechanistic than others. For instance, people often make mistakes when
they key in their credit-card numbers online. With millions of transactions being processed at a time, a
rapid way to weed out invalid numbers helps to keep processing times down. Enter the Luhn algorithm
(see below), named after its inventor, Hans Luhn, an IBM researcher. The numbers on a credit card
identify the card type, the issuer and the user's account number. The last number of all is set to ensure
that the Luhn algorithm produces a figure divisible by ten. If it is, the card number has been properly
entered and the processing can go ahead.
The Luhn algorithm performs a simple calculation. But the real power of algorithms emerges when they
are put to work on much more complex problems. As far as most businesses are concerned, these
problems typically fall into two types: improving various processes, such as how a network is configured
and a supply chain is run, or analysing data on things such as customer spending.
UPS uses algorithms to help deliver the millions of packages that pass through its transportation network
every day in the most efficient way possible. The simplest routes are easy to draw up. If a driver has only
three destinations to visit, he can take only six possible routes. But the number of possible routes
explodes as the destinations increase. There are more than 15 trillion, trillion possible routes to take on a
journey with just 25 drop-off points—and an average day for a UPS driver in America involves 150
destinations. The picture is further complicated by constraints such as specified drop-off and pick-up
times for drivers or runway lengths and noise restrictions for aircraft. “Algorithms provide benefits when
the choices are so great that they are impossible to process in your head,” says UPS's Jack Levis.
Go here, go there
Solving this “travelling-salesman problem” means a lot to UPS. For its fleet of aircraft in America, the
company uses an algorithm called VOLCANO (which stands for Volume, Location and Aircraft Network
Optimiser). Developed jointly with the Massachusetts Institute of Technology (MIT), it is used by three
different planning groups within UPS—one to plan schedules for the following four to six months, one to
work out what kind of facilities and aircraft might be needed over the next two to ten years, and one to
plan for the peak season between Thanksgiving and Christmas. Getting the scheduling wrong imposes a
heavy cost: flying half-empty planes or leasing extra aircraft is an expensive business. UPS reckons that
VOLCANO has saved the company tens of millions of dollars since its introduction in 2000.
Logistics firms are far from the only ones working on “optimisation” algorithms. Telecoms operators use
algorithms to establish the quickest connections for phone calls through their networks or to retrieve web
pages speedily from the internet. Manufacturers and retailers use them to fine tune their supply chains.
Call centres decide where to place an incoming call, based on things such as the customer's location, the
length of queues that operators have to deal with and the reason for people calling.
Jeff Gordon, who looks after innovation for Convergys, a call-centre operator, says that the efficiency of
algorithms is as crucial to his industry as the quality of call agents: “If you get the algorithm wrong and put
customers into the wrong hands you degrade the experience. No one likes being handed off to someone
else.”
Franz Wirl: Industriebetriebslehre
61
The most powerful algorithms are those that cope with continual changes (see article). The delivery
schedules for online grocers have huge “feedback loops” in which the delivery times chosen by
customers affect the routes that vans take, which in turn affects the choice of delivery slots made
available to customers. UPS is working on a real-time algorithm for its drivers that can recalibrate the
order of deliveries on the fly, in much the same way that satellite-navigation systems in cars adjust
themselves if a driver chooses to ignore a suggested route.
In the world of the internet, operators are looking at ways of marrying up the algorithms that find the
shortest path through a network and those that control the speed with which information flows. At the
moment, the routing algorithm does not talk to the flow-control algorithm, which means paths do not
change even when there is congestion. According to Marc Wennink, a researcher at Britain's BT,
combining the algorithms would mean that tasks such as downloading files could become much more
resilient to network disruption. It would also allow BT to make better use of its existing network capacity.
Airports also have a keen interest in dynamic algorithms. Passengers at London's Heathrow and other
congested airports often sit in a long queue of planes waiting near the runway to depart. Delays happen
because air-traffic controllers need to leave a safety margin between aircraft as they take off. This margin
depends on the size and speed of an aircraft, and re-ordering the queue can minimise the delay before all
the planes get into the air (mathematicians call this the departure problem). Air-traffic controllers have
always reordered planes in the departure queue manually, but researchers are working on algorithms that
would be more efficient.
Just as optimisation algorithms come in handy when people are swamped by vast numbers of
permutations, so statistical algorithms help firms to grapple with complex datasets. Dunnhumby, a dataanalysis firm, uses algorithms to crunch data on customer behaviour for a number of clients. Its bestknown customer (and majority-owner) is Tesco, a British supermarket with a Clubcard loyalty-card
scheme that generates a mind-numbing flow of data on the purchases of 13m members across 55,000
product lines. To make sense of it all, Dunnhumby's analysts cooked up an algorithm called the rolling
ball.
It works by assigning attributes to each of the products on Tesco's shelves. These range from easy-tocook to value-for-money, from adventurous to fresh. In order to give ratings for every dimension of a
product, the rolling-ball algorithm starts at the extremes: ostrich burgers, say, would count as very
adventurous. The algorithm then trawls through Tesco's purchasing data to see what other products
(staples such as milk and bread aside) tend to wind up in the same shopping baskets as ostrich burgers
do. Products that are strongly associated will score more highly on the adventurousness scale. As the
associations between products become progressively weaker on one dimension, they start to get stronger
on another. The ball has rolled from one attribute to another. With every product categorised and graded
across every attribute, Dunnhumby is able to segment and cluster Tesco's customers based on what they
buy.
Where to put the biscuits
The rolling-ball algorithm is in its fourth version. Refinements occur every year or two, to add new
attributes or to tweak the maths. All these data then feed into a variety of decisions, such as the ranges to
put into each store and which products should sit next to each other on the shelves. “All this sophisticated
data analysis and it comes down to where you put the biscuits,” laments Martin Hayward, director of
consumer strategy at Dunnhumby.
Fraud detection has a touch more glamour to it. SPSS, another data-analysis firm, uses algorithms to
scrutinise customer data and to build propensity scores that predict how people will behave. One of its
clients is ClearCommerce, which provides payment-processing services to online merchants. SPSS
helped ClearCommerce to build a system that looks at a customer's past transactions and learns what
hints at fraud—it might be the amount of money being spent, the shipping details and the time of day, and
so on. Transactions then get a fraud-propensity score based on these characteristics; merchants decide
which scores should ring alarm bells and how to respond.
Algorithms are most commonly associated with internet-search engines. “The tussle between MSN,
Google and Yahoo! is about whose algorithm produces the best results to a query,” observes Microsoft's
Mr Herbert. Ask.com, another search engine, has even tried to popularise the term in an advertising
campaign. Few other types of companies are so obviously dependent on algorithms for success, but the
role that they play is rising in importance for two reasons.
The first is the sheer amount of data that is now available to companies. The information floodwaters are
rising everywhere. Smart meters give utility firms data on consumption patterns inside households. Digital
Franz Wirl: Industriebetriebslehre
62
media will make it easier for firms such as Dunnhumby to see how what people read online and watch on
television affects what they buy.
Online shopping means that internet merchants now know what customers are browsing as well as
buying. Search engines are mining their own information on the relationship between queries and
clickthroughs so as to improve their ranking algorithms. “For the first time in business history there is
more information than many organisations' capacity to deal with it,” says Dunnhumby's Mr Hayward.
Algorithms are a way to cope.
The second reason why algorithms are becoming more important is that companies inevitably want to use
all this new data to do more complicated things. In particular, they want to respond to each customer in a
personalised way. Tesco does this by using its analysis to tailor direct-marketing offers to each Clubcard
member. As well as segmenting its customers on how they live, the data also enable the supermarket
rapidly to spot shifts in their consumption patterns (caused by children going to university, say). Tesco's
response rates to such targeted marketing stands at 10-20%, against an industry average of only around
1%.
Convergys wants to bring more real-time data to the operation of call-centres. Mr Gordon gives the
example of a customer who calls an electricity utility from an area that has suffered a power failure and,
because of where they are speaking from, is automatically put through to an operator who can deal with
his queries. Such algorithms help firms to tease simplicity from complexity.
Algorithms are not for everyone. Some companies will always generate more data than others, of course:
retailers, utilities and telecoms firms process many more transactions than house insurers, whose deals
tend to happen once a year. Some will also be more focused than others on how algorithms can shave
costs or maximise capacity. Firms that enjoy high margins and strong demand are going to be less
worried about the efficiency of their supply chains, says Hau Lee, of Stanford Graduate School of
Business.
Rocket science for non-boffins
What is more, lots of things have to fall into place for algorithms to work. They tend to be highly complex:
it is not easy to find people with the right skills to develop and refine them. The systems within which the
algorithms run—the user interface—need to be intuitive to non-boffins. “This is rocket science but you
don't have to be a rocket scientist to use it,” says Jack Noonan, boss of SPSS. The inputs have to be
right. One UPS planning model routed all the packages in the system through Iowa, which perplexed
everyone until they found an error in the data that made it appear to be free to send packages via Iowa.
The algorithm was right, in other words, but the data were wrong. Mr Noonan says that SPSS's “secret
sauce” lies in its ability to deal with missing or unreliable data, rather than the algorithms themselves.
Above all, human judgment still has a role—a point perhaps reinforced by the recent performance of
algorithmically driven quantitative funds in the financial markets. In fraud detection, for example,
algorithms can eliminate the majority of transactions that are above suspicion but a human is still best
placed to analyse the dodgy ones. Dunnhumby is trying to overlay attitudinal research on top of
purchasing data to understand why people buy things as well as what they buy. Even so, Autonomy's Mr
Lynch is convinced that algorithms are on the march. Algorithms process data to arrive at an answer. The
more data they can process the more accurate the answer. For that reason, he says, “they are bound to
take over the world”.
2.6.2
Optimierungsprobleme
Ausgangspunkt sei folgendes Problem. Eine Zielwert, etwa ein Betrag in €, soll maximiert werden unter
Verwendung der Verfügung stehenden Instrumente und unter Berücksichtigung von aller Arten
Beschränkungen (technisch, legistisch, finanziell). Sieht man von Unsicherheit und Risiko ab, dann kann
diese Managemententscheidung als eine Problem der nichtlinearen Optimierung aufgefasst werden, d.h.,
es ist eine eine reellwertige Funktion F mit den Instrumenten x (ein Vektor) als Argument zu maximieren
unter Berücksichtigung aller Arten von Beschränkungen, die sich dadurch ausdrücken, dass nur die
Teilmenge X zur Optimierung zur Verfügung steht.
max
F(x)
x
so dass x∈⊆X∈Rn
Definition: Falls x ein Element von X ist, x∈X, dann wird es als "zulässig", ansonsten,
"unzulässig" bezeichnet ("feasible", "infeasible").
x∉X, als
Franz Wirl: Industriebetriebslehre
63
Definition: x*∈X heißt ein lokales Maximum, wenn es eine ε - Umgebung um x* gibt (N∈) so dass:
F(x*) ≥ F(x) für alle x∈N∈.
Definition: x*∈X heißt ein globales Maximum, wenn:
F(x*) ≥ F(x) für alle x∈X.
Existenzsatz von Weierstraß: F stetig X abgeschlossen und beschränkt, dann existiert ein globales
Maximum.
Bemerkung: X = Rn, F zweimal stetig differenzierbar, dann sind die Bedingungen für ein lokales Optimum
bekannt, nämlich das Nullsetzen der ersten Ableitungen:
∂F
=0
∂xi
i = 1,...,n.
Eine Spezialfall der Charakterisierung der Menge an zulässigen Lösungen X ist die durch Ungleichungen
was zum bekannten Fall des Kuhn-Tucker Theorems führt:
max
x
F(x)
max
F(x1, x2, …, xn)
x1, x2, …, xn
im Detail
sodass: g(x) ≤ 0, g: Rn → Rm
g1(x1, x2, …, xn) ≤ 0
g2(x1, x2, …, xn) ≤ 0
……………………
gm(x1, x2, …, xn) ≤ 0
Kuhn-Tucker Theorem: Angenommen F und g sind stetig differenzierbar, F ist konkav, g ist konvex und
0
0
"constraint qualification": ∃x : g(x ) < 0. Dann ist x* optimal dann und nur dann, wenn für die
Lagrangefunktion L (definiert unten) gilt:
L:= F(x) - µtg(x) = F(x1, x2, …, xn) -
m
∑ m g (x , x ,..., x )
j =1
j
j
1
2
(1)
∂g j
∂L ∂F
∂g ∂F m
=
− mt
=
− ∑mj
= 0, i = 1,...n
∂xi ∂xi
∂xi ∂xi j =1
∂xi
(2)
µjgj(x*1,...x*n) = 0, µj≥0
(3)
gj(x*1,...x*n) ≤ 0
n
j = 1,...,m
j = 1,...,m
Bemerkungen:
1. Falls entweder F nicht global konkav ist und/oder g nicht global konvex ist, dann sind die
Bedingungen (1) - (3) nur mehr notwendig.
2. die obigen Bedingungen erlauben uns das Nachprüfen, ob ein bestimmter Punkt tatsächlich das
Optimum darstellt, helfen jedoch kaum zum Auffinden dieses Punktes, da dies zum Raten
aktiver/nicht aktiver Beschränkungen führt.
3. Die Variablen µj∈R+ heißen Kuhn-Tucker Multiplikatoren und haben eine ähnliche Interpretation
wie der Lagrange Multiplikator.
Franz Wirl: Industriebetriebslehre
2.6.3
64
Lineare Programmierung
Bei der linearen Programmierung handelt es sich um einen mathematische Technik (und nicht um
Computer-Programmierung, obwohl natürlich ohne Computer nur relativ triviale Probleme gelöst werden
können). Im Detail handelt es sich um einen (wichtigen) Spezialfall des obigen allgemeinen, nichtlinearen
Optimierungsproblems, wo alle Funktionen (also F und g) linear sind, etwa,
n
max F ( x ) = ∑ zi xi
x1 , x 2 ,..., x n
i =1
a11x1 + a12x2 + … + a1nxn ≤ b1
a21x1 + a22x2 + … + a2nxn ≤ b2
………………………………………………..
am1x1 + am2x2 + … + amnxn ≤ bm
wobei eventuell in g inkludiert oder separat Nichtnegativität (was soll ein negativer Output, eine negative
Lieferung?) gefordert wird:
x1 ≥ 0, x2 ≥ 0, …, xn ≥ 0.
Zahlreiche Managementbeispiel fallen in diese Kategorie wie Transportprobleme (bei gegebenem
Netzwerk, was ein einfacherer Spezialfall ist, der mittels graphentheoretischen Methoden auch gelöst
werden kann), optimale Maschinenbelegung, Raffinerie (Blendung von Erdölsorten), etc. Wegbereiter
dieser Methode war der Amerikaner Georg B. Dantzig im Auftrag der Rand Corporation während des 2.
Weltkrieges und daher militärisch motiviert (Flugeinsatzpläne). Er fand im Jahre 1947 eine praktikable
Lösung, die Simplex Methode.
Beispiel:
Franz Wirl: Industriebetriebslehre
65
3 (Internationale) Standortwahl
Die drei einzig relevanten Eigenschaften einer Liegenschaft sind: der Standort, der Standort und der
Standort; „only three things matter about property: location, location and location, (vgl, Economist, Sept.
8th, 2001, p 75).
Nach einem kurzen einführenden Beispiel sollen die Verfahren zur Standortbestimmung nach Klaus
Lüder vorgestellt werden. Diese eher mechanischen, aber betriebswirtschaftlich eventuell doch
relevanten Verfahren sollen dann mit dem Ansatz der Ökonomische Geographie (Paul Krugman)
kontrastiert werden. Dieses Konzept der ökonomischen Geographie beinhaltet implizit auch der ClusterAnsatz von Michael Porter. Zum Abschluss folgt ein Fallbeispiel, das die Automobilindustrie von Japan
mit der amerikanischen vergleicht.
Eine Zeit lang spielte das Thema der Konkurrenz von Standorten in der politischen Debatte eine große
Rolle. Man machte sich vor allem in Deutschland Sorgen, das Land verliere als Wirtschaftsstandort
gegenüber anderen Staaten an Attraktivität. Die derzeit boomende Wirtschaft hat diese Besorgnis aber
wieder etwas aus dem Blickfeld gerückt. Allerdings sind viele der Sorgen und Ängste verbunden mit der
Globalisierung, auch wenn uns als Wirtschaftswissenschaftler die Opposition absurd erscheinen sollte,
durch Standortentscheidungen, genauer Verlagerungen, begründet.
3.1
Klassifikation des Industriebetriebes nach dem Standort (Beispiel)
Annahme: Potentielle Standorte sind Aachen, Braunschweig, Dortmund, Erfurt, München und Nürnberg.
Der Beschaffungsschwerpunkt liegt nahe Dortmund, die Beschaffungsmenge beträgt 1.500 t und die
Transportkosten betragen 1 GE je t und km. Der Absatzschwerpunkt ist nahe München, die Absatzmenge
beträgt 1000 t, und die Transportkosten hierbei 1,2 GE je t und km.
In den entsprechenden Spalten der Tabelle 2. 1 sind die Entfernungen der einzelnen Standorte vom
Beschaffungs- und vom Absatzschwerpunkt angegeben.
Durch Multiplikation mit der Transportmenge und dem Kostensatz ergeben sich die Transportkosten
jedes Standortes vom Beschaffungsschwerpunkt und zum Absatzschwerpunkt. Die Summe dieser
Transportkosten bildet dann das Entscheidungskriterium für die Wahl des Standorts.
Tabelle 2.1 Beispiel zur Standortwahl
Standorte
Entfernung zum
Beschaffungsschwerpunkt
Transportkosten
(in 1000 GE)
Entfernung zum
Absatzschwerpunkt
Transportkosten
(in 1000 GE)
Summe
Aachen
150
(150*1500*1)=
225
650
(650*1000*1,2)=
780
1005= 4. Rang
Braunschweig
270
405
625
750
1155= 6. Rang
10
15
650
780
795= 1. Rang
Erfurt
420
630
380
456
1086= 5. Rang
München
650
975
10
12
987= 3. Rang
Nürnberg
480
720
170
204
904= 2. Rang
Dortmund
Da Dortmund die niedrigste Transportkostensumme aufweist, wäre es als Standort zu wählen. Auch bei
den im nächsten Abschnitt vorgestellten Verfahren spielen häufig die Transportkosten eine
entscheidende Rolle.
3.2
3.2.1
Verfahren zur Standortauswahl nach Klaus Lüder
Formulierung des Standortproblems
Gegeben ist:
eine Menge von Standorten: S = {sj; j = 1,...,n}
eine Menge an Organisationseinheiten: B = {bi; i= 1,...,m}
s(bi) bezeichnet den Standort der Organisationseinheit bi
s(bi) = sj ∈ S
Franz Wirl: Industriebetriebslehre
66
Gesucht ist:
Eine Abbildung Σ: B  S
bi  s(bi) ⊂ S
die jede Organisationseinheit einem Standort aus der Menge S zuweist.
Weitere Annahmen:
O ist die Menge der Orte {op; p= 1,...,r}, die mit bi in Verbindung stehen, z.B. Kunden.
Die Mengen O, S, und B sind unabhängig. (Wie die Abbildung III.2 (Quelle: ) zeigt, sind mannigfache
Rückkoppelungen und Abhängigkeiten vorhanden. Es ist daher eine Vereinfachung, diese
Unabhängigkeit anzunehmen!)
Es soll eine Zielfunktion maximiert/minimiert werden: Z = f [s(b1), s(b2),...,s(bm)]
(z.B. die Transportkosten, die aus der Zuordnung der Organisationseinheiten auf die Standorte
resultieren, sollen minimiert werden.)
Produktionsprogramm
Ertrag
Produktpreise
Externe Transportkosten
Gewinn bei
gegebener
Aufwand
Standortkonfiguration
Innentransportkosten
Sonstige
aufwandsgleiche Kosten
+ (Aufwand≠Kosten)
Transportwege
Transportmenge
n
Innerbetriebliche
Standorte*
Transportmengen
Löhne, Steuern usw.
Investitionsprogramm
Kapitaleinsatz
Investitionsausgaben je Projekt
*:
:
:
Optimierungsproblem
Interdependenzen zwischen den Optimierungsproblemen und Abhängigkeiten verschiedener Bestimmungsfaktoren der
Rentabilität untereinander
Abhängigkeiten zwischen der Rentabilität und ihren Bestimmungsfaktoren.
Abbildung 1.1 (Quelle Lüder, S.31).
Franz Wirl: Industriebetriebslehre
3.2.2
67
Bestimmung betrieblicher Standorte mittels Standortfaktoren und Prüflisten
Zur besseren Systematisierung sollen nun Standortfaktoren in drei Kategorien eingeteilt werden.
A0 heißt dass die Ausprägung der Eigenschaft für alle Standorte gleich ist; A1, dass die Eigenschaft für
mindestens zwei potentielle Standorte unterschiedlich ausgeprägt ist.
B0 bedeutet, dass sich unterschiedlichen Ausprägungen der Eigenschaft auf die Zielgröße auswirken, B1
dass keine Auswirkungen bestehen.
C0 heißt, dass für die Ausprägung der Eigenschaft Mindestanforderungen gestellt werden, C1 heißt, es
bestehen keine Mindestanforderungen.
Kategorie 1: Standortfaktoren
dazu zählen die folgenden Kombinationen: A1/B0/C0 und A1/B0/C1 (d.h. es interessieren nur
Eigenschaften, die sich für die verschiedenen Standorte überhaupt unterscheiden, und die in die
Zielgröße eingehen. z.B. Transportkosten, Verkaufspreise, Absatzmengen, Steuersätze)
Kategorie 2: Standorteigenschaften
dazu zählen A0/B0/C0, A0/B1/C0, und A1/B1/C0 (Standorteigenschaften, die gewisse
Mindestanforderungen erfüllen müssen, jedoch keine Standortfaktoren sind.)
Kategorie 3 Für die Standortentscheidung irrelevante Eigenschaften: alle anderen Kombinationen.
Ein österreichisches Beispiel für einen Standortfaktor sind die Wasser- und Müllgebühren, deren Beträge
die folgende Tabelle 2.2 zeigt. Als weiteres Beispiel seien die Immobilienpreise in den österreichischen
Landeshauptstädten in der folgenden Tabelle 2.3 dargestellt. (Quelle: Hausbesitzer-Zeitung, 8/2000) und
ein internationaler Städtevergleich.
Tabelle 2.2 Öffentliche Abgaben, Presse 23.9.2000 (Immobilien)
Ranking der Städte und Großgemeinden (Kosten pro Monat)
Rang
1
2
2
4
5
6
7
8
9
10
11
12
12
12
15
16
16
18
18
20
21
22
22
22
22
26
26
26
26
30
31
31
31
34
Gemeinde
Traun
Sankt Veit an der Glan
Wolfsberg
Spittal an der Drau
Wiener Neustadt
Eisenstadt
Sankt Pölten
Baden
Bregenz
Villach
Tulln
Leoben
Neunkirchen
Traiskirchen
Bad Vöslau
Stockerau
Leonding
Klagenfurt
Amstetten
Linz
Ternitz
Waidhofen an der Ybbs
Mödling
Ansfelden
Hall in Tirol
Krapfenberg
Perchtoldsdorf
Schwechat
Telfs
Wels
Bruck an der Mur
Graz
Krems
Marchtrenk
Land
OÖ
Ktn.
Ktn.
Ktn.
NÖ
Bgld.
NÖ
NÖ
Vlbg.
Ktn.
NÖ
Stmk.
NÖ
NÖ
NÖ
NÖ
OÖ
Ktn.
NÖ
OÖ
NÖ
NÖ
NÖ
OÖ
Tirol
Stmk.
NÖ
NÖ
Tirol
OÖ
Stmk.
Stmk.
NÖ
OÖ
Gesamt
430
480
480
520
530
530
550
560
580
590
600
610
610
610
620
630
630
660
660
680
710
740
740
740
740
780
780
780
780
800
830
830
830
840
Müll
130
130
130
180
90
110
100
160
230
110
130
180
130
130
130
200
160
100
140
80
130
130
120
120
220
160
170
160
180
130
240
150
240
220
Trinkwasser
200
230
230
250
280
300
330
230
180
300
300
300
340
230
230
250
410
380
310
370
410
430
440
390
150
430
340
370
230
430
420
500
380
430
Abwasser
100
120
120
80
160
120
120
170
170
180
170
130
140
250
260
180
60
180
210
230
170
180
180
230
370
190
270
250
370
250
180
170
210
190
Franz Wirl: Industriebetriebslehre
35
36
36
38
39
40
41
41
43
43
45
46
46
48
48
50
51
52
52
52
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
Rankweil
Zwettl
Hollabrunn
Bludenz
Sankt Andrä
Hard
Klosterneuburg
Dornbirn
Wien
Kufstein
Schwaz
Feldkirch
Saalfelden
Knittelfeld
Lienz
Vöcklabruck
Innsbruck
Mistelbach
Wörgl
Braunau
Völkermarkt
Bischofshofen
Voitsberg
Hohenems
Salzburg
Judenburg
Lustenau
Enns
Steyr
Feldkirchen
Ried
Köflach
Gmunden
Hallein
Bad Ischl
Durchschnitt
Vlbg.
NÖ
NÖ
Vlbg.
Ktn.
Vlbg.
NÖ
Vlbg.
Wien
Tirol
Tirol
Vlbg.
Sbg.
Stmk.
Stmk.
OÖ
Tirol
NÖ
Tirol
OÖ
Ktn.
Sbg.
Stmk.
Vlbg.
Sbg.
Stmk.
Vlbg.
OÖ
OÖ
Ktn.
OÖ
Stmk.
OÖ
Sbg.
OÖ
270
220
180
150
210
230
210
250
80
230
130
190
160
220
190
80
150
300
490
190
140
230
220
270
110
250
260
210
130
120
300
270
330
260
180
850
910
910
930
940
950
960
960
1000
1000
1020
1040
1040
1050
1050
1080
1130
1140
1140
1140
1150
1210
1220
1230
1270
1280
1290
1330
1340
1400
1520
1570
1600
1670
1880
920
68
180
510
470
290
230
280
450
260
470
250
360
280
250
390
280
280
500
490
270
180
330
260
450
330
510
410
210
370
420
280
430
520
380
370
610
180
400
180
260
390
500
440
300
450
450
520
530
570
630
440
580
730
480
340
390
780
680
720
560
630
650
630
830
760
800
990
800
780
890
1040
1080
340
400
Beim Prüflistenverfahren werden nun einfach die für einen Standort gewünschten Faktoren aufgelistet,
und - sofern vorhanden – abgehakt. Dadurch können Standorte, die nicht den Kriterien entsprechen
ausgeschieden werden.
3.2.3
Bestimmung betrieblicher Standorte mittels Nutzwertanalyse
Die Nutzwertanalyse erweitert das Prüflistenverfahren durch Quantifizierung und ist eine einfache
Methode für multikriterielle Entscheidungen. Wichtig dabei ist die Annahme der Unabhängigkeit der
Standortfaktoren voneinander. Sollte dies nicht gegeben sein, kann man dem durch Zusammenfassung
von mehreren Faktoren in Untergruppen und durch Hierarchisierung abhelfen.
Das Verfahren erfolgt in drei Schritten:
Skalierung
Durch die Bewertung der Ausprägung der einzelnen Faktoren an den Standorten mittels einer
Punkteskala können qualitative Eigenschaften quantifiziert werden, was den Vorteil gegenüber dem
Prüflistenverfahren darstellt. Beispielsweise könnten die Punkte für das Kriterium „Marktnähe“ auf einer
Skala von 0 bis 5 Punkten folgendermaßen vergeben werden: kaum zugänglich = 0 Pkt., alle Märkte
relativ weit vom Standort entfernt = 1 Pkt., Mehrzahl der Märkte relativ weit vom Standort entfernt = 2
Pkt., ungefähr gleich viele Märkte weit entfernt und nahe liegend = 3 Pkt., Mehrzahl der Märkte liegt in der
Nähe = 4 Pkt., alle Märkte sind nahe = 5 Pkt.
Gewichtung
Zuteilung von Gewichtungen zu den einzelnen Faktoren, um besonders wichtige von weniger wichtigen
zu unterscheiden.
Franz Wirl: Industriebetriebslehre
69
Aggregation
Durch die Multiplikation der Punktewerte mit den Gewichten und Aufsummierung für jeden Standort ergibt
sich der Nutzwert.
N(sj) = n1j*g1 + n2j*g2+.....
Gewählt werden sollte schließlich der Standort mit dem höchsten Nutzwert.
Beispiel:
Gegeben sind vier potentielle Standorte s1, s2, s3, s4, deren Nutzwerte mit Hilfe der Kriterien
„Arbeitskräfteangebot“, „ Nähe der Absatzmärkte“ und „Erhalt von Förderungen“ bestimmt werden sollen.
In der Tabelle 2.4 sind die Punktewertungen (n11 bis n34) schon ersichtlich.
Standorte s1
s2
s3
s4
Gewichte
Arbeitskräfte
7
5
10
5
0.3
Absatz
2
1
4
7
0.5
Förderungen
1
9
6
8
0.2
Die Gewichte g1 bis g3 der Kriterien sollen 0,3 für Arbeitskräfte, 0,5 für Absatz und 0,2 für Förderungen
betragen. (Absatz wird also in diesem Fall als der wichtigste Faktor angesehen)
Die Aggregation ergibt folgende Nutzwerte:
N(s1)= 7*0,3 + 2*0,5 + 1*0,2 = 3,3
N(s2)= 5*0,3 + 1*0,5 + 9*0,2 = 3,8
N(s3)= 10*0,3 + 4*0,5 + 6*0,2 = 6,2
N(s4)= 5*0,3 + 7*0,5 + 8*0,2 = 6,6
Das heißt, der Standort 4 sollte ausgewählt werden.
Tabelle 2.3 (Quelle: http://www.regiodata.eu/sites/default/files/regiodata_MietpreiseBuero.jpg)
Franz Wirl: Industriebetriebslehre
70
Abbildung 2.2
Hardship rating, from The Economist,
Oct 10th 2002, p 110.
Port Moresby, capital of Papua New Guinea,
is the worst place in the world for foreigners
to live in, according to a new “hardship rating”
published by the Economist Intelligence Unit,
a sister organisation of The Economist.
The EIU's index is based on three categories:
health and safety, culture and environment,
and infrastructure.
A rating over 20% indicates hardship;
one above 65%, extreme hardship.
3.2.4
Das Steiner-Weber Modell
Hierbei handelt es sich um ein kontinuierliches, geometrisches Modell, das auf Arbeiten von Launhardt
(1882), Alfred Weber (1909) sowie Lösch und Christaller (40er Jahre) basiert.
Annahmen:
•
•
•
die Menge O ist gegeben
es wird ein Standort s gesucht
als potentielle Standorte S kommen alle Punkte der Ebene in Frage (d.h. unendlich viele)
• die Transportkosten sind proportional zur Distanz:
r
r
p =1
p =1
K T = ∑ K Tp = ∑ k t * a p * d p ,
Wobei ap für die vom Standort p weggelieferte Menge steht, und kt für einen standardisierten
Kostenfaktor, beispielsweise €/Tonne/km. Der Abstand des gesuchten Standorts von dem jeweiligen
Ort wird als „Luftlinie“, angenommen, die mit Hilfe der Euklidischen Formel berechnet werden kann:
d p = ( x − x p )² + ( y − y p )²
Da die Transportkosten minimiert werden sollen, ergibt sich folgende Zielfunktion:
r
min K T = k t ∑ a p * ( x − x p )² + ( y − y p )²
( x, y )
p =1
Die notwendigen Optimalitätsbedingungen, die man durch Differenzieren nach x bzw. y und Nullsetzen
erhält sind also:
Franz Wirl: Industriebetriebslehre
71
r
r
a p (x − xp )
∂K T
1
=0
* 2( x − x p ) * 1 = k t ∑
= k t ∑ a p * 12 *
∂x
( x − x p )² + ( y − y p )²
( x − x p )² + ( y − y p )²
p =1
p =1
r
r
ap(y − yp )
∂K T
1
* 2( y − y p ) * 1 = k t ∑
=0
= k t ∑ a p * 12 *
∂y
( x − x p )² + ( y − y p )²
( x − x p )² + ( y − y p )²
p =1
p =1
Bemerkungen:
1. Es handelt sich um zwei nichtlineare Gleichungen. Diese können nur numerisch, beispielsweise
mit dem Newton’schen Iterationsverfahren gelöst werden.
2. KT ist konvex in x, y und (x,y), daraus folgt, dass die notwendigen Bedingungen auch hinreichend
sind.
3. Eine Erweiterung des Modells wäre möglich, indem die Transportkosten nicht mehr einfach linear
ansteigend angenommen werden, sondern in anderer Form abhängig von der Distanz gemacht
werden. kTp= kTp(dp)
4. Eine andere Erweiterungsmöglichkeit besteht darin, mehrere Produkte q = 1....q anzunehmen,
die von s nach O geliefert werden müssen. Die zu minimierende Kostenfunktion sieht dann
folgendermaßen aus, wobei kTqp die Stückkosten für den Transport des Produktes q nach Ort p
pro Entfernungseinheit sind:
r
KT = ∑
p =1
q
r
q
q =1
p =1
q =1
∑ k Tqp * a qp * d p = ∑ ( x − x p )² + ( y − y p )² ∑ a qp * k Tqp
Die letzte Summe kann auf
a p zusammengefasst werden, wodurch eine Lösung wie oben
möglich ist.
3.2.5
Modelle auf Basis des Transportproblems
Im Unterschied zu den kontinuierlichen Modellen kann bei diskreten Modellen nur aus einer
vorgegebenen diskreten Menge von potentiellen Standorten ausgewählt werden. Als Ausgangspunkt für
die Überlegungen dient das
Transportmodell
Von den j Quellen j=1,...,n (z.B. Lager, Produktionsstätten), die jeweils eine Kapazität aj haben, sollen die
Bedarfe cp der p Senken p=1,...,r (z.B. Absatzmärkte) bedient werden. Zu diesem Zweck werden die
Produktmengen xjp von den Quellen zu den Senken transportiert, wobei die Transportkosten minimiert
werden sollen:
n
min K T = ∑
( x jp )
j =1
r
∑x
p =1
k
jp Tjp
wobei kTjp für die Transportkosten von Quelle j nach Senke p pro Mengeneinheit stehen.
Die Nebenbedingungen sind:
(1) Die Kapazitäten müssen ausgeschöpft, können aber nicht überstiegen werden:
r
∑x
p =1
jp
= aj
(2) Die Bedarfe der Nachfrager müssen gedeckt werden:
n
∑x
j =1
jp
= c p , p = 1...r
(3) Nichtnegativitätsbedingungen (es ist nicht möglich, negative Mengen zu transportieren):
x jp ≥ 0
Als Lösung des Problems erhält man die Mengen xjp, die von den jeweiligen Quellen zu den Senken
transportiert werden sollen. Um das obige Transportproblem in ein
Franz Wirl: Industriebetriebslehre
72
Standortproblem
umzuwandeln, wird angenommen, dass die Quellen zwar als potentielle Standorte zur Verfügung stehen,
aber nicht alle auch verwendet werden müssen. Weiters haben die Quellen im Gegensatz zu vorhin keine
Kapazitätsbeschränkungen, weil der Standort erst gewählt werden soll und die Kapazität dann ebenfalls
entsprechend gewählt werden kann.
n
r
min KT = ∑
{x jp }
∑x
j =1
p =1
k
jp Tjp
Das heißt, die Transportkosten werden minimiert, unter folgenden Nebenbedingungen
(1) Die Bedarfe der Nachfrager müssen gedeckt werden
n
∑x
j =1
jp
= cp
(2) Nichtnegativitätsbedingungen
x jp ≥ 0
Als Ergebnis erhält man wieder die zu transportierenden Mengen xjp. Ein potentieller Standort j wird
gewählt, wenn xjp > 0 ist, für mindestens ein p.
Wenn xjp > 0 für ein bestimmtes p, dann sind alle
xip = 0 ∀i ≠ j.
Das heißt: wenn es keine Kapazitätsbeschränkungen gibt und die Kosten linear sind, wird jeder Ort nur
von einer bestimmten Quelle beliefert.
Nun sollen einige mögliche Erweiterungen des Modells gezeigt werden. Z.B. können variable (kj, z.B.
variable Produktionskosten, die an den einzelnen Standorten unterschiedlich sind) und fixe (fj, z.B.
Kosten für die Errichtung eines Betriebsgebäudes, um den Betrieb an einem Standort aufzunehmen)
Kosten, die vom Standort abhängig sind, einzuführen. Das Modell sieht dann folgendermaßen aus:
n
min
( x jp ,Y j )
∑
r
n
p =1
j =1
∑ (kTjp + k j ) x jp + ∑ f jY j
j =1
Diese Kosten sollen minimiert werden, unter den Nebenbedingungen:
(1) Die Bedarfe der Nachfrager müssen gedeckt werden
n
∑x
j =1
jp
= cp
(2) Nichtnegativität:
x jp ≥ 0
(3) Yj zeigt an, ob ein Standort verwendet wird oder nicht, und hat den Wert 0 oder 1:
Y j ∈ {0,1}
r
(4)
∑x
p =1
jp
≤ NY j
wobei N hinreichend groß sein muss, z.B.
r
N = ∑cp ,
p =1
damit auch die theoretisch mögliche Lösung, dass alle Kunden von einem einzigen Lager
beliefert werden, noch in die Nebenbedingung „hineinpasst“. Wenn Yj gleich 0 ist, führt diese
Nebenbedingung dazu, dass auch alle xjp mit diesem j gleich 0 sind, es wird also sichergestellt,
dass nicht aus einem „nicht gebauten“ Lager Mengen ausgeliefert werden.
Franz Wirl: Industriebetriebslehre
73
Andere Erweiterungsmöglichkeiten sind: die Betrachtung mehrerer Produkte q = 1....q , die
Einbeziehung der Tatsache, dass für die Herstellung von verschiedenen Produkten auch verschiedene
Anlagen u = 1,..., u benötigt werden, die unterschiedliche Kosten verursachen, oder die Einberechnung
von Nachfrage-Interdependenzen (Jacob-Modell).
3.2.6
Das Location-Allocation Modell von Cooper
Gesucht ist wiederum die kostenminimale Standortkonfiguration
{s(b1 ),..., s(bm )} ⊂ S . Die Menge S
der potentiellen Standorte ist unbeschränkt, es handelt sich also wieder um ein kontinuierliches Modell,
welches Ähnlichkeiten zum Steiner-Weber-Modell aufweist, allerdings werden nun Standorte nicht nur für
eine sondern für mehrere bis zu m Betriebsstätten gesucht.
Gegeben ist der Bedarf cp in den Orten r, mit den Koordinaten (xp, yp). Gesucht sind die Koordinaten (xi,
yi), i=1,...,m der Standorte der Betriebsstätten, sodass die Kosten minimiert werden.
Weiters wird angenommen, dass 2 ≤ m < r , und dass die Kapazitäten der Standorte unbeschränkt ist
/bzw. dementsprechend ausgelegt werden kann.
Die Kosten setzen sich zusammen aus den Standortkosten KH, welche von der Anzahl der Standorte m
abhängen, und den Transportkosten KT. Ein „trade-off“ besteht in der Tatsache, dass eine größere
Anzahl von Standorten die Transportkosten verringert, dafür aber zu mehr Standortkosten führt. Das Ziel
ist also:
r
min K = K H + K T = g ( m ) + k T * ∑
p =1
m
∑c Y
i =1
p
ip
( x i − x p )² + ( y i − y p )² .
Nebenbedingung: jeder Ort p wird nur von einem Standort beliefert:
m
∑Y
i =1
ip
= 1 und Yip ∈ {1,0} .
Lösungsverfahren: für jede Zahl m und für jede Versorgungsform (d.h. alle dazugehörigen möglichen
Lieferbeziehungen zwischen Kunden und Standorten) wird ein Steiner-Weber Problem gelöst.
Beispiel: wir haben r = 4 zu beliefernde Orte und wählen m = 2 zu positionierende Betriebsstätten.
Eine Möglichkeit wäre, dass Betriebsstätte 1 die Orte 1,2 und 4 versorgt und Betriebsstätte 2 den Ort 3.
Für diese Konfiguration wird nun für jede Betriebsstätte einzeln mit Hilfe des Steiner-Weber Ansatzes die
optimale Position gesucht, um die ihr zugeteilten Orte kostenminimal beliefern zu können. Eine andere
Zuteilungsmöglichkeit wäre: Betriebsstätte 1 beliefert Ort 4, Betriebsstätte 2 beliefert die Orte 1-3 usw.
Für jede von allen Zuteilungsmöglichkeiten werden die Steiner-Weber Probleme gelöst, und daraus das
minimum minimorum gesucht. Danach muss der gesamte Vorgang für m=3 Betriebsstätten wiederholt
werden usw. Der Rechenaufwand für derartige Probleme ist also enorm.
3.2.7
Das Transportation-Location Modell von Cooper
Dieses Modell ist eine Erweiterung des Location-Allocation-Modells um Kapazitätsschranken. Weiters ist
die Anzahl der Betriebsstätten m gegeben, was dazu führt, dass die Standortkosten schon vorgegeben
sind, und daher in der Minimierung nicht mehr betrachtet werden müssen.
Die Zielfunktion lautet nun:
r
min K T = k T ∑
cip
p =1
m
∑c
i =1
ip
( x i − x p )² + ( y i − y p )²
Nebenbedingungen:
(1) Die Kapazität der Betriebsstätte i darf nicht überschritten werden:
r
∑c
p =1
ip
≤ ai
(2) Der Bedarf des Ortes p muss befriedigt werden:
Franz Wirl: Industriebetriebslehre
m
∑c
i =1
ip
74
= cp
(3) Nichtnegativität:
cip ≥ 0
Der Lösungsvorgang ist folgendermaßen:
Es werden wieder alle möglichen Zuordnungen von Lieferorten zu Betriebsstätten aufgelistet, und für jede
Möglichkeit mittels Steiner-Weber-Ansatz die in diesem Fall optimale Positionierung der Betriebsstätten
errechnet. Dann, gegeben die Koordinaten xi, yi der errechneten „Schwerpunkte“, müsste für jede
Zuordnung noch das obige lineare Programm gelöst werden, um die optimalen Flüsse cip von den
Betriebsstätten zu den Orten zu ermitteln. Dies ergibt wiederum einen großen Rechenaufwand, weil auch
noch der Bedarf für Iterationen zwischen den kontinuierlichen Steiner-Weber Problemen und dem
linearen Programm besteht.
3.2.8
Simulationsmodelle
Im Vergleich zu den bisher genannten Verfahren, die Optimierungskalküle sind, sind Simulationsmodelle
nicht unbedingt darauf angelegt, das Optimum zu finden, sondern stellen Vergleiche zwischen
unterschiedlichen Szenarien dar. Beispielsweise können bei komplizierten Produktionsabläufen, in denen
Störungen vorkommen, unterschiedliche Störfaktoren simuliert werden, und dann überprüft werden, wie
oft daraus wirklich Störungen des Ablaufs resultieren.
3.2.9
Innerbetriebliche Standortprobleme
Bei der innerbetrieblichen Standortplanung geht es darum, einzelne Einheiten, die wie vorhin als
„Betriebsstätten“ bezeichnet werden, (z.B. Maschinen oder Abteilungen zwischen denen die Produkte
während des Produktionsprozesses transportiert werden müssen) im Betriebsgelände so zu
positionieren, dass die innerbetrieblichen Transportkosten minimal werden. (Ktil steht für die
Transportkosten von Betriebsstätte i zu Betriebsstätte l, dil steht wie oben für die Euklidische Norm)
m
Ziel:
min K T = ∑
i =1
m
∑
l = i +1
K Til ( d il )
d il = ( x i − x l )² + ( y i − y l )²
Setzt man die Transportkosten zwischen den unterschiedlichen Einheiten als nur von der Distanz
abhängig an, ergibt sich folgende Zielfunktion:
m
KT = ∑
i =1
m
∑
l = iü1
k T ( x i − x l )² + ( y i − y l )²
Bemerkung:
Um den Platzbedarf, d.h. die räumliche Ausdehnung, der einzelnen Betriebsstätten zu berücksichtigen,
kann folgende Bedingung eingeführt werden:
d il = ( x i − x l )² + ( y i − y l )² ≥ Ri + Rl .
Ri
Rl
Das oben formulierte Problem lässt sich als quadratisches Zuordnungsproblem lösen, wenn man
annimmt, dass man für die m Betriebsstätten auch genau m „Plätze“ hat um diese zu installieren. Diese
Annahme, dass für jede Betriebsstätte nur genau eine Möglichkeit der Installierung besteht, wird aber so
selten anzutreffen sein, dass hierauf nicht weiter eingegangen werden soll.
Franz Wirl: Industriebetriebslehre
75
3.2.10 Das CRAFT-Verfahren als Beispiel für heuristische und computergestützte Verfahren
Wie oben bereits mehrfach angesprochen wurde, sind exakte Verfahren trotz heutiger Technologie mit
sehr großem Rechenaufwand verbunden, was unter anderem dadurch bedingt ist, dass alle
Permutationen und Möglichkeiten durchgerechnet werden müssen. Deshalb wird auf heuristische
Verfahren zurückgegriffen, die auf relativ einfache Weise, wenn vielleicht auch nicht zur optimalen, so
doch zu guten Lösungen für Standortprobleme kommen.
Das CRAFT-Verfahren zur innerbetrieblichen Standortwahl soll nun in Form eines Beispiels dargestellt
werden:
Gegeben sind vier Einheiten b1 bis b4 und deren Flächenbedarf:
Betriebsstätte
b1
b2
b3
b4
Flächenbedarf
8,
4,
4
8.
Weiters ist die Kontaktmatrix gegeben, die darstellt, wie sensibel die Interaktion zwischen den einzelnen
Betriebsstätten ist. z.B. ist der Transport pro Mengeneinheit pro Längeneinheit der Strecke von b1 zu b3
mit einem Wert von 7 fast doppelt so aufwendig wie der Transport von b1 zu b2 mit einem Wert von 4 in
der Kontaktmatrix (symmetrisch)
b1
b2
b3
b4
b1
0
4
7
3
b2
4
0
6
6
b3
7
6
0
5
b4
3
6
5
0
Franz Wirl: Industriebetriebslehre
76
3
3
1
1
4
4
3
3
2
2
4
4
3
3
1
1
4
4
3
3
2
2
4
4
2
2
1
1
4
4
1
1
1
1
4
4
2
2
1
1
4
4
1
1
1
1
4
4
36
b1 b2 b3 b4
37
38
39
b1
b2
0
3
3
0
3
2
2
5
b1
b2
0
3
3
0
3
2
4
3
b3
b4
3
2
2
5
0
5
5
0
b3
b4
3
4
2
3
0
5
5
0
Distanzmatrix
Zuerst wird nun eine
Ausgangslösung für die Anordnung
der vier Einheiten gesucht, indem
diese auf ein Raster mit einer
Fläche von 24 aufgeteilt werden.
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
b1 b2 b3 b4
Dann wird der
Schwerpunkt/Mittelpunkt jeder
Einheit eingezeichnet, und die
Distanzen zwischen den
Schwerpunkten in eine neue Matrix
eingetragen. Die Transportkosten
bei dieser Anordnung ergeben sich
durch Multiplikation der Entfernung
zweier Einheiten mit dem Wert aus
der Kontaktmatrix und Addition der
Resultate für alle Paare.
KT = 4*3 + 7*3 + 3*2 + 6*2 + 6*5 +
5*5 = 106 .
Nun erfolgt der iterative Schritt,
nämlich das binäre Vertauschen
(d.h. es werden immer nur 2
Einheiten in einem Schritt
vertauscht) von Standorten, und
zwar wählen wir die Vertauschung,
die die stärkste Kosteneinsparung
ermöglicht. Es wird also b1 mit b2
vertauscht.
Distanzmatrix
1
1
2
2
4
4
1
1
2
2
4
4
1
1
3
3
4
4
1
1
3
3
4
4
b1 b2 b3 b4
b1
b2
0
3
3
4
3
0
2
3
b3
b4
3
2
4
3
0
3
3
0
Distanzmatrix
Wie vorhin werden in die neue Aufteilung die Schwerpunkte
eingezeichnet, die Entfernungen abgezählt, die Distanzmatrix
erstellt und die Kosten ausgerechnet.
Die Transportkosten betragen:
KT = 4*3 + 7*3 + 3*4 + 6*2 + 6*3 + 5*5 = 100,
es ist also eine Verbesserung um 6 Geldeinheiten erreicht
worden.
An dieser Stelle wird nochmals eine Vertauschung
vorgenommen, nämlich b3 mit b1. Nach Erstellung der
Distanzmatrix und Berechnung der Transportkosten ergibt
sich ein Wert von
KT = 4*3 + 7*3 + 3*4 + 6*2 + 6*3 + 5*3 = 90.
Bei genauer Betrachtung stellt man fest, dass keine
kostenreduzierende binäre Vertauschung mehr möglich ist,
das Verfahren ist also hiermit abgeschlossen.
Dem CRAFT und vielen anderen heuristischen Modellen, wie
z.B. dem Umlaufverfahren von Kiehne, liegt das sogenannte
„Gradientenverfahren“ (vgl. auch Neighborhood search)
zugrunde, das darauf beruht, immer einen Schritt in die
Richtung zu gehen, in der der Gewinnzuwachs am größten
ist, und nach diesem Schritt wieder neu zu berechnen.
Franz Wirl: Industriebetriebslehre
3.3
77
Standortentscheidung unter Konkurrenz (nach Hotelling)
Die bisherigen Überlegungen gingen von den Entscheidungen eines Unternehmens aus losgelöst von
allen Beschränkungen und Auswirkungen, die durch Konkurrenten gegeben sind. Dies ist klarerweise
eine Situation in der sich nicht viele Unternehmen befinden und somit diese ‚Distanzüberlegungen’ nur
einen Aspekt abbilden; allerdings wird zu diesem Aspekt nochmals zurückgekehrt. In anderen Worten,
die bisherigen Überlegungen waren bar aller strategischer Elemente. Die Frage, die im folgenden
adressiert wird ist die, wie soll sich ein Unternehmen positionieren, wenn potentielle Konkurrenten eine
ähnliche Entscheidung treffen. Diese Positionierung kann sowohl ‚geographisch’ im Sinne der Wahl der
Koordinaten eines Standortes sein, oder aber eine andere Dimension, etwa Qualitätsausprägung eines
Produktes. Die folgende Darstellung orientiert aus Gründen der Einbettung in ein Kapitel zu
Standortentscheidungen natürlich an der ersten Interpretation. Der folgende Ansatz geht zurück auf
Harold Hotelling und kann, in praktischer Anwendung formuliert, folgendes Problem betreffen. Zwei
Eisverkäufer wollen entlang eines Strandes der Länge 1 (z. B. km) ihren Wagen so positionieren um
natürlich ihren Gewinn zu maximieren. Am Rand, um sich vom Konkurrenten so weit wie möglich zu
entfernen, beide in der Mitte (ähnliche einem Cluster, siehe unten), im Drittel, etc.? Es wird angenommen,
dass beide dasselbe Produkt verkaufen und dass der Preis p fixiert ist (dieser Punkt wird unten
gelockert). Die nachfragenden Kunden sind kontinuierlich und gleichverteilt entlang [0, 1] und jeder hat
den Bedarf nach exakt einem Gut. Da das Gut homogen und der Preis ist ebenfalls ident so, dass der
Kunde bei dem kauft, der näher liegt, da auf dem Weg zum Geschäftsstandort Transportkosten
entstehen.
Sei nun x1 der Standort des ersten, und x2 der Standort des zweiten Unternehmens und x die Koordinate
eines Konsumenten. Dies ergibt folgende Nachfragesituation
Nachfrage für 1 = x‘
Nachfrage für 2 = 1 - x‘
t(x2 – x)
t(x – x1)
t(x1 - x)
0
t(x – x2)
x1
x‘
x2
1
Abb. 2.3 Standortentscheidungen im Hotelling Modell
D.h. Die Wahl der Standorte x1, x2 führt dazu, dass alle links von x’ bei 1 einkaufen (also die Nachfrage
x’) und alle rechts von x’ bei 2 einkaufen resultierend in der Nachfrage 1 – x’. Jedoch gegeben x2 ist die
eingezeichnete Wahl von x1 nicht optimal, denn durch näher heranrücken an x2 kann die Nachfrage
erhöht werden, siehe oben. Analoges gilt für x2 und das einzige Nashgleichgewicht ist dann:
x1 = x2 = ½
Variation in der Anzahl der Unternehmen (n)
n = 3: Kein Nashgleichgewicht in reinen Strategien:
Die Beispiele für n = 4 und 8 sind in der Abb. 2.4 ersichtlich.
Die Erweiterung der Inklusion von Preisentscheidungen erfordert bei einer zweistufigen Entscheidung.
Zuerst wird der Standort festgelegt und dann basierend auf dem Standort wird der Preis bestimmt.
Natürlich wird dies spieltheoretisch verkehrt herum aufgezäumt.
Franz Wirl: Industriebetriebslehre
78
n=4
A, B
C,D
1/4
0
3/4
1
n=6
A, B
E,F
C,D
1/6
1/3
1/3
1/6
Abb. 2.4: Nash Gleichgewichte der Standortwahl im Hotelling-Modell bei n Firmen
Alternative Interpretation: Produktdifferenzierung und Erweiterung um Preiskonkurrenz, wobei die
Konsumenten höchstens ein Gut benötigen, dass den Nutzen s stiftet:
Hotellings Modell einer linearen Stadt, zwei Geschäfte und Wegkosten t
Geschäft 1
0
Geschäft 2
x
Kosten tx
1
Kosten t(1 - x)
Konsumenten benötigen höchstens ein Gut
Abb. 2.5:
s - p1 - t x,
U = s - p2 - t (1 - x)
0
3.3.1
wenn er in Geschäft 1 kauft,
wenn er in Geschäft 2 kauft,
wenn er nichts kauft.
Anwendung auf Preise für Internet
9
Mason sieht vor allem zwei Hauptursachen für die Probleme. Zum einen sind das neue Anwendungen mit
gestiegenem Bedarf an Bandbreite. So benötigt z.B. eine Minute Internetsprachtelefonie die 500-fache
Kapazität eines vergleichbaren e-mail Abschnittes, eine Minute Videoconferencing sogar die 15.000fache Kapazität. Die anfallende Datenmenge entspricht etwa einer Übertragung von über 10.000 Seiten
Text. Der zweite Grund ist die zunehmende Benutzung von aggressiven Übertragungsprotokollen. Es
werden mehr sogenannte user datagram protocols (UDPs), z.B. für Sprachtelefonie, eingesetzt. Das
Problem ist, dass sie ihre Übertragungsrate nicht den Übertragungsbedingungen anpassen, wie es
transmission control protocol (TCP) tun. Bildlich gesprochen drängen sie sich auf Kosten der anderen
Datenpakete in der Warteschlange vor.
In der wissenschaftlichen Diskussion kristallisierte sich als Lösung des Überfüllungsproblems eine
Preisfestsetzung für Internetressourcen heraus. Ökonomen sind der Meinung, das die Gleichbehandlung
aller Ressourcen (wie es derzeit Praxis ist) nicht effizient ist. Die Möglichkeiten der Benutzung sind dafür
zu unterschiedlich. Netzwerkmanager ihrerseits sind der Ansicht, das die Steigerung der Kapazität ohne
anwachsendem Umsatz zu teuer ist. Im Modell des Artikels wird die Überfüllung als Verminderung der
positiven Effekte angesehen.
Dieser Artikel geht nur auf zwei verschiedene Methoden ein, wie man die Internetbenutzung vergebühren
kann um die Überfüllung zu vermindern. Es gibt natürlich noch viele andere Möglichkeiten. In den
Diskussionen, die zu diesem Thema geführt werden und wurden, filterten sich zwei Gemeinsamkeiten
heraus. Erstens muß die Einführung einfach genug sein um sie mit vernünftigen Kosten implementieren
zu können. Zweitens muß die Methode im Wettbewerb robust und widerstandsfähig sein. Die zwei
Methoden sind „the smart market“ und „Paris Metro Pricing“.
9
Basierend auf Robin Mason, „Simple competitive Internet pricing“, European Economic Review 44 (2000), 1045-1056.
Franz Wirl: Industriebetriebslehre
79
Das Modell „The smart market“ wurde von Mackie-Mason und Varian 1997 vorgestellt. Es beinhaltet
keine Benutzungskosten für die Netzwerkressourcen, solange dort keine Knappheit herrscht. In
überfüllten Teilen des Netzes werden die Datenpakete je nach Gebot des Users bevorzugt übertragen.
Der User muß für die Übertragung, aber nur das Angebot des höchsten Vorzugsdatenpakets bezahlen,
welches nicht mehr übertragen wurde. Das entspricht einer Vickrey Auktion. Es gibt mehrere Kritikpunkte
an diesem Schema.
•
Der User ist nicht nur an einer sofortigen Übertragung interessiert, sondern auch an einer
andauernden Verbindung z.B. solange der Telefonat dauert. Eine schnelle Verbindung hat keinen
Sinn, wenn das Telefonat dafür zehnmal unterbrochen wird und wir uns jedesmal neu anwählen
müssen.
•
Hinzu kommt, dass die Implementierung zu komplex ist. Die Anforderung an jedes einzelne
Datenpaket noch weitere Daten, also das abgegebene Gebot, anzufügen, führt neben der
finanziellen Belastung der Users zu einer weiteren Belastung der bereits knapp gewordenen
Ressource.
Das andere Modell „Paris Metro Pricing“ beruht auf einem Modell, das bis vor etwa 15 Jahren den
Kunden der Pariser Metro angeboten wurde. Die Reisenden hatten die Möglichkeit Erster- oder
Zweiterklasse befördert zu werden, wobei der einzige Unterschied im Preis der Beförderungsleistung lag.
Alle Wagons eines Zuges, also beide Beförderungsklassen, waren identisch ausgestattet und erreichten
das Ziel zu selben Zeit, aber da die Ersteklassewaggons teurer waren, wurden sie von weniger Leuten
genutzt. Passagiere, denen z.B. ein Sitzplatz sehr wichtig war, und die mehr Platz (weil weniger Leute)
haben wollten, waren bereit den höheren Preis zu bezahlen. Odlyzko schlug 1997 dieses Modell auch für
das Internet vor: Das Netzwerk soll in Subnetzwerke unterteilt werden, die sich nur durch die zu zahlende
Gebühr unterscheiden. Es wird keine Garantie für die Qualität des Services angeboten, aber im Schnitt
sind teurere Netzwerke weniger überfüllt und der User entscheidet nach seinen Präferenzen. Der
entscheidende Vorteil dieses Modells ist die Einfachheit.
Die vorhin genannten Lösungen sind weit entfernt von der derzeitigen Praxis. Die Frage, die derzeit
diskutiert wird ist, ob die Benutzung der Internets überhaupt kostenpflichtig werden soll. Es geht nicht
darum zu Entscheiden welcher Auktionsmechanismus verwendet werden soll. Es soll entschieden
werden ob eine flat rate oder usage pricing besser ist. Um es vorweg zu nehmen, der Konsens der sich
für Einwählverbindungen (dial-up access) ins Internet entwickelt, ist eine „flat rate“-Gebührenstruktur, also
der unlimitierte Internetzugang gegen eine monatliche Grundgebühr. Mit „Leased line Access“ werden
Standleitungen bezeichnet, wobei je nach der Kapazität der Leitung zu bezahlen ist. Der Großteil der
User rechnet dabei mit einem Grenznutzenpreis von Null. Ein Monopolist bevorzugt ein nicht lineares
Preisfestsetzungsschema non-linear pricing Schema aus strategischen Gründen. Ein Duopolist muß
hingegen überlegen ob ein solches Schema den Wettbewerb verstärkt oder verringert. Two-part tariffs,
also aus Grundgebühr und variablen Gebühren zusammengesetzte Schemen können für einen
Duopolisten zu stärkerem Wettbewerbsdruck als bei flat rates führen.
3.3.1.1
Ein einfaches Modell
Dieses Hotelling-type Modell mit variabler Nachfrage und positiven Netzwerkeffekten soll die Möglichkeit
geben zu prüfen, ob flat rate pricing (Benutzungsunabhängige Preissetzung) im Gleichgewicht erreicht
werden kann.
Die Konsumenten sind innerhalb der Intervallseinheit gleich verteilt und jeder Konsument hat eine lineare
Nachfrage nach den Produkten einer Firma. Jede Einheit des Produkts kostet in der Benutzung den Preis
p, die Nachfrage ist 1 – p Einheiten des Produkts. Es existieren 2 Firmen (0 und 1) die bei 0 bzw. bei 1
auf der Linie liegen. Jeder Konsument (x) ist zwischen 0 und 1 (0 ≤ x ≤ 1) angesiedelt und hat einen
Nutzen beim Kauf von Firma 0 von
U (x,0) = V + t (1-x) + ½ (1-p0)² + nD0 - f0
V ist ein Grundnutzen den man unabhängig vom gewählten Produkt bekommt. Der Ausdruck t(1-x) stellt
die Transportkosten des Konsumentennutzen dar. Es muß t ≥ 0 gelten. ½ (1-p0)² ist der Gewinn den der
Konsument beim Kauf von Firma 0 erwirtschaftet bei einem Benutzungspreis von p0 nD0 ≥ 0 ist der Term
für den Netzwerkeffekt. D0 ist die Gesamtnachfrage der Konsumenten die von Firma 0 kaufen. n ∈ [0,t]
ist eine Konstante. f0 sind die Fixkosten die von Firma 0 in Rechnung gestellt werden. Die
Netzwerkeffekte sind nur von der Nachfrage der Firma 0 abhängig. Es wird unterstellt, das die Produkte
der Firmen nicht miteinander kompatibel sind.
Internet kann als Netzwerk von Netzwerken gesehen werde. Die Herausgabe von Verträgen über die
gegenseitige Netzwerkanbindung zwischen den asymmetrischen Netzwerken wird immer wichtiger. Seit
1996 haben Internet Service Provider ihre Vertragsbedingungen radikal verändert. Das führt zu
Franz Wirl: Industriebetriebslehre
80
Behauptungen, dass die dominanten Netzwerke ihre Marktposition mißbrauchen, indem sie den kleineren
Netzwerken die Verbindung verweigern oder die Qualität der Verbindungen vermindern.
Im Modell wird daher angenommen, dass die Produkte der Firmen völlig inkompatibel sind. Diese
Annahme dient zur Vereinfachung des Modells, da sich der Autor durch die genauere Betrachtung von
Kompatibiltätsgraden keine wesentlichen zusätzlichen Erkenntnisse erwartet. Es wird auch
angenommen, das die positiven Netzwerkeffekte dominieren (n≥0), dass also keine negativen
Netzwerkeffekte existieren.
Die Nutzenfunktion eines Konsumenten, der bei der Firma 1 kauft, lautet wie folgt:
U (x,1) = V + tx + ½ (1-p1)² + nD1 – f1
Der einzige liegt in den Transportkosten. tx sind Transportkosten zum Konsumenten.
t(1-x)
tx
x
0
1
Position des
Firma 1
Firma 0
Konsumenten
Wenn wir eine Firma 0 und eine Firma 1 haben und x die Position des Konsumenten ist, dann ergibt sich
der Unterschied durch den Weg, der bis zum Konsumenten zurück gelegt werden muß und die Kosten
die dafür anfallen.
Die beiden Firmen haben identische Produktionskosten. Sie bestehen aus:
•
Fixkosten k ≥ 0 pro Konsument und
•
variablen Kosten c∈ [0,~c) pro Nachfrageeinheit und
•
Fixe Messkosten m sind Kosten zur Messung des Konsums, wenn ein Preisschema mit
Benutzungskomponente benutzt wird. Wenn ein Preisschema ohne Benutzungskomponente
benutzt wird, ist m=0.
Annahmen
1. Der Grundnutzen V ist im Gleichgewicht so hoch, das alle Konsumenten von einer der
Firmen kaufen, aber V ist nicht so hoch, das irgend jemand von beiden Firmen kaufen
würde.
2. Die Firmen können nur zwischen 2 Preisstrategien wählen. entweder flat rate oder
Zweiteiliger Tarif. (Grundgebühr + Nutzungskosten)
3.3.1.2
Preisfestsetzungsspiel
Der Autor versucht im Artikel herauszufinden, ob es möglich ist, dass im Gleichgewicht nur
volumensunabhängige Preisschemen (flat rate) benutzt werden. Das Spiel besteht aus zwei Phasen. In
der ersten Phase wählen die Firmen ihr Preisschema (flat rate oder two-part-tariff) und die Höhe der
Preise aus. Alles geschieht gleichzeitig und unabhängig voneinander. In der zweiten Phase wählen die
Konsumenten von welcher Firma sie kaufen und wieviel sie kaufen wollen. (Die Untersuchung
konzentriert sich auf symmetrische Gleichgewichte in reiner Strategie. Mischstrategien der Firmen sind
nicht erlaubt. Die Konsumenten kaufen jeweils nur von einer Firma).
3.3.1.3
Gleichgewicht
In der Grafik werden die Ergebnisse dieses Spieles dargestellt:
Franz Wirl: Industriebetriebslehre
81
Das zweigeteilte Gebührenschema kann nur dann ein Gleichgewicht sein, wenn die Fixkosten zur
Messung des Gebrauchs (m) nicht zu groß sind, also m <^m.
Umgekehrt kann die Lösung mit der Flat Rate nur dann ein Gleichgewicht sein, wenn die Messkosten
genügend hoch sind, also m > ~m.
Insbesondere gibt es kein Gleichgewicht mit einer flat rate wenn m=0, dann ist ein zweitteiliges
Gebührenschema immer die beste Antwort einer Firma, wenn die andere Firma eine Flat Rate benutzt.
In der Grafik gibt es 0, 1 oder 2 mögliche Gleichgewichte, die abhängig von den Werten von m
(Messkosten) und n (Netzwerkeffekte) und den unterschiedlichen kritischen Werten eintreten. Wenn 1
Gleichgewicht existiert ist die Flat Rate das einzige Gleichgewicht für hohe Meßwerte, wenn m größer als
^m. Der zweiteilige Tarif ist das einzige Gleichgewicht für niedrige Messwerte, wenn m niedriger als ~m.
Für mittlere Messwerte, wenn m zwischen ~m und ^m, entstehen bei niedrigen Netzwerkeffekten n
mehrere Gleichgewichte, während kein Gleichgewicht bei genügend großen n existiert. Es gibt ein
Gleichgewicht in dem beide Firmen einen zweiteiligen Tarif wählen, dann und nur dann wenn n ≤ n* und
m ≤ m~.
In diesem Modell wird Überfüllung als eine Verminderung von n interpretiert. Das Schema zeigt, dass flat
rate pricing in einem Gleichgewicht erreicht werden kann, wobei beide Firmen positive Netzwerkeffekte
erleben, aber mit Überfüllung. (Der Wert von m der genügt um die Existenz eines flat rate Gleichgewichts
sicher zu stellen, kann sehr klein sein.)
Die Hauptergebnisse dieses Abbschnittes sind in der Abbildung dargestellt. Die Abbildung zeigt die
unteschiedlichen möglichen Ergebnisse im Gleichgewicht im (m,n)-Raum. Die Details werden in
Annahme 1 festgehalten. Die Lösung des two-part-tariffs kann nur ein Gleichgewicht sein, wenn die
Fixkosten von benutzungsabhängigen Preisen nicht allzu hoch sind: m < ^m. Umgekehrt kann die flat rate
Lösung nur ein Gleichgewicht sein, wenn die Fixkosten bei der Berechnung von usage prices genügend
hoch sind. (m>m~). Das flat rate Gleichgewicht existiert nicht, wenn m = 0 ist. Wenn die anderen
Unternehmen sich für flat rate entscheiden, dann ist ein two-part-tariff die beste Reaktion darauf. Daraus
folgt, das es kein Flat-Rate-Gleichgewicht geben kann. Das Modell zeigt auch, dasses 0, 1 oder 2
mögliche Gleichgewichte, abhängig von den Werten von n und m und den verschiedenen kritischen
Levels, geben kann. Wenn ein Gleichgewicht existiert, dann ist das einzige Gleichgewicht für hohe Werte
von m (größer als m^) die flat rate. Für niedrige Werte von m (kleiner als m~) ist das einzig mögliche
Gleichgewicht der two-part-tariff. Für Werte zwischen m~ und m^ kann es, für genügend niedrige n,
mehrere verschiedene Gleichgewichte geben, während es kein Gleichgewicht für genügend große n gibt.
Die Abbildung zeigt allerdings nur Fälle, wo m^> m~. Im Fall m^ < m~ können keine mehreren
Gleichgewichte. Die folgende Annahme setzt die Hauptbedingungen für die Existenz von symmetrischen
Gleichgewichten fest.
Annahme 1: Ein Gleichgewicht, wo beide Firmen einen two-part-tariff wählen existiert, wenn und nur
wenn n ≤ n* und m ≤ m^. Wenn n ≤ n~ existiert ein Gleichgewicht, wo beide Firmen eine flat rate wählen,
wenn und nur wenn m > m~. Wenn n ∈ (n*,n-] ist die notwendige und ausreichende Bedingung m > m- >
m~. Wenn n > n-, m > m- ist die Bedingung ausreichend, aber nicht notwendig.
In diesem Modell wird Überfüllung als ein Rückgang in n dargestellt. Die Annahme indiziert, das bei flat
rate pricing ein Gleichgewicht mit gesamt positiven Netzwerkeffekten zwischen zwei Firmen erreicht
Franz Wirl: Industriebetriebslehre
82
werden kann, aber mit Überfüllung. Um die Existenz von einem flat rate Gleichgewicht sicher stellen zu
können, kann der Wert von m sehr klein sein. Zur Veranschaulichung nehmen wir t=1, c=0,04 und
-6
m=0,003 an. In diesem Fall ist n~=0,6803, n^=0,7370, n-=0,7406, n*=0,7492, m*=4,8X10 und m=0,1157. Für n<0,3026 beinhaltet das einzige symmetrische Nash Gleichgewicht eine flat rate. In diesem
fall sind die Fixkosten für die Messung der Nachfrage in der Größenordnung kleiner als die
Einheitskosten. Sie stellen sicher, das bei usage pricing kein Gleichgewicht erreicht werden kann. Diese
Annahme wird für den symmetrischen two-part-tariff und das flat rate Gleichgewicht analysiert.
f2part = t + k - n/2 (1 + n/2 - c), p2part = c - n/2
fflat = t + k + c - n
Der Benutzungspreis p2part beim two-part-tariff ist kleiner als die unit costs c; der Fixpreis f2part ist unter den
Standard Hotelling level, t + k, daher vermindern die positiven Netzwerkeffekte beide Preise: die Firmen
treten heftiger in Wettbewerb, um ihre Marktanteile und die totale Nachfrage zu vergrößern, und um für
die Konsumenten attraktiver zu sein. Für genügend große n, größer als n*, existiert kein Gleichgewicht im
two-part-tariff. Der usage price p2part kann negativ sein, wenn n > 2c, also wenn die Firmen die Nachfrage
nach ihren Produkten subventionieren. Die flat rate hat eine ähnliche Interpretation: der Hotelling price (
Einheitsproduktionskosten k+c plus horizontales heraufsetzten von t) minus einem Betrag, um
wachsende Wettbewerb zu zeigen, wenn positive Netzwerkeffekte vorhanden sind. Welches
Gleichgewicht den größeren Profit hervorbringt, hängt von der Intensität des Wettbewerbes für die
Grenzkonsumenten und der größe der Fixkosten m ab.
Im two-part-tariff Gleichgewicht gilt: π2part = ½ (t-n) – n/2 (n/2 – c) – m;
im flat rate Gleichgewicht gilt: πflat = ½ (t – n). Unter der Annahme dass m=0, dass also nur mehr die
Wettbewerbseffekte übrig bleiben, dann sind die Profite, wenn n=0 in beiden Gleichgewichten gleich wie
t/2. Beim flat rate Gleichgewicht fragen alle Konsumenten eine Einheit nach. Dieses Modell entspricht
genau dem gewöhnlichen Hotelling-Aufbau.
Wenn n größer als 0, aber kleiner als 2c, geniesen die Unternehmen im two-part-tariff 2 Vorteile
Gegenüber der flat rate: Wenn der Benutzungspreis positiv ist, machen die Grenznutzer einen kleineren
Verlust in variabler Nachfrage, und der Wettbewerb ist nicht so stark, seit/wenn sie einen kleinen
Überschuß erhalten (alle anderen Dinge sind identisch). Wird n größer, verringert sich der
Benutzungspreis bis n=2c. Die Preise in den zwei Gleichgewichten sind gleich: sie beinhalten beide einen
Fixpreis von t+k-c und keine Benutzungskomponente. Von diesem Punkt an (n>2c) sind die Vorteile für
die Unternehmen im two-part-tariff Gleichgewicht gegenüber zu flat rate gegenteilig: Sie machen einen
größeren Verlust an variabler Nachfrage aus und wirken stärker für den größeren Gewinn für die
Grenznutzer.
3.3.1.4
Wohlfahrtsvergleiche
Es ist aufrichtig den sozialen Zugewinn in den zwei Gleichgewichten zu kalkulieren. Die verschiedenen
Ausdrücke führen direkt zu den folgenden Behauptungen.
Annahme 2: Sozialer Zugewinn ist größer (kleiner) bei den zweigliedrigen Gleichgewichtspreisen, wenn
flache Gleichgewichtspreis: (n-2c)² > (<) 16m.
Die Annahme ist nicht davon abhängig, ob ein spezielles Gleichgewicht existiert oder nicht. Kleinere
Fixkosten beim usage pricing sind für das two-part-tariff Gleichgewicht von Vorteil. Sozialer Zugewinn ist
in diesem Gleichgewicht, unabhängig von den Netzwekeffekten, höher. Vom vorhergehenden Abschnitt
wissen wir, dass die Gewinne beim two-part-tariff niedrig sind, unabhängig von hohen oder niedrigen n,
wenn m strikt positiv ist. Für genügend kleine und genügend große Netzwerkeffekte ist der Gewinn für
den Konsumenten höher beim two-part-tariff pricing; für Werte, die dazwischen liegen, ist der Gewinn für
den Konsumenten höher bei flat rate pricing.
Zum besseren Verständnis, denken wir uns das mit den Extremen durch. Setzen wir n=0, zeigt Annahme
1 für diesen Fall f2part = t + k und p2part = c und fflat = t + k + c. Die Konsumenten fragen beim 2two-parttariff weniger nach, zahlen aber auch weniger. Die Verminderung des Preises, der bezahlt wird, ist erster
Ordnung, die Reduktion des Zugewinns ist zweiter Ordnung. Daher ist der Gewinn für die Konsumenten
größer beim two-part-tariff. Für n nahe bei Null, ist der Gewinn für die Konsumenten größer mit dem twopart-tariff. Für n ≥ 2c zeigt Annahme 1, dass f2part ≤ fflat und - p2part ≤ 0. Es wird deutlich, dass der Gewinn
für die Konsumenten im two-part-tariff Gleichgewicht größer wird. Für Werte von n die dazwischen liegen,
bedeutet die Reduktion der Nachfrage von einer positiven Benutzungsgebühr, dass der two-part-tariff für
die Konsumenten einen niedrigeren Gewinn bringt, als die flat rate. Wenn n genügend klein oder
genügend groß ist, sodas (n – 2c)² > 16m, so bedeutet das, dass der Kombinierte Effekt von einem
Franz Wirl: Industriebetriebslehre
83
größeren Zugewinn für den Konsumenten und einem kleineren Profit so ist, das der soziale Zugewinn im
two-part-Gleichgewicht gößer ist.
3.3.1.5
Schlussfolgerungen
•
Es ist notwendig, einfache Preisschemen zu haben, die auch in Wettbewerbssituationen
funktionieren.
•
Eine der Modellannahmen ist die Einschränkung der Firmen auf zwei mögliche reine
Preisstrategien (Flat-Rate und Two-Part-Tariff). Um das Modell zu ergänzen was in dem Artikel
auch aus Platzgründen unterblieb, müsste diese Einschränkung erweitert werden.
•
Abschließend führen die Erwägungen des Artikels zu folgendem Schluss: Betrachtet wird ein
Modell, wo differenzierte Firmen in Gegenwart von positiven Netzwerkeffekten in Wettbewerb
stehen und Überfüllung als Verminderung der positiven Netzwerkeffekte gesehen wird. Two-PartTariffs benötigen Fixkosten, um die Messung des Verbrauchs zu ermöglichen. Schon sehr kleine
Fixkosten können zu Gleichgewichtssituationen führen wo nur mehr flat rate pricing möglich ist.
Nur bei sehr geringen Messkosten werden sich zweiteilige Tarife (mengenabhängige Tarife)
finden.
Franz Wirl: Industriebetriebslehre
3.4
84
Ökonomische Geographie – ein Ansatz von Paul Krugman
Die Ökonomische Geographie ist ein relativ junger Zweig, der versucht zu erklären, warum
Agglomerationen entstehen.
Zuerst sollen einige überraschende die Größe von Städten betreffende Gesetzmäßigkeiten gezeigt
werden: Zipf’s Gesetz der Ranggrößenregel, das einer Strömung entspringt, die man auch als „Soziale
Physik“ bezeichnet, besagt, dass die Bevölkerungszahl einer Stadt (Nj) indirekt proportional zu ihrem
Rang Rj ist. Die zweitgrößte Stadt hätte also dementsprechend die Hälfte der Einwohner der größten, die
drittgrößte Stadt ein Drittel der größten u.s.w:
ln( N j ) =
k
⇒ ln k − b ln R j
R bj
k ist eine Konstante. Wenn nun der Koeffizient b den Wert 1 hat, ergibt sich die oben beschriebene
Regel. Für die Vereinigten Staaten von Amerika hat Paul Krugman versucht, dies empirisch darzustellen,
und wie aus der Abbildung 2.6 erkennbar ist, ergibt sich in der Tat annähernd eine entsprechende
Gerade. (Koeffizient b ist rund 1). Die untere Grafik zeigt, dass dieses Verhältnis für verschiedene
Zeitpunkte der Geschichte ebenfalls gilt, wobei hier N für die Anzahl der Städte steht, die eine bestimmte
Größe S haben.
Abbildung 2.6 (Quelle: Krugman S. 40, Abb. 3.1 und S. 41, Abb. 3.2)
Franz Wirl: Industriebetriebslehre
85
Auch für die österreichischen Städte ergibt sich, wenn man den “Wasserkopf” Wien weglässt, dieses Bild:
Wien
Wien
1878368
Graz
Stm
302324
Linz
OÖ
276888
Salzburg
Sbg
212107
Innsbruck
Tir
179224
Bregenz
Vbg
177142
Klagenfurt
Ktn
100770
Wels
OÖ
76899
Villach
Ktn
68308
Wiener Neustadt
NÖ
65016
Sankt Pölten
NÖ
63383
Steyr
OÖ
57778
Feldkirch
Vbg
56416
Knittelfeld
Stm
50056
6,5
ln(Bev.)
6
5,5
5
4,5
4
-0,25
0,25
0,75
1,25
ln(Rang)
2
ln(Bevölkerung) = 5.92 - 1.06ln(Rang), R = 0.94
(0.07) (.08)
5.92
-1,06
Bevölkerung = e
R
lnk
5.92
R = 1 = k = e (weil ln(1) = 0, daher im obigen Beispiel = e ) ≈ Bevölkerung in der größten Stadt.
Abbildung: 2.6
Diese Potenzverteilung (power law, Pareto-Verteilung) ergibt sich aus dem Gesetz von Gibrat: das
Wachstum von Firmen (aber auch von Städten) ist unabhängig von der Größe.
Historisch war von Thünen einer der ersten, die sich eingehend mit dem geographischen Verhältnis
Stadt-Hinterland beschäftigten. Er beschreibt, wie sich aufgrund der unterschiedlichen Transportkosten
verschiedener Güter (z.B. Salat und Frischgemüse haben hohe Transportkosten, da sie nicht lange
gelagert werden können, Getreide und Kartoffeln geringere...) um das Zentrum herum konzentrische
Kreise bilden, wobei die am weitesten innen gelegenen Grundstücke für die Produktion der Güter genutzt
werden, die die höchsten Transportkosten im Verhältnis zum Preis haben.
Von Thünen’s Ansatz beschreibt, wie die Landnutzung um die Stadt herum organisiert werden wird, er
erklärt aber nicht, warum eine Stadt entsteht, sondern er nimmt einfach das vorhandene Marktpotential
der Stadt schon als gegeben an.
Was dabei fehlt, ist u.a. die Einbeziehung der Tatsache, dass Standortentscheidungen durch das
vorhandene Marktpotential beeinflusst werden, diese sich wieder auf das Marktpotential auswirken und
die Standortentscheidungen anderer Unternehmen beeinflussen. Diese Effekte sollen hier nicht nur
verbal beschrieben, sondern auch in Modellform erklärt werden, da es in der Geschichte der
Wissenschaft schon oft der Fall war, dass man zwar Tatsachen beobachten konnte (z.B. dass die
Franz Wirl: Industriebetriebslehre
86
Umrisse der Kontinente so aussehen, als ob sie ineinander passen würden), die sich daraus
möglicherweise ergebende Schlussfolgerung („Vielleicht war es einmal ein großer Kontinent, der
auseinandergerissen ist?“) aber nicht annehmen konnte, da die zugrundeliegenden Mechanismen, die
dieses Ergebnis erklären könnten (Plattentektonik) noch nicht bekannt waren. Aus diesem Grunde ist es
in der Wissenschaft wichtig nicht „nur“ Beobachtungen zu beschreiben, sondern auch zu versuchen,
allgemeingültige Modelle zu finden, die sie erklären.
Paul Krugman versucht nun in seinem Modell, die Entwicklung von Zentren aus einer ungefähren
Gleichverteilung nachzuvollziehen. Hierbei kommen auch die Überlegungen aus der deutschen
Geometrie (Weber, Lösch), in denen eine Betriebsstätte oder ein Standort als „Schwerpunkt“ gesehen
wird, wieder zum Tragen.
Er versucht positive Feedbacks, wachsende Skalenerträge, Transportkosten und Marktpotential in seine
Analyse mit einzubeziehen.
Modell:
•
Es gibt zwei Klassen von Gütern, die mit A bezeichneten landwirtschaftlichen Güter, und die mit
M bezeichneten Industriegüter.
•
Die Konsumpräferenzen hängen vom Konsum beider Güterklassen folgendermaßen ab:
U = C Mµ C 1A− µ ,
•
wobei CM für ein Aggregat vieler unterschiedlicher Industriegüter steht, bei denen die
Preiselastizität für jedes Gut gleich ist, und die Konsumenten eine große Auswahl verschiedener
Produkte
σ
σ −1 σ −1


C M =  ∑ ci σ  ,
 i

die landwirtschaftlichen Güter sind hingegen homogen.
•
Die landwirtschaftliche Bevölkerung (LAi) ist in jedem Standort fix, die Arbeiter im Industriesektor
(LMij) sind mobil.
•
Die Produktion in der Landwirtschaft erfolgt linear abhängig von der Anzahl der Arbeiter: QAi = LAi,
während im Industriesektor auch Fixkosten berücksichtigt werden:
Q Mij =
•
1
β
LMij −
α
β
Die Transportkosten werden nach dem „Eisbergmodell“ dargestellt, d.h. die transportierte
Gütermenge verringert sich im Laufe des Transportes („schmilzt ab“). Die aus dem Ort i
versandte im Ort k ankommende Menge des Produktes j errechnet sich folgendermaßen:
Z jik = e −τDik x jik
wobei Dik für die Distanz der Orte i und k steht und xjik die von i nach k abgesandte Produktmenge
des Produkts j ist. τ ist eine technologieabhängige Konstante, ein hoher Wert verursacht hohe
Transportkosten, ein niedriger Wert dieses Parameters niedrige.
•
Weiters fließt in dieses Modell die Mobilität der Arbeitskräfte ein, nämlich insofern als
angenommen wird, dass umso mehr Industriearbeitskräfte in einen Standort strömen, je höher
der Lohn dort über dem Durchschnittslohn aller Standorte liegt, und dass die Arbeitskräfte umso
stärker aus einem Ort wegwandern, je mehr der Lohn dort unter dem Durchschnittslohn liegt. Der
Durchschnittslohn berechnet sich als Produkt des Lohns eines Ortes mit dem Prozentsatz der
dort ansässigen Industriearbeitskräfte:
ω = ∑ λMiω i
•
Die Dynamik der Arbeitsmobilität sieht folgendermaßen aus:
λMi =
dλMi
λ
= ρλMi (ωi − ω ) bzw. umgeformt: Mi = ρ (ω i − ω ) .
dt
λMi
Franz Wirl: Industriebetriebslehre
87
Bemerkung: Es werden hierbei kurzfristige Gleichgewichte betrachtet, was dem Dixit-Stiglitz-Modell der
monopolistischen Konkurrenz entspricht.
Paul Krugman hat das oben skizzierte Modell simuliert (d.h. mit verschiedenen Parameterwerten
durchgerechnet), meist ausgehend von einer ungefähren Gleichverteilung der Industriearbeiter auf 12
Städte, und ist immer wieder auf das Ergebnis gestoßen, dass sich zwei oder mehrere gleich große und
in gleichen Abständen von einander gelegene Zentren herausbilden, die von den anderen Standorten die
Industrien abziehen. Diese Zentren bilden sich meist an den Orten, die in der anfänglichen „beinahe
Gleichverteilung“ einen etwas größeren Arbeitskräfteanteil zugeteilt bekommen hatten. Die Entwicklung
eines solchen Simulationslaufes zeigt die folgende Abbildung (Quelle: Krugman, S. 90).
Abbildung 2.7 (Quelle: Krugman, S. 90)
Bemerkung zur Robustheit geographischer Agglomerationen (von Städten): Paul Krugman, journal of
Economic Perspectives, Winter 2002, 247: „Donald Davis and David Weinstein, ‚Bones, bombs, and
break points: The geography of economic activity, points out that the U.S. bombing campaign against
Japan in the closing months of World War II constituted a sort of gruesome natural experiment testing
robustness of cities …. Even large temporary shocks to urban areas have no long run impact on city
sizes.’”
Die Bedeutung der Skalenerträge für geographische Agglomerationen zeigt sich auch in Details wie der
10
Tatsche niedrigerer Konsumentenpreise in großen Städten (auf Grund gesteigerter Konkurrenz) .
11
Ciccone untersucht empirisch diese Agglomerationseffekte und insbesondere die dahinter stehenden
Skalenerträge und eventuelle Ursachen oder besser gesagt Indikatoren, dafür.
10
O’Conell Paul G. J. und Shang-Ji Wie, The bigger they are, the harder they fall: Retail price differences across U.S. cities, Journal
of International Economics 56, 21 – 53, 2002.
11
Antonio Ciccone, Agglomeration Effects in Europe and the USA, Working Paper, 2001.
Franz Wirl: Industriebetriebslehre
88
Prognose hinsichtlich der Entwicklung europäischer Städte:
Abbilung 2.8 (Quelle: Regional overview-Growth Prospects for Europe’s cities, 2012, Anthonys
Light, Oxford Economics)
Franz Wirl: Industriebetriebslehre
89
Antonio Ciccone, Agglomeration Effects in Europe and the USA, Working Paper, 2001.
Produktivität (1988) und Dichte in den USA
Dichte (Index) Produktivität
District of Columbia
1.67
43 164 US$
New York
1.59
41 921 US$
New Jersey
1.48
44 488 US$
Massachusetts
1.47
3 7 296 US$
Illinois
1.46
39 150 US$
Nevada
1.20
36 234 US$
Idaho
1.17
29 861 US$
South Dakota
1.15
26196 US$
North Dakota
1.12
30 248 US$
Montana
1.10
30 302 US$
Abbildung 2.9:
Roots of development, Oct 3rd 2002 , The Economist
What matters most for development—geography, institutions or policy?
ECONOMIC growth in poor countries, it seems reasonable to suppose, depends on getting lots of different things right, and
probably on a generous measure of good luck as well. Is it possible to say which factor or factors matter most?
For many years economists emphasised the importance of good economic policy (though often disagreeing about which policies
were good and which not so good). Lately, it has become orthodox to stress the importance of long-lived “institutions” that are
conducive to growth: political stability, property rights, legal systems, patterns of land tenure, and so on. Other economists instead
put great weight on geography, especially climate (which affects the incidence of disease, the applicability of some technologies,
agricultural opportunities, and more) and access to the sea (which affects the scope for international integration).
Such explanatory factors need not be mutually exclusive. Successful development could depend on all of the above. Rich
economies usually combine competent policy (on the whole), sound and stable institutions and favourable geography. Many of the
world's poorest countries score badly on all three counts. Still, it would be interesting to discover that policies, say, matter much
more than geography—and it would be encouraging too, because policies are easier to change than whether a country is in the
tropics or has access to the sea. A new paper by William Easterly of the Centre for Global Development and Ross Levine of the
University of Minnesota tests the importance of these three sets of factors, looking at a sample of 72 rich and poor countries.
The results are intriguing. Institutions turn out to matter most—but that is putting it mildly. Geography and policy, as influences in
their own right, turn out to matter not merely less than institutions but, roughly speaking, not at all.
Take policy first. In this study the quality of policy is measured by inflation, openness to trade, exchange rates and so forth. The
finding that policy in these areas does not drive development seems surprising, and at odds with a lot of other work, as the authors
acknowledge.
One explanation may be that other studies relate good policies to growth rates, whereas Mr Easterly and Mr Levine relate it to the
level of income. Why would that matter? Possibly, bad policies curb growth rates for a spell, but not enough to have a significant
effect on incomes in the long term. Or the reason could be that some other studies fail to include institutions alongside policies as a
possible explanation for development. If low-income countries with bad policies also have bad institutions, and institutions are not
included in the analysis, then bad policies may act as a proxy for bad institutions, and appear to be the true underlying influence.
At any rate, the study finds that countries with good institutions tend to do all right with good or bad policies. In the same way,
countries with bad institutions tend to do badly regardless.
Germ of an idea
Other studies say that geography matters a lot. In this case, Mr Easterly and Mr Levine agree, sort of, because they find that
geography affects institutions. Favourable geography, they find, promotes good institutions; good institutions then promote
development. When the study looks at the economic influence of geography in its own right—that is, does geography affect income
independently of promoting good institutions?—they find no clear connection.
In itself, in other words, good geography does not seem to count. A country with bad geography and good institutions will do fine. A
country with good geography and bad institutions will not. It is only in so far as good geography breeds good institutions that good
geography promotes development.
But hang on. Why on earth should good geography favour good institutions? The authors explain that this odd-seeming finding is
consistent with a plausible theory set out and defended empirically elsewhere. The 72 countries in the sample are all former
colonies. Europeans followed a variety of colonial strategies. In North America, Australia and New Zealand, Europeans settled in
large numbers and created institutions to protect private property and curb the power of the state. In most of Africa and Latin
America, Europeans never wished to settle and instead concentrated, to varying degrees, on extracting metals, cash crops and
other resources: less democracy, less regard for property rights.
Why did Europeans settle in North America and not in Africa? Because of geography—that is, because of germs. Where settler
mortality was low, because geography and climate were conducive to good health, Europeans moved in and planted good
institutions. Where settler mortality was high, because of bad geography, they stayed away and planted bad institutions. These
institutions, good and bad, put down roots—and the result, broadly speaking, is the pattern of income you see today around the
world.
Institutions are more difficult to change than policies, of course. If that were not so, the European colonial legacy emphasised in this
account of development would not have been so enduring. But institutions are presumably not as resistant to reform as geography.
Franz Wirl: Industriebetriebslehre
90
Spelling out more precisely—or with any precision at all—how to get from bad to good institutions is, on this view, the real challenge
for develop
3.5
Clusters - ein Ansatz von Michael E. Porter
In seinen Überlegungen (z.B. Clusters and the New Economics of Competition,Harvard Business Review
Nov-Dec. 1998, 77 – 90.) geht Porter von dem Paradoxon aus, dass Firmen heutzutage sehr flexibel
global Güter und Dienstleistungen beschaffen können – auch aufgrund sinkender Transportkosten – und
daher eigentlich zu erwarten wäre, dass Standortentscheidungen weniger wichtig werden:
„Now that companies can source capital, goods ... around the world, often with the click of a
mouse, ... in theory, the role of local competition should diminish ...“
Aber wenn daher Standorte weniger wichtig sind, warum sind dann: z.B. die besten (world class) mutual
funds eher in Boston, Textilbetriebe eher in North Carolina, Qualitätsautoproduktion in Süddeutschland
und Modeschuhwerk in Norditalien?
Man sieht also, dass die wirtschaftliche Landkarte - ähnlich den in der ökonomischen Geographie
beschriebenen Phänomenen - durch Clusters dominiert ist. Unter einem Cluster versteht man eine
geographische Konzentration von irgendwie verbundenen Unternehmen und Institutionen (z.B.
Universitäten) in einem bestimmten Gebiet. Es sind Agglomerationen, die kritische Massen übersteigen
und unüblichen ökonomischen Erfolg aufweisen. Silicon Valley (Computer) und Hollywood (Filmindustrie)
sind die bekanntesten Beispiele. Diese Verbindung inkludiert eine regionale Integration wichtiger
Vorleistungen für das Produkt und von Dienstleistungen, sowohl upstream als auch downstream.
Paradoxon: Der andauernde kompetitive Vorteil in einer globalen Ökonomie muss lokal bedingt sein! Er
muss also in Dingen wie Wissen, Beziehungen und Motivation liegen, die nicht transportfähig sind.
Darin liegt der Unterschied zu den früheren Erklärungen in denen sich aufgrund der Konkurrenz durch
Inputkosten (natürliche Vorteile, Hafen, billige Arbeit etc.) bestimmte Standortverteilungen ergeben.
Clusters erhöhen also auf Grund der Nähe und des wiederholten Austausches das Vertrauen und
verbessern die Koordination. (Wissen kann lokal sein und vor allem nur lokal weitergegeben werden, in
Form von persönlichen Kontakten und Diskussionen, die nicht schriftlich und nicht in prozeduraler, später
von Dritten nachvollziehbarer Form erfolgen. (z.B. Softwareentwickler treffen einander in einer Bar und
besprechen informell auch berufliche Dinge, ziehen aus diesem Gespräch mit Kollegen einen Vorteil für
ihre weitere Arbeit.) Auch zeigen empirische Studien, dass der persönliche Kontakt (u.A. das Beobachten
der Körpersprache) für Menschen wichtig ist, um die Glaubwürdigkeit eines potentiellen (Vertrags-)
Partners einschätzen zu können, was die Stabilität von Verträgen verbessert.
Daher sind Clusters ein intermediäres Arrangement, das die Nachteile von Marktbeziehungen (arm’s
length) und die Inflexibilität von vertikalen Integrationen und formalen Allianzen mildert.
Weitere Vorteile von Clusters sind:
bessere Wahl der Inputs und Abstimmung, bessere Information (diese Vorteile bietet auch eine Allianz,
aber nur um den Preis von Inflexibilität)
+
besserer Zugang zu Anbietern und Arbeitnehmern (aber auch stärkere Konkurrenz um Talente!)
+
Komplementaritäten, Bsp: Tourismus: Natur + Hotels, Möbelindustrie: lokale Forstindustrie,
Sägewerke, Marketing etc.
+
Zugang zu Institutionen, öffentlichen Gütern (z.B. Universitäten, Infrastruktur)
+
Bessere Motivation auf Grund lokaler Rivalitäten und Konkurrenz, ‚peer pressure‘.
Die untenstehende Abbildung (Quelle: Porter S. 82) zeigt einige Beispiele: für Clusters in den USA
Franz Wirl: Industriebetriebslehre
91
Abbildung 2.10 Clusters in den USA
3.5.1
Evolution von Clusters und Beispiele
Zuerst muss ein Auslöser (“trigger”) vorhanden sein, dann kann es durch Rückkoppelungseffekte, wie sie
bei Krugman beschrieben sind, zu Clusterbildung kommen.
Beispiele:
-
Die Entstehung des Medizin-Clusters in Massachusetts wurde gefördert durch die Nähe zur
Harvard University und dem MIT. In diesem Cluster sind ca. 400 Unternehmen, die ca. 40.000
Arbeitsplätze bieten.
-
In den Niederlanden wurde durch die Geographie (Häfen) die Entstehung eines Transportclusters
bestimmt.
-
Aufgrund des Wassermangels in der Region und der politisch bedingten Autarkie in der
Versorgung kam es in Israel zur Bildung eines Clusters für Bewässerungstechnik.
-
Der Cluster für Golfausrüstung bei San Diego ist ein Ableger der Raumfahrtindustrie.
Oft gehen lokale Cluster von innovativen Unternehmen aus, andere bilden sich durch die Integration von
wachsenden Clusters, z.B. in Deutschland von Küchenmöbel und Küchengeräte.
Ein Problem von Clusters ist eine Anfälligkeit auf Nachfrageänderungen, insbesondere wenn sich
innerhalb des Clusters gewisse Rigiditäten herausgebildet haben. z.B. Hatte in den 70er Jahren die
Autoindustrie in Detroit große Schwierigkeiten, sich von den benzinfressenden Autos auf andere
umzustellen.
Wichtig für Standortentscheidungen ist, dass man nicht nur die Inputkosten evaluiert, sondern die
Gesamtkosten berücksichtigt, wobei nicht vergessen werden darf, dass Erfolg im globalen Markt vorerst
Franz Wirl: Industriebetriebslehre
92
Erfolg im Heimmarkt bedingt, und man das lokal vorhandene Innovationspotential in den Kostenvergleich
einbeziehen muss. z.B.: Hewlett Packard, ein Unternehmen, das in verschiedenen Branchen tätig ist, hat
den Bereich Software, PC, Workstation in Kalifornien angesiedelt, und den Bereich medizinische Geräte
(mittlerweile Agilent-Technology – ausgegliedert von HP im Jahre 2000) in Massachusetts –
entsprechend der Aufteilung der Cluster.
Beispiel: Wein-Cluster in Kalifornien (Quelle: Porter, S. 79)
Abbildung. 2.11 Wein-Cluster in Kalifornien
Im Zentrum dieses Clusters stehen die 680 kommerziellen Winzer und tausende unabhängige Bauern,
die Weinstöcke ausgesetzt haben. Dies beruht auf dem lokalen Vorteil des für Weinbau gut geeigneten
Klimas.
Dazu kommen zur Weinproduktion komplementäre und unterstützende Industrien wie die biotechnische
(Züchtungen) und chemische (Dünger), Bewässerung, Erntegeräte, Fässer, Etiketten, P.R., Zeitschriften
über Wein, Korken, etc.
Eine wichtige Rolle spielen auch lokale Institutionen, wie z.B. die University of California at Davis, die ein
Önologie (Weinkunde) Programm anbietet und ein Weininstitut unterhält, das die wissenschaftlichen
Grundlagen liefert (=“öffentliches Gut“). Weiters gibt es Verbindung zum Tourismuscluster (Restaurants,
Weintourismus)
Beispiel: Cluster der Lederindustrie in Norditalien (Quelle: Porter, S. 80)
Dieses Cluster beinhaltet die weltberühmte Modeschuhindustrie (wie Gucci und Ferragamo),
spezialisierte Lieferanten von Teilen, von Maschinen, Fassungen, Design, Gerbereien.
Es bestehen auch Verbindungen zu den Herstellern anderer Lederwaren oder anderer Arten von
Schuhen (bedingt durch ähnliche oder überlappende Technologien), sowie zum italienischen
Textilcluster. Dadurch besteht auch die Möglichkeit, die Produkte gemeinsam zu vermarkten.
Franz Wirl: Industriebetriebslehre
93
Abbildung 2.12 Das Cluster der Lederindustrie in Italien
Einige Probleme, die in Clusters enstehen können, werden in dem Artikel: The complications of
nd
clustering: The Economist, January 2 1999, S 57-58 an italienischen Beispielen dargestellt.
Die berühmte italienische Konsumgüterindustrie wird gehalten von der zweiten weniger bekannten
Ebene, die Maschinen und Geräte erzeugt, welche dann die bekannten Waren produzieren. So ist Italien
(nach Japan, Deutschland und den USA) der viertgrößte Geräteproduzent der Welt. Charakteristisch für
Italien ist, dass diese Unternehmen relativ klein sind (450 Produzenten mit durchschnittlich 70
Angestellten, im Vergleich dazu sind es in Deutschland ca. 200 Produzenten mit jeweils 320
Arbeitnehmern).
Wichtig bei der Herstellung von Spezialanlagen ist der Kontakt zwischen Anlagenbauer und Abnehmer,
um die Maschinen weiterzuentwickeln und besser auf die Bedürfnisse der Branche abzustimmen.
Beispielsweise hat es die enge Zusammenarbeit mit italienischen Juwelieren den Firmen IECO und
Sismo (Erzeuger von Maschinen für Juweliere) ermöglicht, 80% des globalen Marktes für Juweliergeräte
zu erobern. Dies führte sogar dazu, dass die italienischen Juweliere sich darüber beschwerten, dass nun
auch ihre Konkurrenten im Ausland die Möglichkeit hätten, diese – durch ihre Mithilfe – so exzellenten
Geräte zu kaufen und dadurch im Wettbewerb aufzuholen.
Auf Grund der Tatsache, dass einerseits kooperierende Unternehmen auch Konkurrenten für einander
sind, und dass in vielen Fällen die Anlagen ein wichtiger Faktor für die Produktqualität und/oder die
Kosten sind, bauen jetzt zunehmend große Unternehmen ihre Spezialanlagen im Haus, um den
Konkurrenten durch Vorteile in der Produktionsanlage zu schwächen. Z.B. hat der Brillenhersteller Sailo
50 Ingenieure, welche die Geräte für die eigene Produktion entwerfen. Der bekannte Nudelhersteller
Barilla hingegen hat 32% Marktanteil, während der nächstgrößte Produzent nur 4.8% hat. Deshalb
verlangt Barilla Anlagengrößen, für die kein Markt existiert, und baut sie daher gleich selbst.
Ein Beispiel für Auflösungstendenzen in einem Cluster ist das 150 Jahre alte Unternehmen Sperotto
Rimar und Lanerossi, welches vorher alle Inputs lokal bezogen hat, jetzt aber Wolle aus Australien, den
Strom vom internationalen Netz, die Geräte aus der Schweiz, Deutschland und Großbritannien bezieht.
Franz Wirl: Industriebetriebslehre
94
Abbildung 2.13 Beispiele an Clusters in Italien
nd
aus The Economist, January 2 1999, S 57-58
12
Delmastro zeigt, dass sowohl die Größe als auch die Produktionstechnologie signifikanten Einfluss auf
Managementhierarchien hat. Insbesondere operieren Unternehmen mit einer hohen Intensität
fortschrittlicher Fertigungstechniken zunehmend in Clusters anstatt in Isolation.
3.5.2
Ein einfacher Ansatz zur Bildung von Clusters
13
Im folgenden wird kurz versucht, die Bildung von Clusters zu erklären . Ausgangspunkt ist für das
Unternehmen f der in der Region g erwartete Nettoertrag,
Nfq = Gfq + Afq - Cfq
der sich aus drei Aspekten
-
Gfq = Gfq(lq, kq, sq, uq, ...) regional bedingter Ertrag aus der Qualität regionaler Inputs wie Arbeit (lq)
Kapital (kq), Dienstleistungen lokaler Unternehmen (sq), regionale Infrastruktur (uq), etc.
-
Agglomerationseffekte Afq = Afq(nq), A’’ <0 (konkav), wobei nq die bereits vor Ort befindlichen
Unternehmen beschreibt [siehe Abb. unten]. Der Bereich A’ >0 beschreibt die positiven
Auswirkungen einer Agglomeration – höhere Arbeitsteilung und dadurch Spezialisierung
(Erinnerung an Adam Smith’s berühmte Stecknadelfabrik), peer pressure in Forschung und
Entwicklung, technisch-wissenschaftliche Entwicklungen und gegenseitige Befruchtung über
Branchen und Unternehmen hinweg, besser geschult und gebildete Arbeitskräfte, reduzierte
Transportkosten zu Kunden und zu Vorlieferanten, etc.). Der Bereich A’ < 0 steht für den Bereich,
wo auf Grund von Überfüllung die negativen Auswirkungen überwiegen.
12
Marco Delmastro, The Determinants of the Management Hierarchy: Evidence from Italian Plants, Int. J. of Ind. Org. 20, 119 – 137,
2002.
13
Diese Darstellung beruht auf Kapitel 4, Modelling firms’ location and cluster development aus Mario A. Maggioni, Clustering
Dynamics and the Location of High Tech Firms, Physica Verlag, 2002
Franz Wirl: Industriebetriebslehre
95
€
Nutzen Aq
Kosten aq
nq
Abb. 2.14 Kosten und Nutzen als Funktionen der Besiedlungsdichte (nq)
-
Cfq = gfq(wq, rq, dq, tq, ...) + afq(nq), wobei die Argumente wq, rq, dq, tq, für die Inputpreise Arbeit,
Kapital und Land und für die Steuern stehen. Die ‚Clusterkosten’ afq(nq) sind konvex, anfangs
fallend – mit mehr Unternehmen fallen die Standortkosten z.B. bedingt durch Lernkosten - und
dann steigend, bedingt wiederum durch zunehmende Konkurrenz der Unternehmen um die
regionalen Ressourcen.
Die Profitabilität einer Region, also die Größe Nfq, macht die Anziehungskraft einer Region für neue
Unternehmensansiedlungen (und –erweiterungen) aus. Ein einfaches aus der Bilogie übernommenes
Modell ist das logistische,
n q ≡
dnq (t )
= rq (N q (t ) )nq (t )[K q − nq (t )]
dt
wobei nq die Anzahl der Unternehmen in der Region q beschreibt, rq ein regionspezischer Koeffizient ist,
der die Anziehungsgeschwindigkeit der Region beschreibt abhängig von der durchschnittlichen
Nettoprofitabilität zum Zeitpunkt t (wie bei Krugman), N q (t ) , und Kq die regionale Kapazität beschreibt.
Dies ergibt für ein konstantes r den bekannten S-förmigen Verlauf, der sich auch für ein nicht konstantes r
in etwa einstellt, wenn auch nicht so symmetrisch. Mit konstantem r ist auch der Bezug der logistischen
Beziehung zur Biologie, noch besser zur Epidemologie, offensichtlicher: Die Anzahl der Neuinfektionen,
n q , ist proportional zu den bereits Angesteckten, nq, wobei aber die Übertragung auf die noch
Nichtangesteckten beschränkt ist.
Nq(t)
Kq
goldenes
Zeitalter
Entdeckung
Reifung, Sättigung
Zeit (t)
Abb. 2.15 Typischer Verlauf einer Clusterentwicklung
Franz Wirl: Industriebetriebslehre
96
Zusammenfassung (Maggioni, op. cit):
1. Clustering ist ein relevantes Phänomen, das nicht auf innovative Branchen beschränkt ist, die
aber eine überdurchschnittliche räumliche Konzentration aufweisen.
2. Gut ausgebildete Arbeitskräfte, starke innovative Stimmung und niedrige Unternehmenssteuern
werden von High-Tech-Unternehmen bei der Wahl der Standorte favorisiert.
3. Skalenerträge überwiegen die Agglomerationseffekte.
4. Industrielle Spezialisierung und lokale Konkurrenz treiben das Wachstum von Clusters.
3.5.3
Regionale Clusters und Globalisierung
14
OPENED in 1845, the Cantoni cotton mill in Castellanza went on to become the country’s biggest but,
burdened by debt, it closed in 1985. A large cluster of producers centred on the town, once called the
Manchester of Italy, also perished. In Como, about 20 miles (32km) to the north-east, a cluster of silk
firms is ailing, and so is a woollens cluster around Biella, 50 miles to the west, victims like Castellanza of
low-cost competition.
Michael Porter, a guru on clusters at Harvard Business School, has said they help productivity, boost
innovation and encourage new firms. For Mr Porter, firms’ geographical proximity, their close competition
with each other and the growth of specialised suppliers and production networks around them make a
winning combination. Globalisation has, however, made this far less certain. More open trade and
improved transport links may mean that bunching together in a cluster no longer offers such a strong
defence against cheaper foreign rivals. Indeed, as Italy’s medium-sized industrial firms adapt to the threat
from China, the benefit they get from being bunched together in a cluster seems to be weakening.
More than 100 such clusters speckle the boot of Italy: tiles in Sassuolo, food machinery in Parma, sofas
in Matera, footwear in Fermo and clothing in Treviso, to name just some. A few owe their existence to
local natural assets—marble is quarried in the mountains behind Carrara, for example. But mostly they
are the result of skills built up over successive generations. The packaging-machinery firms around
Bologna grew out of the region’s tradition of precision engineering, and the area around Belluno, where
the first ever spectacles factory was built in 1878, is still home to a cluster of eyewear makers.
San Maurizio d’Opaglio, midway between Castellanza and Biella, is the world’s largest centre for working
brass. Workers there once made bells; now the cluster has around 380 firms that together employ about
10,000 people making valves and taps, businesses that took off with reconstruction after the second
world war and the building boom that followed. About 19,000 are employed in small satellite firms
involved in parts of the production process.
Founded in 1951, now employing 850 people who make brass valves, connectors and manifolds and
turning over €165m ($218m) last year, Giacomini is a giant of the cluster. However, quality certification,
precision production and a catalogue of 6,000 products will not safeguard its future. “Germans saw us in
the 1950s and 1960s as we now see Chinese products—low quality, low cost. Long-term, brass fittings
are not enough. We cannot expect to survive on these,” admits Corrado Giacomini, the chairman. The
firm began diversifying into electronic controls and heating and air conditioning systems ten years ago,
and this move away from its traditional business means that its links to the cluster look increasingly less
relevant to its future.
Zucchetti, a tapmaker in the nearby town of Gozzano, has also changed strategy. As well as buying a
maker of luxury baths and basins, it has shifted production upmarket, with smaller production runs and a
larger product range. How Zucchetti performs in the future depends less on being in the cluster than
designing smart products and defending its brand. A recent report from Intesa Sanpaolo, a bank, notes
how competition is forcing firms to innovate, improve quality and build brands.
Firms in a jewellery cluster in Valenza, in southern Piedmont, hope to protect their businesses with help
from the regional authorities, the creation of a group trade mark and peer pressure to keep skills in the
cluster. Bruno Guarona, chairman of the jewellers’ association, moans about unfair competition from
China, where labour regulations are lax and firms enjoy tariffs and duties that undercut those his
members face. But he reserves special bitterness for jewellers from Valenza who have moved production
abroad, “traitors who have committed a crime”.
Indeed, fragmentation of production and outsourcing abroad, clear signs that firms have become less
competitive, weaken the networks on which clusters are built and may even destroy their competitive
advantage, warns Rodolfo Helg, an economics professor at the university in Castellanza, which occupies
the buildings that were once the town’s large cotton mill. He believes successful clusters in the future will
14
th
The Economist, Clusters flustered, 64-65, April 16 2011.
Franz Wirl: Industriebetriebslehre
97
be very different from those of the past. Britain’s large manufacturing clusters withered and died. The risk
for Italy is that the decline of its clusters will prove as terminal elsewhere as it was in Castellanza
3.6
Zur Praxis von Standorten: ‚Distanz’ ist noch immer bedeutend
Trotz der elektronischen Medien, der globalen Vernetzung und der Globalisierung stellen geographisch
Aspekte wie Distanz insbesondere ergänzt um andere Distanzaspekte wie Kultur, Verwaltung, und
Ökonomie eine große Barriere dar. Die folgende Darstellung basiert auf Pankaj Ghemawat, Distance Still
Matters, Harvard Business Review, September 2001.
So wurde 1991 Star TV lanciert, zwischen 1993 – 95 von Rupert Murdoch akquiriert und schien ein
sicherer Gewinner im medienarmen Asien. Ziel war es die Top 5% der Bevölkerung zu erreichen, die
vorwiegend Englisch verstehen mit dem besonderen Zuckerl die Schätze der 20th Century Fox zu
senden. Das Ziel wurde erreicht und Star TV machte 1999 einen Verlust von 141 Millionen $, 1996 –
1999 insgesamt von 500 Millionen $. Warum, weil die Eigentümer und Manager von der Größe des
Marktes so fasziniert waren, dass sie alles andere darum vergaßen, insbesondere das Risiko, das mit
Distanz verbunden ist.
Tabelle x zeigt wie sehr ökonomische aber vor allem geographische und kulturelle Aspekte den Handel
beeinflussen. Insbesondere beeindruckend und für viele überraschend sind die Beziehungen zu den
verhassten vormaligen Kolonialherren. Aus diesem Kontext heraus konstruiert Ghemawat sein CAGE Konzept, das die kulturelle, administrative, geographische und ökonomische Distanz berücksichtigt.
Typische Auswirkungen sind in der Tabelle 2. 7 dargestellt und Tabelle 2.7 zeigt die Sensitivität
unterschiedlicher Distanzen auf bestimmte Produkte aus.
Tabelle 2.6 Auswirkungen auf den Handel aus Pankaj Ghemawat (2001)
Insbesondere unterscheidet Ghemawat (2001) zwischen vier grundlegenden Dimensionen:
-
Kulturelle Attribute bestimmen wie Personen untereinander und mit Institutionen und
Unternehmen agieren. Unterschiede in Religion, Rasse, Sozialen Normen, Sprache können eine
veritable ‚Distanz’ zwischen zwei Ländern erzeugen.
-
Administrativ oder politische Distanz: Gemeinsame historische und politische Assoziation
zwischen Ländern hat einen großen Einfluss auf den Handel. Andererseits können gravierende
politische Unterschiede geographische Nähe und kulturelle Gemeinsamkeiten durch
Unterschiede im Politischen dominiert werden. Das klassische Beispiel dafür waren die
kommunistischen osteuropäischen Länder mit der DDR (zur BRD) als Extrembeispiel. Unter
diesen Punkt fällt auch, wie heimische Unternehmen gegenüber ausländischen Unternehmen
geschützt werden, insbesondere wenn das heimische Unternehmen viele beschäftigt oder als
nationaler Champion angesehen wird. Weitere Probleme ergeben sich, wenn die betroffene
Branche nationale Sicherheitsinteressen betrifft (oder nur vermeintlich betrifft), z.B. Energie, aber
auch jüngst im Falle von Arzneimittel (Südafrika, Brasilien haben Patente für AIDS-Medikamente
ignoriert, und die USA für Milzbranderreger zu Lasten der Patente von Beyer).
-
Geographisch
-
Ökonomisch: Wohlstand und Einkommen sind stark bestimmend, so handeln reiche Länder viel
mehr untereinander selbst bei großer geographischer Distanz im Vergleich zu nahen aber
signifikant ärmeren Nachbarn.
Beispiele für die jeweilige Dimension, als auch welche Dimension welche Industrie besonders betrifft sind
in der unten stehenden Abbildung ersichtlich.
Franz Wirl: Industriebetriebslehre
98
Tabelle 2.7 aus Pankaj Ghemawat (2001).
Aus diesem Grund wird vorgeschlagen die bekannte Länderportfolioanalyse um Distanzeinflüsse zu
korrigieren. Das folgende Beispiel oben basiert auf der Analyse einer amerikanischen Fast-Food-Kette
(Tricon Restaurants International, kurz TRI, die Pizza Hut, Taco Bell und KFC managt). Der obige Teil der
unten folgenden Abbildung stellt eine traditionelle Portfolio-Analyse dar (für Details siehe die
Erläuterungen in der Abb.). Die Fläche der Kreise beschreibt darin die Attraktivität der einzelnen Märkte.
Jedoch die Berücksichtigung der verschiedenen Distanzmaße ändert das Bild komplett. Dies wird
besonders ersichtlich im Falle von Mexiko. Mexiko ist bedingt durch die geringen Ausgaben für Fast Food
nach dieser traditionellen Analyse kein besonders interessanter Markt für TRI (Rang 16 von 20). Nach
Berücksichtigung and entsprechender Korrekturen puscht Mexiko nach oben (hinter Kanada). Wobei
nicht alle Größen positiv für Mexiko sind wie etwa die Sprache, die das ferne Großbritannien begünstigt.
Franz Wirl: Industriebetriebslehre
Abbildung 2.16 Pankaj Ghemawat (2001)
99
Franz Wirl: Industriebetriebslehre
100
The revenge of geography, Mar 13th 2003 , The Economist.
It was naive to imagine that the global reach of the internet would make geography irrelevant. Wireline and wireless
technologies have bound the virtual and physical worlds closer than ever
IN THE early days of the internet boom, there was much talk of the “death of distance”. The emergence of a global digital network, it
seemed, would put an end to mundane physical or geographical constraints. There was some truth in this. E-mail made it cheap and
easy to stay in constant touch with people, whether they lived around the corner or on the other side of the globe. Companies could
communicate with customers and employees no matter where they were. And like-minded individuals who shared a common
interest could get together online from all round the world.
Actually, geography is far from dead. Although it is often helpful to think of the internet as a parallel digital universe, or an
omnipresent “cloud”, its users live in the real world where limitations of geography still apply. And these limitations extend online.
Finding information relevant to a particular place, or the location associated with a specific piece of information, is not always easy.
This has caused a surge of innovation, as new technologies have developed to link places on the internet with places in the real
world—stitching together the supposedly separate virtual and physical worlds.
The first step in this process was to map the internet's physical infrastructure, and in particular the locations of the end-points on its
edges, where users are connected. A number of companies, including Quova, Digital Envoy, NetGeo and InfoSplit, offer
“geolocation services” that enable websites to determine the physical locations of individual users. This is done using a database
that links internet protocol (IP) addresses of users' computers to specific countries, cities or even postcodes. Groups of IP
addresses are assigned to particular universities, companies or other organisations, which often have known locations; providers of
internet access allocate specific IP addresses to customers in particular regions. When you visit a website that uses geolocation
technology, your IP address is relayed to the geolocation provider's server. It looks up where you are and passes the information
back to the website, which can then modify its content accordingly.
Once your location is known, existing demographic databases, which have been honed over the years to reveal what kinds of
people live where, can be brought into play. Targeted advertising is the most obvious application for geolocation, but it has many
other uses.
It can help, for example, to determine the right language in which to present a multilingual website. Or e-commerce vendors and
auction houses can use geolocation to prevent the sale of goods that are illegal in certain countries. Online casinos can stop users
from countries where online gambling has been outlawed from gaining access. Rights-management policies for music or video
broadcasts, which tend to be based on geographical markets, can also be enforced. The pharmaceutical and financial-services
industries, both of which are subject to strict national regulation, can be confident that, when offering goods and services for sale
online, they are staying within the law. So much for the borderless internet and the death of distance.
Geolocation finds the physical location corresponding to an internet address, but it can also be used to do the reverse: to find the
internet-access point nearest to a particular location. The necessity of doing this arises from the growing popularity of 802.11b or
Wi-Fi technology, which provides wireless internet access to suitably equipped laptops within 100 metres or so of a small basestation, or “hotspot”. Many of the thousands of hotspots around the world are deliberately made available to anybody who happens
to be passing. Others are run by operators who charge a fee for access in hotels, airports and other places. One operator, T-Mobile,
is installing Wi-Fi base-stations in thousands of Starbucks coffee shops in several countries.
But how can you determine if Wi-Fi coverage is available in a particular area—or, if not, the location of the nearest hotspot? A
number of websites, such as wifinder.com and 80211hotspots.com, have sprung up that act as global directories of Wi-Fi basestations. Type in a postcode or street address, and you can see where they are. In some cities, Wi-Fi enthusiasts have produced
maps showing hotspot locations.
This has been taken to its logical extreme by researchers at the University of Kansas (at www.ittc.ku.edu/wlan). First, they drive
around a particular neighbourhood with a laptop, looking for Wi-Fi coverage and monitoring the signal's strength. Next, this
information is combined with aerial photography of the neighbourhood, with colour-coding to show signal strength. The result is a
map showing how strongly the internet obtrudes into the real world.
A low-tech approach that achieves the same end is the concept of “war chalking”, a term coined by Matt Jones, a British designer.
He has proposed a set of symbols that can be scribbled on the pavement using chalk to signal the presence of a nearby hotspot.
Again, the idea is to show where the parallel worlds of reality and the internet touch. While the notion of war-chalking has gained
much attention in the media, however, hardly anybody actually does it.
Your nearest web page
Mapping internet infrastructure is just a start. Things get more interesting when you begin to establish links between real places and
virtual information. Imagine that you have a huge pile of documents. Keyword searching is one way to find what you are looking for.
But for geographical searches—say, finding all the pages relevant to a particular city—keywords are too blunt an instrument.
The ideal solution would be to embed a “geotag” or “geocode” in pages containing geographical content, to make geographical
queries possible. A number of methods have been put forward to add such geotags to pages automatically, based on analysis of
their content. Last year Google, the leading internet search engine, held a programming competition in which participants were
given a chunk of the Google archive and index to play with. The winner, Dan Egnor, wrote software that added geotags to pages
based on the analysis of postcode and address information, so that search results could be returned in order of geographical
proximity to a particular point.
Another approach is taken by MetaCarta, a company based in Vienna, Virginia, and financed by In-Q-Tel, the venture-capital arm of
the nearby Central Intelligence Agency. Its “geo-parser” software examines documents and looks for geographical references,
including country, city and state names, postcodes, internet addresses, and the names of famous landmarks. These are looked up
in a gazetteer, a place-name dictionary with over 10m entries, which knows, for example, that the Statue of Liberty is in New York.
The results are then combined using natural-language processing rules derived from a corpus of 50m documents. If the word “Paris”
appears near the word “France”, for example, then the document is more likely to be about the Paris in France than the Paris in
Texas. Using a combination of many such rules, the system determines the document's corresponding location, and applies a
geotag to it. Around 80% of text documents contain geographical references, says MetaCarta's Randy Ridley.
Geotagged documents can be used in a number of ways. One approach is simply to plot a selection of documents on a map.
MetaCarta's clients include intelligence agencies, and the potential for such a system in anti-terrorism is obvious. Documents from a
computer confiscated from a suspected terrorist can be analysed and plotted on a map, to see where they cluster. The same
technology also has applications in local law enforcement, insurance and the oil industry, all of which generate large amounts of
Franz Wirl: Industriebetriebslehre
101
place-specific information. And it can be applied to web pages, once they have been geotagged. Type in a search term, and you
can then see how the resulting pages are distributed geographically.
A different approach to the generation of geotags is taken by Junyan Ding and Luis Gravano of Columbia University in New York.
Their “Geosearch” search engine determines the geographical scope of a page by looking at the locations of pages that link to it, as
well as its content. The New York Times, for example, is a newspaper that covers global issues, and is thus relevant to the whole
world; this is reflected in the fact that websites all over the world link to the New York Times. Websites relevant to a particular state,
city or region, on the other hand, are less likely to have links from pages outside that locality. The researchers specifically looked at
links to target pages from American educational sites—those with internet addresses ending “.edu”—since their location can usually
be determined precisely.
However, there is a limit to how far such retrospective geotagging techniques can go, notes Martin Dodge, an analyst of
cybergeography at University College London, who is co-author of the “Atlas of Cyberspace”. The problem, he points out, is that
whereas most countries have some form of postal code, there is no global standard. But the usefulness of a search engine able to
classify results by geographical proximity to a specific place is clear. You could use it to find a nearby plumber, or a hotel near a
landmark you plan to visit. The best approach would be to have a global standard for geotags, and to get the authors of web pages
to include them automatically.
Several such standards have been proposed. The OpenGIS consortium, for example, is made up of 230 companies, including the
world's main hardware and software vendors, industrial giants, and specialists in geographical information systems (GIS), all of
which are backing a common standard to “geo-enable” the web and wireless devices. The idea is to provide a lingua franca, so that
geographically tagged data of all kinds, from satellite photos to customer lists, can be easily combined and analysed.
Another initiative is GeoWeb, part of the Digital Earth research project at SRI, a non-profit research institute in Menlo Park,
California. Its aim is to make it as easy as possible to find information on the web associated with a specific location, but in a way
that can be scaled up indefinitely as more and more information is geotagged. It does this by sitting on top of the internet's domainname system, a hierarchical look-up arrangement that translates domain names (such as economist.com) into internet addresses
(such as 170.224.17.153). Similarly, GeoWeb is a hierarchical look-up system that maps latitude and longitude co-ordinates on to
relevant pages that can also be filtered by other criteria. Co-ordinates can be typed into a browser as a special kind of internet
address, ending in “.geo”. However, SRI's proposal for a special .geo domain has yet to be approved.
Web of neighbours
In the meantime, a number of websites are providing geographically specific look-ups and searches. Geourl.org is a website that
maps locations on to web addresses, so that websites “near” a particular place can easily be found. So far, it is mainly being used
by web-loggers, or “bloggers” (people who maintain diary-style personal websites, or “blogs”) to anchor their blogs in the real world,
and identify other bloggers nearby. Blogmapper.com goes further, providing the tools to create “geoblogs” that are organised by
geography, rather than by date.
Upmystreet.com is a clever British website which, given a postcode, can tell you about local house prices, crime rates, schools,
tradesmen, public transport and government services. Discussion boards were recently added to the site, with a search function that
makes it possible to see discussions taking place near a given location. The site even calculates how “far away” each discussion is.
The result might be termed “geochat”.
Links between web pages and particular locations are central to “geocaching”, a high-tech form of orienteering that involves using a
global-positioning system (GPS) handset to find a hidden cache of items at a location specified on a web page. The custom is to
take one item (a toy dinosaur, say) from the cache and replace it with another, and then return to the web page corresponding to the
geocache and leave a message to announce that you have found it. Geocaching.com calls this “the sport where you are the search
engine”; you access the internet, and then you find the corresponding physical location. The result is a powerful sense of the
internet overlaying the real world; or, conversely, a sense that the world is a three-dimensional aspect of the internet.
An even more dramatic example of digital content that is relevant only in a specific location is geoencryption, an idea championed
by Dorothy Denning of Georgetown University in a research paper published in 1996, subtitled “Grounding cyberspace for better
security”. Geoencryption encodes a stream of data in such a way that it is only intelligible to somebody in a specific location; the
output from a GPS device is used to unscramble the data. This idea could be used, for example, to distribute movies in such a way
that they can only be unscrambled by people in particular places—in other words, your location is your password. GeoCodex, a
start-up based in Arlington, Virginia, is now commercialising this idea. As well as safeguarding entertainment broadcasts, the
technology has military applications, says Dr Denning.
The greatest potential for linking the virtual and physical worlds, however, is on mobile devices that can access the corresponding
region of cyberspace from anywhere in real space. Using your location as a search term, you can then reach directly from one world
to the other. The mobile-telecoms industry calls this “location-based services”. So far, the services available in most countries are
not particularly exciting. Provided everything works as planned, which is not always the case, you will be able to use a mobile phone
to locate the nearest petrol station, cash dispenser or Italian restaurant.
Much of the time, however, the usefulness of such services is limited by the lack of an accurate positioning system. There are
various ways to determine the position of a mobile handset. The crudest is simply to look at which cell of the cellular network it is in.
That narrows down the location to within a few hundred metres, at least within cities, where cells are generally quite small. Some
improvement is possible by triangulation—determining the handset's distance from base-stations in multiple cells, by measuring the
signal's strength. Another approach is to ask the user to enter a postcode or phone number corresponding to his location, but that is
clunky.
On the face of it, the ideal solution would be a GPS receiver built into the handset. But GPS reception in cities with tall buildings can
be patchy. Hence the hybrid approach being taken by Qualcomm, an American wireless firm, with its “gpsOne” technology, which
combines a GPS receiver with ranging information from local base-stations. The result is accurate enough to determine the latitude
and longitude of a mobile handset, and even its altitude, to within a few metres.
Where are your friends?
This kind of accuracy changes the game completely. Handsets equipped with gpsOne, over 10m of which are now in use worldwide,
in countries including South Korea, Japan and America, can be used to send street maps and detailed directions to pedestrians,
taking into account the possibility that they might be on a walkway or a footbridge above a road. According to Tom Wrappe of
SnapTrack, Qualcomm's location-based services subsidiary, “friend finder” services are also popular in Japan. Registered users of
such services can specify “geo-fencing” limits and be alerted when somebody they know comes into range.
Franz Wirl: Industriebetriebslehre
102
Handsets also allow users to “geomark” a location, and then send details to other people, who can then use their handsets'
positioning capabilities to go to exactly the spot. This has social uses (such as marking a picnic place or a meeting place at a music
festival), but it may also be used in business. A manager on, say, a construction site can send a message to indicate where a
consignment of building materials ought to be delivered. Built-in digital cameras are also becoming increasingly common in
Japanese and Korean handsets, and they can send geomarked photographs, too. There are also some rather more culturally
specific functions: one Japanese service enables users to locate haunted places; another sends sarcastic messages if you stay too
late in the office on Friday evening.
Unlike internet-based systems, however, wireless networks are tightly controlled by their operators, so there is much less scope for
bottom-up innovation by users. The internet is an open platform, but it lacks ubiquitous wireless coverage and proper positioning
technology. Only when openness, ubiquity and GPS-grade positioning are available in the same handset will it be possible to realise
the true potential of location-based services. This may happen fairly soon, as Java-enabled handsets proliferate, and other internet
technologies cross over from computers to phones. In the meantime, a few examples show the kind of things that might be possible.
Many interesting possibilities are opened up by “user-generated location-specific content”—a fancy phrase for digital wireless
graffiti. An early example of this, says John Cunningham of SnapTrack, is a Japanese restaurant-review service that allows reviews
contributed by previous customers to be called up by somebody outside the restaurant who is wondering whether to eat there. In
effect, previous customers leave their comments floating in the air around the restaurant, where they can be read by anybody with
the right handset.
This concept has been generalised by a number of wireless-software firms into the idea of digital graffiti—messages that can be
posted using a handset, and which correspond to a particular location. Generally, there are two kinds of graffiti supported by such
systems: public (which can be read by anybody) and private (which can be read only by associates of the person who posted the
message). Just because this kind of thing is technologically possible, however, does not mean that anybody is actually doing it yet.
There are also versions of this idea that work within Wi-Fi hotspots, such as the GeoNotes system devised by Per Persson of the
Swedish Institute of Computer Science. But Wi-Fi is best suited to laptops: it uses up too much power for use in handheld
computers or mobile phones—and laptops are hardly ideal things to lug around the streets.
Ultimately, the logical conclusion of wireless graffiti systems would be the ability to attach information to any object or place on earth
with an accuracy of a metre or less. This has been dubbed the “WorldBoard” by Jim Spohrer, a researcher at IBM's Almaden
Research Centre in San Jose, California. He had the idea while hiking, when he saw an unusual sort of plant, and wished he could
look it up on the internet; he then realised that other passers-by might also want to know the same thing, and wished he could
somehow stick the information on to the plant, like a virtual Post-It note. “A WorldBoard is in some sense bigger than the world wide
web,” he says, “because it allows cyberspace (the digital world of bits) to overlay and register with real space (the physical world of
atoms).”
As well as making it possible to scribble virtually anywhere, linking the real and virtual worlds through mobile devices could also
change users' perception of their surroundings, says Jason Devitt of Vindigo, a company based in New York that provides locationbased services on both handheld computers and mobile phones. “You should be able to stand on a street corner and find out
everything that's going on around you,” he says. “In the grandest sense, I think these devices are capable of extending your
senses.” Instead of just looking along the street at what is visible, he suggests, “it should be possible to know and see everything
that people make available to you.”
Several applications spring to mind. While wandering through an attractive neighbourhood, you might ask your mobile device about
apartments for rent nearby, the crime rate, local amenities, and so on. After all, websites such as Upmystreet.com have put together
most of this information already. This kind of thing, says Mr Devitt, “could change the way people relate to each other and their
environment.” If people start using mobile devices to find shops or restaurants, then prime real-estate on the high street would no
longer be so valuable. Having an eye-catching sign might matter less than being listed in the right wireless databases and yellowpages services.
The potential for mobile devices to transform the urban environment is of particular interest to Anthony Townsend, an urban planner
at the Taub Urban Research Centre at New York University. Good location-based services, he believes, will be integrated with
architecture and urban design. However, the technologies to determine location, extract relevant information and deliver it via a
wireless connection are only just starting to come together, and so far in rather primitive ways. Mr Townsend draws an unfavourable
comparison with the early days of the web.
Even so, devising a website “was a relatively easy design challenge compared with this.” And whereas web designers could build on
established metaphors of human-computer interaction (HCI)—windows, icons, and so on—designers of location-based services
face a more complex challenge. The HCI people are good at the human-machine interface, he points out, and the architects at the
human-environment interface. “But nobody is good at human-machine-environment interfaces.” The best examples at the moment
are in-car navigation systems, he notes, and they have taken 20 years to develop.
Undaunted, Mr Townsend is acting as an adviser, together with a group of academics from the Massachusetts Institute of
Technology, to a South Korean project to build a “digital media city” on the outskirts of Seoul. South Korea is one of the world's most
advanced countries when it comes to mobile phones, and the world leader in broadband adoption. An important aspect of the
project is to try to imagine what kind of location-based services (and other wireless services) will be appropriate in a high-tech city
20 years from now. “It has given me an appreciation for how slowly this is going to unfold, and how slowly killer applications will
evolve,” says Mr Townsend.
It is thus early days for technologies that link the physical and virtual worlds. Location-finding technology must become more
ubiquitous, and common standards are needed, if the “real-world” internet is not to fragment into multiple separate overlays on
reality. What is striking, however, is that, even in the absence of mature technologies or standards, an enormous amount of
innovation, experimentation and reinvention is going on—exactly the opposite of what you would expect to be happening if the
internet was really just a placeless cloud. Geography matters online after all; it has certainly not been killed by the internet. In fact,
the two seem to be getting along rather well.
3.7
Vergleiche internationaler Produktivität
Zum Abschluss werden Unterschiede in der Produktivität basierend auf zwei Studien beleuchtet.
Zuerst Martin Neil Baily und Robert M. Solow, International Productivity Comparisons Built from the Firm
Level, Journal of Economic Perspectives, 15/3, 151-172, 2001. Diese Studie versuchte von unten herauf
(d.h. von Firmendaten ausgehend und unter Verwendung von Konsulentenwissen) internationale
Franz Wirl: Industriebetriebslehre
103
Produktivitätsunterschiede zu quantifizieren und diese Ergebnisse sind konsistent mit aggregrierten topdown Ansätzen.
Die Tabelle 2. 8 gibt die aggregierten Produktivitätszahlen, die folgenden Tabellen die disaggregierten
Werte, die dieser Studie zugrunde liegen und auf Information von McKinsey zurückgehen.
Tabelle 2.8 (Quelle: International Comparisons of Productivity - 2010 – Final Estimates, Office of
National Statistics UK)
Tabelle 2.9 (Quelle: Economist)
Franz Wirl: Industriebetriebslehre
104
Tabelle 2.10
Erklärungen für diese Unterschiede sind:
-
Unterschiede der Produktionsprozesse, z.B. lean manufacturing in Japan.
-
Externe Faktoren
-
Industriedynamik
Wichtige Ergebnisse
•
Politik hat Auswirkungen auf die Produktivität insbesondere betreffend der Konkurrenz, dem
Ausmaß öffentlicher Regulierung, die Regeln der Gouvernanz von AGs.
•
Insbesondere starke lokale Konkurrenz von Unternehmen, die ‚best business practice’ anwenden
erhöht die Produktivität (man ist geneigt zu sagen zwangsläufig).
•
Einige Regulierungen – etwa hinsichtlich Umwelt und Arbeitsschutz können sich auch positiv
auswirken (bekannte These von Porter in Hinsicht auf Umwelt).
Die zweite Studie ist, Michael E. Porter, Klaus Schwab, Xavier Sala-i-Martin and Augusto Lopez-Carlos,
The Global Competitiveness Report 2003 – 2004, World Economic Forum.
Executive Summary AUGUSTO LOPEZ-CLAROS, World Economic Forum
For well over two decades the World Economic Forum has been trying to shed light on the question of why some
countries are able to grow on a sustained basis for prolonged periods of time, in the process pulling large segments
of the population out of poverty, while others remain stagnant or, worse, actually see an erosion of living standards.
Through its flagship publication, The Global Competitiveness Report, the World Economic Forum has led the way
in assessing the competitiveness of nations.
The Forum may be in a singularly advantageous position, for at least two reasons, to contribute meaningfully to the
debate on the key building blocks of successful economic development and improved competitiveness. First, it
brings key representatives from the private sector and the corporate world together with a broad spectrum of senior
policymakers in government, creating opportunities for the thoughtful exchange of ideas and experiences on best
practices. This exchange may be an important catalyst in identifying the most critical factors in the development
process. The role of corruption in delaying the development process, the central importance of women’s education
for boosting per capita incomes, the interplay between political and civil rights and the willingness of the public to
engage in economic activity, the role of a free press, and the type of safety net arrangements that governments put in
place to enhance the ability of economic agents to participate in the life of the nation, are but some of the topics that
have been at the centre of the agenda in many of the summits and other interactions organized by the World
Economic Forum.
Second, the Forum has developed a vehicle, the Executive Opinion Survey (EOS), which annually conveys a wealth
of information about the obstacles to growth in more than 100 countries, accounting for the lion’s share of global
GNP. Through the Survey, business executives in these countries assess the importance of a broad range of factors
Franz Wirl: Industriebetriebslehre
105
central to creating a healthy business environment in support of successful and productive economic activity. The
tax and regulatory environment, labor market legislation, the overall macroeconomic environment, the prevalence of
corruption and other irregular practices in the economy at large, the quality of the country’s infrastructure and
education are but a few of the areas covered by the EOS. Over the years, the Survey has continued to deliver a
treasure trove of information about both country- specific strengths and weaknesses, and the challenges faced by the
business community. On the basis of the information provided by the EOS, the Country Profiles prepared by the
Forum offer extremely valuable information for policymakers, aid agencies and others, working to improve
economic performance and the quality of people’s lives.
The methodology used by the Forum to assess national competitiveness has evolved over time, taking into account
the latest thinking on the factors driving competitiveness and growth. The Forum first introduced the Growth
Competitiveness Index (GCI) three years ago, in collaboration with Professors Jeffrey Sachs and John McArthur, in
the Global Competitiveness Report 2001–2002.The GCI aims specifically to gauge the ability of the world’s
economies to achieve sustained economic growth over the medium to long term. It primarily assesses the impact of
those factors that economic theory and the accumulated experience of policymakers in a broad range of countries
have shown to be critical for growth, whether narrowly focused on elements of the macroeconomic environment or,
reflecting the latest insights in the economics literature, institutional and other factors.
Professor Michael Porter’s Business Competitiveness Index, presented in Chapter 1.2 in this volume, is an especially
useful complement to the GCI, with its special emphasis on a range of company-specific factors conducive to
improved efficiency and productivity at the micro level.
The Growth Competitiveness Index
The GCI is composed of three “pillars,” all of which are widely accepted as being critical to economic growth: the
quality of the macroeconomic environment, the state of a country’s public institutions, and, given the increasing
importance of technology in the development process, a country’s technological readiness. Using a combination of
publicly available hard data, and information provided in the Forum’s Executive Opinion Survey—which provides
more textured qualitative information on difficult-to measure concepts—these three pillars are brought together in
the three indexes of the GCI: the macroeconomic environment index, the public institutions index, and the
technology index.
Sachs and McArthur strongly emphasized that the role of technology in the growth process differs for countries,
depending on their particular stage of development. It is widely understood that technological innovation is
relatively more important for growth in countries close to the technological frontier. Innovation will be key in
Sweden, but the adoption of foreign technologies, or the kind of technology transfer frequently associated with
foreign direct investment will be relatively more important in a country such as the Czech Republic. For this reason,
in estimating the GCI, economies are separated into two groups: the core economies, i.e. those for which
technological innovation is critical for growth, and non-core economies, i.e. those which can still grow by adopting
technologies developed abroad.
The critical importance of technological innovation for core economies is taken into account in the technology
index. Specifically, more weight is given to innovation, by means of the innovation subindex, for the core
economies, than for the non-core. To make a further distinction, an additional measure is used of the ability of noncore economies to adopt technology from abroad: the technology transfer subindex. Finally, since the determinants
of economic competitiveness vary for core and non-core economies, the weighting of the three indexes in the overall
GCI differs between the two groups. For the non-core economies, more weight is given to the quality of institutions
and the macroeconomic environment, since these countries can still make progress in achieving higher growth by
getting their fundamentals in order.
On the other hand, for the core economies that are closer to the technological frontier, more weight is placed on
technology. It is, of course, important for these countries to have a sound macroeconomic environment and strong
institutions, but these economies will typically have long ago entered a period characterized by “institutional
stability.” For these countries to continue to grow they must innovate. This is why more weight is placed, for the
core innovators, on technology, than on the other two pillars. Chapter 1.1, by Jennifer Blanke and Augusto LopezClaros provides specific details on the composition and construction of the GCI, which this year covers a total of
104 countries.
The Competitiveness Rankings for 2004
Table 1 presents the rankings from this year’s GCI. For the third time during the last four years Finland tops the
rankings. The country is extremely well managed at the macroeconomic level, and scores very high in those
measures which assess the quality of its public institutions. Moreover, Finland has very low levels of corruption and
its firms operate in a legal environment in which there is widespread respect for contracts and the rule of law.
Finland’s private sector shows a proclivity for adopting new technologies, and nurtures a culture of innovation.
Especially noteworthy is the fact that, for several years, Finland has been running budget surpluses, in anticipation
of future claims on the budget associated with the aging of its population. The United States is ranked second, with
overall technological supremacy, and especially high scores for such indicators as companies’ spending on R&D,
Franz Wirl: Industriebetriebslehre
106
the creativity of its scientific community, personal computer and internet penetration rates. However, these are
partly offset by a weaker performance in those areas which capture the quality of the macroeconomic environment
and its public institutions.
As compared to the results of 2003, nine out of ten of the top performers remain in this category. Among these
leaders, the largest improvement has been registered by Norway, which has moved up from ninth to sixth place
since 2003. Norway improved in all three areas of the Index, most particularly with regard to its public institutions,
driven by a much better score in the area of contracts and law. Indeed, the Nordic countries all occupy privileged
positions in the GCI ranking.
The GCI does a reasonably good job not only of ranking countries vis-à-vis each other, but also of tracking shifts in
rank over time. This is perhaps not surprising in the case of the macroeconomic environment index, which is made
up overwhelmingly of hard data variables— Norway, Estonia, and New Zealand get credit for running budget
surpluses, while Turkey, India, and Japan are penalized for running large deficits—but applies to other components
of the GCI as well.
Those countries showing the largest drops in rankings in 2004—Bolivia, the Dominican Republic, Pakistan, Peru,
Philippines, Poland, Vietnam, to name some—are all countries that have witnessed significant deteriorations in one
or more areas tracked by the Index. Others, such as Venezuela and Zimbabwe, already low last year, have dropped
even further. Indeed, all of these countries have been prominent in the pages of the international press. Highly
visible instances of official corruption, a crackdown on press freedoms and other civil liberties which contribute to
capital outflows and harden the mood of the business community, political instability linked to domestic infighting
in some cases leading to civil unrest, a weakening in the rule of law have, to a greater or lesser degree, been
prominent in some of the above cases.
The reverse is also true: countries may move up in the rankings, when they show not only improvements in the
macroeconomic environment—e.g. Argentina in 2003, following the country’s harrowing experiences the previous
year—but some other factors, directly or indirectly reflected in those variables tracked by the index. We are not
puzzled by the significant improvement in the rankings of Bulgaria and Romania, for instance. These countries have
an appointment to keep with the EU in 2007, and are gradually gearing up to meet EU accession criteria. In Latin
America, we note that Chile improved its performance significantly, moving up from 28th to 22nd place in the overall
rankings. Chile not only has the highest ranking in Latin America, but the gap with respect to its nearest rival
(Mexico) is a full 26 places; there is no other continent in the world where we can observe this symbolic “migration”
from the region, in terms of performance. Chile’s case is featured separately in Chapter 2.3 of this Report.
In Asia, the rankings are quite stable, with some small improvements—notably Indonesia and, more significantly,
Japan, the latter by two places—and some small drops in the rankings, as with Malaysia and Thailand. There are two
countries in the region, which stand out for their significant drop in the rankings: Korea and Vietnam, the latter
noted above. Korea’s drop is linked to a significant decline in the macroeconomic environment subindex, falling
from 23rd last year to 35th this year; moreover, Korea also experienced declines in the other two areas measured by
the GCI. Vietnam’s decline is linked to significant drops in all three areas, particularly with regard to public
institutions and technology.
Countries in sub-Saharan Africa continue to hold places primarily at the bottom of the rankings, with a few bright
exceptions. South Africa improved its performance somewhat, continuing to lead the region in competitiveness,
with an overall rank of 41, incidentally, well ahead of all countries in Latin America, except Chile. Likewise, while
it did slip somewhat in the rankings, Botswana continues to outperform most of the other sub-Saharan African
countries, with a relatively strong performance, particularly in its public institutions, and a relatively healthy
macroeconomic environment. Still, three of the five bottom-ranked countries are from this region, including Angola
and Chad, which take the last two places in the ranking. It is clear that much work remains to be done to improve
competitiveness in Africa. Table 2 provides more detailed information on the components of each of the three
subindexes of the GCI for all 104 countries in 2004.
The Business Competitiveness Index
The Business Competitiveness Index (BCI) is a complement to the medium-term, macroeconomic approach of the
Growth Competitiveness Index. It evaluates the underlying microeconomic conditions defining the current
sustainable level of productivity in each of the countries covered, the underlying concept being that, while
macroeconomic and institutional factors are critical for national competitiveness, these are necessary but not
sufficient factors for creating wealth. Wealth is actually created at the microeconomic level by the companies
operating in each economy. The BCI evaluates two specific areas, critical to the business environment in each
country: the sophistication of the operating practices and strategies of companies, and the quality of the
microeconomic business environment in which a nation’s companies compete. The idea is that, without these
microeconomic capabilities, macroeconomic and institutional reforms will not bear full fruit.
This year’s BCI rankings are shown in Table 3.The first column shows the overall rankings, while the second and
third columns show the two interrelated subindexes: company operations and strategy, and the quality of the
national business environment.
Franz Wirl: Industriebetriebslehre
107
The table shows that the United States has taken over the leading position from Finland, after dropping to second
place last year. The United States benefited from improvements in the sophistication of marketing, the availability of
venture capital, the intensity of local competition, local supplier quality, and local supplier quantity. Other advanced
economies improving their rankings include Hong Kong, by reflecting more sophisticated financial markets and
improvements in management practices, Japan, by improving financial market sophistication and improving quality
of administrative services, and Portugal, by improving cluster strength. Japan registered the highest absolute
improvement of its BCI score, followed by Hong Kong and Norway.
Advanced countries, which dropped in the rankings include Italy, Malta, and Iceland. Italy dropped by a
disappointing nine ranks, almost entirely driven by a deteriorating business environment, now evaluated on a par
with that of Portugal and the Czech Republic. Italy deteriorated especially in areas related to innovative capacity,
such as university-industry research collaboration, foreign technology licensing, government procurement of
advanced technology, company R&D spending, and venture capital availability.
Middle-income nations improving their business competitiveness rankings this year include Romania, Lithuania, the
Slovak Republic, Russia, Namibia, and the Ukraine. Romania jumped by a remarkable 22 ranks, driven by strong
across-the-board improvements, especially in the area of company sophistication. Romania’s improvement comes
after repeated slippage in the ranking since the country became part of The Global Competitiveness Report in 2001.
Middle-income countries which have experienced a fall in ranking include Latvia, the Dominican Republic, Poland,
and Mauritius. Other countries with significant absolute drops in BCI scores include Thailand and Mexico. Latvia
has moved back to a level consistent with its longer-term trajectory; last year’s strong improvement proved to be
unsustainable optimism. The Dominican Republic, down 13 places, continues the trend set by a large drop last year,
driven particularly by a decline in openness to imports, and in the sophistication of its financial market.
Among low-income countries, Indonesia made the greatest improvement, jumping a remarkable 18 ranks. After
years of turmoil, the country is now back to its 2000 business competitiveness level. While improvements were
registered in areas across the board, they were strongest in measures of company sophistication. Another lowincome country with large improvements is India, up 8 ranks, showing the benefits of increased company
sophistication and strengthened clusters. Vietnam slipped significantly, down 23 places, after a number of years of
steady improvement. Conditions worsened most in areas related to technology and government administration.
As explained above, the GCI and the BCI measure complementary dimensions of competitiveness. Figure 1
compares the two rankings for 2004, revealing their high correlation.
A look ahead—the new Global Competitiveness Index
Over the last several years the Growth Competitiveness Index has been a useful tool in thinking about key
macroeconomic and institutional elements, critical to the growth process. The present rankings continue to provide
policymakers, businesses and organizations of civil society with valuable insights into areas where further progress
is called for, in order to improve the environment for private sector economic activity, and generate sustainable
growth.
The considerable utility of the GCI notwithstanding, the vertiginous pace of change of the global economy has
brought into sharper focus the increasing role played by a number of other factors in enhancing the ability of
countries to grow. The swift pace of innovation in information and communications technology, and the
concomitant fall in the costs of communication is leading to an acceleration in the pace of integration of the world
economy. The increasingly global perspective of businesses in formulating their strategies and decision making—
already manifesting a global reach in the search for new markets and sources of supply—has now extended to the
location of production, and resulted in the increasing internationalization of the labor force of the typical
multinational corporation. Innovations in transportation, which have reduced the cost of freight, mean that location
is less of a factor than in the past, and businesses are now looking for the right combination of labor costs—coupled,
ideally, with flexible labor markets—skills, infrastructure, and the support provided by a good macroeconomic and
institutional environment to reduce production costs.
Against the backdrop of these changes, countries are being forced to be increasingly creative, in order to maintain
their competitive edge. The role of multi-country alliances in bringing together better combinations of capital, labor,
skills and regulatory frameworks for particular projects is becoming more important. Countries with the nimbleness
demanded for such cross-border arrangements are reaping the benefits of higher economic growth rates and
improvements in living standards. Countries which are not allocating sufficient resources to improve the quality of
their educational systems or to address major public health concerns, or which are otherwise engulfed in internal
conflicts and instability, are rapidly falling behind. The net effect of these trends is the growing complexity in the
economic, social and political underpinnings of the environment faced by policymakers and business leaders
everywhere. This is not only putting enormous stress on the institutions that sustain and support the global economy,
but is also changing our understanding of what are emerging as the key factors determining a country’s growth
performance.
To address some of these challenges, we have been working with Xavier Sala-i-Martin and Elsa Artadi to develop a
more comprehensive competitiveness index. Reflecting the need to broaden our scope and look at a larger set of
Franz Wirl: Industriebetriebslehre
108
factors, the new index will bring into focus a much richer set of pillars: human capital, labor and financial markets
efficiency, openness and market size, quality of infrastructure, to name a few of the new ones being incorporated; in
this spirit, it will be called the Global Competitiveness Index. Chapter 1.3 of this Report is an excellent presentation
of the work that has been done to date. 2004 therefore constitutes a transition year between the presentation of two
indexes, the GCI and the BCI, and the subsequent consolidation of the World Economic Forum’s competitiveness
work into a single index—the Global Competitiveness Index.
Selected issues of competitiveness and special topics
This year’s Report contains a number of studies which address different aspects of competitiveness and, more
generally, themes which emanate from the World Economic Forum’s deep concern with growth and development
and the state of the world. Some of these studies draw directly from the Executive Opinion Survey for their analysis
and insight. Others are concerned with a broader set of issues at the heart of the development agenda. All are
business relevant, and highlight a range of issues which are variously shaping the global economic and business
environment.
Selected issues of competitiveness
Daniel Kaufmann’s “Corruption, Governance and Security: Challenges for the Rich Countries and the World” is an
important addition to the literature in an increasingly important field. Traditionally, governance and corruption
challenges have been seen as especially daunting in poorer countries, with the richer ones viewed as good examples,
with their relative law and order, and well developed institutions. Others might view them as public sector problems,
divorced from global governance or security issues. Using an empirical approach, based on this year’s EOS,
Kaufmann challenges these notions, and shows us a more complex reality, revealing more subtle, yet costly
manifestations of misgovernance, afflicting not only poor, but rich countries as well. The traditional definition of
corruption as the commission of an illegal act, such as outright bribery, is here broadened to include new measures
of “legal corruption,” seen as the collusion of at least two parties, typically from the public and private sectors, and
where the rules of the game, laws and institutions are used, via influence peddling and even capture, to benefit
vested interests.
By analyzing the interaction between rich country transnationals and the public sectors in emerging countries,
Kaufmann finds that ethics and corruption pose a serious challenge for many rich countries, and that they represent
key determinants of a country’s competitiveness, shaping its investment climate. Kaufmann ends his chapter with an
insightful analysis of the governance data from the EOS, separating the issues of national governance and global and
domestic security, and challenging the notion that security issues—common crime, organized crime, money
laundering, and the threat of terrorism—are not subject to measurement. The evidence suggests that some rich
countries are faced not only with domestic challenges of undue influence, as regards many key public policies, laws
and regulations, but with a new set of security threats as well; even with their well-developed institutions, the G-7
and other rich countries must face the challenge of guaranteeing level playing fields and mitigating the cost of
terrorist threats.
In his paper “The Competitive Edge in Environmental Responsibility,” Arthur Dahl argues that the environment has
for too long been seen as an impediment to business, since environmental regulations have increased costs. A review
of global environmental problems reveals not only challenges and risks for the private sector that cannot be ignored,
but also opportunities for businesses that can work to their competitive advantage. Dahl highlights the significant
potential for business leadership in the field of environment and sustainable development at each stage of the
development process. By taking a positive, proactive view, the private sector can ensure supplies of raw materials,
increase efficiency, and generate new technologies to respond to these problems, thus opening up new markets,
reducing costs, and allowing more time for adaptation, with phased investments and reduced write-offs or special
charges.
The 2004 Executive Opinion Survey evaluates the views of business leaders on environmental and social
responsibility issues, and demonstrates both the importance of governmental leadership in providing an effective
regulatory climate, and the key role of business leadership in addressing environmental and social issues
proactively. In Dahl’s analysis, countries are rated not on their present environmental status, but on the efforts of
both business and government to improve that status, and to anticipate and address emerging problems. Nine
countries received high ratings, another 34 were positive on balance, while 24 showed progress in some areas, and
38 were making little or no effort to be environmentally responsible. Some emerging economies and developing
countries scored well, driven perhaps by dynamic business sectors and enlightened governments, while some
industrialized countries were ranked far below their peers, suggesting a need for greater efforts to remain
competitive. The results strongly suggest that combined efforts by business and government to facilitate corporate
social and environmental responsibility do, indeed, generate a competitive edge.
In “Chile: The Next Stage of Development,” Augusto Lopez-Claros notes that Chile has managed to grow faster
than many other countries in the developing world, boosting per capita incomes, and making further progress to
reduce poverty levels. It has done so against a backdrop of fiscal discipline and rapidly declining public debt levels,
while maintaining an admirably open trade and foreign investment regime, and improving to a remarkable degree
Franz Wirl: Industriebetriebslehre
109
the quality of its public institutions, which have played a stabilizing and pivotal role in the country’s recent
evolution. By a wide margin, Chile is the most competitive economy in Latin America.
The author identifies a number of areas where challenges remain, however, if Chile is to make a successful
transition to the next stage of its development. This phase will require a combination of comparative advantages and
the adoption of new technologies to facilitate the emergence of clusters, centered mainly on the natural resource
sectors and the upstream development of supporting industries with higher value added. Critical to this process of
development will also be a substantial upgrading in the quality of Chile’s educational system, which remains
surprisingly inefficient, given the country’s income levels. Lopez-Claros also raises the question of whether the
country—and in particular its political leadership—have reached the right balance, as regards the role of the state in
the economy. Without doubt, the country has benefited from a system that has built in a number of safeguards to
protect the public interest from the short-term interests of passing politicians, and from various forms of abuse. But
this approach may need to make room for a more active role for the state, as has been done in Finland, with regard
to the support for new ventures, aimed at enhancing the country’s potential for innovation.
Chile aside, in “The Future of Competitiveness- Enhancing Reforms in Latin America,” Mario Blejer argues that
despite a recent pickup in growth, the region continues to confront important challenges and faces serious struggles
ahead. The difficulties concern the uncertainty regarding the sustainability of macroeconomic recovery and, more
importantly, the capacity of the region to address long-term structural weaknesses. A significant problem in Latin
America is the incomplete nature of the reforms, evidenced by deficiencies in institutional development, and
reflected in the loss of competitiveness. Indeed, Latin America is falling behind, not only with respect to the
economies of East Asia but, more significantly, with respect to the transition economies of central and eastern
Europe.
In answer to the question what explains this worrisome trend, Blejer suggests that in most cases, reforms have
remained incomplete and their economic benefits have not been fully realized. Some of the successes in creating a
more stable macroeconomic environment have not been complemented by more broad-based “second generation”
reforms. He points out that any assessment of the current political and social realities in the region suggests that the
short term prospects for further implementation of market-oriented reforms would seem bleak. Reforms have not
had the anticipated effects on growth and employment and, against a groundswell of the anti-globalization
movement, the entire concept of structural reform—with the exception of Chile—has been systematically maligned
and discredited across Latin America. In such an environment, it is clear that there is a widespread lack of
enthusiasm for further reforms. In practice, the design and introduction of a realistic reform agenda would require
two key elements: compensation for those who are bound to be negatively affected from the process, and a better set
of international incentives for governments and countries willing to swim against the current of public opinion, and
take the necessary steps to improve their economy.
In “International Productivity Comparisons: the Importance of Hours of Work,” Andrew Warner challenges the
traditional measures of productivity, by highlighting the importance of hours worked. He demonstrates that while
growth of GDP or GDP per capita puts the United States clearly ahead of most industrial countries during the boom
years of the new economy (1995–2000), this supremacy is not quite so obvious when data on growth of GDP per
hour is used to quantify productivity growth. Warner also questions the common notion that productivity has
suffered a serious decline in Europe over the last decade. Using GDP per hour calculations, he shows the clear lead
of some European countries over the United States, and implies that the European “productivity slowdown” may be
more myth than reality, when we focus on per hour data.
Given uncertainties about the reliability and comparability of existing data on hours worked, as well as lack of
coverage of poorer countries, questions were introduced into the 2004 Executive Opinion Survey on the extent of
hours worked.
Warner uses this unique dataset to reveal interesting differences between the trends observed in industrial countries
and those in developing nations. Wage labor in low-income countries work particularly long hours, whereas in rich
countries as a whole, there is a trend for executive workers to put in more hours than hourly labor. Warner also uses
the Survey data to highlight differences in productivity barriers and to show how these vary across countries and
income levels. Four barriers to productivity are examined: labor practices, business regulations, labor skills, and
poor infrastructure. While the perception of labor practices and business regulations as barriers to productivity does
not appear to be directly related to income level, lack of skilled labor appears to be a hindrance in high-income
countries, while the lack of infrastructure is typically, but not surprisingly, perceived as a productivity barrier in
most low-income countries.
Special topics
By analyzing trends in population growth, per capita income, and the effects of the IT revolution, Richard Cooper,
in “A Glimpse of 2020,” offers an insightful perspective on what the world will look like two decades from now.
Cooper paints contrasting demographic scenarios for 2020: low-income countries will see rapid population increase,
placing heavy pressures on energy demand and urban infrastructure; rich countries will experience population
decline, and a much higher ratio of elderly to working age, severely taxing governments’ abilities to maintain the
high social benefits to which their citizens have grown accustomed.
Franz Wirl: Industriebetriebslehre
110
Dramatically decreased costs of communication will increase mobility, reduce economic and cultural differences
between the regions of the world, but increase international cooperation, not only in areas such as financial
regulation, tax and law enforcement and technology exchange, but also in the willingness of nations to intervene
where national governments have failed. Despite the natural attraction of familiar languages and social
environments, businesses are becoming “footloose,” increasingly driven by competition to outsource offshore, with
headquarters and production centers often situated at great distances from each other. NGOs as well as criminal
business and terrorism will become increasingly international in scope, and repressive governments will find it more
difficult to insulate their populations from access to information. Cooper points out that by 2020, while there is
bound to be uncertainty following the inevitable demise of current dictators, more “South Koreas” will arise, i.e.
developing countries which grow rapidly, democratize and join the ranks of the rich, forming new market
opportunities. Particular attention is paid to China, whose GDP by 2020 could make it the world’s third largest
economy, and where, although still poor, the high ratio of wage earners to dependents will enable the country to
become a major world player. Forecasting the future is hazardous business, but Cooper presents a cogent, businessrelevant, vision of 2020.
A number of challenges to the well-being of our societies—demographic, technological, climatological, and
geopolitical—are visible on the long-term horizon. In “Confronting Long-Term Fiscal Challenges: Why it Matters
for the Global Economy,” Peter Heller takes up an issue raised by Cooper in his own article, and perceptively
explains why some of these challenges are predictable, while others are vague and uncertain. Even when clearly
anticipated, uncertainty still surrounds developments whose horizon may be measured in decades. Some, such as
aging populations, pose a threat to the financial solvency of national governments, raising the prospect of vastly
increased future public outlays, whether for pensions, health care, long-term chronic care, infrastructure, or security.
Accentuating these fiscal risks is the fact that the future resources of governments are already precommitted to an
unprecedented extent. Not surprisingly, political economy factors work against efforts to address these challenges.
Heller contends that governments must do much more, now, to prepare for the fiscal consequences of the
developments that their countries face over the next several decades. The agenda for action will depend on the
country, on the preferences and capacities of its people and institutions, on the extent of its existing policy
commitments, and on the specific challenges it faces. Uncertainty does not absolve fiscal policymakers from the
burden of addressing long-term issues. What they do, or fail to do, will critically influence both the welfare of
current and future generations, and the role and capacity of the state itself. Delay in addressing these changes will
only increase their costs, some of which will be borne by those living today. What to do? Heller suggests that no
single policy reform will suffice to meet long-term challenges. Reform must proceed on many fronts, utilizing
additional analytic techniques, strengthening institutions to clarify and monitor evolving budget trends, introducing
detailed policy reforms, the sustained strengthening of the aggregate fiscal position, and working with other
countries on areas where collective action is required.
In a compelling contribution to this year’s Report, entitled “Agricultural Policies in OECD Countries: an Agenda for
Reform,” Stefan Tangermann makes a number of fundamental points, which cast refreshing light on a complex and
politically charged subject. To begin with, there is an apparent inconsistency between the rapidly declining
importance of agriculture among the 30 Member countries of the OECD—whether measured in terms of the sector’s
contribution to total GDP or total employment—and the considerable attention devoted to it in the public debate.
The resources transferred to farmers— an impressive US$257 billion in 2003, a full three quarters of which taking
the form of production-linked transfers—seriously distort markets and competition in international trade.
Tangermann shows that, despite longstanding discussions about the need for reforms, the level of support during
2001–2003 is only marginally lower than during the period 1986–1988. However, within the OECD as a whole,
there is considerable diversity across countries, with New Zealand and Australia having essentially eliminated farm
support as a result of comprehensive reforms, and others, such as Norway and Switzerland, still providing levels of
producer support more than twice the average in the EU, and hardly changed during the past 15 years.
Tangermann examines the reasons for these massive transfers to farmers. Their motivation stems from a desire to
address equity concerns in societies at large, and deal with market failures associated with the interaction between
agriculture and the environment. However, he provides compelling data to show that, in fact, incomes of farm
households in OECD countries are in line with, if not higher than, household incomes in the overall economy. Thus,
broad-based support measures such as price and output support are unnecessary. Worse still, only 25 cents out of
every dollar of support provided to farmers actually ends up in farmers’ pockets, with a large share of the rest going
to large landowners. As regards the environment, the harsh effects of overproduction on the quality of farmland and
wildlife are well known. Finally, the extra output generated by farm policies in OECD countries depresses prices for
farm products in international trade, and has been a contributing factor in the difficulties encountered in promoting
further multilateral trade liberalization. The author concludes this important paper with some specific suggestions
for reform.
In his paper “Can Foreign Aid Make Poor Countries Competitive?” William Easterly offers insightful answers to the
question why foreign aid has not been more successful at promoting competitiveness. In his review of the evidence
on foreign aid and economic growth, the effectiveness of aid conditionality, and the bureaucratic nature of aid
agencies, Easterly questions and then examines the results of the regression analysis published in 2000 by Craig
Franz Wirl: Industriebetriebslehre
111
Burnside and David Dollar, which investigated the relationship between foreign aid, economic policy and the
growth of per capita GDP. Because of its conclusion, viz. that aid only works in a good policy environment, this
study was widely cited by media, governments and aid agencies, as a basis for increasing foreign aid. By expanding
the dataset, extending the time line and using alternative definitions of “aid,”“policy,” and “growth,” Easterly comes
to some different and thought-provoking conclusions, to the effect that the interaction term of aid and good policy is
no longer statistically significant. Easterly also critically examines the “financing gap” approach to aid, by which it
is assumed that aid increases investment and investment increases economic growth, finding it both theoretically
questionable and empirically deficient, leading him to question why the international community has not held
agencies responsible for the failure of large flows of aid to generate growth.
After discussing the detailed findings, Easterly analyzes how aid agencies actually function, citing the excessive,
dysfunctional bureaucracy of agencies, the fact that they are answerable to the rich donors, rather than their
voiceless recipients, the assumption of capital projects without maintaining them, and the pernicious tendency to
overmeet, overextend and overstate. He saves particularly trenchant criticism for the failure of aid agencies, despite
the presence of obviously well-intentioned and capable minds, to understand the deeper implications of and truly
practice “grassroots” development. The result of this failure, he concludes, has been not only the continued presence
of unalleviated misery, but the loss of support for aid on the part of the rich countries most able to provide it. He
ends in a positive tone, pointing to a successful project in Ethiopia, by making a number of serious and realistic
proposals for aid agencies, governments and development practitioners, to assist them in revising expectations,
methods, and, hopefully, outcomes.
The Report ends with a section containing detailed country profiles for each of the 104 economies covered in our
competitiveness indexes, as well as data tables for the variables that are used as inputs in their construction. A brief
Annex, explaining how best to interpret the information contained in the country profiles and the data tables, is an
essential companion to this section, as are technical notes clarifying the meaning of many variables, and listing
relevant data sources.
Als Basis zum Vergleich und zur Abschätzung von Entwicklungen wird vor den folgenden und aktuellen
Tabellen zuerst das Ergebnis von 2001 nochmals präsentiert:
Internationaler Index an Konkurrenzfähigkeit
World Economic Forum, The Economist, Oct. 18th, 2001
5 Besten
5 Schlechtesten
Finnland
USA
Canada
Singapore
Australien
Bangladesh
Paraguay
Nicaragua
Nigeria
Zimbabwe
Franz Wirl: Industriebetriebslehre
112
Growth Competive Index 2012-2013 rankings and 2011-2012 comparison
Quelle: The Global Competitiveness Report 2012-2013, Klaus Schwab, World Economic Forum
Franz Wirl: Industriebetriebslehre
3.8
3.8.1
113
Fallbeispiele
Vergleich von Standorten von Organisationseinheiten in der Automobilindustrie in Japan
und in den USA
Obwohl der diesem Punkt zugrunde liegende Artikel: Jeffrey H. Dyer, Dedicated Assets: Japan’s
Manufacturing Edge, Harvard Business Review November-December 1994, S.174 nicht sehr alt ist,
entspricht er eigentlich nicht mehr der Aktualität, denn die darin vielgerühmte japanische Autoindustrie
hat, mit Ausnahme von Toyota, nicht mehr so einen großen Vorsprung. Daran erkennt man, dass
betriebswirtschaftliche Ergebnisse manchmal nur recht kurzlebig sind, und durch neuere Entwicklungen
widerlegt werden.
Franz Wirl: Industriebetriebslehre
114
Die These Dyers ist folgende: „Es ist bekannt, dass der Erfolg der japanischen Automobilhersteller zu
einem Großteil auf der engen Beziehung zu den Lieferanten besteht.“ Die erste Abbildung zeigt die
Durchschnittsdistanzen bei typischen Automobilherstellern und die damit verbundenen Lagerkosten
sowohl für den Produzenten selbst als auch für die Lieferanten. Beispielsweise differieren die Kosten
zwischen GM und Toyota um fast einen Faktor 5, in absoluten Zahlen beträgt die Kostendifferenz 500
Mio. USD.
Abbildung 2.17 Beziehung zwischen Distanz und Lagerkosten, aus Dyer in HBR, Nov.-Dec. 1994)
Die zweite Abbildung 2.18 (Quelle: Dyer in HBR Nov.-Dez. 1994) zeigt, dass das Netz von GM viel
weitläufiger angelegt ist, als das von Toyota. Zu internen Anbietern beträgt die durchschnittliche Distanz
350 Meilen, zu externen sogar 427 Meilen (bei 7 Lieferungen pro Woche) während bei Toyota die Werte
nur durchschnittlich 30 und 87 Meilen betragen, wodurch 40 Lieferungen pro Woche möglich werden,
was für Just in Time Produktion von großem Vorteil ist.
Die darauf folgende Abbildung 2. 19 (Quelle: wie oben) stellt das Verhältnis zwischen der Häufigkeit bzw.
Länge des persönlichen Kontakts (z.B. GM 1000 Manntage/Jahr, Nissan 3000, Toyota 5000, welche
Ingenieure des Produzenten bei den Zulieferern verbringen), und der Qualität bzw.
Produktionsgeschwindigkeit dar. Bei der Interpretation dieser Grafik sollte man Vorsicht walten lassen,
insofern, als dadurch nur das gleichzeitige Vorkommen von höherer Qualität und mehr Kontakt
dokumentiert ist, aber nicht belegt ist, dass der Kontakt wirklich die Qualität beeinflusst. Außerdem ist zu
bedenken, dass die amerikanischen Firmen stärker integriert sind, und daher weniger externe Kontakte
brauchen. Trotz dieser Einschränkung gilt Toyota nach wie vor als weltbestes Autounternehmen!
Franz Wirl: Industriebetriebslehre
115
Abbildung 2.18 Vergleich der Standortkonfiguration der amerikanischen und der japanischen
Autoindustrie, aus Dyer (1994)
Abbildung 2.19 Auswirkungen persönlichen Kontaktes, aus Dyer (1994)
Franz Wirl: Industriebetriebslehre
116
Abblildung 2.20 Profitabilität, aus Dyer (1994).
Was Investitionen betrifft, so sind in den USA 15% der Investitionen eines Lieferanten spezifisch, in
Japan hingegen 22%. Spezifische Investitionen (d.h. solche, die nur für einen bestimmten Auftrag/bzw.
einen bestimmten Kunden nützlich sind) sind natürlich für den Zulieferer riskant, da sie im Falle einer
Stornierung des Auftrags wertlos sind, und so dem Käufer eine gewisse Macht bei den
Preisverhandlungen geben. Lieferanten haben also ein Interesse daran, wenige spezifische Investitionen
zu tätigen, um flexibler zu bleiben, auch wenn das mit höheren Produktionskosten für die einzelnen
Aufträge (bedingt z.B. durch wiederholten Anpassungsbedarf der Maschinen im Vergleich zu einer
Standardeinstellung bei spezifischer Investition).
Auch bei der Verwendung von Standardteilen zeigt sich die engere Zusammenarbeit der Zulieferer in
Japan mit ihren Kunden: In Japan werden nur 18% standardisierte Teile verwendet, in den USA 38%.
Beachtlich ist, dass in Japan sowohl die Autofirmen als auch die Zulieferer eine höhere rate of return on
assets haben, als in den USA.
Für die japanische Automobilindustrie zahlt sich also eine Standortwahl mit bewusstem engem Clustering
aus. Aber Clusterbildung ist nicht alles, um Erfolge zu erklären!
3.8.2
Hypothetische Fallstudie: Fahrradhersteller Eldora
Die folgende Fallstudie aus Andrew Bartmess, The Plant Location Puzzle, Harvard Business Review
March-April 1994, 20 soll als Anregung dienen, sich an Hand einer Beispielskizze die verschiedenen
Aspekte der Standortwahl nochmals vor Augen zu führen.
Situation:
Eldora, ist ein äußerst profitabler Fahrraderzeuger (eher Massenprodukte, aber auch teure und
hochqualitative Räder in Kooperation mit Rinaldi, Europa) mit Fabrik und komplettem Umfeld in Boulder
(Colorado). Diese Nähe hat viel zur Kooperation und zum Erfolg beigetragen, weil Boulder das
amerikanische Mekka der Radfahrer ist, und Ingenieure, Designer und Marketingleute innerhalb von 10
Minuten (zu Fuß) zu erreichen sind.  man hat die Hand am Puls der letzten Entwicklungen.
Da kommt der Vorschlag, eine Fertigung in China zu errichten, weil
-
Marktsättigung in den USA bevorsteht (1992, 30% Marktanteil), Wachstum + 2%/a.
-
es eine Chance wäre, den asiatischen Markt zu erobern, der mit 30%/a wächst.
-
zwei wichtige internationale Konkurrenten bereits eine Fertigung in Asien haben.
-
dort niedrige Arbeitskosten zu erwarten sind.
Weitere Fakten:
-
Die Exporte wuchsen 1987 - 1991 mit 80%/a aber kaum in den folgenden Jahren.
-
Von 200 Mill Fahrrädern, die pro Jahr produziert werden, gehen 40 Mill nach China, 30 Mill. nach
Indien, 9 Mill nach Japan.
-
Von einem Konkurrenten waren noch 1990 97% für den Export und 1994 bereits 45% für den lokalen
Markt.
 Arbeitskosten und Transportkosten sind daher vor Ort in China substantiell günstiger.
Franz Wirl: Industriebetriebslehre
117
Probleme:
Unkenntnis darüber, wie eine Fabrik in China zu errichten und zu betreiben ist =>
Beginn mit Verkaufsorganisation ?
Oder in Taiwan, anstatt in der Volksrepublik, wegen all der Probleme in China?
Frage:
Sollte eine Abteilung - für Produktion, Vertrieb, Joint Venture oder nur Outsourcing - in China oder etwas
allgemeiner in Asien errichtet werden?
Franz Wirl: Industriebetriebslehre
3.8.3
118
Beispiele aus der Presse
Relocating factories to China is not always a good idea
The Economist, February 15th, 2003, p 66.
CONVENTIONAL wisdom says that the white-suited workers hunched over microscopes at PSi Technologies, checking the
company's semiconductors for flaws, will soon be out of a job. In suburban Manila, as in the rest of South-East Asia, businessmen
seem amazed that the region has any factories left at all. Almost anything can be made cheaper and better in China, they say,
especially computer chips, which are practically a commodity.
Yet PSi has not just one, but two plants in the Philippines, and plans to expand further. The boom in China, far
from destroying the local electronics industry through cheap competition, is helping to keep it afloat amid a global
downturn. In 2002, even as the Philippines' electronics exports to America fell, exports to China grew, by about
120%. That far outstrips the growth of imports from China. Strong demand for its electronics products helped push
up Philippine exports last year by 9%.
The much-feared hoovering, it turns out, is Chinese industry sucking in the imports it needs to grow at breakneck
speed. Arthur Young, chief executive of PSi, reckons that 85% of his output ends up in China at some stage—
mainly for assembly into mobile phones, computers and other appliances. That might seem like an argument for
relocating to China, to be close to his customers.
And indeed PSi is looking into setting up a factory in China, at a customer's behest. But the decision is not as
simple as it sounds. The cost of doing business in the electronics belt around Shanghai, Mr Young says, is already
comparable to the Philippines, and rising. He might yet build a factory in a cheaper area, away from the coast. But
shipping chips across China is not so different from shipping them across the South China Sea.
According to Ernesto Santiago, the head of SEIPI, the Philippines' electronics-industry association, the country
retains a critical mass in the chip-making business. Multinational firms like Intel, Texas Instruments and Philips all
have factories in the Philippines. They could, of course, move to China, as NEC, a big Japanese manufacturer, did
recently. But most companies do not want to put all their eggs in one basket.
Anyway, Mr Santiago argues, the cost of relocation is greater than the benefits to be gained. Wages are higher in
the Philippines than in some parts of China. But labour accounts for only about 10% of costs for most firms. China
may have legions of engineers, but the Philippines also turns out 100,000 of them a year, more than the industry
can currently absorb. What's more, many Filipino workers speak passable English, a boon when it comes to
training.
To be sure, the Philippines' electronics industry faces plenty of challenges. Electricity is expensive; roads are ropy;
and educational standards are falling. Foreign investors are wary of putting money into a country fraught with
violent crime and plagued by both separatist and communist insurgencies. But these are problems that the
government can address—unlike blind fear of competition from a wakening giant.
Franz Wirl: Industriebetriebslehre
119
The new geography of the IT industry, Jul 17th 2003, The Economist.
As the information-technology industry's emphasis is shifting—from innovation to execution—so is its location
CONSIDER three snapshots of the IT industry today. First, look at the centre of the business at the turn of the century—Silicon
Valley. Parts of this high-tech region to the south of San Francisco, which were buzzing with activity only three years ago, are
coming to resemble an industrial wasteland populated by squirrels, racoons and “for lease” signs. In the city of Santa Clara, where
almost half of all office space is vacant, rents run at around $1 per square foot, compared with $6.50 in late 2000. Some larger
tenants in the city are even sub-letting space for nothing, just so they can share the service costs.
Then move north to Redmond, near Seattle, the home of Microsoft. The giant software firm appears to be defying gravity—because
it controls two monopolies, Windows and Office, each generating some $10 billion in annual revenues, with operating margins of
more than 80%. But the company seems to be running out of bright ideas about where to invest its money. Microsoft has almost $50
billion of cash in the bank. In January, it announced plans to pay a first-ever dividend of $870m this year, a figure that many now
expect to be raised, with some talking of amounts as big as $10 billion.
For a third snapshot, turn to Electronics City, near Bangalore in India (above), home of the development centre of Wipro
Technologies, an Indian IT services giant. Some 6,500 people work there, about half the firm's total staff, and new buildings are
popping up all over the place. By 2005, the campus is scheduled to have three times as many employees as it does today.
Tech-tonic shifts
Welcome to the new geography of the IT industry, one that is no longer centred on Silicon Valley. It is the result of two distinct shifts
that are reshaping the business. For some time, its centre of gravity has been moving away from the Valley to places such as
Redmond, Austin, Armonk and Walldorf (in Germany), where four industry leaders—Microsoft, Dell, IBM and SAP, respectively—are
based.
At the same time, large parts of the business are migrating offshore, mainly to India, but also to such places as China, Russia and
Vietnam. This is already being likened to what happened to manufacturing in the 1970s and 1980s, when companies in the rich
world moved many of their operations overseas. The IT industry is now developing something that it has not had before (except in
hardware manufacturing): a fully operational, international supply chain.
Such geo-technological movements, in particular the one shaking Silicon Valley, are no surprise to economic historians. As
technological phases in computing have come and gone, so have shifts in the industry's centre of gravity, argues Timothy
Bresnahan, an economics professor at Stanford University. When the mainframe dominated the industry, he says, it clustered
around New York; Boston then took over as the centre of minicomputing; while the PC, although born in Florida and Houston, came
of age in the Valley.
It was followed by the internet, in many ways the perfect technology for the Valley. Entrepreneurship and venture capital were
already in the blood there, and the web, with its open standards, allowed less tech-savvy entrepreneurs to create start-ups quickly
and reach a wide audience. The region proved to be a Petri dish, or “innovation habitat”, offering plenty of the nutrients required to
incubate and commercialise any new technology—including flexible networks of entrepreneurs, highly skilled employees, university
researchers, venture capitalists, lawyers and business consultants.
Perhaps more importantly, the timing could not have been better. At the end of the 20th century, managers had two reasons to buy
technology on impulse. First was the Y2K scare, which told them that their systems might be fuddled by the date change on January
1st 2000. Second was the fear of being “Amazoned” by an e-commerce start-up, such as the eponymous online retailer. It was
Valley firms such as Sun Microsystems and Cisco Systems that were able to provide most of the equipment for carrying out ecommerce. Both benefited to the tune of annual growth rates of up to 40%.
The culture of the Valley thus became the dominant culture of IT everywhere. Buyers bet on Valley newcomers such as Siebel
Systems and its “best-of-breed” customer relationship management (CRM) program, rather than waiting until established vendors of
business software packages, such as Germany's SAP, caught up. IT managers were also persuaded to buy pricey high-end
hardware that was crafted by the Valley's best engineers.
Sun also sets
Today, the IT industry is no longer dominated by start-ups, innovation and highend equipment. Customers are more interested in consolidation, integration and
execution than in the next big thing. And here the Valley's rivals have a
competitive edge. SAP offers good-enough CRM programs as part of its suite of
business software. Dell, boasting a super-efficient supply chain and increasingly
powerful machines built with commodity parts, has become the downturn's
hardware star.
As a result, many of the Valley's leading firms are losing ground. Siebel and Sun,
for instance, recently posted disappointing quarterly results. Dell, IBM and SAP, on
the other hand, have been doing well, while Microsoft keeps beating expectations.
Things would not perhaps be so bad for the Valley were it not simultaneously
being undermined by a second shift in the industry. Most hardware is already built
in places far away from its customers, but now other parts of the industry are also
moving abroad.
This is the result of three separate trends that will increasingly become one, as the
boundaries between software, IT services and business processes become
blurred. First, software firms are setting up development shops offshore. Smaller
ones have done this for some time: for example, firms such as Agile Software, a
Silicon Valley company that sells programs managing all aspects of a product's
lifecycle. More than half its 200 developers now work in India, Hong Kong and
southern China.
More recently, the bigger firms have started to move offshore in a significant way. In June, SAP announced that it would double its
workforce in India to 2,000 within three years. Last week Oracle, a Silicon Valley software firm that aspires to be bigger than
Microsoft, announced that it is soon to double (to about 6,000) the workforce at its two Indian research centres, one of them in
Bangalore. Microsoft too recently announced plans to expand its IT operations in India.
Franz Wirl: Industriebetriebslehre
120
Then there are the home-grown Indian outsourcing companies, offering a wide range of IT services to western customers, from
writing and maintaining programs to implementing enterprise software and monitoring computer systems. The largest of these
firms—Tata Consultancy Services (TCS), Infosys and Wipro—are starting to compete head-on with the large American outsourcers,
firms such as Accenture, EDS and IBM Global Services. At the same time, the Americans are expanding their presence overseas.
Accenture recently announced that it will triple its offshore workforce to 12,000 by the end of the year.
More significantly in the long run, a growing number of large companies are using IT to send entire business processes offshore,
either by setting up overseas subsidiaries of their own or, to a lesser extent, by hiring local outsourcers. And this practice is no
longer restricted to low-grade operations such as call-centres. General Electric, a pioneer in business process outsourcing (BPO),
has increased its Indian workforce to more than 11,000. Among other back-office businesses, these employees analyse credit risks,
underwrite loans and evaluate insurance claims.
Not surprisingly, the main reason for this shift offshore is cost control. With business slow and prices under pressure, firms are
looking for ways to produce their wares more cheaply. Developing countries such as India offer plenty of opportunities to do just
that. A programmer in, say, Bangalore costs an American firm about one-quarter of what it would pay for comparable skills at home.
Add in the extra infrastructure and telecoms costs, and the savings are still in excess of 30%. Technology also plays a part. Highspeed data connections and software tools have made it cheaper and easier for geographically dispersed teams to collaborate.
Firms that are selling software programs to assist such collaboration are themselves offshore pioneers. Agile is one example; there
is also CollabNet, another Silicon Valley software firm. It offers a web-based service that allows teams of programmers to coordinate their work, and it has recently bought Enlite Networks, another collaboration start-up which develops many of its programs
in India.
Equally important, says George Gilbert, a co-founder of TechStrategyGroup, a consultancy, is the fact that software development
today is more fabrication than innovation. As much as 70-90% of what programmers do in a large enterprise software firm, for
instance, is maintenance: upgrades, minor enhancements and bug fixes. Such programming tasks can more easily be done abroad.
In addition, today's software is written in a more modular way, which means that parts of it can be coded separately.
Moreover, clients are increasingly at ease with getting important IT work done overseas—not least because they hired many Indian
and Chinese engineers during the boom, and many have now gone home to work for one or other of the offshore firms. Indian IT
services firms, in particular, boast first-rate development processes and have shown that they can handle large-scale projects.
Offshore limits
How much of the IT industry will move offshore, and how many IT jobs in America and Europe will disappear? In the United States
there is already a political backlash, of sorts. Lawmakers are pushing to tighten visa regulations, so that foreign IT firms can no
longer send their employees to customers for training. And several state legislatures have bills pending that would stop government
agencies sending IT and other services work overseas.
Such reactions are misguided. For a start, although IT jobs are definitely moving abroad, this is no exodus. Even high-tech
consultancies, which tend to exaggerate such trends, come up with numbers that, on close examination, are relatively small.
Forrester Research predicts that more than 3m IT-related jobs in America will have moved overseas by 2015. That sounds a lot, but
it is little more than 2% of total American employment today.
This trickle is unlikely to turn into a flood. Going abroad does not just bring rewards; it also carries risks. For a firm, picking the right
partner can be tricky, and getting along can be even harder because of cultural differences and linguistic problems. Political stability
is also an issue, as is the privacy of personal information and the protection of intellectual property.
But not sending work to places where it can be done more cheaply could well cost even more jobs in the long run. Using offshore
workers helps companies to remain competitive and focus on what they are really good at. Having development centres in India and
China allows them to maintain margins and so create new jobs (in the Valley or elsewhere), says Alfred Chuang, chief executive of
BEA, another Silicon Valley software firm.
The limits to offshoring are already visible. To lower their costs, Indian IT services firms are themselves sending work offshore, to
even cheaper places such as China. In 1999 a study by the National Association of Software and Services Companies
(NASSCOM), a leading Indian IT industry group, estimated that the cost of employing top software engineers in India could be the
same as in America in 15 years' time. Others predict that equalisation could happen much earlier.
Eventually, the IT services and software industries will globalise and probably operate much as hardware manufacturing does today,
predicts Phil Codling, an analyst with Ovum Holway, a consultancy. The production of most computers and other electronic goods is
today spread around the world in a way that makes most sense economically—taking into account labour costs, but also such
factors as skills, cultural compatibility, proximity to markets and, not least, tax rates.
Something called “near-shoring” can often be an attractive proposition. According to A.T. Kearney, a consultancy, India leads the
pack in offshore IT services mainly because of its low labour costs (see chart). But other countries such as Brazil, Canada and
Mexico are not far behind and score more highly in other areas.
The division of labour within companies such as Agile and Enlite could become a model for both software and IT services firms.
Things involving design and marketing will mainly stay onshore: developing a product's architecture, for example, or coming up with
new features and keeping in touch with the market. Most of the actual coding, as well as customer support, however, will be done
abroad.
How green is the Valley?
Who will dominate this new geography: the newcomers from India or their American rivals? The chances are, says Rahul Sood,
another co-founder of the TechStrategyGroup and a former McKinsey consultant, that it will be easier for American firms to build a
“back-end” offshore than for their Indian rivals to create a “front-end” onshore. In the long run, he says, offshoring will no longer be
mostly about labour arbitrage. It will be about putting together an efficient global IT supply chain. And this is a skill that Indian firms
have to develop if they want to compete at the top.
Yet American IT firms should not be lulled into thinking that there are areas where they are safe from overseas competition. Other
countries will eventually have their own global IT heavyweights. A recent lawsuit over an alleged patent violaton between Cisco and
Huawei, a Chinese telecoms-equipment maker, may be a sign of things to come. Although Huawei appears to have taken liberties
with Cisco's intellectual property, the Chinese firm could grow into a dangerous low-cost competitor to the once dominant Silicon
Valley company.
Franz Wirl: Industriebetriebslehre
121
Is the Valley destined to become the Venice of the information age? Don't bet on it yet. The region has gone through similar cycles
before—and adapted successfully. When PCs became commodities in the 1980s and were made more cheaply elsewhere, Valley
firms, led by Sun, developed more sophisticated workstations.
These days, the Valley is again moving up the technology stack. Sun is trying to become more of a software firm, by developing
software that automates the management of data centres, for example. Oracle wants to become the Microsoft of enterprise
software, by offering a complete suite of business programs. And after its successful merger with Compaq, HP looks increasingly
like IBM.
The trend towards ever cheaper and more powerful computer systems may also help the region. Google, for instance, is best known
as a great online search-engine, but the Valley firm is just as notable for its inventive use of cheap hardware. Its super-efficient
infrastructure of thousands of servers allows it to keep introducing new services, most recently Google News, which automatically
aggregates news on the web.
John Doerr, a Google board member and a partner at Kleiner, Perkins, Caufield & Byers, the region's foremost venture-capital firm,
hopes that a successful Google share flotation will throw open the window for technology listings. It would certainly get things
moving again in the Valley. There are other promising start-ups waiting to float, such as Salesforce.com, a firm offering web-based
CRM services.
Yet the best hope for a comeback is for the Valley to ride what many expect to be the next big wave of innovation after the internet:
the convergence of bio-, info- and nano-technologies. Each holds much promise in its own right, but together they could give rise to
many new kinds of products. The Valley is well equipped to catch this wave, thanks to its “innovation habitat”, says Doug Henton,
president of Collaborative Economics, a local think-tank. It is a habitat that is good at incubating not just IT start-ups. Already, the
broader region (which includes Berkeley and other cities on the east side of San Francisco Bay) has the largest concentration of
public biotechnology firms in America. According to Ernst & Young, there were 74 in 2001, compared with 48 around Boston and 31
around San Diego.
Yet such a habitat can also be a disadvantage, argues Donald Sull, a professor at Harvard Business School, in a recent paper
analysing the rise and fall of the region around Akron, Ohio, where America's tyre industry was once concentrated. Initially, says Mr
Sull, tightly knit social and professional networks allow knowledge to flow, which boosts innovation. But as an industry grows up,
these networks also become a liability: increasingly set in their ways, they make a cluster less flexible and its firms more vulnerable
to competition.
Valley folk insist that such collective inertia could never overcome them. Rather, they like to compare themselves with Yellowstone
National Park two years after an immense forest fire. Yes, there are lots of scarred trees. But there are also many fresh green
shoots springing from the ashes.
Franz Wirl: Industriebetriebslehre
122
Offshoring Relocating the back office, The Economist, Dec 11th 2003
The shift of service jobs to low-cost countries has only just begun. It promises huge benefits to consumers everywhere
THE debate over “offshoring“, a phenomenon unheard of a few years ago by many of those now loudly proclaiming its economic
effects, is in “the percolating phase,“ says Brink Lindsey of the Cato Institute, a Washington, DC, think-tank. It could, he adds, be “a
potentially potent contributor“to the increasingly protectionist mood in the American capital.
The debate has been brewing since a study by Forrester, a research group, in 2002 claimed that 3.3m white-collar American jobs
(500,000 of them in IT) would shift offshore to countries such as India by 2015. There has been standing room only at recent
presentations of a report by the McKinsey Global Institute suggesting that this process of “offshoring“ benefits both the countries
involved in it. It is, says the consultants' research arm, a “win-win“ formula.
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
Others are not so sure. Stephen Roach, the chief economist at Morgan
Stanley, talks about a “new and powerful global labour arbitrage“ that has
led to an accelerating transfer of high-wage jobs to India and elsewhere.
He reckons this is adding to the bias towards jobless recoveries in western
economies. An anonymous e-mailer claiming to represent a group of
Boeing engineers is putting it about that Boeing's offshoring of some
design engineering work to a new centre in Moscow is causing lay-offs
that are cutting “deeply into Boeing's talent pool“. The e-mail also alleges
that this is putting “the safety and quality of Boeing airplanes at jeopardy“.
Although there have been no federal legislative proposals in America
against offshoring per se, there has been a tightening up on the granting
of visas that allow foreign workers to enter America for training and
temporary employment. The annual quota for so-called H-1B visas used
by itinerant Indian software programmers fell in October to 65,000 from
195,000 a year ago. The idea is to prevent foreigners from taking
Americans' jobs. In fact, the effect may be the reverse. Craig Barrett, the
chief executive of Intel, a chipmaker and a big employer of Indian
engineers, says that America's main problem is a lack of suitably
educated engineering graduates. The impact of fewer visas may thus be
to encourage American firms to shift more work to India, where wellqualified computer engineers are plentiful.
English spoken here
But the vast majority of the service jobs that are now going offshore do not require highly qualified engineers. Multinationals may in
future do original R&D in low-cost places, but for the moment most of the jobs on the move are the paper-based back-office ones
that can be digitalised and telecommunicated anywhere around the world, plus more routine telephone inquiries that are
increasingly being bundled together into call centres.
Several American states have moved faster than the federal authorities in trying to halt this “labour arbitrage“. Lawmakers in New
Jersey have proposed a bill to stop firms using foreign workers to fulfil state contracts. Public pressure forced the state to bring back
a helpline for welfare recipients that had been outsourced to India. For similar reasons, in late November Indiana withdrew from a
$15m contract with the American subsidiary of a leading Indian IT outsourcing firm. Governor Joe Kernan said that the contract did
not fit with Indiana's “vision“ of providing better opportunities to local companies and workers.
On one estimate, America accounts for over 70% of all offshoring business. The second biggest market is in Britain. Big companies
there regularly announce that they are moving service jobs abroad, many of them involving the wholesale transfer of call centres. In
late October, the HSBC banking group announced that it is taking 4,000 jobs from Britain to India, and earlier this month Aviva (the
Norwich Union insurance group) said it is transferring 2,350 jobs, also to India. As yet, such moves have been less politically
contentious than in America. Patricia Hewitt, Britain's minister of trade and industry, responded to those concerned about the job
losses by saying it was a ?myth? that offshoring would create widespread unemployment. Nevertheless, her department has
commissioned an independent study into the competitiveness of Britain's call centres. Representatives of Amicus, a big British
finance-sector union, were this week seeking to persuade the European Parliament to set up a more general inquiry into the likely
impact of offshoring on Europe's economy. The offshoring business remains predominantly English-speaking. It is dominated by
American and British companies outsourcing their internal operations to third parties in places such as Ireland, Canada and South
Africa, but most of all in India.
The fact that America and Britain have relatively liberal employment laws has also been influential in the shift of business overseas.
If offshoring is, as McKinsey claims, a “win-win“ formula for both sides, the process is set to give English-speaking countries a
significant competitive advantage.
There are examples to be found elsewhere. A few Japanese companies have shifted operations to north-east China, where
Japanese is spoken, and Bain & Co, a consultancy, forecasts that the offshoring market in Russia will grow by 45% by 2006,
compared with 57% for India. Eastern Europe too has been making a play for offshoring business based on its relatively low wages
and physical proximity to western Europe. In September, DHL, a logistics firm, announced that it will shift its data centre in Britain
and parts of its IT operations in Switzerland to a state-of-the-art services centre in Prague that will oversee all the company's
European IT operations.
India looks likely to remain the most attractive offshoring destination for some time
But the current political and market uncertainty in Russia could well constrain growth there for some time to come. And all of eastern
Europe suffers from an excess of red tape. Earlier this year Lufthansa opened an accounting centre in Krakow in Poland. The
German airline says that it is pleased with the quality of its staff. “Our employees are first-rate, but the paperwork is excessive,“ says
Hedwig Hardtke, the head of the centre. A further threat to eastern Europe's offshoring business lies in the forthcoming entry into
the EU of countries like the Czech Republic and Poland. That is sure to narrow wage differentials with the rest of Europe and
eradicate much of the rationale for offshoring there. India looks likely to remain the most attractive offshoring destination for some
time. It sees its main competitors as China and Malaysia. But Sanjukta Pal, a consultant with PricewaterhouseCoopers, says that
the cost of operations in India is currently 37% lower than in China and 17% lower than in Malaysia. The Philippines is another
country that is well equipped to provide competition in the future. It produces almost 300,000 college graduates a year, all of them
English-speakers. But they are competing against India's annual crop of around 2m college graduates, 80% of whom speak English.
Franz Wirl: Industriebetriebslehre
123
Much more than low cost
The main advantage of shifting business operations to India and similar low-cost countries comes from a combination of lower
wages and the improvement in the quality and price of international telecommunications. A report by HSBC says that the cost of a
one-minute telephone call from India to America and Britain has fallen by more than 80% since January 2001. With high-grade jobs,
the saving on wages is not as high as with lower-grade ones. NASSCOM, India's National Association of Software and Service
Companies, reckons that an IT professional with three to five years' programming experience earns $96,000 in Britain, $75,000 in
America and $26,000 in India. At the other end of the scale, low-grade call-centre jobs that in Britain earn a salary of $20,000 earn
less than one-tenth of that in India.
But the benefits of offshoring are not confined to lower costs. An article in the latest issue of the McKinsey Quarterly says that many
companies that move their back-office functions offshore miss huge opportunities to reap efficiencies beyond those that come from
using cheaper labour. “Companies are merely replicating what they do at home, where labour is expensive and capital is relatively
cheap, in countries in which the reverse is true.“ For one thing, offshoring allows companies to work round-the-clock shifts, ferrying
data back and forth from one place to another as the sun sets. For another, it allows them to rethink the way they solve IT problems.
American Express, for example, paid local programmers in India $5,000 to write some software that it needed. To have bought a
software package that could do the same job would, the company estimates, have cost it several million dollars.
The benefits of offshoring are not confined to lower costs
For the future, offshoring promises to diminish the effects of the demographic crunch in countries where the ratio of the working
population to the total is set to fall. HSBC reckons that America would require an extra 8.6m workers to maintain the ratio at its 2000
level for 20 years. Countries that are reluctant to allow in immigrant workers to do their unfilled jobs now have the option of sending
some of those jobs out to the workers, before they even think of emigrating. Despite all the advantages of offshoring, there are also
disadvantages. With voice services “such as directory enquiries, for example“ local knowledge is often important. So too are accents
and culture. In late November, Dell got itself into a tangle when a spokesman in Texas said that the computer-maker was bringing
some of its Indian-based customer-inquiry services back to America because “customers weren't satisfied with the level of support
they were receiving“. The next day, however, a spokesman for Dell in India denied that the work was returning. Whatever the truth
of the matter, there is no doubt that customers with complex queries requiring local understanding do not respond well to far-off
operators repeating parrot-fashion a series of learned responses. Convergys, one of the world's biggest providers of “contact-centre
services“, advises companies to shift simple queries offshore while retaining the more complex ones on the same shore as the
caller. It calls this process “rightshoring“, and estimates that about 80% of the companies that it is working with in Britain are
planning to split their call-centre operations in this way.
Boomerang jobs?
Many companies have not yet taken anything like full advantage of offshoring. Harris Miller, president of the Information Technology
Association of America (ITAA), a lobby group, says that offshore locations have so far captured just 3-4% of all American
companies' outsourcing. The bulk remains onshore in the hands of big firms such as Accenture, CSC, EDS and IBM. A report by
Forrester released at the beginning of this week says that 60% of Fortune 1,000 companies are doing nothing, or are only just
beginning to investigate the potential of offshoring (see chart 2). Mr Harris says some big companies have told him that up to 40% of
their outsourcing business could end up offshore. That suggests the industry still has a long way to grow. Technology may
accelerate that growth.
One thing currently limiting the ability of companies to outsource tasks, says Bain's Simon Heap, is the inflexible architecture of
modern business-information systems. It forces firms to perform tasks as a series of discrete steps. So a business wanting to
outsource some of those steps (billing, for instance, or customer service), but not others, gets involved in designing horribly
complicated flows of information that are all too prone to error. Newer software and hardware promise a future in which, says Mr
Heap, firms will be able to outsource smaller and smaller slivers of their business. They will not, as now, have to commit themselves
to outsourcing the whole of, say, their customer-service department or nothing.
There are limits though to how far the phenomenon can go. First of all, there are natural limits to the shifting of service jobs
overseas. Many of them are in industries like hotels and restaurants, or in public services like education and health, most of which
can never be moved abroad. In Britain, some 60% of all service-sector employment falls into this category. Then there are
alternative pools of labour to be tapped at home. Citigroup, for instance, has hired about 100 college students in America to do
programming for it, and it pays them $17 an hour. The bank reckons that is about half what it would have to pay comparable
programmers in India.
Technology too may place some constraints on offshoring. Irving Wladawsky-Berger of IBM argues that some of the tasks currently
going to low-cost centres may eventually return because their underlying technologies will evolve in a way that makes economic
sense of putting them back in rich countries. At the moment, for instance, customer-service call centres are very labour-intensive.
McKinsey says that wages account for 70% of the costs of a call centre in America. That is why they are rapidly shifting to
Bangalore, Hyderabad and other Indian cities. But firms such as AT&T are working on speech-recognition software that might, says
Hossein Eslambolchi, AT&T's chief technology officer, soon be good enough to replace a lot of the routine inquiries currently
handled in call centres. Indian call-centre employees, in other words, might soon find themselves competing with “offshore“
computers in New Jersey, and Indian doctors currently providing remote diagnosis of patients in other countries might find
themselves undercut by a supercomputer's analysis of, say, digital mammograms and dental records.
Indian territory
The business of shifting back-office functions offshore began in earnest in the early 1990s when companies such as American
Express, British Airways, General Electric and Swissair set up their own “captive“ outsourcing operations in India. However, many of
these captives are now finding that their costs are up to 50% higher than those of independent third parties. British Airways' captive
business was recently spun off as an independent Indian firm called WNS, handling high-volume, low-value back-office business
processes for a dozen western airlines and a raft of other big companies. In what might become a model for other such offshore
captives, WNS was bought in 2002 by a private-equity firm, Warburg Pincus, and a group of its own managers. A bunch of homegrown Indian IT groups have become powerful players in the market for offshore IT services: companies such as Wipro, Tata
Consultancy Services and Infosys. They got their big breaks as subcontractors to overloaded western firms during the Y2K software
crisis at the turn of the millennium. Now they are beginning to expand beyond core IT maintenance and support work into helping
multinationals, for instance, to roll out new software applications.
Younger Indian IT firms are competing in an increasingly crowded market by offering different services. For example, vMoksha
builds, operates and then transfers offshore centres to multinational clients, flouting the usual Indian reluctance to hand over
ownership. In another sign of the growing sophistication and maturity of the industry, big western outsourcing firms such as
Franz Wirl: Industriebetriebslehre
124
Accenture, EDS and IBM are developing their own facilities abroad in order to shift more of their outsourcing business, currently
performed in the West, to offshore destinations. But the cost advantages for the latecomers are being continually eroded. Salaries in
Bangalore have been rising with the demand for skilled workers, and firms like Wipro and Infosys invest heavily in training and
facilities. The Infosys campus in Bangalore's Electronics City, for instance, is the equal of anything in Silicon Valley.
A better deal
The protectionist response to offshoring may force some government work that would otherwise have gone abroad to remain at
home, the extra7 cost to be
picked up, of course, by the taxpayer. But
government work
8 is only a
small part of the market. David Tibble, the
boss of WNS, 9says that it
accounts for some 30%; the rest is in the
hands of a private
10sector that is
just awakening to the extent to which
offshoring
can11 boost
its
productivity. Offshoring is not new. Pankaj
Ghemawat, a Harvard
12 Business
School professor, suggests that the
whaling fleets 13and floating
factory ships of the late 18th century “can
be said to have
14 originated
offshore manufacturing“, a development
that accelerated15
sharply in the
1980s and 1990s. But the beginning of
what seems likely
16to be a mass
migration of traditional in-house corporate
services to third17
parties abroad
presents companies with new structural
challenges. Many
18fear the loss
of control implicit in the process. But Jane
Linder of Accenture's
19
Institute
for Strategic Change says that the
majority of those
20who pass on
traditional back-office functions to others
find, in the end, 21
that substituting
a single supplier for many employees
allows them greater
22 control and
discipline over their operations. At the
same time, it frees them to think more clearly about strategy. And the boost to efficiency means lower prices and better services for
customers everywhere. That, surely, is not something to fear.
3.9
Eurozone 15
„So what is currently discouraging domestic firms in the stressed countries from investing more and
creating jobs? What is preventing firms abroad from increasing foreign direct investment in these
markets? This paper argues there are two main problems holding back private sector employment
creation in the stressed eurozone countries.
1. First, there is a persistent competitiveness problem due to high labor costs relative to underlying
productivity. Over the first ten years of the euro, wage developments relative to productivity
diverged strongly across the eurozone.1 Between 1999 and 2008, Austria, Belgium, Finland,
Germany, Luxembourg, and the Netherlands lifted their real productivity on average by 12
percent and nominal wages by 22 percent. France, Greece, Ireland, Italy, Portugal, and Spain
collectively lifted their real productivity by only 7 percent, but boosted nominal wages by 40
percent. Hence, the latter group of countries had become both less productive and more
expensive compared with the former group. This cost-productivity disadvantage of 20–25 percent
has been corrected only partially, and a substantial competitiveness problem remains. This
problem is aggravated by high tax and social insurance burdens for companies, especially in
France and Italy. These developments have led to a considerable erosion of firms’ margins,
which discourages investment.
2. Second, widespread structural barriers make job creation in these countries far more arduous
than in many other advanced economies, and even more arduous than in some key emerging
economies and formerly planned economies. Structural barriers to private sector development
are particularly widespread in the areas of labor market functioning, goods market functioning,
and government regulation. Evidence from the World Economic Forum’s Global Competitiveness
Index and the World Bank’s “Doing Business” dataset confirms the immense size and persistence
of these barriers, despite improvements in some countries in recent years.”
Die folgenden Abbildungen dokumentieren das. Leider ist die Prognose nicht gut:
„Calls for structural reforms are ubiquitous in European policy documents and declarations at both the
country and European Union level, but there is a distinct and longstanding lack of achievement. One
might think that an EU-style arrangement should be a fertile setting for a program of structural reforms,
even if the process is a slow and evolving one. Yet progress toward structural reform in the most deeply
afflicted countries, with a few notable exceptions including Ireland and Spain, has been so limited relative
to what is at stake that there may well be higher barriers to action deeply rooted in the political economy
of implementing Europe’s construction.”
15
Christian Thimann, The Microeconomic Dimensions of the Eurozone Crisis and Why European Politics Cannot Solve Them,
Journal of Economic Perspectives—Volume 29, Number 3—Summer 2015—Pages 141–16.
Franz Wirl: Industriebetriebslehre
125
Franz Wirl: Industriebetriebslehre
126
Franz Wirl: Industriebetriebslehre
127
3.10 Standort Österreich
Die folgenden Folien basieren auf einem Vortrag von Dr. Siegl.
Internationale Trends bei Direktinvestitionen
377 Mrd. US$
+ 27,2%
1997
+ 43,7%
1998
+ 25,4%
1999
+ 13,9%
473 Mrd. US$
Jahr
1996
680 Mrd. US$
865 Mrd. US$
0
100
200
300
400
500
Mrd. US$
Abbildung 2.21
600
700
800
900
Franz Wirl: Industriebetriebslehre
128
Vergleich Direktinvestitionen 1999
in Mrd. US$
0.0
10.0
Österreich
2.8
Finnland
3.0
Dänemark
30.0
40.0
50.0
60.0
70.0
80.0
90.0
7.5
15.9
Belgien
Länder
20.0
18.3
Irland
33.8
Niederlande
59.9
Schweden
82.2
Großbritannien
Direktinvestitionen in Österreich
in Mrd. ATS
0.0
10.0
20.0
50.0
60.0
13.2
1994
24.0
19.2
Jahr
1995
40.0
15.7
1992
1993
30.0
1996
46.9
32.4
1997
56.1
1998
1999
36.3
Abbildung 2. 22
Standortkiterien nach Arthur Andersen
•Marktgröße
•Gewinnaussichten
•Marktöffnung
•Stabilität
•Bürokratie
•Arbeitsqualität
•Infrastruktur
•High-tech
•Arbeitskosten
•Rohmaterial
Franz Wirl: Industriebetriebslehre
129
Standortkriterien nach Deloitte Touche Fantus
1.Verfügbarkeit von qualifizierten Mitarbeitern
2.Weltklasse-Forschungsinstituten
3.Lebensqualität
4.Venture Kapital
5.Kosten
6.Technologielandschaft
7.IT-Infrastruktur
8.Bürokratie
9.Zulieferer und Partner
10.Förderungen
Tabelle 2. 12 Österreich: Vor- und Nachteile (WIFO, 1997)
Vorteile
Nachteile
Teilnahme am Binnenmarkt
Administrativer Aufwand
Präsenz in Osteuropa
Anlagengenehmigung
Verfügbarkeit von guten Mitarbeitern
Telekomkosten
Verfügbarkeit von hochqualifizierten Mitarbeitern
Arbeitskosten für ungel. Mitarbeiter
Konsensorientiertheit
Umweltschutzvorschriften
Rechtssicherheit
Verfügbarkeit von Risikokapital
Umweltqualität
Öffnung der Energiemärkte
Kultur/Freizeitangebot
Reformbereitschaft
Öffentliche Sicherheit
Öffentliche Verwaltung
Politische Stabilität
Energiekosten
Tabelle 2. 13 US-Investor Confidence Study
Vorteile
Nachteile
Fremdsprachenkenntnisse
Steuerliche Investitionsanreize
Zugang zum osteurop. Markt
Preisniveau bei Immobilienerwerb
Österreich als Absatzmarkt
Lebenshaltungskosten
Qualifikation, Einsatzbereitschaft
Betriebsgenehmigungen
Transport
Aufenthalts/Arbeitsgenehmigungen f. Nicht-EUBürger
Kultur, Freizeit
Geschäftsöffnungszeiten
Politische Stabilität
Höhe der Einkommensteuer
Stabile Währung
Arbeitszeitbestimmungen
Sozialer Friede
Strom-, Telekomkosten
Lohn-, Lohnnebenkosten
Ranking: Österreichs Wettbewerbsfähigkeit sinkt
(Die Presse) 29.09.2005
Competitiveness Report" fällt die Alpenrepublik vom 17. auf den 21. Platz zurück
Im
"Global
Franz Wirl: Industriebetriebslehre
130
Am Absturz schuld sind de facto ausschließlich politische Faktoren: In den Teil-Rankings für die
Wettbewerbsfähigkeit und die Wachstumsstärke der Unternehmen hat es Österreich nämlich auf die
guten Ränge 10 und 11 gebracht.
Als Hauptbremsen für die Wettbewerbsfähigkeit identifiziert das Weltwirtschaftsforum restriktive
Regulierungen des Arbeitsmarktes, die "ineffiziente Bürokratie", Steuersätze und -gesetze sowie
inadäquat ausgebildete Arbeitskräfte. Auch der eingeschränkte Zugang zu Finanzierungsmöglichkeiten
wird kritisiert.
Die Studie, die jährlich erstellt wird, basiert auf einer Kombination aus "harten" Wirtschaftsdaten und den
Ergebnissen einer Meinungsumfrage bei Unternehmensführern. Insgesamt wurde 11.000 Manager in 117
Ländern befragt. Um zwei Plätze zurückgefallen ist in der Reihung der Wettbewerbsfähigkeit übrigens
auch Deutschland, dem das WEF ganz ähnliche Bürokratie-Probleme wie Österreich bescheinigt. Die
Deutschen liegen auf Rang 15 allerdings noch sechs Plätze vor den Österreichern. Das liegt daran, dass
Deutschland hervorragende Bewertungen im Bereich Technologie, Forschung und Entwicklung sowie für
die Kooperation zwischen akademischen Institutionen und dem Unternehmenssektor bekommen hat.
Laut WEF wäre Deutschland im Ranking wesentlich weiter vorne gelandet, wenn die Unternehmen nicht
die kurzfristigen Aussichten für das Wirtschaftswachstum und die hohen Defizite der öffentlichen
Haushalte außerordentlich pessimistisch sehen würden.
An der Spitze des Rankings hat es gegenüber 2004 keine Veränderungen gegeben: Die beste
Wettbewerbsfähigkeit weißt nach wie vor Finnland auf, gefolgt von den USA und Schweden. Generell
haben die skandinavischen Länder und die asiatischen Tigerstaaten ihre Wettbewerbsfähigkeit stark
verbessert. Alle nordischen Länder (Finnland, Schweden, Norwegen, Dänemark und Island) haben es
unter die ersten zehn geschafft.
Für das Weltwirtschaftsforum ist das ein Beweis dafür, "dass die herkömmliche Ansicht, dass hohe
Steuern und ein dichtes Sozialnetz die Wettbewerbsfähigkeit eines Landes untergraben", falsch sei.
Wichtiger, so das WEF, scheine zu sein, wie effizient die Staatseinnahmen eingesetzt werden und nicht,
wie hoch die Gesamtsteuerbelastung sei. Größte Vorzüge der Skandinavier im globalen
Wettbewerbsumfeld seien "Weltklasse-Ausbildungsinstitutionen" und hoch motivierte Arbeitnehmer. Stark
auf dem Vormarsch sind in Europa Irland, Estland und Polen.
Polen liegt allerdings als EU-Schlusslicht weiterhin weit zurück auf dem 51. Platz. Die Esten dagegen
haben heuer erstmals Österreich überholt und sind die mit Abstand wettbewerbsfähigste Volkswirtschaft
der neuen EU-Staaten.
Bergab geht es dagegen mit einigen alten EU-Ländern: Griechenland beispielsweise ist vom 37. auf den
46. Platz abgerutscht, Italien bildet auf Rang 47 das Schlusslicht der "alten" EU.
In Asien haben sich vor allem die Tigerstaaten Taiwan und Singapur stark verbessert. Hongkong ist
dagegen um acht Plätze zurückgefallen und liegt jetzt nur noch auf Rang 28. Grund dafür ist, so das
WEF, eine "spürbare Verschlechterung des institutionellen Umfelds" in der jetzt zur Volksrepublik China
gehörenden früheren britischen Kronkolonie. China selbst liegt unter den 117 untersuchten Staaten auf
Platz 49 und damit einen Rang vor Indien.
3.11 Osteuropa versus Asien
Die folgende Darstellung ist einem jüngsten Artikel im Economist 16 entnommen.
IN “BIOSHOCK”, a hit video game from last year that was heavily influenced by the libertarian philosophy
of Ayn Rand, the main villain builds a fantastical city under the sea, where businesses can escape the
stifling grasp of government. If you are an internationally minded entrepreneur looking to set up a small to
medium-sized business, that is probably going a little far. But where should you set up shop? Much
depends on where the government acts as your concierge, and where it acts as your parole officer.
“Doing Business 2009”, the latest edition of an annual survey carried out by the World Bank and one of its
subsidiaries, the International Finance Corporation, comes to a surprising conclusion: it is now easier to
do business in eastern Europe than in East Asia.
Every year the survey tracks the state of business regulation in 181 countries and then ranks them using
a scorecard that takes into account how long it takes to set up a business, how easy it is to hire and fire
workers, and the level of corporate taxes, among other things. This year, as in the previous five years,
economies in eastern Europe and Central Asia have consistently seen the fastest pace of positive reform
(see chart). Last year their average ranking was neck and neck with that of countries from East Asia and
the Pacific. But this year the eastern European countries pulled ahead, with an average ranking of 76,
compared with an average ranking of 81 for East Asian countries.
16
The Economist, A new kind of eastern promise, Sep 11th 2008.
Franz Wirl: Industriebetriebslehre
131
1
2
3
4
5
6
7
8
9
10
On average, it takes 21 days to register a business in
eastern Europe, which is 27 days faster than in East Asia.
Setting up a company in Indonesia costs 77.9% of the
average annual income per person; in Georgia it costs
4%—though there is the small matter of political risk to
factor in. Firing a worker costs an average of 53 weeks’
salary in East Asia, compared with 27 in eastern Europe. All
this cutting of red tape has brought results: Poland now has
as many registered businesses relative to its population as
Hong Kong does.
11
12
13
14
15
16
17
Eastern Europe’s rapid progress has been due, in part, to
the accession requirements imposed by the European
Union (EU). These include regulatory reforms that are often
enacted by countries that aspire to membership, but have
yet to be admitted. For instance, the EU requires new
members to create a “one-stop shop”—a single point of
contact at which entrepreneurs can register their
businesses. Before Macedonia became a candidate for EU membership in 2005, it took 48 days to start a
business there. After three years of reforms, it now takes nine days.
Governments in eastern Europe have discovered the virtues not only of a light touch, but also of a swift
gavel. The report finds that commercial disputes are, on average, settled more quickly and at less
expense in eastern Europe than in East Asia. Bulgaria reduced trial times by requiring judges to refuse
incomplete filings rather than allowing multiple extensions.
East Asian countries still have the edge in some respects: it is easier to move goods across their borders,
for example. Government-imposed fees to export a standard 20-foot cargo container average $859 in
East Asia, compared with $1,428 in eastern Europe. Businesses in East Asia also face lower taxes.
Taxes on profits in eastern Europe are among the lowest in the world, typically around 10%, but labour
taxes and compulsory pension contributions increase the overall tax burden on business.
Of course, a few East Asian economies are still miles ahead of eastern Europe. Singapore ranked first for
the third successive year. Hong Kong was fourth, behind New Zealand and America. But Georgia,
Estonia, Lithuania and Latvia secured places in the top 30, even as Russia lagged behind in 120th place.
Azerbaijan was the top reformer. It cut the number of procedures needed to start a business by half,
eased restrictions on working hours, moved its tax system online and introduced new laws protecting
minority shareholders. True, laws on the books may be different from real conditions on the ground. Still,
the number of registered new firms jumped 40%.
Eastern Europe is not the only region that has done surprisingly well. The study also found that
economies in Africa implemented more positive reforms in the past year than in any previous year on
record. These examples prove that countries need not be rich or powerful to create a better environment
for business. Businessmen need not retreat under the waves to the gloomy world of “Bioshock” just yet.
3.12 Auslandsinvestitionen (Foreign Direct Investment, FDI)
Dieses Gebiet wird extensive sowohl theoretisch als auch empirisch erforscht. Die folgende aktuelle
Darstellung ist dem Economist entnommen.
17
Foreign direct investment Despite world economic turmoil, global inflows of foreign direct investment
(FDI) rose by 17% in 2011 to $1.5 trillion, according to the United Nations Conference on Trade and
Development (UNCTAD). Developing and ex-communist economies accounted for just over half of this,
thanks mainly to investment in Latin America (up 35% on 2010) and Russia (up 23%). Flows to Africa
continued to decline, with Egypt, Libya and Tunisia experiencing sharp drops. In developed economies
much of the growth in FDI was due to cross-border mergers and acquisitions, particularly in Europe.
America remained the largest recipient of foreign investment, attracting $210.7 billion, but this was down
8% on the previous year.
17
The Economist, Jan 28th 2012, print edition.
Franz Wirl: Industriebetriebslehre
132
Table 1.1 10 Largest Developing Country Recipients of FDI inflows
($US billions)
Top 10
(1990-2000)
Top 10
2001
ave
China*
Brazil
Mexico
Argentina
Singapore
Malaysia
Bermuda
Poland
Chile
South Korea
Top 10 total:
Total For Developing Countries:
Top 10 share:
Top 3 share:
43.4
12.0
10.1
7.2
7.1
4.7
4.7
3.7
3.3
3.2
99.5
130.9
76%
50%
China*
Mexico
Brazil
Bermuda
Poland
Singapore
Chile
Czech Republic
Taiwan
Thailand
69.7
24.7
22.5
9.9
8.8
8.6
5.5
4.9
4.1
3.8
162.5
200.9
81%
58%
Die wichtigsten Empfängerländer von ausländischen Direktinvestitionen sind China gefolgt von
lateinamerikanischen Ländern zumindest für 2001, wo das Fehlen von Indien auffällt. Die folgenden
Tabellen fassen die Auswirkungen in zahlreichen Studien zusammen.
Franz Wirl: Industriebetriebslehre
133
Does FDI Generate Spillovers in Developing Countries?
Author/Study
Year
Aitken, Hanson & Harrison
1997
Yes
Aitken & Harrison
1999
No
Amsden & Chu
2003
Maybe
Graham
1995
Yes
Kokko & Blomstrom
1995
Maybe
Kokko
1994
Yes
Kokko, Tansini and Zejan
1996
Maybe
Krugman
1998
No
Lensink & Morrissey
2001
Yes
Moran
1998
Maybe
Razin, Sadka, and Yuen
1999
Maybe
Balasubrmayam, Salisu & Sapsford
Maybe
Borensztein, Gregorio & Lee
1996
1999
1998
de Mello
1999
Maybe
Graham and Wada
2001
Yes
Graham
1995
Maybe
Maybe
Foreign firms act as export
catalysts for domestic firms
(in Mexico)
No evidence of spillovers
(Venezuela)
Government
industry
policies actively promote
nationally owned firms
(Taiwan)
Increases productivity of
domestic firms
Depends on industry and
country
characteristics,
especially
policy
environment
Increases productivity of
domestic exporting firms
(Mexico)
Productivity gap between
foreign and domestic firms
can’t be too big (Mexico
and Uruguay)
Domestic investors are
more efficient but foreign
investors have superior cash
position.
Reduces costs of R&D and
promotes innovation
Liberal investment climate
must encourage integration
of local firms into TNC
global
sourcing
and
production network
Foreign
investors
can
speculate on domestic stock
prices, leading to overinvestment
and
inefficiency.
Requires open or neutral
trade regime
Depends on education level
of workforce
Depends on degree of
complementarity
and
substitution between FDI
and domestic investment.
Raised per capita GDP in
Chinese provinces with FDI
concentration
TNC’s market power can
generate negative impacts
Franz Wirl: Industriebetriebslehre
134
Does FDI Promote Economic Growth in Developing Countries?
Study Author(s)
Year
Yes, No, Maybe
Key Variables
Lensink & Morrissey
2001
Yes
Reduces costs of R&D and promotes innovation
Loungani & Razin
2001
Maybe
Risks
Lim
2001
Maybe
Depends on tax incentives, regulatory & legal
impediments, macroeconomic instability
Marino
2000
Maybe
Requires open trade and investment policies
Mallampally & Sauvant
1999
Maybe
Requires human resource development; information
and other infrastructure
Markussen & Venables
1999
Yes
Raises productivity and exports of domestic firms;
generates spillovers
Rodrik
1999
No
Reverse causality: TNCs locate, rather than drive
growth, in more productive and faster growing
countries
Zur theoretischen Darstellung wird hier auf den folgenden Aufsatz zurückgegriffen: Peter J. Buckley,
Foreign market entry: A formal extension of internalization theory, in Mark Casson (ed.), Economics of
International Business, 31-57, Edward Elgar, 2000.
3.12.1 Historische Entwicklungen der Theorien
•
Unternehmen internalisieren Ressourcen, die zwischen Produkten und Märkten aufgeteilt werden
können. Eintritt in einen fremden Markt zerfällt in zwei Entscheidungen über den Standort und die
Form der Kontrolle: eigene Unternehmen versus Kooperationen (Joint Ventures, Problem:
Partnerwahl!), Lizenzen, Fusionen und Übernahmen.
•
Kontinuierlicher und sequentieller Einstieg, wenn erfolgreich, in fremden Märkten.
•
Kulturelle Unterschiede.
•
Zusammenhang zwischen Marktstruktur und Eintritt
3.12.2 Ein Modellansatz
Der Eindringling (entrant)
1. Ein Unternehmen versucht erstmalig in einem ausländischen Markt zu verkaufen. Dabei ist zu
unterscheiden zwischen den einmaligen Eintrittskosten und den laufenden Kosten vor Ort
(Annahme stationäres Umfeld).
2. Auslandsnachfrage ist unendlich elastisch bei einem Preis unter p aber total unelastisch darüber.
Ein Beispiel dafür ist: Die Kunden benötigen nur ein Stück kaufen nur bei einem Preis p der unter
dem Nutzen liegt, dann allerdings kauft dann die gesamte Zielgruppe; bei einem Preis darüber
kauft jedoch niemand. Das entsprechende Verkaufsvolumen wird mit x bezeichnet
3. Unterscheidung zwischen Produktion (P) und Distribution (D).
4. Die Produktion wird durch geschützte Patente ermöglicht (R), die Verteilung hängt vom
Marketingaufwand (M) ab.
5. M = 0 zu Beginn und daher hat das Unternehmen keine Marktkenntnis, das aber zu den Kosten
m akquiriert werden kann.
6. Flüsse: R -> P, M -> D, P -> D.
7. Export der Produktion zu Hause verursacht Transportkosten und Zölle. Produktion vor Ort
verursacht Kommunikationskosten, z.B. Training der ausländischen Arbeiter. Alles zusammen sei
mit den Kostenfaktor z abgedeckt.
Franz Wirl: Industriebetriebslehre
135
8. Das Unternehmen kann im fremden Markt folgende Besitz- und Kontrollrechte erwerben:
•
P und D
•
nur P
•
nur D
•
weder D noch P
9. Die Transaktionskosten sind im Ausland höher.
10. Die Kosten des Technologietransfers sind auch hoch aber akzeptabel. Dies ist leichter, wenn das
Produkt gekauft wird, als über einen reinen Lizenzvertrag.
11. Wenn die Eigentümer von P und D unterschiedlich sind, dann verursacht dies die
Transaktionskosten t3 im Unterschied zur vertikalen Integration.
12. Eintritt ist sowohl über neue Fabriken (greenfield investment) oder durch Übernahmen möglich.
13. Ein effektiver interner Markt erfordert ein hohes Maß an Vertrauen innerhalb der Organisation.
Dies fehlt nach einer Übernahme, wo für Vertrauensbildung folgende Kosten anfallen:
q1 für den Technologietransfer,
q2 für Marketing,
q3 für intermediären Fluss, wenn nur P oder D akquiriert wird.
Der Rivale
1. hat lokales Monopol aber höhere Produktionskosten auf Grund des Fehlens von R (anders hätte
der Eindringling von vornherein schlechtere Karten)
2. Der lokale Rivale agiert passiv, selbst bei einer Übernahme, weil er die bessere Technologie des
Eindringlings anerkennt und daher eventuell im Ausstieg durch Verkauf seine beste Option sieht
(Coase Theorem).
3. Der Eindringling hat die Anpassungskosten a bei Übernahme der Produktionsstätten unabhängig
von Übernahme, Lizenzierung oder Subkontrahierung. Allerdings kann der lokale Partner
Information einbringen, die diese Kosten reduzieren, eventuell sogar so, dass a < 0.
4. Verwendung des Verteilungssystem D des Rivalen erfordert keine zusätzlichen Kosten
5. Nur P und D des Rivalen können diesen Markt beliefern, d.h. es steht kein alternatives
Unternehmen zur Verfügung. Akquisition von P und/oder D resultiert daher in einem Monopol,
was bei einer Neuinvestition nicht der Fall ist, Duopol ua. davon ob nur P oder P und D errichtet
werden.
6. Subkontrahierung an den Rivalen P und D: Der Rivale kann nach Ablauf der Verträge wieder
zum Konkurrenten werden. Monopolpreise ermuntern dann den Rivalen den Markt wieder zu
m
betreten. Dies kann durch Limit-Pricing - zu diesem Preis p anstatt dem Monopolpreis p kann
der Rivale nicht kostendeckend liefern - erzielt werden. Diese Strategie verursacht zusätzliche
m
Kosten, s = (p – p)x.
7. Lizenzen: Transferieren zwar alle Monopolmacht an den Lizenznehmer, aber der Lizenzgeber
kann dies vor Abschluss eines Vertrages in der Lizenzgebühr berücksichtigen und somit
Hauptnutznießer der Monopolmacht bleiben.
8. Übernahmen: Annahme: Kosten ident zu Neubau.
Internationale Joint Ventures
1. Annahme: Beteiligung zu jeweils 50% sowohl für P als auch für D. Keine neuen Kapazitäten
wodurch allerdings die Anpassungskosten a and fallen.
2. Internalisierung erfordert Vertrauen und das die Kosten
j1 für den Technologietransfer
j2 für Marketing
j3 für intermediären Fluss.
3. Wenn beide eine Anlage P haben, aber D als joint venture betreiben, dann ist der Zweck die
Durchsetzung von Monopolpreisen.
4. Lernkosten m, Anpassungskosten a und Kosten der Vertrauensbildung q1, q2 und q3 und j1, j2 und
j3 sind einmalige Investitionen und finanziert durch Kredite zu Zinsen r.
Franz Wirl: Industriebetriebslehre
136
3.12.3 Der Strategieraum
1. Produktionsstandort
2. Produktion im Eigentum des Eindringlings
3. Distribution im Eigentum des Eindringlings
4. Eigentum vollständig oder geteilt (joint venture)
5. Eigentum durch Neuinvestition oder durch Übernahme
Das ergibt für 1. – 4. zwölf Strategien für den Markteintritt in einem anderen Land, die in der folgenden
Tabelle dargestellt sind.
Tabelle 2.14 : Kosten für die alternativen Strategien
c11 =
c12 =
c13 =
c14 =
c21 =
c22 =
c31 =
c32 =
c41 =
c42 =
c5 =
c6 =
c7 =
c8 =
c9 =
c10 =
c11.1 =
c11.2 =
c12.1 =
c12.2 =
+s
rq1
+rq2
+rq2
rq1
rq1
t1
t1
z
z
z
+rq2
+rq2
rj1
rj1
t1
z
rq1
rj1
rj1
+rq3
+rq3
+t3
+t3
+t3
+t3
+rj2
+ra
+s
+ra
+ra
+ra
+s
+rm
+s
+rm
+rq3
+t3
+t2
+rj2
+rj2
+rj2
+rj2
+rj2
+rm
+ra
+rj3
+rj3
+rj3
+rj3
+rj3
+rj3
+rj3
+ra
+ra
+ra
+ra
+s/2
+s/2
+ra
+ra
+ra
+s/2
+rm

P und D neu
 FDI P und D übernommen

P neu, D übernommen

P übernommen, D neu
 FDI in P
P neu

P übernommen

D neu
(Subkontrahieren) D übernommen
 FDI in D
D neu
 +Export
D übernommen
Export an lizenzierte Distrib.
Lizenzierung
Joint Venture integriert (P + D)
JV in P
JV in D, Subkontrakt in P
Exporte für Joint Venture in D
FDI/JV: P ist neu
P übernommen.
JV/FDI: D ist neu
D übernommen.
3.12.4 Dominanzanalyse
An sich sind nur zwei Strategien dominiert:
c12.1 > c8 und c12.2 > c8
d.h., Produktion in einem joint venture und Eigentum der Verteilung sind dominiert von Produktion in
einem joint venture mit Verkaufslizenzen.
Jedoch durch weitere Annahmen können weitere Strategien eliminiert werden:
1. Z.B. für z > 0 folgt:
c4.1 > c1.1, c4.2 > c1.3, c5 > c2.1, c10 > c11.1,
so dass Export weniger günstig ist als Errichten neuer Anlagen.
2. Für a > 0 folgt:
c3.1 > c1.1
D.h. Investition in einen neue Verteilung ist dominiert durch Errichten sowohl von P als auch D auf der
grünen Wies.
3. Transaktionskosten: Externen Kosten übersteigen die Kosten für Vertrauensbildung, t1 > rq1, dann
folgt:
c3.2 > c2.2 und c9 > c11.1
usw.
Franz Wirl: Industriebetriebslehre
Folgende Strategien bleiben in Buckley undominiert:
1.3
Neue und eigene Produktion P verbunden mit Übernahme von D.
2.1
Neue und eigene Produktion P verbunden mit Franchising von D.
6
Lizenzierung.
137
Franz Wirl: Industriebetriebslehre
138
4 Kostenstrukturen von Mehrproduktunternehmen
In diesem Abschnitt werden die häufig verwendeten Begriffe wachsende Skalenerträge und natürliches
Monopol erläutert. Um das Vorliegen solcher überprüfen zu können, ist es hilfreich, die
Durchschnittskosten errechnen zu können. Wie man diese bei Einproduktunternehmen ermittelt, und
warum es schwierig ist, bei Mehrproduktunternehmen (die ja eigentlich der Normalfall in der Wirtschaft
sind, etwas Entsprechendes zu finden, ist Gegenstand des ersten Abschnitts.
4.1
Ermittlung von Durchschnittskosten und Grenzkosten
4.1.1
Einproduktunternehmen
Definitionen:
c(y) = Gesamtkosten, die bei der Produktion von y Outputeinheiten anfallen.
c(y)/y = Durchschnittskosten (average cost, ac), also die Gesamtkosten pro Stück
c‘(y) = Grenzkosten (marginal cost, mc)
4.1.2
Mehr- oder Multiproduktunternehmen:
Das Unternehmen ist charakterisiert durch folgende technisch mögliche Input-Outputkombinationen:
( x, y ) = ( x1 , x 2 ,..., x m , y1 , y 2 ,..., y n )
Es existieren im Multiproduktunternehmen keine Durchschnittskosten.
Als Illustration: Auf einem LKW werden sowohl Federn als auch Kohle und Diamanten transportiert. Wie
soll man jetzt die Kosten des LKWs auf diese Produkte aufteilen? Wenn man nach dem Gewicht aufteilt,
bekommt die Kohle den Großteil der Kosten zugerechnet, geht es nach dem Volumen, werden die
meisten Kosten den Federn zugerechnet, nimmt man den Wert als Grundlage, tragen die Diamanten die
meisten Kosten. Daraus ist ersichtlich, dass – auch in der Kostenrechnung – die Zuteilung ein gewisses
Maß an Willkür enthält.
Es gibt mehrere Möglichkeiten, eine Art „Ersatz“ für die nicht existierenden Durchschnittskosten zu
errechnen.
Berechnung von Durchschnittskosten entlang eines Strahls: das Verhältnis der Güter wird konstant
gelassen, das Güterbündel vervielfacht, und die entstehenden Gesamtkosten durch den
Vervielfachungsfaktor dividiert:
c(αy)/α
(z.B. Das Güterbündel besteht aus 1 Einheit von Gut 1, 2 Einheiten von Gut 2 und 3 Einheiten von Gut 3,
die entstehenden Kosten sind z.B. 100. Wenn nun 2 Gut 1, 4 Gut 2 und 6 Gut 3 produziert werden – also
zweimal das Güterbündel -, dividiert man die entstehenden Kosten von z.B. 190 durch 2 = 95, Bei der
Produktion von dreimal dem Güterbündel entstehen z.B. Kosten von 270, 270:3= 90  unser
Durchschnittskostenersatz ist fallend, d.h. es sieht so aus, als ob in diesem Bereich steigende
Skalenerträge vorliegen. )
Berechung der inkrementellen Durchschnittskosten (average incremental cost)
AIc =
C ( y1 , y 2 ,..... y i −1 , y i , y i +1 ,..., y n ) − C ( y1 , y 2 ,..., y i −1 ,0, y i +1 ,..., y n )
yi
Die inkrementellen Durchschnittskosten von yi geben also an, wie sich die Gesamtkosten ändern, wenn
ich das eine Produkt yi nicht produziere, alle anderen Produkte aber schon.
Die Grenzkosten kann man aber auch im Multiproduktfall problemlos durch Differenzieren errechnen:
mci =
∂C
∂yi
Franz Wirl: Industriebetriebslehre
4.2
139
Wachsende Skalenerträge (increasing returns to scale, economies of scale)
4.2.1
Einproduktunternehmen
c( y )
1
=
c' ( y ) * y ε c
S=
Wachsende Skalenerträge liegen vor, wenn S> 1 ist.
Wenn S=1 ist, sind die Skalenerträge konstant.
Bei S<1 ist, handelt es sich um fallende Skalenerträge.
4.2.2
Mehr- oder Multiproduktunternehmen
Wachsende Skalenerträge liegen vor, wenn gilt: Für jedes α>1 existiert ein β>α, sodass gilt
(αx, βy) = (αx1, αx2,..., αxm, βy1, βy2,..., βyn)
ist eine zulässige Input-Outputkombination.
In Worten: wenn alle Inputs verdoppelt werden, und es ergibt sich daraus mehr als eine Verdoppelung
aller Outputs (z.B. α = 2 und β = 2,2), dann liegen wachsende Skalenerträge vor.
Wachsende Skalenerträge sind mit konkaven Kostenfunktionen verbunden.
Eine Kostenfunktion C(y) ist strikt konkav entlang eines Output¬strahles durch den Punkt y wenn die
Grenzkosten überall fallen, also
C(αβ1y + (1 - α)β2y) > αC(β1y) + (1 - α)C(β2y)
für alle β1 °≥ 0, β2°≥ 0, β1 ≠ β2, 0 < α < 1.
4.3
Vorteile gemeinsamer Produktion (economies of scope)
Es sei:
S ⊂ {1,...,n}
(subset, Teilmenge)
P = {T1,...,Tk} (partition, Zerlegung)
k
T
i
=S
Ti ∩ T j = {}
i =1
Dann Ys hat den Vorteil gemeinsamer Produktion (economies of scope), wenn gilt, dass
k
∑ c( y
i =1
Ti
) > c( y s ) .
In Worten: Economies of scope liegen vor, wenn die Kosten der Einzelproduktion mehrerer
Produktgruppen höher sind, als wenn diese Produktgruppen gemeinsam produziert werden. Wenn also
keine Economies of scope zwischen den Gütern eines Unternehmens vorliegen, macht dieses
Multiproduktunternehmen keinen Sinn. Diese Eigenschaft ist wiederum verbunden, dass die Kosten
zwischen zwei Outputstrahlen konvex verbunden sind, bzw. mit Kostenkomplementarität.
Eine Kostenfunktion C(y) ist strikt konvex quer über Outputstrahlen (transray convexity), wenn für
zwei Outputs ya und yb aus einer Hyperebene Σβiyi = k, βi > 0 gilt, dass jede Linearkombination billiger
produziert werden kann als die separaten Outputs:
C(αya + (1 - α)yb) ≤ α C(ya) + (1 - α)C(yb), für jedes α mit 0< α <1.
Diese Definition besagt, besagt, dass die Produktion einer Linearkombination der Outputs ya und yb billiger kommt als die jeweils separate Produktion. Dies verlangt, dass die Komplementarität in der
Produktion und die daraus resultierende gemeinsame Produktion den Verlust aus dem Nichtausnützen
eventuell wachsender Skalenerträge durch Spezialisierung auf eine Produktlinie dominiert.
Franz Wirl: Industriebetriebslehre
140
Schwache Kostenkomplementarität am Output y ist dann gegeben, wenn für die zweimal stetig differenzierbaren Kostenfunktion C gilt:
∂ 2C ( y0 )
≤ 0 für alle 0 ≤ y0 ≤ y.
∂y i ∂y j
Diese Eigenschaft - schwach kostenkomplementär zu sein - ist ein hinreichendes Kriterium für das
Vorhandensein von economies of scope.
Es besteht ein gewisser Trade-off zwischen economies of scale und economies of scope: wenn man sich
entschließt, economies of scope auszunutzen, indem man mehrere Produkte produziert, kann es sein,
dass man dann economies of scale eines bestimmten Produktes nicht mehr voll ausnutzen kann.
Grafisch gesehen ist ein Kriterium für die economies of scope, dass die Kostenfunktion strikt konvex quer
über den Outputstrahlen verläuft.
Angenommen, die Produktion eines Gutes wird zusätlich nach Verbrauchsmärkten klassifiziert, sodaß
"zwei" Güter, y1 und y2, resultieren. Die Produktion sei durch eine wachsende, konkave (steigende
Skalenerträge) Kostenfunktion (c) charakterisiert. Definiere mit C die Multiproduktkostenfunktion:
C(y1, y2):=c(y1 + y2)
die unmittelbar impliziert:
C(y1, y2) = c(y1+ y2) < c(y1) + c(y2) = C(y1, 0) + C(0, y2)
Die Bedingung der Konvexität über die Outputstrahlen verlangt nun für beliebige Outputs ya, yb aus der
Hyperebene Σβiyi = k:
C(αya + (1 - α)yb) ≤ C(ya) + (1 - α)C(yb), 0 < α < 1.
Das kann jedoch nicht der Fall sein auf Grund der Voraussetzung, daß c konkav ist. Daher induzieren
strikte economies of scale und strikte economies of scope nicht immer transray convexity.
Abbildung 3. 1
Die obige Abbildung charakterisiert eine typische Kostenstruktur für zwei Produkte. Die Eigenschaft
fallender Durchschnittskosten entlang eines Strahles ist dabei für drei Outputstrahlen 0Y dargestellt; die
steigenden Outputniveaus führen zu fallenden Durchschnittskosten dieser Outputkombination. Die Reduktion der Durchschnittskosten durch Expansion des Outputs von A0 nach A entlang des Outputstrahles
Franz Wirl: Industriebetriebslehre
141
a
y ist durch den geringeren Anstieg der strichlierten Linie dargestellt. Die über den Punkt D gebogene
Fläche stellt die Eigenschaft strikt konvex über Outputstrahlen dar. Daher kann jede Linearkombination
an Outputs günstiger hergestellt werden als die Einzelproduktion, die zu den Kosten entlang der
strichlierten Linie darüber, die A mit B verbindet, führt. Die Differenz (D' - D) stellt die Kosteneinsparung
eines Unternehmens dar, das eine Kombination beider Produktlinien herstellt, gegenüber zweier sich jea
b
weils auf y und y spezialisierender Firmen.
Ein Mehrproduktunternehmen ist durch Vorteile der Produktion einer Produktpalette gegenüber der
Erzeugung jedes einzelnen Produktes durch eine eigene Firma. Dieser Vorteil ist begründet durch die
Teilung gemeinsamer Inputressourcen im Produktionsprozess. Ein altbekanntes Multiproduktunternehmen ist die Schafzucht, die so differenzierte Endprodukte wie Wolle als auch Fleisch (und
eventuell noch Milch) liefert. Dieser Vorteil existiert auch für konstante Skalenerträge in allen Teilen der
Produktion, da der gemeinsame Produktionsfaktor Schaf genützt wird. Es ist jedoch interessant zu
beobachten, dass dieser Vorteil sehr wohl von der Technologie und von Preisen abhängt. So war z.B. im
12. Jahrhundert, als Fleischexport (auf Grund fehlender Kühltechniken) noch nicht möglich war, Flandern
nur ein Zentrum der Wollproduktion (bedingt durch Vorteile der Schafzucht in dieser Gegend), ohne die
eigentlich gänzlich ausnützen zu können.
Aktuellere und häufig genannte aber heute zunehmend bezweifelte Beispiele betreffen öffentliche
Unternehmen, wo auch viel Querverbundunternehmen aufgelöst wurden (z.B. die Wien Holding). Ein
weiteres wichtiges Beispiel ist durch die Aufteilung nicht direkt zuordenbarer Aktivitäten wie Forschung
und hohe Transaktionskosten. Hohe Transaktionskosten, die aus der Schwierigkeit resultieren, Kontrakte
gegen alle Eventualitäten abzusichern, führen zur vertikalen Integration vieler wichtiger Industrien.
Wichtig ist auch die Verknüpfung von Vorteilen der Großproduktion und dem Vorteil, mehrere Produkte
anzubieten. So besteht im Flugverkehr durch größere Flugzeuge eine fallende Beziehung zwischen
Kosten pro Passagierkilometer und Passagieraufkommen. Dieser Vorteil kann jedoch nur genützt
werden, wenn aus zahlreichen anderen Destinationen (=andere Produkte) die Passagiere an einen zentralen Punkt gebracht werden und dann in die Jumbos zu den Hauptdestinationen umsteigen. Hier sieht
man, dass economies of scale nur dann ausgenützt werden können, wenn gleichzeitig auch economies
of scope bestehen.
4.4
Natürliches Monopol
4.4.1
Subadditive Kostenfunktion
Eine Kostenfunktion ist subadditiv, wenn gilt:
c(y + z) < c(y) + c(z)
für alle Zerlegungen/Aufteilungen des Gesamtoutputs y + z. Das heißt, wenn eine gemeinsame
Produktion in jedem Fall billiger kommt als getrennt.
Bemerkungen:
•
Das Vorliegen einer subadditiven Kostenfunktion ist das Kriterium für das Vorliegen eines
natürlichen Monopols. Es bedeutet, dass technisch die Kosten so sind, dass sie ihr Minimum
haben, wenn nur ein Unternehmen am Markt ist, und den ganzen Output allein produziert.
•
Meist werden natürliche Monopole mit wachsenden Skalenerträgen verbunden. Diese sind aber
weder notwendig noch hinreichend für das Vorliegen eines solchen.
•
Weiters impliziert ein natürliches Monopol nicht, dass die Durchschnittskosten fallen.
Beispiel:
C(y) = f + vy2
impliziert Subadditivität und damit ein natürliches Monopol solange:
C(y) < 2C(y/2) und damit für y < (2f/v)½
Während die Durchschnittskosten
Skalenerträge
(f/y + vy) für (f/v)½ < y < (2f/v)½ steigen und wachsende
S = C/(C’y) = (f + vy2)/(2vy2),
also S
•
> 1, nur für y < (f/v)½ gegeben sind.
Wie schon oben erwähnt, ist es unmöglich, eine allgemeine, auf Kosten basierende, Zuordnung
der Fixkosten für ein Mehrproduktunternehmen zu benennen. Die in der Kostenrechnung
verwendeten Aufschlüsselungen sind in gewisser Hinsicht willkürlich.
Franz Wirl: Industriebetriebslehre
•
142
Eine Lösungsmöglichkeit für die Preisfestlegung für preissetzende, aber doch unter Konkurrenz
befindliche Unternehmen, bietet die Ramsey-Regel: Der Aufschlag über die Grenzkosten von
Gut i entspricht der Preiselastizität des Gutes i multipliziert mit einem Faktor λ, der ein
Konkurrenzmaß darstellt.
∂c
∂y i
1
= λ*
Pi
εi
Pi −
Wenn λ=1, entspricht das einem Monopol, je niedriger λ, desto mehr Wettbewerber gibt es.
Das Weak invisible hand theorem besagt, dass wenn es ein Quasimonopol gibt, aber potentielle
Konkurrenten lauern, und der Monopolist seine Preise aufgrund der Buchhaltung/Kostenrechnung
festlegt, aber einer der potentiellen Konkurrenten die Preise für die Konsumenten „angemessener“
aufteilt, dann kann er dem vorherigen Monopolisten Kunden wegnehmen. Die obige Ramsey-Regel
berücksichtigt die „Kundenangemessenheit“ indem die Preiselastizität der Nachfrage in die Formel
einbezogen ist.
4.4.2
Tragfähigkeit eines natürlichen Monopols
Unter einem natürlichen Monopol versteht man ein Unternehmen, das derartige Kostenvorteile hat, dass
als Marktgleichgewicht eben nur dieses eine Unternehmen überbleibt.
Bemerkung: An dieser Stelle soll nochmals betont werden, dass wachsende Skalenerträge weder
notwendig noch hinreichend für ein natürliches Monopol sind. (Dies ist auch aus der untenstehenden
Zeichnung ersichtlich, wo die Durchschnittskostenkurve nach dem Minimum schon wieder ansteigt d.h.
sich schon im Bereich der fallenden Skalenerträge befindet, aber trotzdem noch ein natürliches Monopol
vorliegt.)
Kann nun ein natürliches Monopol sich seines Marktes sicher sein?
Anders formuliert: Wenn ein Unternehmen der kostengünstigste Produzent ist, kann es dann sicher sein,
dass es auch den Markt bekommt? Im allgemeinen kann ein natürliches Monopol, selbst wenn es die
oben angeführten Ramsey-Preise verrechnet, nicht sicher sein, dass es den Markt behält, d.h. dass das
natürliche Monopol sustainable (tragfähig) ist.
Beispiel:
Ein Wasserversorgungsunternehmen kann die drei Gemeinden A, B, C versorgen. Es besteht die
Möglichkeit, entweder alle drei Gemeinden gemeinsam zu bedienen, oder zwei gemeinsam zu bedienen
und die dritte macht es alleine, oder alle drei kümmern sich separat um ihre Wasserversorgung.
Die Kosten ergeben sich folgendermaßen:
(A,B,C,) gemeinsam kosten 6,6
(A),(B),(C) einzeln kosten je 3
(A,B), (B,C), (A,C) kosten 4.
Dieses Monopol ist nicht tragfähig, da die Durchschnittskosten bei einer Versorgung aller drei Gemeinden
gemeinsam 6,6/3=2,2 betragen. Dann haben zwei Gemeinden ein Interesse zusammen zu gehen, und
nur je 2 zu zahlen. Das natürliche Monopol kann also nicht sicher sein, den ganzen Markt zu
bewirtschaften.
Franz Wirl: Industriebetriebslehre
Preis
143
Nachfrage
Durchschnittskosten
p*
pe
q*/2
qe
q*
Menge
Abbildung 3. 2
An der Stelle wo sich Nachfrage und Durchschnittskosten schneiden, wäre der Punkt mit minimalen
Kosten p*q*. Wenn man diese Menge q* z.B. auf zwei Unternehmen aufteilen würde, würden
Kostensteigerungen auftreten. Trotzdem es also laut Definition ein natürliches Monopol ist, das den
minimalen gerade noch kostendeckenden Preis p* anbietet, könnte ein Eindringling beispielsweise den
Preis pe verlangen, die Menge qe anbieten, und so einen Teil des Marktes streitig machen.
Diese Vorgangsweise, sich profitable Märkte aus einem natürlichen Monopol herauszusuchen, nennt
man „cream skimming“ oder „Rosinenpicken“. Der Begriff des Rosinenpickens spielt z.B. auch in der
Diskussion um die Privatisierung der Post eine Rolle, wo vorgebracht wird, die privaten Anbieter nähmen
sich die profitablen Märkte heraus (z.B. Expresszustellungen von Dokumenten oder Paketen), und ließen
das ehemalige Monopol nur mit den verlustbringenden Diensten zurück.
Franz Wirl: Industriebetriebslehre
5 Management
bei
wachsenden
(increasing returns to scale)
144
Skalenerträgen
Nachdem im vorhergehenden Abschnitt ausreichend betont wurde, dass natürliche Monopole nicht
notwendigerweise wachsende Skalenerträge aufweisen müssen, wird im folgenden die etwas saloppere
fast synonyme Beschreibung der Begriffe increasing returns und Vorteile großer Unternehmen
verwendet.
Airbus A380
Grundlage für diesen Abschnitt bilden u.a. die Artikel von Brian Arthur, in denen er in den 80er Jahren
seine Ideen über Auswirkungen von increasing returns entwickelte.
Betrachtet man die klassische, ressourcenabhängige Industrie, dann entspricht sie den Annahmen der
Klassische Ökonomie („Marshall“), sie ist – zumindest ab einer hinreichenden Größe der Unternehmen –
durch fallende Skalenerträge charakterisiert. Dadurch gibt es eine Vielzahl von Unternehmen und es
entstehen Märkte mit genügend Konkurrenz. Die Ignoranz wachsender Skalenerträge in der Analyse ist
sowohl empirisch, - traditionelle Industrien operieren unter fallenden (Landwirtschaft) oder bestenfalls
konstanten Skalenerträgen - als auch technisch bedingt. Eine der ersten Ausnahmen waren Dixit und
Stiglitz,1977, mit ihrem Modell monopolistischer Konkurrenz, welches schon im Rahmen der
Ausführungen zum Thema Standortwahl erwähnt wurde.
Brian Arthur argumentiert, dass insbesondere in der Informationsbranche, der New Economy, diese
Annahme der abnehmenden Skalenerträge nicht mehr gilt, sondern dass hier wachsende Skalenerträge
vorliegen.
5.1
Gründe für wachsende Skalenerträge
Folgende Aspekte können unter anderem wachsende Skalenerträge verursachen oder begünstigen:
•
Ein Großteil der Kosten fällt zu Beginn an
In allen High-Tech-Branchen wie Medikamente, Software, Computer, Flugzeuge, Bioengineering,
Telekommunikation spielen Forschungs- und Entwicklungskosten eine bedeutende Rolle, die
variablen Produktionskosten sind dagegen oft minimal. Beispiel Windows: die Erstellung eines
neuen Betriebssystems oder einer neuen Benutzeroberfläche (das heißt die erste CD-rom) kostet
$ 50 Mill, für die zweite und jede weitere CD-Rom kostet die Produktion vielleicht $ 3.
Franz Wirl: Industriebetriebslehre
145
Wissen ist quasi ein öffentliches Gut, das im Unterschied zu konventionellen Produktionsfaktoren
- einmal erworben - kostenlos fast unbegrenzt oft angewendet werden kann, was die (großen)
Skalenerträge ermöglicht.
•
Netzwerkeffekte
Netzwerkeffekte bestehen darin, dass es für Konsumenten nutzbringend ist, die selbe Software
zu verwenden, wie die Kollegen oder Geschäftspartner. (Attachments verschicken in exotischen
Formaten ist sinnlos, da es kaum jemand öffnen kann. Bei *.doc oder *.rtf hingegen ist die
Wahrscheinlichkeit hoch, dass Kompatibilität gegeben ist.)
•
Konsumentenabhängigkeit („lock in“)
Die Verwendung von High-Tech-Produkten ist trainingsintensiv. Daher bleibt der Konsument
einem Produkt, das er bereits kennt, treu, selbst wenn bessere zur Verfügung stehen. Nur dann,
wenn ein neues Produkt wirklich um vieles besser ist, wird er bereit sein, umzulernen.
Die Konsequenz aus diesen drei Effekten ist, dass am Ende des Prozesses eine stabile Lösung existiert,
dass aber ex ante nicht klar ist, welcher Standard sich etabliert.
Das vermutlich bekannteste Beispiel dafür ist die Konkurrenz der Videosysteme VHS und Betamax.
Diese beiden Systeme waren technisch ungefähr gleich gut und kamen gleichzeitig auf den Markt. Die
Kunden interessieren bei ihrer Kaufentscheidung marginale technische Vorteile eines Systems nicht
besonders, sondern sie achten darauf, in welchem Format die meisten Leihvideos produziert werden. Die
Videoverleiher versuchen natürlich ihrerseits wieder, die Filme in dem Format bereitzustellen, das mehr
Kunden zu Hause verwenden. Aufgrund dieser Rückkopplung kam es dazu, dass das VHS-System, das
zufällig einen leichten Startvorsprung erzielen konnte, rascher wuchs, und das (technisch angeblich
etwas bessere) Betamax verdrängte.
Ein weiteres Beispiel ist der Kampf von IBM/PC/Dos gegen Apple. Apple optierte Anfangs für eine
geschlossene Architektur, deshalb entstand eine geringere Kundenbasis, und die Feedbacks begannen
zugunsten von IBM zu wirken. Das Ergebnis in so einer Welt wachsender Skalenerträge ist: The Winner
Takes It All.
Bemerkung: Die Trennung zwischen der „Marshall’schen Welt“ fallender Skalenertäge, nämlich dem
Produzieren und Verarbeiten von Massenwaren und der „neuen Welt“des wissensintensiven Entwickelns
neuer Produkte und Dienstleistungen, ist nicht immer einfach, sollte aber gemacht werden, weil
unterschiedliche Managementtechniken anzuwenden sind.. (Bsp. Hewlett-Packard separiert die zwei
Welten: Hardwareproduktion-Softwareproduktion; IBM-PC zuerst dem Bereich wachsender aber jetzt
zunehmend konstanter Skalenerträge zu zuordnen),
Wachsende Skalenerträge bei Dienstleistungen:
Bei McDonalds oder anderen Restaurant- und Hotelketten beispielsweise, bestehen die Skalenerträge
eher nicht in rein „technischen“ Vorteilen, wie dem Aufteilen der Entwicklungskosten für neue Produkte
auf eine Unmenge an verkauften Stück. Es handelt sich eher um Netzwerkeffekte: Fast jeder Konsument
hat mittlerweile in seiner Umgebung ein McDonalds Restaurant, daher sind die Leistungen bekannt, und
der Kunde weiß, egal in welches Lokal der Kette er geht, er bekommt dort das gleiche, was ihm Suchund Informationskosten erspart.
Auch elektronische Bank- und Versicherungsdienstleistungen weisen ebenfalls die vorhin beschriebenen
Merkmale auf: Technologische (Entwicklung und Aufbau der entsprechenden Software und
Internetpräsenz stellt up-front Kosten dar), Konsumenten lock-in (Wenn man sich einmal mit der
Telebanking-Vorgangsweise einer Bank auskennt, wird man nicht so gerne eine neue lernen), etc.
5.2
Managementmethoden
Allgemein gab es im Bereich der Managementmethoden in den letzten zehn Jahren viele
unterschiedliche Moden und Ansätze: Flache Hierarchien, missionarisch, flexibel, marktpositionierend, reeverything (etwa repositioning, reengineering, restructuring, reorganising, etc.). Warum waren diese
neuen Ansätze nicht sehr erfolgreich?
In traditionellen Industrien mit relativ stabilem Umfeld, die von Kontrolle, Planung, Kostenminimierung
dominiert sind, bleiben Hierarchien und traditionelles Management effizient. (z.B. wäre im Cockpit eines
Flugzeuges ein Ansatz der flachen Hierarchie, wo alles Bordpersonal hineinmischen kann, sicher nicht
zweckmäßig!)
In den neuen wissensabhängigen Branchen hingegen, ist eine streng hierarchische Organisation fehl am
Platze, denn in Märkten, wo the winner takes all gilt, und man permanent auf der Suche nach dem Huhn
ist, das goldene Eier legt (cash cows), braucht man flache Hierarchien, hohe Freiheit der kreativen
Mitarbeiter, einen direkten Draht zum Generaldirektor und re-everything!
Franz Wirl: Industriebetriebslehre
146
Als Metapher für Industrien mit wachsenden Skalenerträgen wird gerne das Casino gewählt: im Casino
gibt es Tische mit unterschiedlichen Spielen (Multimedia, Netzwerktechnologien, etc.). Die Spieler
müssen sich zuerst überlegen, an welchem Tisch sie mitspielen wollen. Sobald sie Platz nehmen, wird
der Croupier ihnen mitteilen, dass das minimale Gebot, um in diesem Markt mitzuspielen, sich in der
Höhe von einigen Mrd. USD bewegt. Auch werden sie nie sicher wissen können, wer die Mitspieler sind,
und die Regeln stehen ebenfalls nicht fest, sondern werden erst während des Spieles herausgebildet.
Wichtige Strategien und Regeln in dieser Welt wachsender Skalenerträge:
1. Erster am Markt sein
2. Hervorragende Technik ist notwendig (aber auch nicht immer, siehe IBM-PC und unten) aber
nicht hinreichend. z.B. positiv: NetScape, negativ: NeXT (von Steve Jobs).
3. Integration in entsprechende Umwelten, „Miniökologien“ und Beachtung der Rückkoppelungen.
z.B: World Wide Web integriert mit Internet, Browsern, E-mail, etc.; Medikamente im Umfeld
Ärzte, Spital, Apotheken; Novell: Suche und Initiative bei Softwarefirmen für NetWare zu
schreiben; Microsoft: 60 Millionen Dos -> Windows -> Windows95 -> erzielte Netzwerkeffekte
durch billige upgrades. Apple ignorierte dies mit dem MacIntosh. IBM wählte das Gegenteil,
gewann den Markt aber verdiente wenig daran.
Wichtige Fragen für Manager in solchen Industrien:
Verstehe ich die Rückkoppelungen in meinem Markt? In welchem Umfeld befinde ich mich, zu welchem
Netz gehöre ich? Habe ich die Ressourcen, um mitzuspielen (kein Spiel für Ängstliche). Was ist das
nächste Spiel?
5.2.1
Wirtschaftspolitik am Fallbeispiel Microsoft
Aus aktuellem Anlass der Antitrust-Klage gegen Microsoft soll dieser Fall kurz besprochen werden.
Betrachtet im Kontext der wachsenden Skalenerträge ist es nicht so klar, ob die Verurteilung von
Microsoft wirklich gerechtfertigt war.
Argument 1: Angenommen es gebe im Markt für Betriebssysteme wirklich so starke Rückkoppelungen
und wachsende Skalenerträge, dass es Sinn macht, nur ein Betriebssystem zu haben, weil nur „Platz für
einen Spieler“ ist. Netscape trat auch mit dem Anspruch auf, ein Gesamtsystem anzubieten. Also gab es
für Microsoft nur die Wahl, Antitrustgesetze zu verletzen indem versucht wird, durch automatische
Beigabe des Explorers zum Windows-Betriebssystem Netscape auszuschalten, oder – wenn es
Netscape den Marktzutritt lässt – sich selbst zugrunde zu richten.
Argument 2: Es gibt in dieser Branche immer wieder temporäre Monopole, die aber von selbst wieder
verschwinden. (DBase, CPM/Digital Research).
B. Arthur meint, die Monopolbildung sollte nicht durch Regulierung verhindert werden, wenn sie aufgrund
besserer Technik zustande kommt. Wenn der Vorteil nur auf lock in basiert, sollte eher schon reguliert
werden.
Zwar erspart ein eingeführtes (lock in) Produkt (z.B. der Mausdoppelklick) zahlreiche komplizierte
Standards, allerdings kann durch das lock in auch der Fortschritt gehemmt werden. (z.B. Tastatur, die so
konzipiert wurde, dass sich die Hämmer der mechanischen Schreibmaschine nicht verklemmen. Heute
könnte diese Buchstabenanordnung durch eine ersetzt werden, die schnelleres Schreiben ermöglicht,
doch da kaum jemand bereit ist, umzulernen, solange es fast überall nur alte Tastaturen gibt, und da
kaum ein Hersteller bereit ist, neuartige Tastaturen auf den Markt zu bringen, auf welche die
Konsumenten wahrscheinlich nicht umsteigen wollen, bleibt die herkömmliche, „langsame“
Buchstabenanordnung erhalten.) Aber wenn das Monopol auf lock in basiert, sind die Monopolpreise
nicht die große Barriere, die den Markteintritt für neue Wettbewerber verhindert.
Wichtig bei der Implementierung von Regulieren ist, dass keine „Bestrafung“ erfolgreicher Unternehmen
erfolgt, sondern nur versucht wird, gleiche Einstiegsbedingungen für alle zu haben.
Schmalensee’s Microsoft Gutachten.
Economides Nicholas, The Microsoft Antitrust Case, Journal of Industry, Competition and Trade 1, 7-39,
2001.
5.3
Fallstudien
Besonders anfällig für diesen Schneeballeffekt seien, so wird oft argumentiert, die sogennanten HighTech Industrien und die folgende Tabelle gibt den Marktanteil der führenden Unternehmen in dieser
Industrien wieder:
Franz Wirl: Industriebetriebslehre
147
Franz Wirl: Industriebetriebslehre
5.3.1
148
AT&T Size matters. Is the giant dying, or just resting?
The Economist, Feb 21st 2002, p 69.
THE recent verdict of Fortune magazine was that AT&T is “dying”, and who could disagree? The telecoms giant's sales are falling,
predators snap at its heels, and the ambitions of its boss, Michael Armstrong, lie in expensive rubble around him. Even Golden Boy,
the statue that decorates the firm's New Jersey headquarters, is up for sale: the company is seeking more modest accommodation
elsewhere. If it really is dying, however, nobody seems to have told AT&T. The company thinks itself in ruddy health. When Mr
Armstrong joined in 1997, AT&T's business, as a long-distance carrier open to growing competition, seemed stuck in long-term
decline. Mr Armstrong's big idea was to grow by seizing control of the “last mile” of local lines that had been in the hands of the
regional “Baby Bell” operating companies since AT&T's break-up in 1984. So he bought and built cable and wireless networks as an
alternative to the Baby Bells' telephone lines. Just three years later, however, Mr Armstrong abruptly reversed course, saying that
AT&T would break itself up. By the end of this year, when the company plans to have finished the sale of its cable unit, it will look
much as it did back in 1997: a long-distance operator with a long list of blue-chip customers. There is, however, one key difference.
The company may be back where it started, but the market has changed, and mostly to AT&T's advantage. In recent years, the
telecoms industry has feverishly invested in cables, switches and other high-tech kit. Overcapacity ensued, prices collapsed, and
owning and operating the network itself suddenly looked less clever. Everyone soon realised that in this new world, money had to be
squeezed not from the network, but from the services bundled with it. “Fibre-optic cable is like crude oil,” says Dave Dorman,
AT&T's president and Mr Armstrong's probable successor when he steps down at the end of the year. “Customers don't buy crude
oil. They buy finished products.” In many ways, Mr Dorman's proposition is similar to that of IBM, a computer maker that reinvented
itself around its services business. The field of communications, like that of computing, has evolved at such bewildering speed that
most companies now have a hodge-podge of technologies to manage. At the same time, the rise of e-commerce means that the
performance and reliability of the network itself has become vastly more important. AT&T thinks it can offer services to help manage
these networks. The bigger the customer and the more complicated the network, the more lucrative the contract. In America alone,
guesses AT&T, this market may be worth $60 billion. “We think there are good margins in this,” says Mr Dorman. So, of course,
does everybody else. But AT&T finds itself with a big advantage: its size. As open, Internet-based technology standards replace old
proprietary networks, fiercer competition between telecoms carriers is making scale more important. Even after the sale of its cable
business, AT&T will have twice the revenues of WorldCom, America's second long-distance carrier, and four times the sales of
Sprint, the third. Baby Bells like SBC Communications have size, political protection and, of course, the famous last mile. But
outside their regions, their brands are little known, especially among the big, deep-pocketed customers that AT&T cherishes.
WorldCom and Sprint, meanwhile (along with upstarts like Qwest and Level 3), are laden with debt. AT&T will jettison $25 billion of
its borrowings with the sale of its cable unit, leaving it relatively unencumbered. And although it has just put an end to a costly and
inept alliance with Britain's BT, AT&T still has a big global network with which to lure multinationals. “No one else comes close to
them in the global business market,” says Mark Bruneau of Adventis, a consultancy. Mr Dorman has rebuilt AT&T's sales team and
repackaged its products. Awkwardly, however, much of his work has been obscured by the lingering presence of Mr Armstrong at
the top. Investors understandably look at the chief executive's office and see a long list of failures. If they cannot quite yet bring
themselves to believe in AT&T again, however, the company can take comfort from the sudden loss of confidence in its competitors.
The market sell-off that has halved the share prices of its rivals has left AT&T relatively unaffected (see chart). If it is off to the
boneyard, others may get there first.
5.3.2
Singapore Airlines
Thank you, Singapore
The Economist, Sep 28th 2000, p 81-82.
Singapore’s order for 16 Airbus A3XXs means chocks away for the super-jumbo—and the end of Boeing’s 30-year monopoly at the
top end of the airliner market
THE long, nail-biting agony of waiting for Airbus Industrie’s successor to Boeing’s ageing 747 is nearly over. The decision by
Singapore Airlines, due to be announced any day, to buy up to 16 A3XX super-jumbos not only suggests that Airbus is close to the
40 orders it needs to go ahead and build the aircraft; just as important, it also means that a leading airline has agreed with Airbus
that an all-new super-jumbo is the way to go if the soaring demand for air travel is to be met.
East Asia, in which air travel is concentrated on a few big city hubs, is the world’s fastest-growing aviation market. And Singapore
Airlines is acknowledged as perhaps the world’s best big carrier in terms of service and profitability. With the Singapore launch order
in the bag, Airbus can look forward to mopping up further orders for its new 550-seater aircraft: other airlines such as Qantas and
British Airways, which put heavy traffic through Singapore’s home hub, will sooner or later feel obliged to offer the last word in big-jet
travel. Airbus could not hope for a better, more high-profile launch customer. Boeing has good reason to feel miffed.
Singapore is also understood to have been negotiating on behalf of Virgin Atlantic, a British airline in which it now has a 49% stake.
Singapore is much bigger and has far more experience than Sir Richard Branson’s airline in wringing good deals from
manufacturers. Virgin is desperate to have larger aircraft, not least because its growth is strangled by a lack of take-off and landing
slots at London’s crowded Heathrow airport. Orders from Virgin for the A3XX could quickly follow Singapore’s.
The deal has been won only after a vicious battle with Boeing. On the one hand, Airbus has been offering launch customers deep
discounts to the $200m-plus list price of the new aircraft. On the other, Boeing has been promising cheap versions of a stretched
747, which it plans to develop, at a cost of only $4 billion, as a spoiler to theA3XX. So fierce has been the competition between the
two for Singapore’s orders that last year Boeing agreed to buy in some new Airbus A340 aircraft that had been ordered by the airline
in return for its switching to Boeing’s rival 777. This left Boeing in the odd position of undertaking to sell new Airbus aircraft.
This sort of horse-trading is not unknown in aviation. But it is all but inconceivable with launch orders, so the possibility for further
last-minute retaliation by Boeing is now remote. It had initially hoped to share the crucial Singapore order with Airbus: many
commentators had thought that the airline would hedge its bets by buying some A3XXs but also signing up for the updated 747,
known as the 747X. However, this is now thought to have been ruled out. Singapore may have been swayed by Airbus’s promise
that the A3XX will be 20% cheaper to run than are today’s jumbos—even though Boeing now claims that an upgraded 747 could
match this improvement.
Launching a new airliner is a complicated business. Before Boeing or Airbus (the only two companies that now make big jets) go
ahead, they need to be sure that enough airlines will sign up as launch customers. When the aircraft is the A3XX, which is expected
to cost $10.7 billion to develop, the stakes are very high. Airbus, which is 80% owned by EADS (a newly formed Franco-GermanSpanish aerospace group) and 20% owned by Britain’s BAE Systems, is betting the company on the new aircraft. Its development
costs are not much less than the firm’s total asset value. This makes the A3XX as big a bet as Boeing took when it launched the
jumbo in the 1960s.
Franz Wirl: Industriebetriebslehre
149
Airbus, of course, has had some special help: soft loans, worth one-third of the development cost, from the German, French and
British governments. These are to be repaid with interest through a levy on sales, but the governments share some of the
commercial risk, so Airbus is getting capital more cheaply than it might on the open market. Both Boeing and American trade
officials have complained about this, although the Europeans say it is in line with a 1992 bilateral agreement in which Europe agreed
to limit launch aid for new aircraft to one-third of costs, while America agreed to limit indirect subsidies to the likes of Boeing
(through NASA, America’s space agency, and other bodies) to 3% of their annual turnover.
When the A3XX gets its formal go-ahead, as now seems certain, Boeing will probably press the new American administration to get
tough. Few doubt that Boeing, America’s biggest exporter, has great clout in Washington. After the Gulf war, a newly installed
President Clinton telephoned the ruler of Saudi Arabia, urging him to buy $12 billion-worth of Boeing and McDonnell Douglas aircraft
rather than Airbuses. Saudia, the national flag carrier, duly bought American, leaving Airbus fuming in the desert.
Will EADS roll?
A successful launch of the A3XX (due to get a proper name in January) is crucial to the future of EADS, whose shares have
languished since it was partially floated this summer (see chart). Civil aircraft, mostly made by Airbus, account for about two-thirds
of EADS’s output. With the A3XX it will have a full range to challenge Boeing: until now Airbus has always suspected that the
American firm was able to hold down the prices of smaller aircraft that compete with Airbus’s, because it could cross-subsidise them
using monopoly profits from the 747. As it seeks to strengthen its military-aerospace business through alliances with France’s
Thomson and America’s Northrop Grumman, Airbus is the lifeblood of the new European aerospace group—and the A3XX is, in
turn, vital to Airbus’s future.
For Boeing, the launch of the new aircraft will be a big blow. It has for years fought hard to preserve the monopoly in giant airliners
that it has through the 747. It also argues that, because air travel is fragmenting (with more, smaller planes using more hubs), the
future lies with slightly smaller long-distance aircraft, such as its 777 and Airbus’s A340. But Airbus is confident that there is a
market for 1,200 aircraft carrying upwards of 400 passengers, plus pent-up demand for about 300 large freighter versions, as global
businesses strive to shorten their supply chains. Airbus reckons that it can carry off two-thirds of this huge market, worth nearly
$400 billion in today’s prices, before Boeing gets a rival in the air.
But Boeing may see no need to worry in the short term. Its watchword these days is shareholder value, and it can point to a healthy
near-doubling in its share price since the dark days, two years ago, when its market value fell below its net asset value, making it a
possible takeover target. Boeing’s stock is riding high because its factories are humming smoothly at full capacity, and its orderbook is strong. It may have landed fewer orders than Airbus last year, but it is now bouncing back. Many at the company, not to
mention its shareholders, feel that this is no time to bet the firm on a risky investment as big as the A3XX.
Yet sooner or later, Boeing will have to offer airlines a serious successor to the 747—and one that is as economical and attractive
as the A3XX may prove. That might take more than just the planned rehash of the 30-year-old jumbo, and could therefore cost a lot
more than the $4 billion needed for the current tentative offering, the 747X. Analysts think Boeing will most likely start afresh and
come up with a real rival early in 2002. The Seattle company will suffer none of the political and organisational delays that held back
the A3XX while Airbus’s consortium structure was laboriously converted into a proper company. Then it will be the turn of Boeing
shareholders to hold their breath.
5.3.3
Adobe
18
Intelligent design and clever marketing have made Adobe the king of online documents. But mistakes made along the way
were just as important
THE list of dead, dying and half-forgotten programs for the personal computer is not short: WordPerfect, Lotus 1-2-3, Netscape,
Eudora—to take just the tip of the iceberg. Each once dominated its bit of the market, and each has since been supplanted by a
Microsoft product: Word, Excel, Internet Explorer and Outlook. Indeed, popular PC software that does not come from Microsoft is
now the exception rather than the rule. That has left Adobe Systems—buoyed by a single product, Acrobat, and its associated
Portable Document Format (PDF)—as the second-biggest PC-software company in the world, with sales of $1.2 billion in 2001.
PDF is a way of representing documents electronically; Acrobat is Adobe's program for manipulating PDF documents. There are
many ways to represent documents electronically—everything from plain text and scanned images to Microsoft Word documents.
Plain text, though portable, is not all that useful, and other formats require specific software to make them readable. So does a PDF
document. But nearly everybody has Acrobat Reader, the freely distributed program for reading PDFs, on their computers already.
This is the secret of Adobe's continued success. But how did it come about?
Mysterious ways
Adobe was founded in 1982 by John Warnock and Chuck Geschke, two refugees from Xerox's fabled Palo Alto Research Centre in
Silicon Valley. Xerox PARC is famous for having generated many of the seminal ideas behind modern computing (graphically based
operating systems, for example), and then failing to commercialise them. The problem that Mr Warnock and Mr Geschke set out to
solve was how to print consistently attractive documents. Their solution was a programming language, Interpress, that would control
communication between a computer and a printer. So long as the printer was appropriately equipped, it would implement the
programmer's desires precisely. Frustrated by Xerox's sluggishness in commercialising the technology, Messrs Warnock and
Geschke set off on their own, taking Interpress with them to their new company, where it became known as PostScript.
PostScript could be used to describe both graphics and meticulously crafted fonts that Adobe initially adapted from commercial typemakers, and later designed from scratch. The quality of PostScript documents was such that, during the 1980s, it became the
standard for professional image-setters, and was also used in most laser printers. At the same time, software to display PostScript
on computer screens became freely available and widely distributed (at least among users of Unix-based computers).
By the early 1990s, Adobe already had a reliable, popular document format that was bringing in a steady profit. However, although
PostScript was good at some things, such as printing clearly, it was next to useless for others. Because PostScript is a programming
language, a PostScript document is essentially a program. To see what is on page 326 of a long document, you have to run the
entire program until it gets to that page. That is hardly the way to search for something you want in a hurry. Furthermore, PostScript
files are big, both because they contain detailed low-level information, and because each file includes whatever fonts are used in it.
PostScript was not ideal as a medium for content distribution; and it was not, even in 1991, the only format available. In the 1980s,
TeX (pronounced “tech”), a type-setting language written by Donald Knuth, now an emeritus professor at Stanford, had taken many
18
CASE HISTORY Trapeze artists, Dec 12th 2002, From The Economist.
Franz Wirl: Industriebetriebslehre
150
scientists by storm. TeX could encode complicated documents replete with elaborate mathematical formulae—a good worst-case
scenario test—in what was, to scientists at least, a simple fashion. TeX is a very elegant format, and continues to be a standard for
document creation among physicists and computer scientists. When it comes to exchanging finished TeX documents, however,
PDF is now habitually used in preference to the DVI (device independent) output format that was originally part of TeX.
The lessons to be learned from this are twofold. First, because TeX did not have software for document creation that was intelligible
to the lay computer user, it failed to catch on outside the scientific world. Second, because PDF is both more pliant and more stable
than other formats (such as DVI), it has become a “destination format”. Even if documents are produced in another way, (eg, TeX or
Microsoft Word), when it comes to distributing them people turn to PDF.
Mr Warnock saw the limitations of PostScript and its existing competition in 1991, and outlined a project called “Camelot”. Two years
later, PDF emerged. This was a time when the World Wide Web was beginning to become popular. The web had its own language,
which was evolving haphazardly from the draft of the HyperText Mark-Up Language (HTML) by its inventor, Tim Berners-Lee, at the
European Centre for Nuclear Research outside Geneva. If HTML and its various offspring became the blue jeans of the web, PDF
was the tuxedo—the clothing documents were dressed in when they needed to look immaculate.
False start
When Mr Warnock conceived Camelot he, like everybody else, grossly underestimated the subsequent growth of the Internet. The
“new media” that most expected at the time to succeed was the CD-ROM, which Mr Warnock intended to use to distribute books in
PDF. Distributing books electronically was an idea that Adobe would return to—rather unsuccessfully—in the late 1990s. The rise of
the Internet in the intervening decade would require Adobe, and every other software manufacturer, to revise dramatically their
notions of how to make money from computer programs. To be profitable, it became clear that somebody would have to give
something away.
With the explosive growth of the Internet, others followed in Mr Warnock's footsteps. On the proverbial information superhighway,
people were looking to exchange visually rich documents; and they needed to be sure that what was received at the other end was
consistent. A number of now forgotten start-up firms threw their hats in the ring. No Hands Software had a format called Digital
Paper. Tumbleweed was slightly more successful with its Envoy format; it was subsequently bought by Novell, a rival software
company.
More significantly, Microsoft also entered the fray. However, its Rich TextFormat (RTF) never had the same functionality as Adobe's
product, being essentially a pared-down version of the format used by Microsoft Word. Microsoft also entered the market late. In
1995, Bill Gates, the company's chairman, noted that Microsoft really had no effective rival to Acrobat—and it still hasn't.
Coming first to market certainly has advantages. If you are not Microsoft, it is generally a necessary, though not sufficient, condition
for success. The key, however, came not with the introduction of Acrobat in 1993, but with the decision in 1994 to separate Acrobat
Reader from the full version of Acrobat—and to give it away. Acrobat Reader can read and
print PDFs, but not produce or edit them.
Many companies that came and went in the dotcom boom of the late 1990s tried to make
money by giving things away, only to fail miserably. Adobe succeeded for several reasons. The
experience of PostScript proved invaluable. It allowed Adobe to produce a product that was
superior in all respects: it looked good, was truly portable across different systems, and had a
compact file size that made transferring files quick and easy. With PostScript, Adobe had learnt
how to strike a balance between charging for software and giving it away. The full version of
Acrobat still costs several hundred dollars; enough people buy it to justify giving the reader
away. Adobe also turned out to be in the right place at the right time, catching the wave of the
web before it crested.
“The key was to separate
Acrobat Reader from the full
version of Acrobat—and to give
it
away.”
Running to stand still
The legions of fallen software giants—from Netscape to WordPerfect—show that market share alone is not enough to maintain
dominance. Even something as seemingly mundane as format must be continuously modified if it is to remain in the ascendant.
With that in mind, Adobe has tried to take PDF in several new directions, with varying degrees of success.
The first was to use PDF as a foundation for its “eBook” initiative. This aimed at allowing PDFs to be transmitted from computers to
PDAs (personal digital assistants, such as the Palm or Blackberry) as well as to dedicated e-book reading devices. Furthermore,
Adobe's Content Server, a software package, was to be used to encrypt the files in order to prevent copyright infringement.
The exercise was a flop. To begin with, dedicated e-book readers failed to take off because they were bulky, expensive and
inconvenient. On top of this, Adobe's copy-protection scheme was flimsy, and easily defeated with the help of a piece of software
written by a Russian programmer named Dimitri Sklyarov. Anxious to persuade publishers that eBook was a secure format, Adobe
prosecuted Mr Sklyarov under the Digital Millennium Copyright Act when he visited America to attend a conference. Faced with a
public outcry, Adobe hastily dropped the case—but not before alienating many programmers, while doing nothing to make the
eBook format more secure.
If there is a lesson to be learnt from Adobe's eBook fiasco, it is that litigation is no substitute for well-designed software. If its
content-server encryption scheme had been stronger, the firm would never have had the public relations disaster in the first place.
When flexible displays are cheaper and better, electronic books may become as ubiquitous as paperbacks. But that could be years
away. In the meantime, Adobe is looking elsewhere.
After the invention of PostScript, Adobe's biggest software products were Illustrator and Photoshop, programs respectively for
drawing and manipulating photographs. Each proved highly successful in its time and, combined with Acrobat, established Adobe as
a company catering for graphic designers and publishers. To keep its graphics products evolving, Adobe has prudently made
Acrobat modular, leaving such things as pre-press processing and high-quality colour separation for book publishers to independent
software developers, who create PDF extensions that can be plugged into Acrobat to do additional tasks. This group of plug-in
writers is centred around two websites, PlanetPDF and PDFzone.
Here is another key to PDF's continued success. By providing free programming tools such as SDKs (software development kits)
and APIs (application programming interfaces), Adobe has fostered a group of outside developers who have a vested interest in
making sure that PDF remains the dominant format. And by selling them support, Adobe also gets another revenue stream.
Meanwhile, offloading the task of producing Acrobat enhancements to independent developers allows Adobe to focus more of its
efforts on the increasingly important “enterprise market”.
Franz Wirl: Industriebetriebslehre
151
Adobe believes that the paperless office—believed to be just around the corner ever since PCs first started appearing on people's
desks in the early 1980s—is finally about to arrive. Their claim is not so much that paper will disappear overnight, but that it will be
increasingly marginalised by the proliferation of slicker, more efficient alternatives. The goal is to have software that will allow users
to create a document only once, and then seamlessly distribute it many times. A document for the web may have rich audio-visual
content, but be automatically pared down for display on a wireless unit, and presented differently again if it is occasionally printed on
paper.
Whether the firm is right or not, Acrobat sits at the centre of Adobe's new “Network Publishing” initiative. By integrating the powerful
new tool for specifying web content known as XML (eXtensible Mark-up Language) into PDF, documents can be made smart
enough to have some understanding of their meaning. In the process, Adobe hopes to break down the distinction between
documents and databases. The trick is to embed, within a document, information about its content and structure in a standardised
manner that is easily interpreted by a computer program such as a search engine.
Thus, the creation of a large number of documents (eg, billing letters) from a database can be automated. By the same token, so
can the opposite: the creation of a database from a large number of disparate documents. Allied to this, Adobe aims to provide
“workflow solutions” that would make it easier for large teams of people collaborating on a project to create mega-documents—eg,
the specifications for a jumbo jet—by allowing them to interact in an intuitive way.
How all this will be done is not clear. What is clear, however, is that Microsoft is aiming to do the same with its XDOCS format,
which it hopes to introduce some time in 2003. It looks as though the perennial chimera of the paperless office could actually
become the software battleground of the future. And if the past is any guide, Microsoft could once again find itself reeling from going
head-to-head with Adobe on its own turf.
5.3.4
Volkswagen
19
WHEN Ferdinand Piëch arrived as Volkswagen's chief executive in 1993, things looked dire. The carmaker was overspending,
overmanned and inefficient, and had lost its reputation for quality. How things have changed: last year the VW group's profits more
than doubled, to a record €18.9 billion ($23.8 billion). As other European volume carmakers seek to close factories and cut jobs, VW
is seizing market share in Europe, booming in China and staging a comeback in America. It plans to spend €76 billion on new
models and new factories by 2016. Its global workforce is more than half a million, and growing.
It took years for Mr Piëch—now chairman, but still with his hands firmly on the wheel—to tame VW's menagerie of semiindependent brands and get to grips with its global empire of factories. He has been a ruthless hirer and firer of executives: only last
month Karl-Thomas Neumann was removed as head of VW's Chinese operations, supposedly for his disappointing performance,
despite the juicy profits VW is making in China. Mr Neumann had been talked of as a possible successor to the chief executive,
Martin Winterkorn.
Mr Piëch is a grandson of Ferdinand Porsche, who founded VW after Hitler called in 1934 for the creation of a cheap “people's car”,
a Volkswagen. The Piëch-Porsche clan controls both VW and Porsche, a sports-car maker that is now being folded into VW after
the failure of an overambitious and highly leveraged reverse takeover. On July 4th VW agreed to buy the 50.1% of Porsche it does
not yet own for €4.46 billion.
VW is also buying Ducati, a maker of fancy motorbikes, and consolidating MAN and Scania, two lorrymakers, into its commercialvehicles division. Yet still the firm remains hungry. It has long coveted Alfa Romeo, a premium-car division of Fiat; and is rumoured
to be eyeing up Navistar, an American lorrymaker. Mr Winterkorn nevertheless dismisses the suggestion that the group is getting
unmanageably big.
Mr Piëch's plan was for VW to become the world's biggest carmaker by volume by 2018. Last year, however, as Toyota struggled
with the aftermath of Japan's tsunami and GM floundered in Europe, VW reached its goal seven years early (see chart), if you do
not count Subaru, Toyota's distant affiliate, or GM's Wuling joint venture in China, which mainly makes Chinese-branded cars.
The 8.5m vehicles VW made last year cover all corners: Volkswagen, Skoda and SEAT in the mass market; Audi in premium cars;
Porsche, Bugatti and Lamborghini in sports cars; Bentley at the luxury end; plus various commercial-vehicle brands. Most (SEAT
excepted) are firing on all cylinders. IHS Automotive, a forecaster, expects VW easily to beat its target of 11m sales by 2018.
Fierce competition and regulatory pressure to develop alternative-fuel cars are forcing other makers to seek cost-sharing
partnerships. Toyota and BMW are teaming up on low-carbon technologies. GM's Opel division in Europe is joining Peugeot-Citroën
to make smaller cars. Daimler is edging towards a threesome with the Renault-Nissan alliance. Sergio Marchionne, the boss of Fiat
and Chrysler, recently suggested merging several European makers to create “another Volkswagen”.
Volkswagen has been better than its rivals at reducing the number of common “platforms” that its cars are built on. This allows it to
offer a fabulous variety of brands and styles while slashing manufacturing costs. The next stage, launched this year, is a versatile
platform codenamed MQB, which will underpin the VW Golf, Audi A3, Skoda Octavia and SEAT Leon, in all their variations.
Wolfsburg's lone wolf
VW's size means it seldom needs partnerships with rivals, says Mr Winterkorn. Perhaps this is just as well. Judging by its botched
hook-up with Suzuki, a mid-sized Japanese maker, VW is not much good at romance. Suzuki's boss, Osamu Suzuki, has filed for
divorce and is taking VW to arbitration to force it to sell its 19.9% stake in Suzuki. Among other things, he has complained of being
treated like a subsidiary, rather than a partner. VW had hoped to develop cheap cars for emerging markets with Suzuki, which is big
in India. Now it must do so alone, at considerable cost.
In many of the 26 countries where VW has factories, it has been around long enough to be seen as a domestic firm, so
protectionists usually leave it alone. The founding family's controlling shareholding, and a blocking stake held by the state of Lower
Saxony, where VW is headquartered, allow it to resist short-term pressures to pull out of any market that turns difficult. Rivals envy
the stability this brings, especially just now, says Mr Winterkorn.
VW can cope with a collapse of the European car market. Others must make deep cuts—or perhaps even, in the case of GM (which
has lost $16 billion in Europe since 1999) and Ford (which gave warning on June 28th of deepening losses there), pull out of the
continent altogether.
19
The Economist, July 7th, 2012, 56-57, VW conquers the world.
Franz Wirl: Industriebetriebslehre
152
VW bet on China nearly 30 years ago. Now it is the world's biggest car market and VW has 18% of it, through two joint ventures.
They sell 2m vehicles a year and plan to double this by 2018. A glut of cheap cars is hurting prices in China but VW's premium
models are doing well: the group's share of its Chinese ventures' profits rose from €1.9 billion in 2010 to €2.6 billion last year. VW
has long been big in Brazil (market share: 22%), and is expanding fast in Russia (9%). The weakest BRIC in its wall is India, where
its share is less than 5%. Suzuki, whose affiliate Maruti Suzuki has almost 50% of the Indian market, should have been the perfect
partner there.
The “Beetlemania” that VW enjoyed in America in the 1960s, when its Beetle was the pioneer of smaller, cheaper cars, faded in the
1970s. Decades of weak sales and losses ensued. VW closed its Pennsylvania factory in 1988 because the cars it made were
lousy. It tried importing from Mexico but couldn't make this pay. Now, with a big new plant in Chattanooga, Tennessee, a revamped
dealer network and the successful launch of the new Jetta, a family saloon, VW is back on a roll in America. Its sales there rose by
23% last year to 444,000, and its aim of selling 1m cars by 2018 looks achievable. However, VW's quality ratings in America remain
well below average, according to surveys by J.D. Power.
Like BMW, another admired German carmaker, VW seems to have succeeded because it is run by petrolheads. Mr Piëch's passion
for engineering pervades the group. He is the strategist; Mr Winterkorn the get-things-done guy. Hans-Dieter Pötsch, the chief
financial officer, has helped a lot by controlling costs, says Max Warburton of Sanford C. Bernstein, an investment bank. VW's other
chiefs enjoy considerable freedom—unless they incur the chairman's wrath.
For all VW's success, it is rare to hear people outside the firm praising the “Volkswagen Way” as they once lauded the “Toyota
Production System”. VW has ignored Toyota's obsession with the production line, says Mr Warburton, and concentrated on saving
costs through parts-sharing between models. It has managed to preserve a culture of permanent innovation and a willingness to
take risks. If there is a Volkswagen Way, it is to be determined, diligent and attentive to detail, with a glint of ruthlessness.
Still, plenty could go wrong. Toyota captured the top spot from GM in 2008, only to stumble on quality as it rushed for quantity. VW's
shared platforms make it vulnerable if one of them turns out to be flawed.
Sprawl and loss of focus are another risk. Take the SEAT brand, for instance, which lost €225m last year. What is it for? Mr
Winterkorn describes it as VW's “sporty, design-oriented” brand for young people. But how does SEAT's new Toledo, which VW
describes as “a practical, top-quality and affordable car for the whole family”, fit that image? If VW already has one brand too many,
SEAT is it.
An earlier growth spurt, during Mr Piëch's time as chief executive, led to VW's brands churning out lots of competing models while
overlooking popular new trends, such as the “compact multipurpose vehicle” pioneered by Renault with its Scenic. Upper-end
Volkswagens and Skodas are now competing with lower-end Audis. SEATs, Skodas and VWs have different images but much in
common under the hood. Relying on buyers' brand loyalty has worked so far, but for how long? Procter & Gamble, which is to
toiletries what VW is to cars, stumbled after “taking on every competitor in every category in every region of the world at once,” as
an analyst put it in The Economist last week. That seems to be what VW is doing now.
VW is so big in China that it would be vulnerable to a downturn there. Likewise in Brazil, where its Chinese rivals are starting to
encroach. And VW has a closer challenger in its rear-view mirror: Hyundai-Kia, which is pushing upmarket while continuing to churn
out small, good-value motors. It has around half of its home market in South Korea, is ahead of VW with a 9% share in America and
is making inroads in Europe and emerging markets. And unlike VW, it does not have a profusion of brands to support.
If the euro falls apart, VW's German factories will suddenly find their costs denominated in expensive Deutschmarks. That cosy
relationship with Lower Saxony (whose blocking stake the European Commission is seeking to remove) might become a burden if
VW needed to make swift cuts to maintain profitability. If circumstances require a change of direction, the monoculture at the top of
VW may react slowly. With so many executives close to retirement—Mr Piëch is 75 and Mr Winterkorn 65—succession is another
worry.
Franz Wirl: Industriebetriebslehre
153
However, such problems are hypothetical. As VW drives relentlessly towards world domination, Bernstein's Mr Warburton says that
Mr Piëch “will go down in history as an automotive legend, in the same class as Gottlieb Daimler, Henry Ford and Kiichiro Toyoda.”
5.3.5
st
Does IT matter? The Economist, Apri, 1 , 2004
ONE year ago, Nicholas Carr was just another 40-something junior editor at the Harvard Business Review—interested in
information technology (IT), sometimes contributing as a writer, but otherwise as unknown to the outside world as such editors tend
to be. Then, last May, he published a simple, jargon-free, eight-page article in the HBR, called “IT doesn't matter”. “I figured I'd ruffle
a few feathers for a week or two,” he recalls.
What happened instead remains puzzling to this day, not least to Mr Carr himself. The entire trillion-dollar IT industry, it seemed,
took offence and started to attack Mr Carr's argument. Chief information officers (CIOs), the people in charge of computer systems
at large companies, heard the noise and told their secretaries to dig out the article and put it on their desks. Analysts chimed in.
Rebuttals were rebutted. Suddenly, Mr Carr was the hottest number for anyone organising a techie conference. Within months, he
was expanding the original article into a book, “Does IT matter?”, which is coming off the presses this month. Already its detractors
and supporters are lining up for round two of the controversy.
Part of Mr Carr's trick, it seems, is simply choosing great titles. “IT doesn't matter” is viscerally threatening to people such as Scott
McNealy, the chief executive of Sun Microsystems, a maker of fancy and expensive computers. Like other tech bosses, Mr McNealy
basked in gee-whiz celebrity status during the dotcom bubble but has been spending the past three years defending Sun's
relevance to suddenly sceptical customers and investors. A confident showman, he challenged Mr Carr to a debate, on stage and
on webcast. It was a debacle. “Sun does matter,” Mr McNealy seemed to be arguing, or even “I still matter.” Even Mr Carr's critics in
the audience wondered whether Mr McNealy had actually bothered to read the article.
And this is the other explanation for Mr Carr's great impact. His argument is simple, powerful and yet also subtle. He is not, in fact,
denying that IT has the potential to transform entire societies and economies. On the contrary, his argument is based on the
assumption that IT resembles the steam engine, the railway, the electricity grid, the telegraph, the telephone, the highway system
and other technologies that proved revolutionary in the past. For commerce as a whole, Mr Carr is insistent, IT matters very much
indeed.
But this often has highly ironic implications for individual companies, thinks Mr Carr. Electricity, for instance, became revolutionary
for society only when it ceased to be a proprietary technology, owned or used by one or two factories here and there, and instead
became an infrastructure—ubiquitous, and shared by all. Only in the early days, and only for the few firms that found proprietary
uses for it, was electricity a source of strategic—ie, more or less lasting—advantage. Once it became available to all firms, however,
it became a commodity, a factor of production just like office supplies or raw materials, a cost to be managed rather than an edge
over rivals, a risk (during black-outs) rather than an opportunity.
Computer hardware and software, Mr Carr argues, have been following the same progression from proprietary technology to
infrastructure. In the past, American Airlines, for example, gained a strategic advantage for a decade or two after it rolled out a
proprietary computerised reservation system in 1962, called Sabre. In time, however, its rivals replicated the system, or even leapfrogged to better ones. Today, the edge that a computer system can give a firm is fleeting at best. IT, in other words, has now joined
history's other revolutionary technologies by becoming an infrastructure, not a differentiator. In that sense, and from the point of view
of individual firms, “IT no longer matters.”
And what's IT all about?
Surely though, Mr Carr's critics counter, IT is different from electricity or steam engines. Even if hardware tends to become a
commodity over time, software seems, like music or poetry, to have infinite potential for innovation and malleability. True, it may
have, answers Mr Carr, but what matters is not whether a nifty programmer can still come up with new and cool code, but how
quickly any such programme can be replicated by rival companies. Besides, today's reality in the software industry has nothing to do
with poetry or music. Many companies are furious about the bug-ridden, pricey and over-engineered systems that they bought
during the bubble era and are doing their best to switch to simple, off-the-shelf software, offered in “enterprise-resource planning”
packages and the like. If there is any customisation at all, it tends to be done by outside consultants, who are likely to share their
favours with other clients.
But surely Mr Carr does not appreciate the impressive pipeline of new technologies that is about to hit the market—the wireless
gadgets, the billions of tiny radio-frequency identity tags that will turn Aspirin bottles, shirt collars, refrigerator doors and almost
everything else into smart machines, and so on? Those are impressive indeed, says Mr Carr. But again, the issue is whether they
will be proprietary technologies or open infrastructures. And everything points to the latter.
This is not a debate for the ivory tower. Since IT can no longer be a source of strategic advantage, Mr Carr urges CIOs to spend
less on their data-centres, to opt for cheaper commodity equipment wherever possible, to follow their rivals rather than trying to
outdo them with fancy new systems, and to focus more on IT's vulnerabilities, from viruses to data theft, than on its opportunities. As
it happens, CIOs have been taking exactly this approach for the past three years, and their bosses like it that way. Perhaps all they
needed was an erudite way to justify this new sobriety. “It seemed like there was this role open and I just wandered into it,” says Mr
Carr.
5.4
5.5
IT und Robotics 20
Fallbeispiele oder Fabeln?
Die klassischen Fallbeispiele für Netzwerkeffekte, Lock-ins, kritische Masse und Geschichtsabhängigkeit
sind:
QWERTY (bei uns QWERTZ) – Tastatur anstatt der effizienteren Dvorak-Tastatur
Videorecoder: Der Sieg von VHS gegen ‚überlegeneres’ Beta
Computer: Der Sieg von IBM-PC-komaptiblen Rechnern gegen Macs.
20
David H. Autor, Why Are There Still So Many Jobs? The History and Future of Workplace Automation, Journal of Economic
Perspectives—Volume 29, Number 3—Summer 2015—Pages 3–30
Franz Wirl: Industriebetriebslehre
154
stellen sich aber bei genauem Hinschauen als Fabeln heraus (ähnlich erging es Samuelsons berühmtem
Beispiel für öffentliche Güter, dem Leuchtturm, der in England privat bereitgestellt wurde), vgl. dazu
Spulber (2002).
5.6
Literaturhinweise:
W. Brian Arthur: Increasing Returns and Path Dependence in the Economy, 1994,
www.santafe.edu/arthur,
W. Brian Arthur: Increasing Returns and the New World of Business, Harvard Business Review JulyAugust 1996, 100 ff
W. Brian Arthur: Positive Feedbacks in the Economy, Scientific American, Feb. 1990,
W. Brian Arthur: Competing Technologies, Increasing Returns and Lock-in by Historical Events,
Economic Journal , 99, 106-131,1989,
W. Brian Arthur: Bounded Rationality and Inductive Behavior (the El Farol Problem), American Economic
Review, 84,406-411, 1994,
W. Brian Arthur: Complexity in Economic and Financial Markets, Complexity, 1, 20-25, 1995.
Spulber Daniel F., Famous Fables of Economics. Myths of Market Failures, Blackwell, 2002.
Franz Wirl: Industriebetriebslehre
155
6 Produktion & Beschaffung
6.1
6.1.1
„Traditionelle“ Beschaffungsstrategien und Instrumente
Klassifikation von Rohstoffen
Der betriebswirtschaftliche Begriff Rohstoff unterscheidet sich vom allgemeinen Sprachgebrauch
(naturgegeben) und bezieht sich auf die Branche. So sind Erze und Koks Rohstoffe für Hütte, Rohstahl
für ein Walzwerk usw. Verschiedene Klassifikationen von Rohstoffarten finden sich in Weber, Kapitel 7, S
304ff.
Die XYZ-Analyse ist ein Instrument zur Klassifikation von Rohstoffen nach ihrem zeitlichen Bedarf.
Dieser kann konstant (X), schwankend (Y)oder irregulär (Z) sein. (z.B. Könnte bei einem Eisverkäufer der
Bedarf an Tüten pro Tag im Sommer relativ konstant sein, während der Bedarf nach Vanilleeis
schwankend ist und der Bedarf nach exotischeren Eissorten irregulär ist.)
Die ABC-Analyse versucht die Rohstoffe nach ihrer Bedeutung für das Unternehmen einzuteilen. Im
Hintergrund steht die Annahme einer Paretoverteilung, also dass ca. 20% der verwendeten Rohstoffe für
ca. 80% des Erfolges verantwortlich sind. Diese Klassifikation kann auch aufgrund ihrer Skaleninvarianz
auf eine große Bandbreite von Anwendungen übertragen werden: z.B. 20% der Institute einer Uni liefern
80% des gesamten wissenschaftlichen Outputs o.Ä.
Beispiel:
Beschaffungswert
Rohstoff (= beschaffte Menge im Jahr mal
Stückpreis)
r1
4.875,r2
12.500,r3
3.000,r4
500,r5
900,r6
16.000,r7
6.000,r8
3,600,r9
1,500,r10
4.400,Tabelle 5.1
Die Rohstoffwerte werden nun nach dem Beschaffungswert absteigend geordnet, ihr jeweiliger Anteil am
Gesamtbeschaffungswert berechnet, und diese Werte kumuliert, ebenso wird der Anteil an der
Rohstoffanzahl berechnet und kumuliert.
Rohstoff
r6
r2
r7
r1
r10
r8
r3
r9
r5
r4
Anteil am Gesamtbeschaffungswert
30,0%
23,5%
11,3%
9,2%
8,3%
6,8%
5,6%
2,8%
1,7%
0,9%
kumulierter Anteil am
Gesamt-beschaffungswert
30,0%
53,5%
64,8%
73,9%
82,2%
88,9%
94,6%
97,4%
99,1%
100,0%
Anteil an der
Rohstoff-zahl
10%
10%
10%
10%
10%
10%
10%
10%
10%
10%
kumulierter Anteil an
der Rohstoffzahl
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Tabelle 5.2
Wir machen nun bei 20% den ersten Abschnitt und bei 70% den zweiten: r6 und r2 sind also Rohstoffe
der Kategorie A, r7 bis r8 gehören zur Kategorie B und r3 bis r4 zur Kategorie C. Die Schranken sind
aber nicht auf 20% und 70% festgelegt, sondern können willkürlich gesetzt werden, an eine Stelle, wo die
Unterschiede zwischen der Bedeutung der Rohstoffe eine Abgrenzung rechtfertigen. Man erhält hiermit
eine grobe Einteilung.
Franz Wirl: Industriebetriebslehre
6.1.2
156
Optimale Bestellmengen
Mit Hilfe der Formel für die optimale Bestellmenge versucht man die Beschaffung eines Rohstoffes oder
vorgefertigten Produktes so einzuteilen, dass die Summe aus Bestellkosten (KE) + Lagerkosten (KL)
minimal wird. (Es besteht ein Trade-off zwischen diesen beiden Kosten: Häufiges Bestellen kleinerer
Mengen verursacht hohe Bestellkosten, aber dafür weniger Lagerkosten, umgekehrt gilt es für seltenes
Bestellen größerer Mengen.)
Die Bestellkosten setzen sich folgendermaßen zusammen:
KE = Kf + kvM + kb(M/m)
KE
gesamte Einkaufskosten des Rohstoffes in der Periode
Kf
fixe Kosten je Einkauf ua. von der Menge in der Periode
kv
variable Einkaufskosten
kb
Kosten je Bestellung (bestellfixe Kosten) u.a. von der Bestellmenge
M
gesamte Einkaufsmenge je Periode
m
jeweilige Einkaufsmenge, Losmenge
M/m
Anzahl der Einkäufe.
Die Lagerkosten setzen sich zusammen aus: KL = Klf + klvM + ∅Lb lw (p/100)
KL
gesamte Lagerkosten des betrachteten Rohstoffes in der Periode.
Klf
fixe Lagerkosten, d.h., unabhängig von der gelagerten Menge, Zugang oder Abgang
klv
variable Lagerkosten
∅Lb
durchschnittlicher Lagerbestand in Mengen
lw
Lagerwert je Mengeneinheit
(p/100) Zinsen und sonstige lagerwertabhängige Kosten
Angenommen wird, dass der Lagerzugang unendlich schnell erfolgt, und dann der Lagerbestand
gleichmäßig abgebaut wird. Der durchschnittliche Lagerbestand ist also die halbe Bestellmenge m. Dies
soll durch die Grafik veranschaulicht werden.
Abbildung 5.1
(Quelle: Skriptum zur Vorlesung aus Grundzüge der BWL IV)
Die Gesamtkosten sollen also minimiert werden:
min KL + KE = Kf + kv*M + kb*(M/m)+ Klf + klv*M + (m/2)*lw*(p/100)
m
Aus dieser Zielfunktion können nun die nicht von m abhängigen Bestandteile herausgenommen werden,:
Franz Wirl: Industriebetriebslehre
157
∽
K := kb*(M/m) + (m/2)*lw*(p/100),
um dann das Differenzieren übersichtlicher zu machen:
∽
K´ = -kb*(M/m²) + 0,5*lw*(p/100)
Nullsetzen der Ableitung und Auflösen nach m ergibt:
m=
2k b M
.
p
lw *
100
Aus dieser Formel für die optimale Bestellmenge erkennt man die Entscheidung beeinflussenden
Faktoren: sind die bestellfixen Kosten hoch, wird die optimale Bestellmenge größer sein. Ein hoher
Lagerwert des Gutes spricht eher für kleinere Bestellmengen, um nicht so viel Kapital zu binden, ebenso
ein hoher Prozentsatz p.
6.1.3
Heuristische Strategien zur Lagerbewirtschaftung und Bestellung
Die optimale Losgröße zu ermitteln bedürfte in der Praxis, wo häufig komplexe Produktions- und
Beschaffungsverflechtungen vorliegen, eines großen Rechenaufwandes, weshalb häufig auf Heuristiken
zurückgegriffen wird. (Alle Abbildungen aus Weber, S. 340 ff.)
(s, q) Politik: Wenn der Lagerbestand (nach Entnahme) die Schwelle s unterschreitet, wird die
vorgegebene Menge q bestellt.
Abbildung 5.2
(s, S) Politik: Bei Unterschreitung (nach Entnahme) des Lagerbestandes s, wird das Lager auf die
Sollmenge S aufgefüllt.
Abbildung 5.3
Franz Wirl: Industriebetriebslehre
158
(t, q) Politik: In konstanten Intervallen t wird die Menge q bestellt. (Solche rein von der Zeit abhängigen
Politiken sind aber nicht besonders sinnvoll, wenn man sich in einem stochastischen Umfeld bewegt, da
bestellt wird, egal ob noch ein großer Lagerbestand vorliegt oder nicht.)
Abbildung 5.4
(t, S) Politik: In konstanten Intervallen t wird das Lager auf seinen Sollbestand S aufgefüllt.
Abbildung 5.5
(t, s, q) Politik: zu den Intervallen t wird der Lagerbestand überprüft und bei Unterschreitung von s, wird
die Menge q bestellt.
Abbildung 5. 6
Franz Wirl: Industriebetriebslehre
159
(t, s, S) Politik: zu den Intervallen t wird der Lagerbestand überprüft und bei Unterschreitung von s, wird
auf den Sollstand S nachbestellt.
Abbildung 5. 7
6.2
Just in Time (JIT) und Lean Management
6.2.1
Entstehung von JIT
Der Ursprung von Just-in-Time findet sich in der japanischen Automobilindustrie. Das Konzept wurde
maßgeblich entwickelt durch Taiichi Ohno, dem damals leitenden Produktionsingenieur der Toyota Motor
Company in den frühen 60er Jahren. Die japanische Automobilindustrie stand nach dem zweiten
Weltkrieg einer Vielzahl von Problemen gegenüber:
•
Der Inlandsmarkt war sehr klein und dabei stark diversifiziert.
•
Neue, durch die amerikanische Besatzungsmacht erlassene Arbeitsgesetzte verbesserten die
Position von Arbeitskräften zum wirtschaftlichen Nachteil der Hersteller.
•
Im Vergleich zu den USA gab es fast keine Gastarbeiter oder Minoritäten mit beschränkter
Berufswahlmöglichkeit, die schlechte Arbeitsbedingungen zu vergleichbar höheren Löhnen
akzeptierten.
•
Durch den kriegsbedingten wirtschaftlichen Rückschlag fehlte Kapital zur Investition in neue
Produktionseinrichtungen.
•
Nichtjapanische
Automobilhersteller
drangen
Wettbewerbsvorsprung auf den Binnenmarkt vor.
mit
erheblichem
kapitalbedingtem
Zwar wurde den japanischen Unternehmen durch entsprechende Gesetze der internationale
Wettbewerbsdruck auf dem inländischen Markt durch Verbot direkter Importe genommen. Trotzdem
mussten japanische Unternehmen im internationalen Markt einen Weg finden, der es ihnen ermöglichen
würde, zu Autoproduzenten mit breitem Angebot bei niedriger Kapitalintensität zu werden. Ohno
entwickelte ein Produktionssystem mit kleinen Losgrößen, das Toyota-Produktions-System. Erzeugnisse
auf allen Produktionsstufen wurden erst zu dem Zeitpunkt produziert, transportiert oder bereitgestellt, an
dem der Abnehmer sie wirklich benötigte. Kapitalintensive Lagerbestände wurden dadurch im Idealfall
ganz eliminiert. Das bis dahin geltende Bring-Prinzip der logistischen Kette wurde durch das Hol-Prinzip
ersetzt.
Die kleinen Produktionslose erhöhten dabei jedoch die gesamt auftretenden Rüstzeiten. Diesem
Phänomen steuerte Ohno mit Untersuchungen zum schnellen Werkzeugwechsels gegen. Des Weiteren
sollten Tätigkeiten, die nicht unmittelbar produktionsbezogen waren, wie z.B. Tätigkeiten wie Einlagern,
Umschichten, Auslagern möglichst vermieden werden. Er prägte in diesem Zusammenhang den jap.
Begriff „muda“ (Verschwendung). Dazu war es u.a. notwendig, dass Teile und Komponenten zum
Zeitpunkt ihres Bedarfes direkt an das Fließband geliefert wurden.
Die Funktionsfähigkeit des Toyota-Produktions-Systems war abhängig von der Nutzung der Fähigkeiten
der Mitarbeiter. Diese wurden konsequent in den Prozeß des Eliminierens von Verschwendung
einbezogen. Voraussetzung hierfür war eine umfassende Schulung, damit Mitarbeiter Probleme erkennen
und ohne direkte Anweisung beheben konnten. Die Autorität und Verantwortlichkeit war dabei
weitgehend an den Mitarbeiter in der Produktion delegiert. So war z.B. das Auslösen eines
Bandstillstandes durch den Mitarbeiter erlaubt, der einen Fehler entdeckte und nicht sofort selbst
beheben konnte.
Franz Wirl: Industriebetriebslehre
160
Vor diesem Hintergrund ist das Toyota-Produktions-System auch eng mit den kulturellen Aspekten
Japans hinsichtlich der Arbeitsethik verbunden. So gelten Japanische Arbeiter im Vergleich zu
nordamerikanischen oder europäischen Kollegen z.B. als stärker gruppenbewusst und loyaler gegenüber
den arbeitgebenden Unternehmen sowie stärker an selbst initiierten inkrementellen Verbesserung Ihres
Arbeitssystems
interessiert.
Verstärkt
werden
diese
Unterschiede
durch
abweichende
Entlohnungsformen. So erhielten Mitarbeiter der Toyota Motor Company eine lebenslange
Beschäftigungsgarantie sowie eine an die Dauer der Betriebszugehörigkeit und an dem
Unternehmensgewinn gekoppelte Entlohnung. Die Kulturunterschiede begründen im wesentlichen den
Erfolg des Toyota Production System, und werden unter anderem für die Schwierigkeiten bei der
Übertragung auf nordamerikanische und europäische Verhältnisse im Lauf der 80er Jahre verantwortlich
gemacht. Der Begriff „Just-In-Time“ wurde dabei von japanischen Autoren als Synonym bei der
englischsprachigen Darstellung des Systems und der dahinterstehenden Philosophie geprägt.
6.2.2
Toyota
21
Although it is very close to becoming the world's biggest carmaker, not all is running smoothly at Toyota
CAR bosses are expected to perform silly stunts at motor shows. But whoever had the bright idea of
putting Toyota's president, 65-year-old Katsuaki Watanabe, into a “personal mobility concept” for his
appearance at last month's Tokyo show should give thanks for the company's lifetime employment policy.
The machine, called an i-REAL (pictured above), looks like a cross between a Segway and a wheelchair
for an ageing Jetson. The unflamboyant Mr Watanabe's grin looked distinctly forced. Nor did he appear all
that convinced by another Toyota vision of the future, the RiN. This weird-looking car encourages drivers
“to re-evaluate themselves and...to turn their attention to society and nature, producing a healthy rhythm
for both mind and body” by adapting to their psychological state with a “mood-training” steering control.
It is easy to dismiss all this as typical Tokyo motor-show wackiness with the life-expectancy of a
dragonfly. But those eccentric vehicles had a job to do: to polish Toyota's image as a car company with a
highly developed sense of social responsibility rather than one chasing growth at all costs, just as it is
about to realise its long-standing ambition of becoming the world's biggest vehicle producer. By the end of
the year, Toyota is set to edge past General Motors (GM) with forecast group sales of 9.34m vehicles
compared with GM's 9.29m. At the same time, it will decisively push Ford into third place in the crucial
North American market.
The way to make them
But despite the sweetness of the moment, it is almost forbidden for Toyota executives to talk about
becoming Number One. When asked, they all say the same thing: being biggest doesn't mean anything;
what matters is doing your best for the customer. Boastfulness or crowing over Detroit's agonies is most
definitely not part of the Toyota Way, the 14 principles that underpin the firm's management philosophy.
And despite having created the capacity to build more than 2m vehicles in North America by 2010 (more
than half the number it expects to sell) Toyota has never entirely lost its fear that success could provoke a
protectionist backlash.
But there are two other things the firm's executives like talking about even less. The first is the strain the
drive to the top has put on the fabled Toyota Production System. In the past couple of years, a series of
unToyota-like quality problems have begun to nibble away at the firm's reputation as the world's most
admired manufacturer and as a byword for reliable vehicles. In July 2006, after some conspicuous
product recalls, Mr Watanabe bowed in apology and promised to fix things with a “customer first”
programme that would redirect engineering resources and, if necessary, lengthen development times. But
the recalls have continued and Toyota is still slipping in consumer-quality surveys. The company's global
head of manufacturing, Takeshi Uchiyamada, recently expressed “shame” at the problems with the latest
Tundra full-size pick-up.
The second embarrassment, which is causing unwelcome attention in America, is the gap between
Toyota's carefully nurtured image of environmental concern, exemplified by the hybrid technology found
in the pioneering Prius, and other products, like the new Tundra and the Lexus LS 600h luxury sedan.
The Tundra is advertised as the baddest, brawniest truck on the market. Although the 600h is a hybrid, it
tips the scales at more than 2,360kg (5,200 pounds) and uses more fuel outside town than the non-hybrid
version of the car. Even more disappointing for some of Toyota's American fans is its decision to team up
with Detroit's “Big Three” in an effort to undermine a Senate energy bill that would force American
carmakers to reach a not-too-demanding fleet average of
35mpg by 2020.
21
A wobble on the road to the top, The Economist, Nov 8th 2007.
Franz Wirl: Industriebetriebslehre
161
As Toyota Motor Corporation celebrates both 70 years as a
carmaker and half a century of selling cars in America, it
would be a huge exaggeration to suggest that there is any
danger of the wheels coming off “the machine that changed
the world”, as Toyota has been called. But there is an
unmistakable feeling that at the very moment of its greatest
triumph, Toyota has wobbled.
At first sight, there is little for Toyota to be concerned about.
While its American rivals have cut back production of cars
they can't sell, each year Toyota sets another output record.
In the year to the end of March 2007, Toyota sold 8.52m
vehicles, nearly a 7% increase over the previous year. On
the back of a 14% increase in revenues, Toyota's net income
rose by 20% to $14 billion (GM, though it just outsold Toyota,
lost $2 billion last year and is sufficiently gloomy about its
financial prospects to have this week taken on the chin a
massive $39 billion non-cash charge to write down deferred
tax credits).
This financial year Toyota expects net income to grow by a more modest 3.4% despite a strong first six
months. That is because money is being ploughed into new factories and the development of new models
to feed ambitious production targets in the years ahead; Toyota is aiming to sell 10.4m vehicles in 2009.
But it is also throwing cash at its troubling quality issues by introducing stringent new controls, hiring more
inspection engineers and beginning a mammoth programme of re-training factory workers.
How serious are those quality problems? It is not as if the company has suddenly become careless in the
way it makes cars. This is evident at its factory in Miyata on Kyushu, the southernmost of Japan's islands,
where it builds the smaller Lexus sedans, the RX350 premium crossover and the Toyota Highlander
mainly for export to North America.
Everywhere at the Miyata factory are examples of Toyota's fabled kaizen (continuous improvement)
approach. As in all its plants, behind every worker hangs the andon cord, which, when pulled, instantly
summons a supervisor with the power to stop the line before any error is passed on. Each defect is
measured and logged for the systematic hunting down of quality problems. On top of this, up to 80 people
are employed to inspect 1,400 items on every car before it leaves the factory. The assembly line is a
model of perfectly choreographed intensity. Rather than parts being piled up at each point in the line
where they are fitted, a fleet of electric vehicles refreshes the supply constantly—not just lean production,
but leaner.
Typical of the commitment to creating the best possible product is the water polishing of every car body
during painting, which may be unique to Lexus and provides advantages visible only to the trained eye.
Even so, up to 30% of the vehicles made at Miyata don't get past the gimlet-eyed inspectors without
some tiny fault, usually slightly less than perfect paintwork, requiring painstaking rectification. A lot of the
work on Kyushu is carried out by skilled employees rather than by machines. Managers at the factory talk
constantly about “craftsmanship”, while the slogan, “we put our entire soul into each and every car”, is
never far away.
The production evangelists
Perhaps Toyota's greatest achievement is to have proved that it could export its production system,
principally to North America, Britain and France. Essential to doing so has been the availability of skilled
Japanese engineers, known as sensei, who act as team leaders to inspire new recruits and inculcate the
“Toyota Way” from Kentucky to Derbyshire.
Four years ago, realising that there might not be enough sensei to meet its ambitious production plans,
Toyota established its Global Production Center (GPC) in Japan. The idea was to accelerate the
development of sensei by giving them streamlined teaching methods and training devices. More than
10,000 people have graduated from the GPC and branches are being set up overseas. Nevertheless,
executives admit that the stream of new sensei has not kept pace with expansion.
It is not just the so-called “transplant” factories abroad that have been affected. The speed with which
capacity is being created is putting pressure on the whole system. In mid-October Toyota recalled
470,000 vehicles in Japan with a variety of problems from faulty fuel pumps to defective steering systems.
It followed recalls of 2.1m vehicles in Japan and North America last year, when it was ordered by the
Japanese government to sort things out. In 2005 there were
1.9m recalls in Japan and 2.3m in America.
Franz Wirl: Industriebetriebslehre
162
Last month it received an unexpected blow from America's
influential Consumer Reports magazine. Declaring that
“Toyota is showing cracks in its armour”, it relegated three
models from its recommended list: the Camry V6 sedan, the
all-wheel-drive variant of the Lexus GS and the Tundra pickup. The magazine added that it would “no longer recommend
any new or re-designed Toyota models without reliability
data on a specific design”. In other words, it would no longer
simply assume Toyotas to be reliable. Overall, Toyota was
ranked only the fifth most reliable manufacturer. A recent
J.D. Power Initial Quality Study also showed Toyota losing
ground to its Japanese rival, Honda.
Toyota points out that the Initial Quality Study is not as
important as it once was, because all makes are so much
better (the difference between the best and worst is now less
than one problem per vehicle). What matters more in
generating customer loyalty, says Toyota, is dependability
over a typical three- to five-year period of ownership. Toyota
can claim that Consumer Reports still recommends more of its vehicles than any other carmaker: 17 out
of 39. It is also confident of fixing the Camry and the Tundra problems (in the former, a wrongly installed
minor component which prevented second gear from engaging; in the latter, a fault in the torque
converter that created a loud vibration).
But what should alarm Toyota is that the Camry, long the best-selling sedan in America, is not bought
because of its stand-out styling or its class-leading performance and handling. Camry owners cite
“reliability”, “quality” and “refinement” as their reasons for purchase. Both the new Honda Accord and
Chevrolet Malibu provide stiff competition to the Camry, and are also better to drive. As for the redesigned Tundra, launched in February from a new factory in Texas, it has had other problems, from a
batch of faulty camshafts to a failure to win a five-star crash rating—something achieved by all its Detroit
rivals. Worse still, in the past few weeks stories have begun to circulate on the web suggesting the
Tundra's tailgate buckles under heavy loads.
Toyota knows better than any producer that its brand reputation depends on bullet-proof build quality.
That has taken decades to establish, but it could be quickly eroded. The answer is meant to be Mr
Watanabe's “customer first” initiative, which is designed to put more power into the hands of the chief
engineer of any new car in order to achieve a trouble-free launch.
What may be more difficult, according to people inside the company, is finding enough first-rate engineers
to carry out exhaustive tests and any last-minute redesigns that may be necessary. The new Highlander
SUV is the first to go through this process and Toyota claims it has gone smoothly. However, Masatami
Takimoto, the executive in charge of quality as well as R&D, is not prepared to declare victory just yet. He
says another two years of new-product launches are needed to evaluate “customer first”. The assumption
must be that Toyota will eventually get on top of its quality problems, even if it means slowing its
production plans. With other carmakers, including GM and cash-strapped Ford, catching up fast with
higher quality, any complacency could be fatal.
Toyota also needs more help from its American dealers, who have had less experience handling
customer complaints than those selling rivals' cars. After coming 28th out of 36 vehicle brands in a J.D.
Power customer satisfaction survey last year, Toyota's American sales arm came up with a programme
called EM2 (“everything matters exponentially”) which was designed to hold a mirror up to all its
operations. But the loss of some of Toyota's best American managers has jolted morale. In September
Jim Press, a 37-year veteran and the only non-Japanese board member was lured to the new privately
owned Chrysler. Four weeks ago, Jim Farley, credited with creating Toyota's entry-level Scion brand,
jumped ship to Ford. Another sign of the times is that Toyota, which never used to discount its cars, now
gives its dealers almost as much money to help close sales as GM does. According to Art Spinella, of
CNW Marketing Research, Toyota's dealer incentives “have more than tripled in the last three years” to
an average $3,752 for each vehicle.
What could prove even harder than getting on top of its quality problems is deciding how Toyota wants to
be seen in the world. The company talks a great deal about sustainable growth and striving for what it
calls “zero negative impacts” on the environment. Mr Watanabe wants his engineers to produce cars that
do not pollute at all and prevent their drivers having accidents. Fundamental to this image as a kinder,
gentler car company is its pioneering hybrid technology. This year, Toyota sold its millionth hybrid car and
Mr Takimoto predicts that by 2010 hybrids will account for about 10% of Toyota's production. By 2020 just
about all Toyotas will be hybrids.
Franz Wirl: Industriebetriebslehre
163
But Toyota could easily lose its lead with hybrids through a combination of complacency and
technological conservatism. Its Synergy Drive system is about to face strong competition from the 2-Mode
hybrid system developed jointly by GM, Mercedes-Benz and BMW. The main advantage claimed for 2Mode is that it is particularly suited to large vehicles, even heavily loaded SUVs and pick-ups—still the
type of vehicles that most Americans buy. A stream of 2-Mode hybrids is about to be launched and these
will inevitably deprive Toyota of some of its uniqueness.
A paler shade of green
Look a little farther ahead and Toyota is threatened by its apparent unwillingness to accelerate the
development of the next-generation Prius. Although prototypes are on the road in Japan and France with
a larger battery that can be recharged from the mains, Toyota says that production of a new Prius will not
begin for at least three years. When it does, it might not provide much of a boost in performance. Toyota's
hybrid engineers remain sceptical about whether lighter, faster-charging, lithium-ion batteries (the kind
used in mobile phones and laptops) will be dependable enough to use in cars because of their tendency
to overheat and fail. As a consequence, the next Prius is likely to continue using nickel-hydride batteries,
which will limit its range to around 10km when running on electric power alone.
By contrast, GM believes that a car based on its Chevy Volt concept will be ready to launch in 2010. Not
only will this use lithium-ion batteries, but it is also designed to run on electric motive power all the time
with a small internal-combustion engine employed as a generator when the plug-in charge runs down.
The result is likely to be a range on battery power of about 40 miles (64km)—more than enough for the
average commuter in America.
When asked about GM's plans, Toyota's engineers are politely sceptical. Unlike its American rival, Toyota
insists on developing its own lithium-ion battery technology and believes that the outsourcing route taken
by GM is unlikely to produce better or faster results. Although they don't quite say so, Toyota's people
think that the Volt is more than likely to blow up in GM's face, quite literally. They may be right: Toyota's
experience with hybrid vehicles is unmatched. But if they are wrong, Toyota could be leapfrogged in a
technology it has exploited brilliantly to define itself as the world's greenest car firm.
Toyota is already putting its green credentials at risk by siding with Detroit to oppose the 35mpg
corporate-average fuel-economy standard for 2010. It is not hard to understand why. Toyota takes the
pragmatic view that it has to produce the cars that consumers want and that without a complete product
range its ability to keep growing in America would be severely stunted; hence the giant new Tundra.
However, that sits uneasily with the first principle of the Toyota Way—that the company must generate
value for society—and with Mr Watanabe's insistence that Toyota be uniquely committed to “sustainable
mobility” and, eventually, zero harm to the environment. When Toyota's position on fuel standards
became known last month, nine of America's leading scientific and environmental organisations took out
advertisements in newspapers and started up a website, www.truthabouttoyota.com, to condemn the
company for what they saw as its hypocrisy. Prius owners have attended rallies attacking Toyota for its
“betrayal”.
The danger Toyota faces is that two of the very things that have made it so successful—the rock-solid
reliability of its products and its reputation for making fuel-efficient, greenish vehicles—are threatened by
the need to keep feeding its phenomenal growth. Despite some signs of renewed competitive vigour at
GM, the momentum Toyota has created means that almost nothing can stop the Japanese company from
establishing itself either this year or next as the undisputed leader of the world's car industry. But in doing
so Toyota runs the risk that the price of that remarkable achievement will be losing something of its
specialness.
6.2.3
JIT in Produktion und Beschaffung
Gegeben, dass in der traditionellen Beschaffungsstrategie ohnehin alles optimiert wird, wo liegt der Sinn
darin, ein „willkürliches“, „suboptimales“ Beschaffungssystem wie JIT zu propagieren? Die Kosten sollten
sich doch dadurch erhöhen? In der traditionellen Beschaffungswirtschaft wird der menschliche Faktor
völlig negiert, während JIT berücksichtigt, dass an den Maschinen und in den Lagern Menschen stehen,
die entsprechend motiviert werden müssen. z.B. wird bei Bestellung von optimalen Losgrößen ein
bestimmter, teilweise recht hoher, Lagerbestand vorhanden sein. Ein solcher hoher Lagerbestand kann
aber die Arbeiter dazu verleiten, sich auf diesen zu verlassen, und bei der Behebung von Problemen
gemächlich zu Werke zu gehen, während die Lagerbestände bei JIT immer sehr knapp bemessen sind
und daher ein größerer Anreiz besteht, Fehler schnell zu beheben, um nicht den ganzen Prozeß zu
blockieren.
Ziele:

Verringerung der Materialbestände
Franz Wirl: Industriebetriebslehre

Verringerung der Durchlaufzeiten

Erhöhung der Arbeitsproduktivität

Erhöhung der Flexibilität bezüglich kurzfristiger Lieferungsbereitschaft
164
Einige dieser Ziele wirken auf den ersten Blick widersprüchlich!
Funktionsweise
Ein ‚Verbraucher‘ nimmt ein Teil nur dann, wenn es gebraucht wird, und nachgefüllt wird nur, wenn eine
Lücke erkannt wird. Es wird also von der Konsumentenseite her begonnen, „Supermarktprinzip“
Die Steuerung erfolgt mittels Karten oder Schildern, den sogenannten Kanbans. Diese Form der
Steuerung mittels Karten ist jedoch nicht essentiell und kann durch andere Medien, etwa E-Mail, ersetzt
werden.
Man unterscheidet
Transportkanbans: Diese werden von der verbrauchenden Stelle dazu benutzt, ein bestimmtes Material
aus dem Pufferlager abzuholen
Produktionskanbans: Diese stellen einen Produktionsauftrag für ein bestimmtes Material dar, und
werden zwischen dem Pufferlager und der produzierenden Stelle gesetzt.
Signalkanbans werden dann eingesetzt, wenn die Materialbeschaffung ab einem gewissen Stand
erfolgen soll. (z.B. wenn der Bestand an Teil X kleiner als 50 wird, wird ein kleines Fähnchen dazu
gehängt, das anzeigt, dass der Teil wieder nachgeliefert/produziert werden soll.)
Lieferantenkanbans: Diese stellen eine Art Bestellschein dar, um eine Materialbestellung beim
Zulieferer auszulösen.
Die folgende Abbildung 5.8 (Quelle: Fandel-Francois, S. 24f.) stellt einen Kanban-Kreislauf dar.
 Ausgangspunkt des JIT-Konzepts ist immer die verbrauchende Produktionsstelle. Von dort geht ein
Mitarbeiter mit der notwendigen Anzahl von Transportkanbans und den leeren Behältern zu der
vorhergehenden Produktionsstelle. Die Behälter lässt er dort stehen.
 Der Mitarbeiter fügt nun Transportkanbans an die vollen Behälter, die er aus dem Pufferlager
mitnimmt. Er entfernt die Produktionskanbans, die er in der Kanban-Sammelbox (Kanban-Annahmestelle)
hinterlegt. Beim Austausch der Transport- und Produktionskanbans sind diese sorgfältig auf
Übereinstimmung zu prüfen, da sonst später Störungen in der Materialversorgung auftreten können.
 In kurzen Zeitabständen wird die Kanban-Sammelbox entleert. Die Produktionskanbans stellen die
Fertigungsaufträge für die Stelle dar.
 Das Material, das mit Hilfe der Produktionskanbans angefordert wurde, wird hergestellt und in leere
Behälter gelegt.
 Die aufgefüllten Behälter werden jeweils mit den dazugehörigen Produktionskanbans versehen, und in
das Pufferlager transportiert, so dass die Materialien für die nachfolgende Produktionsstätte wieder zur
Entnahme bereitstehen.
 Um die Materialien, die in das Pufferlager transportiert wurden, herstellen zu können, benötigt die
Produktionsstelle selbst Materialien von der vorangehenden Stelle. Diese Input-Materialien werden in
einem Pufferlager zwischengelagert.
 Bevor die Materialien verbraucht werden, werden den Behältern die Transportkanbans entnommen
und in eine Sammelbox gelegt.
 Während des Produktionsvorganges werden die Materialien aus den Behältern entnommen.
 Wenn sich eine genügend große Anzahl von Transportkanbans in der Sammelbox angehäuft hat,
begibt sich ein Mitarbeiter mit den Transportkanbans und den leeren Behältern zur vorhergehenden
Produktionsstelle, deckt sich dort mit gefüllten Behältern ein und löst wieder eine Nachfrage aus, wie dies
bereits in  erläutert wurde.
Franz Wirl: Industriebetriebslehre
165
Abbildung 5. 8 (Quelle: Fandel-Francois, S. 24f.)
Wichtigste Prinzipien:
Die Kanbansteuerung zwischen dem Zulieferer und dem Abnehmer verläuft nach dem Bringprinzip (also
traditionell). Hingegen gilt innerbetrieblich (mit Ausnahme des Fertigwarenlagers) das Holprinzip.
Da sich beim Holprinzip die jeweils nachfolgende Stelle bei der vorangehenden Produktionsstelle
eindecken muss und kleinere Störungen in der Produktion ausgeglichen werden müssen, werden die
Pufferlager benötigt. Aber auf Grund der kleinen Losgrößen unter JIT haben diese nur geringen
Bestand.
1. Produktion Just in Time
Voraussetzungen und Grenzen:

Kleine Losgrößen müssen sich wirtschaftlich realisieren lassen.
Diese kleinen Losgrößen führen dann zu geringeren Lagerbeständen, kürzeren Durchlaufzeiten und
erhöhter Flexibilität bei Lieferungen. Die Wirtschaftlichkeit kleiner Losgrößen ist aber nur dann gegeben,
wenn die Rüstzeiten gering bleiben, etwa durch die Möglichkeit des Umrüstens (zumindest teilweise) bei
laufenden Maschinen oder durch neue Anlagen mit automatischer oder halbautomatischer Umrüstung.
Bemerkung: Die Minimierung der Rüstzeiten ist ein allgemeines Prinzip der Anlagenwirtschaft der
industriellen BWL und nicht nur von JIT.

Vermeiden von Neuplanungen und Wiederverwendbarkeit von Kanban-Karten kann durch ständig
wiederkehrende Produktionsabläufe gesichert werden.
Bsp: Komplettausstattung japanischer Autos (im Vergleich zu deutschen Autohändlern, wo sehr viele
Zusatzelemente noch zum Listenpreis dazu gebucht werden müssen.)

Keine starken Schwankungen im Produktprogramm
Bsp: Über 10-30 Tage Produktion mit täglich gleichem Modellmix, was geglätteten Bedarf voraussetzt.
Gut für JIT geeignet sind demnach X-Teile (konstanter Bedarf), maximal Y (schwankender Bedarf).
Weiters A und B Teile (also solche mit hohem Verbrauchswert pro Jahr), weil dadurch Lagerkosten
signifikant reduziert werden können. C oder Z Teile sind für JIT nicht geeignet!
Franz Wirl: Industriebetriebslehre

166
Hohe Qualität der zu fertigenden Teile
weil sonst häufig Fehlbestände im Pufferlager auftreten. Um diese hohe Qualität zu gewährleisten
braucht man auch verstärkte Qualitätskontrolle, und zwar durch die produzierenden Arbeitskräfte selbst,
oder automatisch. Es liegt also hohe Verantwortung bei den Teams und Mitarbeitern, dies führt auch zu
höherer Motivation.(Einzelne werden durch den Druck der Teamkollegen, die insgesamt ein gutes
Ergebnis erzielen wollen, angespornt.) Eine weitere Möglichkeit zur Qualitätsverbesserung besteht in der
Anschaffung neuer Betriebsmittel und/oder Anwendung neuer Verfahrenstechniken.

Aufstellung der Betriebsmittel soll nach dem Betriebsfluss und unter Vermeidung langer
Transportwege erfolgen

Der Produktionsprozess muss JIT-geeignet sein
JIT kann bei kontinuierlichen Verfahren, wie z.B. Roheisengewinnung oder Aluminiumschmelze nicht
eingesetzt werden. Auch für eine diskontinuierliche Chargenproduktion ist es wegen großer Lose
ungeeignet. Ein Prozess ist für JIT geeignet, wenn er nach Fertigstellung einer Einheit unterbrochen
werden kann (offene Produktion).
Bei der Einzelauftragsproduktion (z. B. Baustellen) gibt es kaum repetitive Abläufe weshalb sie für JIT
ungeeignet ist. Ein Serien-Auftrag erfüllt zwar die Bedingung für repetitive Abläufe, aber es stellt sich die
Frage, ob die Ersparnisse durch JIT wirklich hoch genug sind, dass die hohen Umstellungskosten nur für
die Dauer des Auftrages sich auszahlen. Angebotsproduktion für Großserien und Massenfertigung ist für
JIT geeignet.
Wirtschaftlichkeitsüberlegungen:
Vorteile der JIT – Produktion:
+
kleinere Losgrößen führen zu kürzere Durchlaufzeiten
+
geringere Materialbestände bei gleich hoher Termineinhaltung
+
geringere Bestände und kürzerer Durchlauf bewirken bessere Übersicht über den Materialfluss
+
hohe Selbststeuerung bedeutet geringen Steuerungsaufwand, geringere Anforderungen an die
Datenverarbeitung
+
geringere Bestände erlauben besseres Erkennen von operativen Schwachpunkten
+
höhere Motivation führt zu höherer Arbeitsproduktivität (Entlohnungsbestandteile auf Teambasis)
+
gelegentliches ‚rock the boat‘ erlaubt Schlupf im System zu eliminieren. Wenn eine Panne passiert,
und es dadurch zu keinerlei Engpässen kommt, dann existieren bei Normalbetrieb im Prozess noch
„Polster“, die man eventuell eliminieren kann. Andererseits geben Stellen, an denen häufig Pannen
auftreten Hinweise auf Schwachstellen.
Nachteile der JIT Produktion:
-
Wegen der geringen Puffer kann es zu Störungen kommen, die sich dann über das System
fortpflanzen. So etwas geschah 1998 bei Toyota. Auch Ford konnte1998 einige Wochen nicht
produzieren, da ein Hersteller von Schlössern aufgrund eines Streites seine Lieferungen eingestellt
hatte.
-
Wie bereits angesprochen, ist JIT bei starken Nachfrageschwankungen ungeeignet.
-
Sonderfertigungen sind schwierig ins System einzubringen. (Dazu gibt es aber auch einige
Gegenbeispiele von Firmen, die es schaffen, Sonderanfertigungen im Rahmen eines JIT-ähnlichen
Systems zu bauen.)
Kosten der JIT Produktion:
Anpassungskosten sind Kosten:
-
für die Planung des Kanban-Systems,
-
Ermittlung der für JIT geeigneten Bereiche,
-
Einplanung von Transport und Puffern, Beschaffung der Behälter, Konstruktion der Regelkreise,
Schulungsmaßnahmen für die Mitarbeiter.
Als Kosten, die nach der Einführung des JIT-Systems permanent anfallen, sind zu erwarten:
-
Kosten für vorbeugende Instandhaltung,
-
zusätzliche Qualitätssicherung.
Franz Wirl: Industriebetriebslehre
167
2. Beschaffung Just in Time
Voraussetzungen und Grenzen:

Voraussetzung
sind
standardisierte
Bestellvorgänge,
elektronische
Kanbans
informationstechnische Integration, da es ansonsten zu hohen bestellfixen Kosten kommt.

Zulieferer muss zur JIT-Lieferung bereit sein.
und
In der Autoindustrie ist dies meist durch die Marktmacht der Automobilfirmen gewährleistet.

Hohe Qualität der Lieferung
Oft übernimmt der Lieferant die Verantwortung für die Warenprüfung, wobei oft Qualitätsingenieure des
Abnehmers vor Ort Qualitätsprüfungen vornehmen. ABC-Analyse hinsichtlich Qualität (hoch, mittel,
gering). Unter JIT spielt die Qualität der gelieferten Waren eine höhere Rolle, was bei der
Lieferantenauswahl berücksichtigt werden sollte.

Transportbedingungen
Aufgrund der ablauftechnischen Integration des Zulieferers müssen die Transporte weitgehend
störungsfrei verlaufen, die Zuverlässigkeit sowohl des Lieferanten als auch des Spediteurs muss
gegeben sein.

Warenannahme
Aufgrund von JIT kommt es zu kleineren (weil ja die Lager vor Ort gering gehalten werden sollen), aber
natürlich dafür häufigeren Lieferungen. Es muss also hinreichende Kapazität bei den Warenannahmen,
vorhanden sein, um Warteschlangen bei der Löschung zu vermeiden oder zumindest kurz zu halten.
Auch die JIT-Beschaffung ist also vor allem für A - und B - Teile und mit regelmäßigem (X) bis
schwankendem (Y) Bedarf geeignet.
Wirtschaftlichkeitsüberlegungen:
Vorteile der JIT Beschaffung:
+
geringe Kapitalbindungskosten
+
geringe Lagerhaltungskosten
+
geringe Investition für Lagerraum
(Bemerkung: diese Vorteile gibt es auch bei Anwendung der traditionellen Produktionsbewirtschaftung!)
Nachteile der JIT Beschaffung:
-
höhere bestellfixe Kosten
-
aufgrund höherer Bestellintensität besteht Mehrbedarf für Transportmittel und Entladekapazitäten
-
erhöhte Einstandspreise (da an den Lieferanten höhere Anforderungen bezüglich Qualität und
Übernahme der Lagerkosten gestellt werden, und er dafür kompensiert werden muss)
6.2.4
Lean Management
Ergänzend zu Just in Time soll in diesem Abschnitt den Studierenden der allgemeinere Begriff Lean
Management nahegebracht werden. Zuerst wird auf den Artikel Is Lean Production Really Lean? von
Joachim Reese eingegangen, wobei sich auch zeigen wird, dass Lean Management zu suboptimalen
Lösungen führt. Dies wird ergänzt durch einige aktuelle Fallbeispiele.
Theorie: Das Herz von Lean Management ist die Produktion.
Eine wichtige Voraussetzung ist die Bildung stabiler Gruppen, sogenannter Rugby Teams. Jede Gruppe
operiert so, dass dazwischen kein Puffer ist, also just in time. Die Qualitätskontrolle findet in der Gruppe
statt.
Während die Produktivität eindeutig messbar ist, gilt dies nicht für Flexibilität.
Flexibilität kann definiert werden als jene Menge an Nachfragen, die bei gegebener Charakterisierung s
(z.B. installierte Kapazitäten) erfüllt werden kann. Also als jener Nachfrageraum für die installierten
Produktionskapazitäten, in dem die Nachfrage erfüllt werden kann, oder in dem Nachfrageschwankungen
ausgeglichen werden können.
{d| x(s) ≥ d}, x = Produktion, d = Nachfrage.
Franz Wirl: Industriebetriebslehre
168
Der Parametervektor s beschreibt nicht nur Personal und physikalisch verfügbare Anlagen, sondern alle
verfügbaren Ressourcen, weil sonst eine „schlanke“ Organisation komplett inflexibel wäre und bei jeder
zukünftigen Nachfrageerhöhung zusammenbrechen würde.
Ein Beispiel für einen sehr unflexiblen Produktionsprozess ist die Aluminiumschmelze, die nicht stillgelegt
werden kann, weil sonst das Rohmaterial wieder eintrocknet, und nur beschränkte Kapazitäten hat.
Keine Ablehnung von Aufträgen.
Die folgende Abbildung 5.9 zeigt, an welchen Stellen in einem
Probleme auftreten können.
Lean Production System welche
Abbildung 5.9 „Lean production System“ (aus Reese (1993).
Vergleich zwischen einem traditionellen und einem Lean Management Produktionssystem
t = 1,...,T Perioden
n = 1,...,N Produkte
m =1,...,M Anlagen
x = Outputvektor
d = min {d1,...,dT} minimale Nachfrage
A = (M x N) technische Koeffizientenmatrix
b = (M x 1) Kapazitäten
c = Kosten je Kapazitätseinheit.
Der Gewinn soll maximiert werden:
max p * x − c * b
b
(wobei p, x, c und b Vektoren sind).
Nebenbedingung: Ax ≤ b (die Kapazitäten dürfen nicht überschritten werden.)
Obige Angaben gelten für beide Systeme. Beim traditionellen System ist allerdings
x = max {d1,...,dT},
Grundlage für die Wahl der Kapazität (bzw. ein gewinnmaximierender Kosten-Nutzenausgleich) während
unter Lean Management,
x = d,
Franz Wirl: Industriebetriebslehre
169
gilt, das heißt die Kapazität ist auf den minimalen Bedarf ausgerichtet.
Beispiel 1:
1 Produkt, 1 Anlage
c
c*
Lohn für reguläre Arbeit
Lohn für Überstunden
b
b*
normale Arbeitszeit
Überstunden
Tabelle 5.3
Periode
a=xt=dt
c
c*
b (lean)
b* (lean)
Schlupf (lean)
b (trad)
b* (trad.)
Schlupf (trad.)
1
8
2
4
6
2
0
8
0
0
2
10
2
4
6
4
0
8
2
0
3
6
2
4
6
0
0
6
0
-2
Im Lean Management wird die Kapazität am Minimum eingerichtet, es werden also 6 Arbeitseinheiten
angestellt, es werden also in der ersten Periode 2 Überstunden und in der zweiten 4 Überstunden
benötigt, Schlupf gibt es nicht. Die Kosten betragen demnach: 3*6*2 + 4*2+4*4= 60.
Nach der traditionellen Vorgangsweise sollen die Gesamtkosten minimiert werden, daraus erhält man
eine optimale Lösung mit 8 Arbeitseinheiten. Daraus ergibt sich, dass in der zweiten Periode 2
Überstunden benötigt werden, während in der dritten Periode 2 Stunden überflüssig sind. Daraus
ergeben sich Kosten von 8*2*3 + 2*4 = 56.
Die Lösung unter Lean Management ist also suboptimal.
Beispiel 2: Koordination – Scheduling
Minimiert werden sollen die Kosten:
M
min ∑
t mn
N
∑c
m =1 n =1
t x ,
mn mn n
wobei x für die Anzahl der Produkteinheiten von n steht, tmn sind die Verweilzeiten und cmn sind die
Kosten von Produkt n auf der Anlage m.
Die Nebenbedingung ist, dass das Lieferdatum eingehalten werden muss:
M
∑t
m =1
mn
x n ≤ Tn
Als Beispiel nehmen wir 3 Produkte, 2 Maschinen und T= 50.
Tabelle 5.4
Produkt
Stufe 1
Stufe 2
t1n
c1n
t2n
c2n
1
10
50
20
150
2
20
100
5
110
3
10
80
15
120
Beim JIT-Ansatz, beginnen wir mit der Optimierung auf der zweiten Stufe, und erhalten mit Probieren die
kostenminimale Produktionssequenz 1,3,2.
Zuerst kommt Produkt 1, das 20 Zeiteinheiten benötigt, dann Produkt 3 mit 15 Zeiteinheiten, darauf folgt
Produkt 2 mit 5 Zeiteinheiten. Produkt 2 liegt also nur 5 Zeiteinheiten im System, Produkt 3 insgesamt
15+5 = 20, und Produkt 1 15+5+20= 40. Daraus ergeben sich die Kosten: 40*150 + 5*110 + 20*120 =
8.950,Da die Reihenfolge für Stufe 2 schon vorgegeben ist, bleibt nur noch eine Möglichkeit, wie man die Stufe
1 ordnen kann, um rechtzeitig fertig zu werden, nämlich 1,3,2. (Damit man sobald wie möglich auf Stufe 2
Franz Wirl: Industriebetriebslehre
170
mit dem ersten Produkt anfangen kann, muss man natürlich auch auf Stufe 1 mit diesem anfangen, weil
nur noch 10 Zeiteinheiten zur Verfügung stehen.)
Stufe 2
Produkt 1 (20)
Stufe 1
t
Produkt 1 (10)
0
5
(5)
10
Produkt 3 (15)
Produkt 3 (10)
15
20
Prod. 2(5)
Produkt 2 (20)
25
30
35
40
45
50
Produkt 1 bleibt nun insgesamt 10 Zeiteinheiten auf der Stufe, Produkt 3 bleibt 10 +5 (Wartezeit, bis es
auf Stufe 2 weiterbearbeitet werden kann) Zeiteinheiten auf Stufe 1 und Produkt 2 bleibt 20 Zeiteinheiten.
Die resultierenden Kosten sind: 10*50 + 15*80 + 20*100 = 12.650,Der sequentiell auf der Basis von JIT abgeleitete Produktionsplan ist nicht kostenoptimal, denn die
folgende Abfolge (3, 1, 2) auf beiden Stufen verursacht geringere Kosten; die Überprüfung ist dem Leser
überlassen.
Stufe 2
Produkt 3 (15)
Stufe 1
t
Produkt 3 (10)
0
6.2.5
5
(5)
10
Produkt 1 (20)
Produkt 1 (10)
15
20
Prod. 2(5)
Produkt 2 (20)
25
30
35
40
45
50
Fallbeispiele zu Lean Management und JIT
Grundlage für die folgenden Fallbeispiele sind die beiden Aufsätze von James Womack/Daniel Jones:
From Lean Production to the Lean Enterprise, Harvard Business Review March-April 1994 und Toyota:
How to Root Out Waste and Pursue Perfection, Harvard Business Review Sept-Oct. 1996.
LUCAS plc.
Lucas plc ist ein britischer Anbieter von mechanischen und elektrischen Bauteilen und Komponenten für die
Automobil- und Flugzeugindustrie. Es war 1983 eine der ersten britischen Unternehmen, die LeanManagementtechniken einführten, mit der Unterstützung des Prof. John Parnaby.
Laut dem „Lean Management Guru“ James Womack brachte dies zunächst dramatische Erfolge: beispielsweise
wurde der Prozentsatz zeitgerecht ausgelieferter Aufträge von kläglichen 25% auf 98% gesteigert.
Aber es kam bald zu Problemen, weil die für das Funktionieren von Lean Management unbedingt notwendigen
Komplementäritäten nicht gegeben waren. Die wichtigsten Kontraktpartner - Rover und Ford - organisierten ihre
Produktion und Beschaffung traditionell und plazierten daher ihre Aufträge in einer unprognostizierbaren Art und
Weise. Deshalb war Lucas gezwungen, entsprechende Lagerbestände halten.
Dies ist eine Todsünde für Lean Management, weil durch die Existenz von Lagerbeständen der Druck auf die
Mitarbeiter, rechtzeitig und zuverlässig produzieren zu müssen - damit nicht das ganze System stillsteht - und damit
der Fluss verschwindet. Also nimmt die schlanke Unternehmung unweigerlich wieder an Gewicht zu.
Dies war verbunden mit internen Konflikten und großen Problemen und es führte zur Übernahme von LUCAS
durch TRW im Jahre 1999.
Dieses Beispiel soll nochmals betonen, dass beim Einführen von Lean Management besonders auch auf die
Schnittstelle zu den Abnehmern und den Lieferanten zu achten ist.
UNIPART
Unipart wurde 1987 gegründet und ist das Ergebnis eines Verkaufes unterschiedlicher, hoch autonomer Einheiten
und Funktionen von Rover an die Arbeitnehmer (management buy-out). Unipart organisierte diese Einheiten in
unabhängigen Divisionen, z. B.: Autoteileproduktion, Warenhaus, Verteilung und Vertrieb, Marketing,
Informationssystem, Videoproduktion, Mobiltelefone etc. John Neill, der CEO, machte aus UNIPART, und jeder
seiner Abteilungen eine schlanke Unternehmung.
Der Bereich Autoteileproduktion (Tanks und Auspuff) war bei der Einführung von Lean Management Techniken
sehr erfolgreich und erzielte enorme Effizienzsteigerungen. Deshalb wurde er aufgefordert, sein Wissen den anderen
Abteilungen zu vermitteln. Aus diesen internen Schulen und Ausbildungen resultierte die Gründung der Unipart
University. Jede Abteilung hat damit eigene „Fakultät“ als Zentrum von Expertisen.
Dies soll ein Beispiel für die große Bedeutung von internen Schulungen bei Lean Management sein.
Franz Wirl: Industriebetriebslehre
171
LANTECH, Louisville, Kentucky
Lancaster hatte 1972 die Idee, Paletten mit Plastik zu umhüllen und dadurch den innerbetrieblichen Transport zu
ermöglichen. Im Gegensatz zu herrschenden Verfahren - loses Plastik über die Paletten zu stülpen und dann mittels
Hitze zu schrumpfen - zog und spannte das Verfahren von Lancaster das Plastik über die Paletten; damit konnte er
das 7.5-fache an Größe einpacken. Mit Ausgangsinvestitionen von $ 300 und einfachen Werkzeugen wurde die erste
Maschine hergestellt, und gleichzeitig das Verfahren mittels weit reichender Patente abgesichert. Diese Patente
sicherten ihn vor Nachahmungen und bereits 1979 hatte das Unternehmen einen Umsatz von $ 13,4 Millionen und
158 Angestellte.
Obwohl LANTECH wie jedes kleine Unternehmen, schlank begann, führte dieser Aufschwung zu einer Änderung
der Organisation, wofür entsprechende Manager angeheuert wurden.
Aus Gründen der produktionstechnischen Effizienz wurde in Losgrößen von 10-15 Maschinen produziert. Da davon
jeweils nur eine Maschine unmittelbar zu verkaufen war, standen viele fertige Maschinen auf dem Lager herum.
Jedoch die Komplexität des an sich bereits komplizierten Ablaufes wurde noch schlimmer, als die Aufträge
unabhängiger Verkäufer sowohl durch das Büro als auch die Fabrik abgearbeitet wurden. Insbesondere die teureren
Maschinen - von ca. $ 10,000 bis $ 150,000 - wurden speziell dem Konsumentenwunsch angepasst, was aber eine
Rückfrage bei Lantech nach dem endgültigen Preis erforderte. Auf Grund zahlreicher Engpässe dauerte diese
Abarbeitung bis zu 14 Tagen, obwohl die eigentliche Durchlaufzeit nur 2 Tage betrug.
Wichtig: Auf Grund dieser inhärenten Verzögerungen, versuchten die Verkäufer, das System zu schlagen, indem
spekulativ „Aufträge“ platziert wurden, die dann bei tatsächlichem Auftrag entsprechend modifiziert wurden.
Dadurch kam es zu einem völlig chaotischen Ablauf.
Ähnlich verzögert verlief die Entwicklung neuer Maschinen. Es wurde bis zu einem Jahr für kleinere Änderungen
benötigt und bis zu 3-4 Jahre für neue Maschinen (Kommunikationsbarrieren).
Zusammenfassend: LANTECH organisierte seine drei wichtigsten Aktivitäten: Entwicklung neuer Maschinen,
Verarbeitung der Information was zu erzeugen ist, und die Produktion an sich in einem traditionellen Losgrößen Warteschlangenkonzept. Viele der einzelnen Schritte brachten keinen zusätzlichen Wert, nichts „floß“, die
Konsumenten konnten nicht „ziehen“ (pull) und das Management versuchte sich im „Glätten“ anstatt in der
Perfektionierung des Ablaufes.
Dies ging trotz mittelmäßiger Qualität der Endprodukte bis 1989 gut, weil die Konkurrenz durch die Patente eher
beschränkt war. In diesem Jahr verlor LANTECH jedoch gegen einen Konkurrenten eine Patentschutzklage, was
den Markt für Konkurrenten eröffnete und Preisverfall hervorrief.
Es wurden daraufhin verschiedenste Versuche einer Reorganisation gestartet, wobei fast immer die gerade aktuellen
„Management-Moden“ angewandt wurden.
Erster Versuch: Profitzentren.
Zweiter Schritt einer Reorganisation: Ersetzen orthodoxer, kommandoorientierter Manager durch Manager mit
Teamgeist und Organisation in Teams. Da jedoch das verbindende Element fehlte, blieb der Ablauf in der Fabrik ein
Chaos. Daher spielten Verkäufer weiter ihre Spiele.
Dritter Versuch: Max-Flex. Die Idee dabei war, die langen Durchlaufzeiten zu bekämpfen, indem alle wichtigen
Bestandteile auf Lager gehalten wurden, um dann schnell eine Maschine entsprechend den Kundenwünschen
zusammenzustellen. Dadurch sollte der Preisnachteil durch schnellere Lieferung ausgeglichen werden. Tatsächlich
fiel die Verzögerung von 16 auf 4 Wochen, aber der Preis dafür war enorm.
Dazu ein Zitat von Taiichi Ohno, dem „Urvater“ von JIT und Lean Management: „Je mehr man auf Lager hat, desto
geringer ist die Wahrscheinlichkeit den Teil auf Lager zu haben, den man eigentlich braucht.“
Vierter Versuch mittels Informationstechnologie, „Data to the People“, jeder Arbeitnehmer hatte alle
Produktionsdaten immer zur Verfügung, nicht nur die von ihm gebrauchten. „The old MRP system was slow but
99% accurate. Our new democratic system was a complete catastrophe.“
Ab 1991 fielen die Aufträge trotz Preisnachlässen, und das Unternehmen begann Geld zu verlieren.
Seit 1992 werden Lean Managementtechniken angewandt
Notwendige Voraussetzung für einen solchen Übergang sind drei Arten von Führungspersönlichkeiten: Eine, die mit
dem Geschäft eine langfristige Verpflichtung eingeht, hier der Eigentümer und Entrepreneur Lancaster, der
notwendige Anker für Stabilität und Kontinuität. Eine mit tiefem Verständnis für schlanke Organisationsformen,
und eine, die die Barrieren und Opposition, die bei jeder Umstellung existierender Strukturen entstehen, aus dem
Weg räumen kann.
Spezieller Vorteil von LANTECH: Das Produkt wurde von Kunden tatsächlich gewünscht, somit war der erste
Schritt des Lean Management – nämlich die Definition des Produktes aus der Sicht des Käufers - bereits erfüllt.
Franz Wirl: Industriebetriebslehre
172
Es wurden spezielle Produktionsprozesse für jede der vier Produktfamilien eingerichtet und dabei die
Produktionsabteilungen eliminiert und die Maschinen umgruppiert, sodass alles zur Fertigung einer
Maschinenfamilie in einer der vier Produktionszellen vorhanden war. Dies wurde mittels des neuen Q-Modells
implementiert. Innerhalb einer Woche war die Fertigung entsprechend diesem Zellenkonzept umgruppiert, nur die
Lackiererei blieb als zentrales „Monument“ erhalten, doch nach dem Tauchbad im Lack kehrte das Modell in seine
„Zelle“ zur Endfertigung zurück.
Jeden Morgen und zu jeder Stunde wird jetzt mit einer neuen Maschine begonnen und 14 Stunden später ist diese
Maschine fertig. Da die Fertigung ohne Lager und Puffer abläuft, mussten alle Handgriffe so abgestimmt und
synchronisiert werden, das alles dieselbe Zeit benötigt und im ersten Schritt passt. Auf Grund dieses Design läuft
entweder alles glatt und stetig, oder es kommt überall zu einem Stopp.
Da jede Maschine nur nach Auftragseingang tatsächlich gefertigt wird führte man „Takte“ein. Zum Beispiel, beläuft
sich der Takt bei einer Schicht von 8 Stunden und einer Bestellung von 16 Maschinen auf eine halbe Stunde. Dies
hat zweierlei Effekte: Die Tendenz, zu schnell aber dafür auf Lager zu produzieren, wird eliminiert und bei Schlupf
(hohe Taktzeiten) können Arbeiter für Wartungsarbeiten abgezogen werden. Weiter ermöglicht eine Verkürzung des
Taktes im Falle einer Nachfrageerhöhung, herauszufinden, ob nicht eine Maschine noch schneller zusammengebaut
werden kann, was wiederum hilft zukünftige Verschwendung zu reduzieren.
Auftretende Anfangsprobleme wurden vom Produktionsmanager, der sich mit dem neuen System dann
identifizierte, beseitigt. Das informationstechnische Planungsinstrument aus dem vierten Reorganisationsversuch
wurde durch eine weiße Tafel ersetzt, und das computerisierte MRP diente nur noch den Lieferanten zur Prognose.
1992 war die Umstellung beendet.
Pratt & Whitney
Pratt & Whitney ist ein Hersteller von Flugzeugturbinen, das zur United Technologies Gruppe gehört. Dieses
Beispiel wurde gewählt, weil hier „lean“ nicht nur als Schlankheit, Knappheit die Arbeitskräfte betreffend gesehen
wird, sondern auch mit bezug auf das Kapital. Es wurden hier nicht – wie sonst häufig üblich – viele Arbeitskräfte
durch Kapital substituiert.
Das alte Produktionssystem bei Pratt &Whitney war computergesteuert und stark automatisiert. Es hatte zwar nur 3
Minuten Durchlaufzeit pro Turbinenblatt, allerdings dauerte die Umrüstung auf eine andere Blattgröße oder einen
anderen Blatttyp bis zu 8 Stunden. Außerdem musste jedes Blatt auf einen speziellen Rahmen angeschweißt werden,
damit es für die hochkomplizierte Fräsmaschine handhabbar war. Aufgrund der hohen Umrüstzeit wurden jeweils
mehrere Blätter desselben Typs erzeugt und auf Lager gelegt, und dann umgerüstet. Es herrschte also ein
diskontinuierlicher Produktionsverlauf mit Lagern, was bekanntlich der Lean Management Methode widerspricht.
Es erfolgte ein Umstieg auf ein System von einfachen Fräsmaschinen, die jeweils von einem Facharbeiter und einer
Hilfskraft bedient wurden. Das Fräsen pro Blatt nimmt zwar nun 75 min. in Anspruch, doch in dieser Zeit ist das
Umrüsten schon inkludiert! Dadurch ist die effektive Durchlaufzeit durch das Unternehmen von 10 Tagen auf 75
Minuten gefallen, die Lagerbestände sind auf ein Hundertstel gefallen, die Kosten wurden halbiert und die Kosten
pro Stück sind auf ein Drittel zurückgegangen.
Franz Wirl: Industriebetriebslehre
Toyota
173
22
Toyota makes lots of money and is overtaking General Motors to lead the world's car industry. What is the secret of
its success?
6
7
8
9
0
1
2
3
4
5
6
THERE is the world car industry, and then there is Toyota. Since 2000
the output of the global industry has risen by about 3m vehicles to
some 60m: of that increase, half came from Toyota alone. While most
attention over the past four years has focused on a spectacular
turnaround at Nissan, Toyota has undergone a dramatic growth spurt
all round the world. Japan's industry leader will soon be making more
cars abroad than at home. It has overtaken Ford in global production
terms and is set to pass Chrysler in sales to become one of America's
Big Three. In an industry strewn with basket cases, where hardly any
volume producer makes a real return on its capital, Toyota is
exceptional in that it consistently makes good returns (see chart 1).
7
8
9
0
1
2
3
Toyota's ebullient chairman Hiroshi Okuda has made little secret that
he wants the company to win 15% of the global car market, snatching
leadership from General Motors. Having reached Global Ten (10% of
the world market) Mr Okuda has his eyes focused on his new goal.
“It's just to motivate employees,” says Fujio Cho, Toyota's more
downbeat president. “Somehow news of the banners in our factories
leaked out,” he says disingenuously, as if you could keep such a secret
after it has been blazoned to 264,000 workers around the world.
Market capitalisation says it all. Toyota is worth more than the American Big Three put together, and more than the
combination of its successful Japanese rivals, Nissan and Honda. Last year Nissan may have outperformed Toyota
in terms of operating margin, but over the long haul it has been the provincial powerhouse from Aichi prefecture
near Nagoya that has consistently shown the way.
First, of course, it taught the modern car industry how to make cars properly. Few had heard of the Toyota
Production System (TPS) until three academics in the car industry study programme run by Massachusetts Institute
of Technology (MIT) wrote a book in 1991 called “The Machine that Changed the World”. It described the
principles and practices behind the “just-in-time” manufacturing system developed at Toyota by Taiichi Ohno. He in
turn had drawn inspiration from W. Edwards Deming, an influential statistician and quality-control expert who had
played a big part in developing the rapid-manufacturing processes used by America during the second world war.
At the core of TPS is elimination of waste and absolute concentration on consistent high quality by a process of
continuous improvement (kaizen). The catchy just-in-time aspect of bringing parts together just as they are needed
on the line is only the clearest manifestation of the relentless drive to eliminate muda (waste) from the
22
The car company in front, Jan 27th 2005 The Economist print edition
Franz Wirl: Industriebetriebslehre
174
manufacturing process. The world's motor industry, and many other branches of manufacturing, rushed to embrace
and adopt the principles of TPS.
In the process American and European cars went from being unreliable, with irritating breakdowns, leaks and bits
dropping off in the 1970s, to the sturdy, reliable models consumers take for granted today. In real terms car prices
may only have edged down over the past two decades compared with the drastic reductions seen in personal
computers and all consumer-electronics goods. But the quality, content and economy of today's cars is incomparable
with what was on offer 30 years ago. The main credit goes to the Japanese, led by Toyota. High petrol prices drove
American consumers to buy economical Japanese imports; high quality kept them coming back. Europeans, too,
were quick to see the attraction of cars that seldom broke down, unlike the native varieties. When trade barriers were
erected, the Japanese built their plants inside them. Toyota may have been slower than Honda or Nissan to expand
abroad, but its manufacturing method gave it an advantage once it did so.
So Toyota's success starts with its brilliant production engineering, which puts quality control in the hands of the
line workers who have the power to stop the line or summon help the moment something goes wrong. Walk into a
Toyota factory in Japan or America, Derby in Britain or Valenciennes in France and you will see the same visual
displays telling you everything that is going on. You will also hear the same jingles at the various work stations
telling you a model is being changed, an operation has been completed or a brief halt called.
Everything is minutely synchronised; the work goes at the same steady cadence of one car a minute rolling off the
final assembly line. Each operation along the way takes that time. No one rushes and there are cute slings and
swivelling loaders to take the heavy lifting out of the work. But there is much more to the soul of the Toyota
machine than a dour, relentless pursuit of perfection in its car factories.
Another triumph is the slick product-development process that can roll out new models in barely two years. As rival
Carlos Ghosn, chief executive of Nissan, notes in his book “Shift” (about how he turned around the weakest of
Japan's big three), as soon as Toyota bosses spot a gap in the market or a smart new product from a rival, they
swiftly move in with their own version. The result is a bewildering array of over 60 models in Japan and loads of
different versions in big overseas markets such as Europe and America. Of course, under the skin, these share many
common parts. Toyota has long been the champion of putting old wine in new bottles: over two-thirds of a new
vehicle will contain the unseen parts of a previous model.
Pleasing Mrs Jones
Spend some time with Toyota people and after a time you realise there is something different about them. The rest
of the car industry raves about engines, gearboxes, acceleration, fuel economy, handling, ride quality and sexy
design. Toyota's people talk about “The Toyota Way” and about customers. In truth, when it is written down the
Toyota creed reads much like any corporate mission statement. But it seems to have been absorbed by Japanese,
European and American employees alike.
Mr Cho thinks something of the unique Toyota culture comes from the fact that the company grew up in one place,
Toyota City, 30 minutes drive from Nagoya in central Japan, where the company has four assembly plants
surrounded by the factories of suppliers. In this provincial, originally rural setting, Toyota workers in the early days
would often have small plots of land that they tended after their shift. Mr Cho, who made his career in the company
by being a pupil of Mr Ohno and becoming a master of production control, thinks that the fact that Toyota managers
and their suppliers see each other every day makes for a sort of hothouse culture—rather like Silicon Valley in its
early days.
Jim Press is boss of Toyota's sales in North America. He left Ford in frustration 35 years ago, because he did not
think it handled customer relations properly and he suspected that the upstart Japanese company making its way in
the American market might do better. He was right. Toyota shares a production plant in California with GM.
Identical cars come off the line, some badged as GM, the rest as Toyotas: after five years, according to one study by
Boston Consulting Group, the trade-in value of the Toyota was much higher than that of the American model,
thanks to the greater confidence people had in the Toyota dealer and service network.
47
48
49
50
51
52
Mr Press talks with a quiet, almost religious, fervour about
Toyota, without mentioning cars as such. “The Toyota
culture is inside all of us. Toyota is a customer's company,”
he says. “Mrs Jones is our customer; she is my boss.
Everything is done to make Mrs Jones's life better. We all
work for Mrs Jones.”
53
54
55
56
57
58
59
But not even the combination of its world-leading
manufacturing, rapid product development and obsessional
devotion to customer satisfaction is enough to explain
Toyota's enduring success. There is one more ingredient that
adds zest to all these. Tetsuo Agata doubles as general
manager of Toyota's Honsha plant in Toyota City and as the
company's overall manufacturing guru. The magic of
Franz Wirl: Industriebetriebslehre
175
Toyota's winning culture was summed up for him by an American friend who observed that Toyota people always
put themselves “outside the comfort zone”: whenever they hit one target, they set another, more demanding one.
That relentless pursuit of excellence certainly explains much of what has been happening to the company in recent
years, at home and abroad.
The strain of going global
Life started changing for Toyota when the economic bubble burst in Japan at the start of the 1990s. First it had to
work hard to improve its competitiveness as the yen strengthened. Mr Okuda, president in the mid-1990s, launched
a programme of cost-cutting to make the company's exports competitive even at a yen level of only 95 to the dollar.
When costs fell and the yen subsequently weakened, Toyota reaped a double reward.
But the company also had to face up to a car market at home that slumped from nearly 6m sales a year to just over
4m. And Toyota has had to respond to renewed competition in its domestic market, after an aggressive push by
Honda and the revival of Nissan. One reaction by Mr Cho to tough competition at home has been a further round of
cost cuts that have helped Toyota re-build market share in Japan from 38% in the mid-1990s to 44.6% last year,
helped partly by windfall sales after the implosion of Mitsubishi Motors.
But European imports of Volkswagens, BMWs and Mercedes cars have mopped up 7% of the Japanese market,
mostly for premium models, and forced Toyota to introduce its luxury Lexus brand into Japan. Until now, cars that
Americans and Europeans have known as Lexuses have been sold as plain old Toyotas in Japan. Now Mr Cho has
decided, as part of a wider reorganisation of Toyota's distribution network, to sell these vehicles separately with the
Lexus badge and support from their own up-market retail outlets.
One of Toyota's strengths has been its army of privately owned car dealers, long organised into five competing
channels, each one more or less specialising in different parts of the range. The multiplicity of distribution channels
arose simply because of the rapid growth of the Japanese market and Toyota sales from the 1970s onwards. But in
February 2003 Toyota administered what was called the Valentine's Day shock. It streamlined the number of
channels down to four, including a new one aimed at the young people turned off by mainstream Toyota's staid
image. (It is having to go even further in America with a separate sub-brand called Scion to appeal to young
consumers.)
Like all car companies Toyota in Japan has had to get used to a fragmentation of the market, which means there are
no longer huge runs of a few bestselling models. The boss of the Tsutsumi plant, where the firm's trendy Prius
hybrid cars are made, recalls the good old days when all they had to do was churn out half a million Camrys and
Coronas. Today's lines have been adapted and made flexible so that no fewer than eight different models can be
manufactured simultaneously. The Prius—despite its revolutionary engine—still has to share an assembly line in the
Tsutsumi plant with several conventional models.
Seeds of success
Making all these changes at home is relatively easy compared with Toyota's biggest challenge, now that it has set
itself the goal of making more cars outside Japan than at home. Apart from seeking to switch production to exports,
Toyota also chased growth outside Japan by building three more plants in North America and two in Europe,
starting with Derby in Britain, followed by Valenciennes in the north of France. Between 1993 and 2003, overseas
production more than doubled to 2m units, while in Japan it declined from 3.5m to 3m before recovering in the later
years to its old level, boosted by exports; about half of domestic production is exported.
This globalisation process has transformed the size and shape of Toyota. In 1980 Toyota had 11 factories in nine
countries; in 1990 it had 20 in 14 countries; today it has 46 plants in 26 countries. In addition, it has design centres
in California and in France on the Côte d'Azur, and engineering centres in the Detroit area and in Belgium and
Thailand.
Although Japan remains its biggest single market, sales topped 2m in North America for the first time last year, and
in Europe Toyota is passing through the 1m mark, with 5% of the market, after a long period of slow growth. The
opening of plants in Turkey and France and the introduction of the European-designed Yaris small car have done
much to make Toyotas more appealing to Europeans, while in America its entry (not without a few hitches) into the
enormous market for pick-up trucks and sport-utility vehicles has been responsible for its steady march to beyond
10% of the market. It is now breathing right down the neck of Chrysler.
Mr Cho acknowledges that such international growth and globalisation is the biggest change happening to the
company. He sees his greatest challenge as maintaining Toyota's high standards in such areas as quality while it
grows so fast across the globe. For Toyota has only recently started to transform the way it is run to make itself a
truly global company rather than a big exporter with a string of overseas plants. Its top-heavy all-Japanese board has
been drastically slimmed and five non-Japanese executives, including Mr Press, have been made managing officers,
which means that they sit on the executive committee in Tokyo, but are also left free to run their overseas operations
on a day-to-day basis without deferring to head office. For Toyota, that is a big step away from centralised rule by
Toyota City.
Franz Wirl: Industriebetriebslehre
176
Another leap has been the creation of a Toyota Institute, not just for training Japanese managers, but also for
developing groups of executives from all over the world. The centre is expressly modelled on the Crotonville Centre
that has played such a big part in the success of General Electric. By having squads of managers moving through
development courses, head office can keep tabs on the potential of its people, whilst ensuring that they are
thoroughly steeped in Toyota's way of doing things, whether it be in manufacturing, retailing, purchasing and so on.
But globalisation and the rapid growth of production now in places such as China is also straining the learning
process further down the hierarchy. Toyota has a flying squad of line workers who move around the world to train
locals at new factories or move in to help out when there is a model change going on. These line supervisors train
local workers. Toyota has also made astute use of joint-ventures to ease the strain of manning overseas operations:
apart from its original one with GM in California, Toyota now has another with a local company in Turkey, with
PSA Peugeot Citroën in the Czech Republic and in China, which is the fastest-expanding part of Toyota, in line with
the country's rapid motorisation. Toyota reckons that it will learn much about purchasing more effectively in Europe
from its French partner in the new joint-venture, which is preparing to unveil a budget car for the European market
at the beginning of March at the Geneva Motor Show.
But the company is finding there are limits to the number of Japanese managers and foremen who are prepared to
work as expatriates, either on a temporary or permanent basis. So it has opened a Global Production Centre in a
former production area in Toyota City. Here, on a given day you can see Filipino and Chinese workers being taught
how to assemble Toyota cars. To get round obvious language barriers the instruction makes heavy use of video
recordings and inter-active DVDs, a sort of automated, virtual version of watching how Nelly does it.
The best gets better
Perhaps the best single example of Toyota managers' aversion to taking it easy in the comfort zone is back where it
started—in the mysteries of the TPS. Mr Agata, one of the firm's manufacturing experts, regards his job as
inculcating the virtues of the TPS in a younger generation. But he has concluded that the company has to raise its
game. “We have always proceeded by steady improvement,” he says. “But now we need to make step changes as
well to keep ahead.” That means finding radically different ways of manufacturing things like bumpers or doors,
reducing the number of parts, and developing new machines to form parts more economically.
As GM's bonds sink towards junk status, and as Japanese carmakers steadily overhaul America's Big Three, it must
be a chilling thought that Detroit's nemesis is working on ways to improve its performance. No wonder one GM
planner mused privately that the only way to stop Toyota would be the business equivalent of germ warfare, finding
a “poison pill” or “social virus” that could be infiltrated into the company to destroy its culture.
What else could stop Toyota? Soon it will have the scale to outgun GM. A technological revolution will not threaten
it, since Toyota is leading the way with hybrid electrics en route to full-scale fuel-cell electric cars. Consumer
preference for exciting designs? Toyota has shown that it can play that game: there is a stylish edginess in recent
models such as the Prius, Yaris, the new Avensis and even its venerable LandCruiser SUV. At least the man from
GM put his finger on the key to Toyota's success. Provided its culture can be sustained as it goes from being an
international Japanese company to a global one, then Toyota's future seems secure.
6.2.6
Fallstudie zu Beschaffung: Integration externer Unternehmen: How Chrysler Created an
American Keiretsu, Harvard Business Review July-August 1996, 42-56.
Keiretsu: Toyota und Nissan besitzen 20-50% der wichtigsten Zulieferer; wenig Zulieferer, die zum
Großteil vom Erfolg der Autofirma abhängen (zu ca 2/3); 20% der Direktoren der Zulieferer waren
vormals beim entsprechenden Autoerzeuger
Chryslers traditionelle Politik war:
•
Design eines Autos, unabhängig von Zulieferern.
•
Ausschreibung für Bauteile, mit Zuschlag an den kostengünstigsten.
Die Folgen:
-
kurzfristige Kontrakte => Zulieferer investieren so wenig wie möglich in spezifische Anlagen
-
viel Missvertrauen und Unzufriedenheit beiderseits über Qualität (seitens Chrysler) und
Bedingungen.
-
lange Entwicklungszeiten
-
viele Zulieferer (über 2500).
(Nissan Amerika half Zulieferern selbst bei schlechten Produkten anstatt sie fallen zu lassen)
Änderungen: Ergebnis von Zufall und Managementwechsel:
Akquisition von AMC (Jeep) 1987. AMC als relativ kleiner Produzent involvierte bereits aktiv die Zulieferer
und praktizierte bereits Honda-ähnliche Produktionsmethoden. Dadurch sahen diese Methoden auf
Franz Wirl: Industriebetriebslehre
177
einmal weniger exotisch aus. So produzierte AMC mit 1000 Ingenieuren zwischen 1980-1987 drei neue
Modelle (Cherokee, Premier und Comanche) während Chrysler 5000 Ingenieure in den 80-er Jahren nur
vier Modelle (K, MiniVan, Dakota-Lkw, Shadow) zusammenbrachten.
Neues Management (Präsident Robert Lutz, Francois Castaing von AMC und andere).
Beobachtung von Honda, das am stärksten und am schnellsten seine amerikanische Produktion
ausweitete und hier insbesondere die Beziehung zu den Zulieferer, die basierend auf vergangener
Vertragserfüllung anstatt durch Ausschreibung bestimmt wurden.
Die Entwicklung des LH (Vision/Intrepid) verschlang bereits mehr als $ 1 Milliarde als veranschlagt.
Finanziell 1988/89: $ 4,5 Milliarden Unterdeckung der Pensionsansprüche; $ 664 Millionen Verlust.
Schlechte Bewertung von den Zulieferern (geringer als Ford und GM).
Neuer Ansatz: Wiedererweckung des LH-Projektes mit folgenden wichtigen Entscheidungen.
•
Aussiedlung der Produktentwicklung, um bürokratischen Einfluß zu reduzieren.
•
Teams zusammengesetzt aus Individuen der Design-, Ingenieur-, Produktions- , Auftrags-,
Marketing- und Finanzabteilung um sequentielle und daher langwierige Entscheidungsprozesse
abzukürzen.
•
Experimente neuer Formen der Zusammenarbeit mit Zulieferern.
1991 stellten sich die ersten positiven Ergebnisse ein: der LH war fertig entwickelt und dabei wurde das
an sich aggressive Kostenziel unterschritten.
Teams (cross functional): Direktkontakt mit Zulieferern war essentiell um Konflikte zu vermeiden.
Momentan 5 Teams (große Pkws, kleine Pkws, MiniVans, Jeeps und Lkws). Stabilere Beziehungen, weil
Chrysler Versprechen jetzt besser hält.
Inklusion der Zulieferer in der Entwicklungsphase, ja sogar Abtreten signifikanter wenn nicht gesamter
Verantwortung. Daher können mehrere Ingenieurarbeiten parallell anstatt seriell abgearbeitet werden und
dadurch die Entwicklung beschleunigen. Weiters haben die Zulieferer, die ja bessere Information über die
Fertigungsprobleme haben, mehr Flexibilität, was Kosten senkt und die Qualität erhöht. Vorher war
Design und Produktion an separate Firmen vergeben, wodurch die Verantwortung für das Endprodukt
diffus wurde.
Ersatz der Auswahl der Zulieferer mittels Ausschreibungen durch Auswahl durch die Teams auf der Basis
von Listen zuverlässiger Lieferanten.
Problem dabei: Preisfestlegung durch Bestimmung des Marktpreises und Rückwärtsrechnen (netback
value).
Tabelle 5.5 Veränderungen bei Chrysler
Franz Wirl: Industriebetriebslehre
178
Dyer, S52: How did the company set the initial target costs in the LH program? “Actually, we set them
somewhat unscientifically and then, when necessary, had the suppliers convince us that another number
was better, “, says Barry Price, Chrysler`s executive director of platform supply for procurement and
supply. “We would involve suppliers and tell them, Ì`ve got X amount of money.` We would let them know
what functions the part or system in question would be required to perform and ask, `Can you supply it for
that cost?` Usually, their response would be no, but they at least came back with some alternatives. The
first time through, we had to find our way. The second time, we had the benefit of history and, as a result,
we developed better targets at the outset of the program.”
Target costing has shifted Chrysler`s relationship with suppliers form a zero-sum game to a positive-sum
game. Historically, Chrysler had put constant pressure on suppliers to reduce prices, regardless of
whether the suppliers had been able to reduce costs; the automaker did not feel responsible for ensuring
that suppliers made a reasonable profit. Chrysler`s new focus on cost instead of price has created a winwin situation with suppliers because the company works with suppliers to meet common cost and
functional objectives. Naturally, this process begins to build the trust that is critical if partnerships are to
take root.
SCORE Programm: wichtigster Bestandteil der Verbesserungen.
Begann mit einem Besuch der obersten Chefs (Lutz, Castaing und andere) bei den Zulieferern was
23
alleine psychologisch in starkem Kontrast zu GMs (Lopez! ) Vorgehen war.
1990: Anfrage und Bitte um Änderungen, die die Kosten sowohl von Chrysler als auch der Zulieferer
senken können. Diese Einsparungen werden dann zwischen Chrysler und dem Zulieferer geteilt.
Zahlreiche Vorschläge kamen und gegen den Widerstand von Chrysler-Ingenieuren wurden diese
getestet, was den Zulieferern die Offenheit von Chrysler dokumentierte.
Priorität: Zuerst den Fehler bei Chrysler suchen, zweitens den Lieferer um Verbesserungen bitten,
eventuell bei einem Zulieferer der 2. Kategorie nachzusehen und erst im dritten Schritt wurde die Schuld
dem Zulieferer gegeben.
Seit 1992 offizieller Bestandteil. Zwei Optionen: Teilung der Gewinne aus dem Vorschlag, oder
Verbesserung der Firmenbewertung und dadurch mehr zukünftige Aufträge (Anreize!).
Verbesserte Kommunikation und Koordination. Z. B. signalisierten viele Zulieferer ihr Vertrauen in
Chrysler durch Ankauf der von Chrysler verwendeten CAD/CAM Software.
Langfristige Verpflichtungen. Vorheriger Durchschnitt 2.1 Jahre, für das LH-Projekt 4.4. Heute haben 90%
der Zulieferer eine Zusage über die gesamte Modellaufzeit.
Beispiel Magna:
Um das SCORE Programm besser verstehen zu können, wird die Erfahrung von Magna International
veranschaulicht: Magna, ein bedeutender Zulieferer von Chrysler, der den Automobilhersteller mit
Innentüren, Sitzen, etc. beliefert, unterbreitete 1993 seinen ersten SCORE-Vorschlag zur
kosteneffizienteren Verwendung eines Materials ohne die Produktqualität zu beeinträchtigen. Nachdem
der Vorschlag bewilligt wurde, legte Magna dem Automobilhersteller weitere 213 Vorschläge vor, von
denen 129 bewilligt wurden. Insgesamt konnten durch die Umsetzung der SCORE-Vorschläge
Kosteneinsparungen von $75.5 Millionen erzielt werden. Anstatt sich an den Kosteneinsparungen zu
beteiligen, strebte Magna eine Verbesserung des „performance ratings“ an - um mehr Aufträge von
Chrysler zu erlangen. Als Resultat haben sich die Umsätze aus den Verkäufen Magnas an Chrysler von $
635 Millionen auf $1.45 Milliarden verdoppelt. Noch bedeutender für Magna ist die Verbesserung der
„economies of scale“, wodurch die Geschäftsbeziehung
mit Chrysler profitabler geworden ist.
In den Jahren 1990 und 1991 wurden durch das erfolgreiche SCORE-Programm 875 Ideen umgesetzt,
wodurch jährlich Kosteneinsparungen von $170.8 Millionen erzielt wurden. 1995 generierten 3.786 Ideen
jährliche Kosteneinsparungen von $504 Millionen. Bis Dezember 1995 wurden 5.300 Ideen
implementiert, die für Chrysler jährlich Kosteneinsparungen von $1.7 Millarden eingebracht haben.
Vergleich zum japanischen Keiretsu: Keine Eigentümeranteile und mehr Zulieferer => weniger „Intimität“
mit allen Vor- und Nachteilen.
Ergebnis (Cirrus/Stratus)
Weniger als $ 1 Milliarde Entwicklungskosten, um 20-40% geringer.
Verkürzte Produktionszyklen von 234 (Durchschnitt für neue Modelle in den 80-er Jahren) auf 183
Wochen für LH mit 160 Wochen für den neuen LH (erscheint 1997).
23
Während Lopez seinen Leuten verbat, eine Einladung der Zulieferer anzunehmen, lud Chrysler seine
Zulieferer ein.
Franz Wirl: Industriebetriebslehre
179
Vier neue Modelle in den 80-er Jahren, bereits jetzt 6 neue Modelle in den 90-er Jahren ohne Erhöhung
des Personalstandes in den Ingenieurabteilungen.
Alleine das Prozedere der Ausschreibung um Zulieferungen dauerte im Durchschnitt 12-18 Monate. Oft
wussten die Gewinner dieser Ausschreibung bis 75 Wochen vor der Großserie nicht, dass sie gewählt
wurden.
Jetzt haben die Zulieferer 18-24 Monate Zeit sich auf die Großserie vorzubereiten und einzustellen.
Kosten eines neuen Modells:
ER&D: engineering, research and development:
- Design und Entwicklung des neuen Modells;
- Werkzeug und Formen
-Anlagen
Kosten vor der Produktion und für den Start wie Ausbildung und Vorbereitung für die Produktion.
Bsp: LH Modell: $ 300 Millionen für ER&D (etwa 20% der Gesamtausgaben von $ 1,6 Milliarden) und die
Reduktion der ER&D Zeit um 24% ersparte Chrysler alleine $ 75 Millionen.
Vormals wurde Material und Werkzeug 75-100 Wochen vor Anlauf bezogen; die Produktion des ersten
Prototyps erst 65 Wochen vor Anlauf. Aber Verzögerungszeiten bei Material und Werkzeug war oft
länger, sodass bereits vor diesem Zeitpunkt mit der Fertigung der Werkzeuge begonnen werden musste.
Traten aber dann Probleme auf, mussten die Spezifikationen bereits bestellter Waren geändert werden.
Nach Involvierung der Zulieferer (LH Programm): Prototyp benötigte 24 Wochen weniger, und die
Werkzeuge wurden gefertigt, nachdem Chrysler die Probleme bei der Erstellung des Prototyps erkannte.
Trend: LH 1,6, Dodge Ram LKW 1,3, Neon 1,2 und Cirrus/Stratus 1 Milliarde $ im Vergleich zu GM von $
3,5 Milliarden für Saturn (vergleichbar mit Neon) und Ford: 2,5 für Escort, 6 für Mondeo.
Da Modellwechsel das Verkaufsvolumen positiv beeinflusst, ist die Möglichkeit schnell und effizient neue
Autos zu produzieren wichtig. In der Tat konnte Chrysler seinen Marktanteil auf eine Rekordhöhe
innerhalb der letzten 25 Jahre schrauben.
Abbildung 5.11
6.2.7
The New, Improved Keiretsu
24
Some of Japan’s most dominant companies owe their success not only to technology and process
expertise but also to an often-overlooked factor: During the past decade, they’ve been quietly turning their
supplier relationships into a tool for innovating faster while radically cutting costs. Welcome to the new
keiretsu—a modern version of the country’s traditional supply system.
During its heyday, in the 1980s, the traditional keiretsu system—an arrangement in which buyers formed
close associations with suppliers—was the darling of business schools and the envy of manufacturers
everywhere. Although there was some tentative movement in the West toward keiretsu-like supplier
partnerships at the time, the rise of manufacturing in low-wage countries soon made cost the preeminent
concern. Most Western companies today wouldn’t dream of investing in supplier relationships that would
24
by Katsuki Aoki and Thomas Taro Lennerfors, HBR October 2013.
Franz Wirl: Industriebetriebslehre
180
require significant care and feeding. Indeed, many people probably assume that keiretsu died when
Japanese manufacturers initiated Western-style cost-cutting tactics.
But some Japanese automakers have revived and reinvented keiretsu. Toyota provides an instructive
example. Its recent stumbles in quality notwithstanding (about which more below), our research suggests
that Toyota has gained enormously from the new keiretsu. It now has supplier relationships that are more
open, global, and cost-conscious than they ever were, yet it has deepened the trust, collaboration, and
educational support that were the hallmarks of keiretsu in their earlier form. Having conducted interviews
and gathered data during 39 visits to auto plants and 192 visits to parts makers in Japan and overseas,
and analyzed two decades’ worth of auto-manufacturing data, we believe that Toyota’s current supplychain system represents one of the company’s greatest advantages.
Through a detailed look at Toyota, we will describe how the
new keiretsu depart from tradition and will explore numerous
lessons for developed-world and emerging-market companies
seeking to innovate rapidly while cutting costs.
The Old and New Keiretsu at Toyota
The traditional keiretsu consisted of obligational relationships
based on trust and goodwill. (For the purposes of this article,
we’ll focus on vertical keiretsu, those among a manufacturer
and its suppliers, and we’ll ignore horizontal keiretsu, which
involve cross-holdings among companies centered on a bank.)
That’s in sharp contrast to Western-style arm’s-length supplier
relationships, which are governed by as much contractual
clarity as possible. In the traditional keiretsu world, an originalequipment manufacturer (OEM) would draw on exclusive,
decades-long relationships with key suppliers, in which it often
owned significant shares. The OEM would buy individual parts
(not systems) at prices that weren’t very competitive—they
were usually based on what it had paid for parts for its most
recent model. However, as practiced by Toyota, the new
keiretsu breaks from tradition in four ways:
•
•
•
•
•
•
•
•
• Instead of buying exclusively from companies with
which it has long-term relationships,
Toyota also sources from the global market, including
from megasuppliers whose streamlined operations
allow them to offer very low prices. This gives it flexible
sourcing and keeps costs down.
• When setting target prices for long-term suppliers,
Toyota looks at the prices offered by multiple global
companies, another boon in containing costs.
• Instead of buying individual parts, the automaker
demands that suppliers provide integrated systems of
components. This helps it develop high-quality
products while reducing costs and development time.
• Toyota encourages suppliers to enhance their ability
to provide these integrated systems and to become
involved in product development at the planning stage.
At the same time, Toyota hews to the traditional
keiretsu model in important ways:
• Despite the automaker’s tough demands, its
relationships are still based on trust, cooperation, and
educational support for suppliers. The level of mutual
commitment and assistance is perhaps even greater
than in the 1980s.
• Contracts governing the relationships are ambiguous,
consisting of general statements and nonbinding
targets. For example, rather than insisting on specific
prices or price reductions for each year of a contract,
as U.S. automakers typically do, Toyota states its
expectations of annual cost reductions over the life of a
contract— and shares the benefits by allowing
suppliers who achieve those reductions to maintain
Franz Wirl: Industriebetriebslehre
181
their prices for a certain period of time. Spelling out specifics, Japanese companies believe,
would encourage partners to do only what they were instructed to, and nothing more. Toyota
counts on its suppliers to go the extra mile—to learn about and meet customers’ demands, help
develop innovative processes, find and correct errors, and do whatever it takes to meet
deadlines.
After the Bubble
The new keiretsu grew out of a crisis that affected the Japanese auto industry as a whole. In the early
1990s Western car manufacturers initiated radical cost-cutting programs, fueling the growth of
megasuppliers such as Magna, Johnson Controls, and Valeo. To stay ahead, Japanese automakers
turned to megasuppliers as well.
Moreover, the bursting of the Japanese economic bubble created a period of stagnation that stretched
into the country’s “lost decades.” With sales and profits falling, some automakers went in search of
capital, opening themselves to investment by foreign companies such as Renault, Ford, and Daimler—
which pushed for further cost-cutting.
The keiretsu began to lose luster. Seen through a shareholder-value lens, they looked costly and oldfashioned. In 1999 Renault became Nissan’s major shareholder, and a Renault leader, Carlos Ghosn,
became the Japanese company’s COO. He soon launched the Nissan Revival Plan, aimed at reducing
costs by 20% over three years. Ghosn told the press that Nissan’s keiretsu had not functioned well, and
Nissan later sold its holdings in most supplier companies. Japan’s supplier relationships appeared to be
drifting steadily toward the Western model.
In 2000, with competitive pressures continuing to build and its leaders pressing for rapid global growth,
Toyota initiated a radically new purchasing strategy it dubbed “Construction of Cost Competitiveness for
the 21st Century,” or CCC21. (See “Lessons from Toyota’s Long Drive,” HBR July–August 2007.) The
plan called for selecting suppliers on the basis of globally competitive target prices, with the goal of
reducing costs by 30% over three years. It also addressed a competitive advantage the megasuppliers
were developing—the ability to provide sophisticated component systems rather than just individual parts.
Under CCC21,
Toyota began requiring suppliers to enhance their capabilities for producing these valueadded systems.
CCC21 enabled Toyota to meet its cost target, and the number of individually purchased parts declined.
But it would be inaccurate to view CCC21 as an adoption of Western-style arm’slength contracting. Over
the past two decades Toyota’s suppliers’ association (kyohokai) has remained quite stable: From 1991 to
2011 fewer than 20 of about 200 companies withdrew. From 1991 to 2010 the average sales-dependence
ratio (the revenue from Toyota-related business as a share of total revenue) of 44 of the company’s
suppliers has remained about 80%, even as Toyota has expanded its sourcing pool. Toyota has also
helped many suppliers meet its changing needs. Instead of abandoning suppliers when others offer lower
prices, it provides support for operational improvements, organizing “study groups” and dispatching
engineers to help vendors improve efficiency and quality and bring prices down. When Toyota drops a
supplier for a particular model because of price, it works to maintain the relationship, providing
opportunities for the vendor to supply parts for other models, for example.
Even after the adoption of CCC21, Toyota’s arrangements with suppliers continued to be ambiguous
rather than spelled-out, with an emphasis on goodwill and trust. This is particularly noticeable in
collaborations involving innovative product design. Toyota executives told us that the company requires
suppliers to have a deep understanding of its processes and manufacturing goals and believes
knowledge of this type can’t be conveyed merely by providing design drawings.
Education, Toyota Style
Toyota aims to build up suppliers’ stores of “tacit knowledge” through long-term sharing of work
experiences, including attempts to solve problems together through trial and error. This hands-on training,
which is as much cultural as technical, encourages suppliers to be on the lookout for problems,
anomalies, and opportunities throughout the development and production of parts. Whereas Western
manufacturers sometimes check only documents when inspecting suppliers’ factories, Toyota always
examines the physical workplaces and products—thus the expression genchi genbutsu (roughly, “actual
workplaces and actual things”), which speaks to the importance of being present when problems arise.
Over the past decade or so Toyota has forged deeper collaborations with suppliers at earlier stages of
development. For many years it handled much of its own interior-systems development. But in 2004, after
three of its keiretsu firms—Toyoda Boshoku, Araco, and Takanichi—merged to create an organization
that could supply complete interior components (a merger in which Toyota was said to have played a key
role), the automaker brought the new company, Toyota Boshoku, into its product-development process at
the planning stage.
Franz Wirl: Industriebetriebslehre
182
Few manufacturers have been as open to suppliers’ ideas or as successful in incorporating them as
Toyota. It expects systems suppliers to help improve product design by, for example, figuring out how to
incorporate lighter materials without sacrificing strength. For the Corolla Fielder, a model sold in Japan,
Toyota Boshoku and Toyota jointly developed a new interior system with one-touch fold-down rear seats.
And consider Advics, a company formed from the brake divisions of Toyota and three of its suppliers for
the purpose of developing complete brake systems. In 2001 Advics’s improvements in product design
and purchasing achieved a 30% cost reduction in the antilock brake systems for the Noah and Voxy cars.
As part of its product-development process, Toyota provides physical spaces that facilitate cooperation
with and among suppliers. Vendors may be invited to a meeting known as an obeya—literally, a big
room—where they work with Toyota representatives from several departments, including design,
engineering, production, quality, and purchasing. Obeya meetings help Toyota avoid a pitfall common in
other companies: Even if purchasing managers accept a supplier’s proposed design change, the change
might later be rejected by the manufacturer’s engineers. In Toyota’s system everyone is in the big room
making decisions together.
Toyota has also used a residential-engineer program, in which experts from suppliers work alongside
Toyota’s designers for periods ranging from about six months to three years. The program, which
hammers home the principle of “right first time,” fosters communication at the earliest stages of
development, reducing the need for adjustments later on. Together with the obeya meetings, it has
helped cut product-development lead time from three years to as little as one year, depending on the
product’s complexity. Developing the bB small wagon, for example, took only about a year; the model
was launched in Japan in 2000, and a successor, the Scion xB, appeared in the U.S. a few years later.
Toyota has developed keiretsu-like relationships overseas. In 1992 it created the Toyota Supplier Support
Center to help U.S. vendors learn the Toyota Production System. In 1997 it established the Toyota
Europe Association of Manufacturers, a group of about 70 companies that join together in study groups.
And Toyota Europe’s Supplier Parts Tracking Team, containing specialists from purchasing, quality,
design, production, and other functions, visits suppliers to help introduce the manufacturing of new parts.
Overseas, the company tends to be more explicit in its communications than it is in Japan, providing
clearer rules and more-detailed specs. Still, key aspects of the new keiretsu appear to translate, including
genchi genbutsu. When we visited Toyota facilities in the U.S. and UK, along with the plants of Aisin,
Denso, and other suppliers, managers told us they prize engineers who grasp the “actual workplaces”
mind-set, because those engineers drive implementation of the Toyota Production System.
Toyota’s supplier relationships are closer to the old keiretsu than those of the other Japanese Big Three
automakers are, but Nissan and Honda have retained features of the traditional practice too. Having
moved toward Western-style supplier relationships under Carlos Ghosn, Nissan shifted its stance again in
2004, announcing a new purchasing policy that represented a reevaluation of keiretsu. It has increased
its investment in one large supplier and continues to rely on goodwill and trust in its dealings with many
vendors. One example of its recent keiretsu-like practices is a program in which its engineers and those
of its suppliers take up process-improvement projects in the suppliers’ factories. Honda, too, relies on
trust and goodwill rather than explicit contractual terms and has organized supplier-development
activities. However, in 2010 it announced a very un-keiretsu-like reduction in suppliers—in some
categories, cutting the number almost in half.
A Tenacious Practice
The new keiretsu are far from perfect. Suppliers striving for high quality sometimes find it hard to deliver
the simpler, cheaper parts needed in emerging markets. That’s why Honda recently announced an open
purchasing policy under which it uses more parts from megasuppliers and from local suppliers in
emerging countries. It could be argued that Nissan’s recent success in China—it has surpassed both
Toyota and Honda in sales growth there—comes from its emphasis on openness in purchasing; if a
supplier relationship is too close, the OEM has difficulty opening up to new suppliers. And obligational
contracts can be burdensome for suppliers and their employees: Japanese parts makers sometimes
require workers to labor through the night to meet the OEMs’ demands.
Nevertheless, the essence of keiretsu has proved durable, and the ability to avoid the hidden costs of
Western-style supplier relationships is an important reason. A chief source of those costs is obfuscation
of the root causes of supply-chain problems, as manufacturers and suppliers alike maneuver to avoid
blame. Keiretsu relationships allow OEMs and suppliers to work together to detect a problem’s causes.
And it’s cost-effective for OEMs to provide educational support to suppliers, because that ultimately
brings down the suppliers’ costs and lowers the prices they charge. Suppliers’ high levels of dedication,
innovativeness, and expertise all contribute to the manufacturer’s competitiveness. (See the sidebar “Why
Are Keiretsu So Durable?”)
Franz Wirl: Industriebetriebslehre
183
After Toyota’s recovery from the 1991 crisis, profits rose steadily. The ratio of consolidated operating
profit to net sales climbed from 5.1% in 1991 to 8.5% in 2003 to 9.3% in 2007. However, the company
was hit by the 2008 global recession and the 2011 earthquake and tsunami, and by 2011 the ratio had
declined to 2.5%.
In the midst of the economic downturn came the 2009–2010 unintended-acceleration crisis, during which
Toyota recalled 9 million vehicles worldwide. (A U.S. government report concluded that the problems
resulted from accelerator pedals that got stuck or ones that got caught under floor mats.) As a result,
Toyota took steps to improve its responsiveness to customer complaints and to speed its corporate
decisions. In 2010 it revised its quality standards for parts, reportedly drawing on suggestions from
suppliers. It also asked suppliers to strengthen their quality management starting at the design stage and
conducted joint activities with them to that end. Although U.S. sales volume slipped from 2009 to 2011, it
recovered in 2012. According to J.D. Power’s U.S. Vehicle Dependability Study, from 2009 to 2013 the
number of problems per 100 vehicles declined 13% for Toyota, 44% for Lexus, and 39% for Scion,
suggesting that overall quality has improved—owing in part to suppliers’ contributions.
Engineering Your Own Keiretsu
Despite the flaws, the new keiretsu provide a useful template for companies seeking to enrich their
relationships with suppliers for long-term benefit. Indeed, although the arm’s-length approach is still
dominant in the West, there has been some renewal of interest in keiretsustyle relationships, with a few
manufacturers creating hybrid purchasing programs that involve keiretsu-like associations.
In certain industries in Europe, suppliers develop deep loyalties to manufacturers and participate in
improving their supply chains. For example, the Swedish bus and truck maker Scania holds workshops to
help suppliers learn the Scania Production System, which includes continuous improvement and lean
production. Scania’s purchasing system shares other features with keiretsu: Suppliers identify with the
hub company, which, in turn, works to make them more globally competitive (although it doesn’t hold
shares in them).
IKEA, too, takes a long view of its supplier relationships, working to build committed partnerships based
on mutual advantage. It delegates extensive tasks to vendors and collaborates with them in the interest of
efficiency and cost containment. For example, it worked with a number of longtime suppliers to develop
the technology for printing veneer patterns on the fiberboard tables in its Lack furniture series.
Companies looking to engineer their own forms of the new keiretsu should keep certain guidelines in
mind:
•
•
•
•
•
• Learn to think short-term and long-term at the same time. Tell suppliers that you envision lasting
relationships, but only if they are cost-competitive today—and work with them to achieve that.
Encourage them to regard you as a long-term partner by, for example, not only informing them of
your cost-reduction expectations but also showing how the benefits will be shared.
• Know your suppliers. If you don’t understand their processes, you can’t contribute to improving
them. Instead of outsourcing all components, establish joint ventures for key parts. Visit suppliers’
workplaces.
• Develop trust with your suppliers. Make it clear that the relationship will help them improve their
operations and become more competitive. Be the customer they want to work with.
• Balance explicit and implicit communication. Too much explicitness can lead to mistrust; too
much implicitness can result in misunderstanding.
• Establish a portfolio of suppliers and identify those most worth improving (you can’t improve
them all). Which ones have the potential to be globally competitive? Assign grades according to
Franz Wirl: Industriebetriebslehre
184
capabilities such as quality, cost, delivery, people, and development. A supplier’s ability to learn
is key to your future competitiveness. Suppliers that demonstrate a willingness to understand the
root causes of mistakes are the most likely to improve.
• • Build personal relationships between your company and your suppliers, not only at the
management level but also among employees. Meet your suppliers. Create joint study groups.
Have your managers work with suppliers’ engineers on the shop floor. These steps will lead to
faster problem solving and an atmosphere in which vendors are comfortable making suggestions.
• • If suppliers underperform, see what can be done to change the situation. Think in terms of
development rather than switching. Give them opportunities to show how they could improve.
• Involve suppliers in developing new products—invite their engineers to serve on your
development teams—and conduct process-improvement activities in their factories. This will
increase your competitiveness across the supply chain.
Increasingly the locus of competition is between supply chains rather than between individual companies.
Western manufacturers that want to move toward improved supplier relationships must remember the
keys to keiretsu-like partnerships: support, cooperation, trust, and goodwill. Those elements are critical
even in a hypercompetitive, cost-obsessed environment, because they reduce the hidden costs of arm’slength relationships.
6.2.8
Weitere Erfahrungen mit Lean Management
Die folgende Abbildung zeigt das Verhältnis von Umsatz zu Lagerbeständen zweier großer Unternehmen
im Zeitablauf. Hierbei ist zu beobachten, dass vor Mitte der 70er Jahre, in Folge der
Großserienproduktion und Automatisierung große Lager gang und gebe waren, während es danach
durch die Einführung von Lean Management Techniken zu einem Rückgang der relativen Lagergröße
kam.
Ein Beispiel für gemischte Erfahrungen mit Lean Management machte Boeing (nach The Economist, Oct.
11th, 1997, S82): Durch Begutachtung des Produktionssystems bei Toyota ist es Boeing gelungen mittels
Just-in-time-Methoden und Lean Management Ansätzen die Produktivität zu steigern (60000 oder con 3
wurden entlassen) und die Lieferzeit auf unter ein Jahr zu drücken. Jedoch für einem dann 1997
hereinbrechenden Boom war das Unternehmen dann doch zu ‚lean’. Aus den daraus resulitierenden
Problem und Lieferschwierigkeiten konnte dann der Konkurrent Airbus Kapital schlagen.
Abbildung 5.12
Dell Computers:
Michael Dell invented a business model that all the world wanted to copy. Yet after all these years, almost nobody
has. Why?
FOR all his success, Michael Dell has a lot to answer for. Bookshelves groan under the weight of books that discuss
how best to learn from Dell Computer’s nifty model of selling directly to consumers and making PCs to order. No ebusiness conference is complete without a few slides on Dell’s virtual supply chains and enviably slender inventory.
Executives from traditional manufacturing giants, such as Maytag and General Motors, make pilgrimages to Austin,
Texas, to learn the Dell Way. After General Electric’s Jack Welch, there is hardly a more admired boss than Mr.
Dell, the man who turned the commodity business of PC making into a goldmine by doing things differently.
Franz Wirl: Industriebetriebslehre
185
Now come the hard times, exactly what Mr. Dell’s famous near-zero inventory model was designed to weather best.
And so far his company has indeed held up well: on April 5th, Dell announced that, unlike most of its peers, it
would not be cutting its (admittedly modest) profit forecast for the latest quarter. But what of those companies that
copied the Dell model? Have they done as well? Hard to say: for the most part, they seem not to exist.
Nearly 20 years after Mr. Dell started his PC company, it remains in a class of one. Others may have adopted a bit of
his model here and a bit there, but none has taken it far. Gateway, which began life as a Dell clone, has since
diverged with own-brand stores complete with—gasp!—depreciating inventory. Dell’s biggest competitor, Compaq,
still sells most of its wares through indirect distribution channels. And Cisco proved just how unlike Dell it is in the
most recent quarter, when its inventory spiked to nearly 40% of sales. Dell’s is less than 6%, and falling (see chart).
10
11
12
13
14
15
Outside the technology industry, the Dell-alikes get even thinner.
Mercer Management’s Adrian Slywotzky, author of one of the
books that lionises Dell, can think of only two examples, to his
surprise: Marshfield DoorSystems, formerly Weyerhaeuser Door
(which makes customized doors) and Herman Miller, a maker of
office furniture.
16
17
18
19
20
Mr. Dell himself is less surprised. Few industries, he says, have all
the ingredients needed to copy the Dell business model properly.
And even in those that do, established companies are usually far too
wary of undermining their existing businesses and sales channels to
push direct buying particularly hard.
21
Dormitory days
22
23
24
When he started his business in 1984, Mr. Dell had no great plans
to reinvent PC making. He simply wanted to assemble and sell
computers out of his university dormitory. This was possible
because a PC-clone industry had just emerged in the wake of IBM’s first machine, complete with an explosion of
suppliers. Computer companies no longer needed their own research and manufacturing operations; instead, they
could focus on assembly and marketing. Although Mr Dell did not know it at the time, the new PC industry had
several other traits that made it ideal—perhaps uniquely ideal—for the streamlined direct-sales operation that Dell
now epitomises.
As Mr Dell lists those qualities, it becomes a little clearer why so few other firms have followed in his footsteps. For
a start, PCs are made almost entirely from standard parts, available from many sources; there is no need to order
special components long in advance. Consumers want to customize PCs, but within limits: faster or slower
processors, more or less memory, but not their own color or trim. Such limited customization encourages a build-toorder model, without the need for a supply chain drowned by a huge number of parts. Moreover, the most expensive
PC components quickly become obsolete and thus lose value by the day, so a PC maker’s profitability is determined
largely by the size of its inventory. This creates what Mr. Dell calls “profit pools”: fat margins for the taking, if a
company can slim down its stock of components by being more efficient than its competitors.
Are there many other industries that share these traits? Mr. Dell shrugs off the question. But all those visits from car
companies have given him some insight into one other candidate, at least. American car makers put up with $80
billion worth of inventory a year, of which $50 billion is built in anticipation of orders. That satisfies the criterion of
a high cost structure. Yet taking the car industry very far into Dell territory would quickly run into problems. Car
companies have huge sales and distribution channels that fight fiercely any attempt to circumvent them; in almost all
American states, it is illegal to sell cars any way but through a local dealer.
Might a big technology company such as Cisco stand a better chance of becoming Dell-like? Cisco’s most
expensive parts are custom processors and other semiconductors that it designs and commissions from chip makers.
This violates Mr. Dell’s rule of industry-standard parts. Because Cisco asks its suppliers to make unique
components, it must order to forecast. When it gets the forecast too high, it must take the components and watch
them lose their value in a warehouse; if the forecast is too low, it cannot quickly find another supplier to make the
parts. By contrast, when Dell is gaining market share it can simply take parts that were destined for its rivals; were it
to lose share, it could easily sell unwanted stock.
Might more businesses eventually take on the characteristics of PC making? The lesson of the past decade is that it
will take longer than most guessed, if it happens at all. That could be good news for Mr. Dell, who gains market
share when his competitors prove unable to follow him, but it is bad news for the consulting industry that fed off his
success. Mr. Dell may be an inspiration, but he is too unique to be the paint-by-numbers role model the world had
hoped to make him.
Fast Food, McDonald
Franz Wirl: Industriebetriebslehre
186
Im Fast-Food Bereich, wo traditionell auf, wenn auch auf geringe, Lager produziert wurde und wird, geht man
davon wieder ab produziert nur auf Bestellung. Die Produktion auf Lager hat den Vorteil, dass die Kunden nicht
warten müssen, was bei fast food, wie der Name schon sagt, ein wichtiger Vorteil ist. Der Nachteil ist, dass darunter
die Qualität leidet und um wenigstens minimale Standards zu erhalten, viel weggeworfen werden muss, dass vorher
mit Kosten und Aufwand produziert wurde. Sogar MCDonald versucht diesem Trend zu folgen, also ein MCJITer
(The Economist) zu werden.
ALONGSIDE the enormous stands for Coke and Disney, one of the main features of McDonald’s recent convention
was a huge demonstration kitchen. Thousands of franchisees queued for a chance to peer from a catwalk at the
burger flippers below. McDonald’s new “Made for You” system, which has taken five years to prepare, is crucial to
its future. It also marks a rare attempt to bring just-in-time (JIT) manufacturing techniques to a service industry.
McDonald’s denies that its new system, which costs around $25,000 to install, has anything to do with competitors’
burgers tasting better—it is just responding to customers’ needs. But “Made for You” is plainly an answer to the
charge that made-to-order food from rivals such as Burger King and Wendy’s tastes fresher. At present, McDonald’s
franchisees often batch-cook their meals for busy periods. The food then loses some of its flavour sitting around.
McDonald’s spent a lot of time studying manufacturing systems like Toyota’s. Its new system is a mixture of
technology and reorganisation. The technology includes gadgets that can toast buns in 10 seconds, and ovens that
can keep burgers fresh for up to 20 minutes. But the main point of the system is speed. The aim is to serve each
customer within 90 seconds of ordering.
The moment a Big Mac is ordered, a computer screen in the kitchen tells one of the workers to start assembling it.
Meanwhile, by monitoring the flow of orders, the computer also estimates future demand, indicating when to start
cooking things (like fries) that cannot be squeezed into the 90-second slot.
It remains to be seen whether the franchisees embrace the system. “Made for You” should help cut stock costs, and
there may be some staff savings. But the proof of the pudding will, so to speak, be in the burgers. An early indicator
of their taste came from one franchisee who has installed the new system and who told the Orlando Sentinel that his
staff “have started eating the food again”.
Jüngste Beispiele sehen sogar, dass Just-in-Time Delivery comes to Knowledge Management, vgl. dazu
Davenport und John Glaser im Harvard Business Review vom 2. Juli 2002, S 107- 111.
Das Problem – dargestellt an Hand der Medizin – ist dabei folgendes. Jeder Arzt ist im aktuellen Moment
einer Entscheidung in Anschluss an eine Diagnose mit tausenden von aktuellen Arbeiten konfrontiert.
Klarerweise hätte es keinen Sinn gemacht und wäre auch unmögliche gewesen diese Masse an sich
permanent korrigierenden Studien zu lesen und zu verstehen. Jedoch Ignoranz dieses Wissens – falsche
Medikationen, falsche Tests, falsche Operationen – kosten jährlich zahlreiche Tote selbst in
hervorragenden Spitälern (wie der Harvard Medical School). Hier muss die Information im Falle der
Entscheidung zur Verfügung stehen. Die Autoren berichten dabei über wissensbasiertes
Computersystem für Ärzte, das sich genau im Moment der Therapie [z.B. Aufschreiben der Medikamente]
dazwischen schaltet, mit der Patientenkartei auf Verträglichkeiten bzw. Allergien abtestet und weiteres
aktuelle Information bereitstellt. Der Arzt kann diese Empfehlungen überschreiben, aber er muss dafür
eine Erklärung liefern. Die Wartung der Wissensbasis wird von kompetenten Wissenschaftlern
vorgenommen.
6.2.9
David Landes, The American and Japanese Automobile Industries
It would be wrong to see these gains as simply a matter of technique, there for the taking or copying.
People made all the difference. For anyone who has ever visited Japan and suffered in the traffic that is
one of the vexatious, even nightmarish features of overcrowded urban and industrial agglomerations, the
ability to run a just-in-time system comes across as miraculous. How can anyone deliver parts on call and on
time? The answer: by sleeping on the job. The driver takes his lorry close by the factory gate and parks there
overnight, curling up in the cab. On the morrow he's there.
But that makes another point: what's sauce for the goose is not for the gander. The just-in-time mother plant
is saving its time. Very smart. But the supplier is spending his time. The whole Japanese system of
outsourcing rests on pressing down, on squeezing the purveyors while they in turn squeeze their
workforce. All is not immaculate, then, in the Japanese industrial heaven. On the other hand, the mother
firm is not unreasonable: it squeezes, but it also helps with equipment, technique, and funding. These are
tough, resilient people, as always very hierarchical, but with a strong sense of reciprocal obligation up and
down the scale.
Is this Japanese mode of "lean production," quality control, and labor-management partnership
exportable? Can Americans learn new ways? We have the beginning of an answer in the performance-in the
United States but also in Britain-of Japanese affiliates: Honda, Toyota, Mitsubishi, et al. These plants
owe their origin to trade barriers; they were built to get behind the walls. They pay about the same
wages as American firms, but they have been able to keep out the unions with their task segmentation and
Franz Wirl: Industriebetriebslehre
187
divided sovereignty. They also have relied extensively on imported components, to the point of raising
questions about the nationality of the product. But that is the nature of global industry: one buys cheapest.
In the meantime, these transplants seem to show higher labor productivity and quality than all-American
firms, though Japanese factories in Japan do somewhat better.
Plenty of blame to go around. Much of the initial failure of the American auto industry to hold its own against
this bull of a competitor was its own fault-of labor partly, because of its hormonal reluctance to change ways or
give way; but of management even more. The list of sins is long: (1) complacency (we're the best, have
always been the best); (2) want of empathy (did they really expect the Japanese, with their often narrow
roads and left-side driving, to buy big cars with steering on the left?); (3) residual, two-faced reliance on
government support (we're all for free enterprise, but how else counter official favors to the Japanese auto
industry?); and (4) a short and selfish time horizon that led American management to use respites from
Japanese competition to raise prices and dividends rather than invest and improve techniques.
6.2.10 Anmerkungen
Laut Womack-Jones, 1996, verstehen viele Manager die Mächtigkeit von lean management mittlerweile,
nämlich dass das Pull-Prinzip (Analogie zur dynamischen Programmierung!! – Lösung wird auf der
letzten Stufe begonnen und mittels Vorwärtsinduktion weitergeführt) ungleich einfacher als vorwärts
blickende, oft mit komplexer EDV verbundene Fertigungssysteme ist, haben viele versagt dies in einer
kohärenten Unternehmensstrategie zusammenzufassen. Mittlerweile hat sich Lean Management auch in
den USA und Europa ausgebreitet, insbesondere weil die japanischen Autoproduzenten vor Ort die
Kompatibilität dieses Ansatzes auch mit anderen Mentalitäten demonstrierten.
Voraussetzungen und Schritte für Lean Managementtechniken:
1. Definition des Wertes aus der Sicht des Endkonsumenten mit der Spezifizierung des Produktes, der
Fähigkeiten des Produktes zusammen mit Preis und Zeitpunkt. Die Sicht des Konsumenten ist - nach
Taiichi Ohno - unumgänglich, um Verschwendung (muda) zu vermeiden.
2. Identifikation des gesamten Wertstromes jedes Produktes und Eliminierung von jeder Form von
Verschwendung.
3. Sicherstellen eines Flusses im Ablauf.
4. Plane und liefere nur was und nur wann der Konsument es wirklich will.
5. Strebe nach Perfektion.
Dadurch entsteht ein positiver Regelkreis: Eine präzisere Definition des Wertes legen die existierenden
Verschwendungen offener dar, und ein schneller, besserer Fluss deckt immer bis dato versteckte
Verschwendung auf. Also je stärker dann die Konsumenten „ziehen“, desto stärker werden Probleme
sichtbar, um dann behoben werden zu können.
Das japanische Sytem in der Automobilindustrie läuft auch auf eine Risikoteilung hin. So findet jüngst
25
eine Studie , dass (trotz jüngster Änderungen) die Automobilfirmen das Risiko zum grossen Teil
absorbieren und damit die Zulieferer (implizit) versichern.
6.2.11 Theoretische Erklärung I
26
der möglichen Effizienz von Lean Management
Wie schon in der Einleitung zum Punkt JIT, stellt sich auch bei Lean Management allgemein die Frage,
warum man solche zusätzlichen Nebenbedingungen und willkürliche Beschränkungen einführt, die dann
zu Teilproblemen und suboptimalen Lösungen führen. Was bringen diese dem Management?
In der Folge werden die Beziehungen zwischen einem Lieferanten und einem Abnehmer betrachtet. Der
H
L
Lieferant kann entweder hohen monetären Einsatz (e ) machen, oder niedrigen (e ). Die
Wahrscheinlichkeiten mit denen die Produkte entweder intakt oder nicht intakt beim Abnehmer
ankommen, sind in untenstehender Skizze angegeben.
Abnehmer
Lieferant
H
p
B
eH
1-pH
pL
B-r
ja
Reparatur
eL
1-pL
nein
0
25
Horoyuki Okamuro, Risk skaring in the supplier relationship: new evidence from the Japanese automotive industry, Journal of
Economic Behavior & Organization 45, 361-381, 2001.
26
J. Cremer, Towards an Economic Theory of Incentives in Just-in-Time Manufacturing, European Economic Review, 1995.
Franz Wirl: Industriebetriebslehre
188
Abbildung 5.13
Kommt das Produkt intakt an, hat es denn Wert B für den Abnehmer. Kommt es nicht intakt an und wird
nicht repariert, hat es den Wert 0, wird es repariert hat es den Wert B minus den Reparaturkosten r.
H
L
H
L
Weiters zu beachten ist , dass gilt: e > e und p > p .
Annahmen:
H
1.
H
L
H
e
e
p
e
> L ⇔ L > H
L
p
e
p
p
eL
)
H
e −e
eH < e ,
⇒ H
=
p − pL
pL
pH
H
p (1 − H )
p
H
L
e H (1 −
das heißt, dass das Wählen des höheren Einsatzes eine überproportionale Erhöhung der
H
Wahrscheinlichkeit eines intakten Produktes bringt also hoher Effizienz e effizient wäre.
2. (B - r) < eH/pH
D.h., dass der Gewinn des Käufers nach einer Reparatur geringer ist, als was notwendig ist, dem
H
Lieferanten zu zahlen um gleichzeitig e durchzusetzen, siehe unten (optimale Lösung für w).
In diesem Rahmen soll nun als erstes der Fall JIT betrachtet werden. Zu diesem Zweck nehmen wir an,
dass bei JIT keine Reparaturen erlaubt sind. Diese zusätzliche Beschränkung schneidet dem
Entscheidungsbaum einen Ast ab. Warum sollte man sich freiwillig in seinem Aktionsradius
beschränken? Der Grund, wie wir sehen werden ist, dass mit dieser Beschränkung a la JIT erreicht
H
werden, dass der Lieferant den hohen Einsatz e bringt. Dazu soll sein Kontrakt, bestehend aus der
S
Zahlung w (Betrag, den er bei Annahme der Lieferung erhält) und der Zahlung w (Betrag, den er bei
Ablehnung der Lieferung erhält) so gestaltet werden, dass der Lieferant es bevorzugt, hohen Einsatz zu
bringen, anstatt niedrigem.
Der Gewinn des Lieferanten bei hohem Aufwand:
pHw + (1 - pH)wS – eH
muss also größer oder gleich dem Gewinn bei niedrigem Aufwand sein:
pLw + (1 - pL)wS – eL.
Also
pHw + (1 - pH)wS – eH > pLw + (1 - pL)wS – eL,
oder umgeformt:
( p H − p L ) w − ( p H − p L ) w S ≥ e H − e L bzw. w − w S ≥
eH − eL
pH − pL
Dies ist die Anreizkompatibilitätsbedingung oder incentive compatibility constraint. Als weitere Bedingung
H
muss gelten, dass der Lieferant bereit sein muss, e auszuführen. Dies ist nicht dasselbe wie die obige
H
L
Bedingung, in der nur festgelegt wird, dass der Lieferant e gegenüber e bevorzugt, aber nicht
berücksichtigt wird, dass er auch eine dritte Möglichkeit hat, nämlich nichts zu tun, und auf gar keinen
Kontrakt einzusteigen. Der Vertrag muss also für den Lieferanten ein positives Ergebnis bringen. Wir
nehmen an, seine Einkünfte aus dem Nichtstun seien 0. Es wird also die Formel für den Gewinn des
Lieferanten bei hohem Aufwand größer oder gleich 0 gesetzt, daraus ergibt sich:
p H w + (1 − p H ) w S ≥ e H
Franz Wirl: Industriebetriebslehre
189
Weiters muss festgelegt werden, dass der Abnehmer nur fehlerfreie Teile akzeptiert. Sein Gewinn aus
dem Erhalt des intakten Gutes minus der Zahlung des Kaufpreises muss also größer oder gleich sein
dem Betrag, den er für fehlerhafte Güter zahlen müsste:
( B − w) ≥ ( − w S ) .
Der Abnehmer ist der Prinzipal und kann sich aussuchen, welchen Kontrakt (bestehend aus Werten für
S
die Zahlungen w und w ) er dem Lieferanten anbieten möchte. Er wird diese Elemente des Vertrags
natürlich so wählen, dass sein eigener Gewinn maximiert wird. Dieses Modell ist in der Box unten
nochmals zusammengefasst:
Zielfunktion:
max
p H ( B − w) + (1 − p H )( − w S )
S
w,w
Nebenbedingungen (siehe auch oben):
(1) (Incentive Compatibility) w − w ≥
S
e H −e L
pH − pL
(2) Kontrakt muss für Lieferanten vorteilhafter sein, als andere Alternativen
p H w + (1 − p H ) w S − e H ≥ 0
(3) Akzeptanz fehlerfreier Teile:
B ≥ w − wS
(4) w ≥ 0
(5)
wS ≥ 0
S
(Wäre w negativ, könnte der Abnehmer einfach Teile bestellen, dann nicht annehmen, und würde
trotzdem dafür Geld bekommen!)
Um dieses Maximierungsproblem zu lösen, wird zunächst die Lagrange-Funktion aufgestellt:
L = p H ( B − w) + (1 − p H )( − w S )
eH − eL
] + µ 2 [ B − ( w − w S )] + µ 3 [ p H w + (1 − p H ) w S − e H ] + µ 4 w + µ5 w S
+ µ1 [( w − w ) − H
L
p −p
S
S
Gemäß dem Kuhn-Tucker Theorem werden nun die Ableitungen nach w und w gebildet und gleich 0
gesetzt.
∂L
= − p H + µ1 − µ 2 + µ3 p H + µ 4 = 0
∂w
δL
= −(1 − p H ) − µ1 + µ 2 + µ3 (1 − p H ) + µ5 = 0
S
δw
Dazu kommen 5 weitere Gleichungen für die sogenannten komplementären Schlupfbedingungen.
µi [] = 0, µi ≥ 0, i = 1...5
S
Satz von Kuhn und Tucker: obige Bedingungen sind notwendig für optimale Lösungen (w*, w *). Sie sind
auch hinreichend, wenn sowohl die Zielfunktion als auch die Nebenbedingungen konkav sind. Finden wir
daher nicht-negative Multiplikatoren μi (i=1,...,5) sodass die obigen sieben Gleichungen erfüllt sind, dann
haben wir ein Optimum gefunden.
Die Lösung
Franz Wirl: Industriebetriebslehre
190
w = eH/pH,
wS = 0
[μ1 = 0, μ2 = 0, μ3 = 1, μ4 = 0, μ5 =0]
erfüllt die obige Bedingungen und stellt den optimalen Liefervertrag vor.
Der Gewinn für den Abnehmer bei dieser JIT-Lösung beträgt:
pH(B - w) + (1 - pH)wS = pH(B - eH/pH) = pHB - eH.
Beim traditionellen Fall, gibt es zwei Möglichkeiten, Verträge mit Reparaturmöglichkeit und ohne.
H
Entscheidet man sich für einen Vertrag mit Reparaturmöglichkeiten, kann e nicht mehr implementiert
H H
werden wegen Annahme 2: Der Gewinn (B – r) ist geringer als der Lohn e /p , der notwendig zur
H
S
L
Implementation von e ist. Daher w = w = e , der Lieferant wird also genau für seinen niedrigen Einsatz
kompensiert, und es ergibt sich folgender Gewinn.
pLB + (1 - pL)(B - r) - eL = B - (1 - pL)r - eL.
Verträge ohne Reparaturmöglichkeit werden durch JIT dominiert.
Vergleicht man die beiden Zielfunktionen, nämlich die unter JIT und die unter traditioneller
Vorgangsweise, so sieht man, dass Just in Time dann und nur dann optimal ist, wenn der Gewinn unter
JIT größer ist, als der traditionelle, also wenn
pHB - eH > B - (1 - pL)r - eL.
Umgeformt:
(1 - pH)B + eH - eL < (1 - pL)r
Angenommen man startet in einer Situation, wo man zwischen den beiden Ansätzen indifferent ist, was
müsste sich ändern, damit die Situation für JIT spricht? Z.B.
•
Es müsste B kleiner werden. Daraus folgt, wenn der Wert des Produktes geringer ist, dann
begünstigt es JIT,
•
e , also die Kompensation für hohen Aufwand, muss kleiner werden
•
e (also die Kompensation für niedrigen Aufwand) muss wachsen,
•
p muss kleiner werden,
•
oder r muss wachsen.
H
L
L
27
6.2.12 Modellansatz II zur möglichen Effizienz von Lean Management: Japanisches versus
amerikanisches System von Lieferverträgen
Dyer and Ouchi (1993, p54): “While a supplier may have a contract for four years, in reality Toyota’s and
Nissan’s partner have essentially open ended contracts that according to Nissan purchasing manager
“have no real termination date.” As one Toyota supplier said, ‘Once we win the business, it is basically
our business unless we don’t perform. It is our business to loose.”
Bemerkung: Diese Art an Vertragsbeziehungen ist traditionell im Gewerbe!
Timing
Produktion
Lieferung
Inspektion
Offenlegung der Qualität θ
t
Los x,
Qualität θ
27
Wahrsch. α
bei Defekt,
zurückweisen
Curtis R. Taylor and Steven N. Wiggins, Competition or Compensation: Supplier Incentives Under the American and the
Japanese Subcontracting Systems, American Economic Review 87, 598 - 618, 1997.
Franz Wirl: Industriebetriebslehre
191
Modellzusammenstellung: Annahmen und Variable
Käufer („Prinzipal“)
benötigt
q
Einheiten
x
Größe der Lose
Verkäufer („Agent“)
Kosten für Lose
f + c(θ)x, c´ > 0, c´´ > 0
θ ∈ [θ ,θ ],0 ≤ θ ≤ θ ≤ 1
θ geforderte Qualität, θ minimale Qualität
q/x
Auftragshäufigkeit
x/q
Zeit zwischen Aufträgen
h:= r/q
δ := exp(-hx)
Diskontfaktor.
α
Wahrsch. und
m
Kosten einer Inspektion
w(x, θ)
Zahlung für Lieferung x mit Qualität θ.
Ziel des Prinzipals
min [w + αm]/(1 - δ)
x,α,w
Anreizkompatibilität
Barwert an Quasirenten
[w – (f + c(θ) x)]/(1 - δ)
≥
(1 - α) w - (f + c(θ) x
einmaliger Gewinn aus ‚shirking‘
Individuelle Rationalität
w – (f + c(θ) x) ≥ 0
Annahmen:
1. Ergebnis der Inspektion ist nicht kontrahierbar, aber die Bezahlung kann von der Zufriedenheit
des Käufers abhängen.
2. Kosten der Inspektion ua. von der Stichprobe, die wiederum u.a. vom Los ist
3. Geringe Fehler auf Grund der Stichprobe, d.h. eine Inspektion entdeckt immer eine fehlerhafte
Lieferung.
First-best optimales Los x: Minimierung des durchschnittlichen Wertes der auf Lager liegt.
Unser Standardansatz
min w (q/x)+ r = min [f + cx](q/x) + ½( f + cx)r
=> x* = (2fq/(rc))½.
Innerhalb des obigen Modells?:
min L = w/(1 - δ) = [f + cx]/(1 - δ).
Verwendung der Pade-Approximation:
δ = exp(-hx) ≈ (2 – hx)/(2 + hx) => (1 - δ) = 2rx/(2q + rx)
min (f + cx)(2q + rx)/(2rx) => x* = (2fq/(rc))½.
Einschub: Pade-Approximation:
Verwendung derselben Ableitungen wie die Taylorreihenentwicklung, aber Konstruktion einer rationalen
Funktion zur Approximation von f:
Franz Wirl: Industriebetriebslehre
192
r(x) = p(x)/q(x), p und q Polynome der Ordnung m und n
dk
( p( x0 ) − f ( x0 )q( x0 ) ) = 0, k = 0,..., m + n
dx k
wobei q(x0) = 1 als Normalisierungsregel.
Taylorapproximation: δ := exp(-hx) = 1 – hx + ½h x
2 2
Pade´-Approximation ist global oft besser als die Taylorapproximation (die lokal optimal ist nach den
bekannten Sätzen der Analysis).
m = n = 1: p(x) = a + bx; q(x) = α + ßx.
a - α = 0, x = 0, k = 0, => a = α = 1.
k = 1: b + he-hx(α + ßx) – ße-hx = b + h – ß = 0
k = 2: -h2e-hx(α + ßx) + 2hße-hx = h(2ß - h) = 0
=> ß = h/2, b = -h/2 =>
r(x) = (1 – ½hx)/ (1 + ½hx) = (2 – hx)/(2 + hx).
h = 1/1000;
f = 1 - h x + (1/2) (h x)^2;
g = (2 - h x)/(2 + h x);
Plot[{Exp[-h x], f, g}, {x, 0, 500}];
100
200
300
400
500
0.9
0.8
0.7
0.6
N[{Exp[-h x], f, g} /. x -> 500]
{0.606531, 0.625, 0.6}
N[{Exp[-h x], f, g} /. x -> 100]
{0.904837, 0.905, 0.904762}
Abbildung 5.14
Franz Wirl: Industriebetriebslehre
6.3
6.3.1
193
Weitere Fallstudien
Japan and the global supply chain
28
Broken links
The disruption to manufacturers worldwide from Japan’s disasters will force a rethink of how they manage
production
LAST year Iceland’s volcanic ash disrupted air transport across Europe and gave the world’s
manufacturing supply chain one of its biggest tests since the advent of the low-inventory, just-in-time era.
Now, Japan’s quadruple disaster—earthquake, tsunami, nuclear alert and power shortages—has put the
supply chain under far greater stress. Three weeks after the massive quake, the extent and likely duration
of the disruption are still unclear.
There are some enlightening similarities between the shocks that manufacturers are now suffering and
those that buffeted the banking system in the 2008 financial crisis. In both cases two of the biggest
surprises were the unexpected connections the crisis uncovered, and the extent of the contagion. The
problems began in a seemingly well-contained part of the system—subprime mortgages in the case of
finance, in manufacturing’s case a natural disaster in an economic backwater—but quickly spread.
Like the sudden evaporation of liquidity that the banks experienced, factories are finding that parts that
had always turned up reliably have stopped coming. As with financial regulators’ discovery of how poorly
they understood the “shadow banking” system and arcane derivatives contracts, manufacturers are
discovering how little they know about their suppliers’ suppliers and those even farther down the chain.
When Lehman went bust, other banks struggled to measure their exposure because Lehman turned out
to be not a single institution but a tangle of many entities. Assembly firms are now finding that their supply
chain looks much the same.
Just as some financial institutions proved “too big to fail”, some Japanese suppliers are now revealed to
be too crucial to do without. For example, two firms, Mitsubishi Gas Chemical and Hitachi Chemical,
control about 90% of the market for a specialty resin used to bond parts of microchips that go in to
smartphones and other devices. Both firms’ plants were damaged. The compact battery in Apple’s iPods
relies on a polymer made by Kureha, which holds 70% of the market, and whose factory was damaged.
Manufacturers around the world are now racing to secure supplies of the scarcest components and
materials, pushing up their prices. Carmakers in Japan and America have had to scale back production.
Toyota fears a scarcity of 500 rubber, plastic and electronic parts. It is not yet clear how much worse
things will get as existing stocks run down. Nor can Japanese suppliers be sure yet of how soon they can
get back up to speed: hundreds of aftershocks, some strong enough to disrupt production, have rumbled
on since the main quake. Given the loss of a very large nuclear plant and shutdowns of others, power
shortages may extend for years.
Even before the extent of the disruption becomes clear, it seems certain that Japan’s disaster will have a
lasting impact on how manufacturers manage their operations, says Hans-Paul Bürkner, boss of the
Boston Consulting Group, who was in Tokyo this week. “It is very important now to think the extreme,” he
says. “You have to have some buffers.”
Over the past decade or so the just-in-time concept of having supplies delivered at the last minute, so as
to keep inventories down, has spread down the global manufacturing chain. Now, say economists at
HSBC, this chain may be fortified with “just-in-case” systems to limit the damage from disruptions.
For instance, suppliers who have near-monopolies on crucial parts and materials may be pressed to
spread their production facilities geographically. Their customers may, as a precaution, also switch part of
their orders to smaller rivals. Hiwin, a Taiwanese firm with 10% of the market for “linear motion guides”,
used in industrial machines, may gain share from customers of Japan’s THK, which dominates the market
with a 55% share and which faces power cuts, suggests CLSA, a stockbroker.
Assembly firms will be under the same financial pressures as before to keep their inventories of supplies
down. So a new growth industry may emerge from the crisis: that of holding and maintaining essential
stocks on behalf of manufacturers.
Industrial firms, having spent years becoming ever leaner in their production techniques and, in the
process, making themselves more vulnerable to these sorts of supply shocks, will now have to go partly
into reverse, giving up some efficiency gains to become more robust. One consolation is that their
problem of “too crucial to do without” suppliers looks a lot easier to solve than the conundrum of the “too
big to fail” banks.
28
The Economist, Mar 31st 2011
Franz Wirl: Industriebetriebslehre
6.4
194
Lernen
Die Bedeutung von Lerneffekten in der Produktion ist bekannt, wobei die Lernkostenkurve im
interessantesten ist. Bekannt ist vermutlich auch die Anekdote, dass dieser Aspekt – durch hohe
Stückzahlen insbesondere zu Beginn der Produktion eines Gutes können die Stückkosten dramatisch
gesenkt werden – von Texas Instruments strategisch eingesetzt wurde, in den Markt für Taschenrechner
einzudringen, d.h. die ersten Stücke wurden unter den Produktionskosten verkauft in Antizipation der
Kostensenkung für später erzeugte Rechner.
Im folgende werden zwei Aspekte beleuchtet: Lernkostenkurven und dann ein neuerer Beitrag zum
Lernen in Unternehmen.
6.4.1
Lernkostenkurven
Lernkostenkurven stellen eine Beziehung zwischen Stückkosten und der Erfahrung die im
Produktionsprozess gewonnen dar. Diese Erfahrung wird üblicherweise in der kumulativ erzeugten
Stückzahl Q(t)
t
dQ
= q(t ), Q (0) = 0
Q (t ) = ∫ q(t )dt bzw. Q :=
dt
0
oder allgemeiner durch Berücksichtigung einer Vergessensrate
Q (t ) = q(t ) − δQ (t ), Q (0) = 0
beschrieben.
Lernkostenkurven wurden erstmalig in einem Bericht von T.P. Wright für die Curtis-Wright Corporation
1936 angewandt. Die erste theoretische Analyse der Auswirkungen von Lernkosten auf die
Unternehmensstrategien stammt von Arrow (1962).
6.4.2
Wissenstransfer
Im Aufsatz von Lapre und Wassenhove (2002) wird folgendem Phänomen nachgegangen:
Von zahlreichen Initiativen zur Erhöhung der Produktivität sind nur zu 25% erfolgreich und einige
Veränderungen senken sogar die Produktivität.
hoch
niedrig
konzeptuelles lernen
Warum? Die Ursache für einen Erfolg einer Maßnahme ist, dass durch eine Maßnahme gewonnenes
Wissen weiter transferiert werden kann. Dies wird an Hand des Unternehmens Bekaert, das 1/3 des
Weltvolumens von Stahlgürteln (für Reifen) produziert, dokumentiert. Der Kern des Argumentes ist in der
folgenden Projektmatrix konzeptualisiert:
Theorien
operational
bestätigte
Theorien
Feuerwehr-
Künstlerische
massnahmen
niedrig
Fähigkeiten
unbestätigte
hoch
operationales lernen
Abb. 5.15 Projektmatrix nach Lapré und Wassenhove (2002).
Feuerwehraktionen: Teams versuchen akute Probleme unmittelbar zu lösen mittels kleiner
Verbesserungen und ohne wissenschaftliche Ansätze und Unterstützung. Dies kann die Symptome
beseitigen, aber die Ursachen bleiben und tauchen vielleicht auf einer anderen Stelle wieder auf, etwa in
einem späteren Produktionsprozess.
Franz Wirl: Industriebetriebslehre
195
Problemlösungen mit geringem konzeptuellen aber hohem operationalen Lernen finden Lösungen für das
anstehende Problem ohne aber was Warum zu verstehen. In Summe finden die Autoren, dass solch
künstlerische Lösungen von Problemen nicht mehr an Produktivitätsverbesserungen brachten als reine
‚Feuerwehrmaßnahmen’.
Ansätze mit hohem konzeptuellen aber geringem operationalen Lernen resultieren, wenn ungetestete
wissenschaftlich aber fundierte Theorien verwendet werden, ohne die Auswirkungen dieses Designs
selbst zu testen.
Im letzten Fall – hohes konzeptuelles und operationales Lernen – verwenden die Teams
wissenschaftliche Ansätze und produzieren wiederholbare Ergebnisse. Dieser Fall ermöglicht auf Grund
des Verstehens der Abläufe und der Wiederholbarkeit der Effizienzsteigerung, dass er auch wo anders
zum Einsatz kommt.
Konsequenzen: Es ist wichtig transferierbares Wissen zu erzeugen. Reine F&E Abteilungen sind
ungeeignet für Verbesserung von Prozessen, weil es diesen Abteilungen das operationale Lernen fehlt.
6.5
Aktuell: E-Procurement
6.6
Literaturhinweise:
Rohstoffe: Weber, Helmut Kurt: Industriebetriebslehre, 3. Aufl.,1999. Kapitel 7, S 304ff.
Traditionelle Bestellmengenpolitik: Weber, Helmut Kurt: Industriebetriebslehre, 3. Aufl.,1999. S 331ff.
JIT: Artikel von Fandel et al.., in: Albach, Industrielles Management, S. 23-51.
Lean Production: Joachim Reese, Is Lean Production Really Lean?, in G. Fandel, T. Gulledge und A.
Jones (Hrsg.) Operations Reserach in Production Planning and Control, 49-70, Springer Verlag, 1993.
Fallbeispiele zu Lean Management:
James P. Womack and Daniel T. Jones, From Lean Production to the Lean Enterprise, Harvard Business
Review March-April 1994, 93.
James P. Womack and Daniel T. Jones, Beyond Toyota: How to Root Out Waste and Pursue Perfection,
Harvard Business Review September-October 1996, 140.
Davenport Thomas H. und John Glaser, Just-in-Time Delivery comes to Knowledge Management,
Harvard Business Review vom 2. Juli 2002, S 107- 111.
Michael A. Lapre und Luk N. van Wassenhove, Learning Across Lines. The Secret to More Efficient
Factories, Harvard Business Review, October 2002, 107- 111.
http://www.lucas.co.uk/
http://www.unipart.co.uk/
http://www.pratt-whitney.com/profil/
th
th
The Economist, April 14 , 2001, p 67, April 4 1998, p 74.
Theorie:
Franz Wirl: Industriebetriebslehre
196
J.Cremer, Towards an Economic Theory of Incentives in Just-in-Time Manufacturing, European
Economic Review, 1995
Curtis R. Taylor and Steven N. Wiggins, Competition or Compensation: Supplier Incentives Under the
American and the Japanese Subcontracting Systems, American Economic Review 87, 598 - 618, 1997.
Paul Milgrom and John Roberts, Complementarities and Fit. Strategy, Structure, and Organizational
Change in Manufacturing, Journal of Accounting and Economics 19, 179 - 208, 1995.
Paul Milgrom and John Roberts, The Economics of Modern Manufacturing: Technology, Strategy, and
Organization, American Economic Review 87, 511 - 528, 1990.
Donald F. Hastings, Lincoln Electric’s harsh lessons from international expansion, HBR, May June 1999,
p 162.
Outsourcing: Harvard Business Review, May-June 1995.
Keiretsu, Fallstudie (Chrysler), Harvard Business Review July-August 1996, 42.
Franz Wirl: Industriebetriebslehre
197
7 Langfristige Verträge
Grundlegende Vertragsarten im Kontext industrieller Beziehungen zwischen Käufer und Verkäufer:
-
Spotmarktverträge
-
Langfristige Verträge
-
[Netzwerke, Clusters]
-
Vertikale Integration
Definition: Langfristiger Vertrag ist ein Vertragstyp, bei dem die Zeitpunkte der Vertragsabschluß und die
Vertragerfüllung auseinander fallen.
7.1
Vorteile von Langfristverträgen gegenüber Spotmarkttransaktionen
7.1.1
Absicherung transaktionsspezifischer Investitionen
Um spezielle Produkte kostengünstiger produzieren zu können, sind oft spezifische Investitionen
notwendig. Diese Investitionen verursachen Kosten, die wegen ihrer Unabhängigkeit vom Absatz als
sunk-costs oder vielleicht „verlorene Aufwendungen“ bekannt sind. Die Kostensenkungen können nur
bei der Lieferung an einen speziellen Käufer lukriert werden.
k
Investitionskosten (versenkte Kosten = sunk costs)
c(k)
variable Kosten des Verkäufers abhängig von der Investition k
v
der Wert des gelieferten Produktes für den Käufer
c(k)
k
Abbildung 6.1
Spotmarkttransaktion
Bei vollständiger Information ist der Überschuss sowohl dem Käufer als auch dem Verkäufer bekannt:
v - c(k) = Überschuss.
Sie suchen daher nach dem Verhandlungspreis (p).
Verhandlungslösungen.
Annahme: Der Überschuss wird also zu je Hälfte (50% zu 50%) geteilt. Diese Annahme kann durch zwei
Argumente begründet werden:
1. Kooperativ: Nash Verhandlungslösung (Nash-Bargaining Solution)
v – p(k) = p(k) – c(k)
p=
v + c(k )
2
2. Nichtkooperativ durch das Rubinstein-Spiel:
Franz Wirl: Industriebetriebslehre
198
Zwei Partner müssen sich über die Verteilung eines Kuchens (hier der Überschuss v – c) einigen.
Einer schlägt eine Aufteilung vor. Akzeptiert der andere, dann ist das Spiel zu Ende, und der Kuchen
wird entsprechend aufgeteilt. Wenn nicht, dann wird die Rolle des Anbieters getauscht ansonst bleibt
alles wie in der ersten Runde, allerdings schrumpft der Kuchen von Runde zu Runde. Das Spiel wird
so lange wiederholt, bis eine Aufteilung akzeptiert wird. Wenn die Diskontrate hinreichend groß ist,
bzw. der Kuchen hinreichend schnell schrumpft, dann ist eine 50% zu 50% Aufteilung in der ersten
Runde ein Gleichgewicht (genauer, ein teilspielperfektes, nichtkooperatives Nashgleichgewicht).
Daher wird im folgenden und nicht nur in diesem Unterkapitel immer unterstellt, dass der resultierende
Überschuss jeweils exakt in der Hälfte geteilt wird.
Wenn sich daher der Gewinn des Verkäufers um 1 Geldeinheit erhöht, dann muss er auf Grund der
obigen Voraussetzung 0,5 Geldeinheiten an den Käufer abtreten.
Dies führt zu folgendem Problem bei Spottransaktionen:
G
Gewinn des Verkäufers
G = p – c(k) – k
G=
v + c(k )
– c(k) – k
2
Gewinnmaximum verlangt, dass die erste Ableitung verschwindet
G’ =
c'
– c’ – 1 = 0 ⇒ c’ = -2
2
k*
k
-1
-2
c’
Abbildung 6.2
Effiziente Lösung: Der Gesamtgewinn (GG) sollte maximiert werden.
v – c(k) – k
max.
Daraus folgt die Bedingung:
c’ = -1.
Ergebnis: Die Spotmarktlösung führt zu einem suboptimalen Investitionsniveau c’ = 2, d.h. der letzte
eingesetzte Schilling in Kostensenkungen muss die Kosten um 2 € absenken, um für den Investor
rentabel zu sein.
Dieses effizientes Investitionsniveau kann auch mit dem Verkaufspreis
pv =
v + c(k ) + k
2
Franz Wirl: Industriebetriebslehre
199
und durch einen ex ante Vertrag implementiert werden.
G = pv – c(k) – k =
v + c(k ) + k
– c(k) – k
2
Die entsprechende Lösung des Lieferanten für das optimale individuelle Investitionsniveau k ist:
c' 1
+
– c’ – 1 = 0
2 2
G’ =
Daher
c’ = 1
und somit Effizienz. Wie nach der obigen Analyse zu erwarten war, erfordert die effiziente Lösung, dass
der zuletzt eingesetzte Schilling auch die Kosten um 1 € senkt.
Einer der Hauptgründe für langfristige Verträge ist, dass sich zumindest eine der Verhandlungsparteien
getätigte spezifische Investitionen (versenkte Kosten) absichern will, denn am Spotmarkt werden nur die
variablen Kosten in einer Verhandlungslösung abgegolten.
7.1.2
Risikoaversion
Voraussetzung: Entweder Käufer oder Verkäufer müssen risikoscheu sein. Risikoscheu bedeutet, dass
eine Partei eine fixe Auszahlung gegenüber einer Lotterie mit demselben erwarteten Gewinn bevorzugt.
Sei Y das schwankende Einkommen (z.B. Y = y1 oder y2) mit dem Erwartungswert E(Y) = y (z.B.
y = (y1 + y2)/2 und U eine konkave Nutzenfunktion, dann gilt:
U(E(Y)) > E(U(Y)) = E(Y) – rV(Y)
Wobei r ≥ 0 das Maß für die Risikoaversion ist und V die Varianz des Einkommens ist.
In dem Fall ist ein langfristiger Vertrag de facto eine Versicherungspolizze.
Optimale Risikoaufteilung:
Sei
s
pmin = c + rV(G )
der minimale Preis, den der Anbieter ex ante akzeptiert bei erwarteten Kosten c , Risikoaversion r und
s
Gewinn des Verkäufers von G , wobei der hochgestellte Index für s = supplier steht. Analog für den
Käufer, der durch den Index b = buyer identifiziert wird:
b
pmax = v - rV(G )
Die Varianzen der entsprechenden Gewinne hängen nun von der Zufallsvariablen c und der Aufteilung a
des Risikos ab:
s
rV(G ) = V((1 – a)c)
b
rV(G ) = V(ac).
Die optimale Aufteilung dieses Risikos ist nun graphisch unten dargestellt durch den Punkt, wo die
Differenz zwischen den Reservationspreisen maximiert wird.
Franz Wirl: Industriebetriebslehre
200
€
pmin
v
pmax
c
a
a*
1
Abbildung: Optimale Risikoaufteilung
Fall 1: Unsicherheiten ausschließlich auf der Nachfrageseite (v ist stochastisch) und fixe
Produktionskosten. Dann versichert ein Festpreisvertrag den Verkäufer, da alle Risiken dem Käufer
verbleiben. Abbildung unten zeigt, dass bei inelastischem Angebot sonst der Verkäufer mit der
Preisschwankung im Ausmaß von ∆p zu rechnen hätte. Im Falle einer geneigten Angebotskurve ist diese
Variation etwas gemildert.
Preis
Angebot
∆v = ∆p
Bandbreite an
Nachfrageschwankungen
Menge, x
Abbildung 6.3: Nachfrageunsicherheit bei vollkommen unelastisches Angebot
Fall 2: Unsicherheiten ausschließlich auf der Angebotsseite (c ist stochastisch) und fixe Endnachfrage (v
unverändert). Dann versichert ein Festpreisvertrag den Käufer, während der Verkäufer das volle
Kostenrisiko trägt. Die Abbildung 6.4 zeigt den Fall vollständig elastischen Angebots, wo die
Unternehmen zu kostendeckenden Preisen jede beliebige Nachfrage decken; im Falle eines weniger
elastischen Angebots (positiv ansteigende Angebotskurve) bleibt dieser Effekt, wenn auch gemildert
erhalten. Umgekehrt versichert ein Spotpreisvertrag den Verkäufer gegenüber eventuelle Kostenrisiken.
Franz Wirl: Industriebetriebslehre
201
Preis
∆p =∆c
Nachfrage
Menge x
Abbildung 6.4: Kostenunsicherheit im perfekt elastischen Markt
Zusammenfassend:
1. Ein Spotpreisvertrag versichert den Verkäufer gegenüber Kostenrisiken und den Käufer
gegenüber Bewertungsrisiken.
2. Ein Festpreisvertrag sichert den Verkäufer gegen Nachfragerisiken und den Käufer gegen
Kostenrisiken auf der Angebotsseite.
3. Welcher Vertrag der bessere ist, hängt dann von der relativen Risikoaversion der
Vertragsparteien ab (und von zusätzlichen Markparametern, wie Steigungen der Angebots und
Nachfragekurven, da diese die resultierende Schwankung bestimmen).
7.1.3
Einsparung der Transaktionskosten
Voraussetzung: Als Alternative zum Langfristvertrag gäbe es mehrere Kurzfristverträge.
Durch einen langfristigen Vertrag kann man administrative Kosten (Überprüfung der Verträge,
Papierkram...). Transaktionskosten im weiteren Sinn inkludieren alle Kosten, die bei Beschaffung über
den Markt auftreten, insbesondere Hold-up Kosten. Dies kann nur teilweise durch Verträge reduziert
werden.
7.1.4
Auswahl von Partnern – „Screening“
Durch die Bezahlung der Leistungsprämien kann ich mir sicher sein, die Kooperation mit ‚guten’ Partnern
zu fördern.
7.2
7.2.1
Vorteile der Langfristverträge gegenüber der vertikalen Integration
Weniger Hierarchie
Weniger Hierarchie bedeutet mehr und bessere Kontrolle, d.h. Integration vernichtet Kontrollen, kritische
Tests und Anreize.
7.2.2
Illegitim: Externalisierung des Schadens
Externalisierung des Schadens bedeutet, dass die Teile des Unternehmens die mit Risiko behaftet sind in
ein selbständiges Unternehmen umgewandelt werden, um so den etwaigen Schaden zu minimieren. Die
Kooperation zwischen den Unternehmen wird allerdings durch Langfristverträge gesichert.
7.2.3
Unabhängigkeit der Unternehmen
Die Unternehmen sind nicht ausschließlich aneinander gebunden. Lieferungen von und an andere
Unternehmen sind erlaubt.
7.2.4
Outsourcing
Trend: aktuell insbesondere von ‚öden’ Spezialistendienstleistungen wie Buchhaltung, Lohnverrechnung
etc. Probleme enstanden dabei in jüngster Zeit, wenn ein und dasselbe Unternehme Rechnungsprüfung
Franz Wirl: Industriebetriebslehre
202
und Konsulentendienste offerierte, wie man am Fall Enron und damit verbunden der Fall Andersen
ersehen konnte.
Beispiel Monorail : Economist, December 22nd, 2001: „Monorail Corporation [which sells computers]
owns no factories, warehouses or any other tangible asset. It operates from a single floor that it leases in
an office building in Atlanta. Its computers are designed by freelance workers. To place orders, customers
call a free-phone number connected to FedEx then ships the computer to the customer and sends the
invoice to the SunTrust Bank, Monorail’s agent. The company is not much of anything except a good
idea, a handful of people, and a bunch of contracts.
7.3
Langfristverträge in einer Arrow-Debreu Welt
Die langfristigen Verträge in einer Arrow-Debreu Welt sind vollständige, spezifizierte Kontingenzverträge.
Schematische Darstellung:
Wahl der Vertragshandlung
Transaktionsspezifische
Vertrag endet
Investition
T
0
Τ
1
realisierter Zustand
Vertragsabschluß
Abbildung 6. 5
Notation:
b
Käufer
s
Verkäufer
t = 1,...,Τ
Zeitpunkte
θ = {1,...,n}
Zustände
a
k
i
jt
Vertragshandlung von i bei Zustand j zum Zeitpunkt t
i
transaktionsspezifische Investitionskosten
wobei i∈{s, b}, j∈θ, t...Zeitindex sind.
θ
⊂
θ
Lieferungen finden zu den Preisen pt( θ ) statt
θ
keine Lieferung
θ⊂θ,θ
∩
θ
= ∅,
θ
∪
θ
=
θ
E
Erwartungsoperator
Wt
Kooperationsgewinn in Periode t
δ
Diskontfaktor
Maximaler erwarteter Kooperationsgewinn:
Τ
max
{ a ijt ,ki}
E Σ Wt(ks, a sjt , kb, a bjt )δt
t=0
Franz Wirl: Industriebetriebslehre
203
D.h. der Kapitalwert der Kooperationsgewinne kann durch vollständige Kontingenzverträge maximiert
werden.
Bemerkung: Voraussetzung sind natürlich vollständige Kapitalmärkte, d.h. es muss eine Indifferenz
bezüglich der Zahlungsströme bestehen so lange nur derselbe Kapitalwert impliziert wird.
Vertragspreise pv
pv = {pv0, pv1, ..., pvΤ}
pv = {pv0 > 0,pv1 = ...= pvΤ = 0}
pv = {pv0 = 0, pv1 = ...= pvΤ =p}
pv = {
pvtθ = 0, pvt = pvtθ }
Zahlenbeispiel:
t
t = {0, 1} Es handelt sich um zwei Perioden.
0
1
s
k = 100
b
k =0
D.h., die transaktionsspezifische Investition wird nur vom Verkäufer getätigt.
H
Zum Zeitpunkt 1 kann der Verkäufer entweder die Ware mit hoher Qualität {q } oder die Ware mit
L
niedrigerer Qualität {q } liefern.
H
L
Bei q belaufen sich die variablen Kosten auf 2000 GE, bei q auf 1000 GE. Der Diskontfaktor {δ} beträgt
0,9, d.h. dass der Gewinn mit 10% diskontiert wird.
Es gibt drei verschiedene Zustände {θ} deren Wahrscheinlichkeit {W t} gleich (je 1/3) ist.
Tabelle 6.1: Kosten und Werte je nach Umweltzustand
Wert für den Käufer (nach Zustand θ)
Qualität
fixe Kosten
variable Kosten
1
2
3
q
H
100
2000
8000
4000
1000
q
L
100
1000
6000
3400
500
Die kontingenten Verträge sind jene, die auf den Zustand konditioniert sind.
8000 − 000 = 6000  q H
θ = 1 W1 = 
6000 − 1000 = 5000  q L
a11s = q H
Es werden die Waren hoher Qualität geliefert.
4000 − 000 = 000  q H
θ = 2 W = 
3400 − 1000 = 400  q L
a12s = q L Es werden die Waren niedriger Qualität geliefert.
1000 − 000 = −1000 q H
θ = 3 W3 = 
L
500 − 1000 = −500 q
a13s = 0
Es gibt keine Lieferung.
Der Kapitalwert des Vertrages:
Franz Wirl: Industriebetriebslehre
1
∑W
t =0
t
204
1
1 
1
⋅ δ t − k i =  6000 + 2400 + 0 ⋅ 0,9 −100 = 2520 − 100 > 0
3
3 
3
Der Kapitalwert der Alternativoptionen:
-
beim Verkäufer 1000 GE
-
beim Käufer 500 GE.
Vertragsgewinn = 2420 – (1000 + 500) = 920 GE
Wenn der Vertragsgewinn 50% zu 50% aufgeteilt wird, dann werden
-
dem Verkäufer 1000 GE +
-
dem Käufer 500 GE +
1
920 GE = 1460 GE
2
1
920 GE = 960 GE
2
aus dem Vertrag ausbezahlt.
Beispiel an unterschiedlichen Verträgen:
1. EX-ANTE:
Der Käufer zahlt beim Vertragsabschluss 2460 an den Verkäufer und erhält dafür die „optimalen“
Lieferungen
(θ = 1, θ ), (θ = 2, θ ), (θ = 3,0).
H
L
1
1 
1
G b = −2460 + 0,9 ⋅  8000 + 3400 + 0 = 960 Gewinn des Käufers
3
3 
3
1
1 
1
G s = 2460 − 100 − 0,9  2000 + 1000 + 0 = 1460 Gewinn des Verkäufers
3
3 
3
2. EX-POST:
Der Käufer zahlt bei der Vertragsvollendung.
Ergebnis, pv= {0, 2733}, bitte zur Übung überprüfen.
3. Preise/Schadenersatz konditioniert auf Zustand
p1 = 5000
p2 = 3200
p3 = 0
(Verifikation zur Übung!)
Franz Wirl: Industriebetriebslehre
205
Voraussetzungen für vollständige Kontingenzverträge:

EX-ANTE:
-
Antizipation aller möglichen Eventualitäten
-
optimale Entscheidungen bestimmen
-
Verteilung des Kooperationsgewinns
-
Festlegung der Zahlungsströme

EX-POST:
-
Verifikation des eingetretenen Zustandes
-
Möglichkeit der Durchsetzung gegenüber Dritten
7.4
Unvollständige, spezifizierte Langfristverträge
Gründe für die Unvollständigkeit von Verträgen:

EX-ANTE :
-
Komplexität (es können nicht alle Eventualitäten berücksichtigt werden)
-
eingeschränkte Rationalität (nicht alle Entscheidungen sind festlegbar, der Vertrag hat Lücken)

EX-POST :
-
Qualität ist oft schlecht beobachtbar
-
die Durchsetzung ist schwer, besonders beim Gericht
-
die Durchsetzung kostet.
7.4.1
Vertragsinteresse und wirtschaftliche Unabhängigkeit und Quasirenten
EX-ANTE (t=0)
p
v
Vertragspreis
t
Zeit ={0,...,Τ}
r
Zinssatz
Verkäufer
K
durch den Vertrag entstehende Investitionskosten
k
entsprechende amortisierte Kosten je Zeiteinheit (z.B. pro Monat)
c
variable Kosten (Betriebskosten)
s
p min,
0 = k +c
Käufer
vt
der Wert des Vertrags für den Käufer
b
p max,
0 = v0
Franz Wirl: Industriebetriebslehre
206
Tabelle 6.2: Vertragsinteressen ex ante
Interesse
Verkäufer
Käufer
positiv
p - (k+c)
v0 − p v
negativ
0 (keine Alternativoption)
0 (keine Alternativoption)
konkret
p - (k+c)
v
v0 − p v
v
Kooperationsgewinn:
b
s
pmax,
0 − pmin,0 = v 0 − ( k + c )
EX-POST (t = Τ)
kein Schrottwert (Investition ist komplett wertlos außerhalb der vertraglichen Nutzung)
pv
Vertragspreis
vt
Wert des Vertrags für den Käufer
c
Kosten
Tabelle 6.3: Vertragsinteressen ex post
Interesse
Verkäufer
Käufer
positiv
pv− c
vt − p v
negativ
0
0
konkret
pv− c
vt − p v
Kooperationsgewinn:
vt − c
Da sich der Wert für den Käufer nicht stark verändert und
vt ≈ v0 angenommen werden kann, folgt
daraus, dass
( vt
− c ) >> v0 − (k + c) .
Quasirenten hier
pv − c
sind die laufenden Gewinne, die zur Deckung der Investitionen (hier nur des Verkäufers) verwendet
werden.
Erweiterung um potentielle Vertragspartner
Dabei steht unten der Index a für Kosten und Preise die mit dieser Alternative verbunden sind:
Tabelle 6.4: EX-ANTE Vertragsinteressen bei Erweiterung um potentielle Vertragspartner
Interesse
Verkäufer
Käufer
positiv
p v − (k + c )
v0 − pv
negativ
p as , 0 − (k a + c )
v0 − p ab, 0
konkret
p v − p as , 0
p ab, 0 − p v
Das Interesse für den Vertrag ist gering
Franz Wirl: Industriebetriebslehre
-
für Verkäufer, wenn p v < p a , 0
-
für Käufer, wenn p a , 0 < p v .
207
s
b
Tabelle 6.5: EX-POST Vertragsinteressen bei Erweiterung um potentielle Vertragspartner
Interesse
Verkäufer
Käufer
positiv
pv − c
vt − p v
negativ
pas , t − ca
vt − pab, t
konkret
pv − pas , t − (c − ca )
pab, t − pv
Die Unterschiede zwischen c und c a ergeben sich durch das Umrüsten von der spezifischen auf die
alternative Verwendung.
In der Regel steigen die Kosten des Verkäufers ex-post stark an, die Kosten des Käufers bleiben aber
unverändert.
Bemerkung
Der Verkäufer verdient die Quasirente von
p v − c.
Der Sinn des Vertrages ist es dem Verkäufer diese Quasirente zu sichern, die er zur Deckung der
spezifischen Investitionen braucht.
Problem
Bei unvollständigen Verträgen werden ex-post Ressourcen zur Aneignung der
verschwendet. Die Antizipation von dieser Aneignung führt zu ineffizienten Investitionen.
Zahlenbeispiel:
a
Alternativoption
t = 5 Jahre
r = 12% per annum.
Vertragsinteresse ex-ante (monatlich)
Verkäufer
K = 1.000.000,k = 21.936,−
c = 15.000,−
Investition in eine Spezialanlage
Monat
Monat
Gesamtkosten: 36.936,v
p a = 39.000,c a = 38.000,=> Gewinn aus Alternativoption beträgt 1000.
Quasirenten
Franz Wirl: Industriebetriebslehre
208
Käufer
v = 50.000,v
p a = 41.000,v
Tabelle 6.6: Ex ante Vertragsinteressen bei einem angenommenen Vertragspreis von p = 40.000,Vertragsinteresse
Verkäufer
Käufer
positiv
40.000 – 36.936 = 3.064,-
50.000 – 40.000 = 10.000,-
negativ
40.000 – 39.000 = 1.000,-
50.000 – 41.000 = 9.000,-
konkret
3.064 –1.000 = 2.064,-
10.000 – 9.000 = 1.000,-
Das Interesse des Verkäufers ist ca. zwei Mal so groß wie das des Käufers.
Vertragsinteresse ex-post monatlich
Verkäufer
K = 10.000,-
Schrottwert der für die Spezialanlage erzielt werden kann.
k = 219,−
also die minimale Kompensation, um die Maschine zu behalten.
Monat
c = 15.000,−
Monat
Gesamtkosten: 15.219,v
p a = 20.000,Käufer
v = 50.500,-
(etwa auf Grund ex-ante nicht bekannter Vorteile des Bauteils)
v a = 50.000,v
p a =41.500,Tabelle 6.7:
v
Ex post Vertragsinteressen bei einem angenommenen Vertragspreis von p = 40.000,Interesse
Verkäufer
Käufer
positiv
40.000 – 15.219 = 24.781,-
50.500 – 40.000 = 10.500,-
negativ
20.000 – 15.219 = 4.781,-
50.000 – 41.500 = 8.500,-
konkret
40.000 – 20.000 = 20.000,-
10.500 – 8.500 = 2.000,-
Ex post ist das Interesse des Verkäufers ca. 10 Mal so groß wie das des Käufers. Das drückt aus, dass
sich der Verkäufer durch die spezifischen Investitionen in die Abhängigkeit vom Käufer begibt.
7.5
Probleme bei langfristigen Verträgen
Es ist sehr schwierig zu ökonomisch gerechtfertigten Kosten durchsetzungsfähige Regeln zu finden.
Bsp.: Kalifornien-Strom.
Ex-post, wenn die Quasirenten aufgeteilt werden sollen, spezifiziert der Vertrag nicht notwendigerweise
den Austausch, sondern wird oft als Drohpunkt für die Neuverhandlungen gesehen.
Hohe Quasirenten implizieren hohe Abwanderungstendenzen, wo dies der Fall ist, wird vertikale
Integration resultieren. (Quasirenten – Hold-up).
Beispiel:
Der Spotpreis p nimmt folgende Werte an:
Franz Wirl: Industriebetriebslehre
p1 = 1000
p=
209
½
⇒ Ep = 2000.
mit Wahrscheinlichkeit
p2 = 3000
½
Nach Vertragsabschluss kann der
Produktionskosten von c0 auf c senken:
Verkäufer
durch
eine
spezifische
Investition
k
s
seine
ks = 150: c0 = 950 → c = 750,
allerdings nur bei Lieferung an den Vertragspartner.
Analog kann der Käufer seinerseits den Wert des Produktes wiederum durch spezifische Investitionen k
erhöhen, die ebenfalls nur in Kooperation mit dem Vertragspartner realisierbar sind:
b
Kb = 250: v0 = 3200 → v = 3500.
Preise und Kosten sind in diesem Beispiel so, dass in beiden möglichen Fällen an Spotpreisen eine
Vertragserfüllung wirtschaftlich ist.
Festpreisvertrag: Im folgenden wird gezeigt, dass unter diesen Umständen ein Festpreisvertrag nicht
durchsetzbar ist. Um vom Risikoaspekt hier abzusehen um das Beispiel alleine auf die Hold-UpProblematik abzustellen, nehmen wir als Vertragspreis den erwarteten Spotpreis:
pv = Ep = 2000.
Fall p = 1000
In diesem Fall kann der Käufer glaubwürdig dokumentieren, den Vertrag nicht einzuhalten, weil der
Gewinn bei Vertragsbruch:
3200 – 1000 = 2200
größer ist als bei Erfüllung:
3500 – 2000 = 1500.
b
Hat nun der Verkäufer die Investition k getätigt, ist er bereit p = 1300 zu akzeptieren, ansonst p = 1000.
Dieses (scheinbar unverschämte) Angebot nimmt der Käufer jedoch an, weil es für ihn nach wie vor
attraktiver (hier nur für den Fall p = 1000, denn für p = 1300 erhöht sich ja nur die Profitabilität für den
Verkäufer)
1000 – 750 = 250
als die Alternative
1000 – 950 = 50
ist.
Fall p = 3000
In diesem Fall droht der Verkäufer glaubwürdig
Spotmarkttransaktion den viel höheren Ertrag
mit
einem
Vertragsausstieg,
weil
die
3000 – 950 = 2050 > 2000 – 750 = 1250
liefert. So wie oben ist es für beide wieder attraktiv unter neuen Bedingungen zu kooperieren, so lange
nur eine Seite spezifische Investitionen getätigt hat. Hat der Verkäufer investiert ist er bereit zum Preis
von
p = 2050 + 750 = 2800
s
zu liefern, andernfalls für k = 0 nur zum Preis p = 3000. Aber auch in letzterem Fall kommt des zu
Lieferungen, wenn nun der Käufer seinerseits investiert hat.
Allerdings entsteht dabei das Problem, dass bei Antizipation dieses ex-post Vertragsbruches
zumindest einer Partei der Anreiz in diese spezifische Investition verloren geht. Dieses Zerstören
an sich wirtschaftlicher Investitionsmöglichkeiten ist das eigentlich Negative an der Hold-Up-Problematik,
denn der Rest involviert nur Transfers, also legt fest, wer mehr vom Kuchen bekommt.
Denn für den Verkäufer ergeben sich folgende erwarteten Gewinnauszahlungen (im günstigeren Fall,
dass der Partner investiert) hat mit der Investition:
Franz Wirl: Industriebetriebslehre
210
½(1300 – 750) – ½(2800 – 750) – 150 = 1150
und ohne der Investition:
½(1300 – 950) – ½(3000 – 950) = 1200.
Daher lohnt sich für den Verkäufer die Investition nicht!
Ähnliches erhält man für den Käufer zuerst mit
½(3500 – 1300) – ½(3500 – 2800) – 250 = 1200
und dann ohne der Investition:
½(3200 – 1000) – ½(3200 – 2800) = 1300.
Im Folgenden sind einige Beispiele angegeben, wie in der Praxis mit dieser Hold-Up Problematik
umgegangen wird, angegeben:
•
Druckgewerbe: Zeitungen besitzen in der Regel die Druckerei, Buchverleger vergeben Aufträge
an Druckereien.
•
Erdölindustrie: Raffinerie und Pipelines sind im Besitz der Ölgesellschaften (oft über Anteile),
hingegen werden Tankerlieferungen kontrahiert.
•
Landwirtschaft: Wein- und Obstanbau fast nur auf eigenen Flächen, Getreideanbau auch auf
gepachteten Flächen.
7.6
Verträge zwischen Rigidität und Flexibilität
Die laufende Anpassung von Verträgen an veränderte Bedingungen kann ex-ante durch Anpassung der
•
Preise (auf unterschiedlichste Art und Weise) und
•
der Mengen
geschehen. Ex-post bestehen Adaptionsmöglichkeiten durch
•
die Berücksichtigung besonderer Umstände (Höheregewaltklausel),
•
die Delegation von Entscheidungsrechten
•
und Neuverhandlung
Im folgenden werden einige dieser Formen kurz vorgestellt.
7.6.1
Preisabhängige Vertragspreise
In vielen Langzeitverträgen ist der Vertragspreis an die Entwicklung anderer Preise gekoppelt:
+
Vermeidung, dass der Vertragspreis zu stark von den Knappheitspreisen abweicht
+
Risikoallokation
-
Oft schwierig einen Marktpreis als Referenzgröße zu finden
-
Bei transaktionsspezifischen Investitionen existieren entweder keine Spotmärkte oder
sind sehr dünn.
Die häufigste Form hier sind Spotmarktklauseln: Der Vertragspreis wird an einen beobachtbaren oft
sogar publizierten Spotpreis gebunden.
Bsp.: Uran, Kupfer und Erdölpreisindexklauseln.
Indexklauseln: Die Preise werden an mehr oder weniger komplizierte Preisindizes gekoppelt. Dies ist
gebräuchlich bei Rohstoff- und Energielieferungen. So ist der Erdgaspreis an den Heizölpreis gekoppelt.
Eine
einfache
Variante
ist,
die
Inflationsrate
für
Kostensteigerungen
heranzuziehen:
Kostenelementklauseln. Beispiele für letzte Variante finden sich in der Praxis der britischen Regulierung
(%Preissteigerungen nach der Formel RPI - X, wobei RPI für die Inflationsrate steht), Mietverträge, selbst
Banken unterwerfen sich freiwillig ihren Kunden gegenüber einer solchen Verpflichtung (z.B. Bank
AustraiCreditanstalt).
Franz Wirl: Industriebetriebslehre
7.6.2
211
Meistbegünstigungsklauseln
In einigen Lieferverträgen erfolgt die Preisanpassung über sogenannte Meistbegünstigungsklauseln.
Durch eine solche Klausel verpflichtet sich der Verkäufer, vom Käufer den jeweils niedrigsten Preis zu
verrechnen. Oder der Käufer verpflichtet sich den jeweils höchsten Preis, den er anderen Lieferanten
bezahlt, zu zahlen.
Daher: Meistbegünstigungsklauseln binden den Vertragspreis an die laufenden Preise, die mit jeweils
neuen Vertragspartnern ausgehandelt werden. Dabei können neue und aktuelle Marktbedingungen
berücksichtigt werden ohne, dass vergleichbare Spotmärkte existieren. In diesem Sinne erlauben,
Meistbegünstigungsklauseln den Vertragsparteien auch mit ihren alten Verträgen die Möglichkeit von
neuer Information zu profitieren, noch dazu kostengünstig in der Umsetzung; ‚Trittbrettfahrer’.
7.6.3
+
Verkäufermonopol: Schutz des Abnehmers, der entsprechende spezifische Investitionen
getätigt hat gegen Ausbeutung durch das Monopol, weil neuer Vertrag mit neuem
Abnehmer am besten die Knappheitsrenten widerspiegelt.
+
Monopson (des Käufers): Hier Schutz des Verkäufers, entsprechende spezifische
Investitionen getätigt hat gegen Ausbeutung durch das Monopson des Käufers, weil der
höchste Preis, den der Abnehmer zu zahlen bereit ist, ein guter Knappheitsindikator ist.
-
Stabilisierung eines Kartells.
Kostenabhängigen Vertragspreise versus Festpreise
Bei vielen Langzeitverträgen – z.B. Entwicklung von Waffensystemen, Satelliten, Großbauten,
schlüsselfertige Industrieanlagen – hat der Verkäufer nur eine sehr vage Vorstellung über die
entstehenden Kosten. In solchen Fällen können sich die Vertragsparteien auf Erstattungsverträge (costplus contracts) einigen. Dem Verkäufer werden die anfallenden Kosten erstattet und zusätzlich erhält er
einen Gewinnaufschlag. Der Nachteil dabei ist, dass kein Anreiz zur Kostensenkung besteht, ja bei
prozentualem Aufschlag sogar einen Anreiz besteht, die Kosten zu erhöhen.
Dies kann durch Festpreise vermieden werden. Diese haben selbst wiederum Anreizprobleme:
Zurückhalten von Informationen über die Kosten
Qualitätsverschlechterung
Die folgende Abbildung zeigt das Ausmaß an Flexibilität und Rigidität zwischen diesen beiden
Vertragsformen auf.
vollständige Rigidität
Festpreis
Kostenelementklauseln
Erstattungspreis mit Preisobergrenze
Festes Kostenziel
Sukzessive angepasstes Kostenziel
vollständige Flexibilität
Erstattungspreis
Abbildung: Flexibilität und Rigidität unterschiedlicher Vertragsformen.
7.6.4
Erfolgsanhängige Vertragspreise
Der Preis, den der Käufer für die Leistung des Verkäufers zahlt, wird an den Erfolg gebunden, der Käufer
durch die Nutzung der Leistung als Input erzielt.
Klassisches Beispiel in der Landwirtschaft: Pacht wird durch einen Fruchtanteilsgenuss festgelegt
(Ernteteilungsverträge).
+ verbesserte Risikoaufteilung gegenüber Festpreis
+ Reduktion von moralischem Hassard
In der Landwirtschaft sind folgende Möglichkeiten denkbar und in Gebrauch für Flächen, die nicht
ausschließlich vom Besitzer bewirtschaftet sind:
1. Landarbeiter gegen Lohn. Der Bauer trägt dann das volle Ernterisiko
2. Pachtzins. Pächter trägt das gesamte Risiko
3. Ereignisabhängiger Pachtzins, Ernteteilungsverträge.
Franz Wirl: Industriebetriebslehre
212
Diesem offensichtlichen Vorteil stehen auch Nachteile gegenüber, denn ansonsten gäbe es ja die
anderen Varianten gar nicht.
- Transaktionskosten: komplexerer Vertrag
- Risikostreuung ist auch anders möglich: Mischung von festem Pachtzins und Lohnarbeit.
Deshalb ist Risikostreuung keine allein befriedigende Erklärung für die unterschiedlichen Verträge.
Weitere Gründe für Ernteteilungsverträge sind:
(i)
Der Grundeigentümer hat einen Anreiz den Pächter bei der Bewirtschaftung zu
beraten.
(ii)
Weniger Raubbau am Boden als bei festem Pachtzins.
(iii)
Weniger Anreiz teure Information zu akquirieren (Bsp. Holzernteverträge)
Hingegen bei hohem unternehmerischen Einsatz des Pächters (z.B. in Indien bei Tabak, aber kaum bei
Reis) schließen diese Bauern mit den Grundeigentümern Festpreisverträge ab, um in den Genuss ihres
unternehmerischen Handelns zu kommen, da sie den Residualgewinn vollständig behalten dürfen im
Unterschied zu einem Ernteteilungsvertrag.
Erfolgsabhängige Preise sind vor allem im Franchising üblich, eben um diese Anreizprobleme zu
mildern.
Frage, Problem: Warum sind Billa-Filialen im Eigentum, aber McDonalds als Franchiseunternehmen
organisiert?
7.6.5
Mengenanpassungen und Take-or-Pay Klauseln
In vielen Langzeitverträgen wird bereits ex ante eine Flexibilität der zu liefernden Menge vereinbart.
Mengenanpassungen des Käufers sollen helfen, auf veränderte Absatzbedingungen zu reagieren. Dies
ergibt vor allem dann Sinn, wenn sich um sehr spezifische Leistungen handelt, weil dann der Käufer
keinen Anreiz hat seine sanktionslose Wahl strategisch zu treffen. Ein Vorteil ist, dass Preisanpassungen
zwangsbedingt in einem Nullsummenspiel resultieren, der Gewinn des einen ist der Verlust des anderen,
ist dies bei Mengenanpassungen nicht so, was die Suche nach kooperativen Lösungen erleichtert.
Bsp.: Dem Käufer wird das Recht eingeräumt seinen Bezug im Ausmaß von z.B. 10% zu variieren. Die
dt. Automobilindustrie sichert ihren Lieferanten typischerweise zu einen bestimmten Prozentsatz der
gebauten Autos mit Teilen vom Lieferanten auszustatten.
Ein besonderer Fall sind die in der Erdgasindustrie üblichen Take-or-Pay-Verträge. Dabei verpflichtet
sich der Abnehmer (eine Raffinerie, eine Pipeline, ein Versorgungsunternehmen) einen
Mindestprozentsatz der vertraglich vereinbarten Menge auf jeden Fall zu bezahlen, selbst wenn er diese
Menge im Moment nicht gebrauchen kann. Die Zahlungen für eine zusätzliche Einheit verbunden mit
diesem Vertrag sind unten (fett) dargestellt; die zusätzlich eingetragenen Produktionsgrenzkosten dienen
der folgenden Diskussion.
€
Grenzkosten für Bezug ohne ToP Klausel
Grenzkosten der Produktion
Menge (q)
qmin
qmax
Abbildung 6. 6: Darstellung eines Take-or-Pay Vertrages
Erklärungen und Gründe für solche Verträge:
1. Risikoallokation: Durch die Mindestabnahmegarantie wird ein Teil des Finanzrisikos des
Produzenten und Verkäufers auf den Käufer überwälzt
2. Approximation der Grenzkostenkurve insbesondere im Falle von Erdgas [siehe obige Abbildung].
Franz Wirl: Industriebetriebslehre
213
3. Verringerung des Risikos, dass der Abnehmer durch Verzögerung der Abnahme versucht, den
Preis zu drücken.
4. Anpassung an veränderte Marktbedingungen.
5. Einfachheit
7.6.6
Höhere-Gewalt Klausel
Höhere-Gewalt (oder force majeure) Klauseln befreien den Verkäufer beim Eintreten bestimmter
Ereignisse von seiner Leistungspflicht, bzw. gewähren einen Aufschub.
Da diese Klauseln das Risiko auf den Käufer überwälzen, stellt sich die Frage, unter welchen
Bedingungen dies ökonomisch ist.
Angenommen, das (zufällige) Eintreten des Elementarereignisses erhöht die Produktionskosten stark
von:
c → c’, c’ >> c
so, dass der Anreiz zur vertraglichen Lieferung negativ wird:
c’ > p
Ein Vertragsbruch auf der Basis dieser Klausel sollte jedoch trotzdem das positive Vertragsinteresse des
Käufers (v – p) schützen. Eine solche Schadenersatzregelung hat mehrere Vorteile:
(i)
Der Verkäufer bricht nur dann den Vertrag, wenn das auch effizient ist:
c’ > v
(ii)
Es bietet Anreize zur Vorsorge.
Trotzdem kann diese Schadenersatzregel unerwünschte Folgen haben.
Erstens: Im obigen Szenario trägt jetzt der Verkäufer das gesamte Risiko von Kostensteigerungen. Denn
der Käufer erhält entweder die Lieferung oder einen vollständigen Schadenersatz für das
Vertragsinteresse. Ist nun der Verkäufer stärker risikoavers als der Käufer resultiert daraus eine
ineffiziente Risikoallokation (der risikoaverse Verkäufer versichert den etwa sogar risikoneutralen Käufer).
Diese Situation kann verbessert werden, etwa dadurch, dass man dem Verkäufer ein Rücktrittsrecht
einräumt, wenn die Vertragserfüllung nicht mehr effizient ist, also
c’ > v
In diesem Fall erleidet der Verkäufer keinen Verlust (aber verliert seine Quasirente gegenüber dem Fall
von Lieferung ohne dem Elementarereignis). Der Käufer trägt allerdings das Risiko, dass sein positives
Vertragsinteresse sich nicht mehr realisieren lässt. Daher ist der Erwartungswert eines Vertrages mit
Rücktrittsrecht für den Käufer geringer, für den risikoaversen Verkäufer jedoch höher. Damit besteht die
Möglichkeit über einen entsprechenden Preisnachlass beide besser zu stellen.
Zweitens ist es oft schwierig, das positive Interesse des Käufers zu quantifizieren, und noch schwieriger
dies bei Dritten durchzusetzen. Diese Schwierigkeiten der Festlegung des wahren Schadens gilt in vielen
anderen Fällen auch, insbesondere bei Umweltproblemen. Dies ergibt sich besonders daraus, dass der
Käufer die Möglichkeit hat, auf Substitute auszuweichen. Daraus resultieren ex-post Konflikte.
Daher begünstigen folgende Faktoren ein ex-ante eingeräumtes Rücktrittsrecht des Verkäufers:
1. Verkäufer ist stärker risikoavers als der Käufer.
2. Möglichkeiten der Kostenbegrenzung sind für den Verkäufer nahezu ausgeschlossen
3. Der Käufer ist besser fähig ex-post den Schaden zu mildern.
7.6.7
Expost Anpassungen durch Delegation und Neuverhandlung
Die vorher besprochenen Erweiterungen versuchen ex-ante eine gewisse Flexibilität in den Vertrag
einzubringen. Dies kann aber auch erst ex-post nach Beobachtung der Umstände gestehen. Dabei sind
folgende Varianten zu beobachten:
1. Delegation von Entscheidungsrechten an eine Vertragspartei
2. Delegation von Entscheidungsrechten an Dritte (Gerichte, Schiedsgerichte)
3. Neuverhandlung
Franz Wirl: Industriebetriebslehre
214
In die erste Kategorie - Delegation von Entscheidungsrechten an eine Vertragspartei – fallen
Preisänderungsvorbehalte. Auf der anderen Seite in dieser Kategorie steht das Lösungsrecht des
Käufers bei Preiserhöhungen.
Solche Klauseln machen dann ökonomischen Sinn, wenn die gesamten erwarteten Kosten durch
Preisänderungsvorbehalte geringer sind als die nächstbeste Alternative. In kompetitiven Märkten mit
Listenpreisen für Konkurrenzgüter können dies Käufer akzeptieren. Weniger effizient sind solche
Klauseln, wenn:
1. Zuverlässige Knappheitsindikatoren existieren (Spotmärkte).
2. Geringer Wettbewerb so, dass der Listenpreis nicht der Knappheit entspricht.
Ein weiterer Fall der in die erste Kategorie fällt sind Mengenoptionen, d.i. einer Partei (Käufer oder
Verkäufer) wird das Recht zu übertragen, die Mengen erst zum Lieferzeitpunkt festzulegen.
Bsp.:
•
Lieferabrufe der Automobilhersteller gegenüber Lieferanten spezifischer Bauteile.
•
Mineralölkoks - Der Verkäufer legt die Menge fest zu der der Käufer zur Abnahme verpflichtet ist.
Solche Verträge werden dann geschlossen, wenn es
(a) Schwierig ist die Menge festzulegen.
(b) Missbrauch seitens des Ausübers der Mengenoption gering ist.
Solche Mengenoptionen ermöglichen es, der begünstigten Partei die Mengen der jeweils aktuellsten
Situation anzupassen und zwar ohne kostspielige Neuverhandlungen zu führen.
Da staatliche Gericht oft wenig geeignet sind eine schnelle, kostengünstige Entscheidung zu fällen, geht
man dazu über, bereits im Vertragsabschluss Schiedsgerichte für potentiell strittige zukünftige
Entscheidung vorzusehen. Dieses Vorgehen nimmt zu und dies vor allem bei internationalen Verträgen.
Um die Bezeichnung Langzeitvertrag zu rechtfertigen, darf der Vetrag nicht jederzeit und ohne Angabe
von Gründen von einer Partei gekündigt werden, um Neuverhandlungen zu erzwingen. Deshalb sind
solche Neuverhandlungen an bestimmte und entsprechende Klauseln gebunden.
Typische Neuverhandlungsklauseln habe eine Ähnlichkeit mit den Höhere-Gewalt Klauseln. Der
Unterschied ist, dass letztere eine Aussetzung der Lieferung bezwecken, während hier eine Lieferung,
wenn auch unter geänderten Bedingungen, zustande kommen soll.
Neuverhandlungsklauseln können
-
sehr allgemein und
-
eher unverbindlichgehalten sein
-
oder Fristen oder Schwellwerte spezifizieren.
Ein typischer Vertreter eines solchen Typs sind die Neuverhandlungsklauseln bei langfristigen Bau- und
Anlagenvorhaben. Bei diesen Projekten, wo jedes singulär ist, besteht hohe gegenseitige Abhängigkeit.
Crocker-Masten (1991): Neuverhandlungsklauseln werden gegenüber Anpassung der Vertragspreise in
folgenden Fällen begünsigt:
-
je schwieriger es ist, die zukünftigen Zustände zu identifizieren,
-
je schwieriger entsprechende Anpassungsformeln sind, bzw. deren Durchsetzung gegenüber
Dritten (gilt auch für die obigen Zustände) schwierig ist,
-
mit der Laufzeit des Vertrages
-
Bei fixem Mengenbezug können festgelegte Preisanpassungsklauseln oft die Änderungen nur
ungenügend einfangen.
Dies findet sich in etwa bestätigt in einer Analyse von 234 amerikanischen Erdgaslieferverträgen.
7.7
Private Mechanismen zur Durchsetzung von Langzeitverträgen
Wenn sich Verträge nicht oder nur teilweise vor Gericht durchsetzten lassen, dann müssen sich die
Vertragsparteien ex-ante nach Alternativen umsehen, damit das jeweilige Eigeninteresse an der Erfüllung
des Vertrags gewahrt bleibt. Dies kann durch mehrere Alternativen ermöglicht werden:
-
Selbst durch setzende Verträge
Franz Wirl: Industriebetriebslehre
-
Reputation
-
Pfand
-
Vertragsstrafen
7.7.1
215
Sich selbst durchsetzende Verträge
Selbst bei völliger Abwesenheit staatlicher Instanzen, können die Parteien ein Interesse haben einen
Vertrag zu erfüllen, sofern sie hinreichend an zukünftigen Transaktionen mit dem entsprechenden
Vertragspartner interessiert sind.
Zur besseren Darstellung betrachten wir folgendes einfaches Modell (eines wiederholten Spiels):
(p-c, v – p)
Z
Legende:
K
K = Käufer
V = Verkäufer
V
L
NZ (-c, v)
NL
Z
L = liefern
NL = nicht liefern
Z = zahlen
(p, -p)
NZ = nicht zahlen
NZ
(0, 0)
Abbildung 6. 7: Spiel zwischen Verkäufer und Käufer in extensiver Form
Dieses Spiel in extensiver Form hat folgende Auszahlungsmatrix:
Tabelle 6.x: Auszahlungsmatrix für das Spiel aus Abbildung 6.7.
Käufer
Z
NZ
L
(p –c), (v – p)
(-c),
v
NL
p,
0
0
Verkäufer
(-p)
Da es sich dabei um eine Variante des Gefangenendilemmas handelt, besteht in einer einmaligen
Lieferbeziehung kein Anreiz zur Kooperation. Jedoch in einem unendlich wiederholten Spiel ständig
wiederkehrender Lieferbeziehungen kann Kooperation erreicht werden, wenn der Barwert an Gewinnen
aus einer Aufrechterhaltung der Kooperation den kurzfristigen Gewinn aus opportunistischem Handeln
übersteigt. Der Kapitalwert des Gewinns für die Spieler s und b (mit den entsprechenden Diskontraten rs
und rb) bei Aufrechterhaltung der Kooperation ist und zu jedem Zeitpunkt t ist:
∞
Vs = ∑ (1 + rs )
t −t
( p − c) =
t =t
∞
Vb = ∑ (1 + rb )
t −t
p−c
,
rs
(v − p ) = v − p .
t =t
rb
Da der Gewinn des Verkäufers aus opportunistischem Verhalten c, den eingesparten Produktionskosten,
entspricht, erfordert die eigennützige Einhaltung des Vertrages,
p−c
>c
rs
für den Verkäufer und
v− p
>p
rb
Franz Wirl: Industriebetriebslehre
216
für den Käufer ist. Dies ist für Vertragspreise p gewährleistet die folgende Ungleichung erfüllen:
(1 + rs )c ≤ p ≤
v
1 + rb
Dieser Vergleich unterstellt implizit, dass die Lieferbeziehungen für immer beendet werden, wenn ein
Partner sich unkooperativ verhält.
Bemerkungen:
1. Dieses Ergebnis gilt auch für endliche Wiederholungen, wenn der Stoppzeitpunkt selbst unsicher
ist. Allerdings erhöht dies die entsprechenden Diskontfaktoren und schränkt damit den Bereich
zulässiger Vertragspreise ein.
2. Dieses positive Ergebnis wird durch eine sogenannte Trigger-Strategie erzielt (Folk-Theorem),
indem man einmalige Nichterfüllung ad infinitum durch Kooperationsverweigerung bestraft. Dies
ist ohne Zweifel eine sehr unerbittliche Strategie, und es ist auch nicht immer im Sinne der
Spieler diese Höchststrafe zu exekutieren.
3. Diese obige Gleichgewicht in Triggerstrategien ist nur eines der möglichen, insbesondere bleibt
die statische Lösung nicht zu kooperieren ebenfalls ein Nash-Gleichgewicht.
4. Diese Strategie ist nicht neuverhandlungsresistent (re-negotiation proof). Obwohl eine Partei den
Vertrag verletzt hat, ist es oft nach wie vor vorteilhaft, den Kooperationsgewinn über einen
Vertrag anzustreben und auf eine Bestrafung des Vergangenen (bygones are bygones) zu
verzichten.
7.7.2
Reputation
Jede Vertragspartei, die vor der Entscheidung steht, ob es sich lohnt nicht einklagbare
Vertragsbestandteile zu brechen (z.B. durch Lieferung von Gütern schlechter Qualität), muss
berücksichtigen, dass sich dieses unredliche Verhalten auch unter anderen Marktteilnehmern
herumspricht und dadurch die Chancen auf zukünftige Verträge beeinträchtigt.
Der Verkäufer hat die Möglichkeit ein Gut in niedriger (l) und hoher Qualität (h) zu den Kosten
cl < ch
herzustellen. Der Käufer ist vor Vertragsabschluss zum Vertragspreis p nicht in der Lage, die Qualität zu
überprüfen (z.B. bei einem Autokauf). Der Käufer hält nun die Beziehung aufrecht solange die hohe
Qualität geliefert wird. Entdeckung einer Lieferung mit schlechter Qualität führt zum Abbruch der
Geschäftsbeziehungen.
Annahmen:
(i)
(ii)
(iii)
Lieferung führt zum Absatz q.
Offenes Vertragsende, das zu jedem Zeitpunkt mit derselben Wahrscheinlichkeit y eintritt.
Vertragsverletzungen werden allen Marktteilnehmern bekannt.
Dies ergibt folgen Kapitalwert (auf den Zeitpunkt t abgezinst) aus Vertragserfüllung, d.h. bei Lieferung der
hohen Qualität:
Vs =
∞
∑ (1 + r )
t
t −t
(1 − y )
= t +1
t −t
( p − ch ) = ∑  1 − y 
t = t +1  1 + r 
∞
t −t
( p − ch ) = δ ( p − ch )
: =δ
1−δ
Ein opportunistischer Verkäufer erlöst einmalig zum Zeitpunkt t den Zusatzgewinn von
q(ch – cl).
Vertragseinhaltung erfordert für diesen Verkäufer daher, dass
(ch − cl ) ≤  1 − y ( p − ch ) .
r+ y
7.7.3
Faustpfand (hostages) und andere Sicherheiten
Da die Drohung der Vertragsbeendigung oder Reputationseffekte oft nicht ausreichen, Vertragserfüllung
sicherzustellen, stellt sich die Frage, wie ein Vertragsbruch zusätzlich verteuert werden kann. In diesem
Franz Wirl: Industriebetriebslehre
217
Kapitel wird dies dadurch erreicht, dass zum Vertragsabschluss zwischen den Parteien wechselseitig ein
Pfand hinterlegt wird, das im Falle eines Vertragsbruches Dritten zugute kommt.
Beispiele: Pfandleiher geben Kredite gegen Hinterlegung eines Wertstückes. Beim Hypothekardarlehen
dienen Immobilien zur Sicherung.
In der folgenden Darstellung wird auf ein einfaches Zweiperiodenmodell zurück gegriffen. Angenommen
ein Verkäufer tätige zum Zeitpunkt t = 0 spezifische Investition von k für den Verkauf von einer Einheit
(mit Produktionskosten c) and den Käufer zum Vertragspreis pv. Der Wert des Vertrages für den Käufer,
wie üblich bezeichnet mit v, sei eine Zufallsvariable:
vN < c + k mit Wahrscheinlichkeit π
v=
vH > c + k mit Wahrscheinlichkeit (1 - π).
Beide Parteien seien risikoneutral und vor Vertragsabschluss herrsche vollständige Konkurrenz unter den
Anbietern. Um Vertragstreue zu signalisieren, hinterlegt der Käufer ein Pfand mit Wert h (für den Käufer)
und dem Wert αh, α < 1, für den Verkäufer. Zum Zeitpunkt der Lieferung hat der Käufer folgende
Möglichkeiten:
b
(a) Er kann den Vertrag erfüllen und das Pfand zurückfordern mit dem Gewinn: G = v – pv.
b
(b) Er bricht den Vertrag und verwirkt damit das Pfand, G = –h.
Daher wird der Vertrag für
v > pv – h
erfüllt werden.
Aus der Sicht des Verkäufers gibt es zwei Möglichkeiten bedingt durch Realisierungen der
Zufallsvariablen.
1. Ist v so niedrig, dass der Käufer den Vertrag bricht, dann resultiert der Gewinn G = αh – k.
N
s
N
s
2. Der Vertrag wird nicht gebrochen und bei v > pv – h nie, was G = pv – c – k liefert.
N
Der erste Fall (v niedrig) führt dazu, dass der Vertrag mit Wahrscheinlichkeit
erwarteten Gewinn
π gebrochen wird, was zum
EGs = (pv – c – k)(1 - π) + π(αh – k)
Liefert. Aus den Annahmen der ex-ante Konkurrenz unter Anbietern um solche Verträge und der
Risikoneutralität folgt, dass dieser erwartete Gewinn gegen Null gehen muss, was den Vertragspreis:
πv = c +
k − παh
.
1−π
Betrachten wir zuerst den Spezialfall α = 1, d.h., beide bewerten das Pfand gleich hoch (z.B. Geld), dann
folgt
h = k.
Eine Sicherheit in diesem Ausmaße ist effizient, denn sie veranlasst den Verkäufer die Investition im
Ausmaße von k zu tätigen. Es versichert den Verkäufer gegen ein Hold-Up (Weigerung der
Vertragserfüllung zur Preisdrückung, c + k > p > c) seitens des Käufers.
Und der Käufer wird diesem Vertrag zu stimmen, wenn sein erwarteter Gewinn daraus nicht negativ ist,
also,
(vH – c – k)(1 - π) + π(–k) ≥ 0 ↔ (vH – c)(1 - π) ≥ k.
Allerdings ist der Verkäufer indifferent zwischen Liefern/Nichtliefern, wodurch ein Hold-Up Problem
entsteht. Der Verkäufer kann sich weigern zu liefern und die Sicherheit zurückzugeben insbesondere bei
nicht hinreichend spezifizierten Verträgen um einen höheren Lieferpreis c + k < p < v herauszupressen.
Dies kann durch ein Pfand abgewehrt werden, dass hohen Wert für den Käufer hat aber nur geringen
oder keinen Wert für den Verkäufer. Allerdings wird dadurch der Verkäufer erpressbar: Der Käufer kann
Franz Wirl: Industriebetriebslehre
218
Vertragserfüllung verweigern um niedrigen Preis nachträglich zu erzielen. Dies kann (nur) durch
Verpflichtung zur Zerstörung des Pfands vermieden werden kann.
7.7.4
Vertragsstrafen
Vertragsstrafen sind eine andere Möglichkeit einen Vertragsbruch zu sanktionieren. Dabei treten folgende
Probleme auf:
1. Dies setzt voraus, dass dieser Vertragsbruch vor Gericht einklagbar und durchsetzbar ist.
2. Bei Vertragsstrafen als Kompensation kann diesen den einen Partner dazu veranlassen, den
Vertragsbruch zu provozieren.
3. Die Zahlung der Strafe an Dritte verhindert zwar die Strategie unter 2, aber generiert ein Hold-Up
Problem. Eine Partei kann drohen der anderen einen hohen und dann nicht kompensierten
Schaden zuzufügen, wenn die Vertragsbedingungen nicht ex-post geändert werden.
7.8
Aktuelle Beispiele 29
Unter Langfristigen Verträgen versteht man einen Vertragstyp, bei dem der Zeitpunkt des
Vertragsabschlusses und die Vertragserfüllung auseinander fallen. Sie werfen dabei die in den
Vorlesungsunterlagen ausführlich dargestellten Vor- und Nachteile auf. Langfristige Verträge werden
auch oft als Rahmenbedingung für Relationship-Marketing betrachtet, worunter man in der Praxis alle
langfristigen Beziehungen versteht, die durch beiderseitige Nutzenbeziehungen gekennzeichnet sind.
Diese Beziehungen können mit Kunden, Lieferanten oder Distributoren eingegangen werden. Es werden in der
Regel enge Bande geknüpft, sei es eben durch langfristige Verträge oder gemeinsame Abstimmung der
Ablauforganisation, um gemeinsame Gewinne zu realisieren.
Eng mit diesem Begriff verbunden ist das bereits in der Vorlesung behandelte Networking. Das
Marketing-Network besteht aus dem Unternehmen und seinem Umfeld. Man fokussiert hier oft auf die
verschiedenen Kooperationspartner, ohne die ein Unternehmen in der heutigen komplexen Umwelt
praktisch keinen »full service« mehr anbieten kann. Man spricht dabei heute mitunter schon von einem
Wettbewerb zwischen den Networks um die Gunst des Kunden und nicht mehr zwischen einzelnen
Unternehmen.
Im Folgenden möchte ich auf einige in den Medien behandelte langfristige Verträge mit ihren Vor- und
Nachteilen eingehen.
7.8.1
Netzwerk und Langfristige Verträge am Beispiel von Airbus
Ein am Freitag den 10. Januar 2003 veröffentlichter Artikel der Welt behandelt die Fusion der Dasa mit
Aerospatiale Matra. Allein 200 Zulieferfirmen der Dasa sitzen im Norden Deutschlands. Nach Ansicht von
Dasa-Sprecher Rolf Brandt in Hamburg werden die norddeutschen Airbus-Standorte von dem
Zusammenschluss profitieren. Auch der Vorsitzende des Konzernbetriebsrates, Peter Zimmermann, sieht
die Arbeitsplätze "sicherer als vor der Fusion". Gerade eine Fusion von solcher Größenordnung lässt in der
Regel Einflüsse für die Zulieferer vermuten.
Die geplante Fusion hat bei den norddeutschen Zulieferern aber kaum zu Reaktionen geführt. Die Firmen
haben langfristige Verträge und setzen auf das Wachstum in der Luftverkehrsbranche. Insgesamt liefern
mehr als 5400 Unternehmen Einzelteile und ganze Baugruppen zu. Die bereits erwähneten 200
norddeutschen, für Airbus tätigen, Firmen sind überwiegend mittelständische und kleine Unternehmen.
Als Beispiel wird unter anderen die 65 Mitarbeiter zählende Halstenbeker Werner Groth Feinwerktechnik
genannt, welche zu den zu den kleineren Zulieferern gezählt wird. Nach Angaben von Geschäftsführer
Peter Leveringhaus fertigen die 65 Mitarbeiter "spanabhebend bearbeitete Teile" wie Bolzen und Gabeln,
sowie Teile für die Waschräume. Leveringhaus erwartet aber keine Änderungen bei den
Geschäftsbedingungen. Das Unternehmen hat Rahmenverträge über drei Jahre, die stückzahlmäßig je
nach Auftragslage geändert werden können. In unmittelbarer Nachbarschaft des Werkes Finkenwerder
hat sich die Dasell Cabin Interior GmbH angesiedelt. Sie liefert jährlich 1200 bis 1400 Waschräume für
die Airbusse sowohl nach Finkenwerder wie auch nach Toulouse. Auch deren Geschäftsführer
Henderikus Kamerling erklärte, es gebe langfristige Verträge, die nicht gefährdet seien. Der
Geschäftsführer des Wilhelmshavener Zahnradwerks Rust, erwartet kurzfristig gesehen keine
Auswirkungen auf die bestehenden Verträge langfristig aber sogar eine Steigerung der Zuliefermenge.
Deutlich ersichtlich ist also, dass die an die Langfristigen Verträge gebundenen Unternehmen zwar als
eigenständige Firmen bestehen, sich also somit ein gehöriges Maß an Flexibilität erhalten, aber dennoch von
den Vorteilen der Fusion profitieren. Im Endeffekt ist das Netzwerk, das durch die langfristigen Verträge
besteht ja die Basis für eine Fusion. Wie bereits unter dem Punkt Allgemeines angesprochen, wäre die
Dasa ohne ihr Netzwerk an Zulieferern die sie durch langfristige Verträge an sich gebunden hat ja gar
29
Die folgenden Beispiele basieren auf einer Recherche von Oliver Prügel.
Franz Wirl: Industriebetriebslehre
219
nicht mehr in der Lage selbst zu produzieren. Wobei diese Verträge den einzelnen Unternehmen
wiederum einen verläßlichen Rahmen lassen sich selbst zu entwickeln. Dass ein solches Modell
funktionieren kann zeigt das Beispiel Dasa anhand dieser Fusion sehr gut.
7.8.2
Mangelnde Flexibilität am Beispiel des grünen Punktes
In Verbindung mit Langfristigen Verträgen ist ja nicht nur die Beschaffung und das Zulieferersystem
interessant, sondern auch eventuell auftretende Probleme betreffs er Entsorgung. Eine große Diskussion
lösten hier die Verträge in Verbindung mit dem Grünen Punkt aus. Seit Einführung dieser Verpackungsverordnung
1991 besteht für Hersteller und Händler eine Rücknahme- und Verwertungspflicht für Verpackungen. Es
wird zwar als ein sehr leistungsfähiges System beschrieben, ist aber auch eines der teuersten. Das liegt
daran, dass in der Anfangsphase das Duale System mit den Entsorgungsbetrieben langfristige Verträge zu
überhöhten Konditionen abgeschlossen hat. Diese Verträge laufen jedoch bald aus. Neue Verträge,
durchschaubarer Wettbewerb und der Einsatz von kostengünstigerer Technik werden hoffentlich zu einem
besseren Preis-Leistungsverhältnis führen. Hier zeigt sich deutlich, dass langfristige Vertragsbindungen
sich durchaus auch nachteilig auswirken können. Scheinbar wurden keine Klauseln in die Verträge eingearbeitet
die den Vertragsparteien bei Bedarf die nötige Flexibilität eingeräumt hätten. Im Vorlesungsskript wird
zum Beispiel die Variante einer Neuverhandlungsklausel genannt.
7.8.3
Investition und langfristige Verträgen am Beispiel der Deutsche Bahn
Laut einer Zeitungsmeldung droht der Vorstandschef der Deutschen Bahn, Hartmut Mehdorn, den
Ländern und der deutschen Bundesregierung mit einem Investitionsstopp und einem Abbau von
Arbeitsplätzen beim Nahverkehr, was seiner Meinung nach bei einem überstürzten und ungeordneten
Wettbewerb zwischen Eisenbahnunternehmen um die Regionalstrecken die Folgen wären.
Die Deutsche Bahn sieht ihre Geschäftspolitik und ihre hohen Investitionen im Nahverkehr stark
gefährdet. Anlass ist eine kürzlich ergangene Entscheidung des Regierungspräsidiums Magdeburg, das
langfristige Verträge der Länder mit der DB für die Regionalzüge als Einschränkung des Wettbewerbs auf
der Schiene und daher als unzulässig einstuft. DB- Vorstandschef Mehdorn warnt die Verkehrs- und
Finanzminister der Länder sowie das Bundesverkehrsministerium, wenn diese Linie weiter verfolgt werde,
habe das bittere Konsequenzen für den Nahverkehr in ganz Deutschland. Die DB brauche Planungs- und
Investitionssicherheit, schreibt Mehdorn in einem der SZ vorliegenden Brief. Sei das nicht gewährleistet,
„wird die Bahn keine Investitionen in Fahrzeuge und Werkstätten des Nahverkehrs vornehmen".
Außerdem werde das Unternehmen dann „alle Arbeitsplätze, die zur Sicherstellung des
Mindestbedienungs-Standards nicht unbedingt erforderlich sind, konsequent abbauen". Nach dem Ende
des DB-Monopols auf der Schiene kommt langsam ein Wettbewerb in Gang. Die Länder, die den
Nahverkehr mit fast sieben Milliarden Euro pro Jahr fördern, schreiben immer mehr Regionalstrecken
öffentlich aus. Bei fast jeder zweiten Linie erhalten dann private Bahn-Unternehmen den Zuschlag, nur
noch knapp 60 Prozent der Verträge verbleiben beim Staatskonzern DB. Größter Konkurrent der DB ist
das Unternehmen Connex, eine Tochterfirma des französischen Mischkonzerns Vivendi. Connex hat mit
einer Beschwerde beim Regierungspräsidium Magdeburg jene Entscheidung herbeigeführt, die der Bahn
nun Probleme bereitet.
Der Staatskonzern muss fast alle Nahverkehrs-Verträge mit den Ländern neu verhandeln, da die
Abkommen auslaufen. Mehdorn will sich dabei den Großteil der Regionalstrecken für die nächsten zehn
Jahre sichern. Die Vergabestelle beim Regierungspräsidium Magdeburg erklärte jedoch einen neuen
Vertrag der DB mit dem Land Sachsen-Anhalt für ungültig. Eine schlagartige Ausschreibung aller
Regionallinien hätte nach Darstellung des Vorstandschefs katastrophale Folgen. Ohne langfristige und
umfassende Verträge seien die geplanten 4,3 Milliarden Euro Investitionen in moderne Regionalzüge
hinfällig.
Auch wenn die Bahn nicht zu den zu behandelnden Industriebetrieben zählt, so zeigen sich hier doch
sehr gut die Abhängigkeit eines Unternehmens, in diesem Fall der Bahn, wie auch eines evtl.
produzierenden Industriebetriebes, von den Bezugsquellen oder Absatzmärkten oder eben wie eben hier
bei der Bahn, die zu betreibenden Strecken. Gerade für die Deutsche Bahn ist es sehr schwierig, da
einige Strecken in Deutschland nicht kostendeckend zu betreiben sind. Demnach wird sich auch kein
privates Unternehmen um die Zuschläge für solche Strecken bewerben. Die Deutsche Bahn AG ist aber
verpflichtet auch auf solchen Strecken eine Mindestversorgung aufrecht zu erhalten. Gerade daher ist die
Deutsche Bahn in gewisser Weise davon abhängig die besser frequentierten Strecken gewinnbringend
bearbeiten zu können. Um aber auf dem teilweise nicht besonders modernen deutschen Schienennetz
erfolgreicher arbeiten zu können muss einiges investiert werden. Solche Investitionen machen aber
wenig Sinn, beziehungsweise bieten wenig Anreiz, wen man Gefahr läuft schon sehr bald den Zuschlag
für die Strecke wieder zu verlieren. Insofern ist es verständlich dass Manager auf langfristige Verträge
pochen, wenn es um umfangreiche Investitionen geht, sprich die transaktionsspezifischen Kosten
absichern wollen. Andererseits wird die Deutsche Bahn aber auch das Problem haben, in Deutschland
nicht gerade den besten Ruf zu geniesen, wobei natürlich die Bundesländer gerade bei langfristigen
Franz Wirl: Industriebetriebslehre
220
Verträgen ein großes Interesse haben dürften dem besten Streckenbetreiber den Zuschlag zu geben.
Was wiederum zeigt, dass gerade bei langfristigen Verträgen die Vertragsanbahnungskosten und bemühungen höher ausfallen dürften, da man ja lange daran gebunden ist.
7.8.4
Wegfall langfristiger Verträge am Beispiel des Strommarktes
Auch ein gutes Beispiel für langfristige Verträge bietet der Strommarkt. Die Deregulierung am Strommarkt
hat die Bedingungen für die Kraftwerkbetreiber drastisch verändert: Langfristige Verträge weichen dem
täglichen Wettbewerb. Der Erzeuger muss sich immer wieder fragen: Wie viel kann ich erzeugen und wie
viel muss ich liefern? Zu welchem Preis kann ich produzieren und zu welchem Preis kann ich beziehen
und verkaufen? Gerade diese Größen sind aber durch das Schwinden der langfristigen Verträge nicht
mehr konstant. Aber nur mit Informationen für die nächsten Tagen kann er vorausschauend disponieren.
Bei Engpässen kann er an einer Energiebörse Energie kaufen, bei Überschüssen diese gewinnbringend
verkaufen. Neue IT-Lösungen wie das PROFIT Cockpit müssen dem Betreiber also helfen, seine
Entscheidungen bezüglich der optimalen Produktion zu treffen. Das System bezieht alle Einflussgrößen
wie prozesstechnische Zustände, Maßnahmen für Wartung und Reparatur, Brennstoffkosten,
Betriebskosten und mögliche Verkaufserlöse in die Bewertung ein. Mit Hilfe integrierter
Vorhersagemodule lassen sich Informationen wie Lastprognose, Produktionskosten und
Ersatzteilplanung generieren. Es zeigt sich also, wie sich die gesamten Rahmenbdingungen für ein
Unternehmen verändern, wenn langfristige Verträge wegfallen. Konditionen die früher fix waren, sind nun
variable Größen, auf die dementsprechend flexibler reagiert werden muss.
7.8.5
Erdgasmarkt
Im Vorlesungsskript wird einige Male das Beispiel der Erdölversorger für langfristige Verträge angeführt.
Aber auch für die Erdgasversorger finden sich Informationen die die entsprechenden Punkte, besonders die
Investitionen betreffenden, verdeutlichen. Das Erdgasaufkommen in Deutschland stammte 1999, zu 21%
aus deutscher Produktion, zu 44% aus westeuropäischen Quellen (ohne deutsche Produktion) und zwar:
zu 19% aus den Niederlanden, zu 20% aus Norwegen und zu 5% aus Dänemark und Großbritannien,
sowie zu 35% aus Russland. Technische und wirtschaftliche Zusammenarbeit zwischen Lieferländern
und Erdgasimporteuren tragen zur langfristigen Stabilität der Erdgasbezüge bei. Die Erdgasproduzenten
müssen Milliarden-Beträge investieren, um Erdgas fördern und liefern zu können. Dabei geht es nicht nur
um die Erschließung der Erdgaslagerstätten, sondern auch um die Anlieferungen von der Quelle bis zur
Übergabestelle an der deutschen Grenze. Besonders groß sind die Investitionen zur Erschließung von
weit entfernt gelegenen Feldern (z.B. in Westsibirien) sowie von OffshoreFeldern (z.B. in der
norwegischen Nordsee).
In den Importländern werden für die Weiterleitung des Erdgases bis zum Verbraucher ebenfalls
umfangreiche Anlagen und Einrichtungen benötigt. Sie umfassen die überregionalen Leitungssysteme mit
den dazugehörigen Verdichter-, Speicher- und Messanlagen sowie die regionalen Leitungsnetze bis zu
den lokalen Verteilungssystemen. In den alten Bundesländern wurden für den Ausbau der
gastechnischen Anlagen seit Anfang der 80er Jahre durchschnittlich mehr als 1,5 Mrd EUR pro Jahr
investiert. Im Jahre 1999 betrugen die Investitionen der deutschen Gaswirtschaft insgesamt rund 3 Mrd
EUR. Diese hohen Investitionen erfordern im internationalen Erdgashandel in der Regel Verträge mit
einer Laufzeit von 20 bis 25 Jahren. Nur in derartigen Zeiträumen amortisieren sich die Investitionen
beider Seiten. Die Erdgasleitungen sind für die jeweiligen Liefermengen und Lieferwege ins
Bestimmungsland gebaut. Dadurch binden sich Produzent und Importeur wesentlich stärker aneinander
als bei anderen Energien. Es besteht für beide ein ausgeprägtes gemeinsames Interesse, die
eingegangenen langfristigen Verpflichtungen zu erfüllen. Damit wird eine weit reichende Stabilität der
Erdgasversorgungsströme erreicht. Zu den langfristigen Verpflichtungen gehört auch die Einhaltung der
vertraglich festgelegten Regeln, nach denen die Erdgaspreise während der Vertragslaufzeit im Hinblick
auf die jeweiligen Preise der Konkurrenzenergien angepasst werden. Mit dieser Flexibilität ist
gewährleistet, dass Erdgas entsprechend der aktuellen Konkurrenzsituation zu marktgerechten und
wettbewerbsfähigen Preisen angeboten werden kann. Seit 1963 beziehen Unternehmen der deutschen
Gaswirtschaft Erdgas aus den Niederlanden. Im Jahre 1995 waren es rund 24 Milliarden Kubikmeter. Für
diese Erdgasbezüge bestehen langfristige Verträge; sie reichen bis über das Jahr 2010 hinaus. Bei einer
weiterhin positiven Explorationsentwicklung ist damit zu rechnen, daß auch zukünftig größere
Erdgasmengen aus den Niederlanden exportiert werden können. Eine gute Beschreibung der Situation
im Bezug auf die aus Russland bezogenen Erdgasmengen und die damit verbundnen benötigten
Investitionen bietet der folgende Artikel: Nur jede vierte Bohrung ein Erfolg, von Gerit Schulze,
Gasversorger wollen langfristige Verträge mit russischen Lieferanten MDZ 09-07-2002.
Die großen deutschen Ferngasunternehmen fürchten durch die Liberalisierung um die
Versorgungssicherheit am Gasmarkt. Anlässlich der Moskauer Rohstoffmesse „Neftegas" forderten sie
die Beibehaltung langfristiger Verträge und stabile Preise, damit sich ihre Investitionen rechneten. „Wem
nutzt das billigste Gas, wenn es nicht da ist", meint Ewald Holst, Vorstandsvorsitzender der Leipziger
Verbundnetz Gas AG (VNG). Er kritisierte in Moskau, dass die EU-Liberalisierungspolitik vor allem auf
Franz Wirl: Industriebetriebslehre
221
fallende Preise ausgerichtet sei, nicht jedoch auf die Versorgungssicherheit im Gasbereich. Die VNG ist
nach Ruhrgas zweitgrößter Erdgasversorger in der Bundesrepublik und hat im Vorjahr 15 Milliarden
Kubikmeter Gas vor allem an Kunden in Ostdeutschland geliefert. Davon kamen 42 Prozent aus
Russland, der Rest aus Norwegen und Deutschland. Die langfristigen Verträge mit der Gasprom sehen
eigentlich vor, dass die VNG mindestens die Hälfte ihres Rohstoffes aus Russland bezieht. Doch der
Preisverfall am deutschen Markt hat den Gasprom-Anteil im Vorjahr sinken lassen. „Nach der
Liberalisierung des Strommarktes sind viele Erzeugeranlagen von Gas auf Kohle umgestellt worden",
erklärt Vorstandschef Holst. „Um da weiter mithalten zu können, mussten wir die Preise senken." Da
Gasprom nicht flexibel reagiert und keinen Nachlass eingeräumt habe, wurde der Rohstoff verstärkt bei
anderen Lieferanten eingekauft. „Wir brauchen nun einmal Rabatte, um auf solche Veränderungen am
Markt reagieren zu können", so Holst gegenüber der MDZ.
An den festen Lieferverträgen mit Gasprom bis zum Jahr 2013 will die VNG dennoch nicht rütteln.
Inzwischen sei das Problem beim Moskauer Konzern auch erkannt worden, Gespräche über kurzfristige
Rabatte liefen, erklärt der VNG¬Vorstandsvorsitzende. „Die Russen haben hohe Investitionskosten für
ihre Leitungen und sind daher an einer hundertprozentigen Auslastung interessiert. Deshalb müssen sie
auf uns zugehen."
Die enormen Kosten bei der Erschließung von Lagerstätten und dem Bau der Pipelines sind für Reinier
Zwitserloot das Hauptargument für langfristige Verträge. „Jede Probebohrung kostet einige Millionen USDollar. Aber nur bei jeder vierten Bohrung werden wir fündig", so der Vorstandsvorsitzende der
Wintershall AG. Die BASF-Tochter hat vor zehn Jahren mit Gasprom das Gemeinschaftsunternehmen
Wingas gegründet, das neben Ruhrgas und der VNG drittgrößter Erdgasversorger in Deutschland ist.
„Für große Entwicklungen braucht man Absatz- und Volumensicherheit", sagte Zwitserloot Ende Juni in
Moskau und kritisierte damit die EU-Forderung nach Lieferverträgen mit kürzeren Laufzeiten. Sein
Kollege Burkhard Genge, im Wintershall-Vorstand zuständig für den Erdgashandel, meinte dazu: „Ohne
langfristige Verträge sind Investitionen in Lagerstätten sehr schwierig. Die geplante Verschärfung der
Liberalisierungsvorschriften schießen über das Ziel hinaus." Zusammen mit Urengojgasprom untersucht
Wingas derzeit die Lagerstätte Achimow im Jamalo-Nenzischen Autonomen Kreis nordöstlich des Urals.
Rund 90 Millionen US-Dollar kosten die Vorerkundungen, berichtet Bernhard Schmidt, der bei Wintershall
für den Bereich Exploration und Produktion verantwortlich ist. Die Fundstätte sei technisch sehr
kompliziert zu erschließen, das Gas liege in bis zu 400 Meter tiefen Schichten, in denen ein hoher Druck
herrsche. Rund eine Milliarde US-Dollar Investitionen wären nötig, um die Förderung in Achimow zu
beginnen, schätzt Schmidt. „Doch mit den Vorräten würde die nahe gelegene 90 000-Einwohner-Stadt
Nowyj Urengoj eine jahrzehntelange Zukunft haben", meint Vorstandsvorsitzender Zwitserloot. Etwa acht
bis neun Milliarden Kubikmeter Gas könnten pro Jahr aus der Achimow-Lagerstätte gewonnen werden immerhin ein Zehntel des jährlichen Gesamtverbrauchs in Deutschland.
Für Zwitserloot ist schon jetzt klar, dass in Zukunft noch mehr Gas aus Russland nach Europa fließen
wird. Dann allerdings müssten andere Förderländer verdrängt werden, meint VNG-Vorstandschef Holst.
„Der zusätzliche Bedarf in Deutschland und Europa wird oft überschätzt", meinte er in Moskau. „Die
Marktsättigung ist dort nahezu erreicht. Um jeden Kunden müssen wir kämpfen."
Die Gefahr, dass Russlands Monopolist Gasprom seine starke Position in Europa ausnutzen könnte,
sieht Holst nicht. Die sind seit Jahrzehnten dort tätig und viel zu sehr von unseren Märkten abhängig."
Dennoch wäre er „nicht böse darüber", wenn auch in Russland mehr Wettbewerb entstünde. Allerdings
nur, wenn die neuen Lieferanten auch liquide genug sind, die notwendigen Investitionen zu finanzieren.
7.8.6
Aufgabe langfristiger Geschäftsbeziehungen am Beispiel Nissan
Manche Kulturen bemessen langfristigen Unternehmensbeziehungen einen stärkeren Rang bei, als es
die westliche tut. Das Beispiel Nissan bietet hierfür ein gutes Beispiel.
Im Falle von Nissan wird unterstellt, dass schlecht bzw. großzügig ausgehandelte langfristige Verträge
mit am Niedergang des Unternehmens beteiligt waren. Gerade in Japan aber sind ja die jahrzehntealten
Geschäftsverbindungen nahezu unantastbar. Carlos Ghosn, der neue Manager, sollte den schwer
defizitären Autohersteller Nissan retten. Der Auftrag galt als heikel, zumal es keine Vorbilder gab. Heute
ist Ghosn der erste Weltklassemanager, der für einen großen japanischen Konzern agiert. Dass der
Beauftragte des französischen Renault-Konzerns aber sehr harte Maßnahmen ergriffen hat ist jedoch
kein Geheimnis mehr. Gleich drei japanische Nissan-Werke mussten unter seiner Regie schließen.
Nissan stand nach allgemeiner Branchenmeinung kurz vor dem Bankrott. Die Auslastung der
Produktionskapazitäten stieg inzwischen von verlustträchtigen 51 Prozent auf mehr als 74 Prozent, die
akkumulierten Schulden im Autogeschäft des Konzerns fielen erstmals in 15 Jahren unter die 1000Milliarden-Yen-Marke (knapp 18 Milliarden Mark), der Rekordprofit lag im vergangenen Jahr bei rund
sechs Milliarden Mark, höher als jemals zuvor in der 70-jährigen Geschichte des Konzerns. Obwohl
anfangs niemand an einen Erfolg glaubte zeigten sich auch bald für den französischen Investor erste
positive Effekte. Seit Renault 5,4 Milliarden Dollar für einen 37-Prozent-Anteil bei Nissan zahlte, belaufen
Franz Wirl: Industriebetriebslehre
222
sich die jährlichen Einsparungen beider Konzerne laut Ghosn auf eine Milliarde Mark. Die Unternehmen
haben ihre Einkaufsabteilungen zusammengelegt. Für die Thematik der langfristigen Verträge ist hier
besonders interessant, dass sich allein bei Nissan die Zahl der Zuliefer auf 600 halbiert hat. Zugleich
wurde jeder Zuliefervertrag nach Weltmarktpreisen neu ausgehandelt. Wie bereits erwähnt unterstellte
man Nissan bislang „einen Haufen Geschenke verteilt zu haben". Gerade das betrachtete Auflösen
jahrzehntealter Geschäftsverbindungen, die in Japan als unantastbar betrachtet werden, ist besonders
bemerkenswert.
7.8.7
Vertragliche Verpflichtung der Zulieferer zum Umweltschutz am Beispiel von BMW
Gerade im Bezug auf Zuliefererverbindungen bietet es sich förmlich an einen Automobilhersteller zu
betrachten. BMW bietet auf dem unternehmenseigenen Internetauftritt einen breiten Überblick über die
Umweltpolitik und die damit verbundene Zuliefererpolitik. Laut diesen Angaben ist die BMW Group der
erste Automobilhersteller weltweit, der alle Produktionsstätten neben einem Qualitätsmanagementsystem
mit einem Umweltmanagementsystem ausgestattet hat. Für die Automobilindustrie besonders
interessante Faktoren sind der Energie und Wasserverbrauch, das Abwasseraufkommen, die Abgas- und
Geräuschemissionen, das Abfall- und Gefahrstoffaufkommen, der Lösungsmitteleinsatz und C02. Um in
diesen Bereichen Fortschritte zu erzielen, hat die BMW Group laut eigenen Angaben im Jahr 2000 15,8
Millionen Euro in den Umweltschutz investiert und 31,5 Millionen Euro für laufende
Umweltschutzaufwendungen aufgebracht. Um künftig noch bessere Umweltschutzeffekte in der
Produktion zu erzielen, wurde von der BMW Motoren GmbH in Steyr, Österreich gemeinsam mit der
Universität Linz ein neues Umwelt-Controlling entwickelt. Es soll nach dem erfolgreichen Anlauf in Steyr
ab 2002 auch an allen anderen Produktionsstandorten der BMW Group zum Einsatz kommen. Ziel des
Controllings ist es, auf wissenschaftlicher Grundlage mit der systematischen Beobachtung zentraler
Steuergrößen die Effizienz von Maßnahmen in bezug auf Umwelt und Nachhaltigkeit zu verbessern. Im
weiteren Sinne könnte man dieses Vorgehen durchaus auch als den im Vorlesungsskript erwähnten
Vorteil der Externalisierung von eventuellen
Risiken betrachten. Das neue Modell wird nicht sofort in allen Firmenzweigen eingeführt, sondern zuerst
an einem eingeführt. Wobei sich die Externalisierung hier eben auf eine zur BMW Group gehörigen Firma
bezieht. Von den Erfahrungen in Steyr werden also künftig alle BMW Werke profitieren. So ist es laut
Angaben von BMW dem internationalen Austausch, unter anderem zwischen Steyr und dem neuen BMW
Motorenwerk in Hams Hall in England, zu verdanken, dass dort innerhalb kürzester Zeit ein
Umweltmanagementsystem aufgebaut werden konnte.
Aber auch die Zulieferer der BMW Group sind auf Basis von Verträgen in die umweltverträgliche
Produktion der BMW
Fahrzeuge eingebunden. Zwar müssen sie nicht über ein
Umweltmanagementsystem verfügen, sie werden jedoch vertraglich zur Einhaltung der BMW
Umweltleitlinien verpflichtet und müssen im Unternehmen über ein effizientes Managementsystem
verfügen. Bestandteil der BMW Einkaufsbedingungen ist die Anlage zur "Umweltverträglichkeit von BMW
Produkten". In dieser Anlage werden die Lieferanten genau über die Zielsetzung der BMW Umweltpolitik negative Auswirkungen der Produkte auf Mensch und Umwelt zu minimieren - informiert. Für den
Entwicklungsprozess werden dann die ökologischen Anforderungen in Bauteil-Lastenheften genau
definiert. Hauptbewertungskriterien sind dabei der sparsame Einsatz von Ressourcen, die
Recyclingfähigkeit, Materialien und Inhaltsstoffe sowie Emissionen. Dadurch ist es der BMW Group
möglich, bei der Auswahl von Zulieferern auch ökologische Kriterien bei der Entscheidung zu
berücksichtigen.
Der potenzielle Zulieferer muss für die Produktion eines Bauteils bei Bedarf detaillierte Angaben über den
Material-, Energie- und Wasserbedarf, den Transportaufwand sowie die Emissionen machen. Diese
werden von der zuständigen BMW Fachstelle "Recycling" für ökologische Bauteilbilanzierungen
herangezogen, um die Umweltauswirkungen möglichst umfassend und genau beurteilen zu können.
Die BMW Group stellt laut eigenen Angaben nicht nur hohe Ansprüche an die Zulieferer, sondern legt im
Gegenzug auch größten Wert auf deren Zufriedenheit. Im Jahr 2001 hat BMW erstmals den Spitzenplatz
im Zulieferer-Zufriedenheitsindex SSI der Forschungsstelle Automobilwirtschaft belegt. 722 Zulieferer
wurden in der Untersuchung zur Zufriedenheit mit den deutschen Automobilherstellern befragt, die BMW
Group hat in 48 von insgesamt 59 Kriterien die Bestnote erreicht. Für die BMW Group ist die
Zufriedenheit ihrer Geschäftspartner eine wesentliche Voraussetzung dafür, dass auch die Kunden mit
der Qualität der BMW Produkte zufrieden sind.
Franz Wirl: Industriebetriebslehre
7.9
223
Literaturhinweise:
Thomas Eger, Eine ökonomische Analyse von Langzeitverträgen, Marburg, Metropolis Verlag, 1995.
Masten Scott E., Case Studies in Contracting and Organization, Oxford Univ. Press, 1996.
Zu aktuellen Beispielen:
51/2002, 16. Dezember, Internetmagazin FirstSurf.de
http://www.wett.de/daten/1999/10/16/1016hw133803.htx
http://qdl-wuerzburq.de/seite25u.htm
www.gruener-punkt.de
http://www.zeit.de/2001/38NVirtschaft/200138 portraet ghosn.html Wie der RenaultManager Carlos
Ghosn den maroden Autohersteller Nissan sanierte, Von Georg Blume (c) DIE ZEIT 3812001
www.BMW.de, Stand: 18. Juli 2002