International Industrial Management I
Transcription
International Industrial Management I
Skriptum zum Vertiefungskurs International Industrial Management I Univ. Prof. Dr. Franz Wirl Lehrstuhl für Industrie, Energie und Umwelt Universität Wien Brünnerstr. 72 (BWZ), Zimmer 123 Telephon: +43-1-4277-38101 Fax: +43-1-4277-38104 E-Mail: franz.wirl@univie.ac.at Homepage: http://bwl.univie.ac.at/ieu Version WS 2015/16 Franz Wirl: Industriebetriebslehre 2 Inhalt 0 Vorwort ...................................................................................................................................................6 1 Einführung ..............................................................................................................................................9 1.1 Historische Entstehung von Industriebetrieben ..............................................................................9 1.1.1 Exkurs: Die angelsächsische Corporation .............................................................................12 1.1.2 Die Bedeutung der Industrie – Bradford de Long A Note: Natural Resources and PreIndustrial Malthusian Population Dynamics .........................................................................................15 1.2 Gliederung der Industriebetriebslehre...........................................................................................15 1.3 Abgrenzung des Industriebetriebs von anderen Betrieben und Versuch einer Definition ............16 1.4 Systematik und Bedeutung der Wirtschaftszweige .......................................................................17 1.5 Betrachtung der Unternehmen nach Rechtsformen .....................................................................27 1.6 Unternehmenszusammenschlüsse ...............................................................................................27 1.6.1 Kartelle ...................................................................................................................................28 1.6.2 Konzerne................................................................................................................................28 1.7 Ziele und Nebenbedingungen von Wirtschaftsunternehmen ........................................................29 1.7.1 Ziele .......................................................................................................................................29 1.7.2 Nebenbedingungen ...............................................................................................................29 1.8 The Global Car Industry ................................................................................................................30 1.8.1 1.9 2 3 General Motors ......................................................................................................................31 Literaturhinweis: ............................................................................................................................33 Optimale Entscheidungen ....................................................................................................................34 2.1 (Rationale) Entscheidungstheorie .................................................................................................34 2.2 Psychologische Fallstricke ............................................................................................................35 2.2.1 Allais Paradoxon ....................................................................................................................35 2.2.2 Rabin (2000) ..........................................................................................................................35 2.2.3 nach Kahneman .....................................................................................................................36 2.2.4 Anomalien nach Hammond, Keeney and Raiffa....................................................................38 2.2.5 Weiteres .................................................................................................................................38 2.3 Risikomaße und -prämien .............................................................................................................39 2.4 Management Decisions ................................................................................................................39 2.4.1 A Brief History of Decision Making by Leigh Buchanan and Andrew O’Connell ...................39 2.4.2 Evidence-Based Management (Jeffrey Pfeffer and Robert I. Sutton) ...................................46 2.4.3 Competing on Analytics by Thomas H. Davenport...............................................................47 2.5 Management Praxis. .....................................................................................................................53 2.6 Mathematische Methoden zur Optimierung ..................................................................................59 2.6.1 Einleitung ...............................................................................................................................59 2.6.2 Optimierungsprobleme ..........................................................................................................62 2.6.3 Lineare Programmierung .......................................................................................................64 (Internationale) Standortwahl ...............................................................................................................65 3.1 Klassifikation des Industriebetriebes nach dem Standort (Beispiel) .............................................65 3.2 Verfahren zur Standortauswahl nach Klaus Lüder .......................................................................65 Franz Wirl: Industriebetriebslehre 3 3.2.1 Formulierung des Standortproblems .....................................................................................65 3.2.2 Bestimmung betrieblicher Standorte mittels Standortfaktoren und Prüflisten .......................67 3.2.3 Bestimmung betrieblicher Standorte mittels Nutzwertanalyse ..............................................68 3.2.4 Das Steiner-Weber Modell .....................................................................................................70 3.2.5 Modelle auf Basis des Transportproblems ............................................................................71 3.2.6 Das Location-Allocation Modell von Cooper ..........................................................................73 3.2.7 Das Transportation-Location Modell von Cooper ..................................................................73 3.2.8 Simulationsmodelle ................................................................................................................74 3.2.9 Innerbetriebliche Standortprobleme ......................................................................................74 3.2.10 Das CRAFT-Verfahren als Beispiel für heuristische und computergestützte Verfahren .......75 3.3 Standortentscheidung unter Konkurrenz (nach Hotelling) ............................................................77 3.3.1 Anwendung auf Preise für Internet ........................................................................................78 3.4 Ökonomische Geographie – ein Ansatz von Paul Krugman.........................................................84 3.5 Clusters - ein Ansatz von Michael E. Porter .................................................................................90 3.5.1 Evolution von Clusters und Beispiele ....................................................................................91 3.5.2 Ein einfacher Ansatz zur Bildung von Clusters ......................................................................94 3.5.3 Regionale Clusters und Globalisierung .................................................................................96 3.6 Zur Praxis von Standorten: ‚Distanz’ ist noch immer bedeutend ..................................................97 3.7 Vergleiche internationaler Produktivität ......................................................................................102 3.8 Fallbeispiele ................................................................................................................................113 3.8.1 Vergleich von Standorten von Organisationseinheiten in der Automobilindustrie in Japan und in den USA ..................................................................................................................................113 3.8.2 Hypothetische Fallstudie: Fahrradhersteller Eldora.............................................................116 3.8.3 Beispiele aus der Presse .....................................................................................................118 3.9 Standort Österreich .....................................................................................................................124 3.10 Osteuropa versus Asien ..........................................................................................................130 3.11 Auslandsinvestitionen (Foreign Direct Investment, FDI) .........................................................131 3.11.1 Historische Entwicklungen der Theorien .............................................................................134 3.11.2 Ein Modellansatz .................................................................................................................134 3.11.3 Der Strategieraum ...............................................................................................................136 3.11.4 Dominanzanalyse ................................................................................................................136 3.12 4 Literaturhinweise: ................................................................ Fehler! Textmarke nicht definiert. Kostenstrukturen von Mehrproduktunternehmen...............................................................................138 4.1 Ermittlung von Durchschnittskosten und Grenzkosten ...............................................................138 4.1.1 Einproduktunternehmen ......................................................................................................138 4.1.2 Mehr- oder Multiproduktunternehmen: ................................................................................138 4.2 Wachsende Skalenerträge (increasing returns to scale, economies of scale) ...........................139 4.2.1 Einproduktunternehmen ......................................................................................................139 4.2.2 Mehr- oder Multiproduktunternehmen .................................................................................139 4.3 Vorteile gemeinsamer Produktion (economies of scope) ...........................................................139 4.4 Natürliches Monopol ...................................................................................................................141 Franz Wirl: Industriebetriebslehre 4.4.1 Subadditive Kostenfunktion .................................................................................................141 4.4.2 Tragfähigkeit eines natürlichen Monopols ...........................................................................142 4.5 5 6 4 Literaturhinweise: .................................................................... Fehler! Textmarke nicht definiert. Management bei wachsenden Skalenerträgen (increasing returns to scale) ....................................144 5.1 Gründe für wachsende Skalenerträge ........................................................................................144 5.2 Managementmethoden ...............................................................................................................145 5.3 Wirtschaftspolitik am Fallbeispiel Microsoft ................................................................................146 5.4 Fallstudien ...................................................................................................................................146 5.4.1 AT&T Size matters. Is the giant dying, or just resting? .......................................................148 5.4.2 Singapore Airlines ................................................................................................................148 5.4.3 Adobe ...................................................................................................................................149 5.4.4 Volkswagen..........................................................................................................................151 5.4.5 Does IT matter? The Economist, Apri, 1 , 2004..................................................................153 st 5.5 Fallbeispiele oder Fabeln? ..........................................................................................................153 5.6 Literaturhinweise: ........................................................................................................................154 Produktion & Beschaffung ..................................................................................................................155 6.1 „Traditionelle“ Beschaffungsstrategien und Instrumente ............................................................155 6.1.1 Klassifikation von Rohstoffen...............................................................................................155 6.1.2 Optimale Bestellmengen ......................................................................................................156 6.1.3 Heuristische Strategien zur Lagerbewirtschaftung und Bestellung .....................................157 6.2 Just in Time (JIT) und Lean Management ..................................................................................159 6.2.1 Entstehung von JIT ..............................................................................................................159 6.2.2 Toyota ..................................................................................................................................160 6.2.3 JIT in Produktion und Beschaffung ......................................................................................163 6.2.4 Lean Management ...............................................................................................................167 6.2.5 Fallbeispiele zu Lean Management und JIT ........................................................................170 6.2.6 Fallstudie zu Beschaffung: Integration externer Unternehmen: How Chrysler Created an American Keiretsu, Harvard Business Review July-August 1996, 42-56. .........................................176 6.2.7 The New, Improved Keiretsu ...............................................................................................179 6.2.8 Weitere Erfahrungen mit Lean Management.......................................................................184 6.2.9 David Landes, The American and Japanese Automobile Industries ...................................186 6.2.10 Anmerkungen.......................................................................................................................187 6.2.11 Theoretische Erklärung I der möglichen Effizienz von Lean Management .........................187 6.2.12 Modellansatz II zur möglichen Effizienz von Lean Management: Japanisches versus amerikanisches System von Lieferverträgen .....................................................................................190 6.3 Weitere Fallstudien .....................................................................................................................193 6.3.1 6.4 Japan and the global supply chain Broken links..................................................................193 Lernen .........................................................................................................................................194 6.4.1 Lernkostenkurven ................................................................................................................194 6.4.2 Wissenstransfer ...................................................................................................................194 6.5 Aktuell: E-Procurement ...............................................................................................................195 Franz Wirl: Industriebetriebslehre 6.6 7 5 Literaturhinweise: ........................................................................................................................195 Langfristige Verträge ..........................................................................................................................197 7.1 Vorteile von Langfristverträgen gegenüber Spotmarkttransaktionen .........................................197 7.1.1 Absicherung transaktionsspezifischer Investitionen ............................................................197 7.1.2 Risikoaversion......................................................................................................................199 7.1.3 Einsparung der Transaktionskosten ....................................................................................201 7.1.4 Auswahl von Partnern – „Screening“ ...................................................................................201 7.2 Vorteile der Langfristverträge gegenüber der vertikalen Integration ..........................................201 7.2.1 Weniger Hierarchie ..............................................................................................................201 7.2.2 Illegitim: Externalisierung des Schadens .............................................................................201 7.2.3 Unabhängigkeit der Unternehmen .......................................................................................201 7.2.4 Outsourcing..........................................................................................................................201 7.3 Langfristverträge in einer Arrow-Debreu Welt ............................................................................202 7.4 Unvollständige, spezifizierte Langfristverträge ...........................................................................205 7.4.1 Vertragsinteresse und wirtschaftliche Unabhängigkeit und Quasirenten ............................205 7.5 Probleme bei langfristigen Verträgen..........................................................................................208 7.6 Verträge zwischen Rigidität und Flexibilität ................................................................................210 7.6.1 Preisabhängige Vertragspreise ...........................................................................................210 7.6.2 Meistbegünstigungsklauseln................................................................................................211 7.6.3 Kostenabhängigen Vertragspreise versus Festpreise .........................................................211 7.6.4 Erfolgsanhängige Vertragspreise ........................................................................................211 7.6.5 Mengenanpassungen und Take-or-Pay Klauseln ...............................................................212 7.6.6 Höhere-Gewalt Klausel ........................................................................................................213 7.6.7 Expost Anpassungen durch Delegation und Neuverhandlung ............................................213 7.7 Private Mechanismen zur Durchsetzung von Langzeitverträgen ...............................................214 7.7.1 Sich selbst durchsetzende Verträge ....................................................................................215 7.7.2 Reputation............................................................................................................................216 7.7.3 Faustpfand (hostages) und andere Sicherheiten ................................................................216 7.7.4 Vertragsstrafen ....................................................................................................................218 7.8 Aktuelle Beispiele ........................................................................................................................218 7.8.1 Netzwerk und Langfristige Verträge am Beispiel von Airbus ..............................................218 7.8.2 Mangelnde Flexibilität am Beispiel des grünen Punktes .....................................................219 7.8.3 Investition und langfristige Verträgen am Beispiel der Deutsche Bahn ..............................219 7.8.4 Wegfall langfristiger Verträge am Beispiel des Strommarktes ............................................220 7.8.5 Erdgasmarkt.........................................................................................................................220 7.8.6 Aufgabe langfristiger Geschäftsbeziehungen am Beispiel Nissan ......................................221 7.8.7 Vertragliche Verpflichtung der Zulieferer zum Umweltschutz am Beispiel von BMW .........222 7.9 Literaturhinweise: ........................................................................................................................223 Franz Wirl: Industriebetriebslehre 0 6 Vorwort In der Vorlesung beschäftigen wir uns mit Problemen des Industriebetriebs, wobei einerseits auf Aktualität als auch auf Ansätze und Methoden anstatt Moden Wert gelegt wird. In der Tat wird in dieser Vorlesung von folgenden Eigenschaften ausgegangen, dass ähnlich zur Medizin die Probleme dringend sind und oft neu sind. Companies using specified management tools % of total Beispiele an aktuellen Fragen und geänderten Rahmenbedingungen sind etwa, Fusionen, Liberalisierung, Deregulierung und Privatisierung, Standortfragen, verstärkter internationaler Wettbewerb, Umwelt, etc. Auf diesem Faktum wird in der umfangreichen und auch viel gekauften Managementliteratur mit Moden – Re-engineering, total quality management, shareholder value, strategic management, im Moment Management der unternehmenswichtigen Talente etc. aber leider oft auch nur mit Phrasen gekontert. Dies ist in gewisser Weise, gegeben die jeweils neuartigen Probleme, auch berechtigt. Aber Sinn einer Vorlesung kann nicht sein, die wahrscheinlich mittlerweile bereits auch aus der Mode gekommenen Ansätze zu vermitteln. Die untenstehende Abbildung vermittelt deutlich wie vormals gepriesene Ansätze wieder verschwinden. So haben die Anwendungen von 16 von insgesamt 21 gepriesenen Managementwerkzeugen in 1999 gegenüber 1998 abgenommen. 90 Knowledge management 80 70 Scenario planning 60 50 40 Total quality management 30 Re-engineering 20 Core competencies 10 0 1993 1994 1995 1996 1997 1998 1999 Year Abb.0.1 Anwendung von Managementmoden Economist, April 22nd, 2000, p 64, 69. Der Sinn dieser Vorlesung ist es Ansätze und Verständnis für die Probleme zu vermitteln, ohne dabei zu suggerieren, dass es universelle Werkzeuge für die jeweiligen akuten Probleme gibt. In dem Sinn, glaubt der Autor, dass es so etwas, wie auch in der Medizin, wissenschaftliche Grundlagen der Managementwissenschaften gibt, so wie wir auch hoffen, dass unser Arzt über die wissenschaftlichen Grundlagen seines Berufs verfügt und nicht ein Quacksalber ist. Dies bedingt allerdings, dass es keine universellen Rezepte gibt, sondern nur solche, die auf die bestimmten Umstände konditioniert sind. Dazu kommt, dass oft genau jene Eigenschaften die ein Unternehmen groß machen, nämlich aus der Norm auszuscheren, auch die sind, die in den meisten Fällen zur Liquidation von Unternehmen führen. So schrieb Wallace B. Donham, Dekan der Harvard Business School von 1919-1942, in der ersten Ausgabe des Harvard Business Reviews vom October 1922 (entnommen aus Harvard Business Review, June 2002, S 156) in A Proper Theory of Business: The theoretical background for business stand today somewhat where the lax in England and France stood in the period from 1200-1300. In both countries the law was local to small territorial units. This corresponds to the present condition of business precedents and practices, which are local to particular industries or companies. Unless we admit that rules of thumb, the limited experience of executives, an the general sentiment of the street are the sole possible guides for decisions of major importance, it is pertinent to inquire how the representative practices of businessmen generally may be made available as a broader foundation for Franz Wirl: Industriebetriebslehre 7 such decisions and how a proper theory of business is to be obtained. The theory of business must develop to such a point that the executive may learn from the experiences of others in the past how to act under the conditions of the present. Otherwise, business will continue unsystematic, haphazard, and for many men a pathetic gamble. No amount of theory can be a substitute for energy, enthusiasm, initiative, creative, ability, and personality, nor will it take the place of technical knowledge. Now, however, all of these personal qualities may be coupled with an adequate technical equipment, and yet the executive of wide experience may fail through our inability to grasp the underlying forces controlling business. The task of developing business theory scientifically is first, the recording of facts; second, the arrangement of these facts into series an relationships; third, the development of generalizations. Except in so far as this method is applied consciously on a large scale, the generalizations of business will be largely hypotheses more or less fantastic in their nature, and the executive must often gamble with his most important problems. Leider sind die für dieses Gebiet Industriebetriebslehre vorhandenen Lehrbücher entweder bereits etwas datierte Kompendien, Heinen, Edmund [Hrsg.]: Industriebetriebslehre : Entscheidungen im Industriebetrieb, 9., Aufl. – Wiesbaden, Gabler, 1991. Schweitzer, Marcell [Hrsg.]: Industriebetriebslehre : das Wirtschaften in Industrieunternehmungen 2., Aufl. - München : Vahlen, 1994. - (Vahlens Handbücher der Wirtschafts- und Sozialwissenschaften) Jacob, Herbert [Hrsg.]: Industriebetriebslehre : Handbuch für Studium und Prüfung *Praxis / 4., überarb. u. erw. Aufl.. - Wiesbaden : Gabler, 1990. oder ergehen sich in ‚Listen’, wie etwa Weber, Helmut Kurt: Industriebetriebslehre / - 3., neubearb. Aufl. – Berlin, [u.a.] : Springer, 1999. (Springer-Lehrbuch). Letzteres wird aber trotzdem in der Einführung verwendet wird, weil es das aktuellste ist. Besser mit einigen interessanten Beiträgen ist der ‚Reader’, Albach, Horst [Hrsg.]: Industrielles Management : Beschaffung, Produktion, Qualität, Innovation, Umwelt ; Reader zur Industriebetriebslehre / Wiesbaden : Gabler, 1993. th Jay Heizer und Barry Render, Operations Management, 7 Edition, Prentice Hall. th Or, why so many business books are awful (The Economist, Aug. 19 , 2004) IF YOU want to profit from your pen, first write a bestselling business book. In few other literary genres are the spin-offs so lucrative. If you speak well enough to make a conference of dozing middle managers sit up, your fortune is made. You can, says Mark French of Leading Authorities, a top speaking agency, make a seven-figure income from speechifying alone. Given this strong motivation to succeed, it is astonishing how bad most business books are. Many appear to be little more than expanded PowerPoint presentations, with bullet points and sidebars setting out unrelated examples or unconnected thoughts. Some read like an extended paragraph from a consultant's report (and, indeed, many consultancies encourage their stars to write books around a single idea and lots of examples from the clientele). Few business books are written by a single author; lots require a whole support team of researchers. And all too many have meaningless diagrams. The formula seems to be: keep the sentences short, the wisdom homespun and the typography aggressive; offer lots of anecdotes, relevant or not; and put an animal in the title—gorillas, fish and purple cows are in vogue this year. Or copy Stephen Covey (author of the hugely successful “Seven Habits of Highly Effective People”) and include a number. Here, though, inflation is setting in: this autumn sees the publication of “The 18 Immutable Laws of Corporate Reputation” by Ronald Alsop. And Michael Feiner has written a book offering “the 50 basic laws that will make people want to perform better for you”. The fundamental problem is that a successful business book needs a bright idea, and they, in the nature of business, come along infrequently. The dotcom boom brought some, the spurs to Clayton Christensen's “The Innovator's Dilemma” or Rosabeth Moss Kanter's “Evolve!” (accompanied by a CD of the guru herself rapping her message). Since then, new books have tended to focus on three areas: corporate governance; leadership; and how to make money out of bits of the business that were forgotten in the boom. Franz Wirl: Industriebetriebslehre 8 The first category has produced the most meticulous work, with books such as “The Recurrent Crisis in Corporate Governance” by Paul MacAvoy, an academic, and Ira Millstein, a lawyer. Inevitably, many books have raked over the lessons of Enron, WorldCom and other failures, trying to explain what went wrong. Some of the leadership books are written (or ghost-written) by the likes of Rudy Giuliani or Jack Welch, to describe the secrets of their success. Others explain the mysterious qualities that successful leaders display. Warren Bennis's “Geeks & Geezers”, for example, compares different formative experiences on the way to the top. Of course, the most perceptive leadership literature was written 400 years ago by William Shakespeare; and some of today's most readable books discuss the techniques of past heroes, such as Alexander the Great. They will teach you history, even if they do not make you Jack Welch. The sheer number of business books means that the diamonds shine rarely in a mound of dross. Counting everything from property management to personal finance, there are perhaps 3,000 business titles published each year in the United States, easily the largest market. One industry insider estimates, on the basis of figures from Nielsen Bookscan and a hunch about Amazon's sales, which Bookscan excludes, that a total of 8m-10m books that could broadly be defined as “business” are sold in America each year. They are almost all written by North Americans: Charles Handy, the Irish author of “The Age of Unreason”, is one of the few non-Americans who has managed to break into this market. Including Amazon's figures, the top 50 business books sold around 4m copies in the first seven months of this year. But many sell fewer than 1,000 in their first year, and the fall-off in sales is almost always dramatic. “The shelf-life of maximum relevance is measured in months,” says Adrian Zackheim, who made his name publishing Jim Collins's “Good to Great”, one of the rare business books that has topped bestseller lists for years. It is hard to believe that many managers run their businesses differently as a result of their reading. Occasionally, however, a truly great business book will articulate an idea that helps them to explain what it is that they are trying to do. It creates phrases—such as “core competence” or “emotional intelligence”—that fit the moment. But a few lines of “Henry IV, Part II” might well serve the same function, and give more pleasure too. Aus diesem Grund beruht diese Vorlesung auf keinem bestehenden Lehrbuch sondern stellt sich die entsprechenden Teile • Standortwahl • Kostenstrukturen (von Mehrproduktunternehmen) • Management bei wachsenden Skalenerträgen • Produktion & Beschaffung • Langfristige Verträge • Entscheidungen selbst zusammen. Auf weiterführende Literatur wird dann am Ende jeden Kapitels hingewiesen. Auf einige der oben angesprochenen aktuellen Fragen wird dann darauf aufbauend in einer Vorlesung Industrielles Management eingegangen. Franz Wirl: Industriebetriebslehre 9 1 Einführung 1.1 Historische Entstehung von Industriebetrieben Die Industriebetriebe, wie wir sie heute verstehen, entstanden im 18. und 19. Jhdt., basierend auf technisch-naturwissenschaftlichen Entwicklungen wie Dampfmaschine (1776), Lokomotive (1804), Koks als Brenn- und Reduktionsmaterial im Hochofen (1797) und Elektrizität (d.h. Versorgung, beginnend mit Edison, Ende 19Jhdt). Ein weiterer wichtiger Faktor war der Ausbau des Verkehrswesens, besonders der Ausbau des Eisenbahnnetzes (um 1850 entfielen etwa 20% der gesamtdeutschen Investitionen auf den 1 Eisenbahnsektor) . Im Gebiet der Politik soll erwähnt werden, dass zu Beginn des 19. Jhdt. die Gewerbefreiheit eingeführt wurde. 1833 erfolgte die Gründung des deutschen Zollvereins und damit eine Aufhebung der Binnenzölle, was eine Vergrößerung des Marktes bewirkte. Auf der organisatorischen Ebene kommt es zu verstärkter Arbeitsteilung, und damit insbesondere zur Entwicklung dispositiver Tätigkeiten (Management). Ein Bild der historischen Produktion – die Bezeichnung „industriell“ wäre hier vermutlich noch nicht ganz angebracht – in Deutschland vermittelt die Tabelle 1.1: Tabelle 1.1 Deutschland, Ende 19. Jhdt (Quelle: Jacob, S. 11) Beschäftigte 1. Webereien 2. Stein- und Braunkohle 3. Lehm- und Tonwaren 4. Spinnereien 5. Hüttenbetriebe 10.1% 9.7% 6.8% 6.5% 5.9% Anzahl der Betriebe 1. Lehm- und Tonwaren 2. Eisen und Stahl 3. Vegetabilische Nahrungsstoffe 4. Getränke 5. Webereien 12.3% 7.1% 6.9% 6.3% 6.2% Die folgende Abbildung vom bekannten Wirtschaftshistoriker Alfred Chandler beschreibt die Phasen wichtiger Unternehmensgründungen und deren Verbindungen zu bestimmten Industrien. QuelleQqq 1 Studie Joel Waldvogel: Der Ausbau des Eisenbahnsektors in Amerika im 19. Jhdt. spielte nicht eine so ausschlaggebende Rolle, wie sie ihm in der öffentlichen Meinung zugeschrieben wird. Wäre die Entwicklung im Eisenbahnsektor nicht so stark gewesen, wäre dies vermutlich durch einen stärkeren Ausbau der Schiffahrt und des Straßenbaus kompensiert worden. Franz Wirl: Industriebetriebslehre 10 Quelle: THE ECONOMIC FUTURE JUST HAPPENED, Dane Stangler, 2009 http://www.kauffman.org/uploadedFiles/the-economic-future-just-happened.pdf Beispiele: • Das Maximum von 63 Unternehmen in den 20-er Jahren datiert aus der Erdölabhängigkeit des Verbrennungsmotors. Diese Anzahl übersteigt jene aus den vier letzten Dekaden, 1960, 1970, 1980 und 1990 (allerdings für das Jahr 1994). • Die Unternehmen vor 1830 stammen aus dem Banken- und Versicherungswesen und Du-Pont und Colgate-Palmolive sind die einzigen Industrieunternehmen aus der 500-er Liste, die vor dem Eisenbahnboom gegründet wurden. • Die Hälfte (genauer 244) wurde im Zeitraum der Dekaden von 1880 bis 1920 gegründet, davon alleine 52 oder mehr als 10% stammen aus der Dekade von 1880, dem Beginn des Neuen Industriellen Zeitalters in den Vereinigten Staaten. Franz Wirl: Industriebetriebslehre 11 INDUSTRIE IN ÖSTERREICH, Roman Sandgruber, Ökonomie und Politik. Wirtschaftsgeschichte vom Mittelalter bis zur Gegenwart, Überreuter, Wien, 1995. Österreichische Steyr: Vom Mittelalter bis zum 19. Jhdt wichtigste Industriestadt (Messerwerkstätten, Hammerwerke, Schleifen, Mühlen, Sägewerke, Papiermühlen, Textil- und Lederfabriken) Tabelle: Transitverkehr (Brenner, in t) 1300 1340 1400 1500 1560 1600 1619 1730 4000 5000 3500 5000 8000 10000 12000 13000 Tonnen Eisenproduktion in Österreich 100000 90000 80000 70000 60000 50000 40000 30000 20000 10000 0 1500 1600 1700 1800 1900 Abbildung 1.2 Vorläufer des heutigen Industriebetriebs bei der Produktion materieller Güter waren der Handwerksbetrieb, der Verlagsbetrieb - der vor allem im Textil- und Lederbereich vorkam und dessen Organisationsform teilweise noch im heutigen graphischen Gewerbe/Verlagswesen erhalten ist – weiters der Manufakturbetrieb, den man später als Fabriksbetrieb und heute als Industriebetrieb bezeichnet. Die verschiedenen Merkmale dieser Betriebsformen zeigt Tabelle 1.2: Franz Wirl: Industriebetriebslehre 12 Tabelle 1.2: Merkmale der verschiedenen Betriebsformen Quelle: Weber, Abb. 2.1.S. 13 Handwerksbetrieb Verlagsbetrieb Manufakturbetrieb Personen ein Betriebsinhaber (Handwerksmeister) arbeitet allein oder mit mehreren Personen (Gesellen und Lehrlingen) eine Person (sog. Verleger) ist Auftraggeber für eine größere Zahl anderer Personen (sog. Verlegte) ein Betriebsinhaber (Manufakturinhaber) beschäftigt eine größere Zahl von Arbeitskräften (die weder Gesellen noch Lehrlinge sein müssen) Produkte materielle Güter materielle Güter materielle Güter Rohstoffe werden z.T. von Kunden zur werden vom Verleger Verfügung gestellt (Lohnwerk), den Verlegten zur werden z.T. vom Handwerksmeister Verfügung gestellt beschafft (Preiswerk) werden vom Manufakturinhaber beschafft Werkzeuge, werden überwiegend vom Handwerksmeister gestellt z.T. vom Verleger gestellt, z.T. den Verlegten gehörend werden vom Manufakturinhaber gestellt Ort der Produktion zentral, im Hause des Handwerksmeisters dezentral, im Hause der zentral, getrennt von den Verlegten Wohnstätten Vergütung der Arbeitskräfte Zeitlohn Stücklohn Maschinen 1.1.1 z.T. Zeitlohn, z.T. Stücklohn Exkurs: Die angelsächsische Corporation History shows the Anglo-Saxon corporation to be far from heartless The Economist, Dec 14th 2002, p 64-65. ON DECEMBER 10th, George Bush attended the opening ceremony of “Business Strengthening America” (BSA), an organisation whose aim is “to encourage civic engagement and volunteer service in corporate America”. Also present were Don Evans, secretary of commerce, Steve Case, chairman of AOL Time Warner, and Jeffrey Swartz, boss of Timberland, a socially responsible shoe maker. The high-profile occasion is the first fruit of a meeting held at the White House in June, when the president called for greater corporate involvement in the community. The collapse of Enron and the rash of subsequent scandals have made all of American business seem like an ogre who leaves entire communities high and dry when things go wrong. BSA wants to change this image by helping businesses to “do well by doing good”. This issue of corporate social responsibility (CSR)—how responsible companies should be to those other than their own shareholders—is arousing heated debate, and not just in America. In Europe and Asia, the battle is often said to be between Anglo-Saxon shareholder capitalism, which says that companies should pursue exclusively the interests of their shareholders, and stakeholder capitalism, which acknowledges that companies are also responsible to their workers and local communities—often by having representatives from both on their boards. The debate has also become entangled with that about globalisation. One of the main charges that the anti-globalisation brigade hurls at multinationals is that they behave irresponsibly all round the world. They exploit third-world workers, trash the environment and challenge democratically elected governments. In all these tussles, the left demands that more rules be applied to companies, to make them more responsible. The right fires back that governments already subcontract far too much of their social policy to companies, using them as vehicles to limit working hours (in France), to promote racial harmony (in America) and to clean up the environment (just about everywhere on the planet). This debate does not lack hot air; but it does lack a sense of history. How irresponsible have Anglo-Saxon companies been in the past? Franz Wirl: Industriebetriebslehre 13 Start in the East Indies In practical terms, all companies—even Anglo-Saxon ones—have to secure what Leslie Hannah, an economic historian who is now dean of Ashridge Management College in England, calls “a franchise from society”. Sometimes that franchise entails specific obligations: Mr Hannah points to ICI's altruistic work designing nuclear bombs for the British government during the second world war. The franchise comes partly from consumers and other pressure groups in the private sector. As long ago as the 1790s, Elizabeth Heyrick led a consumer boycott, urging her fellow citizens in Leicester to stop buying “blood-stained” sugar from the West Indies. The East India Company was eventually forced to obtain its sugar from slaveless producers in Bengal. Nowadays, the influence of non-governmental organisations, such as Greenpeace, on corporate policy is far more pervasive. However, the most enduring force on corporate behaviour has been the state. The mantra that, at some ideal moment in the misty past, Anglo-Saxon companies had nothing to do with the state is codswallop. Far from being alien to government, companies are a product of it: it was from the state that they derived the privilege of limited liability. Until the 19th century, monarchs generally gave companies a “charter” only if they were nominally pursuing the public good (which could mean anything from building canals in Lancashire to colonising India). Indeed, it was the fact that companies were creatures of the state that turned Adam Smith against them. Most pioneers of the industrial revolution also regarded limited liability as a charter for rogues. The Victorians changed the perception, largely because a business arose that needed far more capital than mere partnerships could provide: the railways. By 1862, Britain had made it possible to set up a company, without parliamentary permission, for just about any purpose. The rest of the world's big countries— France, Germany, Japan and the United States—soon followed suit. There was, in theory, a clear split among them, however. In Britain and America, the new joint-stock companies were freed from any obligation other than to obey the law and pursue profits. By contrast, in continental Europe (and later in Japan), companies were asked to pursue the interests of their various stakeholders, notably those of the state. But how different in practice were the Anglo-Saxons? In Britain, most of the early companies—with the notable exception of the railways—had few dealings with the government. The gospel of free trade meant that there were no tariffs to go to London to lobby for. Corporate independence was even more noticeable in America. Businessmen created modern organisations that spanned the continent more quickly than the government did. In 1891 the Pennsylvania Railroad employed 110,000 people, three times the combined force of the country's army, navy and marines. Such monoliths could lay down their own rules. But this freedom was never absolute. Unions sprang up to defend workers' rights, and “muckraking” journalists detailed corporate abuses. “I believe in corporations,” said Teddy Roosevelt. “They are indispensable instruments of our modern civilisation; but I believe that they should be so supervised and so regulated that they shall act for the interests of the community as a whole.” The supervision did not just take the form of antitrust legislation (which eventually broke up Standard Oil in 1911), but also of rules on health, safety, working hours and so on. The Wall Street crash, a succession of corporate scandals and the Great Depression shifted public opinion on both sides of the Atlantic even more in favour of restricting the corporate franchise. America brought trucking, airlines and interstate gas and electric utilities under government control. In Britain, there was widespread horror at the inability of private coal companies to provide showers for their workers: they too were soon taken into public ownership. This tightening continued into the post-war period. The British government nationalised the commanding heights of industry and, as late as 1967, John Kenneth Galbraith was arguing that America was run by an oligopolistic industrial state. Since the 1980s, however, the pendulum has swung the other way. AngloSaxon business has become more independent, for which it has to thank not only liberalising politicians such as Margaret Thatcher and Ronald Reagan, but also a new generation of more aggressive and numerous shareholders, who have demanded that companies be run in their interests. This is the capitalisme sauvage that so upsets the French, in particular. But even today, Anglo-Saxon companies are more constrained than many critics suppose. The past two decades have seen a huge surge in social regulation, as various “stakeholders” have organised themselves into powerful pressure groups. In the late 1980s, for example, more than half of America's state legislatures adopted “other constituency” statutes that allow directors to consider the interests of all their stakeholders, not just shareholders. Connecticut even passed a law requiring them to do this. Franz Wirl: Industriebetriebslehre 14 Good deeds aplenty There is one clear lesson from this history. Anglo-Saxon companies have often willingly taken on social obligations without the prompting of government. Mr Hannah cites the traditions of the Quaker families who founded so many of Britain's banks and confectionery firms: they had regular meetings where they were expected to justify to their peers the good that their businesses were doing. Nor has corporate social responsibility been the preserve only of a few do-gooders inspired by religion. The notorious “robber barons” built much of America's educational and health infrastructure. Company towns, such as Pullman, were constructed, the argument being that well-housed, well-educated workers would be more productive than their feckless, slum-dwelling contemporaries. Companies introduced pensions and health-care benefits long before governments told them to do so. Procter & Gamble pioneered disability and retirement pensions (in 1915), the eight-hour day (in 1918) and, most important of all, guaranteed work for at least 48 weeks a year (in the 1920s). Henry Ford became a cult figure by paying his workers $5 an hour—twice the market rate. Henry Heinz paid for education in citizenship for his employees, and Tom Watson's IBM gave its workers everything from subsidised education to country-club membership. Critics tend to dismiss all this as window-dressing. But Richard Tedlow, an historian at Harvard Business School, argues that they confuse the habits of capital markets with those of companies. Capital markets may be ruthless in pursuing short-term results. Corporations, he says, have always tended to be more long-termist. Alfred Chandler, the doyen of business historians, points out that the history of American capitalism has largely been the history of managerial rather than shareholder capitalism. For much of the 20th century, companies were run by professional managers; until the 1980s, institutional investors seldom made their presence felt. Today, more bosses are sacked, but managers still largely ignore shareholders. In Delaware, where around half of America's big companies are headquartered, the corporate code is more sympathetic to managers than it is to owners. This has often made socially responsible behaviour easier. Rosabeth Moss Kanter, a professor at Harvard Business School, talks about most parts of the Anglo-Saxon world having a “CEO club” that successful businessmen are desperate to join. The price of admission is doing your bit for society. But this cynical approach can be taken only so far. Most companies try to do good because they genuinely believe that taking care of their workers and others in society is in the long-term interests of their shareholders. The most successful Anglo-Saxon companies have consistently eschewed shorttermism in favour of “building to last”. For more than half a century, Silicon Valley's pioneering company, Hewlett-Packard, has been arguing that profit is not the main point of its business. There are two reasons why acting responsibly is in shareholders' interests. • The first is that it builds trust, and trust gives companies the benefit of the doubt when dealing with customers, workers and even regulators. It allows them to weather storms, such as lay-offs or a product that does not work. • The second is the edge it gives in attracting good employees and customers. Southwest Airlines is one of the most considerate employers in its industry: it was the only American airline not to lay people off after September 11th. Last year, the company received 120,000 applicants for 3,000 jobs, and it was the only sizeable American airline to make a profit. Leave well alone Since Anglo-Saxon companies have tended to be reasonably responsible in the past, without any government bullying, there must a good a priori case for leaving them alone. The case is strengthened by the fact that companies are most effective as social volunteers when they are doing things that are close to their shareholders' interests. Those interests clearly differ: oil companies tend to emphasise building local infrastructure; Avon, which sells products largely to women, is one of the world's biggest supporters of breast-cancer research. The idea of imposing one-size-fits-all laws is a mistake, for it undermines enthusiasm and prevents companies from exploiting their distinctive strengths. Why should all multinationals have to sign up to the same sort of mission statements that Shell and BP love so much? In a sense, the corporate social responsibility movement has got it all the wrong way round. It tends to look for social goods—better housing, better schools, a cleaner environment—and then seek ways to force companies to provide them. It might do better to look at the things that the private sector does not deliver, and then get governments to fill the gaps. Left to themselves, companies will do more good than people give them credit for. But they are not here to build a fairer society. That is the job of government. Franz Wirl: Industriebetriebslehre 1.1.2 15 Die Bedeutung der Industrie – Bradford de Long A Note: Natural Resources and PreIndustrial Malthusian Population Dynamics In the year 1--we guess--world population was about 170 million. In the year 1650--we guess--it was about 540 million. This tripling of world population over the course of one and two-thirds millennia was accompanied by very little improvement in the standard of living of the median peasant (though things may well have been very different for the upper-class elite). We can thus say that world real GDP--at least when measured in terms of necessities rather than luxuries--roughly tripled over this one and two-thirds millenium. We can feed these numbers to a standard Solow growth model with natural resources, as in: J. Bradford DeLong (2006), "Lecture Notes: Econ 101B: Explorations in the Theory of Economic Growth: Natural Resources and Malthusian Population Dynamics" http://delong.typepad.com/print/20060905_lecture_notes.pdf. We then conclude that the rate of real GDP and population growth over this period was roughly 0.07% per year. Under the further assumption that natural resources had a parameter of roughly 0.3 in the world economy's production function back then, we can calculate that total factor productivity growth in the pre-industrial world averaged 0.02% per year. Compare and contrast that to the 2-3% per year of total factor productivity growth in the world today. 1.2 Gliederung der Industriebetriebslehre Abbildung 1.3 Gliederung der Industriebetriebslehre (Quelle: Weber, S. 8, Abb. 1.4) Wie die obenstehende Abbildung 1.3 zeigt, lässt sich die Industriebetriebslehre nach funktionalen Aspekten (Produktion, Beschaffung, ...) und nach institutionalen Aspekten gliedern, wobei bei letzteren wieder nach Merkmalen (z. B. Saison- oder Kuppelprodukt) und nach Industriezweigen (Stahl, Chemie,...) unterschieden werden kann. Von diesen Teilgebieten soll im Rahmen dieser Vorlesung eine Auswahl etwas näher angesprochen werden, nämlich Beschaffungswirtschafts-, Produktionswirtschafts-, und Organisationslehre, sowie die BWL des Kuppelproduktionsbetriebs. Franz Wirl: Industriebetriebslehre 1.3 16 Abgrenzung des Industriebetriebs von anderen Betrieben und Versuch einer Definition Die folgenden drei Abbildungen zeigen verschiedene Merkmale auf, anhand derer eine Abgrenzung der Industriebetriebe von anderen Betrieben erleichtert werden soll. Tabelle1.3: Abgrenzung vom Landwirtschafts-, Bergbau- und Energiebetrieb (Weber, S. 18, Abb. 2.2.) Merkmale Landwirtschafts- Bergbaubetrieb Elektrizitätswerk Industriebetrieb betrieb Produktionsmaterielle Güter materielle Güter materielles Gut besonderer Art: materielle Güter anderer ergebnis biologischer Art: mineralischer Art elektrische Energie Art als die vorher (Produkte) Pflanzen und genannten Tiere ProduktionsEinsatz von kein Einsatz von kein Einsatz Einsatz von Einsatz von Rohstoffen einsatz Gütern der materiellen von Rohstoffen Rohstoffen (Produktions- gleichen Art wie Gütern die zu faktoren) die Produktbestandte ausgebrachten ilen werden; d.h. Produkte kein Einsatz von (Nicht- Urproduktion) (Urproduktion) (NichtRohstoffen (NichtUrproduktion) (Urproduktion) Urproduktion) ProduktionsAnbau Abbau Umwandlung Umwandlung Verarbeitung und prozeß materieller Güter materieller Güter von Energie von Bearbeitung von bestimmter Art bestimmten materiellen Gütern oder: Umformung und in Energie materiellen Umwandlung anderer Art Gütern in bestimmter materieller Energie Güter in andere (Stoffabbau) (Stoffanbau) (Stoff-Energie- materielle Güter (Energie(Stoffumformung, umwandlung) umwandlung) Stoffumwandlung) Tabelle 1.4 Unterschiede zwischen Handwerk und Industrie (Quelle: Weber, S. 20. Abb 2.2.) Merkmale Handwerk Industrie Beschäftigungsstruktur vorwiegend gelernte Arbeiter vorwiegende angelernte und ungelernte Arbeiter Mechanisierung vorwiegend manuelle Produktion vorwiegend maschinelle Produktion Betriebsgröße vorwiegend relativ klein vorwiegend mittelgroß, groß und sehr groß Kapitalbedarf vorwiegend relativ gering vorwiegend groß und sehr groß Auftragsstruktur Einzel- und Kleinserienfertigung für vorwiegend Serien- und bekannte Kunden des näheren Massenfertigung für meist anonyme Einzugsgebiets auf Bestellung Endabnehmer eines weitreichenden Vertriebsbereichs Leitungsstruktur Leitung durch (mitarbeitende) Mitarbeiter Leitung durch ein auf Leitungsaufgaben spezialisiertes Management Verwaltung keine ausgeprägte Funktionstrennung zur ausgeprägte Funktionstrennung von den Erzeugung anderen Funktionsbereichen Registerzwang Handwerksrolle (bei Handwerkskammer) Handelsregister (bei Amtsgericht) Interessenvertretung Handwerkskammer, Innungen Industrie- und Handelskammer, Fachverbände Franz Wirl: Industriebetriebslehre 17 Tabelle 1.5 Einteilung von Dienstleistungsbetrieben (Quelle: Weber, Abb. 2.3 (II. Teil), S 23) immaterielle Güter, Dienstleistungen, die sich auf Handelsbetrieb Überbrücken von Unterschieden qualitativer, materielle Güter beziehen quantitativer, räumlicher und zeitlicher Art, zwischen Angebot und Nachfrage von materiellen Gütern Verkehrsbetrieb immaterielle Güter, Dienstleistungen, die Überbrücken von Unterschieden räumlicher sich auf materielle Güter, Nachrichten Art und Personen beziehen Bankbetrieb immaterielle Güter, Dienstleistungen, die Transfer von Geld im Auftrag Dritter, sich auf Geld beziehen Gewährung und Aufnahme von Geldkrediten Versicherungsbetrieb immaterielle Güter, Dienstleistungen, die Übernahme von Sach-, und Personenrisiken sich auf Risiken beziehen. Dritter Dienstleistungsbetriebe bieten hauptsächlich immaterielle Güter an. Industriebetriebe hingegen stellen materielle Güter her. Der Handelsbetrieb vertreibt zwar auch materielle Güter, produziert diese jedoch nicht. Ausgehend von diesen Abgrenzungen soll nun ein Versuch einer Definition - oder zumindest einer Einengung - der Charakteristika eines Industriebetriebs unternommen werden: 1. Betrieb zur Deckung des Bedarfs anderer Wirtschaftssubjekte. 2. Produktion materieller Güter, ausgenommen Tiere und Pflanzen. (Hierbei stellt sich dann natürlich die Frage, wo ein gentechnischer Betrieb einzuordnen wäre) 3. Ausgangspunkte der Produktion sind nicht der Natur direkt entnommen. 4. Die Produktion formt die Vorprodukte um, unter Verwendung von Maschinen und einer größeren Anzahl von Arbeitskräften. 1.4 Systematik und Bedeutung der Wirtschaftszweige Abb. 1.4 Systematik des produzierenden Gewerbes Energie und Wasser Bergbau Grundstoffe Verarbeitend Investitionsgüter Bau Verbrauchsgüter Nahrungsmittel Nach der im vorigen Abschnitt erfolgten Unterscheidung des Industriesektors von anderen Wirtschaftssektoren, sollen nun Einteilungsmöglichkeiten innerhalb des Sektors sowie einige Daten zur aktuellen Situation gezeigt werden. Franz Wirl: Industriebetriebslehre 18 Tabelle 1.6 Deutschland (alte Bundesländer): Erwerbstätige und Bruttowertschöpfung je Wirtschaftszweig der Bruttowertschöpfung Zahl Erwerbstätigen Systematik Wirtschaftszweig 0 Land und Forstwirtschaft, Fischerei in 1000 in % 1 Energie- & Wasserversorgung, Bergbau 441 1.5% 74.14 2.7% 2 Verarbeitendes Gewerbe (ohne Bau) 8400 29.0% 753.25 27.5% 3 Bau 1982 6.8% 168.43 6.2% 4 Handel 3965 13.7% 230.12 8.4% 5 Verkehr & Nachrichtenübermittlung 1630 5.6% 155.77 5.7% 6 Kreditinstitute und Versicherungen 951 3.3% 168.9 6.2% 7 Dienstleistungen, freie Berufe 5026 17.3% 785.5 28.7% 8 Organisation, Haushalte 1416 4.9% 74.72 2.7% 9 Gebietskörperschaften, Sozialversicherung 4323 14.9% 298.52 10.9% 880 Summe in Mrd. DM 3.0% 29014 2738.65 Aufteilung der Wirtschaftszweige in 35.0% 30.0% 25.0% Erwerbst. 20.0% Wertsch. 15.0% 10.0% 5.0% 0.0% 0 1 2 3 4 5 6 7 8 in % 29.3 9 Abbildung 1.5 Aufteilung der Wirtschaftszweige in Deutschland 1.1% Franz Wirl: Industriebetriebslehre Tabelle 1.7: Produktionswert in Fachverbänden, nominell, Mio. Euro der österreichischen Industrie J1999 J2000 J2001 Bergwerke 501.3 552.5 454.1 Erdölindustrie 1078.6 1523.4 2554.0 Eisenhütten 2546.5 3056.8 2698.4 NE-Metallindustrie 1308.8 1894.9 2104.4 Stein- u.keramische Ind. 2414.6 2456.4 2460.3 Glasindustrie 817.8 944.1 1046.2 Chemische Industrie 7210.8 7971.9 7917.5 Papiererzeugende Industrie 2893.1 3600.4 3399.0 Papierverarbeitende Ind. 1308.3 1374.7 1474.4 Holzverarbeitende Industrie 4487.7 4899.1 4821.2 Nahr.- u.Genussmittelind. 5390.6 5470.6 5547.7 Ledererzeugende Industrie 294.6 337.3 404.5 Lederverarbeitende Industrie 329.8 315.4 375.9 Textilindustrie 1686.4 1696.1 1670.6 Bekleidungsindustrie 383.1 416.1 449.4 Gießereiindustrie 771.3 854.7 899.9 Maschinen- u.Stahlbauind. 8141.1 8809.8 8992.1 Fahrzeugindustrie 6035.6 6584.3 7725.1 Eisen- u.Metallwarenind. 5674.1 5994.9 5734.0 Elektroindustrie 8243.0 9431.1 9196.6 Industrie ohne Energie 61517.2 68184.4 69925.2 19 nach Abbildung 1.6 präsentiert ein weiteres Merkmal, anhand dessen Industriebetriebe eingeteilt werden können: die Größe. Hierbei ist zu beachten, dass „Größe“ mit Hilfe unterschiedlicher Faktoren gemessen werden kann. Ein Beispiel: Die Durchschnittsgröße von Betrieben gemessen nach der Beschäftigtenzahl betrug 1992 180 Personen. Das Maximum lag in der eisenschaffenden Industrie mit 1610, das Minimum in der Holzverarbeitung mit 26 Arbeitnehmern. Unternehmen mit über 1000 Beschäftigten repräsentieren nur 0,25% der Anzahl aller Unternehmen, aber 39% der Beschäftigten. Als weiteres Beispiel dafür seien Tabelle 1.8 und 1.9 angeführt, in welchen europäische Unternehmen einmal nach dem Umsatz und einmal nach der Börsenkapitalisierung gereiht sind, und Unterschiede in der Platzierung deutlich zutage treten. Gerade klassische Industriebetriebe stehen bei so einer Klassifizierung nach dem Börsenwert oft schlechter dar, wobei zu bedenken ist, dass dabei dem Börsenwert auch Anlagewerte etc. gegenüberstehen, während bei vielen New Economy Betrieben keine greifbaren Gegenwerte vorhanden sind. Franz Wirl: Industriebetriebslehre Abbildung 1.6 (Quelle: Weber, S. 37, Abb.2.7.) Größe des Industriebetriebs Fortune 500 (2012) Rank ▾ Company Revenues ($ millions) Profits ($ millions) 1 Exxon Mobil 452,926.0 41,060.0 2 Wal-Mart Stores 446,950.0 15,699.0 3 Chevron 245,621.0 26,895.0 4 ConocoPhillips 237,272.0 12,436.0 5 General Motors 150,276.0 9,190.0 6 General Electric 147,616.0 14,151.0 7 Berkshire Hathaway 143,688.0 10,254.0 8 Fannie Mae 137,451.0 -16,855.0 9 Ford Motor 136,264.0 20,213.0 10 Hewlett-Packard 127,245.0 7,074.0 11 AT&T 126,723.0 3,944.0 12 Valero Energy 125,095.0 2,090.0 13 Bank of America Corp. 115,074.0 1,446.0 14 McKesson 112,084.0 1,202.0 15 Verizon Communications 110,875.0 2,404.0 16 J.P. Morgan Chase & Co. 110,838.0 18,976.0 20 Franz Wirl: Industriebetriebslehre 17 Apple 108,249.0 25,922.0 18 CVS Caremark 107,750.0 3,461.0 19 International Business Machines 106,916.0 15,855.0 20 Citigroup 102,939.0 11,067.0 21 Cardinal Health 102,644.2 959.0 22 UnitedHealth Group 101,862.0 5,142.0 23 Kroger 90,374.0 602.0 24 Costco Wholesale 88,915.0 1,462.0 25 Freddie Mac 88,262.0 -5,266.0 26 Wells Fargo 87,597.0 15,869.0 27 Procter & Gamble 82,559.0 11,797.0 28 Archer Daniels Midland 80,676.0 2,036.0 29 AmerisourceBergen 80,217.6 706.6 30 INTL FCStone 75,497.6 37.3 31 Marathon Petroleum 73,645.0 2,389.0 32 Walgreen 72,184.0 2,714.0 33 American International Group 71,730.0 17,798.0 34 MetLife 70,641.0 6,981.0 35 Home Depot 70,395.0 3,883.0 36 Medco Health Solutions 70,063.3 1,455.7 37 Microsoft 69,943.0 23,150.0 38 Target 69,865.0 2,929.0 39 Boeing 68,735.0 4,018.0 40 Pfizer 67,932.0 10,009.0 41 PepsiCo 66,504.0 6,443.0 42 Johnson & Johnson 65,030.0 9,672.0 43 State Farm Insurance Cos. 64,305.1 845.0 44 Dell 62,071.0 3,492.0 45 WellPoint 60,710.7 2,646.7 46 Caterpillar 60,138.0 4,928.0 47 Dow Chemical 59,985.0 2,742.0 48 United Technologies 58,190.0 4,979.0 49 Comcast 55,842.0 4,160.0 50 Kraft Foods 54,365.0 3,527.0 51 Intel 53,999.0 12,942.0 52 United Parcel Service 53,105.0 3,804.0 53 Best Buy 50,272.0 1,277.0 54 Lowe's 50,208.0 1,839.0 55 Prudential Financial 49,045.0 3,666.0 21 Franz Wirl: Industriebetriebslehre 56 Amazon.com 48,077.0 631.0 57 Merck 48,047.0 6,272.0 58 Lockheed Martin 46,692.0 2,655.0 59 Coca-Cola 46,542.0 8,572.0 60 Express Scripts Holding 46,128.3 1,275.8 61 Sunoco 45,765.0 -1,684.0 62 Enterprise Products Partners 44,313.0 2,046.9 63 Safeway 43,630.2 516.7 64 Cisco Systems 43,218.0 6,490.0 65 Sears Holdings 41,567.0 -3,140.0 66 Walt Disney 40,893.0 4,807.0 67 Johnson Controls 40,833.0 1,624.0 68 Morgan Stanley 39,376.0 4,110.0 69 Sysco 39,323.5 1,152.0 70 FedEx 39,304.0 1,452.0 71 Abbott Laboratories 38,851.3 4,728.4 72 DuPont 38,719.0 3,474.0 73 Google 37,905.0 9,737.0 74 Hess 37,871.0 1,703.0 75 Supervalu 37,534.0 -1,510.0 76 United Continental Holdings 37,110.0 840.0 77 Honeywell International 37,059.0 2,067.0 78 CHS 36,915.8 961.4 79 Humana 36,832.0 1,419.0 80 Goldman Sachs Group 36,793.0 4,442.0 81 Ingram Micro 36,328.7 244.2 82 Oracle 35,622.0 8,547.0 83 Delta Air Lines 35,115.0 854.0 84 Liberty Mutual Insurance Group 34,671.0 365.0 85 World Fuel Services 34,622.9 194.0 86 New York Life Insurance 34,393.5 557.3 87 Plains All American Pipeline 34,275.0 966.0 88 TIAA-CREF 34,079.0 2,388.4 89 Aetna 33,779.8 1,985.7 90 Sprint Nextel 33,679.0 -2,890.0 91 News Corp. 33,405.0 2,739.0 92 General Dynamics 32,677.0 2,526.0 93 Allstate 32,654.0 788.0 94 HCA Holdings 32,506.0 2,465.0 22 Franz Wirl: Industriebetriebslehre 23 95 American Express 32,282.0 4,935.0 96 Tyson Foods 32,266.0 750.0 97 Deere 32,012.5 2,799.9 98 Murphy Oil 31,446.3 872.7 99 Philip Morris International 31,097.0 8,591.0 100 Nationwide 30,697.8 -793.1 Quelle: http://money.cnn.com/magazines/fortune/fortune500/2012/full_list/ Tabelle 1.8 Reihung von Unternehmen in der EU nach dem Umsatz (2011) Europe Rank Company Global 500 rank City Revenues ($ millions) 1 Royal Dutch Shell 2 The Hague 378,152 2 BP 4 London 308,928 3 Total 11 Courbevoie 186,055 4 Volkswagen 13 Wolfsburg 168,041 5 AXA 14 Paris 162,236 6 ING Group 17 Amsterdam 147,052 7 Glencore International 18 Baar 144,978 8 ENI 23 Rome 131,756 9 Daimler 24 Stuttgart 129,481 10 BNP Paribas 26 Paris 128,726 11 Allianz 27 Munich 127,379 12 E.ON 29 Düsseldorf 125,064 13 Carrefour 32 Boulogne-Billancourt 120,297 14 Assicurazioni Generali 33 Trieste 120,234 15 GDF Suez 38 Courbevoie 111,888 16 Nestlé 42 Vevey 105,267 17 Crédit Agricole 43 Paris 105,003 18 HSBC Holdings 46 London 102,680 19 Siemens 47 Munich 102,657 20 Banco Santander 51 Madrid 100,350 21 Enel 56 Rome 97,185 22 Lloyds Banking Group 59 London 95,682 23 Tesco 61 Cheshunt 94,185 24 Aviva 64 London 90,211 25 Metro 65 Düsseldorf 89,081 Quelle: CNN Money, http://money.cnn.com/magazines/fortune/global500/2011/europe/ Franz Wirl: Industriebetriebslehre 24 Tabelle 1.9 Reihung von Unternehmen nach der Marktkapitalisierung Quelle: Wikipedia,Forbes Global 2000 1970 1985 Rank Company Revenue Rank Company 1 General Motors 24,295.1 1 Exxon Mobil 2000 Revenue Rank Company 90,854.0 1 General Motors 2012 Revenue Rank Company 189,058.0 1 Exxon Mobil Revenue 452,926.0 2 Exxon Mobil 14,929.8 2 General Motors 83,889.9 2 Wal-Mart Stores 166,809.0 2 Wal-Mart Stores 446,950.0 3 Ford Motor 4 General Electric Intl. Business 5 Machines 14,755.6 8,448.0 3 Mobil 4 Ford Motor 56,047.0 52,366.4 3 Exxon Mobil 4 Ford Motor 163,881.0 162,558.0 3 Chevron 4 ConocoPhillips 245,621.0 237,272.0 7,197.3 5 Texaco 47,334.0 5 General Electric 111,630.0 5 General Motors 150,276.0 6 Chrysler 7,052.2 6 45,937.0 6 Intl. Business Machines 87,548.0 6 General Electric 147,616.0 7 Mobil 6,621.4 7 DuPont 35,915.0 7 Citigroup 82,005.0 8 Texaco 9 ITT Industries 5,867.9 5,474.7 8 AT&T 9 General Electric 33,187.5 27,947.0 8 AT&T 9 Altria Group 62,391.0 61,751.0 10 Gulf Oil 4,953.3 Intl. Business Machines 10 Amoco AT&T 11 Technologies 4,883.2 11 ChevronTexaco 12 U.S. Steel 4,754.1 12 Atlantic Richfield Quelle: Eigene Darstellung, Daten:http://money.cnn.com 26,949.0 26,798.0 24,686.0 10 Boeing Bank of America 11 Corp. SBC 12 Communications 57,993.0 Berkshire Hathaway 8 Fannie Mae 9 Ford Motor Hewlett10 Packard 7 143,688.0 137,451.0 136,264.0 127,245.0 51,392.0 11 AT&T 126,723.0 49,489.0 12 Valero Energy 125,095.0 Franz Wirl: Industriebetriebslehre 25 Franz Wirl: Industriebetriebslehre 26 Franz Wirl: Industriebetriebslehre 1.5 27 Betrachtung der Unternehmen nach Rechtsformen Eine weitere Möglichkeit der Einteilung von Unternehmen besteht anhand der Rechtsform. Öffentliche Industriebetriebe, die in dieser Vorlesung nicht die Hauptrolle spielen werden, sollen an dieser Stelle der Vollständigkeit halber genannt werden. Sie können ohne eigene Rechtsform (als unselbständiger Teil von Bund, Land, Gemeinde oder als verselbständigter Teil, Eigenbetrieb) vorkommen, weiters mit Rechtsform öffentlich-rechtlichen Charakters (Körperschaft, Anstalt, Stiftung) oder mit privatrechtlicher Rechtsform. Daten über die Rechtsformen für Privatunternehmen finden sie in der nachfolgenden Tabelle. Quelle: DESTATIS, https://www.destatis.de/DE/ZahlenFakten/GesamtwirtschaftUmwelt/UnternehmenHandwerk/Unternehmensregister/Tabellen/Untern ehmenRechtsformenWZ2008.html;jsessionid=D654B76030101D02E7CCCDC42C0DB3D1.cae1 1.6 Unternehmenszusammenschlüsse Abbildung 1.7 (Quelle: Weber Abb. 2.8, S. 52) Franz Wirl: Industriebetriebslehre 28 Es werden Unternehmenszusammenschlüsse kooperativer Art und subordinativer Art unterschieden, deren Unterteilung in Abb. 1.7 (Quelle: Weber Abb. 2.8, S. 52) dargestellt ist. Als Beispiel zu den Zusammenschlüssen in Form von gegenseitigen Beteiligungen sind die derzeitige Entwicklung in der österreichischen Elektrizitätswirtschaft sowie die japanische Unternehmensform Keiretsu zu nennen. 1.6.1 Kartelle Abb. 1.8: Kartelle Einkaufskartelle Vorleistungen (Roh- und Hilfsstoffe) Maschinen und Anlagen Verkaufskartelle Marktsegmentierungskartelle (Aufspaltung des Marktes in Teilmärkte und Bearbeitung jedes Teilmarkes durch ein anderes Kartellmitglied) wie • Produktschutzkartelle • Gebietsschutzkartelle • Kundenschutzkartelle Marktuniformierungskartelle (einheitliche Bearbeitung des gemeinsamen Marktes durch die Kartellmitglieder) wie • • • • • • Normungskartelle Kalkulationskartelle Konditionenkartelle Preiskartelle Quotenkartelle Syndikate Die weitere Untergliederung der Zusammenschlussform "Kartell" ist in Abb. 1.8 (Quelle: Weber, Abb. 2.9. S. 55, adaptiert) dargestellt. Dazu ist zu sagen, dass bei Preiskartellen Preisabsprachen getroffen werden, bei Quotenkartellen die Produktionsmengen oder Marktanteile aufgeteilt werden, und bei Syndikaten sowohl Preise als auch Mengen abgesprochen werden. 1.6.2 Konzerne In der Öffentlichkeit wird unter dem Begriff "Konzern" oft einfach ein großes Unternehmen verstanden. Betriebswirtschaftlich beschreibt der Begriff einen Zusammenschluss mehrerer rechtlich selbständiger Unternehmen, gemäß Aktiengesetz (AktG) spricht man von einem Konzern, wenn eine einheitliche Leitung existiert. Man unterscheidet rechtlich gesehen Gleichordnungskonzerne (Alle Unternehmen gehen gleichwertig ein. In der Praxis ist diese Form eher selten, und wird am ehesten mit Hilfe eines Dachunternehmens verwirklicht.) und Über- bzw. Unterordnungskonzerne. Bei letzteren spricht man von einem faktischen Konzern, wenn ein Unternehmen de facto von dem an ihm beteiligten abhängig ist. Ein Vertragskonzern liegt vor, wenn ein Beherrschungsvertrag existiert. Ein institutioneller Konzern entspricht einem Eingliederungskonzern. Aus ökonomischer Sicht differenziert man Konzerne in horizontale, vertikale und Konglomerate. Bei horizontalen Konzernen handelt es sich um Unternehmen gleicher Produktionsstufe. (z.B. Fa. Volkswagen mit VW, AUDI, Skoda, Seat etc.). Vertikale Konzerne hingegen bestehen aus Unternehmen mit aufeinander folgenden Produktionsstufen. Diese Form ist derzeit nicht sehr verbreitet, früher war es jedoch in der Automobilindustrie üblich, von der Schraube bis zum fertigen Wagen alles innerhalb des Konzerns zu produzieren. Ein weiteres Beispiel sind die großen Ölfirmen, die früher vom Ölfeld bis zur Tankstelle alles abdeckten. Zur Zeit ist es in der Elektrizitätswirtschaft noch so, dass Stromerzeugung, Verteilung und Vertrieb in einer Hand sind. Diese Branche ist jedoch derzeit in Umstrukturierung begriffen. Konglomerate (oder diagonale) sind Konzerne mit Unternehmen aus verschiedensten Branchen, ohne Synergien. Als Argument für die Bildung solcher Strukturen wird manchmal die bessere Risikostreuung genannt, diese ist aber auch am Aktienmarkt möglich! Beispiel: Daimler und AEG. Abb. 1.9 fasst die unterschiedlichen Konzerntypen nochmals zusammen: Franz Wirl: Industriebetriebslehre 29 Abb. 1.9 (Quelle Weber S. 62) 1.7 1.7.1 Ziele und Nebenbedingungen von Wirtschaftsunternehmen Ziele Das vorrangige Ziel, das in der Ökonomie unterstellt wird, ist die Gewinnmaximierung. Das Problem dabei ist aber, dass eine Separation zwischen Manager und Eigentümern stattfindet, und der Manager nicht immer das Ziel verfolgt, wirklich den Gewinn zu maximieren. Ein weiteres Ziel ist die Kostenminimierung, wobei dies in einem kompetitiven Markt fast gleichbedeutend mit der Gewinnmaximierung ist. Die Rentabilität zu maximieren - im Sinne einer Maximierung der internen Zinsfüße oder der internen Renditen – würde nur dann Sinn machen, wenn unendlich viel Kapital vorhanden wäre. Außerdem gilt für die Rentabilität in den meisten Fällen das Gesetz des abnehmenden Grenzertrages, das heißt die ersten eingesetzten Geldeinheiten bringen hohe Rendite, die weiteren sukzessive weniger. Wollte man nun die Rentabilität maximieren, würde man nur wenig einsetzen, auch wenn durch zusätzlichen Kapitaleinsatz noch Geld verdient werden könnte. Eine bessere Vorgangsweise wäre, beispielsweise zu sagen: es soll der Gewinn maximiert werden, und zu diesem Zwecke führen wir nur Projekte durch, die eine bestimmte Mindestrentabilität bringen. Liquidität ist eher zu den Nebenbedingungen als zu den Zielen zu zählen. (Beispielsweise geht Oliver Hart davon aus, dass bei ausreichender Liquidität die Manager die Eigentümer des Unternehmens praktisch „ausrauben“ könnten. Deshalb sei es günstiger, das Unternehmen vom Anfang an mit großen Schulden zu belasten, so dass die Manager gezwungen wären, zum Erhalt ihres Arbeitsplatzes ihr bestes zu geben, und keine Chance bestünde, Mittel abzuzweigen, ohne den Arbeitsplatz zu vernichten.) Weitere Ziele können dann noch Marktanteile sowie Macht & Prestige (insbesondere der Manager) sein. 1.7.2 Nebenbedingungen Die wichtigsten rechtlichen Beschränkungen sollen hier nur kurz und stichwortartig aufgezählt werden. 1. Das bürgerliche Recht legt Rechtssubjekte fest, und es gilt als eine Art Faustregel der Schutz des Schwächeren (z.B.: Konsumentenschutz) 2. Im Handelsrecht wird der Kaufmann definiert. Er ist ein Rechtssubjekt mit spezifischen Pflichten, z.B. die Pflicht zur Rechnungslegung, und im deutschsprachigen Raum damit verbunden ein starker Gläubigerschutzgedanke. Weiters werden die Rechtsformen für Unternehmen festgelegt. 3. Das umfangreiche Steuerrecht beinhaltet die Vorschriften zur Umsatzsteuer, Einkommensteuer, etc. 4. Das Konkurs- oder Insolvenzrecht regelt die Abwicklung bei Zahlungsunfähigkeit. Große Unterschiede bestehen hier zwischen dem europäischen und dem angelsächsischen Bereich, wo das Chapter 11 zum Tragen kommt und das Unternehmen eine Zeit lang dem Zugriff der Gläubiger entzieht. Zunehmend wird das Insolvenzrecht auch schon bei drohender Zahlungsfähigkeit oder Überschuldung wichtig. Franz Wirl: Industriebetriebslehre 30 5. Das Wettbewerbsrecht beinhaltet unter anderem das Gesetz gegen unlauteren Wettbewerb, das Verbot irreführender Angaben, das Verbot progressiver Werbung (Schneeballsysteme), das Verbot von Verleumdung und Regelungen betreffend den Verrat von Betriebsgeheimnissen. Das Gesetz gegen Wettbewerbsbeschränkungen verbietet Kartelle (Ausnahmen: Normenkartelle, genehmigte Kartelle) und kontrolliert Unternehmenszusammenschlüsse (Ein Zusammenschluss kann untersagt werden, wenn dadurch ein marktbeherrschendes Unternehmen entsteht.) und Missbräuche. Letztere wurden im europäischen Raum nicht immer sehr sorgfältig angewandt, da oft vorgezogen wurde, nationale „Champions“ zu fördern. Im anglo-amerikanischen Raum wurden diese Regelungen jahrzehntelang sehr streng gehandhabt - manchmal genügten schon Marktanteile von 20%, damit die Fusion verhindert wurde. Unter dem Einfluss der Theorie der bestreitbaren Märkte und der Erkenntnis, dass Monopole manchmal nur temporär sind, wurde dies schließlich gelockert. 6. Beschränkungen, die dem Unternehmer vom Arbeitsrecht auferlegt werden, betreffen beispielsweise die folgenden Bereiche: Mindestlohn, Höchstarbeitszeit, Mindesturlaub, Altersgrenzen, Kündigungsschutz, Sicherheitsstandards, Schutz bestimmter Gruppen (Behinderte, Jugendliche, Mütter). 7. Das Sozialrecht regelt z.B. Arbeitgeberbeiträge zu Kranken, Pflege und Pensionsversicherung, Sozialplan bei Betriebsschließung, Abfertigungen, Mitbestimmungsrecht, Betriebsrat, Arbeitnehmervertreter im Aufsichtsrat (siehe Bank Austria) 8. Das Umweltrecht beinhaltet Gesetze zum Schutz von Boden, Luft und Wasser, weiters Immissions(wie hoch darf die Konzentration eines Schadstoffes an einem bestimmten Ort sein) und Emissionsgrenzwerte (wieviel darf ausgestoßen werden), Müllbeseitigung etc. Gerade bezüglich der Festlegung von Schadstoffgrenzwerten entstehen häufig Diskussionen darüber, in welcher Höhe diese angesetzt werden sollen. Empirisch sind hier häufig Ineffizienzen festzustellen, dergestalt, dass Maßnahmen gefordert werden, die teurer, aber weniger wirkungsvoll sind als andere. 9. Bezüglich Außenwirtschaftsrecht ist zu erwähnen, dass es sehr offen und liberal ist. Einschränkungen gibt es aber im Bereich von Waffen (Kriegsmaterialgesetz) oder Drogen. 1.8 The Global Car Industry Franz Wirl: Industriebetriebslehre 31 1.8.1 General Motors 2 DELAYED for years by GM’s mounting financial problems, then its bankruptcy and government bail-out, the promised revamp of the carmaker’s classic Corvette Stingray at times looked like it might never happen. But on January 13th, on the eve of the Detroit motor show, a gang of reporters and a crowd of sports-car enthusiasts (who paid $1,200 a ticket) gathered in an abandoned warehouse in a rundown part of the Motor City and, at last, to the sound of wailing guitars, the new “Little Red Corvette” drove onto the stage. It won wild applause, even from the hard-bitten hacks. Things got even better for GM the next morning, when its Cadillac ATS sedan took the show’s top prize, the North American Car of the Year. This boosted GM’s hopes that Cadillac, its premium brand, can begin to catch up with pricey European marques such as BMW and Range Rover among the emerging world’s new rich. The Corvette’s rave reception likewise lifts GM’s dreams of elevating its image from “successful plumber’s car”, as an executive recently put it, to being a must-have high-performance model for the global elite, up there with Porsche and Ferrari. After years as a basket-case, pilloried as “Government Motors”, GM is back in profit, stepping up its output and creating jobs again. Mark Reuss, its North America boss, believes the double boost at this week’s show will help it gain momentum by fostering the sense that it is winning again: “Winning can be very contagious,” he said. “Halo” cars like the Corvette do not sell in big enough numbers to have much effect on overall profits, but they do create a sense of excitement around a brand, drawing buyers to showrooms, where they may end up buying more regular models. Far more important for sales and profits among GM’s launches at Detroit was the new version of its best-selling model, the Silverado pickup truck. Unlike Europeans, Americans love pickups, and will pay handsomely for them: profits on them can be around $15,000 a unit, compared with maybe $4,000 or less for regular cars. The new models unveiled this week are the start of what may be the most drastic overhaul of GM’s range in its century-plus of history, as it refreshes a line-up that was starved of investment and left to go stale 2 The Economist, January 19th 2013, p55-56, General Motors. Now it’s time to step on the gas. GM has emerged stronger from the crisis but it is not yet in the fast lane. Franz Wirl: Industriebetriebslehre 32 following the bail-out. In the next year or so, reckons Peter Nesvold of Jefferies, an investment bank, models representing about half of GM’s entire sales volume will be replaced. The next year will be crucial for other reasons. GM’s boss, Dan Akerson, hopes to persuade credit-rating agencies to restore the firm to “investment grade” in 2013—it has been rated “junk” since 2005. More important, the US Treasury plans to sell its remaining 19% stake, erasing the stigma of Government Motors. 7 8 9 10 11 12 13 14 15 16 17 18 But GM badly needs that new line-up. In its American home market, its share slipped from 19.6% to just 17.9% last year, the lowest since GM’s rise to preeminence under the leadership of Alfred Sloan in the 1920s. Although its worldwide sales last year rose by 2.9% to 9.2m vehicles, its best since 2007, its global share slipped by 0.4 points to 11.5%. It looks like being deposed as number one carmaker by a resurgent Toyota, with an expected 9.7m sales. And it is feeling the hot sausage-breath of Germany’s Volkswagen on its neck: VW’s relentless drive to become world leader took it to just under 9.1m sales. 19 20 21 22 23 24 25 GM is well ahead of Ford and Chrysler, its Detroitbased rivals, in the Chinese market, now the world’s biggest, where GM is profiting from its booming joint ventures with local makers. But growth in Chinese car sales has slowed markedly in the past two years, and there are also signs of excess capacity in Brazil, another big money-spinner for GM. GM is alive and Osama bin Laden is dead, as Vice-president Joe Biden quips, which is great but not enough. Its shares, at around $30, are below the $33 at which it was refloated on the stockmarket in 2010, and way below the $70 now needed, after a recent share buy-back by GM, for America’s taxpayers to break even on the $50 billion they put into the firm in its bail-out. In the buy-back GM paid the US Treasury $27.50 a share, reducing its stake from 26% to 19% (Canada’s federal government and Ontario’s provincial administration together own a further 9%). A recent analysis by Morgan Stanley, another investment bank, foresaw the shares reaching perhaps $47 if, among other things, American car sales rose again this year. The report also considered a bull case in which the shares soar to $72, but that depended on GM finding someone to take its perpetually loss-making European division, Opel-Vauxhall, off its hands without a dowry. Opel has lost around $18 billion since 1999 and, despite recent management shuffles and plans to break even by mid-decade, the red ink may keep flowing, given the dire state of Europe’s car market. Opel is building an alliance with Peugeot, an equally ailing French carmaker, in which they will share overheads, work together on various types of car and engine, and hope to save $1 billion a year each by 2016. This week, amid rumours that Peugeot might buy Opel, Mr Akerson reiterated that it was not for sale. Profits and platforms Although nowhere near as big a problem as Opel, GM’s American operation has let its stocks of some models build in recent months, trying to shift them through big sales incentives. This worries analysts like Joe Philippi of AutoTrends Consulting, who recalls how GM brought about its downfall by overproducing unwanted cars and selling them at a loss. Mr Akerson promises to cut GM’s incentives to around the industry average. But as GM brings in all its new models, it may struggle to clear stocks of the old ones without giveaway prices. Of the Detroit big three, Chrysler—also bailed out by the government before gaining Fiat of Italy as its controlling shareholder—was the only one whose American market share rose last year. Like GM, Ford suffered a slight fall as Toyota and Honda recovered from their post-tsunami troubles. But Ford’s image has been burnished by the remarkable improvement in its profitability, even though it avoided bankruptcy and thus had no reprieve from its debts and other liabilities. Mr Nesvold points to one figure that best illustrates how Ford has made much greater efficiency gains and cost cuts than its bigger rival: North American pre-tax margins at Ford are now 11-12%, a level unthinkable a few years ago. GM’s are still about half of that. Franz Wirl: Industriebetriebslehre 33 Besides its stale model range, the other main reason for GM’s modest profit recovery is its slow progress in standardising the “platforms”, on which its cars’ bodies and interiors are built. By this year Ford plans to use just nine common platforms for 85% of all the vehicles it builds worldwide. Although GM has successfully reinvented Chevrolet as a global mass-market brand—60% of its sales are now outside America—it has lagged Ford, and VW, in using common platforms to bring down development and production costs. GM also needs to be bolder in cutting costs in other areas. Despite Mr Akerson’s image as a nononsense former naval officer, and a few top-level departures, few see signs of the tough action that Wall Street clamours for, to trim GM’s notorious bureaucracy. It is inevitable that comparisons are being made between Mr Akerson’s management style and that of his counterparts. One bold decision Mr Akerson has taken since becoming boss in 2010 has been to reverse the outsourcing of GM’s massive IT systems, after realising how central they now are to its business (see our special report this week). He hopes that regaining control of the company’s software systems will make it easier and quicker to change the way it does business, and give managers a clearer view of how much profit each vehicle produces (or not). This will take time, as will the revamp of GM’s models, the struggle to stanch losses in Europe and Mr Akerson’s battle with the company’s internal bureaucracy. It seems unlikely that GM will revert to being the chronic loser it once was, but it will be another year, maybe two, before it is clear if it has been reborn as a winner, or just a plodder. 1.9 Literaturhinweis: Weber, Helmut Kurt: Industriebetriebslehre / - 3., neubearb. Aufl. – Berlin [u.a.] : Springer, 1999. (Springer-Lehrbuch) Seite 1-107. Franz Wirl: Industriebetriebslehre 34 2 Optimale Entscheidungen Wie im letzten Kapitel dargelegt wurde ist des Aufgabe jeweils ein Ziel (Gewinn oder Kosten) unter Nebenbedingungen zu maximieren. Grundlage für alle Managemententscheidungen ist die Entscheidungstheorie, die beschreibt, wie man rational (oder optimal) unter bestimmten Umständen entscheidet. Grundlage dafür ist ein Ansatz der auf John von Neumann und Oskar Morgenstern zurückgeht. Diesem normativen Aspekt stehen psychologische fallen gegenüber, die großteils evolutionär bedingt sind, denn der homo sapiens sapiens ist genetisch identisch mit dem Steinzeitmenschen nach dem Motto, man kann den Menschen aus der Savanne nehmen, aber nicht die Savanne aus dem Menschen. Ein weiterer wichtiger Punkt für rationale Entscheidungen vor allem im Managementbereich betrifft die entsprechenden Methode um die Erreichung von Firmenzielen zu optimieren. 2.1 (Rationale) Entscheidungstheorie Rationale Entscheidungen folgen aus dem Erwartungsnutzenkalkül von John von Neumann und Oskar 3 Morgenstern, wobei Daniel Bernoulli mit seiner Lösung des St. Petersburger Paradoxons der wichtigste Vorläufer war, weil der Erwartungswert alleine nicht genügend Information liefert. Axiome der von Neumann-Morgenstern Nutzenfunktion haben teilweise unterschiedliche Namen und sind in unterschiedlichen Ausprägungen formuliert: Dabei sind die ersten beiden immer gleich und identisch zur ordinalen Nutzentheorie 1. Vergleichbarkeit aller Alternativen mit besser, schlechter oder indifferent. 2. Transitivität: Wenn eine Präferenz von A > B (A über B) und B > C dann muss auch A > C sein, sonst wäre die Präferenzordnung widersprüchlich. Die beiden weiteren wichtigen sind die der 3. Stetigkeit 4. Unabhängigkeit (von irrelevanten Alternativen) Alternative Angaben sind: • Completeness: For any 2 gambles g and g' in G, either g preferences over all lotteries, and can rank them all. g' or g' g. In English, this means that people have • Transitivity: For any 3 gambles g, g', and g" in G, if g g' and g' g", then g g". In English, if g is preferred (or indifferent) to g', and g' is preferred (or indifferent) to g", then g is preferred (or indifferent) to g". • Continuity: Mathematically, this assumption states that the upper and lower countour sets of a preference relation over lotteries are closed. Along with the other axioms, continuity is needed to ensure that for any gamble in G, there exists some probability such that the decision-maker is indifferent between the "best" and the "worst" outcome. This may seem irrational if the best outcome were, say, $1,000, and the worst outcome was being run over by a car. However, think of it this way - most rational people might be willing to travel across town to collect a $1,000 prize, and this might involve some probability, however tiny, of being run over by a car. • Monotonicity: This big ugly word simply means that a gamble which assigns a higher probability to a preferred outcome will be preferred to one which assigns a lower probability to a preferred outcome, as long as the other outcomes in the gambles remain unchanged. In this case, we're referring to a strict preference over outcomes, and don't consider the case where the decision-maker is indifferent between possible outcomes. • Substitution: If a decision-maker is indifferent between two possible outcomes, then they will be indifferent between two lotteries which offer them with equal probabilities, if the lotteries are identical in every other way, i.e., the outcomes can be substituted. So if outcomes x and y are indifferent, then one is indifferent between a lottery giving x with probability p, and z with probability (1-p), and a lottery giving y with probability p, and z with probability (1-p). Similarly, if x is preferred to y, then a lottery giving x with probability p, and z with probability (1-p), is preferred to a lottery giving y with probability p, and z with probability (1-p). Note: This last axiom is frequently referred to as the Independence axiom, since it refers to the Independence of Irrelevant Alternatives (IIA). Rangordnung der Alternativen: Man sollte in der Lage sein zwischen zwei Alternativen zu unterscheiden. Weiters sollte man die verschiedenen Alternativen gleich oder unterschiedlich bewerten. 3 eine Münze wird solange geworfen, bis zum ersten Mal „Kopf“ erscheint. Sollte dies beim ersten Wurf der Fall sein, erhält der Spieler 1 €, beim 2. Wurf 2 €, beim 3. Wurf 4 € usw. Obwohl der erwartete Gewinn unendlich ist, sind nur wenige bereit einen hohen Einsatz ex-ante zu setzen. Franz Wirl: Industriebetriebslehre 35 Transitivität: Wenn eine Präferenz von A > B (A über B) und B > C dann muss auch A > C sein, sonst wäre die Präferenzordnung widersprüchlich. Kontinuität: Ein Spieler sollte immer das Spiel zwischen dem besten und schlechtesten Ergebnis wählen und daraus folgt ein sicheres mittleres Ergebnis. Dominanztheorie: Bei den rationalen Entscheiden sollten keine Strategien angewendet werden, welche von anderen Strategien dominiert werden. (Kurz: keine Wahl treffen, die von einer anderen dominiert wird.) Beständigkeit: Das Prinzip der Beständigkeit setzt fest, dass der Entscheidende nicht von der Art der vorliegenden Alternativen beeinträchtigt werden sollte. Zum Beispiel sollte ein rationaler Entscheider keine Präferenz zwischen einem zusammengesetzten (compound) Lotteriespiel und einem simplen Lotteriespiel haben. 2.2 Psychologische Fallstricke 2.2.1 Allais Paradoxon Maurice Allais (späterer Ökonomie-Nobelpreisträger) schrieb in den 50-er Jahren seine Kollegen an und konfrontierte mit der Wahl zwischen zwei Lotterien: Situation (A), Wahl zwischen zwei Lotterien: 1. Lotterie L1 garantiert sicheren Gewinn von $30, 2. Lotterie L2: mit 80% ein Gewinn von $45 und kein Gewinn mit 20% Wahrscheinlichkeit. Typischerweise wird L1 gegenüber L2 bevorzugt (revealed preference). Situation (B): Wieder Wahl zwischen zwei Lotterien 1. K1 verspricht eine 25% Chance auf den Gewinn von $30, 2. K2 eine 20% Chance auf $45. Hier wird typischerweise K2 bevorzugt. Jedoch die Wahl von L1 unter A und von K2 unter B widerspricht der Erwartungsnutzentheorie, sind doch im Fall B nur die Wahrscheinlichkeiten durch 4 dividiert! Assume the typical subject decides among lotteries in the following way. To each of the basic outcomes, a number is assigned that indicates its attractiveness; say u(0) = 0, u(45) = 1, and u(30) = v (0 < v <1). The overall attractiveness of a lottery (compared to another lottery) derives as the sum of the outcomes' elementary attractivenesses, weighted by their respective probabilities. Among two lotteries, the preferred one is that which offers a higher expected level of overall attractiveness. In this way, the decision maker forms a von Neumann Morgenstern utility function over deterministic outcomes, the expectation of which provides the criterion for choosing among uncertain outcomes, such as lotteries. Now in situation A, the revealed preference of L1 over L2 implies u(30) > 0.8 u(45), or v > 0.8; while the revealed preference of K2 over K1 in situation B shows that 1/4 v < 1/5, or v < 0.8. 2.2.2 Rabin (2000) Rabin and Thaler, 2001 p. 222: „Suppose, for instance, we know that a risk-averse person turns down 5050 lose-$100-or-gain-$105 bets for any lifetime wealth level less than (say) $ 350,000, but know nothing about his or her utility function for wealth levels above $ 350,000, except that it is not convex. Then we know that from an initial wealth level of $ 340,000 the person will turn down a 50-50 bet of losing $ 4,000 and gaining $ 635,670.” Risikoaversion versus Erwartungsnutzenmodell (basierend auf Larry Samuelson, Economic Theory and Experimental Economics, Journal of Economic Literature XLIII, 65-107, 2005): Matthew Rabin (2000) (see also Rabin and Richard H. Thaler 2001) presents an argument against the expected utility hypothesis (as a description of actual behaviour) that we illustrate with the following example. Suppose Alice would rather take $95.00 with certainty than face a lottery that pays nothing with probability ½ and $200 with probability ½. Suppose further that Alice would make this choice no matter what her wealth. Then either the standard model of utility maximization does not apply, or Alice is absurdly risk averse. To see the reasoning behind this argument, assume that Alice has a differentiable utility function U( ω) over her level of wealth ω, with (at least weakly) decreasing marginal utility. Alice’s choice implies that the utility of an extra 95 dollars is more than half the utility of an extra 200 dollars. This implies that Franz Wirl: Industriebetriebslehre 36 ½200U’( ω+200) < 95U’( ω), where ω is Alice’s current wealth and U’(ω) is the largest marginal utility found 4 in the interval [ ω, ω+200] and U’( ω+200) is the smallest marginal utility in that interval. Simplifying, we have, for any wealth ω U ′(ω + 200) ≤ 19 U ′(ω ). 20 (1) Now letting ω0 be Alice’s initial wealth level and stringing such inequalities together, it follows that, for any ω, no matter how large, Alice’s utility U( ω) satisfies U (ω ) ≤ U (ω0 ) + 200U ′(ω0 ) + 200U ′(ω0 + 200) + 200U ′(ω0 + 400) + 200U ′(ω0 + 600) + 2 2 19 19 ≤ U (ω0 ) + 200U ′(ω0 ) + U ′(ω0 ) + U ′(ω0 ) + 2 20 20 19 = U (ω0 ) + 200U ′(ω0 ) / 1 − 20 = U (ω0 ) + 4000U ′(ω0 ). Where the first inequality breaks [0,∞] into intervals of length 200 and assumes that the maximum possible marginal utility holds throughout each interval, the second repeatedly uses (1), and the remainder is a straightforward calculation. Now consider a loss of 3000. A similar argument shows that the utility U( ω0 - 3000) must satisfy U (ω0 − 3000) ≤ U (ω0 ) − 200U ′(ω0 ) − 200U ′(ω0 − 200) − 2 − 200U ′(ω0 − 2800) 14 20 20 ′ ′ ′ ≤ U (ω0 ) − 200U (ω0 ) + × U (ω0 ) + 2 + U (ω0 ) 19 19 ≤ U (ω0 ) − 4400U ′(ω0 ). Comparing these two results, we have that for any X > 0, 1 1 U (ω0 − 3000) + U (ω0 + X ) ≤ U (ω0 ) − 400U ′(ω0 ) < U (ω0 ). 2 2 Hence, there is no positive amount of money X, no matter how large, that would induce Alice, no matter how wealthy, to accept a fifty/fifty lottery of losing 3000 and winning X. Risk aversion over relatively small stakes thus implies absurd risk aversion over larger stakes. Risk aversion over small stakes seems quite reasonable and is consistent with laboratory evidence (e.g., Holt and Susan K. Laury 2002). How do we reconcile this with the seeming absurdity of the implied behavior over larger stakes? Taking it for granted that people are not so risk averse over large stakes, Rabin (2000) and Rabin and Thaler (2001) suggest that the expected-utility model should be abandoned. This conclusion poses a puzzle for experimental practice. The use of lottery payoffs appears to be either unnecessary (because subjects are risk neutral over the relatively modest sums paid in experiments) or necessarily ineffective (because subjects are risk averse over small sums, and hence cannot be expected-utility maximizers). The argument is even more challenging for economic theory, where expected-utility maximization is firmly entrenched. 2.2.3 nach Kahneman 5 Daniel Kahneman, now a professor at Princeton, noticed as a young research psychologist in the 1960s that the logic of decision science was hard for people to accept. That launched him on a career to show Hence, 95U’(ω) is an upper bound on the utility of an extra 95 dollars, and 200U’(ω+200)a lower bound on the utility of an extra 200 dollars. Rabin (2000) contains additional examples and shows that the argument extends beyond the particular formulation presented here. 4 5 Freud, finance and folly, aus The Economist, A Survey of Risk (Living Dangerously), January 24th, 2004, p5-8. Franz Wirl: Industriebetriebslehre 37 just how irrationally people behave in practice. When Mr Kahneman and his colleagues first started work, the idea of applying psychological insights to economics and business decisions was considered quirky. But in the past decade the fields of behavioural finance and behavioural economics have blossomed, and in 2002 Mr Kahneman shared a Nobel prize in economics for his work. Today he is in demand by organisations such as McKinsey and PartnerRe, and by Wall Street traders. But, he says, there are plenty of others that still show little interest in understanding the roots of their poor decisions. The lesson from the analyst's couch is that, far from being random, these mistakes are systematic and predictable: •Over-optimism. Ask most people about the future, and they will see too much blue sky ahead, even if past experience suggests otherwise. Surveys have shown that people's forecasts of future stockmarket movements are far more optimistic than past long-term returns would justify. The same goes for their hopes of ever-rising prices for their homes or doing well in games of chance. In a recent study of Dutch game-show contestants, people's estimates of their odds on winning were around 25% too high. Americans are perhaps the most optimistic: according to one poll, around 40% of them think they will end up among the top 1% of earners. Such optimism can be useful for managers or football players, and sometimes turns into a self-fulfilling prophecy. But most of the time it results in wasted effort and dashed hopes. Mr Kahneman's work points to three types of over-confidence. First, people tend to exaggerate their own skill and prowess; in polls, far fewer than half the respondents admit to having below-average skills in, say, love-making or driving. Second, they overestimate the amount of control they have over the future, forgetting about luck and chalking up success solely to skill. And third, in competitive pursuits such as betting on shares, they forget that they have to judge their skills against those of the competition. •The anchor effect. First encounters tend to be decisive not only in judging the character of a new acquaintance but also in negotiations over money. Once a figure has been mentioned, it takes a strange hold over the human mind. The asking price quoted in a house sale, for example, tends to become accepted by all parties as the “anchor” around which negotiations take place, according to one study of property brokers. Much the same goes for salary negotiations or mergers and acquisitions. If nobody has much information to go on, a figure can provide comfort—even though it may lead to a terrible mistake. •Stubbornness. No one likes to abandon a cherished belief, and the earlier a decision has been taken, the harder it is to give up. In one classic experiment, two groups of students were shown slides of an object, say a fire hydrant or a pair of spectacles. The slides started out of focus and were gradually made clearer until the students could identify the object. Those who started with a very blurry image tried to decide early and then found it difficult to identify it correctly until quite late in the process, whereas those who started less out of focus kept a more open mind and cottoned on more quickly. The same sort of thing happens in boardrooms or in politics. Drug companies must decide early to cancel a failing research project to avoid wasting money, but find it difficult to admit they have made a mistake. Bosses who have hired unproductive employees are reluctant to fire them. Mr Kahneman cites the example of Israel's failure to spot growing threats in the lead-up to its 1973 war with its Arab neighbours. Part of the explanation was that the same people who had been watching the change in political climate had to decide on Israel's response. Similar problems have arisen in recent counter-terrorism work in America. In both cases, analysts may have become wedded early to a single explanation that coloured their perception. A fresh eye always helps. •Getting too close. People put a lot of emphasis on things they have seen and experienced themselves, which may not be the best guide to decision-making. For example, many companies took action to guard against the risk of terrorist attack only after September 11th, even though it was present long before then. Or somebody may buy an overvalued share because a relative has made thousands on it, only to get his fingers burned. In finance, too much emphasis on information close at hand helps to explain the so-called “home bias”, a tendency by most investors to invest only within the country they live in. Even though they know that diversification is good for their portfolio, a large majority of both Americans and Europeans invest far too heavily in the shares of their home countries. They would be much better off spreading their risks more widely. •Winning and losing. Fear of failure is a strong human characteristic, which may be why people are much more concerned about losses than about gains. Consider the following bet: with the flip of a coin, you could win $1,500 if the coin turns up heads, or lose $1,000 on the tails. Now describe it in another way: with heads, you keep all the money you had before the bet, plus $1,500; with tails, you also keep everything, except $1,000. The two bets are identical, and each one, on average, will make you richer by Franz Wirl: Industriebetriebslehre 38 $250 (although that average will be little consolation to the punter who has just lost $1,000). Even so, people will usually prefer the second bet. Behavioural economists say that is because the prospect of losses seems far more daunting in isolation, rather than in the context of looking at your entire wealth, even if the average outcome is the same. This sort of myopia in the face of losses explains much of the irrationality people display in the stockmarket. •Misplaced priorities. More information is helpful in making any decision but, says Mr Kahneman, people spend proportionally too much time on small decisions and not enough on big ones. They need to adjust the balance. During the boom years, some companies put as much effort into planning their Christmas party as into considering strategic mergers. •Counterproductive regret. Crying over spilled milk is not just a waste of time; it also often colours people's perceptions of the future. Some stockmarket investors trade far too frequently because they are chasing the returns on shares they wish they had bought earlier. Mr Kahneman reckons that some types of businesses are much better than others at dealing with risk. Pharmaceutical companies, which are accustomed to many failures and a few big successes in their drug-discovery programmes, are fairly rational about their risk-taking. But banks, he says, have a long way to go. They may take big risks on a few huge loans, but are extremely cautious about their much more numerous loans to small businesses, many of which may be less risky than the big ones. But at least when businesses try to assess their risks, they have to worry only about making money. Governments, on the other hand, face a whole range of sometimes conflicting political pressures. This makes them even more likely to take irrational decisions. 2.2.4 6 • Status quo-Falle - biases us toward maintaining the current situation--even when better alternatives exist. Beispiele: Versicherung (default mit Austritt als Option bzw. oder nur freiwillig), Organspender. • Die Sunk Cost Falle (ähnlich zu Counterproductive regret) inclines us to perpetuate the mistakes of the past. • Framing (ähnlich zu anchoring, in den Worten der Autoren “leads us to give disproportionate weight to the first information we receive“) – Verlust versus Gewinn, unterschiedliche Referenzpunkte. • Endowment Effekt (wertvolle, geschenkte Flasche Wein, die man niemals selbst kaufen würde), d.h. Unterschiede in der Zahlungsbereitschaft für etwas, bzw. der Akzeptanz einer Aufgabe eines Stückes (WTP versus WTA). • Unterschätzen der Anpassungsfähigkeit (z.B. der Wert einer Pragmatisierung wird ex-ante stark überschätzt). • Vorsichtsfalle (leads us to be overcautious when we make estimates about uncertain events), Bsp Produktionspläne • Recall, ähnlich zu getting close (leads us to give undue weight to recent, dramatic events) oder wenn Entscheidungen durch vergangene Beobachtungen bzw. ev. erfolgreiche Interventionen (Kapitän Queeg, in „Die Caine war ihr Schicksal“) beeinflusst werden. • Bestätigende Evidenz leads us to seek out information supporting an existing predilection and to discount opposing information (Bsp., das Auto das man selbst fährt sieht man viel öfter als der relativen Häufigkeit entspricht). 2.2.5 6 Anomalien nach Hammond, Keeney and Raiffa Weiteres • Reziprozität ≠ Altruismus (Fehr-Schmidt, Bolton-Ockenfels) wird in Ultimatum-, Diktator- und in öffentlichen-Gut-Spielen beobachtet. • Erwartungsnutzenmodell Nachfrageinteraktionen). • Hohe Diskontraten und hyperbolisches Diskontieren. liefert gute Ergebnisse in Marktspielen (Angebot- John S. Hammond, Ralph L. Keeney and Howard Raiffa, Smart Choices, Harvard Business School Press, 1999. und Franz Wirl: Industriebetriebslehre • 2.3 39 Dauer und Endeffekte: Probanden bevorzugten längere (also dominierte) Prozeduren kürzeren, wenn die längeren relativ positiv endeten (etwa zum Schluss eine weitere Minute im klaten aber o um 1 erhöhten Wasser). Risikomaße und -prämien Arrow-Pratt Maß absoluter (AR) und relativer Risikoaversion (RR) Risikoprämie. Ein Problem bei Standardberechnung des Kapitalwertes einer Nutzenbewertung (also nach NeumannMirgenstern), dass die obigen Maße für die Risikobewertung gleichzeitig das Maß für die intertemporale Substitution sind, obwohl dies zumindest konzeptionell zumindest zwei unterschiedliche Paar Schuhe sind. 2.4 2.4.1 Management Decisions 7 A Brief History of Decision Making by Leigh Buchanan and Andrew O’Connell Sometime in the midst of the last century, Chester Barnard, a retired telephone executive and author of The Functions of the Executive, imported the term “decision making” from the lexicon of public administration into the business world. There it began to replace narrower descriptors such as “resource allocation” and “policy making.” The introduction of that phrase changed how managers thought about what they did and spurred a new crispness of action and desire for conclusiveness, argues William Starbuck, professor in residence at the University of Oregon’s Charles H. Lundquist College of Business. “Policy making could go on and on endlessly, and there are always resources to be allocated,” he explains. “‘Decision’ implies the end of deliberation and the beginning of action.” So Barnard—and such later theorists as James March, Herbert Simon, and Henry Mintzberg—laid the foundation for the study of managerial decision making. But decision making within organizations is only one ripple in a stream of thought flowing back to a time when man, facing uncertainty, sought guidance from the stars. The questions of who makes decisions, and how, have shaped the world’s systems of government, justice, and social order. “Life is the sum of all your choices,” Albert Camus reminds us. History, by extrapolation, equals the accumulated choices of all mankind. The study of decision making, consequently, is a palimpsest of intellectual disciplines: mathematics, sociology, psychology, economics, and political science, to name a few. Philosophers ponder what our decisions say about ourselves and about our values; historians dissect the choices leaders make at critical junctures. Research into risk and organizational behavior springs from a more practical desire: to help managers achieve better outcomes. And while a good decision does not guarantee a good outcome, such pragmatism has paid off. A growing sophistication with managing risk, a nuanced understanding of human behavior, and advances in technology that support and mimic cognitive processes have improved decision making in many situations. Even so, the history of decision-making strategies is not one of unalloyed progress toward perfect rationalism. In fact, over the years we have steadily been coming to terms with constraints—both contextual and psychological—on our ability to make optimal choices. Complex circumstances, limited time, and inadequate mental computational power reduce decision makers to a state of “bounded rationality,” argues Simon. While Simon suggests that people would make economically rational decisions if only they could gather enough information, Daniel Kahneman and Amos Tversky identify factors that cause people to decide against their economic interest even when they know better. Antonio Damasio draws on work with brain-damaged patients to demonstrate that in the absence of emotion it is impossible to make any decisions at all. Erroneous framing, bounded awareness, excessive optimism: the debunking of Descartes’s rational man threatens to swamp our confidence in our choices, with only improved technology acting as a kind of empirical breakwater. Faced with the imperfectability of decision making, theorists have sought ways to achieve, if not optimal outcomes, at least acceptable ones. Gerd Gigerenzer urges us to make a virtue of our limited time and knowledge by mastering simple heuristics, an approach he calls “fast and frugal” reasoning. Amitai Etzioni proposes “humble decision making,” an assortment of nonheroic tactics that include tentativeness, delay, and hedging. Some practitioners, meanwhile, have simply reverted to the old ways. Last April, a Japanese television equipment manufacturer turned over its $20 million art collection to Christie’s when 7 Harvard Business Review, January 2006. Franz Wirl: Industriebetriebslehre 40 the auction house trounced archrival Sotheby’s in a high-powered round of rock-paper-scissors, a game that may date back as far as Ming Dynasty China. In this special issue on decision making, our focus—as always—is on breaking new ground. What follows is a glimpse of the bedrock that lies beneath that ground. Chances Are Risk is an inescapable part of every decision. For most of the everyday choices people make, the risks are small. But on a corporate scale, the implications (both upside and downside) can be enormous. Even the tritely expressed (and rarely encountered) win-win situation entails opportunity costs in the form of paths not taken. To make good choices, companies must be able to calculate and manage the attendant risks. Today, myriad sophisticated tools can help them do so. But it was only a few hundred years ago that the risk management tool kit consisted of faith, hope, and guesswork. That’s because risk is a numbers game, and before the seventeenth century, humankind’s understanding of numbers wasn’t up to the task. A History of Choice We created this time line to remind readers that the history of decision making is long, rich, and diverse. We recognize that it presents only a tiny sample of the people, events, research, and thinking that have contributed to our current understanding of this subject. Many dates are approximate. Prehistory For millennia, human decisions are guided by interpretations of entrails, smoke, dreams, and the like; hundreds of generations of Chinese rely on the poetic wisdom and divination instructions compiled in the I Ching. The Greeks consult the Oracle of Delphi. Prophets and seers of all kinds peer into the future. Sixth Century BC Lao-tzu teaches the principle of “nonwillful action”: letting events take their natural course. Confucius says decisions should be informed by benevolence, ritual, reciprocity, and filial piety. Fifth Century BC Male citizens in Athens, in an early form of democratic self-government, make decisions by voting. Fourth Century BC Plato asserts that all perceivable things are derived from eternal archetypes and are better discovered through the soul than through the senses. Aristotle takes an empirical view of knowledge that values information gained through the senses and deductive reasoning. 399 BC In an early jury-trial decision, 500 Athenian citizens agree to send Socrates to his death. 333 BC Alexander the Great slices through the Gordian knot with his sword, demonstrating how difficult problems can be solved with bold strokes. 49 BC Julius Caesar makes the irreversible decision to cross the Rubicon, and a potent metaphor in decision making is born. Ninth Century The Hindu-Arabic number system, including zero, circulates throughout the Arab empire, stimulating the growth of mathematics. Eleventh Century Omar Khayyám uses the Hindu-Arabic number system to create a language of calculation, paving the way for the development of algebra. Fourteenth Century Franz Wirl: Industriebetriebslehre 41 An English friar proposes what became known as “Occam’s razor,” a rule of thumb for scientists and others trying to analyze data: The best theory is the simplest one that accounts for all the evidence. Seventeenth Century Stable keeper Thomas Hobson presents his customers with an eponymous “choice”: the horse nearest the door or none. 1602 Hamlet, facing arguably the most famous dilemma in Western literature, debates whether “to be, or not to be.” 1620 Francis Bacon asserts the superiority of inductive reasoning in scientific inquiry. 1641 René Descartes proposes that reason is superior to experience as a way of gaining knowledge and establishes the framework for the scientific method. 1654 Prompted by a gamblers’ question about the “problem of points,” Blaise Pascal and Pierre de Fermat develop the concept of calculating probabilities for chance events. 1660 Pascal’s wager on the existence of God shows that for a decision maker, the consequences, rather than the likelihood, of being wrong can be paramount. 1738 Daniel Bernoulli lays the foundation of risk science by examining random events from the standpoint of how much an individual desires or fears each possible outcome. Nineteenth Century Carl Friedrich Gauss studies the bell curve, described earlier by Abraham de Moivre, and develops a structure for understanding the occurrences of random events. 1880 Oliver Wendell Holmes, in a series of lectures later published as The Common Law, puts forth the thesis that “the life of the law has not been logic; it has been experience.” Judges, he argues, should base decisions not merely on statutes but on the good sense of reasonable members of the community. 1886 Francis Galton discovers that although values in a random process may stray from the average, in time they will trend toward it. His concept of regression to the mean will influence stock and business analysis. 1900 Sigmund Freud’s work on the unconscious suggests that people’s actions and decisions are often influenced by causes hidden in the mind. 1907 Economist Irving Fisher introduces net present value as a decision-making tool, proposing that expected cash flow be discounted at a rate that reflects an investment’s risk. 1921 Frank Knight distinguishes between risk, in which an outcome’s probability can be known (and consequently insured against), and uncertainty, in which an outcome’s probability is unknowable. 1938 Chester Barnard separates personal from organizational decision making to explain why some employees act in the firm’s interest rather than in their own. 1944 Franz Wirl: Industriebetriebslehre 42 In their book on game theory, John von Neumann and Oskar Morgenstern describe a mathematical basis for economic decision making; like most theorists before them, they take the view that decision makers are rational and consistent. 1946 The Alabe Crafts Company of Cincinnati markets the Magic 8 Ball. 1947 Rejecting the classical notion that decision makers behave with perfect rationality, Herbert Simon argues that because of the costs of acquiring information, executives make decisions with only “bounded rationality”—they make do with good-enough decisions. 1948 Project RAND, its name a contraction of “research and development,” separates from Douglas Aircraft and becomes a nonprofit think tank. Decision makers use its analyses to form policy on education, poverty, crime, the environment, and national security. 1950s Research conducted at the Carnegie Institute of Technology and MIT will lead to the development of early computer-based decision support tools. 1951 Kenneth Arrow introduces what becomes known as the Impossibility Theorem, which holds that there can be no set of rules for social decision making that fulfills all the requirements of society. 1952 Harry Markowitz demonstrates mathematically how to choose diversified stock portfolios so that the returns are consistent. 1960s Edmund Learned, C. Roland Christensen, Kenneth Andrews, and others develop the SWOT (strengths, weaknesses, opportunities, threats) model of analysis, useful for making decisions when time is short and circumstances complex. 1961 Joseph Heller’s term “catch-22” becomes popular shorthand for circular, bureaucratic illogic that thwarts good decision making. 1965 Corporations use IBM’s System/360 computers to start implementing management information systems. Roger Wolcott Sperry begins publishing research on the functional specialization of the brain’s two hemispheres. Franz Wirl: Industriebetriebslehre 43 1966 The phrase “nuclear option” is coined with respect to developing atomic weapons and is eventually used to designate a decision to take the most drastic course of action. 1968 Howard Raiffa’s Decision Analysis explains many fundamental decision-making techniques, including decision trees and the expected value of sample (as opposed to perfect) information. 1970 John D.C. Little develops the underlying theory and advances the capability of decision-support systems. 1972 Irving Janis coins the term “groupthink” for flawed decision making that values consensus over the best result. Michael Cohen, James March, and Johan Olsen publish “A Garbage Can Model of Organizational Choice,” which advises organizations to search their informational trash bins for solutions thrown out earlier for lack of a problem. 1973 Fischer Black and Myron Scholes (in one paper) and Robert Merton (in another) show how to accurately value stock options, beginning a revolution in risk management. Henry Mintzberg describes several kinds of decision makers and positions decision making within the context of managerial work. Victor Vroom and Philip Yetton develop the Vroom-Yetton model, which explains how different leadership styles can be harnessed to solve different types of problems. 1979 Amos Tversky and Daniel Kahneman publish their Prospect Theory, which demonstrates that the rational model of economics fails to describe how people arrive at decisions when facing the uncertainties of real life. John Rockart explores the specific data needs of chief executives, leading to the development of executive information systems. 1980s “Nobody ever got fired for buying IBM” comes to stand for decisions whose chief rationale is safety. 1984 W. Carl Kester raises corporate awareness of real options by suggesting that managers think of investment opportunities as options on the company’s future growth. Daniel Isenberg explains that executives often combine rigorous planning with intuition when faced with a high degree of uncertainty. 1989 Howard Dresner introduces the term “business intelligence” to describe a set of methods that support sophisticated analytical decision making aimed at improving business performance. 1992 Max Bazerman and Margaret Neale connect behavioral decision research to negotiations in Negotiating Rationally. 1995 Anthony Greenwald develops the Implicit Association Test, meant to reveal unconscious attitudes or beliefs that can influence judgment. 1996 Web users start making buying decisions based on the buying decisions of people like themselves. 2005 In Blink, Malcolm Gladwell explores the notion that our instantaneous decisions are sometimes better than those based on lengthy, rational analysis. Franz Wirl: Industriebetriebslehre 44 Most early numbering methods were unwieldy, as anyone knows who has tried to multiply XXIII by VI. The Hindu-Arabic numeral system (which, radically, included zero) simplified calculations and enticed philosophers to investigate the nature of numbers. The tale of our progression from those early fumblings with base 10 is masterfully told by Peter Bernstein in Against the Gods: The Remarkable Story of Risk. Bernstein’s account begins in the dark days when people believed they had no control over events and so turned to priests and oracles for clues to what larger powers held in store for them. It progresses quickly to a new interest in mathematics and measurement, spurred, in part, by the growth of trade. During the Renaissance, scientists and mathematicians such as Girolamo Cardano mused about probability and concocted puzzles around games of chance. In 1494, a peripatetic Franciscan monk named Luca Pacioli proposed “the problem of points”—which asks how one should divide the stakes in an incomplete game. Some 150 years later, French mathematicians Blaise Pascal and Pierre de Fermat developed a way to determine the likelihood of each possible result of a simple game (balla, which had fascinated Pacioli). But it wasn’t until the next century, when Swiss scholar Daniel Bernoulli took up the study of random events, that the scientific basis for risk management took shape. Bernoulli (who also introduced the far-reaching concept of human capital) focused not on events themselves but on the human beings who desire or fear certain outcomes to a greater or lesser degree. His intent, he wrote, was to create mathematical tools that would allow anyone to “estimate his prospects from any risky undertaking in light of [his] specific financial circumstances.” In other words, given the chance of a particular outcome, how much are you willing to bet? In the nineteenth century, other scientific disciplines became fodder for the risk thinkers. Carl Friedrich Gauss brought his geodesic and astronomical research to bear on the bell curve of normal distribution. The insatiably curious Francis Galton came up with the concept of regression to the mean while studying generations of sweet peas. (He later applied the principle to people, observing that few of the sons—and fewer of the grandsons—of eminent men were themselves eminent.) But it wasn’t until after World War I that risk gained a beachhead in economic analysis. In 1921, Frank Knight distinguished between risk, when the probability of an outcome is possible to calculate (or is knowable), and uncertainty, when the probability of an outcome is not possible to determine (or is unknowable)—an argument that rendered insurance attractive and entrepreneurship, in Knight’s words, “tragic.” Some two decades later, John von Neumann and Oskar Morgenstern laid out the fundamentals of game theory, which deals in situations where people’s decisions are influenced by the unknowable decisions of “live variables” (aka other people). Today, of course, corporations try to know as much as is humanly and technologically possible, deploying such modern techniques as derivatives, scenario planning, business forecasting, and real options. But at a time when chaos so often triumphs over control, even centuries’ worth of mathematical discoveries can do only so much. Life “is a trap for logicians,” wrote the novelist G.K. Chesterton. “Its wildness lies in wait.” The Meeting of Minds In the fifth century BC, Athens became the first (albeit limited) democracy. In the seventeenth century, the Quakers developed a decision-making process that remains a paragon of efficiency, openness, and respect. Starting in 1945, the United Nations sought enduring peace through the actions of free peoples working together. There is nobility in the notion of people pooling their wisdom and muzzling their egos to make decisions that are acceptable—and fair—to all. During the last century, psychologists, sociologists, anthropologists, and even biologists (studying everything from mandrills to honeybees) eagerly unlocked the secrets of effective cooperation within groups. Later, the popularity of high-performance teams, coupled with new collaborative technologies that made it “virtually” impossible for any man to be an island, fostered the collective ideal. The scientific study of groups began, roughly, in 1890, as part of the burgeoning field of social psychology. In 1918, Mary Parker Follett made a passionate case for the value of conflict in achieving integrated solutions in The New State: Group Organization—The Solution of Popular Government. A breakthrough in understanding group dynamics occurred just after World War II, sparked—oddly enough—by the U.S. government’s wartime campaign to promote the consumption of organ meat. Enlisted to help, psychologist Kurt Lewin discovered that people were more likely to change their eating habits if they thrashed the subject out with others than if they simply listened to lectures about diet. His influential “field theory” posited that actions are determined, in part, by social context and that even group members with very different perspectives will act together to achieve a common goal. Franz Wirl: Industriebetriebslehre 45 Over the next decades, knowledge about group dynamics and the care and feeding of teams evolved rapidly. Victor Vroom and Philip Yetton established the circumstances under which group decision making is appropriate. R. Meredith Belbin defined the components required for successful teams. Howard Raiffa explained how groups exploit “external help” in the form of mediators and facilitators. And Peter Drucker suggested that the most important decision may not be made by the team itself but rather by management about what kind of team to use. Meanwhile, research and events collaborated to expose collective decision making’s dark underbelly. Poor group decisions—of the sort made by boards, product development groups, management teams— are often attributed to the failure to mix things up and question assumptions. Consensus is good, unless it is achieved too easily, in which case it becomes suspect. Irving Janis coined the term “groupthink” in 1972 to describe “a mode of thinking that people engage in when they are deeply involved in a cohesive in-group, when the members’ strivings for unanimity override their motivation to realistically appraise alternative courses of action.” In his memoir, A Thousand Days, former Kennedy aide Arthur Schlesinger reproached himself for not objecting during the planning for the Bay of Pigs invasion: “I can only explain my failure to do more than raise a few timid questions by reporting that one’s impulse to blow the whistle on this nonsense was simply undone by the circumstances of the discussion.” It seems that decisions reached through group dynamics require, above all, a dynamic group. As Clarence Darrow neatly put it: “To think is to differ.” Thinking Machines Computer professionals eulogize Xerox PARC of the 1970s as a technological Eden where some of today’s indispensable tools sprouted. But comparable vitality and progress were evident two decades earlier at the Carnegie Institute of Technology in Pittsburgh. There, a group of distinguished researchers laid the conceptual—and in some cases the programming—foundation for computer-supported decision making. Future Nobel laureate Herbert Simon, Allen Newell, Harold Guetzkow, Richard M. Cyert, and James March were among the CIT scholars who shared a fascination with organizational behavior and the workings of the human brain. The philosopher’s stone that alchemized their ideas was electronic computing. By the mid-1950s, transistors had been around less than a decade, and IBM would not launch its groundbreaking 360 mainframe until 1965. But already scientists were envisioning how the new tools might improve human decision making. The collaborations of these and other Carnegie scientists, together with research by Marvin Minsky at the Massachusetts Institute of Technology and John McCarthy of Stanford, produced early computer models of human cognition—the embryo of artificial intelligence. AI was intended both to help researchers understand how the brain makes decisions and to augment the decision-making process for real people in real organizations. Decision support systems, which began appearing in large companies toward the end of the 1960s, served the latter goal, specifically targeting the practical needs of managers. In a very early experiment with the technology, managers used computers to coordinate production planning for laundry equipment, Daniel Power, editor of the Web site DSSResources.com, relates. Over the next decades, managers in many industries applied the technology to decisions about investments, pricing, advertising, and logistics, among other functions. But while technology was improving operational decisions, it was still largely a cart horse for hauling rather than a stallion for riding into battle. Then in 1979, John Rockart published the HBR article “Chief Executives Define Their Own Data Needs,” proposing that systems used by corporate leaders ought to give them data about the key jobs the company must do well to succeed. That article helped launch “executive information systems,” a breed of technology specifically geared toward improving strategic decision making at the top. In the late 1980s, a Gartner Group consultant coined the term “business intelligence” to describe systems that help decision makers throughout the organization understand the state of their company’s world. At the same time, a growing concern with risk led more companies to adopt complex simulation tools to assess vulnerabilities and opportunities. In the 1990s, technology-aided decision making found a new customer: customers themselves. The Internet, which companies hoped would give them more power to sell, instead gave consumers more power to choose from whom to buy. In February 2005, the shopping search service BizRate reports, 59% of online shoppers visited aggregator sites to compare prices and features from multiple vendors before making a purchase, and 87% used the Web to size up the merits of online retailers, catalog merchants, and traditional retailers. Franz Wirl: Industriebetriebslehre 46 Unlike executives making strategic decisions, consumers don’t have to factor what Herbert Simon called “zillions of calculations” into their choices. Still, their newfound ability to make the best possible buying decisions may amount to technology’s most significant impact to date on corporate success—or failure. The Romance of the Gut “Gut,” according to the first definition in Merriam-Webster’s latest edition, means “bowels.” But when Jack Welch describes his “straight from the gut” leadership style, he’s not talking about the alimentary canal. Rather, Welch treats the word as a conflation of two slang terms: “gut” (meaning emotional response) and “guts” (meaning fortitude, nerve). That semantic shift—from human’s stomach to lion’s heart—helps explain the current fascination with gut decision making. From our admiration for entrepreneurs and firefighters, to the popularity of books by Malcolm Gladwell and Gary Klein, to the outcomes of the last two U.S. presidential elections, instinct appears ascendant. Pragmatists act on evidence. Heroes act on guts. As Alden Hayashi writes in “When to Trust Your Gut” (HBR February 2001): “Intuition is one of the X factors separating the men from the boys.” We don’t admire gut decision makers for the quality of their decisions so much as for their courage in making them. Gut decisions testify to the confidence of the decision maker, an invaluable trait in a leader. Gut decisions are made in moments of crisis when there is no time to weigh arguments and calculate the probability of every outcome. They are made in situations where there is no precedent and consequently little evidence. Sometimes they are made in defiance of the evidence, as when Howard Schultz bucked conventional wisdom about Americans’ thirst for a $3 cup of coffee and Robert Lutz let his emotions guide Chrysler’s $80 million investment in a $50,000 muscle car. Financier George Soros claims that back pains have alerted him to discontinuities in the stock market that have made him fortunes. Such decisions are the stuff of business legend. Decision makers have good reasons to prefer instinct. In a survey of executives that Jagdish Parikh conducted when he was a student at Harvard Business School, respondents said they used their intuitive skills as much as they used their analytical abilities, but they credited 80% of their successes to instinct. Henry Mintzberg explains that strategic thinking cries out for creativity and synthesis and thus is better suited to intuition than to analysis. And a gut is a personal, nontransferable attribute, which increases the value of a good one. Readers can parse every word that Welch and Lutz and Rudolph Giuliani write. But they cannot replicate the experiences, thought patterns, and personality traits that inform those leaders’ distinctive choices. Although few dismiss outright the power of instinct, there are caveats aplenty. Behavioral economists such as Daniel Kahneman, Robert Shiller, and Richard Thaler have described the thousand natural mistakes our brains are heir to. And business examples are at least as persuasive as behavioral studies. Michael Eisner (Euro Disney), Fred Smith (ZapMail), and Soros (Russian securities) are among the many good businesspeople who have made bad guesses, as Eric Bonabeau points out in his article “Don’t Trust Your Gut” (HBR May 2003). Of course the gut/brain dichotomy is largely false. Few decision makers ignore good information when they can get it. And most accept that there will be times they can’t get it and so will have to rely on instinct. Fortunately, the intellect informs both intuition and analysis, and research shows that people’s instincts are often quite good. Guts may even be trainable, suggest John Hammond, Ralph Keeney, Howard Raiffa, and Max Bazerman, among others. In The Fifth Discipline, Peter Senge elegantly sums up the holistic approach: “People with high levels of personal mastery…cannot afford to choose between reason and intuition, or head and heart, any more than they would choose to walk on one leg or see with one eye.” A blink, after all, is easier when you use both eyes. And so is a long, penetrating stare. 2.4.2 Evidence-Based Management (Jeffrey Pfeffer and Robert I. Sutton) For the most part, managers looking to cure their organizational ills rely on obsolete knowledge they picked up in school, long-standing but never proven traditions, patterns gleaned from experience, methods they happen to be skilled in applying, and information from vendors. They could learn a thing or two from practitioners of evidence-based medicine, a movement that has taken the medical establishment by storm over the past decade. A growing number of physicians are eschewing the usual, flawed resources and are instead identifying, disseminating, and applying research that is soundly conducted and clinically relevant. It's time for managers to do the same. The challenge is, quite simply, to ground decisions in the latest and best knowledge of what actually works. In some ways, that's more difficult to do in business than in medicine. The evidence is weaker in business; almost anyone can (and many Franz Wirl: Industriebetriebslehre 47 people do) claim to be a management expert; and a motley crew of sources--Shakespeare, Billy Graham, Jack Welch, Attila the Hun--are used to generate management advice. Still, it makes sense that when managers act on better logic and strong evidence, their companies will beat the competition. Like medicine, management is learned through practice and experience. Yet managers (like doctors) can practice their craft more effectively if they relentlessly seek new knowledge and insight, from both inside and outside their companies, so they can keep updating their assumptions, skills, and knowledge. 2.4.3 Competing on Analytics by Thomas H. Davenport We all know the power of the killer app. Over the years, groundbreaking systems from companies such as American Airlines (electronic reservations), Otis Elevator (predictive maintenance), and American Hospital Supply (online ordering) have dramatically boosted their creators’ revenues and reputations. These heralded—and coveted—applications amassed and applied data in ways that upended customer expectations and optimized operations to unprecedented degrees. They transformed technology from a supporting tool into a strategic weapon. Companies questing for killer apps generally focus all their firepower on the one area that promises to create the greatest competitive advantage. But a new breed of company is upping the stakes. Organizations such as Amazon, Harrah’s, Capital One, and the Boston Red Sox have dominated their fields by deploying industrial-strength analytics across a wide variety of activities. In essence, they are transforming their organizations into armies of killer apps and crunching their way to victory. Organizations are competing on analytics not just because they can—business today is awash in data and data crunchers—but also because they should. At a time when firms in many industries offer similar products and use comparable technologies, business processes are among the last remaining points of differentiation. And analytics competitors wring every last drop of value from those processes. So, like other companies, they know what products their customers want, but they also know what prices those customers will pay, how many items each will buy in a lifetime, and what triggers will make people buy more. Like other companies, they know compensation costs and turnover rates, but they can also calculate how much personnel contribute to or detract from the bottom line and how salary levels relate to individuals’ performance. Like other companies, they know when inventories are running low, but they can also predict problems with demand and supply chains, to achieve low rates of inventory and high rates of perfect orders. And analytics competitors do all those things in a coordinated way, as part of an overarching strategy championed by top leadership and pushed down to decision makers at every level. Employees hired for their expertise with numbers or trained to recognize their importance are armed with the best evidence and the best quantitative tools. As a result, they make the best decisions: big and small, every day, over and over and over. Although numerous organizations are embracing analytics, only a handful have achieved this level of proficiency. But analytics competitors are the leaders in their varied fields—consumer products, finance, retail, and travel and entertainment among them. Analytics has been instrumental to Capital One, which has exceeded 20% growth in earnings per share every year since it became a public company. It has allowed Amazon to dominate online retailing and turn a profit despite enormous investments in growth and infrastructure. In sports, the real secret weapon isn’t steroids, but stats, as dramatic victories by the Boston Red Sox, the New England Patriots, and the Oakland A’s attest. At such organizations, virtuosity with data is often part of the brand. Progressive makes advertising hay from its detailed parsing of individual insurance rates. Amazon customers can watch the company learning about them as its service grows more targeted with frequent purchases. Thanks to Michael Lewis’s best-selling book Moneyball, which demonstrated the power of statistics in professional baseball, the Oakland A’s are almost as famous for their geeky number crunching as they are for their athletic prowess. To identify characteristics shared by analytics competitors, I and two of my colleagues at Babson College’s Working Knowledge Research Center studied 32 organizations that have made a commitment to quantitative, fact-based analysis. Eleven of those organizations we classified as full-bore analytics competitors, meaning top management had announced that analytics was key to their strategies; they had multiple initiatives under way involving complex data and statistical analysis, and they managed analytical activity at the enterprise (not departmental) level. This article lays out the characteristics and practices of these statistical masters and describes some of the very substantial changes other companies must undergo in order to compete on quantitative turf. As one would expect, the transformation requires a significant investment in technology, the accumulation of massive stores of data, and the formulation of companywide strategies for managing the data. But at Franz Wirl: Industriebetriebslehre 48 least as important, it requires executives’ vocal, unswerving commitment and willingness to change the way employees think, work, and are treated. As Gary Loveman, CEO of analytics competitor Harrah’s, frequently puts it, “Do we think this is true? Or do we know?” Anatomy of an Analytics Competitor One analytics competitor that’s at the top of its game is Marriott International. Over the past 20 years, the corporation has honed to a science its system for establishing the optimal price for guest rooms (the key analytics process in hotels, known as revenue management). Today, its ambitions are far grander. Through its Total Hotel Optimization program, Marriott has expanded its quantitative expertise to areas such as conference facilities and catering, and made related tools available over the Internet to property revenue managers and hotel owners. It has developed systems to optimize offerings to frequent customers and assess the likelihood of those customers’ defecting to competitors. It has given local revenue managers the power to override the system’s recommendations when certain local factors can’t be predicted (like the large number of Hurricane Katrina evacuees arriving in Houston). The company has even created a revenue opportunity model, which computes actual revenues as a percentage of the optimal rates that could have been charged. That figure has grown from 83% to 91% as Marriott’s revenue-management analytics has taken root throughout the enterprise. The word is out among property owners and franchisees: If you want to squeeze the most revenue from your inventory, Marriott’s approach is the ticket. Clearly, organizations such as Marriott don’t behave like traditional companies. Customers notice the difference in every interaction; employees and vendors live the difference every day. Our study found three key attributes among analytics competitors: Widespread use of modeling and optimization. Any company can generate simple descriptive statistics about aspects of its business—average revenue per employee, for example, or average order size. But analytics competitors look well beyond basic statistics. These companies use predictive modeling to identify the most profitable customers—plus those with the greatest profit potential and the ones most likely to cancel their accounts. They pool data generated in-house and data acquired from outside sources (which they analyze more deeply than do their less statistically savvy competitors) for a comprehensive understanding of their customers. They optimize their supply chains and can thus determine the impact of an unexpected constraint, simulate alternatives, and route shipments around problems. They establish prices in real time to get the highest yield possible from each of their customer transactions. They create complex models of how their operational costs relate to their financial performance. Leaders in analytics also use sophisticated experiments to measure the overall impact or “lift” of intervention strategies and then apply the results to continuously improve subsequent analyses. Capital One, for example, conducts more than 30,000 experiments a year, with different interest rates, incentives, direct-mail packaging, and other variables. Its goal is to maximize the likelihood both that potential customers will sign up for credit cards and that they will pay back Capital One. Progressive employs similar experiments using widely available insurance industry data. The company defines narrow groups, or cells, of customers: for example, motorcycle riders ages 30 and above, with college educations, credit scores over a certain level, and no accidents. For each cell, the company performs a regression analysis to identify factors that most closely correlate with the losses that group engenders. It then sets prices for the cells, which should enable the company to earn a profit across a portfolio of customer groups, and uses simulation software to test the financial implications of those hypotheses. With this approach, Progressive can profitably insure customers in traditionally high-risk categories. Other insurers reject high-risk customers out of hand, without bothering to delve more deeply into the data (although even traditional competitors, such as Allstate, are starting to embrace analytics as a strategy). An enterprise approach. Analytics competitors understand that most business functions—even those, like marketing, that have historically depended on art rather than science—can be improved with sophisticated quantitative techniques. These organizations don’t gain advantage from one killer app, but rather from multiple applications supporting many parts of the business—and, in a few cases, being rolled out for use by customers and suppliers. UPS embodies the evolution from targeted analytics user to comprehensive analytics competitor. Although the company is among the world’s most rigorous practitioners of operations research and industrial engineering, its capabilities were, until fairly recently, narrowly focused. Today, UPS is wielding its statistical skill to track the movement of packages and to anticipate and influence the actions of people—assessing the likelihood of customer attrition and identifying sources of problems. The UPS Franz Wirl: Industriebetriebslehre 49 Customer Intelligence Group, for example, is able to accurately predict customer defections by examining usage patterns and complaints. When the data point to a potential defector, a salesperson contacts that customer to review and resolve the problem, dramatically reducing the loss of accounts. UPS still lacks the breadth of initiatives of a full-bore analytics competitor, but it is heading in that direction. Analytics competitors treat all such activities from all provenances as a single, coherent initiative, often massed under one rubric, such as “information-based strategy” at Capital One or “information-based customer management” at Barclays Bank. These programs operate not just under a common label but also under common leadership and with common technology and tools. In traditional companies, “business intelligence” (the term IT people use for analytics and reporting processes and software) is generally managed by departments; number-crunching functions select their own tools, control their own data warehouses, and train their own people. But that way, chaos lies. For one thing, the proliferation of user-developed spreadsheets and databases inevitably leads to multiple versions of key indicators within an organization. Furthermore, research has shown that between 20% and 40% of spreadsheets contain errors; the more spreadsheets floating around a company, therefore, the more fecund the breeding ground for mistakes. Analytics competitors, by contrast, field centralized groups to ensure that critical data and other resources are well managed and that different parts of the organization can share data easily, without the impediments of inconsistent formats, definitions, and standards. Some analytics competitors apply the same enterprise approach to people as to technology. Procter & Gamble, for example, recently created a kind of überanalytics group consisting of more than 100 analysts from such functions as operations, supply chain, sales, consumer research, and marketing. Although most of the analysts are embedded in business operating units, the group is centrally managed. As a result of this consolidation, P&G can apply a critical mass of expertise to its most pressing issues. So, for example, sales and marketing analysts supply data on opportunities for growth in existing markets to analysts who design corporate supply networks. The supply chain analysts, in turn, apply their expertise in certain decision-analysis techniques to such new areas as competitive intelligence. Going to Bat for Stats The analysis-versus-instinct debate, a favorite of political commentators during the last two U.S. presidential elections, is raging in professional sports, thanks to several popular books and high-profile victories. For now, analysis seems to hold the lead. Most notably, statistics are a major part of the selection and deployment of players. Moneyball, by Michael Lewis, focuses on the use of analytics in player selection for the Oakland A’s—a team that wins on a shoestring. The New England Patriots, a team that devotes an enormous amount of attention to statistics, won three of the last four Super Bowls, and their payroll is currently ranked 24th in the league. The Boston Red Sox have embraced “sabermetrics” (the application of analysis to baseball), even going so far as to hire Bill James, the famous baseball statistician who popularized that term. Analytic HR strategies are taking hold in European soccer as well. One leading team, Italy’s A.C. Milan, uses predictive models from its Milan Lab research center to prevent injuries by analyzing physiological, orthopedic, and psychological data from a variety of sources. A fast-rising English soccer team, the Bolton Wanderers, is known for its manager’s use of extensive data to evaluate players’ performance. Still, sports managers—like business leaders—are rarely fact-or-feeling purists. St. Louis Cardinals manager Tony La Russa, for example, brilliantly combines analytics with intuition to decide when to substitute a charged-up player in the batting lineup or whether to hire a spark-plug personality to improve morale. In his recent book, Three Nights in August, Buzz Bissinger describes that balance: “La Russa appreciated the information generated by computers. He studied the rows and the columns. But he also knew they could take you only so far in baseball, maybe even confuse you with a fog of overanalysis. As far as he knew, there was no way to quantify desire. And those numbers told him exactly what he needed to know when added to twenty-four years of managing experience.” That final sentence is the key. Whether scrutinizing someone’s performance record or observing the expression flitting across an employee’s face, leaders consult their own experience to understand the “evidence” in all its forms. The group at P&G also raises the visibility of analytical and data-based decision making within the company. Previously, P&G’s crack analysts had improved business processes and saved the firm money; but because they were squirreled away in dispersed domains, many executives didn’t know what services they offered or how effective they could be. Now those executives are more likely to tap the company’s deep pool of expertise for their projects. Meanwhile, masterful number crunching has become part of the story P&G tells to investors, the press, and the public. Senior executive advocates. A companywide embrace of analytics impels changes processes, behavior, and skills for many employees. And so, like any major transition, leadership from executives at the very top who have a passion for the quantitative approach. principal advocate is the CEO. Indeed, we found several chief executives who have driven in culture, it requires Ideally, the the shift to Franz Wirl: Industriebetriebslehre 50 analytics at their companies over the past few years, including Loveman of Harrah’s, Jeff Bezos of Amazon, and Rich Fairbank of Capital One. Before he retired from the Sara Lee Bakery Group, former CEO Barry Beracha kept a sign on his desk that summed up his personal and organizational philosophy: “In God we trust. All others bring data.” We did come across some companies in which a single functional or business unit leader was trying to push analytics throughout the organization, and a few were making some progress. But we found that these lower-level people lacked the clout, the perspective, and the cross-functional scope to change the culture in any meaningful way. CEOs leading the analytics charge require both an appreciation of and a familiarity with the subject. A background in statistics isn’t necessary, but those leaders must understand the theory behind various quantitative methods so that they recognize those methods’ limitations—which factors are being weighed and which ones aren’t. When the CEOs need help grasping quantitative techniques, they turn to experts who understand the business and how analytics can be applied to it. We interviewed several leaders who had retained such advisers, and these executives stressed the need to find someone who can explain things in plain language and be trusted not to spin the numbers. A few CEOs we spoke with had surrounded themselves with very analytical people—professors, consultants, MIT graduates, and the like. But that was a personal preference rather than a necessary practice. Of course, not all decisions should be grounded in analytics—at least not wholly so. Personnel matters, in particular, are often well and appropriately informed by instinct and anecdote. More organizations are subjecting recruiting and hiring decisions to statistical analysis (see the sidebar “Going to Bat for Stats”). But research shows that human beings can make quick, surprisingly accurate assessments of personality and character based on simple observations. For analytics-minded leaders, then, the challenge boils down to knowing when to run with the numbers and when to run with their guts. Their Sources of Strength Analytics competitors are more than simple number-crunching factories. Certainly, they apply technology—with a mixture of brute force and finesse—to multiple business problems. But they also direct their energies toward finding the right focus, building the right culture, and hiring the right people to make optimal use of the data they constantly churn. In the end, people and strategy, as much as information technology, give such organizations strength. The right focus. Although analytics competitors encourage universal fact-based decisions, they must choose where to direct resource-intensive efforts. Generally, they pick several functions or initiatives that together serve an overarching strategy. Harrah’s, for example, has aimed much of its analytical activity at increasing customer loyalty, customer service, and related areas like pricing and promotions. UPS has broadened its focus from logistics to customers, in the interest of providing superior service. While such multipronged strategies define analytics competitors, executives we interviewed warned companies against becoming too diffuse in their initiatives or losing clear sight of the business purpose behind each. Another consideration when allocating resources is how amenable certain functions are to deep analysis. There are at least seven common targets for analytical activity, and specific industries may present their own (see “Things You Can Count On”). Statistical models and algorithms that dangle the possibility of performance breakthroughs make some prospects especially tempting. Marketing, for example, has always been tough to quantify because it is rooted in psychology. But now consumer products companies can hone their market research using multiattribute utility theory—a tool for understanding and predicting consumer behaviors and decisions. Similarly, the advertising industry is adopting econometrics— statistical techniques for measuring the lift provided by different ads and promotions over time. The most proficient analytics practitioners don’t just measure their own navels—they also help customers and vendors measure theirs. Wal-Mart, for example, insists that suppliers use its Retail Link system to monitor product movement by store, to plan promotions and layouts within stores, and to reduce stockouts. E.&J. Gallo provides distributors with data and analysis on retailers’ costs and pricing so they can calculate the per-bottle profitability for each of Gallo’s 95 wines. The distributors, in turn, use that information to help retailers optimize their mixes while persuading them to add shelf space for Gallo products. Procter & Gamble offers data and analysis to its retail customers, as part of a program called Joint Value Creation, and to its suppliers to help improve responsiveness and reduce costs. Hospital supplier Owens & Minor furnishes similar services, enabling customers and suppliers to access and analyze their buying and selling data, track ordering patterns in search of consolidation opportunities, and move off-contract purchases to group contracts that include products distributed by Owens & Minor and its competitors. For example, Owens & Minor might show a hospital chain’s executives how much money they could save by consolidating purchases across multiple locations or help them see the trade-offs between increasing delivery frequency and carrying inventory. Franz Wirl: Industriebetriebslehre 51 The right culture. Culture is a soft concept; analytics is a hard discipline. Nonetheless, analytics competitors must instill a companywide respect for measuring, testing, and evaluating quantitative evidence. Employees are urged to base decisions on hard facts. And they know that their performance is gauged the same way. Human resource organizations within analytics competitors are rigorous about applying metrics to compensation and rewards. Harrah’s, for example, has made a dramatic change from a rewards culture based on paternalism and tenure to one based on such meticulously collected performance measurements as financial and customer service results. Senior executives also set a consistent example with their own behavior, exhibiting a hunger for and confidence in fact and analysis. One exemplar of such leadership was Beracha of the Sara Lee Bakery Group, known to his employees as a “data dog” because he hounded them for data to support any assertion or hypothesis. Not surprisingly, in an analytics culture, there’s sometimes tension between innovative or entrepreneurial impulses and the requirement for evidence. Some companies place less emphasis on blue-sky development, in which designers or engineers chase after a gleam in someone’s eye. In these organizations, R&D, like other functions, is rigorously metric-driven. At Yahoo, Progressive, and Capital One, process and product changes are tested on a small scale and implemented as they are validated. That approach, well established within various academic and business disciplines (including engineering, quality management, and psychology), can be applied to most corporate processes—even to not-soobvious candidates, like human resources and customer service. HR, for example, might create profiles of managers’ personality traits and leadership styles and then test those managers in different situations. It could then compare data on individuals’ performance with data about personalities to determine what traits are most important to managing a project that is behind schedule, say, or helping a new group to assimilate. There are, however, instances when a decision to change something or try something new must be made too quickly for extensive analysis, or when it’s not possible to gather data beforehand. For example, even though Amazon’s Jeff Bezos greatly prefers to rigorously quantify users’ reactions before rolling out new features, he couldn’t test the company’s search-inside-the-book offering without applying it to a critical mass of books (120,000, to begin with). It was also expensive to develop, and that increased the risk. In this case, Bezos trusted his instincts and took a flier. And the feature did prove popular when introduced. The right people. Analytical firms hire analytical people—and like all companies that compete on talent, they pursue the best. When Amazon needed a new head for its global supply chain, for example, it recruited Gang Yu, a professor of management science and software entrepreneur who is one of the world’s leading authorities on optimization analytics. Amazon’s business model requires the company to manage a constant flow of new products, suppliers, customers, and promotions, as well as deliver orders by promised dates. Since his arrival, Yu and his team have been designing and building sophisticated supply chain systems to optimize those processes. And while he tosses around phrases like Franz Wirl: Industriebetriebslehre 52 “nonstationary stochastic processes,” he’s also good at explaining the new approaches to Amazon’s executives in clear business terms. Established analytics competitors such as Capital One employ squadrons of analysts to conduct quantitative experiments and, with the results in hand, design credit card and other financial offers. These efforts call for a specialized skill set, as you can see from this job description (typical for a Capital One analyst): High conceptual problem-solving and quantitative analytical aptitudes…Engineering, financial, consulting, and/or other analytical quantitative educational/work background. Ability to quickly learn how to use software applications. Experience with Excel models. Some graduate work preferred but not required (e.g., MBA). Some experience with project management methodology, process improvement tools (Lean, Six Sigma), or statistics preferred. Other firms hire similar kinds of people, but analytics competitors have them in much greater numbers. Capital One is currently seeking three times as many analysts as operations people—hardly the common practice for a bank. “We are really a company of analysts,” one executive there noted. “It’s the primary job in this place.” Good analysts must also have the ability to express complex ideas in simple terms and have the relationship skills to interact well with decision makers. One consumer products company with a 30person analytics group looks for what it calls “PhDs with personality”—people with expertise in math, statistics, and data analysis who can also speak the language of business and help market their work internally and sometimes externally. The head of a customer analytics group at Wachovia Bank describes the rapport with others his group seeks: “We are trying to build our people as part of the business team,” he explains. “We want them sitting at the business table, participating in a discussion of what the key issues are, determining what information needs the businesspeople have, and recommending actions to the business partners. We want this [analytics group] to be not just a general utility, but rather an active and critical part of the business unit’s success.” Of course, a combination of analytical, business, and relationship skills may be difficult to find. When the software company SAS (a sponsor of this research, along with Intel) knows it will need an expert in stateof-the-art business applications such as predictive modeling or recursive partitioning (a form of decision tree analysis applied to very complex data sets), it begins recruiting up to 18 months before it expects to fill the position. In fact, analytical talent may be to the early 2000s what programming talent was to the late 1990s. Unfortunately, the U.S. and European labor markets aren’t exactly teeming with analytically sophisticated job candidates. Some organizations cope by contracting work to countries such as India, home to many statistical experts. That strategy may succeed when offshore analysts work on stand-alone problems. But if an iterative discussion with business decision makers is required, the distance can become a major barrier. The right technology. Competing on analytics means competing on technology. And while the most serious competitors investigate the latest statistical algorithms and decision science approaches, they also constantly monitor and push the IT frontier. The analytics group at one consumer products company went so far as to build its own supercomputer because it felt that commercially available models were inadequate for its demands. Such heroic feats usually aren’t necessary, but serious analytics does require the following: A data strategy. Companies have invested many millions of dollars in systems that snatch data from every conceivable source. Enterprise resource planning, customer relationship management, point-ofsale, and other systems ensure that no transaction or other significant exchange occurs without leaving a mark. But to compete on that information, companies must present it in standard formats, integrate it, store it in a data warehouse, and make it easily accessible to anyone and everyone. And they will need a lot of it. For example, a company may spend several years accumulating data on different marketing approaches before it has gathered enough to reliably analyze the effectiveness of an advertising campaign. Dell employed DDB Matrix, a unit of the advertising agency DDB Worldwide, to create (over a period of seven years) a database that includes 1.5 million records on all the computer maker’s print, radio, network TV, and cable ads, coupled with data on Dell sales for each region in which the ads appeared (before and after their appearance). That information allows Dell to fine-tune its promotions for every medium in every region. Business intelligence software. The term “business intelligence,” which first popped up in the late 1980s, encompasses a wide array of processes and software used to collect, analyze, and disseminate data, all in the interests of better decision making. Business intelligence tools allow employees to extract, Franz Wirl: Industriebetriebslehre 53 transform, and load (or ETL, as people in the industry would say) data for analysis and then make those analyses available in reports, alerts, and scorecards. The popularity of analytics competition is partly a response to the emergence of integrated packages of these tools. Computing hardware. The volumes of data required for analytics applications may strain the capacity of low-end computers and servers. Many analytics competitors are converting their hardware to 64-bit processors that churn large amounts of data quickly. The Long Road Ahead Most companies in most industries have excellent reasons to pursue strategies shaped by analytics. Virtually all the organizations we identified as aggressive analytics competitors are clear leaders in their fields, and they attribute much of their success to the masterful exploitation of data. Rising global competition intensifies the need for this sort of proficiency. Western companies unable to beat their Indian or Chinese competitors on product cost, for example, can seek the upper hand through optimized business processes. Companies just now embracing such strategies, however, will find that they take several years to come to fruition. The organizations in our study described a long, sometimes arduous journey. The UK Consumer Cards and Loans business within Barclays Bank, for example, spent five years executing its plan to apply analytics to the marketing of credit cards and other financial products. The company had to make process changes in virtually every aspect of its consumer business: underwriting risk, setting credit limits, servicing accounts, controlling fraud, cross selling, and so on. On the technical side, it had to integrate data on 10 million Barclaycard customers, improve the quality of the data, and build systems to step up data collection and analysis. In addition, the company embarked on a long series of small tests to begin learning how to attract and retain the best customers at the lowest price. And it had to hire new people with top-drawer quantitative skills. Much of the time—and corresponding expense—that any company takes to become an analytics competitor will be devoted to technological tasks: refining the systems that produce transaction data, making data available in warehouses, selecting and implementing analytic software, and assembling the hardware and communications environment. And because those who don’t record history are doomed not to learn from it, companies that have collected little information—or the wrong kind—will need to amass a sufficient body of data to support reliable forecasting. “We’ve been collecting data for six or seven years, but it’s only become usable in the last two or three, because we needed time and experience to validate conclusions based on the data,” remarked a manager of customer data analytics at UPS. And, of course, new analytics competitors will have to stock their personnel larders with fresh people. (When Gary Loveman became COO, and then CEO, of Harrah’s, he brought in a group of statistical experts who could design and implement quantitatively based marketing campaigns and loyalty programs.) Existing employees, meanwhile, will require extensive training. They need to know what data are available and all the ways the information can be analyzed; and they must learn to recognize such peculiarities and shortcomings as missing data, duplication, and quality problems. An analytics-minded executive at Procter & Gamble suggested to me that firms should begin to keep managers in their jobs for longer periods because of the time required to master quantitative approaches to their businesses. The German pathologist Rudolph Virchow famously called the task of science “to stake out the limits of the knowable.” Analytics competitors pursue a similar goal, although the universe they seek to know is a more circumscribed one of customer behavior, product movement, employee performance, and financial reactions. Every day, advances in technology and techniques give companies a better and better handle on the critical minutiae of their operations. The Oakland A’s aren’t the only ones playing moneyball. Companies of every stripe want to be part of the game. 2.5 Management Praxis. Nicholas Bloom and John Van Reenen, Why Do Management Practices Differ across Firms and Countries? Journal of Economic Perspectives 24(1), 203-224, 2010, finden eine substantielle Variation in der Effizienz internationaler Mangementpraxis: 1. First, firms with “better” management practices tend to have better performance on a wide range of dimensions: they are larger, more productive, grow faster, and have higher survival rates. 2. Second, management practices vary tremendously across firms and countries. Most of the difference in the average management score of a country is due to the size of the “long tail” of very badly managed firms. For example, relatively few U.S. firms are very badly managed, while Brazil and India have many firms in that category. Franz Wirl: Industriebetriebslehre 54 3. Third, countries and firms specialize in different styles of management. For example, American firms score much higher than Swedish firms in incentives but are worse than Swedish firms in monitoring. 4. Fourth, strong product market competition appears to boost average management practices through a combination of eliminating the tail of badly managed firms and pushing incumbents to improve their practices. 5. Fifth, multinationals are generally well managed in every country. They also transplant their management styles abroad. For example, U.S. multinationals located in the United Kingdom are better at incentives and worse at monitoring than Swedish multinationals in the United Kingdom. 6. Sixth, firms that export (but do not produce) overseas are better-managed than domestic nonexporters, but are worse-managed than multinationals. 7. Seventh, inherited family-owned firms who appoint a family member (especiallythe eldest son) as chief executive offifi cer are very badly managed on average. 8. Eighth, government-owned firms are typically managed extremely badly.Firms with publicly quoted share prices or owned by private-equity firms are typically well managed. 9. Ninth, firms that more intensively use human capital, as measured by more educated workers, tend to have much better management practices. 10. Tenth, at the country level, a relatively light touch in labor market regulation is associated with better use of incentives by management. Franz Wirl: Industriebetriebslehre 55 Franz Wirl: Industriebetriebslehre 56 Franz Wirl: Industriebetriebslehre 57 Franz Wirl: Industriebetriebslehre 58 Franz Wirl: Industriebetriebslehre 2.6 2.6.1 59 Mathematische Methoden zur Optimierung Einleitung 8 Anstatt einer üblichen Einleitung sei hier ein aktueller Artikel aus dem Economist , Business by numbers. Consumers and companies increasingly depend on a hidden mathematical world, wiedergegeben. ALGORITHMS sound scary, of interest only to dome-headed mathematicians. In fact they have become the instruction manuals for a host of routine consumer transactions. Browse for a book on Amazon.com and algorithms generate recommendations for other titles to buy. Buy a copy and they help a logistics firm to decide on the best delivery route. Ring to check your order's progress and more algorithms spring into action to determine the quickest connection to and through a call-centre. From analysing credit-card transactions to deciding how to stack supermarket shelves, algorithms now underpin a large amount of everyday life. Their pervasiveness reflects the application of novel computing power to the age-old complexities of business. “No human being can work fast enough to process all the data available at a certain scale,” says Mike Lynch, boss of Autonomy, a computing firm that uses algorithms to make sense of unstructured data. Algorithms can. As the amount of data on everything from shopping habits to media consumption increases and as customers choose more personalisation, algorithms will only become more important. 8 The Economist, September 21st, pp81. Franz Wirl: Industriebetriebslehre 60 Algorithms can take many forms. At its core, an algorithm is a step-by-step method for doing a job. These can be prosaic—a recipe is an algorithm for preparing a meal—or they can be anything but: the decisiontree posters that hang on hospital walls and which help doctors work out what is wrong with a patient from his symptoms are called medical algorithms. This formulaic style of thinking can itself be a useful tool for businesses, much like the rigour of good project-management. But computers have made algorithms far more valuable to companies. “A computer program is a written encoding of an algorithm,” explains Andrew Herbert, who runs Microsoft Research in Cambridge, Britain. The speed and processing power of computers mean that algorithms can execute tasks with blinding speed using vast amounts of data. Some of these tasks are more mechanistic than others. For instance, people often make mistakes when they key in their credit-card numbers online. With millions of transactions being processed at a time, a rapid way to weed out invalid numbers helps to keep processing times down. Enter the Luhn algorithm (see below), named after its inventor, Hans Luhn, an IBM researcher. The numbers on a credit card identify the card type, the issuer and the user's account number. The last number of all is set to ensure that the Luhn algorithm produces a figure divisible by ten. If it is, the card number has been properly entered and the processing can go ahead. The Luhn algorithm performs a simple calculation. But the real power of algorithms emerges when they are put to work on much more complex problems. As far as most businesses are concerned, these problems typically fall into two types: improving various processes, such as how a network is configured and a supply chain is run, or analysing data on things such as customer spending. UPS uses algorithms to help deliver the millions of packages that pass through its transportation network every day in the most efficient way possible. The simplest routes are easy to draw up. If a driver has only three destinations to visit, he can take only six possible routes. But the number of possible routes explodes as the destinations increase. There are more than 15 trillion, trillion possible routes to take on a journey with just 25 drop-off points—and an average day for a UPS driver in America involves 150 destinations. The picture is further complicated by constraints such as specified drop-off and pick-up times for drivers or runway lengths and noise restrictions for aircraft. “Algorithms provide benefits when the choices are so great that they are impossible to process in your head,” says UPS's Jack Levis. Go here, go there Solving this “travelling-salesman problem” means a lot to UPS. For its fleet of aircraft in America, the company uses an algorithm called VOLCANO (which stands for Volume, Location and Aircraft Network Optimiser). Developed jointly with the Massachusetts Institute of Technology (MIT), it is used by three different planning groups within UPS—one to plan schedules for the following four to six months, one to work out what kind of facilities and aircraft might be needed over the next two to ten years, and one to plan for the peak season between Thanksgiving and Christmas. Getting the scheduling wrong imposes a heavy cost: flying half-empty planes or leasing extra aircraft is an expensive business. UPS reckons that VOLCANO has saved the company tens of millions of dollars since its introduction in 2000. Logistics firms are far from the only ones working on “optimisation” algorithms. Telecoms operators use algorithms to establish the quickest connections for phone calls through their networks or to retrieve web pages speedily from the internet. Manufacturers and retailers use them to fine tune their supply chains. Call centres decide where to place an incoming call, based on things such as the customer's location, the length of queues that operators have to deal with and the reason for people calling. Jeff Gordon, who looks after innovation for Convergys, a call-centre operator, says that the efficiency of algorithms is as crucial to his industry as the quality of call agents: “If you get the algorithm wrong and put customers into the wrong hands you degrade the experience. No one likes being handed off to someone else.” Franz Wirl: Industriebetriebslehre 61 The most powerful algorithms are those that cope with continual changes (see article). The delivery schedules for online grocers have huge “feedback loops” in which the delivery times chosen by customers affect the routes that vans take, which in turn affects the choice of delivery slots made available to customers. UPS is working on a real-time algorithm for its drivers that can recalibrate the order of deliveries on the fly, in much the same way that satellite-navigation systems in cars adjust themselves if a driver chooses to ignore a suggested route. In the world of the internet, operators are looking at ways of marrying up the algorithms that find the shortest path through a network and those that control the speed with which information flows. At the moment, the routing algorithm does not talk to the flow-control algorithm, which means paths do not change even when there is congestion. According to Marc Wennink, a researcher at Britain's BT, combining the algorithms would mean that tasks such as downloading files could become much more resilient to network disruption. It would also allow BT to make better use of its existing network capacity. Airports also have a keen interest in dynamic algorithms. Passengers at London's Heathrow and other congested airports often sit in a long queue of planes waiting near the runway to depart. Delays happen because air-traffic controllers need to leave a safety margin between aircraft as they take off. This margin depends on the size and speed of an aircraft, and re-ordering the queue can minimise the delay before all the planes get into the air (mathematicians call this the departure problem). Air-traffic controllers have always reordered planes in the departure queue manually, but researchers are working on algorithms that would be more efficient. Just as optimisation algorithms come in handy when people are swamped by vast numbers of permutations, so statistical algorithms help firms to grapple with complex datasets. Dunnhumby, a dataanalysis firm, uses algorithms to crunch data on customer behaviour for a number of clients. Its bestknown customer (and majority-owner) is Tesco, a British supermarket with a Clubcard loyalty-card scheme that generates a mind-numbing flow of data on the purchases of 13m members across 55,000 product lines. To make sense of it all, Dunnhumby's analysts cooked up an algorithm called the rolling ball. It works by assigning attributes to each of the products on Tesco's shelves. These range from easy-tocook to value-for-money, from adventurous to fresh. In order to give ratings for every dimension of a product, the rolling-ball algorithm starts at the extremes: ostrich burgers, say, would count as very adventurous. The algorithm then trawls through Tesco's purchasing data to see what other products (staples such as milk and bread aside) tend to wind up in the same shopping baskets as ostrich burgers do. Products that are strongly associated will score more highly on the adventurousness scale. As the associations between products become progressively weaker on one dimension, they start to get stronger on another. The ball has rolled from one attribute to another. With every product categorised and graded across every attribute, Dunnhumby is able to segment and cluster Tesco's customers based on what they buy. Where to put the biscuits The rolling-ball algorithm is in its fourth version. Refinements occur every year or two, to add new attributes or to tweak the maths. All these data then feed into a variety of decisions, such as the ranges to put into each store and which products should sit next to each other on the shelves. “All this sophisticated data analysis and it comes down to where you put the biscuits,” laments Martin Hayward, director of consumer strategy at Dunnhumby. Fraud detection has a touch more glamour to it. SPSS, another data-analysis firm, uses algorithms to scrutinise customer data and to build propensity scores that predict how people will behave. One of its clients is ClearCommerce, which provides payment-processing services to online merchants. SPSS helped ClearCommerce to build a system that looks at a customer's past transactions and learns what hints at fraud—it might be the amount of money being spent, the shipping details and the time of day, and so on. Transactions then get a fraud-propensity score based on these characteristics; merchants decide which scores should ring alarm bells and how to respond. Algorithms are most commonly associated with internet-search engines. “The tussle between MSN, Google and Yahoo! is about whose algorithm produces the best results to a query,” observes Microsoft's Mr Herbert. Ask.com, another search engine, has even tried to popularise the term in an advertising campaign. Few other types of companies are so obviously dependent on algorithms for success, but the role that they play is rising in importance for two reasons. The first is the sheer amount of data that is now available to companies. The information floodwaters are rising everywhere. Smart meters give utility firms data on consumption patterns inside households. Digital Franz Wirl: Industriebetriebslehre 62 media will make it easier for firms such as Dunnhumby to see how what people read online and watch on television affects what they buy. Online shopping means that internet merchants now know what customers are browsing as well as buying. Search engines are mining their own information on the relationship between queries and clickthroughs so as to improve their ranking algorithms. “For the first time in business history there is more information than many organisations' capacity to deal with it,” says Dunnhumby's Mr Hayward. Algorithms are a way to cope. The second reason why algorithms are becoming more important is that companies inevitably want to use all this new data to do more complicated things. In particular, they want to respond to each customer in a personalised way. Tesco does this by using its analysis to tailor direct-marketing offers to each Clubcard member. As well as segmenting its customers on how they live, the data also enable the supermarket rapidly to spot shifts in their consumption patterns (caused by children going to university, say). Tesco's response rates to such targeted marketing stands at 10-20%, against an industry average of only around 1%. Convergys wants to bring more real-time data to the operation of call-centres. Mr Gordon gives the example of a customer who calls an electricity utility from an area that has suffered a power failure and, because of where they are speaking from, is automatically put through to an operator who can deal with his queries. Such algorithms help firms to tease simplicity from complexity. Algorithms are not for everyone. Some companies will always generate more data than others, of course: retailers, utilities and telecoms firms process many more transactions than house insurers, whose deals tend to happen once a year. Some will also be more focused than others on how algorithms can shave costs or maximise capacity. Firms that enjoy high margins and strong demand are going to be less worried about the efficiency of their supply chains, says Hau Lee, of Stanford Graduate School of Business. Rocket science for non-boffins What is more, lots of things have to fall into place for algorithms to work. They tend to be highly complex: it is not easy to find people with the right skills to develop and refine them. The systems within which the algorithms run—the user interface—need to be intuitive to non-boffins. “This is rocket science but you don't have to be a rocket scientist to use it,” says Jack Noonan, boss of SPSS. The inputs have to be right. One UPS planning model routed all the packages in the system through Iowa, which perplexed everyone until they found an error in the data that made it appear to be free to send packages via Iowa. The algorithm was right, in other words, but the data were wrong. Mr Noonan says that SPSS's “secret sauce” lies in its ability to deal with missing or unreliable data, rather than the algorithms themselves. Above all, human judgment still has a role—a point perhaps reinforced by the recent performance of algorithmically driven quantitative funds in the financial markets. In fraud detection, for example, algorithms can eliminate the majority of transactions that are above suspicion but a human is still best placed to analyse the dodgy ones. Dunnhumby is trying to overlay attitudinal research on top of purchasing data to understand why people buy things as well as what they buy. Even so, Autonomy's Mr Lynch is convinced that algorithms are on the march. Algorithms process data to arrive at an answer. The more data they can process the more accurate the answer. For that reason, he says, “they are bound to take over the world”. 2.6.2 Optimierungsprobleme Ausgangspunkt sei folgendes Problem. Eine Zielwert, etwa ein Betrag in €, soll maximiert werden unter Verwendung der Verfügung stehenden Instrumente und unter Berücksichtigung von aller Arten Beschränkungen (technisch, legistisch, finanziell). Sieht man von Unsicherheit und Risiko ab, dann kann diese Managemententscheidung als eine Problem der nichtlinearen Optimierung aufgefasst werden, d.h., es ist eine eine reellwertige Funktion F mit den Instrumenten x (ein Vektor) als Argument zu maximieren unter Berücksichtigung aller Arten von Beschränkungen, die sich dadurch ausdrücken, dass nur die Teilmenge X zur Optimierung zur Verfügung steht. max F(x) x so dass x∈⊆X∈Rn Definition: Falls x ein Element von X ist, x∈X, dann wird es als "zulässig", ansonsten, "unzulässig" bezeichnet ("feasible", "infeasible"). x∉X, als Franz Wirl: Industriebetriebslehre 63 Definition: x*∈X heißt ein lokales Maximum, wenn es eine ε - Umgebung um x* gibt (N∈) so dass: F(x*) ≥ F(x) für alle x∈N∈. Definition: x*∈X heißt ein globales Maximum, wenn: F(x*) ≥ F(x) für alle x∈X. Existenzsatz von Weierstraß: F stetig X abgeschlossen und beschränkt, dann existiert ein globales Maximum. Bemerkung: X = Rn, F zweimal stetig differenzierbar, dann sind die Bedingungen für ein lokales Optimum bekannt, nämlich das Nullsetzen der ersten Ableitungen: ∂F =0 ∂xi i = 1,...,n. Eine Spezialfall der Charakterisierung der Menge an zulässigen Lösungen X ist die durch Ungleichungen was zum bekannten Fall des Kuhn-Tucker Theorems führt: max x F(x) max F(x1, x2, …, xn) x1, x2, …, xn im Detail sodass: g(x) ≤ 0, g: Rn → Rm g1(x1, x2, …, xn) ≤ 0 g2(x1, x2, …, xn) ≤ 0 …………………… gm(x1, x2, …, xn) ≤ 0 Kuhn-Tucker Theorem: Angenommen F und g sind stetig differenzierbar, F ist konkav, g ist konvex und 0 0 "constraint qualification": ∃x : g(x ) < 0. Dann ist x* optimal dann und nur dann, wenn für die Lagrangefunktion L (definiert unten) gilt: L:= F(x) - µtg(x) = F(x1, x2, …, xn) - m ∑ m g (x , x ,..., x ) j =1 j j 1 2 (1) ∂g j ∂L ∂F ∂g ∂F m = − mt = − ∑mj = 0, i = 1,...n ∂xi ∂xi ∂xi ∂xi j =1 ∂xi (2) µjgj(x*1,...x*n) = 0, µj≥0 (3) gj(x*1,...x*n) ≤ 0 n j = 1,...,m j = 1,...,m Bemerkungen: 1. Falls entweder F nicht global konkav ist und/oder g nicht global konvex ist, dann sind die Bedingungen (1) - (3) nur mehr notwendig. 2. die obigen Bedingungen erlauben uns das Nachprüfen, ob ein bestimmter Punkt tatsächlich das Optimum darstellt, helfen jedoch kaum zum Auffinden dieses Punktes, da dies zum Raten aktiver/nicht aktiver Beschränkungen führt. 3. Die Variablen µj∈R+ heißen Kuhn-Tucker Multiplikatoren und haben eine ähnliche Interpretation wie der Lagrange Multiplikator. Franz Wirl: Industriebetriebslehre 2.6.3 64 Lineare Programmierung Bei der linearen Programmierung handelt es sich um einen mathematische Technik (und nicht um Computer-Programmierung, obwohl natürlich ohne Computer nur relativ triviale Probleme gelöst werden können). Im Detail handelt es sich um einen (wichtigen) Spezialfall des obigen allgemeinen, nichtlinearen Optimierungsproblems, wo alle Funktionen (also F und g) linear sind, etwa, n max F ( x ) = ∑ zi xi x1 , x 2 ,..., x n i =1 a11x1 + a12x2 + … + a1nxn ≤ b1 a21x1 + a22x2 + … + a2nxn ≤ b2 ……………………………………………….. am1x1 + am2x2 + … + amnxn ≤ bm wobei eventuell in g inkludiert oder separat Nichtnegativität (was soll ein negativer Output, eine negative Lieferung?) gefordert wird: x1 ≥ 0, x2 ≥ 0, …, xn ≥ 0. Zahlreiche Managementbeispiel fallen in diese Kategorie wie Transportprobleme (bei gegebenem Netzwerk, was ein einfacherer Spezialfall ist, der mittels graphentheoretischen Methoden auch gelöst werden kann), optimale Maschinenbelegung, Raffinerie (Blendung von Erdölsorten), etc. Wegbereiter dieser Methode war der Amerikaner Georg B. Dantzig im Auftrag der Rand Corporation während des 2. Weltkrieges und daher militärisch motiviert (Flugeinsatzpläne). Er fand im Jahre 1947 eine praktikable Lösung, die Simplex Methode. Beispiel: Franz Wirl: Industriebetriebslehre 65 3 (Internationale) Standortwahl Die drei einzig relevanten Eigenschaften einer Liegenschaft sind: der Standort, der Standort und der Standort; „only three things matter about property: location, location and location, (vgl, Economist, Sept. 8th, 2001, p 75). Nach einem kurzen einführenden Beispiel sollen die Verfahren zur Standortbestimmung nach Klaus Lüder vorgestellt werden. Diese eher mechanischen, aber betriebswirtschaftlich eventuell doch relevanten Verfahren sollen dann mit dem Ansatz der Ökonomische Geographie (Paul Krugman) kontrastiert werden. Dieses Konzept der ökonomischen Geographie beinhaltet implizit auch der ClusterAnsatz von Michael Porter. Zum Abschluss folgt ein Fallbeispiel, das die Automobilindustrie von Japan mit der amerikanischen vergleicht. Eine Zeit lang spielte das Thema der Konkurrenz von Standorten in der politischen Debatte eine große Rolle. Man machte sich vor allem in Deutschland Sorgen, das Land verliere als Wirtschaftsstandort gegenüber anderen Staaten an Attraktivität. Die derzeit boomende Wirtschaft hat diese Besorgnis aber wieder etwas aus dem Blickfeld gerückt. Allerdings sind viele der Sorgen und Ängste verbunden mit der Globalisierung, auch wenn uns als Wirtschaftswissenschaftler die Opposition absurd erscheinen sollte, durch Standortentscheidungen, genauer Verlagerungen, begründet. 3.1 Klassifikation des Industriebetriebes nach dem Standort (Beispiel) Annahme: Potentielle Standorte sind Aachen, Braunschweig, Dortmund, Erfurt, München und Nürnberg. Der Beschaffungsschwerpunkt liegt nahe Dortmund, die Beschaffungsmenge beträgt 1.500 t und die Transportkosten betragen 1 GE je t und km. Der Absatzschwerpunkt ist nahe München, die Absatzmenge beträgt 1000 t, und die Transportkosten hierbei 1,2 GE je t und km. In den entsprechenden Spalten der Tabelle 2. 1 sind die Entfernungen der einzelnen Standorte vom Beschaffungs- und vom Absatzschwerpunkt angegeben. Durch Multiplikation mit der Transportmenge und dem Kostensatz ergeben sich die Transportkosten jedes Standortes vom Beschaffungsschwerpunkt und zum Absatzschwerpunkt. Die Summe dieser Transportkosten bildet dann das Entscheidungskriterium für die Wahl des Standorts. Tabelle 2.1 Beispiel zur Standortwahl Standorte Entfernung zum Beschaffungsschwerpunkt Transportkosten (in 1000 GE) Entfernung zum Absatzschwerpunkt Transportkosten (in 1000 GE) Summe Aachen 150 (150*1500*1)= 225 650 (650*1000*1,2)= 780 1005= 4. Rang Braunschweig 270 405 625 750 1155= 6. Rang 10 15 650 780 795= 1. Rang Erfurt 420 630 380 456 1086= 5. Rang München 650 975 10 12 987= 3. Rang Nürnberg 480 720 170 204 904= 2. Rang Dortmund Da Dortmund die niedrigste Transportkostensumme aufweist, wäre es als Standort zu wählen. Auch bei den im nächsten Abschnitt vorgestellten Verfahren spielen häufig die Transportkosten eine entscheidende Rolle. 3.2 3.2.1 Verfahren zur Standortauswahl nach Klaus Lüder Formulierung des Standortproblems Gegeben ist: eine Menge von Standorten: S = {sj; j = 1,...,n} eine Menge an Organisationseinheiten: B = {bi; i= 1,...,m} s(bi) bezeichnet den Standort der Organisationseinheit bi s(bi) = sj ∈ S Franz Wirl: Industriebetriebslehre 66 Gesucht ist: Eine Abbildung Σ: B S bi s(bi) ⊂ S die jede Organisationseinheit einem Standort aus der Menge S zuweist. Weitere Annahmen: O ist die Menge der Orte {op; p= 1,...,r}, die mit bi in Verbindung stehen, z.B. Kunden. Die Mengen O, S, und B sind unabhängig. (Wie die Abbildung III.2 (Quelle: ) zeigt, sind mannigfache Rückkoppelungen und Abhängigkeiten vorhanden. Es ist daher eine Vereinfachung, diese Unabhängigkeit anzunehmen!) Es soll eine Zielfunktion maximiert/minimiert werden: Z = f [s(b1), s(b2),...,s(bm)] (z.B. die Transportkosten, die aus der Zuordnung der Organisationseinheiten auf die Standorte resultieren, sollen minimiert werden.) Produktionsprogramm Ertrag Produktpreise Externe Transportkosten Gewinn bei gegebener Aufwand Standortkonfiguration Innentransportkosten Sonstige aufwandsgleiche Kosten + (Aufwand≠Kosten) Transportwege Transportmenge n Innerbetriebliche Standorte* Transportmengen Löhne, Steuern usw. Investitionsprogramm Kapitaleinsatz Investitionsausgaben je Projekt *: : : Optimierungsproblem Interdependenzen zwischen den Optimierungsproblemen und Abhängigkeiten verschiedener Bestimmungsfaktoren der Rentabilität untereinander Abhängigkeiten zwischen der Rentabilität und ihren Bestimmungsfaktoren. Abbildung 1.1 (Quelle Lüder, S.31). Franz Wirl: Industriebetriebslehre 3.2.2 67 Bestimmung betrieblicher Standorte mittels Standortfaktoren und Prüflisten Zur besseren Systematisierung sollen nun Standortfaktoren in drei Kategorien eingeteilt werden. A0 heißt dass die Ausprägung der Eigenschaft für alle Standorte gleich ist; A1, dass die Eigenschaft für mindestens zwei potentielle Standorte unterschiedlich ausgeprägt ist. B0 bedeutet, dass sich unterschiedlichen Ausprägungen der Eigenschaft auf die Zielgröße auswirken, B1 dass keine Auswirkungen bestehen. C0 heißt, dass für die Ausprägung der Eigenschaft Mindestanforderungen gestellt werden, C1 heißt, es bestehen keine Mindestanforderungen. Kategorie 1: Standortfaktoren dazu zählen die folgenden Kombinationen: A1/B0/C0 und A1/B0/C1 (d.h. es interessieren nur Eigenschaften, die sich für die verschiedenen Standorte überhaupt unterscheiden, und die in die Zielgröße eingehen. z.B. Transportkosten, Verkaufspreise, Absatzmengen, Steuersätze) Kategorie 2: Standorteigenschaften dazu zählen A0/B0/C0, A0/B1/C0, und A1/B1/C0 (Standorteigenschaften, die gewisse Mindestanforderungen erfüllen müssen, jedoch keine Standortfaktoren sind.) Kategorie 3 Für die Standortentscheidung irrelevante Eigenschaften: alle anderen Kombinationen. Ein österreichisches Beispiel für einen Standortfaktor sind die Wasser- und Müllgebühren, deren Beträge die folgende Tabelle 2.2 zeigt. Als weiteres Beispiel seien die Immobilienpreise in den österreichischen Landeshauptstädten in der folgenden Tabelle 2.3 dargestellt. (Quelle: Hausbesitzer-Zeitung, 8/2000) und ein internationaler Städtevergleich. Tabelle 2.2 Öffentliche Abgaben, Presse 23.9.2000 (Immobilien) Ranking der Städte und Großgemeinden (Kosten pro Monat) Rang 1 2 2 4 5 6 7 8 9 10 11 12 12 12 15 16 16 18 18 20 21 22 22 22 22 26 26 26 26 30 31 31 31 34 Gemeinde Traun Sankt Veit an der Glan Wolfsberg Spittal an der Drau Wiener Neustadt Eisenstadt Sankt Pölten Baden Bregenz Villach Tulln Leoben Neunkirchen Traiskirchen Bad Vöslau Stockerau Leonding Klagenfurt Amstetten Linz Ternitz Waidhofen an der Ybbs Mödling Ansfelden Hall in Tirol Krapfenberg Perchtoldsdorf Schwechat Telfs Wels Bruck an der Mur Graz Krems Marchtrenk Land OÖ Ktn. Ktn. Ktn. NÖ Bgld. NÖ NÖ Vlbg. Ktn. NÖ Stmk. NÖ NÖ NÖ NÖ OÖ Ktn. NÖ OÖ NÖ NÖ NÖ OÖ Tirol Stmk. NÖ NÖ Tirol OÖ Stmk. Stmk. NÖ OÖ Gesamt 430 480 480 520 530 530 550 560 580 590 600 610 610 610 620 630 630 660 660 680 710 740 740 740 740 780 780 780 780 800 830 830 830 840 Müll 130 130 130 180 90 110 100 160 230 110 130 180 130 130 130 200 160 100 140 80 130 130 120 120 220 160 170 160 180 130 240 150 240 220 Trinkwasser 200 230 230 250 280 300 330 230 180 300 300 300 340 230 230 250 410 380 310 370 410 430 440 390 150 430 340 370 230 430 420 500 380 430 Abwasser 100 120 120 80 160 120 120 170 170 180 170 130 140 250 260 180 60 180 210 230 170 180 180 230 370 190 270 250 370 250 180 170 210 190 Franz Wirl: Industriebetriebslehre 35 36 36 38 39 40 41 41 43 43 45 46 46 48 48 50 51 52 52 52 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 Rankweil Zwettl Hollabrunn Bludenz Sankt Andrä Hard Klosterneuburg Dornbirn Wien Kufstein Schwaz Feldkirch Saalfelden Knittelfeld Lienz Vöcklabruck Innsbruck Mistelbach Wörgl Braunau Völkermarkt Bischofshofen Voitsberg Hohenems Salzburg Judenburg Lustenau Enns Steyr Feldkirchen Ried Köflach Gmunden Hallein Bad Ischl Durchschnitt Vlbg. NÖ NÖ Vlbg. Ktn. Vlbg. NÖ Vlbg. Wien Tirol Tirol Vlbg. Sbg. Stmk. Stmk. OÖ Tirol NÖ Tirol OÖ Ktn. Sbg. Stmk. Vlbg. Sbg. Stmk. Vlbg. OÖ OÖ Ktn. OÖ Stmk. OÖ Sbg. OÖ 270 220 180 150 210 230 210 250 80 230 130 190 160 220 190 80 150 300 490 190 140 230 220 270 110 250 260 210 130 120 300 270 330 260 180 850 910 910 930 940 950 960 960 1000 1000 1020 1040 1040 1050 1050 1080 1130 1140 1140 1140 1150 1210 1220 1230 1270 1280 1290 1330 1340 1400 1520 1570 1600 1670 1880 920 68 180 510 470 290 230 280 450 260 470 250 360 280 250 390 280 280 500 490 270 180 330 260 450 330 510 410 210 370 420 280 430 520 380 370 610 180 400 180 260 390 500 440 300 450 450 520 530 570 630 440 580 730 480 340 390 780 680 720 560 630 650 630 830 760 800 990 800 780 890 1040 1080 340 400 Beim Prüflistenverfahren werden nun einfach die für einen Standort gewünschten Faktoren aufgelistet, und - sofern vorhanden – abgehakt. Dadurch können Standorte, die nicht den Kriterien entsprechen ausgeschieden werden. 3.2.3 Bestimmung betrieblicher Standorte mittels Nutzwertanalyse Die Nutzwertanalyse erweitert das Prüflistenverfahren durch Quantifizierung und ist eine einfache Methode für multikriterielle Entscheidungen. Wichtig dabei ist die Annahme der Unabhängigkeit der Standortfaktoren voneinander. Sollte dies nicht gegeben sein, kann man dem durch Zusammenfassung von mehreren Faktoren in Untergruppen und durch Hierarchisierung abhelfen. Das Verfahren erfolgt in drei Schritten: Skalierung Durch die Bewertung der Ausprägung der einzelnen Faktoren an den Standorten mittels einer Punkteskala können qualitative Eigenschaften quantifiziert werden, was den Vorteil gegenüber dem Prüflistenverfahren darstellt. Beispielsweise könnten die Punkte für das Kriterium „Marktnähe“ auf einer Skala von 0 bis 5 Punkten folgendermaßen vergeben werden: kaum zugänglich = 0 Pkt., alle Märkte relativ weit vom Standort entfernt = 1 Pkt., Mehrzahl der Märkte relativ weit vom Standort entfernt = 2 Pkt., ungefähr gleich viele Märkte weit entfernt und nahe liegend = 3 Pkt., Mehrzahl der Märkte liegt in der Nähe = 4 Pkt., alle Märkte sind nahe = 5 Pkt. Gewichtung Zuteilung von Gewichtungen zu den einzelnen Faktoren, um besonders wichtige von weniger wichtigen zu unterscheiden. Franz Wirl: Industriebetriebslehre 69 Aggregation Durch die Multiplikation der Punktewerte mit den Gewichten und Aufsummierung für jeden Standort ergibt sich der Nutzwert. N(sj) = n1j*g1 + n2j*g2+..... Gewählt werden sollte schließlich der Standort mit dem höchsten Nutzwert. Beispiel: Gegeben sind vier potentielle Standorte s1, s2, s3, s4, deren Nutzwerte mit Hilfe der Kriterien „Arbeitskräfteangebot“, „ Nähe der Absatzmärkte“ und „Erhalt von Förderungen“ bestimmt werden sollen. In der Tabelle 2.4 sind die Punktewertungen (n11 bis n34) schon ersichtlich. Standorte s1 s2 s3 s4 Gewichte Arbeitskräfte 7 5 10 5 0.3 Absatz 2 1 4 7 0.5 Förderungen 1 9 6 8 0.2 Die Gewichte g1 bis g3 der Kriterien sollen 0,3 für Arbeitskräfte, 0,5 für Absatz und 0,2 für Förderungen betragen. (Absatz wird also in diesem Fall als der wichtigste Faktor angesehen) Die Aggregation ergibt folgende Nutzwerte: N(s1)= 7*0,3 + 2*0,5 + 1*0,2 = 3,3 N(s2)= 5*0,3 + 1*0,5 + 9*0,2 = 3,8 N(s3)= 10*0,3 + 4*0,5 + 6*0,2 = 6,2 N(s4)= 5*0,3 + 7*0,5 + 8*0,2 = 6,6 Das heißt, der Standort 4 sollte ausgewählt werden. Tabelle 2.3 (Quelle: http://www.regiodata.eu/sites/default/files/regiodata_MietpreiseBuero.jpg) Franz Wirl: Industriebetriebslehre 70 Abbildung 2.2 Hardship rating, from The Economist, Oct 10th 2002, p 110. Port Moresby, capital of Papua New Guinea, is the worst place in the world for foreigners to live in, according to a new “hardship rating” published by the Economist Intelligence Unit, a sister organisation of The Economist. The EIU's index is based on three categories: health and safety, culture and environment, and infrastructure. A rating over 20% indicates hardship; one above 65%, extreme hardship. 3.2.4 Das Steiner-Weber Modell Hierbei handelt es sich um ein kontinuierliches, geometrisches Modell, das auf Arbeiten von Launhardt (1882), Alfred Weber (1909) sowie Lösch und Christaller (40er Jahre) basiert. Annahmen: • • • die Menge O ist gegeben es wird ein Standort s gesucht als potentielle Standorte S kommen alle Punkte der Ebene in Frage (d.h. unendlich viele) • die Transportkosten sind proportional zur Distanz: r r p =1 p =1 K T = ∑ K Tp = ∑ k t * a p * d p , Wobei ap für die vom Standort p weggelieferte Menge steht, und kt für einen standardisierten Kostenfaktor, beispielsweise €/Tonne/km. Der Abstand des gesuchten Standorts von dem jeweiligen Ort wird als „Luftlinie“, angenommen, die mit Hilfe der Euklidischen Formel berechnet werden kann: d p = ( x − x p )² + ( y − y p )² Da die Transportkosten minimiert werden sollen, ergibt sich folgende Zielfunktion: r min K T = k t ∑ a p * ( x − x p )² + ( y − y p )² ( x, y ) p =1 Die notwendigen Optimalitätsbedingungen, die man durch Differenzieren nach x bzw. y und Nullsetzen erhält sind also: Franz Wirl: Industriebetriebslehre 71 r r a p (x − xp ) ∂K T 1 =0 * 2( x − x p ) * 1 = k t ∑ = k t ∑ a p * 12 * ∂x ( x − x p )² + ( y − y p )² ( x − x p )² + ( y − y p )² p =1 p =1 r r ap(y − yp ) ∂K T 1 * 2( y − y p ) * 1 = k t ∑ =0 = k t ∑ a p * 12 * ∂y ( x − x p )² + ( y − y p )² ( x − x p )² + ( y − y p )² p =1 p =1 Bemerkungen: 1. Es handelt sich um zwei nichtlineare Gleichungen. Diese können nur numerisch, beispielsweise mit dem Newton’schen Iterationsverfahren gelöst werden. 2. KT ist konvex in x, y und (x,y), daraus folgt, dass die notwendigen Bedingungen auch hinreichend sind. 3. Eine Erweiterung des Modells wäre möglich, indem die Transportkosten nicht mehr einfach linear ansteigend angenommen werden, sondern in anderer Form abhängig von der Distanz gemacht werden. kTp= kTp(dp) 4. Eine andere Erweiterungsmöglichkeit besteht darin, mehrere Produkte q = 1....q anzunehmen, die von s nach O geliefert werden müssen. Die zu minimierende Kostenfunktion sieht dann folgendermaßen aus, wobei kTqp die Stückkosten für den Transport des Produktes q nach Ort p pro Entfernungseinheit sind: r KT = ∑ p =1 q r q q =1 p =1 q =1 ∑ k Tqp * a qp * d p = ∑ ( x − x p )² + ( y − y p )² ∑ a qp * k Tqp Die letzte Summe kann auf a p zusammengefasst werden, wodurch eine Lösung wie oben möglich ist. 3.2.5 Modelle auf Basis des Transportproblems Im Unterschied zu den kontinuierlichen Modellen kann bei diskreten Modellen nur aus einer vorgegebenen diskreten Menge von potentiellen Standorten ausgewählt werden. Als Ausgangspunkt für die Überlegungen dient das Transportmodell Von den j Quellen j=1,...,n (z.B. Lager, Produktionsstätten), die jeweils eine Kapazität aj haben, sollen die Bedarfe cp der p Senken p=1,...,r (z.B. Absatzmärkte) bedient werden. Zu diesem Zweck werden die Produktmengen xjp von den Quellen zu den Senken transportiert, wobei die Transportkosten minimiert werden sollen: n min K T = ∑ ( x jp ) j =1 r ∑x p =1 k jp Tjp wobei kTjp für die Transportkosten von Quelle j nach Senke p pro Mengeneinheit stehen. Die Nebenbedingungen sind: (1) Die Kapazitäten müssen ausgeschöpft, können aber nicht überstiegen werden: r ∑x p =1 jp = aj (2) Die Bedarfe der Nachfrager müssen gedeckt werden: n ∑x j =1 jp = c p , p = 1...r (3) Nichtnegativitätsbedingungen (es ist nicht möglich, negative Mengen zu transportieren): x jp ≥ 0 Als Lösung des Problems erhält man die Mengen xjp, die von den jeweiligen Quellen zu den Senken transportiert werden sollen. Um das obige Transportproblem in ein Franz Wirl: Industriebetriebslehre 72 Standortproblem umzuwandeln, wird angenommen, dass die Quellen zwar als potentielle Standorte zur Verfügung stehen, aber nicht alle auch verwendet werden müssen. Weiters haben die Quellen im Gegensatz zu vorhin keine Kapazitätsbeschränkungen, weil der Standort erst gewählt werden soll und die Kapazität dann ebenfalls entsprechend gewählt werden kann. n r min KT = ∑ {x jp } ∑x j =1 p =1 k jp Tjp Das heißt, die Transportkosten werden minimiert, unter folgenden Nebenbedingungen (1) Die Bedarfe der Nachfrager müssen gedeckt werden n ∑x j =1 jp = cp (2) Nichtnegativitätsbedingungen x jp ≥ 0 Als Ergebnis erhält man wieder die zu transportierenden Mengen xjp. Ein potentieller Standort j wird gewählt, wenn xjp > 0 ist, für mindestens ein p. Wenn xjp > 0 für ein bestimmtes p, dann sind alle xip = 0 ∀i ≠ j. Das heißt: wenn es keine Kapazitätsbeschränkungen gibt und die Kosten linear sind, wird jeder Ort nur von einer bestimmten Quelle beliefert. Nun sollen einige mögliche Erweiterungen des Modells gezeigt werden. Z.B. können variable (kj, z.B. variable Produktionskosten, die an den einzelnen Standorten unterschiedlich sind) und fixe (fj, z.B. Kosten für die Errichtung eines Betriebsgebäudes, um den Betrieb an einem Standort aufzunehmen) Kosten, die vom Standort abhängig sind, einzuführen. Das Modell sieht dann folgendermaßen aus: n min ( x jp ,Y j ) ∑ r n p =1 j =1 ∑ (kTjp + k j ) x jp + ∑ f jY j j =1 Diese Kosten sollen minimiert werden, unter den Nebenbedingungen: (1) Die Bedarfe der Nachfrager müssen gedeckt werden n ∑x j =1 jp = cp (2) Nichtnegativität: x jp ≥ 0 (3) Yj zeigt an, ob ein Standort verwendet wird oder nicht, und hat den Wert 0 oder 1: Y j ∈ {0,1} r (4) ∑x p =1 jp ≤ NY j wobei N hinreichend groß sein muss, z.B. r N = ∑cp , p =1 damit auch die theoretisch mögliche Lösung, dass alle Kunden von einem einzigen Lager beliefert werden, noch in die Nebenbedingung „hineinpasst“. Wenn Yj gleich 0 ist, führt diese Nebenbedingung dazu, dass auch alle xjp mit diesem j gleich 0 sind, es wird also sichergestellt, dass nicht aus einem „nicht gebauten“ Lager Mengen ausgeliefert werden. Franz Wirl: Industriebetriebslehre 73 Andere Erweiterungsmöglichkeiten sind: die Betrachtung mehrerer Produkte q = 1....q , die Einbeziehung der Tatsache, dass für die Herstellung von verschiedenen Produkten auch verschiedene Anlagen u = 1,..., u benötigt werden, die unterschiedliche Kosten verursachen, oder die Einberechnung von Nachfrage-Interdependenzen (Jacob-Modell). 3.2.6 Das Location-Allocation Modell von Cooper Gesucht ist wiederum die kostenminimale Standortkonfiguration {s(b1 ),..., s(bm )} ⊂ S . Die Menge S der potentiellen Standorte ist unbeschränkt, es handelt sich also wieder um ein kontinuierliches Modell, welches Ähnlichkeiten zum Steiner-Weber-Modell aufweist, allerdings werden nun Standorte nicht nur für eine sondern für mehrere bis zu m Betriebsstätten gesucht. Gegeben ist der Bedarf cp in den Orten r, mit den Koordinaten (xp, yp). Gesucht sind die Koordinaten (xi, yi), i=1,...,m der Standorte der Betriebsstätten, sodass die Kosten minimiert werden. Weiters wird angenommen, dass 2 ≤ m < r , und dass die Kapazitäten der Standorte unbeschränkt ist /bzw. dementsprechend ausgelegt werden kann. Die Kosten setzen sich zusammen aus den Standortkosten KH, welche von der Anzahl der Standorte m abhängen, und den Transportkosten KT. Ein „trade-off“ besteht in der Tatsache, dass eine größere Anzahl von Standorten die Transportkosten verringert, dafür aber zu mehr Standortkosten führt. Das Ziel ist also: r min K = K H + K T = g ( m ) + k T * ∑ p =1 m ∑c Y i =1 p ip ( x i − x p )² + ( y i − y p )² . Nebenbedingung: jeder Ort p wird nur von einem Standort beliefert: m ∑Y i =1 ip = 1 und Yip ∈ {1,0} . Lösungsverfahren: für jede Zahl m und für jede Versorgungsform (d.h. alle dazugehörigen möglichen Lieferbeziehungen zwischen Kunden und Standorten) wird ein Steiner-Weber Problem gelöst. Beispiel: wir haben r = 4 zu beliefernde Orte und wählen m = 2 zu positionierende Betriebsstätten. Eine Möglichkeit wäre, dass Betriebsstätte 1 die Orte 1,2 und 4 versorgt und Betriebsstätte 2 den Ort 3. Für diese Konfiguration wird nun für jede Betriebsstätte einzeln mit Hilfe des Steiner-Weber Ansatzes die optimale Position gesucht, um die ihr zugeteilten Orte kostenminimal beliefern zu können. Eine andere Zuteilungsmöglichkeit wäre: Betriebsstätte 1 beliefert Ort 4, Betriebsstätte 2 beliefert die Orte 1-3 usw. Für jede von allen Zuteilungsmöglichkeiten werden die Steiner-Weber Probleme gelöst, und daraus das minimum minimorum gesucht. Danach muss der gesamte Vorgang für m=3 Betriebsstätten wiederholt werden usw. Der Rechenaufwand für derartige Probleme ist also enorm. 3.2.7 Das Transportation-Location Modell von Cooper Dieses Modell ist eine Erweiterung des Location-Allocation-Modells um Kapazitätsschranken. Weiters ist die Anzahl der Betriebsstätten m gegeben, was dazu führt, dass die Standortkosten schon vorgegeben sind, und daher in der Minimierung nicht mehr betrachtet werden müssen. Die Zielfunktion lautet nun: r min K T = k T ∑ cip p =1 m ∑c i =1 ip ( x i − x p )² + ( y i − y p )² Nebenbedingungen: (1) Die Kapazität der Betriebsstätte i darf nicht überschritten werden: r ∑c p =1 ip ≤ ai (2) Der Bedarf des Ortes p muss befriedigt werden: Franz Wirl: Industriebetriebslehre m ∑c i =1 ip 74 = cp (3) Nichtnegativität: cip ≥ 0 Der Lösungsvorgang ist folgendermaßen: Es werden wieder alle möglichen Zuordnungen von Lieferorten zu Betriebsstätten aufgelistet, und für jede Möglichkeit mittels Steiner-Weber-Ansatz die in diesem Fall optimale Positionierung der Betriebsstätten errechnet. Dann, gegeben die Koordinaten xi, yi der errechneten „Schwerpunkte“, müsste für jede Zuordnung noch das obige lineare Programm gelöst werden, um die optimalen Flüsse cip von den Betriebsstätten zu den Orten zu ermitteln. Dies ergibt wiederum einen großen Rechenaufwand, weil auch noch der Bedarf für Iterationen zwischen den kontinuierlichen Steiner-Weber Problemen und dem linearen Programm besteht. 3.2.8 Simulationsmodelle Im Vergleich zu den bisher genannten Verfahren, die Optimierungskalküle sind, sind Simulationsmodelle nicht unbedingt darauf angelegt, das Optimum zu finden, sondern stellen Vergleiche zwischen unterschiedlichen Szenarien dar. Beispielsweise können bei komplizierten Produktionsabläufen, in denen Störungen vorkommen, unterschiedliche Störfaktoren simuliert werden, und dann überprüft werden, wie oft daraus wirklich Störungen des Ablaufs resultieren. 3.2.9 Innerbetriebliche Standortprobleme Bei der innerbetrieblichen Standortplanung geht es darum, einzelne Einheiten, die wie vorhin als „Betriebsstätten“ bezeichnet werden, (z.B. Maschinen oder Abteilungen zwischen denen die Produkte während des Produktionsprozesses transportiert werden müssen) im Betriebsgelände so zu positionieren, dass die innerbetrieblichen Transportkosten minimal werden. (Ktil steht für die Transportkosten von Betriebsstätte i zu Betriebsstätte l, dil steht wie oben für die Euklidische Norm) m Ziel: min K T = ∑ i =1 m ∑ l = i +1 K Til ( d il ) d il = ( x i − x l )² + ( y i − y l )² Setzt man die Transportkosten zwischen den unterschiedlichen Einheiten als nur von der Distanz abhängig an, ergibt sich folgende Zielfunktion: m KT = ∑ i =1 m ∑ l = iü1 k T ( x i − x l )² + ( y i − y l )² Bemerkung: Um den Platzbedarf, d.h. die räumliche Ausdehnung, der einzelnen Betriebsstätten zu berücksichtigen, kann folgende Bedingung eingeführt werden: d il = ( x i − x l )² + ( y i − y l )² ≥ Ri + Rl . Ri Rl Das oben formulierte Problem lässt sich als quadratisches Zuordnungsproblem lösen, wenn man annimmt, dass man für die m Betriebsstätten auch genau m „Plätze“ hat um diese zu installieren. Diese Annahme, dass für jede Betriebsstätte nur genau eine Möglichkeit der Installierung besteht, wird aber so selten anzutreffen sein, dass hierauf nicht weiter eingegangen werden soll. Franz Wirl: Industriebetriebslehre 75 3.2.10 Das CRAFT-Verfahren als Beispiel für heuristische und computergestützte Verfahren Wie oben bereits mehrfach angesprochen wurde, sind exakte Verfahren trotz heutiger Technologie mit sehr großem Rechenaufwand verbunden, was unter anderem dadurch bedingt ist, dass alle Permutationen und Möglichkeiten durchgerechnet werden müssen. Deshalb wird auf heuristische Verfahren zurückgegriffen, die auf relativ einfache Weise, wenn vielleicht auch nicht zur optimalen, so doch zu guten Lösungen für Standortprobleme kommen. Das CRAFT-Verfahren zur innerbetrieblichen Standortwahl soll nun in Form eines Beispiels dargestellt werden: Gegeben sind vier Einheiten b1 bis b4 und deren Flächenbedarf: Betriebsstätte b1 b2 b3 b4 Flächenbedarf 8, 4, 4 8. Weiters ist die Kontaktmatrix gegeben, die darstellt, wie sensibel die Interaktion zwischen den einzelnen Betriebsstätten ist. z.B. ist der Transport pro Mengeneinheit pro Längeneinheit der Strecke von b1 zu b3 mit einem Wert von 7 fast doppelt so aufwendig wie der Transport von b1 zu b2 mit einem Wert von 4 in der Kontaktmatrix (symmetrisch) b1 b2 b3 b4 b1 0 4 7 3 b2 4 0 6 6 b3 7 6 0 5 b4 3 6 5 0 Franz Wirl: Industriebetriebslehre 76 3 3 1 1 4 4 3 3 2 2 4 4 3 3 1 1 4 4 3 3 2 2 4 4 2 2 1 1 4 4 1 1 1 1 4 4 2 2 1 1 4 4 1 1 1 1 4 4 36 b1 b2 b3 b4 37 38 39 b1 b2 0 3 3 0 3 2 2 5 b1 b2 0 3 3 0 3 2 4 3 b3 b4 3 2 2 5 0 5 5 0 b3 b4 3 4 2 3 0 5 5 0 Distanzmatrix Zuerst wird nun eine Ausgangslösung für die Anordnung der vier Einheiten gesucht, indem diese auf ein Raster mit einer Fläche von 24 aufgeteilt werden. 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 b1 b2 b3 b4 Dann wird der Schwerpunkt/Mittelpunkt jeder Einheit eingezeichnet, und die Distanzen zwischen den Schwerpunkten in eine neue Matrix eingetragen. Die Transportkosten bei dieser Anordnung ergeben sich durch Multiplikation der Entfernung zweier Einheiten mit dem Wert aus der Kontaktmatrix und Addition der Resultate für alle Paare. KT = 4*3 + 7*3 + 3*2 + 6*2 + 6*5 + 5*5 = 106 . Nun erfolgt der iterative Schritt, nämlich das binäre Vertauschen (d.h. es werden immer nur 2 Einheiten in einem Schritt vertauscht) von Standorten, und zwar wählen wir die Vertauschung, die die stärkste Kosteneinsparung ermöglicht. Es wird also b1 mit b2 vertauscht. Distanzmatrix 1 1 2 2 4 4 1 1 2 2 4 4 1 1 3 3 4 4 1 1 3 3 4 4 b1 b2 b3 b4 b1 b2 0 3 3 4 3 0 2 3 b3 b4 3 2 4 3 0 3 3 0 Distanzmatrix Wie vorhin werden in die neue Aufteilung die Schwerpunkte eingezeichnet, die Entfernungen abgezählt, die Distanzmatrix erstellt und die Kosten ausgerechnet. Die Transportkosten betragen: KT = 4*3 + 7*3 + 3*4 + 6*2 + 6*3 + 5*5 = 100, es ist also eine Verbesserung um 6 Geldeinheiten erreicht worden. An dieser Stelle wird nochmals eine Vertauschung vorgenommen, nämlich b3 mit b1. Nach Erstellung der Distanzmatrix und Berechnung der Transportkosten ergibt sich ein Wert von KT = 4*3 + 7*3 + 3*4 + 6*2 + 6*3 + 5*3 = 90. Bei genauer Betrachtung stellt man fest, dass keine kostenreduzierende binäre Vertauschung mehr möglich ist, das Verfahren ist also hiermit abgeschlossen. Dem CRAFT und vielen anderen heuristischen Modellen, wie z.B. dem Umlaufverfahren von Kiehne, liegt das sogenannte „Gradientenverfahren“ (vgl. auch Neighborhood search) zugrunde, das darauf beruht, immer einen Schritt in die Richtung zu gehen, in der der Gewinnzuwachs am größten ist, und nach diesem Schritt wieder neu zu berechnen. Franz Wirl: Industriebetriebslehre 3.3 77 Standortentscheidung unter Konkurrenz (nach Hotelling) Die bisherigen Überlegungen gingen von den Entscheidungen eines Unternehmens aus losgelöst von allen Beschränkungen und Auswirkungen, die durch Konkurrenten gegeben sind. Dies ist klarerweise eine Situation in der sich nicht viele Unternehmen befinden und somit diese ‚Distanzüberlegungen’ nur einen Aspekt abbilden; allerdings wird zu diesem Aspekt nochmals zurückgekehrt. In anderen Worten, die bisherigen Überlegungen waren bar aller strategischer Elemente. Die Frage, die im folgenden adressiert wird ist die, wie soll sich ein Unternehmen positionieren, wenn potentielle Konkurrenten eine ähnliche Entscheidung treffen. Diese Positionierung kann sowohl ‚geographisch’ im Sinne der Wahl der Koordinaten eines Standortes sein, oder aber eine andere Dimension, etwa Qualitätsausprägung eines Produktes. Die folgende Darstellung orientiert aus Gründen der Einbettung in ein Kapitel zu Standortentscheidungen natürlich an der ersten Interpretation. Der folgende Ansatz geht zurück auf Harold Hotelling und kann, in praktischer Anwendung formuliert, folgendes Problem betreffen. Zwei Eisverkäufer wollen entlang eines Strandes der Länge 1 (z. B. km) ihren Wagen so positionieren um natürlich ihren Gewinn zu maximieren. Am Rand, um sich vom Konkurrenten so weit wie möglich zu entfernen, beide in der Mitte (ähnliche einem Cluster, siehe unten), im Drittel, etc.? Es wird angenommen, dass beide dasselbe Produkt verkaufen und dass der Preis p fixiert ist (dieser Punkt wird unten gelockert). Die nachfragenden Kunden sind kontinuierlich und gleichverteilt entlang [0, 1] und jeder hat den Bedarf nach exakt einem Gut. Da das Gut homogen und der Preis ist ebenfalls ident so, dass der Kunde bei dem kauft, der näher liegt, da auf dem Weg zum Geschäftsstandort Transportkosten entstehen. Sei nun x1 der Standort des ersten, und x2 der Standort des zweiten Unternehmens und x die Koordinate eines Konsumenten. Dies ergibt folgende Nachfragesituation Nachfrage für 1 = x‘ Nachfrage für 2 = 1 - x‘ t(x2 – x) t(x – x1) t(x1 - x) 0 t(x – x2) x1 x‘ x2 1 Abb. 2.3 Standortentscheidungen im Hotelling Modell D.h. Die Wahl der Standorte x1, x2 führt dazu, dass alle links von x’ bei 1 einkaufen (also die Nachfrage x’) und alle rechts von x’ bei 2 einkaufen resultierend in der Nachfrage 1 – x’. Jedoch gegeben x2 ist die eingezeichnete Wahl von x1 nicht optimal, denn durch näher heranrücken an x2 kann die Nachfrage erhöht werden, siehe oben. Analoges gilt für x2 und das einzige Nashgleichgewicht ist dann: x1 = x2 = ½ Variation in der Anzahl der Unternehmen (n) n = 3: Kein Nashgleichgewicht in reinen Strategien: Die Beispiele für n = 4 und 8 sind in der Abb. 2.4 ersichtlich. Die Erweiterung der Inklusion von Preisentscheidungen erfordert bei einer zweistufigen Entscheidung. Zuerst wird der Standort festgelegt und dann basierend auf dem Standort wird der Preis bestimmt. Natürlich wird dies spieltheoretisch verkehrt herum aufgezäumt. Franz Wirl: Industriebetriebslehre 78 n=4 A, B C,D 1/4 0 3/4 1 n=6 A, B E,F C,D 1/6 1/3 1/3 1/6 Abb. 2.4: Nash Gleichgewichte der Standortwahl im Hotelling-Modell bei n Firmen Alternative Interpretation: Produktdifferenzierung und Erweiterung um Preiskonkurrenz, wobei die Konsumenten höchstens ein Gut benötigen, dass den Nutzen s stiftet: Hotellings Modell einer linearen Stadt, zwei Geschäfte und Wegkosten t Geschäft 1 0 Geschäft 2 x Kosten tx 1 Kosten t(1 - x) Konsumenten benötigen höchstens ein Gut Abb. 2.5: s - p1 - t x, U = s - p2 - t (1 - x) 0 3.3.1 wenn er in Geschäft 1 kauft, wenn er in Geschäft 2 kauft, wenn er nichts kauft. Anwendung auf Preise für Internet 9 Mason sieht vor allem zwei Hauptursachen für die Probleme. Zum einen sind das neue Anwendungen mit gestiegenem Bedarf an Bandbreite. So benötigt z.B. eine Minute Internetsprachtelefonie die 500-fache Kapazität eines vergleichbaren e-mail Abschnittes, eine Minute Videoconferencing sogar die 15.000fache Kapazität. Die anfallende Datenmenge entspricht etwa einer Übertragung von über 10.000 Seiten Text. Der zweite Grund ist die zunehmende Benutzung von aggressiven Übertragungsprotokollen. Es werden mehr sogenannte user datagram protocols (UDPs), z.B. für Sprachtelefonie, eingesetzt. Das Problem ist, dass sie ihre Übertragungsrate nicht den Übertragungsbedingungen anpassen, wie es transmission control protocol (TCP) tun. Bildlich gesprochen drängen sie sich auf Kosten der anderen Datenpakete in der Warteschlange vor. In der wissenschaftlichen Diskussion kristallisierte sich als Lösung des Überfüllungsproblems eine Preisfestsetzung für Internetressourcen heraus. Ökonomen sind der Meinung, das die Gleichbehandlung aller Ressourcen (wie es derzeit Praxis ist) nicht effizient ist. Die Möglichkeiten der Benutzung sind dafür zu unterschiedlich. Netzwerkmanager ihrerseits sind der Ansicht, das die Steigerung der Kapazität ohne anwachsendem Umsatz zu teuer ist. Im Modell des Artikels wird die Überfüllung als Verminderung der positiven Effekte angesehen. Dieser Artikel geht nur auf zwei verschiedene Methoden ein, wie man die Internetbenutzung vergebühren kann um die Überfüllung zu vermindern. Es gibt natürlich noch viele andere Möglichkeiten. In den Diskussionen, die zu diesem Thema geführt werden und wurden, filterten sich zwei Gemeinsamkeiten heraus. Erstens muß die Einführung einfach genug sein um sie mit vernünftigen Kosten implementieren zu können. Zweitens muß die Methode im Wettbewerb robust und widerstandsfähig sein. Die zwei Methoden sind „the smart market“ und „Paris Metro Pricing“. 9 Basierend auf Robin Mason, „Simple competitive Internet pricing“, European Economic Review 44 (2000), 1045-1056. Franz Wirl: Industriebetriebslehre 79 Das Modell „The smart market“ wurde von Mackie-Mason und Varian 1997 vorgestellt. Es beinhaltet keine Benutzungskosten für die Netzwerkressourcen, solange dort keine Knappheit herrscht. In überfüllten Teilen des Netzes werden die Datenpakete je nach Gebot des Users bevorzugt übertragen. Der User muß für die Übertragung, aber nur das Angebot des höchsten Vorzugsdatenpakets bezahlen, welches nicht mehr übertragen wurde. Das entspricht einer Vickrey Auktion. Es gibt mehrere Kritikpunkte an diesem Schema. • Der User ist nicht nur an einer sofortigen Übertragung interessiert, sondern auch an einer andauernden Verbindung z.B. solange der Telefonat dauert. Eine schnelle Verbindung hat keinen Sinn, wenn das Telefonat dafür zehnmal unterbrochen wird und wir uns jedesmal neu anwählen müssen. • Hinzu kommt, dass die Implementierung zu komplex ist. Die Anforderung an jedes einzelne Datenpaket noch weitere Daten, also das abgegebene Gebot, anzufügen, führt neben der finanziellen Belastung der Users zu einer weiteren Belastung der bereits knapp gewordenen Ressource. Das andere Modell „Paris Metro Pricing“ beruht auf einem Modell, das bis vor etwa 15 Jahren den Kunden der Pariser Metro angeboten wurde. Die Reisenden hatten die Möglichkeit Erster- oder Zweiterklasse befördert zu werden, wobei der einzige Unterschied im Preis der Beförderungsleistung lag. Alle Wagons eines Zuges, also beide Beförderungsklassen, waren identisch ausgestattet und erreichten das Ziel zu selben Zeit, aber da die Ersteklassewaggons teurer waren, wurden sie von weniger Leuten genutzt. Passagiere, denen z.B. ein Sitzplatz sehr wichtig war, und die mehr Platz (weil weniger Leute) haben wollten, waren bereit den höheren Preis zu bezahlen. Odlyzko schlug 1997 dieses Modell auch für das Internet vor: Das Netzwerk soll in Subnetzwerke unterteilt werden, die sich nur durch die zu zahlende Gebühr unterscheiden. Es wird keine Garantie für die Qualität des Services angeboten, aber im Schnitt sind teurere Netzwerke weniger überfüllt und der User entscheidet nach seinen Präferenzen. Der entscheidende Vorteil dieses Modells ist die Einfachheit. Die vorhin genannten Lösungen sind weit entfernt von der derzeitigen Praxis. Die Frage, die derzeit diskutiert wird ist, ob die Benutzung der Internets überhaupt kostenpflichtig werden soll. Es geht nicht darum zu Entscheiden welcher Auktionsmechanismus verwendet werden soll. Es soll entschieden werden ob eine flat rate oder usage pricing besser ist. Um es vorweg zu nehmen, der Konsens der sich für Einwählverbindungen (dial-up access) ins Internet entwickelt, ist eine „flat rate“-Gebührenstruktur, also der unlimitierte Internetzugang gegen eine monatliche Grundgebühr. Mit „Leased line Access“ werden Standleitungen bezeichnet, wobei je nach der Kapazität der Leitung zu bezahlen ist. Der Großteil der User rechnet dabei mit einem Grenznutzenpreis von Null. Ein Monopolist bevorzugt ein nicht lineares Preisfestsetzungsschema non-linear pricing Schema aus strategischen Gründen. Ein Duopolist muß hingegen überlegen ob ein solches Schema den Wettbewerb verstärkt oder verringert. Two-part tariffs, also aus Grundgebühr und variablen Gebühren zusammengesetzte Schemen können für einen Duopolisten zu stärkerem Wettbewerbsdruck als bei flat rates führen. 3.3.1.1 Ein einfaches Modell Dieses Hotelling-type Modell mit variabler Nachfrage und positiven Netzwerkeffekten soll die Möglichkeit geben zu prüfen, ob flat rate pricing (Benutzungsunabhängige Preissetzung) im Gleichgewicht erreicht werden kann. Die Konsumenten sind innerhalb der Intervallseinheit gleich verteilt und jeder Konsument hat eine lineare Nachfrage nach den Produkten einer Firma. Jede Einheit des Produkts kostet in der Benutzung den Preis p, die Nachfrage ist 1 – p Einheiten des Produkts. Es existieren 2 Firmen (0 und 1) die bei 0 bzw. bei 1 auf der Linie liegen. Jeder Konsument (x) ist zwischen 0 und 1 (0 ≤ x ≤ 1) angesiedelt und hat einen Nutzen beim Kauf von Firma 0 von U (x,0) = V + t (1-x) + ½ (1-p0)² + nD0 - f0 V ist ein Grundnutzen den man unabhängig vom gewählten Produkt bekommt. Der Ausdruck t(1-x) stellt die Transportkosten des Konsumentennutzen dar. Es muß t ≥ 0 gelten. ½ (1-p0)² ist der Gewinn den der Konsument beim Kauf von Firma 0 erwirtschaftet bei einem Benutzungspreis von p0 nD0 ≥ 0 ist der Term für den Netzwerkeffekt. D0 ist die Gesamtnachfrage der Konsumenten die von Firma 0 kaufen. n ∈ [0,t] ist eine Konstante. f0 sind die Fixkosten die von Firma 0 in Rechnung gestellt werden. Die Netzwerkeffekte sind nur von der Nachfrage der Firma 0 abhängig. Es wird unterstellt, das die Produkte der Firmen nicht miteinander kompatibel sind. Internet kann als Netzwerk von Netzwerken gesehen werde. Die Herausgabe von Verträgen über die gegenseitige Netzwerkanbindung zwischen den asymmetrischen Netzwerken wird immer wichtiger. Seit 1996 haben Internet Service Provider ihre Vertragsbedingungen radikal verändert. Das führt zu Franz Wirl: Industriebetriebslehre 80 Behauptungen, dass die dominanten Netzwerke ihre Marktposition mißbrauchen, indem sie den kleineren Netzwerken die Verbindung verweigern oder die Qualität der Verbindungen vermindern. Im Modell wird daher angenommen, dass die Produkte der Firmen völlig inkompatibel sind. Diese Annahme dient zur Vereinfachung des Modells, da sich der Autor durch die genauere Betrachtung von Kompatibiltätsgraden keine wesentlichen zusätzlichen Erkenntnisse erwartet. Es wird auch angenommen, das die positiven Netzwerkeffekte dominieren (n≥0), dass also keine negativen Netzwerkeffekte existieren. Die Nutzenfunktion eines Konsumenten, der bei der Firma 1 kauft, lautet wie folgt: U (x,1) = V + tx + ½ (1-p1)² + nD1 – f1 Der einzige liegt in den Transportkosten. tx sind Transportkosten zum Konsumenten. t(1-x) tx x 0 1 Position des Firma 1 Firma 0 Konsumenten Wenn wir eine Firma 0 und eine Firma 1 haben und x die Position des Konsumenten ist, dann ergibt sich der Unterschied durch den Weg, der bis zum Konsumenten zurück gelegt werden muß und die Kosten die dafür anfallen. Die beiden Firmen haben identische Produktionskosten. Sie bestehen aus: • Fixkosten k ≥ 0 pro Konsument und • variablen Kosten c∈ [0,~c) pro Nachfrageeinheit und • Fixe Messkosten m sind Kosten zur Messung des Konsums, wenn ein Preisschema mit Benutzungskomponente benutzt wird. Wenn ein Preisschema ohne Benutzungskomponente benutzt wird, ist m=0. Annahmen 1. Der Grundnutzen V ist im Gleichgewicht so hoch, das alle Konsumenten von einer der Firmen kaufen, aber V ist nicht so hoch, das irgend jemand von beiden Firmen kaufen würde. 2. Die Firmen können nur zwischen 2 Preisstrategien wählen. entweder flat rate oder Zweiteiliger Tarif. (Grundgebühr + Nutzungskosten) 3.3.1.2 Preisfestsetzungsspiel Der Autor versucht im Artikel herauszufinden, ob es möglich ist, dass im Gleichgewicht nur volumensunabhängige Preisschemen (flat rate) benutzt werden. Das Spiel besteht aus zwei Phasen. In der ersten Phase wählen die Firmen ihr Preisschema (flat rate oder two-part-tariff) und die Höhe der Preise aus. Alles geschieht gleichzeitig und unabhängig voneinander. In der zweiten Phase wählen die Konsumenten von welcher Firma sie kaufen und wieviel sie kaufen wollen. (Die Untersuchung konzentriert sich auf symmetrische Gleichgewichte in reiner Strategie. Mischstrategien der Firmen sind nicht erlaubt. Die Konsumenten kaufen jeweils nur von einer Firma). 3.3.1.3 Gleichgewicht In der Grafik werden die Ergebnisse dieses Spieles dargestellt: Franz Wirl: Industriebetriebslehre 81 Das zweigeteilte Gebührenschema kann nur dann ein Gleichgewicht sein, wenn die Fixkosten zur Messung des Gebrauchs (m) nicht zu groß sind, also m <^m. Umgekehrt kann die Lösung mit der Flat Rate nur dann ein Gleichgewicht sein, wenn die Messkosten genügend hoch sind, also m > ~m. Insbesondere gibt es kein Gleichgewicht mit einer flat rate wenn m=0, dann ist ein zweitteiliges Gebührenschema immer die beste Antwort einer Firma, wenn die andere Firma eine Flat Rate benutzt. In der Grafik gibt es 0, 1 oder 2 mögliche Gleichgewichte, die abhängig von den Werten von m (Messkosten) und n (Netzwerkeffekte) und den unterschiedlichen kritischen Werten eintreten. Wenn 1 Gleichgewicht existiert ist die Flat Rate das einzige Gleichgewicht für hohe Meßwerte, wenn m größer als ^m. Der zweiteilige Tarif ist das einzige Gleichgewicht für niedrige Messwerte, wenn m niedriger als ~m. Für mittlere Messwerte, wenn m zwischen ~m und ^m, entstehen bei niedrigen Netzwerkeffekten n mehrere Gleichgewichte, während kein Gleichgewicht bei genügend großen n existiert. Es gibt ein Gleichgewicht in dem beide Firmen einen zweiteiligen Tarif wählen, dann und nur dann wenn n ≤ n* und m ≤ m~. In diesem Modell wird Überfüllung als eine Verminderung von n interpretiert. Das Schema zeigt, dass flat rate pricing in einem Gleichgewicht erreicht werden kann, wobei beide Firmen positive Netzwerkeffekte erleben, aber mit Überfüllung. (Der Wert von m der genügt um die Existenz eines flat rate Gleichgewichts sicher zu stellen, kann sehr klein sein.) Die Hauptergebnisse dieses Abbschnittes sind in der Abbildung dargestellt. Die Abbildung zeigt die unteschiedlichen möglichen Ergebnisse im Gleichgewicht im (m,n)-Raum. Die Details werden in Annahme 1 festgehalten. Die Lösung des two-part-tariffs kann nur ein Gleichgewicht sein, wenn die Fixkosten von benutzungsabhängigen Preisen nicht allzu hoch sind: m < ^m. Umgekehrt kann die flat rate Lösung nur ein Gleichgewicht sein, wenn die Fixkosten bei der Berechnung von usage prices genügend hoch sind. (m>m~). Das flat rate Gleichgewicht existiert nicht, wenn m = 0 ist. Wenn die anderen Unternehmen sich für flat rate entscheiden, dann ist ein two-part-tariff die beste Reaktion darauf. Daraus folgt, das es kein Flat-Rate-Gleichgewicht geben kann. Das Modell zeigt auch, dasses 0, 1 oder 2 mögliche Gleichgewichte, abhängig von den Werten von n und m und den verschiedenen kritischen Levels, geben kann. Wenn ein Gleichgewicht existiert, dann ist das einzige Gleichgewicht für hohe Werte von m (größer als m^) die flat rate. Für niedrige Werte von m (kleiner als m~) ist das einzig mögliche Gleichgewicht der two-part-tariff. Für Werte zwischen m~ und m^ kann es, für genügend niedrige n, mehrere verschiedene Gleichgewichte geben, während es kein Gleichgewicht für genügend große n gibt. Die Abbildung zeigt allerdings nur Fälle, wo m^> m~. Im Fall m^ < m~ können keine mehreren Gleichgewichte. Die folgende Annahme setzt die Hauptbedingungen für die Existenz von symmetrischen Gleichgewichten fest. Annahme 1: Ein Gleichgewicht, wo beide Firmen einen two-part-tariff wählen existiert, wenn und nur wenn n ≤ n* und m ≤ m^. Wenn n ≤ n~ existiert ein Gleichgewicht, wo beide Firmen eine flat rate wählen, wenn und nur wenn m > m~. Wenn n ∈ (n*,n-] ist die notwendige und ausreichende Bedingung m > m- > m~. Wenn n > n-, m > m- ist die Bedingung ausreichend, aber nicht notwendig. In diesem Modell wird Überfüllung als ein Rückgang in n dargestellt. Die Annahme indiziert, das bei flat rate pricing ein Gleichgewicht mit gesamt positiven Netzwerkeffekten zwischen zwei Firmen erreicht Franz Wirl: Industriebetriebslehre 82 werden kann, aber mit Überfüllung. Um die Existenz von einem flat rate Gleichgewicht sicher stellen zu können, kann der Wert von m sehr klein sein. Zur Veranschaulichung nehmen wir t=1, c=0,04 und -6 m=0,003 an. In diesem Fall ist n~=0,6803, n^=0,7370, n-=0,7406, n*=0,7492, m*=4,8X10 und m=0,1157. Für n<0,3026 beinhaltet das einzige symmetrische Nash Gleichgewicht eine flat rate. In diesem fall sind die Fixkosten für die Messung der Nachfrage in der Größenordnung kleiner als die Einheitskosten. Sie stellen sicher, das bei usage pricing kein Gleichgewicht erreicht werden kann. Diese Annahme wird für den symmetrischen two-part-tariff und das flat rate Gleichgewicht analysiert. f2part = t + k - n/2 (1 + n/2 - c), p2part = c - n/2 fflat = t + k + c - n Der Benutzungspreis p2part beim two-part-tariff ist kleiner als die unit costs c; der Fixpreis f2part ist unter den Standard Hotelling level, t + k, daher vermindern die positiven Netzwerkeffekte beide Preise: die Firmen treten heftiger in Wettbewerb, um ihre Marktanteile und die totale Nachfrage zu vergrößern, und um für die Konsumenten attraktiver zu sein. Für genügend große n, größer als n*, existiert kein Gleichgewicht im two-part-tariff. Der usage price p2part kann negativ sein, wenn n > 2c, also wenn die Firmen die Nachfrage nach ihren Produkten subventionieren. Die flat rate hat eine ähnliche Interpretation: der Hotelling price ( Einheitsproduktionskosten k+c plus horizontales heraufsetzten von t) minus einem Betrag, um wachsende Wettbewerb zu zeigen, wenn positive Netzwerkeffekte vorhanden sind. Welches Gleichgewicht den größeren Profit hervorbringt, hängt von der Intensität des Wettbewerbes für die Grenzkonsumenten und der größe der Fixkosten m ab. Im two-part-tariff Gleichgewicht gilt: π2part = ½ (t-n) – n/2 (n/2 – c) – m; im flat rate Gleichgewicht gilt: πflat = ½ (t – n). Unter der Annahme dass m=0, dass also nur mehr die Wettbewerbseffekte übrig bleiben, dann sind die Profite, wenn n=0 in beiden Gleichgewichten gleich wie t/2. Beim flat rate Gleichgewicht fragen alle Konsumenten eine Einheit nach. Dieses Modell entspricht genau dem gewöhnlichen Hotelling-Aufbau. Wenn n größer als 0, aber kleiner als 2c, geniesen die Unternehmen im two-part-tariff 2 Vorteile Gegenüber der flat rate: Wenn der Benutzungspreis positiv ist, machen die Grenznutzer einen kleineren Verlust in variabler Nachfrage, und der Wettbewerb ist nicht so stark, seit/wenn sie einen kleinen Überschuß erhalten (alle anderen Dinge sind identisch). Wird n größer, verringert sich der Benutzungspreis bis n=2c. Die Preise in den zwei Gleichgewichten sind gleich: sie beinhalten beide einen Fixpreis von t+k-c und keine Benutzungskomponente. Von diesem Punkt an (n>2c) sind die Vorteile für die Unternehmen im two-part-tariff Gleichgewicht gegenüber zu flat rate gegenteilig: Sie machen einen größeren Verlust an variabler Nachfrage aus und wirken stärker für den größeren Gewinn für die Grenznutzer. 3.3.1.4 Wohlfahrtsvergleiche Es ist aufrichtig den sozialen Zugewinn in den zwei Gleichgewichten zu kalkulieren. Die verschiedenen Ausdrücke führen direkt zu den folgenden Behauptungen. Annahme 2: Sozialer Zugewinn ist größer (kleiner) bei den zweigliedrigen Gleichgewichtspreisen, wenn flache Gleichgewichtspreis: (n-2c)² > (<) 16m. Die Annahme ist nicht davon abhängig, ob ein spezielles Gleichgewicht existiert oder nicht. Kleinere Fixkosten beim usage pricing sind für das two-part-tariff Gleichgewicht von Vorteil. Sozialer Zugewinn ist in diesem Gleichgewicht, unabhängig von den Netzwekeffekten, höher. Vom vorhergehenden Abschnitt wissen wir, dass die Gewinne beim two-part-tariff niedrig sind, unabhängig von hohen oder niedrigen n, wenn m strikt positiv ist. Für genügend kleine und genügend große Netzwerkeffekte ist der Gewinn für den Konsumenten höher beim two-part-tariff pricing; für Werte, die dazwischen liegen, ist der Gewinn für den Konsumenten höher bei flat rate pricing. Zum besseren Verständnis, denken wir uns das mit den Extremen durch. Setzen wir n=0, zeigt Annahme 1 für diesen Fall f2part = t + k und p2part = c und fflat = t + k + c. Die Konsumenten fragen beim 2two-parttariff weniger nach, zahlen aber auch weniger. Die Verminderung des Preises, der bezahlt wird, ist erster Ordnung, die Reduktion des Zugewinns ist zweiter Ordnung. Daher ist der Gewinn für die Konsumenten größer beim two-part-tariff. Für n nahe bei Null, ist der Gewinn für die Konsumenten größer mit dem twopart-tariff. Für n ≥ 2c zeigt Annahme 1, dass f2part ≤ fflat und - p2part ≤ 0. Es wird deutlich, dass der Gewinn für die Konsumenten im two-part-tariff Gleichgewicht größer wird. Für Werte von n die dazwischen liegen, bedeutet die Reduktion der Nachfrage von einer positiven Benutzungsgebühr, dass der two-part-tariff für die Konsumenten einen niedrigeren Gewinn bringt, als die flat rate. Wenn n genügend klein oder genügend groß ist, sodas (n – 2c)² > 16m, so bedeutet das, dass der Kombinierte Effekt von einem Franz Wirl: Industriebetriebslehre 83 größeren Zugewinn für den Konsumenten und einem kleineren Profit so ist, das der soziale Zugewinn im two-part-Gleichgewicht gößer ist. 3.3.1.5 Schlussfolgerungen • Es ist notwendig, einfache Preisschemen zu haben, die auch in Wettbewerbssituationen funktionieren. • Eine der Modellannahmen ist die Einschränkung der Firmen auf zwei mögliche reine Preisstrategien (Flat-Rate und Two-Part-Tariff). Um das Modell zu ergänzen was in dem Artikel auch aus Platzgründen unterblieb, müsste diese Einschränkung erweitert werden. • Abschließend führen die Erwägungen des Artikels zu folgendem Schluss: Betrachtet wird ein Modell, wo differenzierte Firmen in Gegenwart von positiven Netzwerkeffekten in Wettbewerb stehen und Überfüllung als Verminderung der positiven Netzwerkeffekte gesehen wird. Two-PartTariffs benötigen Fixkosten, um die Messung des Verbrauchs zu ermöglichen. Schon sehr kleine Fixkosten können zu Gleichgewichtssituationen führen wo nur mehr flat rate pricing möglich ist. Nur bei sehr geringen Messkosten werden sich zweiteilige Tarife (mengenabhängige Tarife) finden. Franz Wirl: Industriebetriebslehre 3.4 84 Ökonomische Geographie – ein Ansatz von Paul Krugman Die Ökonomische Geographie ist ein relativ junger Zweig, der versucht zu erklären, warum Agglomerationen entstehen. Zuerst sollen einige überraschende die Größe von Städten betreffende Gesetzmäßigkeiten gezeigt werden: Zipf’s Gesetz der Ranggrößenregel, das einer Strömung entspringt, die man auch als „Soziale Physik“ bezeichnet, besagt, dass die Bevölkerungszahl einer Stadt (Nj) indirekt proportional zu ihrem Rang Rj ist. Die zweitgrößte Stadt hätte also dementsprechend die Hälfte der Einwohner der größten, die drittgrößte Stadt ein Drittel der größten u.s.w: ln( N j ) = k ⇒ ln k − b ln R j R bj k ist eine Konstante. Wenn nun der Koeffizient b den Wert 1 hat, ergibt sich die oben beschriebene Regel. Für die Vereinigten Staaten von Amerika hat Paul Krugman versucht, dies empirisch darzustellen, und wie aus der Abbildung 2.6 erkennbar ist, ergibt sich in der Tat annähernd eine entsprechende Gerade. (Koeffizient b ist rund 1). Die untere Grafik zeigt, dass dieses Verhältnis für verschiedene Zeitpunkte der Geschichte ebenfalls gilt, wobei hier N für die Anzahl der Städte steht, die eine bestimmte Größe S haben. Abbildung 2.6 (Quelle: Krugman S. 40, Abb. 3.1 und S. 41, Abb. 3.2) Franz Wirl: Industriebetriebslehre 85 Auch für die österreichischen Städte ergibt sich, wenn man den “Wasserkopf” Wien weglässt, dieses Bild: Wien Wien 1878368 Graz Stm 302324 Linz OÖ 276888 Salzburg Sbg 212107 Innsbruck Tir 179224 Bregenz Vbg 177142 Klagenfurt Ktn 100770 Wels OÖ 76899 Villach Ktn 68308 Wiener Neustadt NÖ 65016 Sankt Pölten NÖ 63383 Steyr OÖ 57778 Feldkirch Vbg 56416 Knittelfeld Stm 50056 6,5 ln(Bev.) 6 5,5 5 4,5 4 -0,25 0,25 0,75 1,25 ln(Rang) 2 ln(Bevölkerung) = 5.92 - 1.06ln(Rang), R = 0.94 (0.07) (.08) 5.92 -1,06 Bevölkerung = e R lnk 5.92 R = 1 = k = e (weil ln(1) = 0, daher im obigen Beispiel = e ) ≈ Bevölkerung in der größten Stadt. Abbildung: 2.6 Diese Potenzverteilung (power law, Pareto-Verteilung) ergibt sich aus dem Gesetz von Gibrat: das Wachstum von Firmen (aber auch von Städten) ist unabhängig von der Größe. Historisch war von Thünen einer der ersten, die sich eingehend mit dem geographischen Verhältnis Stadt-Hinterland beschäftigten. Er beschreibt, wie sich aufgrund der unterschiedlichen Transportkosten verschiedener Güter (z.B. Salat und Frischgemüse haben hohe Transportkosten, da sie nicht lange gelagert werden können, Getreide und Kartoffeln geringere...) um das Zentrum herum konzentrische Kreise bilden, wobei die am weitesten innen gelegenen Grundstücke für die Produktion der Güter genutzt werden, die die höchsten Transportkosten im Verhältnis zum Preis haben. Von Thünen’s Ansatz beschreibt, wie die Landnutzung um die Stadt herum organisiert werden wird, er erklärt aber nicht, warum eine Stadt entsteht, sondern er nimmt einfach das vorhandene Marktpotential der Stadt schon als gegeben an. Was dabei fehlt, ist u.a. die Einbeziehung der Tatsache, dass Standortentscheidungen durch das vorhandene Marktpotential beeinflusst werden, diese sich wieder auf das Marktpotential auswirken und die Standortentscheidungen anderer Unternehmen beeinflussen. Diese Effekte sollen hier nicht nur verbal beschrieben, sondern auch in Modellform erklärt werden, da es in der Geschichte der Wissenschaft schon oft der Fall war, dass man zwar Tatsachen beobachten konnte (z.B. dass die Franz Wirl: Industriebetriebslehre 86 Umrisse der Kontinente so aussehen, als ob sie ineinander passen würden), die sich daraus möglicherweise ergebende Schlussfolgerung („Vielleicht war es einmal ein großer Kontinent, der auseinandergerissen ist?“) aber nicht annehmen konnte, da die zugrundeliegenden Mechanismen, die dieses Ergebnis erklären könnten (Plattentektonik) noch nicht bekannt waren. Aus diesem Grunde ist es in der Wissenschaft wichtig nicht „nur“ Beobachtungen zu beschreiben, sondern auch zu versuchen, allgemeingültige Modelle zu finden, die sie erklären. Paul Krugman versucht nun in seinem Modell, die Entwicklung von Zentren aus einer ungefähren Gleichverteilung nachzuvollziehen. Hierbei kommen auch die Überlegungen aus der deutschen Geometrie (Weber, Lösch), in denen eine Betriebsstätte oder ein Standort als „Schwerpunkt“ gesehen wird, wieder zum Tragen. Er versucht positive Feedbacks, wachsende Skalenerträge, Transportkosten und Marktpotential in seine Analyse mit einzubeziehen. Modell: • Es gibt zwei Klassen von Gütern, die mit A bezeichneten landwirtschaftlichen Güter, und die mit M bezeichneten Industriegüter. • Die Konsumpräferenzen hängen vom Konsum beider Güterklassen folgendermaßen ab: U = C Mµ C 1A− µ , • wobei CM für ein Aggregat vieler unterschiedlicher Industriegüter steht, bei denen die Preiselastizität für jedes Gut gleich ist, und die Konsumenten eine große Auswahl verschiedener Produkte σ σ −1 σ −1 C M = ∑ ci σ , i die landwirtschaftlichen Güter sind hingegen homogen. • Die landwirtschaftliche Bevölkerung (LAi) ist in jedem Standort fix, die Arbeiter im Industriesektor (LMij) sind mobil. • Die Produktion in der Landwirtschaft erfolgt linear abhängig von der Anzahl der Arbeiter: QAi = LAi, während im Industriesektor auch Fixkosten berücksichtigt werden: Q Mij = • 1 β LMij − α β Die Transportkosten werden nach dem „Eisbergmodell“ dargestellt, d.h. die transportierte Gütermenge verringert sich im Laufe des Transportes („schmilzt ab“). Die aus dem Ort i versandte im Ort k ankommende Menge des Produktes j errechnet sich folgendermaßen: Z jik = e −τDik x jik wobei Dik für die Distanz der Orte i und k steht und xjik die von i nach k abgesandte Produktmenge des Produkts j ist. τ ist eine technologieabhängige Konstante, ein hoher Wert verursacht hohe Transportkosten, ein niedriger Wert dieses Parameters niedrige. • Weiters fließt in dieses Modell die Mobilität der Arbeitskräfte ein, nämlich insofern als angenommen wird, dass umso mehr Industriearbeitskräfte in einen Standort strömen, je höher der Lohn dort über dem Durchschnittslohn aller Standorte liegt, und dass die Arbeitskräfte umso stärker aus einem Ort wegwandern, je mehr der Lohn dort unter dem Durchschnittslohn liegt. Der Durchschnittslohn berechnet sich als Produkt des Lohns eines Ortes mit dem Prozentsatz der dort ansässigen Industriearbeitskräfte: ω = ∑ λMiω i • Die Dynamik der Arbeitsmobilität sieht folgendermaßen aus: λMi = dλMi λ = ρλMi (ωi − ω ) bzw. umgeformt: Mi = ρ (ω i − ω ) . dt λMi Franz Wirl: Industriebetriebslehre 87 Bemerkung: Es werden hierbei kurzfristige Gleichgewichte betrachtet, was dem Dixit-Stiglitz-Modell der monopolistischen Konkurrenz entspricht. Paul Krugman hat das oben skizzierte Modell simuliert (d.h. mit verschiedenen Parameterwerten durchgerechnet), meist ausgehend von einer ungefähren Gleichverteilung der Industriearbeiter auf 12 Städte, und ist immer wieder auf das Ergebnis gestoßen, dass sich zwei oder mehrere gleich große und in gleichen Abständen von einander gelegene Zentren herausbilden, die von den anderen Standorten die Industrien abziehen. Diese Zentren bilden sich meist an den Orten, die in der anfänglichen „beinahe Gleichverteilung“ einen etwas größeren Arbeitskräfteanteil zugeteilt bekommen hatten. Die Entwicklung eines solchen Simulationslaufes zeigt die folgende Abbildung (Quelle: Krugman, S. 90). Abbildung 2.7 (Quelle: Krugman, S. 90) Bemerkung zur Robustheit geographischer Agglomerationen (von Städten): Paul Krugman, journal of Economic Perspectives, Winter 2002, 247: „Donald Davis and David Weinstein, ‚Bones, bombs, and break points: The geography of economic activity, points out that the U.S. bombing campaign against Japan in the closing months of World War II constituted a sort of gruesome natural experiment testing robustness of cities …. Even large temporary shocks to urban areas have no long run impact on city sizes.’” Die Bedeutung der Skalenerträge für geographische Agglomerationen zeigt sich auch in Details wie der 10 Tatsche niedrigerer Konsumentenpreise in großen Städten (auf Grund gesteigerter Konkurrenz) . 11 Ciccone untersucht empirisch diese Agglomerationseffekte und insbesondere die dahinter stehenden Skalenerträge und eventuelle Ursachen oder besser gesagt Indikatoren, dafür. 10 O’Conell Paul G. J. und Shang-Ji Wie, The bigger they are, the harder they fall: Retail price differences across U.S. cities, Journal of International Economics 56, 21 – 53, 2002. 11 Antonio Ciccone, Agglomeration Effects in Europe and the USA, Working Paper, 2001. Franz Wirl: Industriebetriebslehre 88 Prognose hinsichtlich der Entwicklung europäischer Städte: Abbilung 2.8 (Quelle: Regional overview-Growth Prospects for Europe’s cities, 2012, Anthonys Light, Oxford Economics) Franz Wirl: Industriebetriebslehre 89 Antonio Ciccone, Agglomeration Effects in Europe and the USA, Working Paper, 2001. Produktivität (1988) und Dichte in den USA Dichte (Index) Produktivität District of Columbia 1.67 43 164 US$ New York 1.59 41 921 US$ New Jersey 1.48 44 488 US$ Massachusetts 1.47 3 7 296 US$ Illinois 1.46 39 150 US$ Nevada 1.20 36 234 US$ Idaho 1.17 29 861 US$ South Dakota 1.15 26196 US$ North Dakota 1.12 30 248 US$ Montana 1.10 30 302 US$ Abbildung 2.9: Roots of development, Oct 3rd 2002 , The Economist What matters most for development—geography, institutions or policy? ECONOMIC growth in poor countries, it seems reasonable to suppose, depends on getting lots of different things right, and probably on a generous measure of good luck as well. Is it possible to say which factor or factors matter most? For many years economists emphasised the importance of good economic policy (though often disagreeing about which policies were good and which not so good). Lately, it has become orthodox to stress the importance of long-lived “institutions” that are conducive to growth: political stability, property rights, legal systems, patterns of land tenure, and so on. Other economists instead put great weight on geography, especially climate (which affects the incidence of disease, the applicability of some technologies, agricultural opportunities, and more) and access to the sea (which affects the scope for international integration). Such explanatory factors need not be mutually exclusive. Successful development could depend on all of the above. Rich economies usually combine competent policy (on the whole), sound and stable institutions and favourable geography. Many of the world's poorest countries score badly on all three counts. Still, it would be interesting to discover that policies, say, matter much more than geography—and it would be encouraging too, because policies are easier to change than whether a country is in the tropics or has access to the sea. A new paper by William Easterly of the Centre for Global Development and Ross Levine of the University of Minnesota tests the importance of these three sets of factors, looking at a sample of 72 rich and poor countries. The results are intriguing. Institutions turn out to matter most—but that is putting it mildly. Geography and policy, as influences in their own right, turn out to matter not merely less than institutions but, roughly speaking, not at all. Take policy first. In this study the quality of policy is measured by inflation, openness to trade, exchange rates and so forth. The finding that policy in these areas does not drive development seems surprising, and at odds with a lot of other work, as the authors acknowledge. One explanation may be that other studies relate good policies to growth rates, whereas Mr Easterly and Mr Levine relate it to the level of income. Why would that matter? Possibly, bad policies curb growth rates for a spell, but not enough to have a significant effect on incomes in the long term. Or the reason could be that some other studies fail to include institutions alongside policies as a possible explanation for development. If low-income countries with bad policies also have bad institutions, and institutions are not included in the analysis, then bad policies may act as a proxy for bad institutions, and appear to be the true underlying influence. At any rate, the study finds that countries with good institutions tend to do all right with good or bad policies. In the same way, countries with bad institutions tend to do badly regardless. Germ of an idea Other studies say that geography matters a lot. In this case, Mr Easterly and Mr Levine agree, sort of, because they find that geography affects institutions. Favourable geography, they find, promotes good institutions; good institutions then promote development. When the study looks at the economic influence of geography in its own right—that is, does geography affect income independently of promoting good institutions?—they find no clear connection. In itself, in other words, good geography does not seem to count. A country with bad geography and good institutions will do fine. A country with good geography and bad institutions will not. It is only in so far as good geography breeds good institutions that good geography promotes development. But hang on. Why on earth should good geography favour good institutions? The authors explain that this odd-seeming finding is consistent with a plausible theory set out and defended empirically elsewhere. The 72 countries in the sample are all former colonies. Europeans followed a variety of colonial strategies. In North America, Australia and New Zealand, Europeans settled in large numbers and created institutions to protect private property and curb the power of the state. In most of Africa and Latin America, Europeans never wished to settle and instead concentrated, to varying degrees, on extracting metals, cash crops and other resources: less democracy, less regard for property rights. Why did Europeans settle in North America and not in Africa? Because of geography—that is, because of germs. Where settler mortality was low, because geography and climate were conducive to good health, Europeans moved in and planted good institutions. Where settler mortality was high, because of bad geography, they stayed away and planted bad institutions. These institutions, good and bad, put down roots—and the result, broadly speaking, is the pattern of income you see today around the world. Institutions are more difficult to change than policies, of course. If that were not so, the European colonial legacy emphasised in this account of development would not have been so enduring. But institutions are presumably not as resistant to reform as geography. Franz Wirl: Industriebetriebslehre 90 Spelling out more precisely—or with any precision at all—how to get from bad to good institutions is, on this view, the real challenge for develop 3.5 Clusters - ein Ansatz von Michael E. Porter In seinen Überlegungen (z.B. Clusters and the New Economics of Competition,Harvard Business Review Nov-Dec. 1998, 77 – 90.) geht Porter von dem Paradoxon aus, dass Firmen heutzutage sehr flexibel global Güter und Dienstleistungen beschaffen können – auch aufgrund sinkender Transportkosten – und daher eigentlich zu erwarten wäre, dass Standortentscheidungen weniger wichtig werden: „Now that companies can source capital, goods ... around the world, often with the click of a mouse, ... in theory, the role of local competition should diminish ...“ Aber wenn daher Standorte weniger wichtig sind, warum sind dann: z.B. die besten (world class) mutual funds eher in Boston, Textilbetriebe eher in North Carolina, Qualitätsautoproduktion in Süddeutschland und Modeschuhwerk in Norditalien? Man sieht also, dass die wirtschaftliche Landkarte - ähnlich den in der ökonomischen Geographie beschriebenen Phänomenen - durch Clusters dominiert ist. Unter einem Cluster versteht man eine geographische Konzentration von irgendwie verbundenen Unternehmen und Institutionen (z.B. Universitäten) in einem bestimmten Gebiet. Es sind Agglomerationen, die kritische Massen übersteigen und unüblichen ökonomischen Erfolg aufweisen. Silicon Valley (Computer) und Hollywood (Filmindustrie) sind die bekanntesten Beispiele. Diese Verbindung inkludiert eine regionale Integration wichtiger Vorleistungen für das Produkt und von Dienstleistungen, sowohl upstream als auch downstream. Paradoxon: Der andauernde kompetitive Vorteil in einer globalen Ökonomie muss lokal bedingt sein! Er muss also in Dingen wie Wissen, Beziehungen und Motivation liegen, die nicht transportfähig sind. Darin liegt der Unterschied zu den früheren Erklärungen in denen sich aufgrund der Konkurrenz durch Inputkosten (natürliche Vorteile, Hafen, billige Arbeit etc.) bestimmte Standortverteilungen ergeben. Clusters erhöhen also auf Grund der Nähe und des wiederholten Austausches das Vertrauen und verbessern die Koordination. (Wissen kann lokal sein und vor allem nur lokal weitergegeben werden, in Form von persönlichen Kontakten und Diskussionen, die nicht schriftlich und nicht in prozeduraler, später von Dritten nachvollziehbarer Form erfolgen. (z.B. Softwareentwickler treffen einander in einer Bar und besprechen informell auch berufliche Dinge, ziehen aus diesem Gespräch mit Kollegen einen Vorteil für ihre weitere Arbeit.) Auch zeigen empirische Studien, dass der persönliche Kontakt (u.A. das Beobachten der Körpersprache) für Menschen wichtig ist, um die Glaubwürdigkeit eines potentiellen (Vertrags-) Partners einschätzen zu können, was die Stabilität von Verträgen verbessert. Daher sind Clusters ein intermediäres Arrangement, das die Nachteile von Marktbeziehungen (arm’s length) und die Inflexibilität von vertikalen Integrationen und formalen Allianzen mildert. Weitere Vorteile von Clusters sind: bessere Wahl der Inputs und Abstimmung, bessere Information (diese Vorteile bietet auch eine Allianz, aber nur um den Preis von Inflexibilität) + besserer Zugang zu Anbietern und Arbeitnehmern (aber auch stärkere Konkurrenz um Talente!) + Komplementaritäten, Bsp: Tourismus: Natur + Hotels, Möbelindustrie: lokale Forstindustrie, Sägewerke, Marketing etc. + Zugang zu Institutionen, öffentlichen Gütern (z.B. Universitäten, Infrastruktur) + Bessere Motivation auf Grund lokaler Rivalitäten und Konkurrenz, ‚peer pressure‘. Die untenstehende Abbildung (Quelle: Porter S. 82) zeigt einige Beispiele: für Clusters in den USA Franz Wirl: Industriebetriebslehre 91 Abbildung 2.10 Clusters in den USA 3.5.1 Evolution von Clusters und Beispiele Zuerst muss ein Auslöser (“trigger”) vorhanden sein, dann kann es durch Rückkoppelungseffekte, wie sie bei Krugman beschrieben sind, zu Clusterbildung kommen. Beispiele: - Die Entstehung des Medizin-Clusters in Massachusetts wurde gefördert durch die Nähe zur Harvard University und dem MIT. In diesem Cluster sind ca. 400 Unternehmen, die ca. 40.000 Arbeitsplätze bieten. - In den Niederlanden wurde durch die Geographie (Häfen) die Entstehung eines Transportclusters bestimmt. - Aufgrund des Wassermangels in der Region und der politisch bedingten Autarkie in der Versorgung kam es in Israel zur Bildung eines Clusters für Bewässerungstechnik. - Der Cluster für Golfausrüstung bei San Diego ist ein Ableger der Raumfahrtindustrie. Oft gehen lokale Cluster von innovativen Unternehmen aus, andere bilden sich durch die Integration von wachsenden Clusters, z.B. in Deutschland von Küchenmöbel und Küchengeräte. Ein Problem von Clusters ist eine Anfälligkeit auf Nachfrageänderungen, insbesondere wenn sich innerhalb des Clusters gewisse Rigiditäten herausgebildet haben. z.B. Hatte in den 70er Jahren die Autoindustrie in Detroit große Schwierigkeiten, sich von den benzinfressenden Autos auf andere umzustellen. Wichtig für Standortentscheidungen ist, dass man nicht nur die Inputkosten evaluiert, sondern die Gesamtkosten berücksichtigt, wobei nicht vergessen werden darf, dass Erfolg im globalen Markt vorerst Franz Wirl: Industriebetriebslehre 92 Erfolg im Heimmarkt bedingt, und man das lokal vorhandene Innovationspotential in den Kostenvergleich einbeziehen muss. z.B.: Hewlett Packard, ein Unternehmen, das in verschiedenen Branchen tätig ist, hat den Bereich Software, PC, Workstation in Kalifornien angesiedelt, und den Bereich medizinische Geräte (mittlerweile Agilent-Technology – ausgegliedert von HP im Jahre 2000) in Massachusetts – entsprechend der Aufteilung der Cluster. Beispiel: Wein-Cluster in Kalifornien (Quelle: Porter, S. 79) Abbildung. 2.11 Wein-Cluster in Kalifornien Im Zentrum dieses Clusters stehen die 680 kommerziellen Winzer und tausende unabhängige Bauern, die Weinstöcke ausgesetzt haben. Dies beruht auf dem lokalen Vorteil des für Weinbau gut geeigneten Klimas. Dazu kommen zur Weinproduktion komplementäre und unterstützende Industrien wie die biotechnische (Züchtungen) und chemische (Dünger), Bewässerung, Erntegeräte, Fässer, Etiketten, P.R., Zeitschriften über Wein, Korken, etc. Eine wichtige Rolle spielen auch lokale Institutionen, wie z.B. die University of California at Davis, die ein Önologie (Weinkunde) Programm anbietet und ein Weininstitut unterhält, das die wissenschaftlichen Grundlagen liefert (=“öffentliches Gut“). Weiters gibt es Verbindung zum Tourismuscluster (Restaurants, Weintourismus) Beispiel: Cluster der Lederindustrie in Norditalien (Quelle: Porter, S. 80) Dieses Cluster beinhaltet die weltberühmte Modeschuhindustrie (wie Gucci und Ferragamo), spezialisierte Lieferanten von Teilen, von Maschinen, Fassungen, Design, Gerbereien. Es bestehen auch Verbindungen zu den Herstellern anderer Lederwaren oder anderer Arten von Schuhen (bedingt durch ähnliche oder überlappende Technologien), sowie zum italienischen Textilcluster. Dadurch besteht auch die Möglichkeit, die Produkte gemeinsam zu vermarkten. Franz Wirl: Industriebetriebslehre 93 Abbildung 2.12 Das Cluster der Lederindustrie in Italien Einige Probleme, die in Clusters enstehen können, werden in dem Artikel: The complications of nd clustering: The Economist, January 2 1999, S 57-58 an italienischen Beispielen dargestellt. Die berühmte italienische Konsumgüterindustrie wird gehalten von der zweiten weniger bekannten Ebene, die Maschinen und Geräte erzeugt, welche dann die bekannten Waren produzieren. So ist Italien (nach Japan, Deutschland und den USA) der viertgrößte Geräteproduzent der Welt. Charakteristisch für Italien ist, dass diese Unternehmen relativ klein sind (450 Produzenten mit durchschnittlich 70 Angestellten, im Vergleich dazu sind es in Deutschland ca. 200 Produzenten mit jeweils 320 Arbeitnehmern). Wichtig bei der Herstellung von Spezialanlagen ist der Kontakt zwischen Anlagenbauer und Abnehmer, um die Maschinen weiterzuentwickeln und besser auf die Bedürfnisse der Branche abzustimmen. Beispielsweise hat es die enge Zusammenarbeit mit italienischen Juwelieren den Firmen IECO und Sismo (Erzeuger von Maschinen für Juweliere) ermöglicht, 80% des globalen Marktes für Juweliergeräte zu erobern. Dies führte sogar dazu, dass die italienischen Juweliere sich darüber beschwerten, dass nun auch ihre Konkurrenten im Ausland die Möglichkeit hätten, diese – durch ihre Mithilfe – so exzellenten Geräte zu kaufen und dadurch im Wettbewerb aufzuholen. Auf Grund der Tatsache, dass einerseits kooperierende Unternehmen auch Konkurrenten für einander sind, und dass in vielen Fällen die Anlagen ein wichtiger Faktor für die Produktqualität und/oder die Kosten sind, bauen jetzt zunehmend große Unternehmen ihre Spezialanlagen im Haus, um den Konkurrenten durch Vorteile in der Produktionsanlage zu schwächen. Z.B. hat der Brillenhersteller Sailo 50 Ingenieure, welche die Geräte für die eigene Produktion entwerfen. Der bekannte Nudelhersteller Barilla hingegen hat 32% Marktanteil, während der nächstgrößte Produzent nur 4.8% hat. Deshalb verlangt Barilla Anlagengrößen, für die kein Markt existiert, und baut sie daher gleich selbst. Ein Beispiel für Auflösungstendenzen in einem Cluster ist das 150 Jahre alte Unternehmen Sperotto Rimar und Lanerossi, welches vorher alle Inputs lokal bezogen hat, jetzt aber Wolle aus Australien, den Strom vom internationalen Netz, die Geräte aus der Schweiz, Deutschland und Großbritannien bezieht. Franz Wirl: Industriebetriebslehre 94 Abbildung 2.13 Beispiele an Clusters in Italien nd aus The Economist, January 2 1999, S 57-58 12 Delmastro zeigt, dass sowohl die Größe als auch die Produktionstechnologie signifikanten Einfluss auf Managementhierarchien hat. Insbesondere operieren Unternehmen mit einer hohen Intensität fortschrittlicher Fertigungstechniken zunehmend in Clusters anstatt in Isolation. 3.5.2 Ein einfacher Ansatz zur Bildung von Clusters 13 Im folgenden wird kurz versucht, die Bildung von Clusters zu erklären . Ausgangspunkt ist für das Unternehmen f der in der Region g erwartete Nettoertrag, Nfq = Gfq + Afq - Cfq der sich aus drei Aspekten - Gfq = Gfq(lq, kq, sq, uq, ...) regional bedingter Ertrag aus der Qualität regionaler Inputs wie Arbeit (lq) Kapital (kq), Dienstleistungen lokaler Unternehmen (sq), regionale Infrastruktur (uq), etc. - Agglomerationseffekte Afq = Afq(nq), A’’ <0 (konkav), wobei nq die bereits vor Ort befindlichen Unternehmen beschreibt [siehe Abb. unten]. Der Bereich A’ >0 beschreibt die positiven Auswirkungen einer Agglomeration – höhere Arbeitsteilung und dadurch Spezialisierung (Erinnerung an Adam Smith’s berühmte Stecknadelfabrik), peer pressure in Forschung und Entwicklung, technisch-wissenschaftliche Entwicklungen und gegenseitige Befruchtung über Branchen und Unternehmen hinweg, besser geschult und gebildete Arbeitskräfte, reduzierte Transportkosten zu Kunden und zu Vorlieferanten, etc.). Der Bereich A’ < 0 steht für den Bereich, wo auf Grund von Überfüllung die negativen Auswirkungen überwiegen. 12 Marco Delmastro, The Determinants of the Management Hierarchy: Evidence from Italian Plants, Int. J. of Ind. Org. 20, 119 – 137, 2002. 13 Diese Darstellung beruht auf Kapitel 4, Modelling firms’ location and cluster development aus Mario A. Maggioni, Clustering Dynamics and the Location of High Tech Firms, Physica Verlag, 2002 Franz Wirl: Industriebetriebslehre 95 € Nutzen Aq Kosten aq nq Abb. 2.14 Kosten und Nutzen als Funktionen der Besiedlungsdichte (nq) - Cfq = gfq(wq, rq, dq, tq, ...) + afq(nq), wobei die Argumente wq, rq, dq, tq, für die Inputpreise Arbeit, Kapital und Land und für die Steuern stehen. Die ‚Clusterkosten’ afq(nq) sind konvex, anfangs fallend – mit mehr Unternehmen fallen die Standortkosten z.B. bedingt durch Lernkosten - und dann steigend, bedingt wiederum durch zunehmende Konkurrenz der Unternehmen um die regionalen Ressourcen. Die Profitabilität einer Region, also die Größe Nfq, macht die Anziehungskraft einer Region für neue Unternehmensansiedlungen (und –erweiterungen) aus. Ein einfaches aus der Bilogie übernommenes Modell ist das logistische, n q ≡ dnq (t ) = rq (N q (t ) )nq (t )[K q − nq (t )] dt wobei nq die Anzahl der Unternehmen in der Region q beschreibt, rq ein regionspezischer Koeffizient ist, der die Anziehungsgeschwindigkeit der Region beschreibt abhängig von der durchschnittlichen Nettoprofitabilität zum Zeitpunkt t (wie bei Krugman), N q (t ) , und Kq die regionale Kapazität beschreibt. Dies ergibt für ein konstantes r den bekannten S-förmigen Verlauf, der sich auch für ein nicht konstantes r in etwa einstellt, wenn auch nicht so symmetrisch. Mit konstantem r ist auch der Bezug der logistischen Beziehung zur Biologie, noch besser zur Epidemologie, offensichtlicher: Die Anzahl der Neuinfektionen, n q , ist proportional zu den bereits Angesteckten, nq, wobei aber die Übertragung auf die noch Nichtangesteckten beschränkt ist. Nq(t) Kq goldenes Zeitalter Entdeckung Reifung, Sättigung Zeit (t) Abb. 2.15 Typischer Verlauf einer Clusterentwicklung Franz Wirl: Industriebetriebslehre 96 Zusammenfassung (Maggioni, op. cit): 1. Clustering ist ein relevantes Phänomen, das nicht auf innovative Branchen beschränkt ist, die aber eine überdurchschnittliche räumliche Konzentration aufweisen. 2. Gut ausgebildete Arbeitskräfte, starke innovative Stimmung und niedrige Unternehmenssteuern werden von High-Tech-Unternehmen bei der Wahl der Standorte favorisiert. 3. Skalenerträge überwiegen die Agglomerationseffekte. 4. Industrielle Spezialisierung und lokale Konkurrenz treiben das Wachstum von Clusters. 3.5.3 Regionale Clusters und Globalisierung 14 OPENED in 1845, the Cantoni cotton mill in Castellanza went on to become the country’s biggest but, burdened by debt, it closed in 1985. A large cluster of producers centred on the town, once called the Manchester of Italy, also perished. In Como, about 20 miles (32km) to the north-east, a cluster of silk firms is ailing, and so is a woollens cluster around Biella, 50 miles to the west, victims like Castellanza of low-cost competition. Michael Porter, a guru on clusters at Harvard Business School, has said they help productivity, boost innovation and encourage new firms. For Mr Porter, firms’ geographical proximity, their close competition with each other and the growth of specialised suppliers and production networks around them make a winning combination. Globalisation has, however, made this far less certain. More open trade and improved transport links may mean that bunching together in a cluster no longer offers such a strong defence against cheaper foreign rivals. Indeed, as Italy’s medium-sized industrial firms adapt to the threat from China, the benefit they get from being bunched together in a cluster seems to be weakening. More than 100 such clusters speckle the boot of Italy: tiles in Sassuolo, food machinery in Parma, sofas in Matera, footwear in Fermo and clothing in Treviso, to name just some. A few owe their existence to local natural assets—marble is quarried in the mountains behind Carrara, for example. But mostly they are the result of skills built up over successive generations. The packaging-machinery firms around Bologna grew out of the region’s tradition of precision engineering, and the area around Belluno, where the first ever spectacles factory was built in 1878, is still home to a cluster of eyewear makers. San Maurizio d’Opaglio, midway between Castellanza and Biella, is the world’s largest centre for working brass. Workers there once made bells; now the cluster has around 380 firms that together employ about 10,000 people making valves and taps, businesses that took off with reconstruction after the second world war and the building boom that followed. About 19,000 are employed in small satellite firms involved in parts of the production process. Founded in 1951, now employing 850 people who make brass valves, connectors and manifolds and turning over €165m ($218m) last year, Giacomini is a giant of the cluster. However, quality certification, precision production and a catalogue of 6,000 products will not safeguard its future. “Germans saw us in the 1950s and 1960s as we now see Chinese products—low quality, low cost. Long-term, brass fittings are not enough. We cannot expect to survive on these,” admits Corrado Giacomini, the chairman. The firm began diversifying into electronic controls and heating and air conditioning systems ten years ago, and this move away from its traditional business means that its links to the cluster look increasingly less relevant to its future. Zucchetti, a tapmaker in the nearby town of Gozzano, has also changed strategy. As well as buying a maker of luxury baths and basins, it has shifted production upmarket, with smaller production runs and a larger product range. How Zucchetti performs in the future depends less on being in the cluster than designing smart products and defending its brand. A recent report from Intesa Sanpaolo, a bank, notes how competition is forcing firms to innovate, improve quality and build brands. Firms in a jewellery cluster in Valenza, in southern Piedmont, hope to protect their businesses with help from the regional authorities, the creation of a group trade mark and peer pressure to keep skills in the cluster. Bruno Guarona, chairman of the jewellers’ association, moans about unfair competition from China, where labour regulations are lax and firms enjoy tariffs and duties that undercut those his members face. But he reserves special bitterness for jewellers from Valenza who have moved production abroad, “traitors who have committed a crime”. Indeed, fragmentation of production and outsourcing abroad, clear signs that firms have become less competitive, weaken the networks on which clusters are built and may even destroy their competitive advantage, warns Rodolfo Helg, an economics professor at the university in Castellanza, which occupies the buildings that were once the town’s large cotton mill. He believes successful clusters in the future will 14 th The Economist, Clusters flustered, 64-65, April 16 2011. Franz Wirl: Industriebetriebslehre 97 be very different from those of the past. Britain’s large manufacturing clusters withered and died. The risk for Italy is that the decline of its clusters will prove as terminal elsewhere as it was in Castellanza 3.6 Zur Praxis von Standorten: ‚Distanz’ ist noch immer bedeutend Trotz der elektronischen Medien, der globalen Vernetzung und der Globalisierung stellen geographisch Aspekte wie Distanz insbesondere ergänzt um andere Distanzaspekte wie Kultur, Verwaltung, und Ökonomie eine große Barriere dar. Die folgende Darstellung basiert auf Pankaj Ghemawat, Distance Still Matters, Harvard Business Review, September 2001. So wurde 1991 Star TV lanciert, zwischen 1993 – 95 von Rupert Murdoch akquiriert und schien ein sicherer Gewinner im medienarmen Asien. Ziel war es die Top 5% der Bevölkerung zu erreichen, die vorwiegend Englisch verstehen mit dem besonderen Zuckerl die Schätze der 20th Century Fox zu senden. Das Ziel wurde erreicht und Star TV machte 1999 einen Verlust von 141 Millionen $, 1996 – 1999 insgesamt von 500 Millionen $. Warum, weil die Eigentümer und Manager von der Größe des Marktes so fasziniert waren, dass sie alles andere darum vergaßen, insbesondere das Risiko, das mit Distanz verbunden ist. Tabelle x zeigt wie sehr ökonomische aber vor allem geographische und kulturelle Aspekte den Handel beeinflussen. Insbesondere beeindruckend und für viele überraschend sind die Beziehungen zu den verhassten vormaligen Kolonialherren. Aus diesem Kontext heraus konstruiert Ghemawat sein CAGE Konzept, das die kulturelle, administrative, geographische und ökonomische Distanz berücksichtigt. Typische Auswirkungen sind in der Tabelle 2. 7 dargestellt und Tabelle 2.7 zeigt die Sensitivität unterschiedlicher Distanzen auf bestimmte Produkte aus. Tabelle 2.6 Auswirkungen auf den Handel aus Pankaj Ghemawat (2001) Insbesondere unterscheidet Ghemawat (2001) zwischen vier grundlegenden Dimensionen: - Kulturelle Attribute bestimmen wie Personen untereinander und mit Institutionen und Unternehmen agieren. Unterschiede in Religion, Rasse, Sozialen Normen, Sprache können eine veritable ‚Distanz’ zwischen zwei Ländern erzeugen. - Administrativ oder politische Distanz: Gemeinsame historische und politische Assoziation zwischen Ländern hat einen großen Einfluss auf den Handel. Andererseits können gravierende politische Unterschiede geographische Nähe und kulturelle Gemeinsamkeiten durch Unterschiede im Politischen dominiert werden. Das klassische Beispiel dafür waren die kommunistischen osteuropäischen Länder mit der DDR (zur BRD) als Extrembeispiel. Unter diesen Punkt fällt auch, wie heimische Unternehmen gegenüber ausländischen Unternehmen geschützt werden, insbesondere wenn das heimische Unternehmen viele beschäftigt oder als nationaler Champion angesehen wird. Weitere Probleme ergeben sich, wenn die betroffene Branche nationale Sicherheitsinteressen betrifft (oder nur vermeintlich betrifft), z.B. Energie, aber auch jüngst im Falle von Arzneimittel (Südafrika, Brasilien haben Patente für AIDS-Medikamente ignoriert, und die USA für Milzbranderreger zu Lasten der Patente von Beyer). - Geographisch - Ökonomisch: Wohlstand und Einkommen sind stark bestimmend, so handeln reiche Länder viel mehr untereinander selbst bei großer geographischer Distanz im Vergleich zu nahen aber signifikant ärmeren Nachbarn. Beispiele für die jeweilige Dimension, als auch welche Dimension welche Industrie besonders betrifft sind in der unten stehenden Abbildung ersichtlich. Franz Wirl: Industriebetriebslehre 98 Tabelle 2.7 aus Pankaj Ghemawat (2001). Aus diesem Grund wird vorgeschlagen die bekannte Länderportfolioanalyse um Distanzeinflüsse zu korrigieren. Das folgende Beispiel oben basiert auf der Analyse einer amerikanischen Fast-Food-Kette (Tricon Restaurants International, kurz TRI, die Pizza Hut, Taco Bell und KFC managt). Der obige Teil der unten folgenden Abbildung stellt eine traditionelle Portfolio-Analyse dar (für Details siehe die Erläuterungen in der Abb.). Die Fläche der Kreise beschreibt darin die Attraktivität der einzelnen Märkte. Jedoch die Berücksichtigung der verschiedenen Distanzmaße ändert das Bild komplett. Dies wird besonders ersichtlich im Falle von Mexiko. Mexiko ist bedingt durch die geringen Ausgaben für Fast Food nach dieser traditionellen Analyse kein besonders interessanter Markt für TRI (Rang 16 von 20). Nach Berücksichtigung and entsprechender Korrekturen puscht Mexiko nach oben (hinter Kanada). Wobei nicht alle Größen positiv für Mexiko sind wie etwa die Sprache, die das ferne Großbritannien begünstigt. Franz Wirl: Industriebetriebslehre Abbildung 2.16 Pankaj Ghemawat (2001) 99 Franz Wirl: Industriebetriebslehre 100 The revenge of geography, Mar 13th 2003 , The Economist. It was naive to imagine that the global reach of the internet would make geography irrelevant. Wireline and wireless technologies have bound the virtual and physical worlds closer than ever IN THE early days of the internet boom, there was much talk of the “death of distance”. The emergence of a global digital network, it seemed, would put an end to mundane physical or geographical constraints. There was some truth in this. E-mail made it cheap and easy to stay in constant touch with people, whether they lived around the corner or on the other side of the globe. Companies could communicate with customers and employees no matter where they were. And like-minded individuals who shared a common interest could get together online from all round the world. Actually, geography is far from dead. Although it is often helpful to think of the internet as a parallel digital universe, or an omnipresent “cloud”, its users live in the real world where limitations of geography still apply. And these limitations extend online. Finding information relevant to a particular place, or the location associated with a specific piece of information, is not always easy. This has caused a surge of innovation, as new technologies have developed to link places on the internet with places in the real world—stitching together the supposedly separate virtual and physical worlds. The first step in this process was to map the internet's physical infrastructure, and in particular the locations of the end-points on its edges, where users are connected. A number of companies, including Quova, Digital Envoy, NetGeo and InfoSplit, offer “geolocation services” that enable websites to determine the physical locations of individual users. This is done using a database that links internet protocol (IP) addresses of users' computers to specific countries, cities or even postcodes. Groups of IP addresses are assigned to particular universities, companies or other organisations, which often have known locations; providers of internet access allocate specific IP addresses to customers in particular regions. When you visit a website that uses geolocation technology, your IP address is relayed to the geolocation provider's server. It looks up where you are and passes the information back to the website, which can then modify its content accordingly. Once your location is known, existing demographic databases, which have been honed over the years to reveal what kinds of people live where, can be brought into play. Targeted advertising is the most obvious application for geolocation, but it has many other uses. It can help, for example, to determine the right language in which to present a multilingual website. Or e-commerce vendors and auction houses can use geolocation to prevent the sale of goods that are illegal in certain countries. Online casinos can stop users from countries where online gambling has been outlawed from gaining access. Rights-management policies for music or video broadcasts, which tend to be based on geographical markets, can also be enforced. The pharmaceutical and financial-services industries, both of which are subject to strict national regulation, can be confident that, when offering goods and services for sale online, they are staying within the law. So much for the borderless internet and the death of distance. Geolocation finds the physical location corresponding to an internet address, but it can also be used to do the reverse: to find the internet-access point nearest to a particular location. The necessity of doing this arises from the growing popularity of 802.11b or Wi-Fi technology, which provides wireless internet access to suitably equipped laptops within 100 metres or so of a small basestation, or “hotspot”. Many of the thousands of hotspots around the world are deliberately made available to anybody who happens to be passing. Others are run by operators who charge a fee for access in hotels, airports and other places. One operator, T-Mobile, is installing Wi-Fi base-stations in thousands of Starbucks coffee shops in several countries. But how can you determine if Wi-Fi coverage is available in a particular area—or, if not, the location of the nearest hotspot? A number of websites, such as wifinder.com and 80211hotspots.com, have sprung up that act as global directories of Wi-Fi basestations. Type in a postcode or street address, and you can see where they are. In some cities, Wi-Fi enthusiasts have produced maps showing hotspot locations. This has been taken to its logical extreme by researchers at the University of Kansas (at www.ittc.ku.edu/wlan). First, they drive around a particular neighbourhood with a laptop, looking for Wi-Fi coverage and monitoring the signal's strength. Next, this information is combined with aerial photography of the neighbourhood, with colour-coding to show signal strength. The result is a map showing how strongly the internet obtrudes into the real world. A low-tech approach that achieves the same end is the concept of “war chalking”, a term coined by Matt Jones, a British designer. He has proposed a set of symbols that can be scribbled on the pavement using chalk to signal the presence of a nearby hotspot. Again, the idea is to show where the parallel worlds of reality and the internet touch. While the notion of war-chalking has gained much attention in the media, however, hardly anybody actually does it. Your nearest web page Mapping internet infrastructure is just a start. Things get more interesting when you begin to establish links between real places and virtual information. Imagine that you have a huge pile of documents. Keyword searching is one way to find what you are looking for. But for geographical searches—say, finding all the pages relevant to a particular city—keywords are too blunt an instrument. The ideal solution would be to embed a “geotag” or “geocode” in pages containing geographical content, to make geographical queries possible. A number of methods have been put forward to add such geotags to pages automatically, based on analysis of their content. Last year Google, the leading internet search engine, held a programming competition in which participants were given a chunk of the Google archive and index to play with. The winner, Dan Egnor, wrote software that added geotags to pages based on the analysis of postcode and address information, so that search results could be returned in order of geographical proximity to a particular point. Another approach is taken by MetaCarta, a company based in Vienna, Virginia, and financed by In-Q-Tel, the venture-capital arm of the nearby Central Intelligence Agency. Its “geo-parser” software examines documents and looks for geographical references, including country, city and state names, postcodes, internet addresses, and the names of famous landmarks. These are looked up in a gazetteer, a place-name dictionary with over 10m entries, which knows, for example, that the Statue of Liberty is in New York. The results are then combined using natural-language processing rules derived from a corpus of 50m documents. If the word “Paris” appears near the word “France”, for example, then the document is more likely to be about the Paris in France than the Paris in Texas. Using a combination of many such rules, the system determines the document's corresponding location, and applies a geotag to it. Around 80% of text documents contain geographical references, says MetaCarta's Randy Ridley. Geotagged documents can be used in a number of ways. One approach is simply to plot a selection of documents on a map. MetaCarta's clients include intelligence agencies, and the potential for such a system in anti-terrorism is obvious. Documents from a computer confiscated from a suspected terrorist can be analysed and plotted on a map, to see where they cluster. The same technology also has applications in local law enforcement, insurance and the oil industry, all of which generate large amounts of Franz Wirl: Industriebetriebslehre 101 place-specific information. And it can be applied to web pages, once they have been geotagged. Type in a search term, and you can then see how the resulting pages are distributed geographically. A different approach to the generation of geotags is taken by Junyan Ding and Luis Gravano of Columbia University in New York. Their “Geosearch” search engine determines the geographical scope of a page by looking at the locations of pages that link to it, as well as its content. The New York Times, for example, is a newspaper that covers global issues, and is thus relevant to the whole world; this is reflected in the fact that websites all over the world link to the New York Times. Websites relevant to a particular state, city or region, on the other hand, are less likely to have links from pages outside that locality. The researchers specifically looked at links to target pages from American educational sites—those with internet addresses ending “.edu”—since their location can usually be determined precisely. However, there is a limit to how far such retrospective geotagging techniques can go, notes Martin Dodge, an analyst of cybergeography at University College London, who is co-author of the “Atlas of Cyberspace”. The problem, he points out, is that whereas most countries have some form of postal code, there is no global standard. But the usefulness of a search engine able to classify results by geographical proximity to a specific place is clear. You could use it to find a nearby plumber, or a hotel near a landmark you plan to visit. The best approach would be to have a global standard for geotags, and to get the authors of web pages to include them automatically. Several such standards have been proposed. The OpenGIS consortium, for example, is made up of 230 companies, including the world's main hardware and software vendors, industrial giants, and specialists in geographical information systems (GIS), all of which are backing a common standard to “geo-enable” the web and wireless devices. The idea is to provide a lingua franca, so that geographically tagged data of all kinds, from satellite photos to customer lists, can be easily combined and analysed. Another initiative is GeoWeb, part of the Digital Earth research project at SRI, a non-profit research institute in Menlo Park, California. Its aim is to make it as easy as possible to find information on the web associated with a specific location, but in a way that can be scaled up indefinitely as more and more information is geotagged. It does this by sitting on top of the internet's domainname system, a hierarchical look-up arrangement that translates domain names (such as economist.com) into internet addresses (such as 170.224.17.153). Similarly, GeoWeb is a hierarchical look-up system that maps latitude and longitude co-ordinates on to relevant pages that can also be filtered by other criteria. Co-ordinates can be typed into a browser as a special kind of internet address, ending in “.geo”. However, SRI's proposal for a special .geo domain has yet to be approved. Web of neighbours In the meantime, a number of websites are providing geographically specific look-ups and searches. Geourl.org is a website that maps locations on to web addresses, so that websites “near” a particular place can easily be found. So far, it is mainly being used by web-loggers, or “bloggers” (people who maintain diary-style personal websites, or “blogs”) to anchor their blogs in the real world, and identify other bloggers nearby. Blogmapper.com goes further, providing the tools to create “geoblogs” that are organised by geography, rather than by date. Upmystreet.com is a clever British website which, given a postcode, can tell you about local house prices, crime rates, schools, tradesmen, public transport and government services. Discussion boards were recently added to the site, with a search function that makes it possible to see discussions taking place near a given location. The site even calculates how “far away” each discussion is. The result might be termed “geochat”. Links between web pages and particular locations are central to “geocaching”, a high-tech form of orienteering that involves using a global-positioning system (GPS) handset to find a hidden cache of items at a location specified on a web page. The custom is to take one item (a toy dinosaur, say) from the cache and replace it with another, and then return to the web page corresponding to the geocache and leave a message to announce that you have found it. Geocaching.com calls this “the sport where you are the search engine”; you access the internet, and then you find the corresponding physical location. The result is a powerful sense of the internet overlaying the real world; or, conversely, a sense that the world is a three-dimensional aspect of the internet. An even more dramatic example of digital content that is relevant only in a specific location is geoencryption, an idea championed by Dorothy Denning of Georgetown University in a research paper published in 1996, subtitled “Grounding cyberspace for better security”. Geoencryption encodes a stream of data in such a way that it is only intelligible to somebody in a specific location; the output from a GPS device is used to unscramble the data. This idea could be used, for example, to distribute movies in such a way that they can only be unscrambled by people in particular places—in other words, your location is your password. GeoCodex, a start-up based in Arlington, Virginia, is now commercialising this idea. As well as safeguarding entertainment broadcasts, the technology has military applications, says Dr Denning. The greatest potential for linking the virtual and physical worlds, however, is on mobile devices that can access the corresponding region of cyberspace from anywhere in real space. Using your location as a search term, you can then reach directly from one world to the other. The mobile-telecoms industry calls this “location-based services”. So far, the services available in most countries are not particularly exciting. Provided everything works as planned, which is not always the case, you will be able to use a mobile phone to locate the nearest petrol station, cash dispenser or Italian restaurant. Much of the time, however, the usefulness of such services is limited by the lack of an accurate positioning system. There are various ways to determine the position of a mobile handset. The crudest is simply to look at which cell of the cellular network it is in. That narrows down the location to within a few hundred metres, at least within cities, where cells are generally quite small. Some improvement is possible by triangulation—determining the handset's distance from base-stations in multiple cells, by measuring the signal's strength. Another approach is to ask the user to enter a postcode or phone number corresponding to his location, but that is clunky. On the face of it, the ideal solution would be a GPS receiver built into the handset. But GPS reception in cities with tall buildings can be patchy. Hence the hybrid approach being taken by Qualcomm, an American wireless firm, with its “gpsOne” technology, which combines a GPS receiver with ranging information from local base-stations. The result is accurate enough to determine the latitude and longitude of a mobile handset, and even its altitude, to within a few metres. Where are your friends? This kind of accuracy changes the game completely. Handsets equipped with gpsOne, over 10m of which are now in use worldwide, in countries including South Korea, Japan and America, can be used to send street maps and detailed directions to pedestrians, taking into account the possibility that they might be on a walkway or a footbridge above a road. According to Tom Wrappe of SnapTrack, Qualcomm's location-based services subsidiary, “friend finder” services are also popular in Japan. Registered users of such services can specify “geo-fencing” limits and be alerted when somebody they know comes into range. Franz Wirl: Industriebetriebslehre 102 Handsets also allow users to “geomark” a location, and then send details to other people, who can then use their handsets' positioning capabilities to go to exactly the spot. This has social uses (such as marking a picnic place or a meeting place at a music festival), but it may also be used in business. A manager on, say, a construction site can send a message to indicate where a consignment of building materials ought to be delivered. Built-in digital cameras are also becoming increasingly common in Japanese and Korean handsets, and they can send geomarked photographs, too. There are also some rather more culturally specific functions: one Japanese service enables users to locate haunted places; another sends sarcastic messages if you stay too late in the office on Friday evening. Unlike internet-based systems, however, wireless networks are tightly controlled by their operators, so there is much less scope for bottom-up innovation by users. The internet is an open platform, but it lacks ubiquitous wireless coverage and proper positioning technology. Only when openness, ubiquity and GPS-grade positioning are available in the same handset will it be possible to realise the true potential of location-based services. This may happen fairly soon, as Java-enabled handsets proliferate, and other internet technologies cross over from computers to phones. In the meantime, a few examples show the kind of things that might be possible. Many interesting possibilities are opened up by “user-generated location-specific content”—a fancy phrase for digital wireless graffiti. An early example of this, says John Cunningham of SnapTrack, is a Japanese restaurant-review service that allows reviews contributed by previous customers to be called up by somebody outside the restaurant who is wondering whether to eat there. In effect, previous customers leave their comments floating in the air around the restaurant, where they can be read by anybody with the right handset. This concept has been generalised by a number of wireless-software firms into the idea of digital graffiti—messages that can be posted using a handset, and which correspond to a particular location. Generally, there are two kinds of graffiti supported by such systems: public (which can be read by anybody) and private (which can be read only by associates of the person who posted the message). Just because this kind of thing is technologically possible, however, does not mean that anybody is actually doing it yet. There are also versions of this idea that work within Wi-Fi hotspots, such as the GeoNotes system devised by Per Persson of the Swedish Institute of Computer Science. But Wi-Fi is best suited to laptops: it uses up too much power for use in handheld computers or mobile phones—and laptops are hardly ideal things to lug around the streets. Ultimately, the logical conclusion of wireless graffiti systems would be the ability to attach information to any object or place on earth with an accuracy of a metre or less. This has been dubbed the “WorldBoard” by Jim Spohrer, a researcher at IBM's Almaden Research Centre in San Jose, California. He had the idea while hiking, when he saw an unusual sort of plant, and wished he could look it up on the internet; he then realised that other passers-by might also want to know the same thing, and wished he could somehow stick the information on to the plant, like a virtual Post-It note. “A WorldBoard is in some sense bigger than the world wide web,” he says, “because it allows cyberspace (the digital world of bits) to overlay and register with real space (the physical world of atoms).” As well as making it possible to scribble virtually anywhere, linking the real and virtual worlds through mobile devices could also change users' perception of their surroundings, says Jason Devitt of Vindigo, a company based in New York that provides locationbased services on both handheld computers and mobile phones. “You should be able to stand on a street corner and find out everything that's going on around you,” he says. “In the grandest sense, I think these devices are capable of extending your senses.” Instead of just looking along the street at what is visible, he suggests, “it should be possible to know and see everything that people make available to you.” Several applications spring to mind. While wandering through an attractive neighbourhood, you might ask your mobile device about apartments for rent nearby, the crime rate, local amenities, and so on. After all, websites such as Upmystreet.com have put together most of this information already. This kind of thing, says Mr Devitt, “could change the way people relate to each other and their environment.” If people start using mobile devices to find shops or restaurants, then prime real-estate on the high street would no longer be so valuable. Having an eye-catching sign might matter less than being listed in the right wireless databases and yellowpages services. The potential for mobile devices to transform the urban environment is of particular interest to Anthony Townsend, an urban planner at the Taub Urban Research Centre at New York University. Good location-based services, he believes, will be integrated with architecture and urban design. However, the technologies to determine location, extract relevant information and deliver it via a wireless connection are only just starting to come together, and so far in rather primitive ways. Mr Townsend draws an unfavourable comparison with the early days of the web. Even so, devising a website “was a relatively easy design challenge compared with this.” And whereas web designers could build on established metaphors of human-computer interaction (HCI)—windows, icons, and so on—designers of location-based services face a more complex challenge. The HCI people are good at the human-machine interface, he points out, and the architects at the human-environment interface. “But nobody is good at human-machine-environment interfaces.” The best examples at the moment are in-car navigation systems, he notes, and they have taken 20 years to develop. Undaunted, Mr Townsend is acting as an adviser, together with a group of academics from the Massachusetts Institute of Technology, to a South Korean project to build a “digital media city” on the outskirts of Seoul. South Korea is one of the world's most advanced countries when it comes to mobile phones, and the world leader in broadband adoption. An important aspect of the project is to try to imagine what kind of location-based services (and other wireless services) will be appropriate in a high-tech city 20 years from now. “It has given me an appreciation for how slowly this is going to unfold, and how slowly killer applications will evolve,” says Mr Townsend. It is thus early days for technologies that link the physical and virtual worlds. Location-finding technology must become more ubiquitous, and common standards are needed, if the “real-world” internet is not to fragment into multiple separate overlays on reality. What is striking, however, is that, even in the absence of mature technologies or standards, an enormous amount of innovation, experimentation and reinvention is going on—exactly the opposite of what you would expect to be happening if the internet was really just a placeless cloud. Geography matters online after all; it has certainly not been killed by the internet. In fact, the two seem to be getting along rather well. 3.7 Vergleiche internationaler Produktivität Zum Abschluss werden Unterschiede in der Produktivität basierend auf zwei Studien beleuchtet. Zuerst Martin Neil Baily und Robert M. Solow, International Productivity Comparisons Built from the Firm Level, Journal of Economic Perspectives, 15/3, 151-172, 2001. Diese Studie versuchte von unten herauf (d.h. von Firmendaten ausgehend und unter Verwendung von Konsulentenwissen) internationale Franz Wirl: Industriebetriebslehre 103 Produktivitätsunterschiede zu quantifizieren und diese Ergebnisse sind konsistent mit aggregrierten topdown Ansätzen. Die Tabelle 2. 8 gibt die aggregierten Produktivitätszahlen, die folgenden Tabellen die disaggregierten Werte, die dieser Studie zugrunde liegen und auf Information von McKinsey zurückgehen. Tabelle 2.8 (Quelle: International Comparisons of Productivity - 2010 – Final Estimates, Office of National Statistics UK) Tabelle 2.9 (Quelle: Economist) Franz Wirl: Industriebetriebslehre 104 Tabelle 2.10 Erklärungen für diese Unterschiede sind: - Unterschiede der Produktionsprozesse, z.B. lean manufacturing in Japan. - Externe Faktoren - Industriedynamik Wichtige Ergebnisse • Politik hat Auswirkungen auf die Produktivität insbesondere betreffend der Konkurrenz, dem Ausmaß öffentlicher Regulierung, die Regeln der Gouvernanz von AGs. • Insbesondere starke lokale Konkurrenz von Unternehmen, die ‚best business practice’ anwenden erhöht die Produktivität (man ist geneigt zu sagen zwangsläufig). • Einige Regulierungen – etwa hinsichtlich Umwelt und Arbeitsschutz können sich auch positiv auswirken (bekannte These von Porter in Hinsicht auf Umwelt). Die zweite Studie ist, Michael E. Porter, Klaus Schwab, Xavier Sala-i-Martin and Augusto Lopez-Carlos, The Global Competitiveness Report 2003 – 2004, World Economic Forum. Executive Summary AUGUSTO LOPEZ-CLAROS, World Economic Forum For well over two decades the World Economic Forum has been trying to shed light on the question of why some countries are able to grow on a sustained basis for prolonged periods of time, in the process pulling large segments of the population out of poverty, while others remain stagnant or, worse, actually see an erosion of living standards. Through its flagship publication, The Global Competitiveness Report, the World Economic Forum has led the way in assessing the competitiveness of nations. The Forum may be in a singularly advantageous position, for at least two reasons, to contribute meaningfully to the debate on the key building blocks of successful economic development and improved competitiveness. First, it brings key representatives from the private sector and the corporate world together with a broad spectrum of senior policymakers in government, creating opportunities for the thoughtful exchange of ideas and experiences on best practices. This exchange may be an important catalyst in identifying the most critical factors in the development process. The role of corruption in delaying the development process, the central importance of women’s education for boosting per capita incomes, the interplay between political and civil rights and the willingness of the public to engage in economic activity, the role of a free press, and the type of safety net arrangements that governments put in place to enhance the ability of economic agents to participate in the life of the nation, are but some of the topics that have been at the centre of the agenda in many of the summits and other interactions organized by the World Economic Forum. Second, the Forum has developed a vehicle, the Executive Opinion Survey (EOS), which annually conveys a wealth of information about the obstacles to growth in more than 100 countries, accounting for the lion’s share of global GNP. Through the Survey, business executives in these countries assess the importance of a broad range of factors Franz Wirl: Industriebetriebslehre 105 central to creating a healthy business environment in support of successful and productive economic activity. The tax and regulatory environment, labor market legislation, the overall macroeconomic environment, the prevalence of corruption and other irregular practices in the economy at large, the quality of the country’s infrastructure and education are but a few of the areas covered by the EOS. Over the years, the Survey has continued to deliver a treasure trove of information about both country- specific strengths and weaknesses, and the challenges faced by the business community. On the basis of the information provided by the EOS, the Country Profiles prepared by the Forum offer extremely valuable information for policymakers, aid agencies and others, working to improve economic performance and the quality of people’s lives. The methodology used by the Forum to assess national competitiveness has evolved over time, taking into account the latest thinking on the factors driving competitiveness and growth. The Forum first introduced the Growth Competitiveness Index (GCI) three years ago, in collaboration with Professors Jeffrey Sachs and John McArthur, in the Global Competitiveness Report 2001–2002.The GCI aims specifically to gauge the ability of the world’s economies to achieve sustained economic growth over the medium to long term. It primarily assesses the impact of those factors that economic theory and the accumulated experience of policymakers in a broad range of countries have shown to be critical for growth, whether narrowly focused on elements of the macroeconomic environment or, reflecting the latest insights in the economics literature, institutional and other factors. Professor Michael Porter’s Business Competitiveness Index, presented in Chapter 1.2 in this volume, is an especially useful complement to the GCI, with its special emphasis on a range of company-specific factors conducive to improved efficiency and productivity at the micro level. The Growth Competitiveness Index The GCI is composed of three “pillars,” all of which are widely accepted as being critical to economic growth: the quality of the macroeconomic environment, the state of a country’s public institutions, and, given the increasing importance of technology in the development process, a country’s technological readiness. Using a combination of publicly available hard data, and information provided in the Forum’s Executive Opinion Survey—which provides more textured qualitative information on difficult-to measure concepts—these three pillars are brought together in the three indexes of the GCI: the macroeconomic environment index, the public institutions index, and the technology index. Sachs and McArthur strongly emphasized that the role of technology in the growth process differs for countries, depending on their particular stage of development. It is widely understood that technological innovation is relatively more important for growth in countries close to the technological frontier. Innovation will be key in Sweden, but the adoption of foreign technologies, or the kind of technology transfer frequently associated with foreign direct investment will be relatively more important in a country such as the Czech Republic. For this reason, in estimating the GCI, economies are separated into two groups: the core economies, i.e. those for which technological innovation is critical for growth, and non-core economies, i.e. those which can still grow by adopting technologies developed abroad. The critical importance of technological innovation for core economies is taken into account in the technology index. Specifically, more weight is given to innovation, by means of the innovation subindex, for the core economies, than for the non-core. To make a further distinction, an additional measure is used of the ability of noncore economies to adopt technology from abroad: the technology transfer subindex. Finally, since the determinants of economic competitiveness vary for core and non-core economies, the weighting of the three indexes in the overall GCI differs between the two groups. For the non-core economies, more weight is given to the quality of institutions and the macroeconomic environment, since these countries can still make progress in achieving higher growth by getting their fundamentals in order. On the other hand, for the core economies that are closer to the technological frontier, more weight is placed on technology. It is, of course, important for these countries to have a sound macroeconomic environment and strong institutions, but these economies will typically have long ago entered a period characterized by “institutional stability.” For these countries to continue to grow they must innovate. This is why more weight is placed, for the core innovators, on technology, than on the other two pillars. Chapter 1.1, by Jennifer Blanke and Augusto LopezClaros provides specific details on the composition and construction of the GCI, which this year covers a total of 104 countries. The Competitiveness Rankings for 2004 Table 1 presents the rankings from this year’s GCI. For the third time during the last four years Finland tops the rankings. The country is extremely well managed at the macroeconomic level, and scores very high in those measures which assess the quality of its public institutions. Moreover, Finland has very low levels of corruption and its firms operate in a legal environment in which there is widespread respect for contracts and the rule of law. Finland’s private sector shows a proclivity for adopting new technologies, and nurtures a culture of innovation. Especially noteworthy is the fact that, for several years, Finland has been running budget surpluses, in anticipation of future claims on the budget associated with the aging of its population. The United States is ranked second, with overall technological supremacy, and especially high scores for such indicators as companies’ spending on R&D, Franz Wirl: Industriebetriebslehre 106 the creativity of its scientific community, personal computer and internet penetration rates. However, these are partly offset by a weaker performance in those areas which capture the quality of the macroeconomic environment and its public institutions. As compared to the results of 2003, nine out of ten of the top performers remain in this category. Among these leaders, the largest improvement has been registered by Norway, which has moved up from ninth to sixth place since 2003. Norway improved in all three areas of the Index, most particularly with regard to its public institutions, driven by a much better score in the area of contracts and law. Indeed, the Nordic countries all occupy privileged positions in the GCI ranking. The GCI does a reasonably good job not only of ranking countries vis-à-vis each other, but also of tracking shifts in rank over time. This is perhaps not surprising in the case of the macroeconomic environment index, which is made up overwhelmingly of hard data variables— Norway, Estonia, and New Zealand get credit for running budget surpluses, while Turkey, India, and Japan are penalized for running large deficits—but applies to other components of the GCI as well. Those countries showing the largest drops in rankings in 2004—Bolivia, the Dominican Republic, Pakistan, Peru, Philippines, Poland, Vietnam, to name some—are all countries that have witnessed significant deteriorations in one or more areas tracked by the Index. Others, such as Venezuela and Zimbabwe, already low last year, have dropped even further. Indeed, all of these countries have been prominent in the pages of the international press. Highly visible instances of official corruption, a crackdown on press freedoms and other civil liberties which contribute to capital outflows and harden the mood of the business community, political instability linked to domestic infighting in some cases leading to civil unrest, a weakening in the rule of law have, to a greater or lesser degree, been prominent in some of the above cases. The reverse is also true: countries may move up in the rankings, when they show not only improvements in the macroeconomic environment—e.g. Argentina in 2003, following the country’s harrowing experiences the previous year—but some other factors, directly or indirectly reflected in those variables tracked by the index. We are not puzzled by the significant improvement in the rankings of Bulgaria and Romania, for instance. These countries have an appointment to keep with the EU in 2007, and are gradually gearing up to meet EU accession criteria. In Latin America, we note that Chile improved its performance significantly, moving up from 28th to 22nd place in the overall rankings. Chile not only has the highest ranking in Latin America, but the gap with respect to its nearest rival (Mexico) is a full 26 places; there is no other continent in the world where we can observe this symbolic “migration” from the region, in terms of performance. Chile’s case is featured separately in Chapter 2.3 of this Report. In Asia, the rankings are quite stable, with some small improvements—notably Indonesia and, more significantly, Japan, the latter by two places—and some small drops in the rankings, as with Malaysia and Thailand. There are two countries in the region, which stand out for their significant drop in the rankings: Korea and Vietnam, the latter noted above. Korea’s drop is linked to a significant decline in the macroeconomic environment subindex, falling from 23rd last year to 35th this year; moreover, Korea also experienced declines in the other two areas measured by the GCI. Vietnam’s decline is linked to significant drops in all three areas, particularly with regard to public institutions and technology. Countries in sub-Saharan Africa continue to hold places primarily at the bottom of the rankings, with a few bright exceptions. South Africa improved its performance somewhat, continuing to lead the region in competitiveness, with an overall rank of 41, incidentally, well ahead of all countries in Latin America, except Chile. Likewise, while it did slip somewhat in the rankings, Botswana continues to outperform most of the other sub-Saharan African countries, with a relatively strong performance, particularly in its public institutions, and a relatively healthy macroeconomic environment. Still, three of the five bottom-ranked countries are from this region, including Angola and Chad, which take the last two places in the ranking. It is clear that much work remains to be done to improve competitiveness in Africa. Table 2 provides more detailed information on the components of each of the three subindexes of the GCI for all 104 countries in 2004. The Business Competitiveness Index The Business Competitiveness Index (BCI) is a complement to the medium-term, macroeconomic approach of the Growth Competitiveness Index. It evaluates the underlying microeconomic conditions defining the current sustainable level of productivity in each of the countries covered, the underlying concept being that, while macroeconomic and institutional factors are critical for national competitiveness, these are necessary but not sufficient factors for creating wealth. Wealth is actually created at the microeconomic level by the companies operating in each economy. The BCI evaluates two specific areas, critical to the business environment in each country: the sophistication of the operating practices and strategies of companies, and the quality of the microeconomic business environment in which a nation’s companies compete. The idea is that, without these microeconomic capabilities, macroeconomic and institutional reforms will not bear full fruit. This year’s BCI rankings are shown in Table 3.The first column shows the overall rankings, while the second and third columns show the two interrelated subindexes: company operations and strategy, and the quality of the national business environment. Franz Wirl: Industriebetriebslehre 107 The table shows that the United States has taken over the leading position from Finland, after dropping to second place last year. The United States benefited from improvements in the sophistication of marketing, the availability of venture capital, the intensity of local competition, local supplier quality, and local supplier quantity. Other advanced economies improving their rankings include Hong Kong, by reflecting more sophisticated financial markets and improvements in management practices, Japan, by improving financial market sophistication and improving quality of administrative services, and Portugal, by improving cluster strength. Japan registered the highest absolute improvement of its BCI score, followed by Hong Kong and Norway. Advanced countries, which dropped in the rankings include Italy, Malta, and Iceland. Italy dropped by a disappointing nine ranks, almost entirely driven by a deteriorating business environment, now evaluated on a par with that of Portugal and the Czech Republic. Italy deteriorated especially in areas related to innovative capacity, such as university-industry research collaboration, foreign technology licensing, government procurement of advanced technology, company R&D spending, and venture capital availability. Middle-income nations improving their business competitiveness rankings this year include Romania, Lithuania, the Slovak Republic, Russia, Namibia, and the Ukraine. Romania jumped by a remarkable 22 ranks, driven by strong across-the-board improvements, especially in the area of company sophistication. Romania’s improvement comes after repeated slippage in the ranking since the country became part of The Global Competitiveness Report in 2001. Middle-income countries which have experienced a fall in ranking include Latvia, the Dominican Republic, Poland, and Mauritius. Other countries with significant absolute drops in BCI scores include Thailand and Mexico. Latvia has moved back to a level consistent with its longer-term trajectory; last year’s strong improvement proved to be unsustainable optimism. The Dominican Republic, down 13 places, continues the trend set by a large drop last year, driven particularly by a decline in openness to imports, and in the sophistication of its financial market. Among low-income countries, Indonesia made the greatest improvement, jumping a remarkable 18 ranks. After years of turmoil, the country is now back to its 2000 business competitiveness level. While improvements were registered in areas across the board, they were strongest in measures of company sophistication. Another lowincome country with large improvements is India, up 8 ranks, showing the benefits of increased company sophistication and strengthened clusters. Vietnam slipped significantly, down 23 places, after a number of years of steady improvement. Conditions worsened most in areas related to technology and government administration. As explained above, the GCI and the BCI measure complementary dimensions of competitiveness. Figure 1 compares the two rankings for 2004, revealing their high correlation. A look ahead—the new Global Competitiveness Index Over the last several years the Growth Competitiveness Index has been a useful tool in thinking about key macroeconomic and institutional elements, critical to the growth process. The present rankings continue to provide policymakers, businesses and organizations of civil society with valuable insights into areas where further progress is called for, in order to improve the environment for private sector economic activity, and generate sustainable growth. The considerable utility of the GCI notwithstanding, the vertiginous pace of change of the global economy has brought into sharper focus the increasing role played by a number of other factors in enhancing the ability of countries to grow. The swift pace of innovation in information and communications technology, and the concomitant fall in the costs of communication is leading to an acceleration in the pace of integration of the world economy. The increasingly global perspective of businesses in formulating their strategies and decision making— already manifesting a global reach in the search for new markets and sources of supply—has now extended to the location of production, and resulted in the increasing internationalization of the labor force of the typical multinational corporation. Innovations in transportation, which have reduced the cost of freight, mean that location is less of a factor than in the past, and businesses are now looking for the right combination of labor costs—coupled, ideally, with flexible labor markets—skills, infrastructure, and the support provided by a good macroeconomic and institutional environment to reduce production costs. Against the backdrop of these changes, countries are being forced to be increasingly creative, in order to maintain their competitive edge. The role of multi-country alliances in bringing together better combinations of capital, labor, skills and regulatory frameworks for particular projects is becoming more important. Countries with the nimbleness demanded for such cross-border arrangements are reaping the benefits of higher economic growth rates and improvements in living standards. Countries which are not allocating sufficient resources to improve the quality of their educational systems or to address major public health concerns, or which are otherwise engulfed in internal conflicts and instability, are rapidly falling behind. The net effect of these trends is the growing complexity in the economic, social and political underpinnings of the environment faced by policymakers and business leaders everywhere. This is not only putting enormous stress on the institutions that sustain and support the global economy, but is also changing our understanding of what are emerging as the key factors determining a country’s growth performance. To address some of these challenges, we have been working with Xavier Sala-i-Martin and Elsa Artadi to develop a more comprehensive competitiveness index. Reflecting the need to broaden our scope and look at a larger set of Franz Wirl: Industriebetriebslehre 108 factors, the new index will bring into focus a much richer set of pillars: human capital, labor and financial markets efficiency, openness and market size, quality of infrastructure, to name a few of the new ones being incorporated; in this spirit, it will be called the Global Competitiveness Index. Chapter 1.3 of this Report is an excellent presentation of the work that has been done to date. 2004 therefore constitutes a transition year between the presentation of two indexes, the GCI and the BCI, and the subsequent consolidation of the World Economic Forum’s competitiveness work into a single index—the Global Competitiveness Index. Selected issues of competitiveness and special topics This year’s Report contains a number of studies which address different aspects of competitiveness and, more generally, themes which emanate from the World Economic Forum’s deep concern with growth and development and the state of the world. Some of these studies draw directly from the Executive Opinion Survey for their analysis and insight. Others are concerned with a broader set of issues at the heart of the development agenda. All are business relevant, and highlight a range of issues which are variously shaping the global economic and business environment. Selected issues of competitiveness Daniel Kaufmann’s “Corruption, Governance and Security: Challenges for the Rich Countries and the World” is an important addition to the literature in an increasingly important field. Traditionally, governance and corruption challenges have been seen as especially daunting in poorer countries, with the richer ones viewed as good examples, with their relative law and order, and well developed institutions. Others might view them as public sector problems, divorced from global governance or security issues. Using an empirical approach, based on this year’s EOS, Kaufmann challenges these notions, and shows us a more complex reality, revealing more subtle, yet costly manifestations of misgovernance, afflicting not only poor, but rich countries as well. The traditional definition of corruption as the commission of an illegal act, such as outright bribery, is here broadened to include new measures of “legal corruption,” seen as the collusion of at least two parties, typically from the public and private sectors, and where the rules of the game, laws and institutions are used, via influence peddling and even capture, to benefit vested interests. By analyzing the interaction between rich country transnationals and the public sectors in emerging countries, Kaufmann finds that ethics and corruption pose a serious challenge for many rich countries, and that they represent key determinants of a country’s competitiveness, shaping its investment climate. Kaufmann ends his chapter with an insightful analysis of the governance data from the EOS, separating the issues of national governance and global and domestic security, and challenging the notion that security issues—common crime, organized crime, money laundering, and the threat of terrorism—are not subject to measurement. The evidence suggests that some rich countries are faced not only with domestic challenges of undue influence, as regards many key public policies, laws and regulations, but with a new set of security threats as well; even with their well-developed institutions, the G-7 and other rich countries must face the challenge of guaranteeing level playing fields and mitigating the cost of terrorist threats. In his paper “The Competitive Edge in Environmental Responsibility,” Arthur Dahl argues that the environment has for too long been seen as an impediment to business, since environmental regulations have increased costs. A review of global environmental problems reveals not only challenges and risks for the private sector that cannot be ignored, but also opportunities for businesses that can work to their competitive advantage. Dahl highlights the significant potential for business leadership in the field of environment and sustainable development at each stage of the development process. By taking a positive, proactive view, the private sector can ensure supplies of raw materials, increase efficiency, and generate new technologies to respond to these problems, thus opening up new markets, reducing costs, and allowing more time for adaptation, with phased investments and reduced write-offs or special charges. The 2004 Executive Opinion Survey evaluates the views of business leaders on environmental and social responsibility issues, and demonstrates both the importance of governmental leadership in providing an effective regulatory climate, and the key role of business leadership in addressing environmental and social issues proactively. In Dahl’s analysis, countries are rated not on their present environmental status, but on the efforts of both business and government to improve that status, and to anticipate and address emerging problems. Nine countries received high ratings, another 34 were positive on balance, while 24 showed progress in some areas, and 38 were making little or no effort to be environmentally responsible. Some emerging economies and developing countries scored well, driven perhaps by dynamic business sectors and enlightened governments, while some industrialized countries were ranked far below their peers, suggesting a need for greater efforts to remain competitive. The results strongly suggest that combined efforts by business and government to facilitate corporate social and environmental responsibility do, indeed, generate a competitive edge. In “Chile: The Next Stage of Development,” Augusto Lopez-Claros notes that Chile has managed to grow faster than many other countries in the developing world, boosting per capita incomes, and making further progress to reduce poverty levels. It has done so against a backdrop of fiscal discipline and rapidly declining public debt levels, while maintaining an admirably open trade and foreign investment regime, and improving to a remarkable degree Franz Wirl: Industriebetriebslehre 109 the quality of its public institutions, which have played a stabilizing and pivotal role in the country’s recent evolution. By a wide margin, Chile is the most competitive economy in Latin America. The author identifies a number of areas where challenges remain, however, if Chile is to make a successful transition to the next stage of its development. This phase will require a combination of comparative advantages and the adoption of new technologies to facilitate the emergence of clusters, centered mainly on the natural resource sectors and the upstream development of supporting industries with higher value added. Critical to this process of development will also be a substantial upgrading in the quality of Chile’s educational system, which remains surprisingly inefficient, given the country’s income levels. Lopez-Claros also raises the question of whether the country—and in particular its political leadership—have reached the right balance, as regards the role of the state in the economy. Without doubt, the country has benefited from a system that has built in a number of safeguards to protect the public interest from the short-term interests of passing politicians, and from various forms of abuse. But this approach may need to make room for a more active role for the state, as has been done in Finland, with regard to the support for new ventures, aimed at enhancing the country’s potential for innovation. Chile aside, in “The Future of Competitiveness- Enhancing Reforms in Latin America,” Mario Blejer argues that despite a recent pickup in growth, the region continues to confront important challenges and faces serious struggles ahead. The difficulties concern the uncertainty regarding the sustainability of macroeconomic recovery and, more importantly, the capacity of the region to address long-term structural weaknesses. A significant problem in Latin America is the incomplete nature of the reforms, evidenced by deficiencies in institutional development, and reflected in the loss of competitiveness. Indeed, Latin America is falling behind, not only with respect to the economies of East Asia but, more significantly, with respect to the transition economies of central and eastern Europe. In answer to the question what explains this worrisome trend, Blejer suggests that in most cases, reforms have remained incomplete and their economic benefits have not been fully realized. Some of the successes in creating a more stable macroeconomic environment have not been complemented by more broad-based “second generation” reforms. He points out that any assessment of the current political and social realities in the region suggests that the short term prospects for further implementation of market-oriented reforms would seem bleak. Reforms have not had the anticipated effects on growth and employment and, against a groundswell of the anti-globalization movement, the entire concept of structural reform—with the exception of Chile—has been systematically maligned and discredited across Latin America. In such an environment, it is clear that there is a widespread lack of enthusiasm for further reforms. In practice, the design and introduction of a realistic reform agenda would require two key elements: compensation for those who are bound to be negatively affected from the process, and a better set of international incentives for governments and countries willing to swim against the current of public opinion, and take the necessary steps to improve their economy. In “International Productivity Comparisons: the Importance of Hours of Work,” Andrew Warner challenges the traditional measures of productivity, by highlighting the importance of hours worked. He demonstrates that while growth of GDP or GDP per capita puts the United States clearly ahead of most industrial countries during the boom years of the new economy (1995–2000), this supremacy is not quite so obvious when data on growth of GDP per hour is used to quantify productivity growth. Warner also questions the common notion that productivity has suffered a serious decline in Europe over the last decade. Using GDP per hour calculations, he shows the clear lead of some European countries over the United States, and implies that the European “productivity slowdown” may be more myth than reality, when we focus on per hour data. Given uncertainties about the reliability and comparability of existing data on hours worked, as well as lack of coverage of poorer countries, questions were introduced into the 2004 Executive Opinion Survey on the extent of hours worked. Warner uses this unique dataset to reveal interesting differences between the trends observed in industrial countries and those in developing nations. Wage labor in low-income countries work particularly long hours, whereas in rich countries as a whole, there is a trend for executive workers to put in more hours than hourly labor. Warner also uses the Survey data to highlight differences in productivity barriers and to show how these vary across countries and income levels. Four barriers to productivity are examined: labor practices, business regulations, labor skills, and poor infrastructure. While the perception of labor practices and business regulations as barriers to productivity does not appear to be directly related to income level, lack of skilled labor appears to be a hindrance in high-income countries, while the lack of infrastructure is typically, but not surprisingly, perceived as a productivity barrier in most low-income countries. Special topics By analyzing trends in population growth, per capita income, and the effects of the IT revolution, Richard Cooper, in “A Glimpse of 2020,” offers an insightful perspective on what the world will look like two decades from now. Cooper paints contrasting demographic scenarios for 2020: low-income countries will see rapid population increase, placing heavy pressures on energy demand and urban infrastructure; rich countries will experience population decline, and a much higher ratio of elderly to working age, severely taxing governments’ abilities to maintain the high social benefits to which their citizens have grown accustomed. Franz Wirl: Industriebetriebslehre 110 Dramatically decreased costs of communication will increase mobility, reduce economic and cultural differences between the regions of the world, but increase international cooperation, not only in areas such as financial regulation, tax and law enforcement and technology exchange, but also in the willingness of nations to intervene where national governments have failed. Despite the natural attraction of familiar languages and social environments, businesses are becoming “footloose,” increasingly driven by competition to outsource offshore, with headquarters and production centers often situated at great distances from each other. NGOs as well as criminal business and terrorism will become increasingly international in scope, and repressive governments will find it more difficult to insulate their populations from access to information. Cooper points out that by 2020, while there is bound to be uncertainty following the inevitable demise of current dictators, more “South Koreas” will arise, i.e. developing countries which grow rapidly, democratize and join the ranks of the rich, forming new market opportunities. Particular attention is paid to China, whose GDP by 2020 could make it the world’s third largest economy, and where, although still poor, the high ratio of wage earners to dependents will enable the country to become a major world player. Forecasting the future is hazardous business, but Cooper presents a cogent, businessrelevant, vision of 2020. A number of challenges to the well-being of our societies—demographic, technological, climatological, and geopolitical—are visible on the long-term horizon. In “Confronting Long-Term Fiscal Challenges: Why it Matters for the Global Economy,” Peter Heller takes up an issue raised by Cooper in his own article, and perceptively explains why some of these challenges are predictable, while others are vague and uncertain. Even when clearly anticipated, uncertainty still surrounds developments whose horizon may be measured in decades. Some, such as aging populations, pose a threat to the financial solvency of national governments, raising the prospect of vastly increased future public outlays, whether for pensions, health care, long-term chronic care, infrastructure, or security. Accentuating these fiscal risks is the fact that the future resources of governments are already precommitted to an unprecedented extent. Not surprisingly, political economy factors work against efforts to address these challenges. Heller contends that governments must do much more, now, to prepare for the fiscal consequences of the developments that their countries face over the next several decades. The agenda for action will depend on the country, on the preferences and capacities of its people and institutions, on the extent of its existing policy commitments, and on the specific challenges it faces. Uncertainty does not absolve fiscal policymakers from the burden of addressing long-term issues. What they do, or fail to do, will critically influence both the welfare of current and future generations, and the role and capacity of the state itself. Delay in addressing these changes will only increase their costs, some of which will be borne by those living today. What to do? Heller suggests that no single policy reform will suffice to meet long-term challenges. Reform must proceed on many fronts, utilizing additional analytic techniques, strengthening institutions to clarify and monitor evolving budget trends, introducing detailed policy reforms, the sustained strengthening of the aggregate fiscal position, and working with other countries on areas where collective action is required. In a compelling contribution to this year’s Report, entitled “Agricultural Policies in OECD Countries: an Agenda for Reform,” Stefan Tangermann makes a number of fundamental points, which cast refreshing light on a complex and politically charged subject. To begin with, there is an apparent inconsistency between the rapidly declining importance of agriculture among the 30 Member countries of the OECD—whether measured in terms of the sector’s contribution to total GDP or total employment—and the considerable attention devoted to it in the public debate. The resources transferred to farmers— an impressive US$257 billion in 2003, a full three quarters of which taking the form of production-linked transfers—seriously distort markets and competition in international trade. Tangermann shows that, despite longstanding discussions about the need for reforms, the level of support during 2001–2003 is only marginally lower than during the period 1986–1988. However, within the OECD as a whole, there is considerable diversity across countries, with New Zealand and Australia having essentially eliminated farm support as a result of comprehensive reforms, and others, such as Norway and Switzerland, still providing levels of producer support more than twice the average in the EU, and hardly changed during the past 15 years. Tangermann examines the reasons for these massive transfers to farmers. Their motivation stems from a desire to address equity concerns in societies at large, and deal with market failures associated with the interaction between agriculture and the environment. However, he provides compelling data to show that, in fact, incomes of farm households in OECD countries are in line with, if not higher than, household incomes in the overall economy. Thus, broad-based support measures such as price and output support are unnecessary. Worse still, only 25 cents out of every dollar of support provided to farmers actually ends up in farmers’ pockets, with a large share of the rest going to large landowners. As regards the environment, the harsh effects of overproduction on the quality of farmland and wildlife are well known. Finally, the extra output generated by farm policies in OECD countries depresses prices for farm products in international trade, and has been a contributing factor in the difficulties encountered in promoting further multilateral trade liberalization. The author concludes this important paper with some specific suggestions for reform. In his paper “Can Foreign Aid Make Poor Countries Competitive?” William Easterly offers insightful answers to the question why foreign aid has not been more successful at promoting competitiveness. In his review of the evidence on foreign aid and economic growth, the effectiveness of aid conditionality, and the bureaucratic nature of aid agencies, Easterly questions and then examines the results of the regression analysis published in 2000 by Craig Franz Wirl: Industriebetriebslehre 111 Burnside and David Dollar, which investigated the relationship between foreign aid, economic policy and the growth of per capita GDP. Because of its conclusion, viz. that aid only works in a good policy environment, this study was widely cited by media, governments and aid agencies, as a basis for increasing foreign aid. By expanding the dataset, extending the time line and using alternative definitions of “aid,”“policy,” and “growth,” Easterly comes to some different and thought-provoking conclusions, to the effect that the interaction term of aid and good policy is no longer statistically significant. Easterly also critically examines the “financing gap” approach to aid, by which it is assumed that aid increases investment and investment increases economic growth, finding it both theoretically questionable and empirically deficient, leading him to question why the international community has not held agencies responsible for the failure of large flows of aid to generate growth. After discussing the detailed findings, Easterly analyzes how aid agencies actually function, citing the excessive, dysfunctional bureaucracy of agencies, the fact that they are answerable to the rich donors, rather than their voiceless recipients, the assumption of capital projects without maintaining them, and the pernicious tendency to overmeet, overextend and overstate. He saves particularly trenchant criticism for the failure of aid agencies, despite the presence of obviously well-intentioned and capable minds, to understand the deeper implications of and truly practice “grassroots” development. The result of this failure, he concludes, has been not only the continued presence of unalleviated misery, but the loss of support for aid on the part of the rich countries most able to provide it. He ends in a positive tone, pointing to a successful project in Ethiopia, by making a number of serious and realistic proposals for aid agencies, governments and development practitioners, to assist them in revising expectations, methods, and, hopefully, outcomes. The Report ends with a section containing detailed country profiles for each of the 104 economies covered in our competitiveness indexes, as well as data tables for the variables that are used as inputs in their construction. A brief Annex, explaining how best to interpret the information contained in the country profiles and the data tables, is an essential companion to this section, as are technical notes clarifying the meaning of many variables, and listing relevant data sources. Als Basis zum Vergleich und zur Abschätzung von Entwicklungen wird vor den folgenden und aktuellen Tabellen zuerst das Ergebnis von 2001 nochmals präsentiert: Internationaler Index an Konkurrenzfähigkeit World Economic Forum, The Economist, Oct. 18th, 2001 5 Besten 5 Schlechtesten Finnland USA Canada Singapore Australien Bangladesh Paraguay Nicaragua Nigeria Zimbabwe Franz Wirl: Industriebetriebslehre 112 Growth Competive Index 2012-2013 rankings and 2011-2012 comparison Quelle: The Global Competitiveness Report 2012-2013, Klaus Schwab, World Economic Forum Franz Wirl: Industriebetriebslehre 3.8 3.8.1 113 Fallbeispiele Vergleich von Standorten von Organisationseinheiten in der Automobilindustrie in Japan und in den USA Obwohl der diesem Punkt zugrunde liegende Artikel: Jeffrey H. Dyer, Dedicated Assets: Japan’s Manufacturing Edge, Harvard Business Review November-December 1994, S.174 nicht sehr alt ist, entspricht er eigentlich nicht mehr der Aktualität, denn die darin vielgerühmte japanische Autoindustrie hat, mit Ausnahme von Toyota, nicht mehr so einen großen Vorsprung. Daran erkennt man, dass betriebswirtschaftliche Ergebnisse manchmal nur recht kurzlebig sind, und durch neuere Entwicklungen widerlegt werden. Franz Wirl: Industriebetriebslehre 114 Die These Dyers ist folgende: „Es ist bekannt, dass der Erfolg der japanischen Automobilhersteller zu einem Großteil auf der engen Beziehung zu den Lieferanten besteht.“ Die erste Abbildung zeigt die Durchschnittsdistanzen bei typischen Automobilherstellern und die damit verbundenen Lagerkosten sowohl für den Produzenten selbst als auch für die Lieferanten. Beispielsweise differieren die Kosten zwischen GM und Toyota um fast einen Faktor 5, in absoluten Zahlen beträgt die Kostendifferenz 500 Mio. USD. Abbildung 2.17 Beziehung zwischen Distanz und Lagerkosten, aus Dyer in HBR, Nov.-Dec. 1994) Die zweite Abbildung 2.18 (Quelle: Dyer in HBR Nov.-Dez. 1994) zeigt, dass das Netz von GM viel weitläufiger angelegt ist, als das von Toyota. Zu internen Anbietern beträgt die durchschnittliche Distanz 350 Meilen, zu externen sogar 427 Meilen (bei 7 Lieferungen pro Woche) während bei Toyota die Werte nur durchschnittlich 30 und 87 Meilen betragen, wodurch 40 Lieferungen pro Woche möglich werden, was für Just in Time Produktion von großem Vorteil ist. Die darauf folgende Abbildung 2. 19 (Quelle: wie oben) stellt das Verhältnis zwischen der Häufigkeit bzw. Länge des persönlichen Kontakts (z.B. GM 1000 Manntage/Jahr, Nissan 3000, Toyota 5000, welche Ingenieure des Produzenten bei den Zulieferern verbringen), und der Qualität bzw. Produktionsgeschwindigkeit dar. Bei der Interpretation dieser Grafik sollte man Vorsicht walten lassen, insofern, als dadurch nur das gleichzeitige Vorkommen von höherer Qualität und mehr Kontakt dokumentiert ist, aber nicht belegt ist, dass der Kontakt wirklich die Qualität beeinflusst. Außerdem ist zu bedenken, dass die amerikanischen Firmen stärker integriert sind, und daher weniger externe Kontakte brauchen. Trotz dieser Einschränkung gilt Toyota nach wie vor als weltbestes Autounternehmen! Franz Wirl: Industriebetriebslehre 115 Abbildung 2.18 Vergleich der Standortkonfiguration der amerikanischen und der japanischen Autoindustrie, aus Dyer (1994) Abbildung 2.19 Auswirkungen persönlichen Kontaktes, aus Dyer (1994) Franz Wirl: Industriebetriebslehre 116 Abblildung 2.20 Profitabilität, aus Dyer (1994). Was Investitionen betrifft, so sind in den USA 15% der Investitionen eines Lieferanten spezifisch, in Japan hingegen 22%. Spezifische Investitionen (d.h. solche, die nur für einen bestimmten Auftrag/bzw. einen bestimmten Kunden nützlich sind) sind natürlich für den Zulieferer riskant, da sie im Falle einer Stornierung des Auftrags wertlos sind, und so dem Käufer eine gewisse Macht bei den Preisverhandlungen geben. Lieferanten haben also ein Interesse daran, wenige spezifische Investitionen zu tätigen, um flexibler zu bleiben, auch wenn das mit höheren Produktionskosten für die einzelnen Aufträge (bedingt z.B. durch wiederholten Anpassungsbedarf der Maschinen im Vergleich zu einer Standardeinstellung bei spezifischer Investition). Auch bei der Verwendung von Standardteilen zeigt sich die engere Zusammenarbeit der Zulieferer in Japan mit ihren Kunden: In Japan werden nur 18% standardisierte Teile verwendet, in den USA 38%. Beachtlich ist, dass in Japan sowohl die Autofirmen als auch die Zulieferer eine höhere rate of return on assets haben, als in den USA. Für die japanische Automobilindustrie zahlt sich also eine Standortwahl mit bewusstem engem Clustering aus. Aber Clusterbildung ist nicht alles, um Erfolge zu erklären! 3.8.2 Hypothetische Fallstudie: Fahrradhersteller Eldora Die folgende Fallstudie aus Andrew Bartmess, The Plant Location Puzzle, Harvard Business Review March-April 1994, 20 soll als Anregung dienen, sich an Hand einer Beispielskizze die verschiedenen Aspekte der Standortwahl nochmals vor Augen zu führen. Situation: Eldora, ist ein äußerst profitabler Fahrraderzeuger (eher Massenprodukte, aber auch teure und hochqualitative Räder in Kooperation mit Rinaldi, Europa) mit Fabrik und komplettem Umfeld in Boulder (Colorado). Diese Nähe hat viel zur Kooperation und zum Erfolg beigetragen, weil Boulder das amerikanische Mekka der Radfahrer ist, und Ingenieure, Designer und Marketingleute innerhalb von 10 Minuten (zu Fuß) zu erreichen sind. man hat die Hand am Puls der letzten Entwicklungen. Da kommt der Vorschlag, eine Fertigung in China zu errichten, weil - Marktsättigung in den USA bevorsteht (1992, 30% Marktanteil), Wachstum + 2%/a. - es eine Chance wäre, den asiatischen Markt zu erobern, der mit 30%/a wächst. - zwei wichtige internationale Konkurrenten bereits eine Fertigung in Asien haben. - dort niedrige Arbeitskosten zu erwarten sind. Weitere Fakten: - Die Exporte wuchsen 1987 - 1991 mit 80%/a aber kaum in den folgenden Jahren. - Von 200 Mill Fahrrädern, die pro Jahr produziert werden, gehen 40 Mill nach China, 30 Mill. nach Indien, 9 Mill nach Japan. - Von einem Konkurrenten waren noch 1990 97% für den Export und 1994 bereits 45% für den lokalen Markt. Arbeitskosten und Transportkosten sind daher vor Ort in China substantiell günstiger. Franz Wirl: Industriebetriebslehre 117 Probleme: Unkenntnis darüber, wie eine Fabrik in China zu errichten und zu betreiben ist => Beginn mit Verkaufsorganisation ? Oder in Taiwan, anstatt in der Volksrepublik, wegen all der Probleme in China? Frage: Sollte eine Abteilung - für Produktion, Vertrieb, Joint Venture oder nur Outsourcing - in China oder etwas allgemeiner in Asien errichtet werden? Franz Wirl: Industriebetriebslehre 3.8.3 118 Beispiele aus der Presse Relocating factories to China is not always a good idea The Economist, February 15th, 2003, p 66. CONVENTIONAL wisdom says that the white-suited workers hunched over microscopes at PSi Technologies, checking the company's semiconductors for flaws, will soon be out of a job. In suburban Manila, as in the rest of South-East Asia, businessmen seem amazed that the region has any factories left at all. Almost anything can be made cheaper and better in China, they say, especially computer chips, which are practically a commodity. Yet PSi has not just one, but two plants in the Philippines, and plans to expand further. The boom in China, far from destroying the local electronics industry through cheap competition, is helping to keep it afloat amid a global downturn. In 2002, even as the Philippines' electronics exports to America fell, exports to China grew, by about 120%. That far outstrips the growth of imports from China. Strong demand for its electronics products helped push up Philippine exports last year by 9%. The much-feared hoovering, it turns out, is Chinese industry sucking in the imports it needs to grow at breakneck speed. Arthur Young, chief executive of PSi, reckons that 85% of his output ends up in China at some stage— mainly for assembly into mobile phones, computers and other appliances. That might seem like an argument for relocating to China, to be close to his customers. And indeed PSi is looking into setting up a factory in China, at a customer's behest. But the decision is not as simple as it sounds. The cost of doing business in the electronics belt around Shanghai, Mr Young says, is already comparable to the Philippines, and rising. He might yet build a factory in a cheaper area, away from the coast. But shipping chips across China is not so different from shipping them across the South China Sea. According to Ernesto Santiago, the head of SEIPI, the Philippines' electronics-industry association, the country retains a critical mass in the chip-making business. Multinational firms like Intel, Texas Instruments and Philips all have factories in the Philippines. They could, of course, move to China, as NEC, a big Japanese manufacturer, did recently. But most companies do not want to put all their eggs in one basket. Anyway, Mr Santiago argues, the cost of relocation is greater than the benefits to be gained. Wages are higher in the Philippines than in some parts of China. But labour accounts for only about 10% of costs for most firms. China may have legions of engineers, but the Philippines also turns out 100,000 of them a year, more than the industry can currently absorb. What's more, many Filipino workers speak passable English, a boon when it comes to training. To be sure, the Philippines' electronics industry faces plenty of challenges. Electricity is expensive; roads are ropy; and educational standards are falling. Foreign investors are wary of putting money into a country fraught with violent crime and plagued by both separatist and communist insurgencies. But these are problems that the government can address—unlike blind fear of competition from a wakening giant. Franz Wirl: Industriebetriebslehre 119 The new geography of the IT industry, Jul 17th 2003, The Economist. As the information-technology industry's emphasis is shifting—from innovation to execution—so is its location CONSIDER three snapshots of the IT industry today. First, look at the centre of the business at the turn of the century—Silicon Valley. Parts of this high-tech region to the south of San Francisco, which were buzzing with activity only three years ago, are coming to resemble an industrial wasteland populated by squirrels, racoons and “for lease” signs. In the city of Santa Clara, where almost half of all office space is vacant, rents run at around $1 per square foot, compared with $6.50 in late 2000. Some larger tenants in the city are even sub-letting space for nothing, just so they can share the service costs. Then move north to Redmond, near Seattle, the home of Microsoft. The giant software firm appears to be defying gravity—because it controls two monopolies, Windows and Office, each generating some $10 billion in annual revenues, with operating margins of more than 80%. But the company seems to be running out of bright ideas about where to invest its money. Microsoft has almost $50 billion of cash in the bank. In January, it announced plans to pay a first-ever dividend of $870m this year, a figure that many now expect to be raised, with some talking of amounts as big as $10 billion. For a third snapshot, turn to Electronics City, near Bangalore in India (above), home of the development centre of Wipro Technologies, an Indian IT services giant. Some 6,500 people work there, about half the firm's total staff, and new buildings are popping up all over the place. By 2005, the campus is scheduled to have three times as many employees as it does today. Tech-tonic shifts Welcome to the new geography of the IT industry, one that is no longer centred on Silicon Valley. It is the result of two distinct shifts that are reshaping the business. For some time, its centre of gravity has been moving away from the Valley to places such as Redmond, Austin, Armonk and Walldorf (in Germany), where four industry leaders—Microsoft, Dell, IBM and SAP, respectively—are based. At the same time, large parts of the business are migrating offshore, mainly to India, but also to such places as China, Russia and Vietnam. This is already being likened to what happened to manufacturing in the 1970s and 1980s, when companies in the rich world moved many of their operations overseas. The IT industry is now developing something that it has not had before (except in hardware manufacturing): a fully operational, international supply chain. Such geo-technological movements, in particular the one shaking Silicon Valley, are no surprise to economic historians. As technological phases in computing have come and gone, so have shifts in the industry's centre of gravity, argues Timothy Bresnahan, an economics professor at Stanford University. When the mainframe dominated the industry, he says, it clustered around New York; Boston then took over as the centre of minicomputing; while the PC, although born in Florida and Houston, came of age in the Valley. It was followed by the internet, in many ways the perfect technology for the Valley. Entrepreneurship and venture capital were already in the blood there, and the web, with its open standards, allowed less tech-savvy entrepreneurs to create start-ups quickly and reach a wide audience. The region proved to be a Petri dish, or “innovation habitat”, offering plenty of the nutrients required to incubate and commercialise any new technology—including flexible networks of entrepreneurs, highly skilled employees, university researchers, venture capitalists, lawyers and business consultants. Perhaps more importantly, the timing could not have been better. At the end of the 20th century, managers had two reasons to buy technology on impulse. First was the Y2K scare, which told them that their systems might be fuddled by the date change on January 1st 2000. Second was the fear of being “Amazoned” by an e-commerce start-up, such as the eponymous online retailer. It was Valley firms such as Sun Microsystems and Cisco Systems that were able to provide most of the equipment for carrying out ecommerce. Both benefited to the tune of annual growth rates of up to 40%. The culture of the Valley thus became the dominant culture of IT everywhere. Buyers bet on Valley newcomers such as Siebel Systems and its “best-of-breed” customer relationship management (CRM) program, rather than waiting until established vendors of business software packages, such as Germany's SAP, caught up. IT managers were also persuaded to buy pricey high-end hardware that was crafted by the Valley's best engineers. Sun also sets Today, the IT industry is no longer dominated by start-ups, innovation and highend equipment. Customers are more interested in consolidation, integration and execution than in the next big thing. And here the Valley's rivals have a competitive edge. SAP offers good-enough CRM programs as part of its suite of business software. Dell, boasting a super-efficient supply chain and increasingly powerful machines built with commodity parts, has become the downturn's hardware star. As a result, many of the Valley's leading firms are losing ground. Siebel and Sun, for instance, recently posted disappointing quarterly results. Dell, IBM and SAP, on the other hand, have been doing well, while Microsoft keeps beating expectations. Things would not perhaps be so bad for the Valley were it not simultaneously being undermined by a second shift in the industry. Most hardware is already built in places far away from its customers, but now other parts of the industry are also moving abroad. This is the result of three separate trends that will increasingly become one, as the boundaries between software, IT services and business processes become blurred. First, software firms are setting up development shops offshore. Smaller ones have done this for some time: for example, firms such as Agile Software, a Silicon Valley company that sells programs managing all aspects of a product's lifecycle. More than half its 200 developers now work in India, Hong Kong and southern China. More recently, the bigger firms have started to move offshore in a significant way. In June, SAP announced that it would double its workforce in India to 2,000 within three years. Last week Oracle, a Silicon Valley software firm that aspires to be bigger than Microsoft, announced that it is soon to double (to about 6,000) the workforce at its two Indian research centres, one of them in Bangalore. Microsoft too recently announced plans to expand its IT operations in India. Franz Wirl: Industriebetriebslehre 120 Then there are the home-grown Indian outsourcing companies, offering a wide range of IT services to western customers, from writing and maintaining programs to implementing enterprise software and monitoring computer systems. The largest of these firms—Tata Consultancy Services (TCS), Infosys and Wipro—are starting to compete head-on with the large American outsourcers, firms such as Accenture, EDS and IBM Global Services. At the same time, the Americans are expanding their presence overseas. Accenture recently announced that it will triple its offshore workforce to 12,000 by the end of the year. More significantly in the long run, a growing number of large companies are using IT to send entire business processes offshore, either by setting up overseas subsidiaries of their own or, to a lesser extent, by hiring local outsourcers. And this practice is no longer restricted to low-grade operations such as call-centres. General Electric, a pioneer in business process outsourcing (BPO), has increased its Indian workforce to more than 11,000. Among other back-office businesses, these employees analyse credit risks, underwrite loans and evaluate insurance claims. Not surprisingly, the main reason for this shift offshore is cost control. With business slow and prices under pressure, firms are looking for ways to produce their wares more cheaply. Developing countries such as India offer plenty of opportunities to do just that. A programmer in, say, Bangalore costs an American firm about one-quarter of what it would pay for comparable skills at home. Add in the extra infrastructure and telecoms costs, and the savings are still in excess of 30%. Technology also plays a part. Highspeed data connections and software tools have made it cheaper and easier for geographically dispersed teams to collaborate. Firms that are selling software programs to assist such collaboration are themselves offshore pioneers. Agile is one example; there is also CollabNet, another Silicon Valley software firm. It offers a web-based service that allows teams of programmers to coordinate their work, and it has recently bought Enlite Networks, another collaboration start-up which develops many of its programs in India. Equally important, says George Gilbert, a co-founder of TechStrategyGroup, a consultancy, is the fact that software development today is more fabrication than innovation. As much as 70-90% of what programmers do in a large enterprise software firm, for instance, is maintenance: upgrades, minor enhancements and bug fixes. Such programming tasks can more easily be done abroad. In addition, today's software is written in a more modular way, which means that parts of it can be coded separately. Moreover, clients are increasingly at ease with getting important IT work done overseas—not least because they hired many Indian and Chinese engineers during the boom, and many have now gone home to work for one or other of the offshore firms. Indian IT services firms, in particular, boast first-rate development processes and have shown that they can handle large-scale projects. Offshore limits How much of the IT industry will move offshore, and how many IT jobs in America and Europe will disappear? In the United States there is already a political backlash, of sorts. Lawmakers are pushing to tighten visa regulations, so that foreign IT firms can no longer send their employees to customers for training. And several state legislatures have bills pending that would stop government agencies sending IT and other services work overseas. Such reactions are misguided. For a start, although IT jobs are definitely moving abroad, this is no exodus. Even high-tech consultancies, which tend to exaggerate such trends, come up with numbers that, on close examination, are relatively small. Forrester Research predicts that more than 3m IT-related jobs in America will have moved overseas by 2015. That sounds a lot, but it is little more than 2% of total American employment today. This trickle is unlikely to turn into a flood. Going abroad does not just bring rewards; it also carries risks. For a firm, picking the right partner can be tricky, and getting along can be even harder because of cultural differences and linguistic problems. Political stability is also an issue, as is the privacy of personal information and the protection of intellectual property. But not sending work to places where it can be done more cheaply could well cost even more jobs in the long run. Using offshore workers helps companies to remain competitive and focus on what they are really good at. Having development centres in India and China allows them to maintain margins and so create new jobs (in the Valley or elsewhere), says Alfred Chuang, chief executive of BEA, another Silicon Valley software firm. The limits to offshoring are already visible. To lower their costs, Indian IT services firms are themselves sending work offshore, to even cheaper places such as China. In 1999 a study by the National Association of Software and Services Companies (NASSCOM), a leading Indian IT industry group, estimated that the cost of employing top software engineers in India could be the same as in America in 15 years' time. Others predict that equalisation could happen much earlier. Eventually, the IT services and software industries will globalise and probably operate much as hardware manufacturing does today, predicts Phil Codling, an analyst with Ovum Holway, a consultancy. The production of most computers and other electronic goods is today spread around the world in a way that makes most sense economically—taking into account labour costs, but also such factors as skills, cultural compatibility, proximity to markets and, not least, tax rates. Something called “near-shoring” can often be an attractive proposition. According to A.T. Kearney, a consultancy, India leads the pack in offshore IT services mainly because of its low labour costs (see chart). But other countries such as Brazil, Canada and Mexico are not far behind and score more highly in other areas. The division of labour within companies such as Agile and Enlite could become a model for both software and IT services firms. Things involving design and marketing will mainly stay onshore: developing a product's architecture, for example, or coming up with new features and keeping in touch with the market. Most of the actual coding, as well as customer support, however, will be done abroad. How green is the Valley? Who will dominate this new geography: the newcomers from India or their American rivals? The chances are, says Rahul Sood, another co-founder of the TechStrategyGroup and a former McKinsey consultant, that it will be easier for American firms to build a “back-end” offshore than for their Indian rivals to create a “front-end” onshore. In the long run, he says, offshoring will no longer be mostly about labour arbitrage. It will be about putting together an efficient global IT supply chain. And this is a skill that Indian firms have to develop if they want to compete at the top. Yet American IT firms should not be lulled into thinking that there are areas where they are safe from overseas competition. Other countries will eventually have their own global IT heavyweights. A recent lawsuit over an alleged patent violaton between Cisco and Huawei, a Chinese telecoms-equipment maker, may be a sign of things to come. Although Huawei appears to have taken liberties with Cisco's intellectual property, the Chinese firm could grow into a dangerous low-cost competitor to the once dominant Silicon Valley company. Franz Wirl: Industriebetriebslehre 121 Is the Valley destined to become the Venice of the information age? Don't bet on it yet. The region has gone through similar cycles before—and adapted successfully. When PCs became commodities in the 1980s and were made more cheaply elsewhere, Valley firms, led by Sun, developed more sophisticated workstations. These days, the Valley is again moving up the technology stack. Sun is trying to become more of a software firm, by developing software that automates the management of data centres, for example. Oracle wants to become the Microsoft of enterprise software, by offering a complete suite of business programs. And after its successful merger with Compaq, HP looks increasingly like IBM. The trend towards ever cheaper and more powerful computer systems may also help the region. Google, for instance, is best known as a great online search-engine, but the Valley firm is just as notable for its inventive use of cheap hardware. Its super-efficient infrastructure of thousands of servers allows it to keep introducing new services, most recently Google News, which automatically aggregates news on the web. John Doerr, a Google board member and a partner at Kleiner, Perkins, Caufield & Byers, the region's foremost venture-capital firm, hopes that a successful Google share flotation will throw open the window for technology listings. It would certainly get things moving again in the Valley. There are other promising start-ups waiting to float, such as Salesforce.com, a firm offering web-based CRM services. Yet the best hope for a comeback is for the Valley to ride what many expect to be the next big wave of innovation after the internet: the convergence of bio-, info- and nano-technologies. Each holds much promise in its own right, but together they could give rise to many new kinds of products. The Valley is well equipped to catch this wave, thanks to its “innovation habitat”, says Doug Henton, president of Collaborative Economics, a local think-tank. It is a habitat that is good at incubating not just IT start-ups. Already, the broader region (which includes Berkeley and other cities on the east side of San Francisco Bay) has the largest concentration of public biotechnology firms in America. According to Ernst & Young, there were 74 in 2001, compared with 48 around Boston and 31 around San Diego. Yet such a habitat can also be a disadvantage, argues Donald Sull, a professor at Harvard Business School, in a recent paper analysing the rise and fall of the region around Akron, Ohio, where America's tyre industry was once concentrated. Initially, says Mr Sull, tightly knit social and professional networks allow knowledge to flow, which boosts innovation. But as an industry grows up, these networks also become a liability: increasingly set in their ways, they make a cluster less flexible and its firms more vulnerable to competition. Valley folk insist that such collective inertia could never overcome them. Rather, they like to compare themselves with Yellowstone National Park two years after an immense forest fire. Yes, there are lots of scarred trees. But there are also many fresh green shoots springing from the ashes. Franz Wirl: Industriebetriebslehre 122 Offshoring Relocating the back office, The Economist, Dec 11th 2003 The shift of service jobs to low-cost countries has only just begun. It promises huge benefits to consumers everywhere THE debate over “offshoring“, a phenomenon unheard of a few years ago by many of those now loudly proclaiming its economic effects, is in “the percolating phase,“ says Brink Lindsey of the Cato Institute, a Washington, DC, think-tank. It could, he adds, be “a potentially potent contributor“to the increasingly protectionist mood in the American capital. The debate has been brewing since a study by Forrester, a research group, in 2002 claimed that 3.3m white-collar American jobs (500,000 of them in IT) would shift offshore to countries such as India by 2015. There has been standing room only at recent presentations of a report by the McKinsey Global Institute suggesting that this process of “offshoring“ benefits both the countries involved in it. It is, says the consultants' research arm, a “win-win“ formula. 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 Others are not so sure. Stephen Roach, the chief economist at Morgan Stanley, talks about a “new and powerful global labour arbitrage“ that has led to an accelerating transfer of high-wage jobs to India and elsewhere. He reckons this is adding to the bias towards jobless recoveries in western economies. An anonymous e-mailer claiming to represent a group of Boeing engineers is putting it about that Boeing's offshoring of some design engineering work to a new centre in Moscow is causing lay-offs that are cutting “deeply into Boeing's talent pool“. The e-mail also alleges that this is putting “the safety and quality of Boeing airplanes at jeopardy“. Although there have been no federal legislative proposals in America against offshoring per se, there has been a tightening up on the granting of visas that allow foreign workers to enter America for training and temporary employment. The annual quota for so-called H-1B visas used by itinerant Indian software programmers fell in October to 65,000 from 195,000 a year ago. The idea is to prevent foreigners from taking Americans' jobs. In fact, the effect may be the reverse. Craig Barrett, the chief executive of Intel, a chipmaker and a big employer of Indian engineers, says that America's main problem is a lack of suitably educated engineering graduates. The impact of fewer visas may thus be to encourage American firms to shift more work to India, where wellqualified computer engineers are plentiful. English spoken here But the vast majority of the service jobs that are now going offshore do not require highly qualified engineers. Multinationals may in future do original R&D in low-cost places, but for the moment most of the jobs on the move are the paper-based back-office ones that can be digitalised and telecommunicated anywhere around the world, plus more routine telephone inquiries that are increasingly being bundled together into call centres. Several American states have moved faster than the federal authorities in trying to halt this “labour arbitrage“. Lawmakers in New Jersey have proposed a bill to stop firms using foreign workers to fulfil state contracts. Public pressure forced the state to bring back a helpline for welfare recipients that had been outsourced to India. For similar reasons, in late November Indiana withdrew from a $15m contract with the American subsidiary of a leading Indian IT outsourcing firm. Governor Joe Kernan said that the contract did not fit with Indiana's “vision“ of providing better opportunities to local companies and workers. On one estimate, America accounts for over 70% of all offshoring business. The second biggest market is in Britain. Big companies there regularly announce that they are moving service jobs abroad, many of them involving the wholesale transfer of call centres. In late October, the HSBC banking group announced that it is taking 4,000 jobs from Britain to India, and earlier this month Aviva (the Norwich Union insurance group) said it is transferring 2,350 jobs, also to India. As yet, such moves have been less politically contentious than in America. Patricia Hewitt, Britain's minister of trade and industry, responded to those concerned about the job losses by saying it was a ?myth? that offshoring would create widespread unemployment. Nevertheless, her department has commissioned an independent study into the competitiveness of Britain's call centres. Representatives of Amicus, a big British finance-sector union, were this week seeking to persuade the European Parliament to set up a more general inquiry into the likely impact of offshoring on Europe's economy. The offshoring business remains predominantly English-speaking. It is dominated by American and British companies outsourcing their internal operations to third parties in places such as Ireland, Canada and South Africa, but most of all in India. The fact that America and Britain have relatively liberal employment laws has also been influential in the shift of business overseas. If offshoring is, as McKinsey claims, a “win-win“ formula for both sides, the process is set to give English-speaking countries a significant competitive advantage. There are examples to be found elsewhere. A few Japanese companies have shifted operations to north-east China, where Japanese is spoken, and Bain & Co, a consultancy, forecasts that the offshoring market in Russia will grow by 45% by 2006, compared with 57% for India. Eastern Europe too has been making a play for offshoring business based on its relatively low wages and physical proximity to western Europe. In September, DHL, a logistics firm, announced that it will shift its data centre in Britain and parts of its IT operations in Switzerland to a state-of-the-art services centre in Prague that will oversee all the company's European IT operations. India looks likely to remain the most attractive offshoring destination for some time But the current political and market uncertainty in Russia could well constrain growth there for some time to come. And all of eastern Europe suffers from an excess of red tape. Earlier this year Lufthansa opened an accounting centre in Krakow in Poland. The German airline says that it is pleased with the quality of its staff. “Our employees are first-rate, but the paperwork is excessive,“ says Hedwig Hardtke, the head of the centre. A further threat to eastern Europe's offshoring business lies in the forthcoming entry into the EU of countries like the Czech Republic and Poland. That is sure to narrow wage differentials with the rest of Europe and eradicate much of the rationale for offshoring there. India looks likely to remain the most attractive offshoring destination for some time. It sees its main competitors as China and Malaysia. But Sanjukta Pal, a consultant with PricewaterhouseCoopers, says that the cost of operations in India is currently 37% lower than in China and 17% lower than in Malaysia. The Philippines is another country that is well equipped to provide competition in the future. It produces almost 300,000 college graduates a year, all of them English-speakers. But they are competing against India's annual crop of around 2m college graduates, 80% of whom speak English. Franz Wirl: Industriebetriebslehre 123 Much more than low cost The main advantage of shifting business operations to India and similar low-cost countries comes from a combination of lower wages and the improvement in the quality and price of international telecommunications. A report by HSBC says that the cost of a one-minute telephone call from India to America and Britain has fallen by more than 80% since January 2001. With high-grade jobs, the saving on wages is not as high as with lower-grade ones. NASSCOM, India's National Association of Software and Service Companies, reckons that an IT professional with three to five years' programming experience earns $96,000 in Britain, $75,000 in America and $26,000 in India. At the other end of the scale, low-grade call-centre jobs that in Britain earn a salary of $20,000 earn less than one-tenth of that in India. But the benefits of offshoring are not confined to lower costs. An article in the latest issue of the McKinsey Quarterly says that many companies that move their back-office functions offshore miss huge opportunities to reap efficiencies beyond those that come from using cheaper labour. “Companies are merely replicating what they do at home, where labour is expensive and capital is relatively cheap, in countries in which the reverse is true.“ For one thing, offshoring allows companies to work round-the-clock shifts, ferrying data back and forth from one place to another as the sun sets. For another, it allows them to rethink the way they solve IT problems. American Express, for example, paid local programmers in India $5,000 to write some software that it needed. To have bought a software package that could do the same job would, the company estimates, have cost it several million dollars. The benefits of offshoring are not confined to lower costs For the future, offshoring promises to diminish the effects of the demographic crunch in countries where the ratio of the working population to the total is set to fall. HSBC reckons that America would require an extra 8.6m workers to maintain the ratio at its 2000 level for 20 years. Countries that are reluctant to allow in immigrant workers to do their unfilled jobs now have the option of sending some of those jobs out to the workers, before they even think of emigrating. Despite all the advantages of offshoring, there are also disadvantages. With voice services “such as directory enquiries, for example“ local knowledge is often important. So too are accents and culture. In late November, Dell got itself into a tangle when a spokesman in Texas said that the computer-maker was bringing some of its Indian-based customer-inquiry services back to America because “customers weren't satisfied with the level of support they were receiving“. The next day, however, a spokesman for Dell in India denied that the work was returning. Whatever the truth of the matter, there is no doubt that customers with complex queries requiring local understanding do not respond well to far-off operators repeating parrot-fashion a series of learned responses. Convergys, one of the world's biggest providers of “contact-centre services“, advises companies to shift simple queries offshore while retaining the more complex ones on the same shore as the caller. It calls this process “rightshoring“, and estimates that about 80% of the companies that it is working with in Britain are planning to split their call-centre operations in this way. Boomerang jobs? Many companies have not yet taken anything like full advantage of offshoring. Harris Miller, president of the Information Technology Association of America (ITAA), a lobby group, says that offshore locations have so far captured just 3-4% of all American companies' outsourcing. The bulk remains onshore in the hands of big firms such as Accenture, CSC, EDS and IBM. A report by Forrester released at the beginning of this week says that 60% of Fortune 1,000 companies are doing nothing, or are only just beginning to investigate the potential of offshoring (see chart 2). Mr Harris says some big companies have told him that up to 40% of their outsourcing business could end up offshore. That suggests the industry still has a long way to grow. Technology may accelerate that growth. One thing currently limiting the ability of companies to outsource tasks, says Bain's Simon Heap, is the inflexible architecture of modern business-information systems. It forces firms to perform tasks as a series of discrete steps. So a business wanting to outsource some of those steps (billing, for instance, or customer service), but not others, gets involved in designing horribly complicated flows of information that are all too prone to error. Newer software and hardware promise a future in which, says Mr Heap, firms will be able to outsource smaller and smaller slivers of their business. They will not, as now, have to commit themselves to outsourcing the whole of, say, their customer-service department or nothing. There are limits though to how far the phenomenon can go. First of all, there are natural limits to the shifting of service jobs overseas. Many of them are in industries like hotels and restaurants, or in public services like education and health, most of which can never be moved abroad. In Britain, some 60% of all service-sector employment falls into this category. Then there are alternative pools of labour to be tapped at home. Citigroup, for instance, has hired about 100 college students in America to do programming for it, and it pays them $17 an hour. The bank reckons that is about half what it would have to pay comparable programmers in India. Technology too may place some constraints on offshoring. Irving Wladawsky-Berger of IBM argues that some of the tasks currently going to low-cost centres may eventually return because their underlying technologies will evolve in a way that makes economic sense of putting them back in rich countries. At the moment, for instance, customer-service call centres are very labour-intensive. McKinsey says that wages account for 70% of the costs of a call centre in America. That is why they are rapidly shifting to Bangalore, Hyderabad and other Indian cities. But firms such as AT&T are working on speech-recognition software that might, says Hossein Eslambolchi, AT&T's chief technology officer, soon be good enough to replace a lot of the routine inquiries currently handled in call centres. Indian call-centre employees, in other words, might soon find themselves competing with “offshore“ computers in New Jersey, and Indian doctors currently providing remote diagnosis of patients in other countries might find themselves undercut by a supercomputer's analysis of, say, digital mammograms and dental records. Indian territory The business of shifting back-office functions offshore began in earnest in the early 1990s when companies such as American Express, British Airways, General Electric and Swissair set up their own “captive“ outsourcing operations in India. However, many of these captives are now finding that their costs are up to 50% higher than those of independent third parties. British Airways' captive business was recently spun off as an independent Indian firm called WNS, handling high-volume, low-value back-office business processes for a dozen western airlines and a raft of other big companies. In what might become a model for other such offshore captives, WNS was bought in 2002 by a private-equity firm, Warburg Pincus, and a group of its own managers. A bunch of homegrown Indian IT groups have become powerful players in the market for offshore IT services: companies such as Wipro, Tata Consultancy Services and Infosys. They got their big breaks as subcontractors to overloaded western firms during the Y2K software crisis at the turn of the millennium. Now they are beginning to expand beyond core IT maintenance and support work into helping multinationals, for instance, to roll out new software applications. Younger Indian IT firms are competing in an increasingly crowded market by offering different services. For example, vMoksha builds, operates and then transfers offshore centres to multinational clients, flouting the usual Indian reluctance to hand over ownership. In another sign of the growing sophistication and maturity of the industry, big western outsourcing firms such as Franz Wirl: Industriebetriebslehre 124 Accenture, EDS and IBM are developing their own facilities abroad in order to shift more of their outsourcing business, currently performed in the West, to offshore destinations. But the cost advantages for the latecomers are being continually eroded. Salaries in Bangalore have been rising with the demand for skilled workers, and firms like Wipro and Infosys invest heavily in training and facilities. The Infosys campus in Bangalore's Electronics City, for instance, is the equal of anything in Silicon Valley. A better deal The protectionist response to offshoring may force some government work that would otherwise have gone abroad to remain at home, the extra7 cost to be picked up, of course, by the taxpayer. But government work 8 is only a small part of the market. David Tibble, the boss of WNS, 9says that it accounts for some 30%; the rest is in the hands of a private 10sector that is just awakening to the extent to which offshoring can11 boost its productivity. Offshoring is not new. Pankaj Ghemawat, a Harvard 12 Business School professor, suggests that the whaling fleets 13and floating factory ships of the late 18th century “can be said to have 14 originated offshore manufacturing“, a development that accelerated15 sharply in the 1980s and 1990s. But the beginning of what seems likely 16to be a mass migration of traditional in-house corporate services to third17 parties abroad presents companies with new structural challenges. Many 18fear the loss of control implicit in the process. But Jane Linder of Accenture's 19 Institute for Strategic Change says that the majority of those 20who pass on traditional back-office functions to others find, in the end, 21 that substituting a single supplier for many employees allows them greater 22 control and discipline over their operations. At the same time, it frees them to think more clearly about strategy. And the boost to efficiency means lower prices and better services for customers everywhere. That, surely, is not something to fear. 3.9 Eurozone 15 „So what is currently discouraging domestic firms in the stressed countries from investing more and creating jobs? What is preventing firms abroad from increasing foreign direct investment in these markets? This paper argues there are two main problems holding back private sector employment creation in the stressed eurozone countries. 1. First, there is a persistent competitiveness problem due to high labor costs relative to underlying productivity. Over the first ten years of the euro, wage developments relative to productivity diverged strongly across the eurozone.1 Between 1999 and 2008, Austria, Belgium, Finland, Germany, Luxembourg, and the Netherlands lifted their real productivity on average by 12 percent and nominal wages by 22 percent. France, Greece, Ireland, Italy, Portugal, and Spain collectively lifted their real productivity by only 7 percent, but boosted nominal wages by 40 percent. Hence, the latter group of countries had become both less productive and more expensive compared with the former group. This cost-productivity disadvantage of 20–25 percent has been corrected only partially, and a substantial competitiveness problem remains. This problem is aggravated by high tax and social insurance burdens for companies, especially in France and Italy. These developments have led to a considerable erosion of firms’ margins, which discourages investment. 2. Second, widespread structural barriers make job creation in these countries far more arduous than in many other advanced economies, and even more arduous than in some key emerging economies and formerly planned economies. Structural barriers to private sector development are particularly widespread in the areas of labor market functioning, goods market functioning, and government regulation. Evidence from the World Economic Forum’s Global Competitiveness Index and the World Bank’s “Doing Business” dataset confirms the immense size and persistence of these barriers, despite improvements in some countries in recent years.” Die folgenden Abbildungen dokumentieren das. Leider ist die Prognose nicht gut: „Calls for structural reforms are ubiquitous in European policy documents and declarations at both the country and European Union level, but there is a distinct and longstanding lack of achievement. One might think that an EU-style arrangement should be a fertile setting for a program of structural reforms, even if the process is a slow and evolving one. Yet progress toward structural reform in the most deeply afflicted countries, with a few notable exceptions including Ireland and Spain, has been so limited relative to what is at stake that there may well be higher barriers to action deeply rooted in the political economy of implementing Europe’s construction.” 15 Christian Thimann, The Microeconomic Dimensions of the Eurozone Crisis and Why European Politics Cannot Solve Them, Journal of Economic Perspectives—Volume 29, Number 3—Summer 2015—Pages 141–16. Franz Wirl: Industriebetriebslehre 125 Franz Wirl: Industriebetriebslehre 126 Franz Wirl: Industriebetriebslehre 127 3.10 Standort Österreich Die folgenden Folien basieren auf einem Vortrag von Dr. Siegl. Internationale Trends bei Direktinvestitionen 377 Mrd. US$ + 27,2% 1997 + 43,7% 1998 + 25,4% 1999 + 13,9% 473 Mrd. US$ Jahr 1996 680 Mrd. US$ 865 Mrd. US$ 0 100 200 300 400 500 Mrd. US$ Abbildung 2.21 600 700 800 900 Franz Wirl: Industriebetriebslehre 128 Vergleich Direktinvestitionen 1999 in Mrd. US$ 0.0 10.0 Österreich 2.8 Finnland 3.0 Dänemark 30.0 40.0 50.0 60.0 70.0 80.0 90.0 7.5 15.9 Belgien Länder 20.0 18.3 Irland 33.8 Niederlande 59.9 Schweden 82.2 Großbritannien Direktinvestitionen in Österreich in Mrd. ATS 0.0 10.0 20.0 50.0 60.0 13.2 1994 24.0 19.2 Jahr 1995 40.0 15.7 1992 1993 30.0 1996 46.9 32.4 1997 56.1 1998 1999 36.3 Abbildung 2. 22 Standortkiterien nach Arthur Andersen •Marktgröße •Gewinnaussichten •Marktöffnung •Stabilität •Bürokratie •Arbeitsqualität •Infrastruktur •High-tech •Arbeitskosten •Rohmaterial Franz Wirl: Industriebetriebslehre 129 Standortkriterien nach Deloitte Touche Fantus 1.Verfügbarkeit von qualifizierten Mitarbeitern 2.Weltklasse-Forschungsinstituten 3.Lebensqualität 4.Venture Kapital 5.Kosten 6.Technologielandschaft 7.IT-Infrastruktur 8.Bürokratie 9.Zulieferer und Partner 10.Förderungen Tabelle 2. 12 Österreich: Vor- und Nachteile (WIFO, 1997) Vorteile Nachteile Teilnahme am Binnenmarkt Administrativer Aufwand Präsenz in Osteuropa Anlagengenehmigung Verfügbarkeit von guten Mitarbeitern Telekomkosten Verfügbarkeit von hochqualifizierten Mitarbeitern Arbeitskosten für ungel. Mitarbeiter Konsensorientiertheit Umweltschutzvorschriften Rechtssicherheit Verfügbarkeit von Risikokapital Umweltqualität Öffnung der Energiemärkte Kultur/Freizeitangebot Reformbereitschaft Öffentliche Sicherheit Öffentliche Verwaltung Politische Stabilität Energiekosten Tabelle 2. 13 US-Investor Confidence Study Vorteile Nachteile Fremdsprachenkenntnisse Steuerliche Investitionsanreize Zugang zum osteurop. Markt Preisniveau bei Immobilienerwerb Österreich als Absatzmarkt Lebenshaltungskosten Qualifikation, Einsatzbereitschaft Betriebsgenehmigungen Transport Aufenthalts/Arbeitsgenehmigungen f. Nicht-EUBürger Kultur, Freizeit Geschäftsöffnungszeiten Politische Stabilität Höhe der Einkommensteuer Stabile Währung Arbeitszeitbestimmungen Sozialer Friede Strom-, Telekomkosten Lohn-, Lohnnebenkosten Ranking: Österreichs Wettbewerbsfähigkeit sinkt (Die Presse) 29.09.2005 Competitiveness Report" fällt die Alpenrepublik vom 17. auf den 21. Platz zurück Im "Global Franz Wirl: Industriebetriebslehre 130 Am Absturz schuld sind de facto ausschließlich politische Faktoren: In den Teil-Rankings für die Wettbewerbsfähigkeit und die Wachstumsstärke der Unternehmen hat es Österreich nämlich auf die guten Ränge 10 und 11 gebracht. Als Hauptbremsen für die Wettbewerbsfähigkeit identifiziert das Weltwirtschaftsforum restriktive Regulierungen des Arbeitsmarktes, die "ineffiziente Bürokratie", Steuersätze und -gesetze sowie inadäquat ausgebildete Arbeitskräfte. Auch der eingeschränkte Zugang zu Finanzierungsmöglichkeiten wird kritisiert. Die Studie, die jährlich erstellt wird, basiert auf einer Kombination aus "harten" Wirtschaftsdaten und den Ergebnissen einer Meinungsumfrage bei Unternehmensführern. Insgesamt wurde 11.000 Manager in 117 Ländern befragt. Um zwei Plätze zurückgefallen ist in der Reihung der Wettbewerbsfähigkeit übrigens auch Deutschland, dem das WEF ganz ähnliche Bürokratie-Probleme wie Österreich bescheinigt. Die Deutschen liegen auf Rang 15 allerdings noch sechs Plätze vor den Österreichern. Das liegt daran, dass Deutschland hervorragende Bewertungen im Bereich Technologie, Forschung und Entwicklung sowie für die Kooperation zwischen akademischen Institutionen und dem Unternehmenssektor bekommen hat. Laut WEF wäre Deutschland im Ranking wesentlich weiter vorne gelandet, wenn die Unternehmen nicht die kurzfristigen Aussichten für das Wirtschaftswachstum und die hohen Defizite der öffentlichen Haushalte außerordentlich pessimistisch sehen würden. An der Spitze des Rankings hat es gegenüber 2004 keine Veränderungen gegeben: Die beste Wettbewerbsfähigkeit weißt nach wie vor Finnland auf, gefolgt von den USA und Schweden. Generell haben die skandinavischen Länder und die asiatischen Tigerstaaten ihre Wettbewerbsfähigkeit stark verbessert. Alle nordischen Länder (Finnland, Schweden, Norwegen, Dänemark und Island) haben es unter die ersten zehn geschafft. Für das Weltwirtschaftsforum ist das ein Beweis dafür, "dass die herkömmliche Ansicht, dass hohe Steuern und ein dichtes Sozialnetz die Wettbewerbsfähigkeit eines Landes untergraben", falsch sei. Wichtiger, so das WEF, scheine zu sein, wie effizient die Staatseinnahmen eingesetzt werden und nicht, wie hoch die Gesamtsteuerbelastung sei. Größte Vorzüge der Skandinavier im globalen Wettbewerbsumfeld seien "Weltklasse-Ausbildungsinstitutionen" und hoch motivierte Arbeitnehmer. Stark auf dem Vormarsch sind in Europa Irland, Estland und Polen. Polen liegt allerdings als EU-Schlusslicht weiterhin weit zurück auf dem 51. Platz. Die Esten dagegen haben heuer erstmals Österreich überholt und sind die mit Abstand wettbewerbsfähigste Volkswirtschaft der neuen EU-Staaten. Bergab geht es dagegen mit einigen alten EU-Ländern: Griechenland beispielsweise ist vom 37. auf den 46. Platz abgerutscht, Italien bildet auf Rang 47 das Schlusslicht der "alten" EU. In Asien haben sich vor allem die Tigerstaaten Taiwan und Singapur stark verbessert. Hongkong ist dagegen um acht Plätze zurückgefallen und liegt jetzt nur noch auf Rang 28. Grund dafür ist, so das WEF, eine "spürbare Verschlechterung des institutionellen Umfelds" in der jetzt zur Volksrepublik China gehörenden früheren britischen Kronkolonie. China selbst liegt unter den 117 untersuchten Staaten auf Platz 49 und damit einen Rang vor Indien. 3.11 Osteuropa versus Asien Die folgende Darstellung ist einem jüngsten Artikel im Economist 16 entnommen. IN “BIOSHOCK”, a hit video game from last year that was heavily influenced by the libertarian philosophy of Ayn Rand, the main villain builds a fantastical city under the sea, where businesses can escape the stifling grasp of government. If you are an internationally minded entrepreneur looking to set up a small to medium-sized business, that is probably going a little far. But where should you set up shop? Much depends on where the government acts as your concierge, and where it acts as your parole officer. “Doing Business 2009”, the latest edition of an annual survey carried out by the World Bank and one of its subsidiaries, the International Finance Corporation, comes to a surprising conclusion: it is now easier to do business in eastern Europe than in East Asia. Every year the survey tracks the state of business regulation in 181 countries and then ranks them using a scorecard that takes into account how long it takes to set up a business, how easy it is to hire and fire workers, and the level of corporate taxes, among other things. This year, as in the previous five years, economies in eastern Europe and Central Asia have consistently seen the fastest pace of positive reform (see chart). Last year their average ranking was neck and neck with that of countries from East Asia and the Pacific. But this year the eastern European countries pulled ahead, with an average ranking of 76, compared with an average ranking of 81 for East Asian countries. 16 The Economist, A new kind of eastern promise, Sep 11th 2008. Franz Wirl: Industriebetriebslehre 131 1 2 3 4 5 6 7 8 9 10 On average, it takes 21 days to register a business in eastern Europe, which is 27 days faster than in East Asia. Setting up a company in Indonesia costs 77.9% of the average annual income per person; in Georgia it costs 4%—though there is the small matter of political risk to factor in. Firing a worker costs an average of 53 weeks’ salary in East Asia, compared with 27 in eastern Europe. All this cutting of red tape has brought results: Poland now has as many registered businesses relative to its population as Hong Kong does. 11 12 13 14 15 16 17 Eastern Europe’s rapid progress has been due, in part, to the accession requirements imposed by the European Union (EU). These include regulatory reforms that are often enacted by countries that aspire to membership, but have yet to be admitted. For instance, the EU requires new members to create a “one-stop shop”—a single point of contact at which entrepreneurs can register their businesses. Before Macedonia became a candidate for EU membership in 2005, it took 48 days to start a business there. After three years of reforms, it now takes nine days. Governments in eastern Europe have discovered the virtues not only of a light touch, but also of a swift gavel. The report finds that commercial disputes are, on average, settled more quickly and at less expense in eastern Europe than in East Asia. Bulgaria reduced trial times by requiring judges to refuse incomplete filings rather than allowing multiple extensions. East Asian countries still have the edge in some respects: it is easier to move goods across their borders, for example. Government-imposed fees to export a standard 20-foot cargo container average $859 in East Asia, compared with $1,428 in eastern Europe. Businesses in East Asia also face lower taxes. Taxes on profits in eastern Europe are among the lowest in the world, typically around 10%, but labour taxes and compulsory pension contributions increase the overall tax burden on business. Of course, a few East Asian economies are still miles ahead of eastern Europe. Singapore ranked first for the third successive year. Hong Kong was fourth, behind New Zealand and America. But Georgia, Estonia, Lithuania and Latvia secured places in the top 30, even as Russia lagged behind in 120th place. Azerbaijan was the top reformer. It cut the number of procedures needed to start a business by half, eased restrictions on working hours, moved its tax system online and introduced new laws protecting minority shareholders. True, laws on the books may be different from real conditions on the ground. Still, the number of registered new firms jumped 40%. Eastern Europe is not the only region that has done surprisingly well. The study also found that economies in Africa implemented more positive reforms in the past year than in any previous year on record. These examples prove that countries need not be rich or powerful to create a better environment for business. Businessmen need not retreat under the waves to the gloomy world of “Bioshock” just yet. 3.12 Auslandsinvestitionen (Foreign Direct Investment, FDI) Dieses Gebiet wird extensive sowohl theoretisch als auch empirisch erforscht. Die folgende aktuelle Darstellung ist dem Economist entnommen. 17 Foreign direct investment Despite world economic turmoil, global inflows of foreign direct investment (FDI) rose by 17% in 2011 to $1.5 trillion, according to the United Nations Conference on Trade and Development (UNCTAD). Developing and ex-communist economies accounted for just over half of this, thanks mainly to investment in Latin America (up 35% on 2010) and Russia (up 23%). Flows to Africa continued to decline, with Egypt, Libya and Tunisia experiencing sharp drops. In developed economies much of the growth in FDI was due to cross-border mergers and acquisitions, particularly in Europe. America remained the largest recipient of foreign investment, attracting $210.7 billion, but this was down 8% on the previous year. 17 The Economist, Jan 28th 2012, print edition. Franz Wirl: Industriebetriebslehre 132 Table 1.1 10 Largest Developing Country Recipients of FDI inflows ($US billions) Top 10 (1990-2000) Top 10 2001 ave China* Brazil Mexico Argentina Singapore Malaysia Bermuda Poland Chile South Korea Top 10 total: Total For Developing Countries: Top 10 share: Top 3 share: 43.4 12.0 10.1 7.2 7.1 4.7 4.7 3.7 3.3 3.2 99.5 130.9 76% 50% China* Mexico Brazil Bermuda Poland Singapore Chile Czech Republic Taiwan Thailand 69.7 24.7 22.5 9.9 8.8 8.6 5.5 4.9 4.1 3.8 162.5 200.9 81% 58% Die wichtigsten Empfängerländer von ausländischen Direktinvestitionen sind China gefolgt von lateinamerikanischen Ländern zumindest für 2001, wo das Fehlen von Indien auffällt. Die folgenden Tabellen fassen die Auswirkungen in zahlreichen Studien zusammen. Franz Wirl: Industriebetriebslehre 133 Does FDI Generate Spillovers in Developing Countries? Author/Study Year Aitken, Hanson & Harrison 1997 Yes Aitken & Harrison 1999 No Amsden & Chu 2003 Maybe Graham 1995 Yes Kokko & Blomstrom 1995 Maybe Kokko 1994 Yes Kokko, Tansini and Zejan 1996 Maybe Krugman 1998 No Lensink & Morrissey 2001 Yes Moran 1998 Maybe Razin, Sadka, and Yuen 1999 Maybe Balasubrmayam, Salisu & Sapsford Maybe Borensztein, Gregorio & Lee 1996 1999 1998 de Mello 1999 Maybe Graham and Wada 2001 Yes Graham 1995 Maybe Maybe Foreign firms act as export catalysts for domestic firms (in Mexico) No evidence of spillovers (Venezuela) Government industry policies actively promote nationally owned firms (Taiwan) Increases productivity of domestic firms Depends on industry and country characteristics, especially policy environment Increases productivity of domestic exporting firms (Mexico) Productivity gap between foreign and domestic firms can’t be too big (Mexico and Uruguay) Domestic investors are more efficient but foreign investors have superior cash position. Reduces costs of R&D and promotes innovation Liberal investment climate must encourage integration of local firms into TNC global sourcing and production network Foreign investors can speculate on domestic stock prices, leading to overinvestment and inefficiency. Requires open or neutral trade regime Depends on education level of workforce Depends on degree of complementarity and substitution between FDI and domestic investment. Raised per capita GDP in Chinese provinces with FDI concentration TNC’s market power can generate negative impacts Franz Wirl: Industriebetriebslehre 134 Does FDI Promote Economic Growth in Developing Countries? Study Author(s) Year Yes, No, Maybe Key Variables Lensink & Morrissey 2001 Yes Reduces costs of R&D and promotes innovation Loungani & Razin 2001 Maybe Risks Lim 2001 Maybe Depends on tax incentives, regulatory & legal impediments, macroeconomic instability Marino 2000 Maybe Requires open trade and investment policies Mallampally & Sauvant 1999 Maybe Requires human resource development; information and other infrastructure Markussen & Venables 1999 Yes Raises productivity and exports of domestic firms; generates spillovers Rodrik 1999 No Reverse causality: TNCs locate, rather than drive growth, in more productive and faster growing countries Zur theoretischen Darstellung wird hier auf den folgenden Aufsatz zurückgegriffen: Peter J. Buckley, Foreign market entry: A formal extension of internalization theory, in Mark Casson (ed.), Economics of International Business, 31-57, Edward Elgar, 2000. 3.12.1 Historische Entwicklungen der Theorien • Unternehmen internalisieren Ressourcen, die zwischen Produkten und Märkten aufgeteilt werden können. Eintritt in einen fremden Markt zerfällt in zwei Entscheidungen über den Standort und die Form der Kontrolle: eigene Unternehmen versus Kooperationen (Joint Ventures, Problem: Partnerwahl!), Lizenzen, Fusionen und Übernahmen. • Kontinuierlicher und sequentieller Einstieg, wenn erfolgreich, in fremden Märkten. • Kulturelle Unterschiede. • Zusammenhang zwischen Marktstruktur und Eintritt 3.12.2 Ein Modellansatz Der Eindringling (entrant) 1. Ein Unternehmen versucht erstmalig in einem ausländischen Markt zu verkaufen. Dabei ist zu unterscheiden zwischen den einmaligen Eintrittskosten und den laufenden Kosten vor Ort (Annahme stationäres Umfeld). 2. Auslandsnachfrage ist unendlich elastisch bei einem Preis unter p aber total unelastisch darüber. Ein Beispiel dafür ist: Die Kunden benötigen nur ein Stück kaufen nur bei einem Preis p der unter dem Nutzen liegt, dann allerdings kauft dann die gesamte Zielgruppe; bei einem Preis darüber kauft jedoch niemand. Das entsprechende Verkaufsvolumen wird mit x bezeichnet 3. Unterscheidung zwischen Produktion (P) und Distribution (D). 4. Die Produktion wird durch geschützte Patente ermöglicht (R), die Verteilung hängt vom Marketingaufwand (M) ab. 5. M = 0 zu Beginn und daher hat das Unternehmen keine Marktkenntnis, das aber zu den Kosten m akquiriert werden kann. 6. Flüsse: R -> P, M -> D, P -> D. 7. Export der Produktion zu Hause verursacht Transportkosten und Zölle. Produktion vor Ort verursacht Kommunikationskosten, z.B. Training der ausländischen Arbeiter. Alles zusammen sei mit den Kostenfaktor z abgedeckt. Franz Wirl: Industriebetriebslehre 135 8. Das Unternehmen kann im fremden Markt folgende Besitz- und Kontrollrechte erwerben: • P und D • nur P • nur D • weder D noch P 9. Die Transaktionskosten sind im Ausland höher. 10. Die Kosten des Technologietransfers sind auch hoch aber akzeptabel. Dies ist leichter, wenn das Produkt gekauft wird, als über einen reinen Lizenzvertrag. 11. Wenn die Eigentümer von P und D unterschiedlich sind, dann verursacht dies die Transaktionskosten t3 im Unterschied zur vertikalen Integration. 12. Eintritt ist sowohl über neue Fabriken (greenfield investment) oder durch Übernahmen möglich. 13. Ein effektiver interner Markt erfordert ein hohes Maß an Vertrauen innerhalb der Organisation. Dies fehlt nach einer Übernahme, wo für Vertrauensbildung folgende Kosten anfallen: q1 für den Technologietransfer, q2 für Marketing, q3 für intermediären Fluss, wenn nur P oder D akquiriert wird. Der Rivale 1. hat lokales Monopol aber höhere Produktionskosten auf Grund des Fehlens von R (anders hätte der Eindringling von vornherein schlechtere Karten) 2. Der lokale Rivale agiert passiv, selbst bei einer Übernahme, weil er die bessere Technologie des Eindringlings anerkennt und daher eventuell im Ausstieg durch Verkauf seine beste Option sieht (Coase Theorem). 3. Der Eindringling hat die Anpassungskosten a bei Übernahme der Produktionsstätten unabhängig von Übernahme, Lizenzierung oder Subkontrahierung. Allerdings kann der lokale Partner Information einbringen, die diese Kosten reduzieren, eventuell sogar so, dass a < 0. 4. Verwendung des Verteilungssystem D des Rivalen erfordert keine zusätzlichen Kosten 5. Nur P und D des Rivalen können diesen Markt beliefern, d.h. es steht kein alternatives Unternehmen zur Verfügung. Akquisition von P und/oder D resultiert daher in einem Monopol, was bei einer Neuinvestition nicht der Fall ist, Duopol ua. davon ob nur P oder P und D errichtet werden. 6. Subkontrahierung an den Rivalen P und D: Der Rivale kann nach Ablauf der Verträge wieder zum Konkurrenten werden. Monopolpreise ermuntern dann den Rivalen den Markt wieder zu m betreten. Dies kann durch Limit-Pricing - zu diesem Preis p anstatt dem Monopolpreis p kann der Rivale nicht kostendeckend liefern - erzielt werden. Diese Strategie verursacht zusätzliche m Kosten, s = (p – p)x. 7. Lizenzen: Transferieren zwar alle Monopolmacht an den Lizenznehmer, aber der Lizenzgeber kann dies vor Abschluss eines Vertrages in der Lizenzgebühr berücksichtigen und somit Hauptnutznießer der Monopolmacht bleiben. 8. Übernahmen: Annahme: Kosten ident zu Neubau. Internationale Joint Ventures 1. Annahme: Beteiligung zu jeweils 50% sowohl für P als auch für D. Keine neuen Kapazitäten wodurch allerdings die Anpassungskosten a and fallen. 2. Internalisierung erfordert Vertrauen und das die Kosten j1 für den Technologietransfer j2 für Marketing j3 für intermediären Fluss. 3. Wenn beide eine Anlage P haben, aber D als joint venture betreiben, dann ist der Zweck die Durchsetzung von Monopolpreisen. 4. Lernkosten m, Anpassungskosten a und Kosten der Vertrauensbildung q1, q2 und q3 und j1, j2 und j3 sind einmalige Investitionen und finanziert durch Kredite zu Zinsen r. Franz Wirl: Industriebetriebslehre 136 3.12.3 Der Strategieraum 1. Produktionsstandort 2. Produktion im Eigentum des Eindringlings 3. Distribution im Eigentum des Eindringlings 4. Eigentum vollständig oder geteilt (joint venture) 5. Eigentum durch Neuinvestition oder durch Übernahme Das ergibt für 1. – 4. zwölf Strategien für den Markteintritt in einem anderen Land, die in der folgenden Tabelle dargestellt sind. Tabelle 2.14 : Kosten für die alternativen Strategien c11 = c12 = c13 = c14 = c21 = c22 = c31 = c32 = c41 = c42 = c5 = c6 = c7 = c8 = c9 = c10 = c11.1 = c11.2 = c12.1 = c12.2 = +s rq1 +rq2 +rq2 rq1 rq1 t1 t1 z z z +rq2 +rq2 rj1 rj1 t1 z rq1 rj1 rj1 +rq3 +rq3 +t3 +t3 +t3 +t3 +rj2 +ra +s +ra +ra +ra +s +rm +s +rm +rq3 +t3 +t2 +rj2 +rj2 +rj2 +rj2 +rj2 +rm +ra +rj3 +rj3 +rj3 +rj3 +rj3 +rj3 +rj3 +ra +ra +ra +ra +s/2 +s/2 +ra +ra +ra +s/2 +rm P und D neu FDI P und D übernommen P neu, D übernommen P übernommen, D neu FDI in P P neu P übernommen D neu (Subkontrahieren) D übernommen FDI in D D neu +Export D übernommen Export an lizenzierte Distrib. Lizenzierung Joint Venture integriert (P + D) JV in P JV in D, Subkontrakt in P Exporte für Joint Venture in D FDI/JV: P ist neu P übernommen. JV/FDI: D ist neu D übernommen. 3.12.4 Dominanzanalyse An sich sind nur zwei Strategien dominiert: c12.1 > c8 und c12.2 > c8 d.h., Produktion in einem joint venture und Eigentum der Verteilung sind dominiert von Produktion in einem joint venture mit Verkaufslizenzen. Jedoch durch weitere Annahmen können weitere Strategien eliminiert werden: 1. Z.B. für z > 0 folgt: c4.1 > c1.1, c4.2 > c1.3, c5 > c2.1, c10 > c11.1, so dass Export weniger günstig ist als Errichten neuer Anlagen. 2. Für a > 0 folgt: c3.1 > c1.1 D.h. Investition in einen neue Verteilung ist dominiert durch Errichten sowohl von P als auch D auf der grünen Wies. 3. Transaktionskosten: Externen Kosten übersteigen die Kosten für Vertrauensbildung, t1 > rq1, dann folgt: c3.2 > c2.2 und c9 > c11.1 usw. Franz Wirl: Industriebetriebslehre Folgende Strategien bleiben in Buckley undominiert: 1.3 Neue und eigene Produktion P verbunden mit Übernahme von D. 2.1 Neue und eigene Produktion P verbunden mit Franchising von D. 6 Lizenzierung. 137 Franz Wirl: Industriebetriebslehre 138 4 Kostenstrukturen von Mehrproduktunternehmen In diesem Abschnitt werden die häufig verwendeten Begriffe wachsende Skalenerträge und natürliches Monopol erläutert. Um das Vorliegen solcher überprüfen zu können, ist es hilfreich, die Durchschnittskosten errechnen zu können. Wie man diese bei Einproduktunternehmen ermittelt, und warum es schwierig ist, bei Mehrproduktunternehmen (die ja eigentlich der Normalfall in der Wirtschaft sind, etwas Entsprechendes zu finden, ist Gegenstand des ersten Abschnitts. 4.1 Ermittlung von Durchschnittskosten und Grenzkosten 4.1.1 Einproduktunternehmen Definitionen: c(y) = Gesamtkosten, die bei der Produktion von y Outputeinheiten anfallen. c(y)/y = Durchschnittskosten (average cost, ac), also die Gesamtkosten pro Stück c‘(y) = Grenzkosten (marginal cost, mc) 4.1.2 Mehr- oder Multiproduktunternehmen: Das Unternehmen ist charakterisiert durch folgende technisch mögliche Input-Outputkombinationen: ( x, y ) = ( x1 , x 2 ,..., x m , y1 , y 2 ,..., y n ) Es existieren im Multiproduktunternehmen keine Durchschnittskosten. Als Illustration: Auf einem LKW werden sowohl Federn als auch Kohle und Diamanten transportiert. Wie soll man jetzt die Kosten des LKWs auf diese Produkte aufteilen? Wenn man nach dem Gewicht aufteilt, bekommt die Kohle den Großteil der Kosten zugerechnet, geht es nach dem Volumen, werden die meisten Kosten den Federn zugerechnet, nimmt man den Wert als Grundlage, tragen die Diamanten die meisten Kosten. Daraus ist ersichtlich, dass – auch in der Kostenrechnung – die Zuteilung ein gewisses Maß an Willkür enthält. Es gibt mehrere Möglichkeiten, eine Art „Ersatz“ für die nicht existierenden Durchschnittskosten zu errechnen. Berechnung von Durchschnittskosten entlang eines Strahls: das Verhältnis der Güter wird konstant gelassen, das Güterbündel vervielfacht, und die entstehenden Gesamtkosten durch den Vervielfachungsfaktor dividiert: c(αy)/α (z.B. Das Güterbündel besteht aus 1 Einheit von Gut 1, 2 Einheiten von Gut 2 und 3 Einheiten von Gut 3, die entstehenden Kosten sind z.B. 100. Wenn nun 2 Gut 1, 4 Gut 2 und 6 Gut 3 produziert werden – also zweimal das Güterbündel -, dividiert man die entstehenden Kosten von z.B. 190 durch 2 = 95, Bei der Produktion von dreimal dem Güterbündel entstehen z.B. Kosten von 270, 270:3= 90 unser Durchschnittskostenersatz ist fallend, d.h. es sieht so aus, als ob in diesem Bereich steigende Skalenerträge vorliegen. ) Berechung der inkrementellen Durchschnittskosten (average incremental cost) AIc = C ( y1 , y 2 ,..... y i −1 , y i , y i +1 ,..., y n ) − C ( y1 , y 2 ,..., y i −1 ,0, y i +1 ,..., y n ) yi Die inkrementellen Durchschnittskosten von yi geben also an, wie sich die Gesamtkosten ändern, wenn ich das eine Produkt yi nicht produziere, alle anderen Produkte aber schon. Die Grenzkosten kann man aber auch im Multiproduktfall problemlos durch Differenzieren errechnen: mci = ∂C ∂yi Franz Wirl: Industriebetriebslehre 4.2 139 Wachsende Skalenerträge (increasing returns to scale, economies of scale) 4.2.1 Einproduktunternehmen c( y ) 1 = c' ( y ) * y ε c S= Wachsende Skalenerträge liegen vor, wenn S> 1 ist. Wenn S=1 ist, sind die Skalenerträge konstant. Bei S<1 ist, handelt es sich um fallende Skalenerträge. 4.2.2 Mehr- oder Multiproduktunternehmen Wachsende Skalenerträge liegen vor, wenn gilt: Für jedes α>1 existiert ein β>α, sodass gilt (αx, βy) = (αx1, αx2,..., αxm, βy1, βy2,..., βyn) ist eine zulässige Input-Outputkombination. In Worten: wenn alle Inputs verdoppelt werden, und es ergibt sich daraus mehr als eine Verdoppelung aller Outputs (z.B. α = 2 und β = 2,2), dann liegen wachsende Skalenerträge vor. Wachsende Skalenerträge sind mit konkaven Kostenfunktionen verbunden. Eine Kostenfunktion C(y) ist strikt konkav entlang eines Output¬strahles durch den Punkt y wenn die Grenzkosten überall fallen, also C(αβ1y + (1 - α)β2y) > αC(β1y) + (1 - α)C(β2y) für alle β1 °≥ 0, β2°≥ 0, β1 ≠ β2, 0 < α < 1. 4.3 Vorteile gemeinsamer Produktion (economies of scope) Es sei: S ⊂ {1,...,n} (subset, Teilmenge) P = {T1,...,Tk} (partition, Zerlegung) k T i =S Ti ∩ T j = {} i =1 Dann Ys hat den Vorteil gemeinsamer Produktion (economies of scope), wenn gilt, dass k ∑ c( y i =1 Ti ) > c( y s ) . In Worten: Economies of scope liegen vor, wenn die Kosten der Einzelproduktion mehrerer Produktgruppen höher sind, als wenn diese Produktgruppen gemeinsam produziert werden. Wenn also keine Economies of scope zwischen den Gütern eines Unternehmens vorliegen, macht dieses Multiproduktunternehmen keinen Sinn. Diese Eigenschaft ist wiederum verbunden, dass die Kosten zwischen zwei Outputstrahlen konvex verbunden sind, bzw. mit Kostenkomplementarität. Eine Kostenfunktion C(y) ist strikt konvex quer über Outputstrahlen (transray convexity), wenn für zwei Outputs ya und yb aus einer Hyperebene Σβiyi = k, βi > 0 gilt, dass jede Linearkombination billiger produziert werden kann als die separaten Outputs: C(αya + (1 - α)yb) ≤ α C(ya) + (1 - α)C(yb), für jedes α mit 0< α <1. Diese Definition besagt, besagt, dass die Produktion einer Linearkombination der Outputs ya und yb billiger kommt als die jeweils separate Produktion. Dies verlangt, dass die Komplementarität in der Produktion und die daraus resultierende gemeinsame Produktion den Verlust aus dem Nichtausnützen eventuell wachsender Skalenerträge durch Spezialisierung auf eine Produktlinie dominiert. Franz Wirl: Industriebetriebslehre 140 Schwache Kostenkomplementarität am Output y ist dann gegeben, wenn für die zweimal stetig differenzierbaren Kostenfunktion C gilt: ∂ 2C ( y0 ) ≤ 0 für alle 0 ≤ y0 ≤ y. ∂y i ∂y j Diese Eigenschaft - schwach kostenkomplementär zu sein - ist ein hinreichendes Kriterium für das Vorhandensein von economies of scope. Es besteht ein gewisser Trade-off zwischen economies of scale und economies of scope: wenn man sich entschließt, economies of scope auszunutzen, indem man mehrere Produkte produziert, kann es sein, dass man dann economies of scale eines bestimmten Produktes nicht mehr voll ausnutzen kann. Grafisch gesehen ist ein Kriterium für die economies of scope, dass die Kostenfunktion strikt konvex quer über den Outputstrahlen verläuft. Angenommen, die Produktion eines Gutes wird zusätlich nach Verbrauchsmärkten klassifiziert, sodaß "zwei" Güter, y1 und y2, resultieren. Die Produktion sei durch eine wachsende, konkave (steigende Skalenerträge) Kostenfunktion (c) charakterisiert. Definiere mit C die Multiproduktkostenfunktion: C(y1, y2):=c(y1 + y2) die unmittelbar impliziert: C(y1, y2) = c(y1+ y2) < c(y1) + c(y2) = C(y1, 0) + C(0, y2) Die Bedingung der Konvexität über die Outputstrahlen verlangt nun für beliebige Outputs ya, yb aus der Hyperebene Σβiyi = k: C(αya + (1 - α)yb) ≤ C(ya) + (1 - α)C(yb), 0 < α < 1. Das kann jedoch nicht der Fall sein auf Grund der Voraussetzung, daß c konkav ist. Daher induzieren strikte economies of scale und strikte economies of scope nicht immer transray convexity. Abbildung 3. 1 Die obige Abbildung charakterisiert eine typische Kostenstruktur für zwei Produkte. Die Eigenschaft fallender Durchschnittskosten entlang eines Strahles ist dabei für drei Outputstrahlen 0Y dargestellt; die steigenden Outputniveaus führen zu fallenden Durchschnittskosten dieser Outputkombination. Die Reduktion der Durchschnittskosten durch Expansion des Outputs von A0 nach A entlang des Outputstrahles Franz Wirl: Industriebetriebslehre 141 a y ist durch den geringeren Anstieg der strichlierten Linie dargestellt. Die über den Punkt D gebogene Fläche stellt die Eigenschaft strikt konvex über Outputstrahlen dar. Daher kann jede Linearkombination an Outputs günstiger hergestellt werden als die Einzelproduktion, die zu den Kosten entlang der strichlierten Linie darüber, die A mit B verbindet, führt. Die Differenz (D' - D) stellt die Kosteneinsparung eines Unternehmens dar, das eine Kombination beider Produktlinien herstellt, gegenüber zweier sich jea b weils auf y und y spezialisierender Firmen. Ein Mehrproduktunternehmen ist durch Vorteile der Produktion einer Produktpalette gegenüber der Erzeugung jedes einzelnen Produktes durch eine eigene Firma. Dieser Vorteil ist begründet durch die Teilung gemeinsamer Inputressourcen im Produktionsprozess. Ein altbekanntes Multiproduktunternehmen ist die Schafzucht, die so differenzierte Endprodukte wie Wolle als auch Fleisch (und eventuell noch Milch) liefert. Dieser Vorteil existiert auch für konstante Skalenerträge in allen Teilen der Produktion, da der gemeinsame Produktionsfaktor Schaf genützt wird. Es ist jedoch interessant zu beobachten, dass dieser Vorteil sehr wohl von der Technologie und von Preisen abhängt. So war z.B. im 12. Jahrhundert, als Fleischexport (auf Grund fehlender Kühltechniken) noch nicht möglich war, Flandern nur ein Zentrum der Wollproduktion (bedingt durch Vorteile der Schafzucht in dieser Gegend), ohne die eigentlich gänzlich ausnützen zu können. Aktuellere und häufig genannte aber heute zunehmend bezweifelte Beispiele betreffen öffentliche Unternehmen, wo auch viel Querverbundunternehmen aufgelöst wurden (z.B. die Wien Holding). Ein weiteres wichtiges Beispiel ist durch die Aufteilung nicht direkt zuordenbarer Aktivitäten wie Forschung und hohe Transaktionskosten. Hohe Transaktionskosten, die aus der Schwierigkeit resultieren, Kontrakte gegen alle Eventualitäten abzusichern, führen zur vertikalen Integration vieler wichtiger Industrien. Wichtig ist auch die Verknüpfung von Vorteilen der Großproduktion und dem Vorteil, mehrere Produkte anzubieten. So besteht im Flugverkehr durch größere Flugzeuge eine fallende Beziehung zwischen Kosten pro Passagierkilometer und Passagieraufkommen. Dieser Vorteil kann jedoch nur genützt werden, wenn aus zahlreichen anderen Destinationen (=andere Produkte) die Passagiere an einen zentralen Punkt gebracht werden und dann in die Jumbos zu den Hauptdestinationen umsteigen. Hier sieht man, dass economies of scale nur dann ausgenützt werden können, wenn gleichzeitig auch economies of scope bestehen. 4.4 Natürliches Monopol 4.4.1 Subadditive Kostenfunktion Eine Kostenfunktion ist subadditiv, wenn gilt: c(y + z) < c(y) + c(z) für alle Zerlegungen/Aufteilungen des Gesamtoutputs y + z. Das heißt, wenn eine gemeinsame Produktion in jedem Fall billiger kommt als getrennt. Bemerkungen: • Das Vorliegen einer subadditiven Kostenfunktion ist das Kriterium für das Vorliegen eines natürlichen Monopols. Es bedeutet, dass technisch die Kosten so sind, dass sie ihr Minimum haben, wenn nur ein Unternehmen am Markt ist, und den ganzen Output allein produziert. • Meist werden natürliche Monopole mit wachsenden Skalenerträgen verbunden. Diese sind aber weder notwendig noch hinreichend für das Vorliegen eines solchen. • Weiters impliziert ein natürliches Monopol nicht, dass die Durchschnittskosten fallen. Beispiel: C(y) = f + vy2 impliziert Subadditivität und damit ein natürliches Monopol solange: C(y) < 2C(y/2) und damit für y < (2f/v)½ Während die Durchschnittskosten Skalenerträge (f/y + vy) für (f/v)½ < y < (2f/v)½ steigen und wachsende S = C/(C’y) = (f + vy2)/(2vy2), also S • > 1, nur für y < (f/v)½ gegeben sind. Wie schon oben erwähnt, ist es unmöglich, eine allgemeine, auf Kosten basierende, Zuordnung der Fixkosten für ein Mehrproduktunternehmen zu benennen. Die in der Kostenrechnung verwendeten Aufschlüsselungen sind in gewisser Hinsicht willkürlich. Franz Wirl: Industriebetriebslehre • 142 Eine Lösungsmöglichkeit für die Preisfestlegung für preissetzende, aber doch unter Konkurrenz befindliche Unternehmen, bietet die Ramsey-Regel: Der Aufschlag über die Grenzkosten von Gut i entspricht der Preiselastizität des Gutes i multipliziert mit einem Faktor λ, der ein Konkurrenzmaß darstellt. ∂c ∂y i 1 = λ* Pi εi Pi − Wenn λ=1, entspricht das einem Monopol, je niedriger λ, desto mehr Wettbewerber gibt es. Das Weak invisible hand theorem besagt, dass wenn es ein Quasimonopol gibt, aber potentielle Konkurrenten lauern, und der Monopolist seine Preise aufgrund der Buchhaltung/Kostenrechnung festlegt, aber einer der potentiellen Konkurrenten die Preise für die Konsumenten „angemessener“ aufteilt, dann kann er dem vorherigen Monopolisten Kunden wegnehmen. Die obige Ramsey-Regel berücksichtigt die „Kundenangemessenheit“ indem die Preiselastizität der Nachfrage in die Formel einbezogen ist. 4.4.2 Tragfähigkeit eines natürlichen Monopols Unter einem natürlichen Monopol versteht man ein Unternehmen, das derartige Kostenvorteile hat, dass als Marktgleichgewicht eben nur dieses eine Unternehmen überbleibt. Bemerkung: An dieser Stelle soll nochmals betont werden, dass wachsende Skalenerträge weder notwendig noch hinreichend für ein natürliches Monopol sind. (Dies ist auch aus der untenstehenden Zeichnung ersichtlich, wo die Durchschnittskostenkurve nach dem Minimum schon wieder ansteigt d.h. sich schon im Bereich der fallenden Skalenerträge befindet, aber trotzdem noch ein natürliches Monopol vorliegt.) Kann nun ein natürliches Monopol sich seines Marktes sicher sein? Anders formuliert: Wenn ein Unternehmen der kostengünstigste Produzent ist, kann es dann sicher sein, dass es auch den Markt bekommt? Im allgemeinen kann ein natürliches Monopol, selbst wenn es die oben angeführten Ramsey-Preise verrechnet, nicht sicher sein, dass es den Markt behält, d.h. dass das natürliche Monopol sustainable (tragfähig) ist. Beispiel: Ein Wasserversorgungsunternehmen kann die drei Gemeinden A, B, C versorgen. Es besteht die Möglichkeit, entweder alle drei Gemeinden gemeinsam zu bedienen, oder zwei gemeinsam zu bedienen und die dritte macht es alleine, oder alle drei kümmern sich separat um ihre Wasserversorgung. Die Kosten ergeben sich folgendermaßen: (A,B,C,) gemeinsam kosten 6,6 (A),(B),(C) einzeln kosten je 3 (A,B), (B,C), (A,C) kosten 4. Dieses Monopol ist nicht tragfähig, da die Durchschnittskosten bei einer Versorgung aller drei Gemeinden gemeinsam 6,6/3=2,2 betragen. Dann haben zwei Gemeinden ein Interesse zusammen zu gehen, und nur je 2 zu zahlen. Das natürliche Monopol kann also nicht sicher sein, den ganzen Markt zu bewirtschaften. Franz Wirl: Industriebetriebslehre Preis 143 Nachfrage Durchschnittskosten p* pe q*/2 qe q* Menge Abbildung 3. 2 An der Stelle wo sich Nachfrage und Durchschnittskosten schneiden, wäre der Punkt mit minimalen Kosten p*q*. Wenn man diese Menge q* z.B. auf zwei Unternehmen aufteilen würde, würden Kostensteigerungen auftreten. Trotzdem es also laut Definition ein natürliches Monopol ist, das den minimalen gerade noch kostendeckenden Preis p* anbietet, könnte ein Eindringling beispielsweise den Preis pe verlangen, die Menge qe anbieten, und so einen Teil des Marktes streitig machen. Diese Vorgangsweise, sich profitable Märkte aus einem natürlichen Monopol herauszusuchen, nennt man „cream skimming“ oder „Rosinenpicken“. Der Begriff des Rosinenpickens spielt z.B. auch in der Diskussion um die Privatisierung der Post eine Rolle, wo vorgebracht wird, die privaten Anbieter nähmen sich die profitablen Märkte heraus (z.B. Expresszustellungen von Dokumenten oder Paketen), und ließen das ehemalige Monopol nur mit den verlustbringenden Diensten zurück. Franz Wirl: Industriebetriebslehre 5 Management bei wachsenden (increasing returns to scale) 144 Skalenerträgen Nachdem im vorhergehenden Abschnitt ausreichend betont wurde, dass natürliche Monopole nicht notwendigerweise wachsende Skalenerträge aufweisen müssen, wird im folgenden die etwas saloppere fast synonyme Beschreibung der Begriffe increasing returns und Vorteile großer Unternehmen verwendet. Airbus A380 Grundlage für diesen Abschnitt bilden u.a. die Artikel von Brian Arthur, in denen er in den 80er Jahren seine Ideen über Auswirkungen von increasing returns entwickelte. Betrachtet man die klassische, ressourcenabhängige Industrie, dann entspricht sie den Annahmen der Klassische Ökonomie („Marshall“), sie ist – zumindest ab einer hinreichenden Größe der Unternehmen – durch fallende Skalenerträge charakterisiert. Dadurch gibt es eine Vielzahl von Unternehmen und es entstehen Märkte mit genügend Konkurrenz. Die Ignoranz wachsender Skalenerträge in der Analyse ist sowohl empirisch, - traditionelle Industrien operieren unter fallenden (Landwirtschaft) oder bestenfalls konstanten Skalenerträgen - als auch technisch bedingt. Eine der ersten Ausnahmen waren Dixit und Stiglitz,1977, mit ihrem Modell monopolistischer Konkurrenz, welches schon im Rahmen der Ausführungen zum Thema Standortwahl erwähnt wurde. Brian Arthur argumentiert, dass insbesondere in der Informationsbranche, der New Economy, diese Annahme der abnehmenden Skalenerträge nicht mehr gilt, sondern dass hier wachsende Skalenerträge vorliegen. 5.1 Gründe für wachsende Skalenerträge Folgende Aspekte können unter anderem wachsende Skalenerträge verursachen oder begünstigen: • Ein Großteil der Kosten fällt zu Beginn an In allen High-Tech-Branchen wie Medikamente, Software, Computer, Flugzeuge, Bioengineering, Telekommunikation spielen Forschungs- und Entwicklungskosten eine bedeutende Rolle, die variablen Produktionskosten sind dagegen oft minimal. Beispiel Windows: die Erstellung eines neuen Betriebssystems oder einer neuen Benutzeroberfläche (das heißt die erste CD-rom) kostet $ 50 Mill, für die zweite und jede weitere CD-Rom kostet die Produktion vielleicht $ 3. Franz Wirl: Industriebetriebslehre 145 Wissen ist quasi ein öffentliches Gut, das im Unterschied zu konventionellen Produktionsfaktoren - einmal erworben - kostenlos fast unbegrenzt oft angewendet werden kann, was die (großen) Skalenerträge ermöglicht. • Netzwerkeffekte Netzwerkeffekte bestehen darin, dass es für Konsumenten nutzbringend ist, die selbe Software zu verwenden, wie die Kollegen oder Geschäftspartner. (Attachments verschicken in exotischen Formaten ist sinnlos, da es kaum jemand öffnen kann. Bei *.doc oder *.rtf hingegen ist die Wahrscheinlichkeit hoch, dass Kompatibilität gegeben ist.) • Konsumentenabhängigkeit („lock in“) Die Verwendung von High-Tech-Produkten ist trainingsintensiv. Daher bleibt der Konsument einem Produkt, das er bereits kennt, treu, selbst wenn bessere zur Verfügung stehen. Nur dann, wenn ein neues Produkt wirklich um vieles besser ist, wird er bereit sein, umzulernen. Die Konsequenz aus diesen drei Effekten ist, dass am Ende des Prozesses eine stabile Lösung existiert, dass aber ex ante nicht klar ist, welcher Standard sich etabliert. Das vermutlich bekannteste Beispiel dafür ist die Konkurrenz der Videosysteme VHS und Betamax. Diese beiden Systeme waren technisch ungefähr gleich gut und kamen gleichzeitig auf den Markt. Die Kunden interessieren bei ihrer Kaufentscheidung marginale technische Vorteile eines Systems nicht besonders, sondern sie achten darauf, in welchem Format die meisten Leihvideos produziert werden. Die Videoverleiher versuchen natürlich ihrerseits wieder, die Filme in dem Format bereitzustellen, das mehr Kunden zu Hause verwenden. Aufgrund dieser Rückkopplung kam es dazu, dass das VHS-System, das zufällig einen leichten Startvorsprung erzielen konnte, rascher wuchs, und das (technisch angeblich etwas bessere) Betamax verdrängte. Ein weiteres Beispiel ist der Kampf von IBM/PC/Dos gegen Apple. Apple optierte Anfangs für eine geschlossene Architektur, deshalb entstand eine geringere Kundenbasis, und die Feedbacks begannen zugunsten von IBM zu wirken. Das Ergebnis in so einer Welt wachsender Skalenerträge ist: The Winner Takes It All. Bemerkung: Die Trennung zwischen der „Marshall’schen Welt“ fallender Skalenertäge, nämlich dem Produzieren und Verarbeiten von Massenwaren und der „neuen Welt“des wissensintensiven Entwickelns neuer Produkte und Dienstleistungen, ist nicht immer einfach, sollte aber gemacht werden, weil unterschiedliche Managementtechniken anzuwenden sind.. (Bsp. Hewlett-Packard separiert die zwei Welten: Hardwareproduktion-Softwareproduktion; IBM-PC zuerst dem Bereich wachsender aber jetzt zunehmend konstanter Skalenerträge zu zuordnen), Wachsende Skalenerträge bei Dienstleistungen: Bei McDonalds oder anderen Restaurant- und Hotelketten beispielsweise, bestehen die Skalenerträge eher nicht in rein „technischen“ Vorteilen, wie dem Aufteilen der Entwicklungskosten für neue Produkte auf eine Unmenge an verkauften Stück. Es handelt sich eher um Netzwerkeffekte: Fast jeder Konsument hat mittlerweile in seiner Umgebung ein McDonalds Restaurant, daher sind die Leistungen bekannt, und der Kunde weiß, egal in welches Lokal der Kette er geht, er bekommt dort das gleiche, was ihm Suchund Informationskosten erspart. Auch elektronische Bank- und Versicherungsdienstleistungen weisen ebenfalls die vorhin beschriebenen Merkmale auf: Technologische (Entwicklung und Aufbau der entsprechenden Software und Internetpräsenz stellt up-front Kosten dar), Konsumenten lock-in (Wenn man sich einmal mit der Telebanking-Vorgangsweise einer Bank auskennt, wird man nicht so gerne eine neue lernen), etc. 5.2 Managementmethoden Allgemein gab es im Bereich der Managementmethoden in den letzten zehn Jahren viele unterschiedliche Moden und Ansätze: Flache Hierarchien, missionarisch, flexibel, marktpositionierend, reeverything (etwa repositioning, reengineering, restructuring, reorganising, etc.). Warum waren diese neuen Ansätze nicht sehr erfolgreich? In traditionellen Industrien mit relativ stabilem Umfeld, die von Kontrolle, Planung, Kostenminimierung dominiert sind, bleiben Hierarchien und traditionelles Management effizient. (z.B. wäre im Cockpit eines Flugzeuges ein Ansatz der flachen Hierarchie, wo alles Bordpersonal hineinmischen kann, sicher nicht zweckmäßig!) In den neuen wissensabhängigen Branchen hingegen, ist eine streng hierarchische Organisation fehl am Platze, denn in Märkten, wo the winner takes all gilt, und man permanent auf der Suche nach dem Huhn ist, das goldene Eier legt (cash cows), braucht man flache Hierarchien, hohe Freiheit der kreativen Mitarbeiter, einen direkten Draht zum Generaldirektor und re-everything! Franz Wirl: Industriebetriebslehre 146 Als Metapher für Industrien mit wachsenden Skalenerträgen wird gerne das Casino gewählt: im Casino gibt es Tische mit unterschiedlichen Spielen (Multimedia, Netzwerktechnologien, etc.). Die Spieler müssen sich zuerst überlegen, an welchem Tisch sie mitspielen wollen. Sobald sie Platz nehmen, wird der Croupier ihnen mitteilen, dass das minimale Gebot, um in diesem Markt mitzuspielen, sich in der Höhe von einigen Mrd. USD bewegt. Auch werden sie nie sicher wissen können, wer die Mitspieler sind, und die Regeln stehen ebenfalls nicht fest, sondern werden erst während des Spieles herausgebildet. Wichtige Strategien und Regeln in dieser Welt wachsender Skalenerträge: 1. Erster am Markt sein 2. Hervorragende Technik ist notwendig (aber auch nicht immer, siehe IBM-PC und unten) aber nicht hinreichend. z.B. positiv: NetScape, negativ: NeXT (von Steve Jobs). 3. Integration in entsprechende Umwelten, „Miniökologien“ und Beachtung der Rückkoppelungen. z.B: World Wide Web integriert mit Internet, Browsern, E-mail, etc.; Medikamente im Umfeld Ärzte, Spital, Apotheken; Novell: Suche und Initiative bei Softwarefirmen für NetWare zu schreiben; Microsoft: 60 Millionen Dos -> Windows -> Windows95 -> erzielte Netzwerkeffekte durch billige upgrades. Apple ignorierte dies mit dem MacIntosh. IBM wählte das Gegenteil, gewann den Markt aber verdiente wenig daran. Wichtige Fragen für Manager in solchen Industrien: Verstehe ich die Rückkoppelungen in meinem Markt? In welchem Umfeld befinde ich mich, zu welchem Netz gehöre ich? Habe ich die Ressourcen, um mitzuspielen (kein Spiel für Ängstliche). Was ist das nächste Spiel? 5.2.1 Wirtschaftspolitik am Fallbeispiel Microsoft Aus aktuellem Anlass der Antitrust-Klage gegen Microsoft soll dieser Fall kurz besprochen werden. Betrachtet im Kontext der wachsenden Skalenerträge ist es nicht so klar, ob die Verurteilung von Microsoft wirklich gerechtfertigt war. Argument 1: Angenommen es gebe im Markt für Betriebssysteme wirklich so starke Rückkoppelungen und wachsende Skalenerträge, dass es Sinn macht, nur ein Betriebssystem zu haben, weil nur „Platz für einen Spieler“ ist. Netscape trat auch mit dem Anspruch auf, ein Gesamtsystem anzubieten. Also gab es für Microsoft nur die Wahl, Antitrustgesetze zu verletzen indem versucht wird, durch automatische Beigabe des Explorers zum Windows-Betriebssystem Netscape auszuschalten, oder – wenn es Netscape den Marktzutritt lässt – sich selbst zugrunde zu richten. Argument 2: Es gibt in dieser Branche immer wieder temporäre Monopole, die aber von selbst wieder verschwinden. (DBase, CPM/Digital Research). B. Arthur meint, die Monopolbildung sollte nicht durch Regulierung verhindert werden, wenn sie aufgrund besserer Technik zustande kommt. Wenn der Vorteil nur auf lock in basiert, sollte eher schon reguliert werden. Zwar erspart ein eingeführtes (lock in) Produkt (z.B. der Mausdoppelklick) zahlreiche komplizierte Standards, allerdings kann durch das lock in auch der Fortschritt gehemmt werden. (z.B. Tastatur, die so konzipiert wurde, dass sich die Hämmer der mechanischen Schreibmaschine nicht verklemmen. Heute könnte diese Buchstabenanordnung durch eine ersetzt werden, die schnelleres Schreiben ermöglicht, doch da kaum jemand bereit ist, umzulernen, solange es fast überall nur alte Tastaturen gibt, und da kaum ein Hersteller bereit ist, neuartige Tastaturen auf den Markt zu bringen, auf welche die Konsumenten wahrscheinlich nicht umsteigen wollen, bleibt die herkömmliche, „langsame“ Buchstabenanordnung erhalten.) Aber wenn das Monopol auf lock in basiert, sind die Monopolpreise nicht die große Barriere, die den Markteintritt für neue Wettbewerber verhindert. Wichtig bei der Implementierung von Regulieren ist, dass keine „Bestrafung“ erfolgreicher Unternehmen erfolgt, sondern nur versucht wird, gleiche Einstiegsbedingungen für alle zu haben. Schmalensee’s Microsoft Gutachten. Economides Nicholas, The Microsoft Antitrust Case, Journal of Industry, Competition and Trade 1, 7-39, 2001. 5.3 Fallstudien Besonders anfällig für diesen Schneeballeffekt seien, so wird oft argumentiert, die sogennanten HighTech Industrien und die folgende Tabelle gibt den Marktanteil der führenden Unternehmen in dieser Industrien wieder: Franz Wirl: Industriebetriebslehre 147 Franz Wirl: Industriebetriebslehre 5.3.1 148 AT&T Size matters. Is the giant dying, or just resting? The Economist, Feb 21st 2002, p 69. THE recent verdict of Fortune magazine was that AT&T is “dying”, and who could disagree? The telecoms giant's sales are falling, predators snap at its heels, and the ambitions of its boss, Michael Armstrong, lie in expensive rubble around him. Even Golden Boy, the statue that decorates the firm's New Jersey headquarters, is up for sale: the company is seeking more modest accommodation elsewhere. If it really is dying, however, nobody seems to have told AT&T. The company thinks itself in ruddy health. When Mr Armstrong joined in 1997, AT&T's business, as a long-distance carrier open to growing competition, seemed stuck in long-term decline. Mr Armstrong's big idea was to grow by seizing control of the “last mile” of local lines that had been in the hands of the regional “Baby Bell” operating companies since AT&T's break-up in 1984. So he bought and built cable and wireless networks as an alternative to the Baby Bells' telephone lines. Just three years later, however, Mr Armstrong abruptly reversed course, saying that AT&T would break itself up. By the end of this year, when the company plans to have finished the sale of its cable unit, it will look much as it did back in 1997: a long-distance operator with a long list of blue-chip customers. There is, however, one key difference. The company may be back where it started, but the market has changed, and mostly to AT&T's advantage. In recent years, the telecoms industry has feverishly invested in cables, switches and other high-tech kit. Overcapacity ensued, prices collapsed, and owning and operating the network itself suddenly looked less clever. Everyone soon realised that in this new world, money had to be squeezed not from the network, but from the services bundled with it. “Fibre-optic cable is like crude oil,” says Dave Dorman, AT&T's president and Mr Armstrong's probable successor when he steps down at the end of the year. “Customers don't buy crude oil. They buy finished products.” In many ways, Mr Dorman's proposition is similar to that of IBM, a computer maker that reinvented itself around its services business. The field of communications, like that of computing, has evolved at such bewildering speed that most companies now have a hodge-podge of technologies to manage. At the same time, the rise of e-commerce means that the performance and reliability of the network itself has become vastly more important. AT&T thinks it can offer services to help manage these networks. The bigger the customer and the more complicated the network, the more lucrative the contract. In America alone, guesses AT&T, this market may be worth $60 billion. “We think there are good margins in this,” says Mr Dorman. So, of course, does everybody else. But AT&T finds itself with a big advantage: its size. As open, Internet-based technology standards replace old proprietary networks, fiercer competition between telecoms carriers is making scale more important. Even after the sale of its cable business, AT&T will have twice the revenues of WorldCom, America's second long-distance carrier, and four times the sales of Sprint, the third. Baby Bells like SBC Communications have size, political protection and, of course, the famous last mile. But outside their regions, their brands are little known, especially among the big, deep-pocketed customers that AT&T cherishes. WorldCom and Sprint, meanwhile (along with upstarts like Qwest and Level 3), are laden with debt. AT&T will jettison $25 billion of its borrowings with the sale of its cable unit, leaving it relatively unencumbered. And although it has just put an end to a costly and inept alliance with Britain's BT, AT&T still has a big global network with which to lure multinationals. “No one else comes close to them in the global business market,” says Mark Bruneau of Adventis, a consultancy. Mr Dorman has rebuilt AT&T's sales team and repackaged its products. Awkwardly, however, much of his work has been obscured by the lingering presence of Mr Armstrong at the top. Investors understandably look at the chief executive's office and see a long list of failures. If they cannot quite yet bring themselves to believe in AT&T again, however, the company can take comfort from the sudden loss of confidence in its competitors. The market sell-off that has halved the share prices of its rivals has left AT&T relatively unaffected (see chart). If it is off to the boneyard, others may get there first. 5.3.2 Singapore Airlines Thank you, Singapore The Economist, Sep 28th 2000, p 81-82. Singapore’s order for 16 Airbus A3XXs means chocks away for the super-jumbo—and the end of Boeing’s 30-year monopoly at the top end of the airliner market THE long, nail-biting agony of waiting for Airbus Industrie’s successor to Boeing’s ageing 747 is nearly over. The decision by Singapore Airlines, due to be announced any day, to buy up to 16 A3XX super-jumbos not only suggests that Airbus is close to the 40 orders it needs to go ahead and build the aircraft; just as important, it also means that a leading airline has agreed with Airbus that an all-new super-jumbo is the way to go if the soaring demand for air travel is to be met. East Asia, in which air travel is concentrated on a few big city hubs, is the world’s fastest-growing aviation market. And Singapore Airlines is acknowledged as perhaps the world’s best big carrier in terms of service and profitability. With the Singapore launch order in the bag, Airbus can look forward to mopping up further orders for its new 550-seater aircraft: other airlines such as Qantas and British Airways, which put heavy traffic through Singapore’s home hub, will sooner or later feel obliged to offer the last word in big-jet travel. Airbus could not hope for a better, more high-profile launch customer. Boeing has good reason to feel miffed. Singapore is also understood to have been negotiating on behalf of Virgin Atlantic, a British airline in which it now has a 49% stake. Singapore is much bigger and has far more experience than Sir Richard Branson’s airline in wringing good deals from manufacturers. Virgin is desperate to have larger aircraft, not least because its growth is strangled by a lack of take-off and landing slots at London’s crowded Heathrow airport. Orders from Virgin for the A3XX could quickly follow Singapore’s. The deal has been won only after a vicious battle with Boeing. On the one hand, Airbus has been offering launch customers deep discounts to the $200m-plus list price of the new aircraft. On the other, Boeing has been promising cheap versions of a stretched 747, which it plans to develop, at a cost of only $4 billion, as a spoiler to theA3XX. So fierce has been the competition between the two for Singapore’s orders that last year Boeing agreed to buy in some new Airbus A340 aircraft that had been ordered by the airline in return for its switching to Boeing’s rival 777. This left Boeing in the odd position of undertaking to sell new Airbus aircraft. This sort of horse-trading is not unknown in aviation. But it is all but inconceivable with launch orders, so the possibility for further last-minute retaliation by Boeing is now remote. It had initially hoped to share the crucial Singapore order with Airbus: many commentators had thought that the airline would hedge its bets by buying some A3XXs but also signing up for the updated 747, known as the 747X. However, this is now thought to have been ruled out. Singapore may have been swayed by Airbus’s promise that the A3XX will be 20% cheaper to run than are today’s jumbos—even though Boeing now claims that an upgraded 747 could match this improvement. Launching a new airliner is a complicated business. Before Boeing or Airbus (the only two companies that now make big jets) go ahead, they need to be sure that enough airlines will sign up as launch customers. When the aircraft is the A3XX, which is expected to cost $10.7 billion to develop, the stakes are very high. Airbus, which is 80% owned by EADS (a newly formed Franco-GermanSpanish aerospace group) and 20% owned by Britain’s BAE Systems, is betting the company on the new aircraft. Its development costs are not much less than the firm’s total asset value. This makes the A3XX as big a bet as Boeing took when it launched the jumbo in the 1960s. Franz Wirl: Industriebetriebslehre 149 Airbus, of course, has had some special help: soft loans, worth one-third of the development cost, from the German, French and British governments. These are to be repaid with interest through a levy on sales, but the governments share some of the commercial risk, so Airbus is getting capital more cheaply than it might on the open market. Both Boeing and American trade officials have complained about this, although the Europeans say it is in line with a 1992 bilateral agreement in which Europe agreed to limit launch aid for new aircraft to one-third of costs, while America agreed to limit indirect subsidies to the likes of Boeing (through NASA, America’s space agency, and other bodies) to 3% of their annual turnover. When the A3XX gets its formal go-ahead, as now seems certain, Boeing will probably press the new American administration to get tough. Few doubt that Boeing, America’s biggest exporter, has great clout in Washington. After the Gulf war, a newly installed President Clinton telephoned the ruler of Saudi Arabia, urging him to buy $12 billion-worth of Boeing and McDonnell Douglas aircraft rather than Airbuses. Saudia, the national flag carrier, duly bought American, leaving Airbus fuming in the desert. Will EADS roll? A successful launch of the A3XX (due to get a proper name in January) is crucial to the future of EADS, whose shares have languished since it was partially floated this summer (see chart). Civil aircraft, mostly made by Airbus, account for about two-thirds of EADS’s output. With the A3XX it will have a full range to challenge Boeing: until now Airbus has always suspected that the American firm was able to hold down the prices of smaller aircraft that compete with Airbus’s, because it could cross-subsidise them using monopoly profits from the 747. As it seeks to strengthen its military-aerospace business through alliances with France’s Thomson and America’s Northrop Grumman, Airbus is the lifeblood of the new European aerospace group—and the A3XX is, in turn, vital to Airbus’s future. For Boeing, the launch of the new aircraft will be a big blow. It has for years fought hard to preserve the monopoly in giant airliners that it has through the 747. It also argues that, because air travel is fragmenting (with more, smaller planes using more hubs), the future lies with slightly smaller long-distance aircraft, such as its 777 and Airbus’s A340. But Airbus is confident that there is a market for 1,200 aircraft carrying upwards of 400 passengers, plus pent-up demand for about 300 large freighter versions, as global businesses strive to shorten their supply chains. Airbus reckons that it can carry off two-thirds of this huge market, worth nearly $400 billion in today’s prices, before Boeing gets a rival in the air. But Boeing may see no need to worry in the short term. Its watchword these days is shareholder value, and it can point to a healthy near-doubling in its share price since the dark days, two years ago, when its market value fell below its net asset value, making it a possible takeover target. Boeing’s stock is riding high because its factories are humming smoothly at full capacity, and its orderbook is strong. It may have landed fewer orders than Airbus last year, but it is now bouncing back. Many at the company, not to mention its shareholders, feel that this is no time to bet the firm on a risky investment as big as the A3XX. Yet sooner or later, Boeing will have to offer airlines a serious successor to the 747—and one that is as economical and attractive as the A3XX may prove. That might take more than just the planned rehash of the 30-year-old jumbo, and could therefore cost a lot more than the $4 billion needed for the current tentative offering, the 747X. Analysts think Boeing will most likely start afresh and come up with a real rival early in 2002. The Seattle company will suffer none of the political and organisational delays that held back the A3XX while Airbus’s consortium structure was laboriously converted into a proper company. Then it will be the turn of Boeing shareholders to hold their breath. 5.3.3 Adobe 18 Intelligent design and clever marketing have made Adobe the king of online documents. But mistakes made along the way were just as important THE list of dead, dying and half-forgotten programs for the personal computer is not short: WordPerfect, Lotus 1-2-3, Netscape, Eudora—to take just the tip of the iceberg. Each once dominated its bit of the market, and each has since been supplanted by a Microsoft product: Word, Excel, Internet Explorer and Outlook. Indeed, popular PC software that does not come from Microsoft is now the exception rather than the rule. That has left Adobe Systems—buoyed by a single product, Acrobat, and its associated Portable Document Format (PDF)—as the second-biggest PC-software company in the world, with sales of $1.2 billion in 2001. PDF is a way of representing documents electronically; Acrobat is Adobe's program for manipulating PDF documents. There are many ways to represent documents electronically—everything from plain text and scanned images to Microsoft Word documents. Plain text, though portable, is not all that useful, and other formats require specific software to make them readable. So does a PDF document. But nearly everybody has Acrobat Reader, the freely distributed program for reading PDFs, on their computers already. This is the secret of Adobe's continued success. But how did it come about? Mysterious ways Adobe was founded in 1982 by John Warnock and Chuck Geschke, two refugees from Xerox's fabled Palo Alto Research Centre in Silicon Valley. Xerox PARC is famous for having generated many of the seminal ideas behind modern computing (graphically based operating systems, for example), and then failing to commercialise them. The problem that Mr Warnock and Mr Geschke set out to solve was how to print consistently attractive documents. Their solution was a programming language, Interpress, that would control communication between a computer and a printer. So long as the printer was appropriately equipped, it would implement the programmer's desires precisely. Frustrated by Xerox's sluggishness in commercialising the technology, Messrs Warnock and Geschke set off on their own, taking Interpress with them to their new company, where it became known as PostScript. PostScript could be used to describe both graphics and meticulously crafted fonts that Adobe initially adapted from commercial typemakers, and later designed from scratch. The quality of PostScript documents was such that, during the 1980s, it became the standard for professional image-setters, and was also used in most laser printers. At the same time, software to display PostScript on computer screens became freely available and widely distributed (at least among users of Unix-based computers). By the early 1990s, Adobe already had a reliable, popular document format that was bringing in a steady profit. However, although PostScript was good at some things, such as printing clearly, it was next to useless for others. Because PostScript is a programming language, a PostScript document is essentially a program. To see what is on page 326 of a long document, you have to run the entire program until it gets to that page. That is hardly the way to search for something you want in a hurry. Furthermore, PostScript files are big, both because they contain detailed low-level information, and because each file includes whatever fonts are used in it. PostScript was not ideal as a medium for content distribution; and it was not, even in 1991, the only format available. In the 1980s, TeX (pronounced “tech”), a type-setting language written by Donald Knuth, now an emeritus professor at Stanford, had taken many 18 CASE HISTORY Trapeze artists, Dec 12th 2002, From The Economist. Franz Wirl: Industriebetriebslehre 150 scientists by storm. TeX could encode complicated documents replete with elaborate mathematical formulae—a good worst-case scenario test—in what was, to scientists at least, a simple fashion. TeX is a very elegant format, and continues to be a standard for document creation among physicists and computer scientists. When it comes to exchanging finished TeX documents, however, PDF is now habitually used in preference to the DVI (device independent) output format that was originally part of TeX. The lessons to be learned from this are twofold. First, because TeX did not have software for document creation that was intelligible to the lay computer user, it failed to catch on outside the scientific world. Second, because PDF is both more pliant and more stable than other formats (such as DVI), it has become a “destination format”. Even if documents are produced in another way, (eg, TeX or Microsoft Word), when it comes to distributing them people turn to PDF. Mr Warnock saw the limitations of PostScript and its existing competition in 1991, and outlined a project called “Camelot”. Two years later, PDF emerged. This was a time when the World Wide Web was beginning to become popular. The web had its own language, which was evolving haphazardly from the draft of the HyperText Mark-Up Language (HTML) by its inventor, Tim Berners-Lee, at the European Centre for Nuclear Research outside Geneva. If HTML and its various offspring became the blue jeans of the web, PDF was the tuxedo—the clothing documents were dressed in when they needed to look immaculate. False start When Mr Warnock conceived Camelot he, like everybody else, grossly underestimated the subsequent growth of the Internet. The “new media” that most expected at the time to succeed was the CD-ROM, which Mr Warnock intended to use to distribute books in PDF. Distributing books electronically was an idea that Adobe would return to—rather unsuccessfully—in the late 1990s. The rise of the Internet in the intervening decade would require Adobe, and every other software manufacturer, to revise dramatically their notions of how to make money from computer programs. To be profitable, it became clear that somebody would have to give something away. With the explosive growth of the Internet, others followed in Mr Warnock's footsteps. On the proverbial information superhighway, people were looking to exchange visually rich documents; and they needed to be sure that what was received at the other end was consistent. A number of now forgotten start-up firms threw their hats in the ring. No Hands Software had a format called Digital Paper. Tumbleweed was slightly more successful with its Envoy format; it was subsequently bought by Novell, a rival software company. More significantly, Microsoft also entered the fray. However, its Rich TextFormat (RTF) never had the same functionality as Adobe's product, being essentially a pared-down version of the format used by Microsoft Word. Microsoft also entered the market late. In 1995, Bill Gates, the company's chairman, noted that Microsoft really had no effective rival to Acrobat—and it still hasn't. Coming first to market certainly has advantages. If you are not Microsoft, it is generally a necessary, though not sufficient, condition for success. The key, however, came not with the introduction of Acrobat in 1993, but with the decision in 1994 to separate Acrobat Reader from the full version of Acrobat—and to give it away. Acrobat Reader can read and print PDFs, but not produce or edit them. Many companies that came and went in the dotcom boom of the late 1990s tried to make money by giving things away, only to fail miserably. Adobe succeeded for several reasons. The experience of PostScript proved invaluable. It allowed Adobe to produce a product that was superior in all respects: it looked good, was truly portable across different systems, and had a compact file size that made transferring files quick and easy. With PostScript, Adobe had learnt how to strike a balance between charging for software and giving it away. The full version of Acrobat still costs several hundred dollars; enough people buy it to justify giving the reader away. Adobe also turned out to be in the right place at the right time, catching the wave of the web before it crested. “The key was to separate Acrobat Reader from the full version of Acrobat—and to give it away.” Running to stand still The legions of fallen software giants—from Netscape to WordPerfect—show that market share alone is not enough to maintain dominance. Even something as seemingly mundane as format must be continuously modified if it is to remain in the ascendant. With that in mind, Adobe has tried to take PDF in several new directions, with varying degrees of success. The first was to use PDF as a foundation for its “eBook” initiative. This aimed at allowing PDFs to be transmitted from computers to PDAs (personal digital assistants, such as the Palm or Blackberry) as well as to dedicated e-book reading devices. Furthermore, Adobe's Content Server, a software package, was to be used to encrypt the files in order to prevent copyright infringement. The exercise was a flop. To begin with, dedicated e-book readers failed to take off because they were bulky, expensive and inconvenient. On top of this, Adobe's copy-protection scheme was flimsy, and easily defeated with the help of a piece of software written by a Russian programmer named Dimitri Sklyarov. Anxious to persuade publishers that eBook was a secure format, Adobe prosecuted Mr Sklyarov under the Digital Millennium Copyright Act when he visited America to attend a conference. Faced with a public outcry, Adobe hastily dropped the case—but not before alienating many programmers, while doing nothing to make the eBook format more secure. If there is a lesson to be learnt from Adobe's eBook fiasco, it is that litigation is no substitute for well-designed software. If its content-server encryption scheme had been stronger, the firm would never have had the public relations disaster in the first place. When flexible displays are cheaper and better, electronic books may become as ubiquitous as paperbacks. But that could be years away. In the meantime, Adobe is looking elsewhere. After the invention of PostScript, Adobe's biggest software products were Illustrator and Photoshop, programs respectively for drawing and manipulating photographs. Each proved highly successful in its time and, combined with Acrobat, established Adobe as a company catering for graphic designers and publishers. To keep its graphics products evolving, Adobe has prudently made Acrobat modular, leaving such things as pre-press processing and high-quality colour separation for book publishers to independent software developers, who create PDF extensions that can be plugged into Acrobat to do additional tasks. This group of plug-in writers is centred around two websites, PlanetPDF and PDFzone. Here is another key to PDF's continued success. By providing free programming tools such as SDKs (software development kits) and APIs (application programming interfaces), Adobe has fostered a group of outside developers who have a vested interest in making sure that PDF remains the dominant format. And by selling them support, Adobe also gets another revenue stream. Meanwhile, offloading the task of producing Acrobat enhancements to independent developers allows Adobe to focus more of its efforts on the increasingly important “enterprise market”. Franz Wirl: Industriebetriebslehre 151 Adobe believes that the paperless office—believed to be just around the corner ever since PCs first started appearing on people's desks in the early 1980s—is finally about to arrive. Their claim is not so much that paper will disappear overnight, but that it will be increasingly marginalised by the proliferation of slicker, more efficient alternatives. The goal is to have software that will allow users to create a document only once, and then seamlessly distribute it many times. A document for the web may have rich audio-visual content, but be automatically pared down for display on a wireless unit, and presented differently again if it is occasionally printed on paper. Whether the firm is right or not, Acrobat sits at the centre of Adobe's new “Network Publishing” initiative. By integrating the powerful new tool for specifying web content known as XML (eXtensible Mark-up Language) into PDF, documents can be made smart enough to have some understanding of their meaning. In the process, Adobe hopes to break down the distinction between documents and databases. The trick is to embed, within a document, information about its content and structure in a standardised manner that is easily interpreted by a computer program such as a search engine. Thus, the creation of a large number of documents (eg, billing letters) from a database can be automated. By the same token, so can the opposite: the creation of a database from a large number of disparate documents. Allied to this, Adobe aims to provide “workflow solutions” that would make it easier for large teams of people collaborating on a project to create mega-documents—eg, the specifications for a jumbo jet—by allowing them to interact in an intuitive way. How all this will be done is not clear. What is clear, however, is that Microsoft is aiming to do the same with its XDOCS format, which it hopes to introduce some time in 2003. It looks as though the perennial chimera of the paperless office could actually become the software battleground of the future. And if the past is any guide, Microsoft could once again find itself reeling from going head-to-head with Adobe on its own turf. 5.3.4 Volkswagen 19 WHEN Ferdinand Piëch arrived as Volkswagen's chief executive in 1993, things looked dire. The carmaker was overspending, overmanned and inefficient, and had lost its reputation for quality. How things have changed: last year the VW group's profits more than doubled, to a record €18.9 billion ($23.8 billion). As other European volume carmakers seek to close factories and cut jobs, VW is seizing market share in Europe, booming in China and staging a comeback in America. It plans to spend €76 billion on new models and new factories by 2016. Its global workforce is more than half a million, and growing. It took years for Mr Piëch—now chairman, but still with his hands firmly on the wheel—to tame VW's menagerie of semiindependent brands and get to grips with its global empire of factories. He has been a ruthless hirer and firer of executives: only last month Karl-Thomas Neumann was removed as head of VW's Chinese operations, supposedly for his disappointing performance, despite the juicy profits VW is making in China. Mr Neumann had been talked of as a possible successor to the chief executive, Martin Winterkorn. Mr Piëch is a grandson of Ferdinand Porsche, who founded VW after Hitler called in 1934 for the creation of a cheap “people's car”, a Volkswagen. The Piëch-Porsche clan controls both VW and Porsche, a sports-car maker that is now being folded into VW after the failure of an overambitious and highly leveraged reverse takeover. On July 4th VW agreed to buy the 50.1% of Porsche it does not yet own for €4.46 billion. VW is also buying Ducati, a maker of fancy motorbikes, and consolidating MAN and Scania, two lorrymakers, into its commercialvehicles division. Yet still the firm remains hungry. It has long coveted Alfa Romeo, a premium-car division of Fiat; and is rumoured to be eyeing up Navistar, an American lorrymaker. Mr Winterkorn nevertheless dismisses the suggestion that the group is getting unmanageably big. Mr Piëch's plan was for VW to become the world's biggest carmaker by volume by 2018. Last year, however, as Toyota struggled with the aftermath of Japan's tsunami and GM floundered in Europe, VW reached its goal seven years early (see chart), if you do not count Subaru, Toyota's distant affiliate, or GM's Wuling joint venture in China, which mainly makes Chinese-branded cars. The 8.5m vehicles VW made last year cover all corners: Volkswagen, Skoda and SEAT in the mass market; Audi in premium cars; Porsche, Bugatti and Lamborghini in sports cars; Bentley at the luxury end; plus various commercial-vehicle brands. Most (SEAT excepted) are firing on all cylinders. IHS Automotive, a forecaster, expects VW easily to beat its target of 11m sales by 2018. Fierce competition and regulatory pressure to develop alternative-fuel cars are forcing other makers to seek cost-sharing partnerships. Toyota and BMW are teaming up on low-carbon technologies. GM's Opel division in Europe is joining Peugeot-Citroën to make smaller cars. Daimler is edging towards a threesome with the Renault-Nissan alliance. Sergio Marchionne, the boss of Fiat and Chrysler, recently suggested merging several European makers to create “another Volkswagen”. Volkswagen has been better than its rivals at reducing the number of common “platforms” that its cars are built on. This allows it to offer a fabulous variety of brands and styles while slashing manufacturing costs. The next stage, launched this year, is a versatile platform codenamed MQB, which will underpin the VW Golf, Audi A3, Skoda Octavia and SEAT Leon, in all their variations. Wolfsburg's lone wolf VW's size means it seldom needs partnerships with rivals, says Mr Winterkorn. Perhaps this is just as well. Judging by its botched hook-up with Suzuki, a mid-sized Japanese maker, VW is not much good at romance. Suzuki's boss, Osamu Suzuki, has filed for divorce and is taking VW to arbitration to force it to sell its 19.9% stake in Suzuki. Among other things, he has complained of being treated like a subsidiary, rather than a partner. VW had hoped to develop cheap cars for emerging markets with Suzuki, which is big in India. Now it must do so alone, at considerable cost. In many of the 26 countries where VW has factories, it has been around long enough to be seen as a domestic firm, so protectionists usually leave it alone. The founding family's controlling shareholding, and a blocking stake held by the state of Lower Saxony, where VW is headquartered, allow it to resist short-term pressures to pull out of any market that turns difficult. Rivals envy the stability this brings, especially just now, says Mr Winterkorn. VW can cope with a collapse of the European car market. Others must make deep cuts—or perhaps even, in the case of GM (which has lost $16 billion in Europe since 1999) and Ford (which gave warning on June 28th of deepening losses there), pull out of the continent altogether. 19 The Economist, July 7th, 2012, 56-57, VW conquers the world. Franz Wirl: Industriebetriebslehre 152 VW bet on China nearly 30 years ago. Now it is the world's biggest car market and VW has 18% of it, through two joint ventures. They sell 2m vehicles a year and plan to double this by 2018. A glut of cheap cars is hurting prices in China but VW's premium models are doing well: the group's share of its Chinese ventures' profits rose from €1.9 billion in 2010 to €2.6 billion last year. VW has long been big in Brazil (market share: 22%), and is expanding fast in Russia (9%). The weakest BRIC in its wall is India, where its share is less than 5%. Suzuki, whose affiliate Maruti Suzuki has almost 50% of the Indian market, should have been the perfect partner there. The “Beetlemania” that VW enjoyed in America in the 1960s, when its Beetle was the pioneer of smaller, cheaper cars, faded in the 1970s. Decades of weak sales and losses ensued. VW closed its Pennsylvania factory in 1988 because the cars it made were lousy. It tried importing from Mexico but couldn't make this pay. Now, with a big new plant in Chattanooga, Tennessee, a revamped dealer network and the successful launch of the new Jetta, a family saloon, VW is back on a roll in America. Its sales there rose by 23% last year to 444,000, and its aim of selling 1m cars by 2018 looks achievable. However, VW's quality ratings in America remain well below average, according to surveys by J.D. Power. Like BMW, another admired German carmaker, VW seems to have succeeded because it is run by petrolheads. Mr Piëch's passion for engineering pervades the group. He is the strategist; Mr Winterkorn the get-things-done guy. Hans-Dieter Pötsch, the chief financial officer, has helped a lot by controlling costs, says Max Warburton of Sanford C. Bernstein, an investment bank. VW's other chiefs enjoy considerable freedom—unless they incur the chairman's wrath. For all VW's success, it is rare to hear people outside the firm praising the “Volkswagen Way” as they once lauded the “Toyota Production System”. VW has ignored Toyota's obsession with the production line, says Mr Warburton, and concentrated on saving costs through parts-sharing between models. It has managed to preserve a culture of permanent innovation and a willingness to take risks. If there is a Volkswagen Way, it is to be determined, diligent and attentive to detail, with a glint of ruthlessness. Still, plenty could go wrong. Toyota captured the top spot from GM in 2008, only to stumble on quality as it rushed for quantity. VW's shared platforms make it vulnerable if one of them turns out to be flawed. Sprawl and loss of focus are another risk. Take the SEAT brand, for instance, which lost €225m last year. What is it for? Mr Winterkorn describes it as VW's “sporty, design-oriented” brand for young people. But how does SEAT's new Toledo, which VW describes as “a practical, top-quality and affordable car for the whole family”, fit that image? If VW already has one brand too many, SEAT is it. An earlier growth spurt, during Mr Piëch's time as chief executive, led to VW's brands churning out lots of competing models while overlooking popular new trends, such as the “compact multipurpose vehicle” pioneered by Renault with its Scenic. Upper-end Volkswagens and Skodas are now competing with lower-end Audis. SEATs, Skodas and VWs have different images but much in common under the hood. Relying on buyers' brand loyalty has worked so far, but for how long? Procter & Gamble, which is to toiletries what VW is to cars, stumbled after “taking on every competitor in every category in every region of the world at once,” as an analyst put it in The Economist last week. That seems to be what VW is doing now. VW is so big in China that it would be vulnerable to a downturn there. Likewise in Brazil, where its Chinese rivals are starting to encroach. And VW has a closer challenger in its rear-view mirror: Hyundai-Kia, which is pushing upmarket while continuing to churn out small, good-value motors. It has around half of its home market in South Korea, is ahead of VW with a 9% share in America and is making inroads in Europe and emerging markets. And unlike VW, it does not have a profusion of brands to support. If the euro falls apart, VW's German factories will suddenly find their costs denominated in expensive Deutschmarks. That cosy relationship with Lower Saxony (whose blocking stake the European Commission is seeking to remove) might become a burden if VW needed to make swift cuts to maintain profitability. If circumstances require a change of direction, the monoculture at the top of VW may react slowly. With so many executives close to retirement—Mr Piëch is 75 and Mr Winterkorn 65—succession is another worry. Franz Wirl: Industriebetriebslehre 153 However, such problems are hypothetical. As VW drives relentlessly towards world domination, Bernstein's Mr Warburton says that Mr Piëch “will go down in history as an automotive legend, in the same class as Gottlieb Daimler, Henry Ford and Kiichiro Toyoda.” 5.3.5 st Does IT matter? The Economist, Apri, 1 , 2004 ONE year ago, Nicholas Carr was just another 40-something junior editor at the Harvard Business Review—interested in information technology (IT), sometimes contributing as a writer, but otherwise as unknown to the outside world as such editors tend to be. Then, last May, he published a simple, jargon-free, eight-page article in the HBR, called “IT doesn't matter”. “I figured I'd ruffle a few feathers for a week or two,” he recalls. What happened instead remains puzzling to this day, not least to Mr Carr himself. The entire trillion-dollar IT industry, it seemed, took offence and started to attack Mr Carr's argument. Chief information officers (CIOs), the people in charge of computer systems at large companies, heard the noise and told their secretaries to dig out the article and put it on their desks. Analysts chimed in. Rebuttals were rebutted. Suddenly, Mr Carr was the hottest number for anyone organising a techie conference. Within months, he was expanding the original article into a book, “Does IT matter?”, which is coming off the presses this month. Already its detractors and supporters are lining up for round two of the controversy. Part of Mr Carr's trick, it seems, is simply choosing great titles. “IT doesn't matter” is viscerally threatening to people such as Scott McNealy, the chief executive of Sun Microsystems, a maker of fancy and expensive computers. Like other tech bosses, Mr McNealy basked in gee-whiz celebrity status during the dotcom bubble but has been spending the past three years defending Sun's relevance to suddenly sceptical customers and investors. A confident showman, he challenged Mr Carr to a debate, on stage and on webcast. It was a debacle. “Sun does matter,” Mr McNealy seemed to be arguing, or even “I still matter.” Even Mr Carr's critics in the audience wondered whether Mr McNealy had actually bothered to read the article. And this is the other explanation for Mr Carr's great impact. His argument is simple, powerful and yet also subtle. He is not, in fact, denying that IT has the potential to transform entire societies and economies. On the contrary, his argument is based on the assumption that IT resembles the steam engine, the railway, the electricity grid, the telegraph, the telephone, the highway system and other technologies that proved revolutionary in the past. For commerce as a whole, Mr Carr is insistent, IT matters very much indeed. But this often has highly ironic implications for individual companies, thinks Mr Carr. Electricity, for instance, became revolutionary for society only when it ceased to be a proprietary technology, owned or used by one or two factories here and there, and instead became an infrastructure—ubiquitous, and shared by all. Only in the early days, and only for the few firms that found proprietary uses for it, was electricity a source of strategic—ie, more or less lasting—advantage. Once it became available to all firms, however, it became a commodity, a factor of production just like office supplies or raw materials, a cost to be managed rather than an edge over rivals, a risk (during black-outs) rather than an opportunity. Computer hardware and software, Mr Carr argues, have been following the same progression from proprietary technology to infrastructure. In the past, American Airlines, for example, gained a strategic advantage for a decade or two after it rolled out a proprietary computerised reservation system in 1962, called Sabre. In time, however, its rivals replicated the system, or even leapfrogged to better ones. Today, the edge that a computer system can give a firm is fleeting at best. IT, in other words, has now joined history's other revolutionary technologies by becoming an infrastructure, not a differentiator. In that sense, and from the point of view of individual firms, “IT no longer matters.” And what's IT all about? Surely though, Mr Carr's critics counter, IT is different from electricity or steam engines. Even if hardware tends to become a commodity over time, software seems, like music or poetry, to have infinite potential for innovation and malleability. True, it may have, answers Mr Carr, but what matters is not whether a nifty programmer can still come up with new and cool code, but how quickly any such programme can be replicated by rival companies. Besides, today's reality in the software industry has nothing to do with poetry or music. Many companies are furious about the bug-ridden, pricey and over-engineered systems that they bought during the bubble era and are doing their best to switch to simple, off-the-shelf software, offered in “enterprise-resource planning” packages and the like. If there is any customisation at all, it tends to be done by outside consultants, who are likely to share their favours with other clients. But surely Mr Carr does not appreciate the impressive pipeline of new technologies that is about to hit the market—the wireless gadgets, the billions of tiny radio-frequency identity tags that will turn Aspirin bottles, shirt collars, refrigerator doors and almost everything else into smart machines, and so on? Those are impressive indeed, says Mr Carr. But again, the issue is whether they will be proprietary technologies or open infrastructures. And everything points to the latter. This is not a debate for the ivory tower. Since IT can no longer be a source of strategic advantage, Mr Carr urges CIOs to spend less on their data-centres, to opt for cheaper commodity equipment wherever possible, to follow their rivals rather than trying to outdo them with fancy new systems, and to focus more on IT's vulnerabilities, from viruses to data theft, than on its opportunities. As it happens, CIOs have been taking exactly this approach for the past three years, and their bosses like it that way. Perhaps all they needed was an erudite way to justify this new sobriety. “It seemed like there was this role open and I just wandered into it,” says Mr Carr. 5.4 5.5 IT und Robotics 20 Fallbeispiele oder Fabeln? Die klassischen Fallbeispiele für Netzwerkeffekte, Lock-ins, kritische Masse und Geschichtsabhängigkeit sind: QWERTY (bei uns QWERTZ) – Tastatur anstatt der effizienteren Dvorak-Tastatur Videorecoder: Der Sieg von VHS gegen ‚überlegeneres’ Beta Computer: Der Sieg von IBM-PC-komaptiblen Rechnern gegen Macs. 20 David H. Autor, Why Are There Still So Many Jobs? The History and Future of Workplace Automation, Journal of Economic Perspectives—Volume 29, Number 3—Summer 2015—Pages 3–30 Franz Wirl: Industriebetriebslehre 154 stellen sich aber bei genauem Hinschauen als Fabeln heraus (ähnlich erging es Samuelsons berühmtem Beispiel für öffentliche Güter, dem Leuchtturm, der in England privat bereitgestellt wurde), vgl. dazu Spulber (2002). 5.6 Literaturhinweise: W. Brian Arthur: Increasing Returns and Path Dependence in the Economy, 1994, www.santafe.edu/arthur, W. Brian Arthur: Increasing Returns and the New World of Business, Harvard Business Review JulyAugust 1996, 100 ff W. Brian Arthur: Positive Feedbacks in the Economy, Scientific American, Feb. 1990, W. Brian Arthur: Competing Technologies, Increasing Returns and Lock-in by Historical Events, Economic Journal , 99, 106-131,1989, W. Brian Arthur: Bounded Rationality and Inductive Behavior (the El Farol Problem), American Economic Review, 84,406-411, 1994, W. Brian Arthur: Complexity in Economic and Financial Markets, Complexity, 1, 20-25, 1995. Spulber Daniel F., Famous Fables of Economics. Myths of Market Failures, Blackwell, 2002. Franz Wirl: Industriebetriebslehre 155 6 Produktion & Beschaffung 6.1 6.1.1 „Traditionelle“ Beschaffungsstrategien und Instrumente Klassifikation von Rohstoffen Der betriebswirtschaftliche Begriff Rohstoff unterscheidet sich vom allgemeinen Sprachgebrauch (naturgegeben) und bezieht sich auf die Branche. So sind Erze und Koks Rohstoffe für Hütte, Rohstahl für ein Walzwerk usw. Verschiedene Klassifikationen von Rohstoffarten finden sich in Weber, Kapitel 7, S 304ff. Die XYZ-Analyse ist ein Instrument zur Klassifikation von Rohstoffen nach ihrem zeitlichen Bedarf. Dieser kann konstant (X), schwankend (Y)oder irregulär (Z) sein. (z.B. Könnte bei einem Eisverkäufer der Bedarf an Tüten pro Tag im Sommer relativ konstant sein, während der Bedarf nach Vanilleeis schwankend ist und der Bedarf nach exotischeren Eissorten irregulär ist.) Die ABC-Analyse versucht die Rohstoffe nach ihrer Bedeutung für das Unternehmen einzuteilen. Im Hintergrund steht die Annahme einer Paretoverteilung, also dass ca. 20% der verwendeten Rohstoffe für ca. 80% des Erfolges verantwortlich sind. Diese Klassifikation kann auch aufgrund ihrer Skaleninvarianz auf eine große Bandbreite von Anwendungen übertragen werden: z.B. 20% der Institute einer Uni liefern 80% des gesamten wissenschaftlichen Outputs o.Ä. Beispiel: Beschaffungswert Rohstoff (= beschaffte Menge im Jahr mal Stückpreis) r1 4.875,r2 12.500,r3 3.000,r4 500,r5 900,r6 16.000,r7 6.000,r8 3,600,r9 1,500,r10 4.400,Tabelle 5.1 Die Rohstoffwerte werden nun nach dem Beschaffungswert absteigend geordnet, ihr jeweiliger Anteil am Gesamtbeschaffungswert berechnet, und diese Werte kumuliert, ebenso wird der Anteil an der Rohstoffanzahl berechnet und kumuliert. Rohstoff r6 r2 r7 r1 r10 r8 r3 r9 r5 r4 Anteil am Gesamtbeschaffungswert 30,0% 23,5% 11,3% 9,2% 8,3% 6,8% 5,6% 2,8% 1,7% 0,9% kumulierter Anteil am Gesamt-beschaffungswert 30,0% 53,5% 64,8% 73,9% 82,2% 88,9% 94,6% 97,4% 99,1% 100,0% Anteil an der Rohstoff-zahl 10% 10% 10% 10% 10% 10% 10% 10% 10% 10% kumulierter Anteil an der Rohstoffzahl 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% Tabelle 5.2 Wir machen nun bei 20% den ersten Abschnitt und bei 70% den zweiten: r6 und r2 sind also Rohstoffe der Kategorie A, r7 bis r8 gehören zur Kategorie B und r3 bis r4 zur Kategorie C. Die Schranken sind aber nicht auf 20% und 70% festgelegt, sondern können willkürlich gesetzt werden, an eine Stelle, wo die Unterschiede zwischen der Bedeutung der Rohstoffe eine Abgrenzung rechtfertigen. Man erhält hiermit eine grobe Einteilung. Franz Wirl: Industriebetriebslehre 6.1.2 156 Optimale Bestellmengen Mit Hilfe der Formel für die optimale Bestellmenge versucht man die Beschaffung eines Rohstoffes oder vorgefertigten Produktes so einzuteilen, dass die Summe aus Bestellkosten (KE) + Lagerkosten (KL) minimal wird. (Es besteht ein Trade-off zwischen diesen beiden Kosten: Häufiges Bestellen kleinerer Mengen verursacht hohe Bestellkosten, aber dafür weniger Lagerkosten, umgekehrt gilt es für seltenes Bestellen größerer Mengen.) Die Bestellkosten setzen sich folgendermaßen zusammen: KE = Kf + kvM + kb(M/m) KE gesamte Einkaufskosten des Rohstoffes in der Periode Kf fixe Kosten je Einkauf ua. von der Menge in der Periode kv variable Einkaufskosten kb Kosten je Bestellung (bestellfixe Kosten) u.a. von der Bestellmenge M gesamte Einkaufsmenge je Periode m jeweilige Einkaufsmenge, Losmenge M/m Anzahl der Einkäufe. Die Lagerkosten setzen sich zusammen aus: KL = Klf + klvM + ∅Lb lw (p/100) KL gesamte Lagerkosten des betrachteten Rohstoffes in der Periode. Klf fixe Lagerkosten, d.h., unabhängig von der gelagerten Menge, Zugang oder Abgang klv variable Lagerkosten ∅Lb durchschnittlicher Lagerbestand in Mengen lw Lagerwert je Mengeneinheit (p/100) Zinsen und sonstige lagerwertabhängige Kosten Angenommen wird, dass der Lagerzugang unendlich schnell erfolgt, und dann der Lagerbestand gleichmäßig abgebaut wird. Der durchschnittliche Lagerbestand ist also die halbe Bestellmenge m. Dies soll durch die Grafik veranschaulicht werden. Abbildung 5.1 (Quelle: Skriptum zur Vorlesung aus Grundzüge der BWL IV) Die Gesamtkosten sollen also minimiert werden: min KL + KE = Kf + kv*M + kb*(M/m)+ Klf + klv*M + (m/2)*lw*(p/100) m Aus dieser Zielfunktion können nun die nicht von m abhängigen Bestandteile herausgenommen werden,: Franz Wirl: Industriebetriebslehre 157 ∽ K := kb*(M/m) + (m/2)*lw*(p/100), um dann das Differenzieren übersichtlicher zu machen: ∽ K´ = -kb*(M/m²) + 0,5*lw*(p/100) Nullsetzen der Ableitung und Auflösen nach m ergibt: m= 2k b M . p lw * 100 Aus dieser Formel für die optimale Bestellmenge erkennt man die Entscheidung beeinflussenden Faktoren: sind die bestellfixen Kosten hoch, wird die optimale Bestellmenge größer sein. Ein hoher Lagerwert des Gutes spricht eher für kleinere Bestellmengen, um nicht so viel Kapital zu binden, ebenso ein hoher Prozentsatz p. 6.1.3 Heuristische Strategien zur Lagerbewirtschaftung und Bestellung Die optimale Losgröße zu ermitteln bedürfte in der Praxis, wo häufig komplexe Produktions- und Beschaffungsverflechtungen vorliegen, eines großen Rechenaufwandes, weshalb häufig auf Heuristiken zurückgegriffen wird. (Alle Abbildungen aus Weber, S. 340 ff.) (s, q) Politik: Wenn der Lagerbestand (nach Entnahme) die Schwelle s unterschreitet, wird die vorgegebene Menge q bestellt. Abbildung 5.2 (s, S) Politik: Bei Unterschreitung (nach Entnahme) des Lagerbestandes s, wird das Lager auf die Sollmenge S aufgefüllt. Abbildung 5.3 Franz Wirl: Industriebetriebslehre 158 (t, q) Politik: In konstanten Intervallen t wird die Menge q bestellt. (Solche rein von der Zeit abhängigen Politiken sind aber nicht besonders sinnvoll, wenn man sich in einem stochastischen Umfeld bewegt, da bestellt wird, egal ob noch ein großer Lagerbestand vorliegt oder nicht.) Abbildung 5.4 (t, S) Politik: In konstanten Intervallen t wird das Lager auf seinen Sollbestand S aufgefüllt. Abbildung 5.5 (t, s, q) Politik: zu den Intervallen t wird der Lagerbestand überprüft und bei Unterschreitung von s, wird die Menge q bestellt. Abbildung 5. 6 Franz Wirl: Industriebetriebslehre 159 (t, s, S) Politik: zu den Intervallen t wird der Lagerbestand überprüft und bei Unterschreitung von s, wird auf den Sollstand S nachbestellt. Abbildung 5. 7 6.2 Just in Time (JIT) und Lean Management 6.2.1 Entstehung von JIT Der Ursprung von Just-in-Time findet sich in der japanischen Automobilindustrie. Das Konzept wurde maßgeblich entwickelt durch Taiichi Ohno, dem damals leitenden Produktionsingenieur der Toyota Motor Company in den frühen 60er Jahren. Die japanische Automobilindustrie stand nach dem zweiten Weltkrieg einer Vielzahl von Problemen gegenüber: • Der Inlandsmarkt war sehr klein und dabei stark diversifiziert. • Neue, durch die amerikanische Besatzungsmacht erlassene Arbeitsgesetzte verbesserten die Position von Arbeitskräften zum wirtschaftlichen Nachteil der Hersteller. • Im Vergleich zu den USA gab es fast keine Gastarbeiter oder Minoritäten mit beschränkter Berufswahlmöglichkeit, die schlechte Arbeitsbedingungen zu vergleichbar höheren Löhnen akzeptierten. • Durch den kriegsbedingten wirtschaftlichen Rückschlag fehlte Kapital zur Investition in neue Produktionseinrichtungen. • Nichtjapanische Automobilhersteller drangen Wettbewerbsvorsprung auf den Binnenmarkt vor. mit erheblichem kapitalbedingtem Zwar wurde den japanischen Unternehmen durch entsprechende Gesetze der internationale Wettbewerbsdruck auf dem inländischen Markt durch Verbot direkter Importe genommen. Trotzdem mussten japanische Unternehmen im internationalen Markt einen Weg finden, der es ihnen ermöglichen würde, zu Autoproduzenten mit breitem Angebot bei niedriger Kapitalintensität zu werden. Ohno entwickelte ein Produktionssystem mit kleinen Losgrößen, das Toyota-Produktions-System. Erzeugnisse auf allen Produktionsstufen wurden erst zu dem Zeitpunkt produziert, transportiert oder bereitgestellt, an dem der Abnehmer sie wirklich benötigte. Kapitalintensive Lagerbestände wurden dadurch im Idealfall ganz eliminiert. Das bis dahin geltende Bring-Prinzip der logistischen Kette wurde durch das Hol-Prinzip ersetzt. Die kleinen Produktionslose erhöhten dabei jedoch die gesamt auftretenden Rüstzeiten. Diesem Phänomen steuerte Ohno mit Untersuchungen zum schnellen Werkzeugwechsels gegen. Des Weiteren sollten Tätigkeiten, die nicht unmittelbar produktionsbezogen waren, wie z.B. Tätigkeiten wie Einlagern, Umschichten, Auslagern möglichst vermieden werden. Er prägte in diesem Zusammenhang den jap. Begriff „muda“ (Verschwendung). Dazu war es u.a. notwendig, dass Teile und Komponenten zum Zeitpunkt ihres Bedarfes direkt an das Fließband geliefert wurden. Die Funktionsfähigkeit des Toyota-Produktions-Systems war abhängig von der Nutzung der Fähigkeiten der Mitarbeiter. Diese wurden konsequent in den Prozeß des Eliminierens von Verschwendung einbezogen. Voraussetzung hierfür war eine umfassende Schulung, damit Mitarbeiter Probleme erkennen und ohne direkte Anweisung beheben konnten. Die Autorität und Verantwortlichkeit war dabei weitgehend an den Mitarbeiter in der Produktion delegiert. So war z.B. das Auslösen eines Bandstillstandes durch den Mitarbeiter erlaubt, der einen Fehler entdeckte und nicht sofort selbst beheben konnte. Franz Wirl: Industriebetriebslehre 160 Vor diesem Hintergrund ist das Toyota-Produktions-System auch eng mit den kulturellen Aspekten Japans hinsichtlich der Arbeitsethik verbunden. So gelten Japanische Arbeiter im Vergleich zu nordamerikanischen oder europäischen Kollegen z.B. als stärker gruppenbewusst und loyaler gegenüber den arbeitgebenden Unternehmen sowie stärker an selbst initiierten inkrementellen Verbesserung Ihres Arbeitssystems interessiert. Verstärkt werden diese Unterschiede durch abweichende Entlohnungsformen. So erhielten Mitarbeiter der Toyota Motor Company eine lebenslange Beschäftigungsgarantie sowie eine an die Dauer der Betriebszugehörigkeit und an dem Unternehmensgewinn gekoppelte Entlohnung. Die Kulturunterschiede begründen im wesentlichen den Erfolg des Toyota Production System, und werden unter anderem für die Schwierigkeiten bei der Übertragung auf nordamerikanische und europäische Verhältnisse im Lauf der 80er Jahre verantwortlich gemacht. Der Begriff „Just-In-Time“ wurde dabei von japanischen Autoren als Synonym bei der englischsprachigen Darstellung des Systems und der dahinterstehenden Philosophie geprägt. 6.2.2 Toyota 21 Although it is very close to becoming the world's biggest carmaker, not all is running smoothly at Toyota CAR bosses are expected to perform silly stunts at motor shows. But whoever had the bright idea of putting Toyota's president, 65-year-old Katsuaki Watanabe, into a “personal mobility concept” for his appearance at last month's Tokyo show should give thanks for the company's lifetime employment policy. The machine, called an i-REAL (pictured above), looks like a cross between a Segway and a wheelchair for an ageing Jetson. The unflamboyant Mr Watanabe's grin looked distinctly forced. Nor did he appear all that convinced by another Toyota vision of the future, the RiN. This weird-looking car encourages drivers “to re-evaluate themselves and...to turn their attention to society and nature, producing a healthy rhythm for both mind and body” by adapting to their psychological state with a “mood-training” steering control. It is easy to dismiss all this as typical Tokyo motor-show wackiness with the life-expectancy of a dragonfly. But those eccentric vehicles had a job to do: to polish Toyota's image as a car company with a highly developed sense of social responsibility rather than one chasing growth at all costs, just as it is about to realise its long-standing ambition of becoming the world's biggest vehicle producer. By the end of the year, Toyota is set to edge past General Motors (GM) with forecast group sales of 9.34m vehicles compared with GM's 9.29m. At the same time, it will decisively push Ford into third place in the crucial North American market. The way to make them But despite the sweetness of the moment, it is almost forbidden for Toyota executives to talk about becoming Number One. When asked, they all say the same thing: being biggest doesn't mean anything; what matters is doing your best for the customer. Boastfulness or crowing over Detroit's agonies is most definitely not part of the Toyota Way, the 14 principles that underpin the firm's management philosophy. And despite having created the capacity to build more than 2m vehicles in North America by 2010 (more than half the number it expects to sell) Toyota has never entirely lost its fear that success could provoke a protectionist backlash. But there are two other things the firm's executives like talking about even less. The first is the strain the drive to the top has put on the fabled Toyota Production System. In the past couple of years, a series of unToyota-like quality problems have begun to nibble away at the firm's reputation as the world's most admired manufacturer and as a byword for reliable vehicles. In July 2006, after some conspicuous product recalls, Mr Watanabe bowed in apology and promised to fix things with a “customer first” programme that would redirect engineering resources and, if necessary, lengthen development times. But the recalls have continued and Toyota is still slipping in consumer-quality surveys. The company's global head of manufacturing, Takeshi Uchiyamada, recently expressed “shame” at the problems with the latest Tundra full-size pick-up. The second embarrassment, which is causing unwelcome attention in America, is the gap between Toyota's carefully nurtured image of environmental concern, exemplified by the hybrid technology found in the pioneering Prius, and other products, like the new Tundra and the Lexus LS 600h luxury sedan. The Tundra is advertised as the baddest, brawniest truck on the market. Although the 600h is a hybrid, it tips the scales at more than 2,360kg (5,200 pounds) and uses more fuel outside town than the non-hybrid version of the car. Even more disappointing for some of Toyota's American fans is its decision to team up with Detroit's “Big Three” in an effort to undermine a Senate energy bill that would force American carmakers to reach a not-too-demanding fleet average of 35mpg by 2020. 21 A wobble on the road to the top, The Economist, Nov 8th 2007. Franz Wirl: Industriebetriebslehre 161 As Toyota Motor Corporation celebrates both 70 years as a carmaker and half a century of selling cars in America, it would be a huge exaggeration to suggest that there is any danger of the wheels coming off “the machine that changed the world”, as Toyota has been called. But there is an unmistakable feeling that at the very moment of its greatest triumph, Toyota has wobbled. At first sight, there is little for Toyota to be concerned about. While its American rivals have cut back production of cars they can't sell, each year Toyota sets another output record. In the year to the end of March 2007, Toyota sold 8.52m vehicles, nearly a 7% increase over the previous year. On the back of a 14% increase in revenues, Toyota's net income rose by 20% to $14 billion (GM, though it just outsold Toyota, lost $2 billion last year and is sufficiently gloomy about its financial prospects to have this week taken on the chin a massive $39 billion non-cash charge to write down deferred tax credits). This financial year Toyota expects net income to grow by a more modest 3.4% despite a strong first six months. That is because money is being ploughed into new factories and the development of new models to feed ambitious production targets in the years ahead; Toyota is aiming to sell 10.4m vehicles in 2009. But it is also throwing cash at its troubling quality issues by introducing stringent new controls, hiring more inspection engineers and beginning a mammoth programme of re-training factory workers. How serious are those quality problems? It is not as if the company has suddenly become careless in the way it makes cars. This is evident at its factory in Miyata on Kyushu, the southernmost of Japan's islands, where it builds the smaller Lexus sedans, the RX350 premium crossover and the Toyota Highlander mainly for export to North America. Everywhere at the Miyata factory are examples of Toyota's fabled kaizen (continuous improvement) approach. As in all its plants, behind every worker hangs the andon cord, which, when pulled, instantly summons a supervisor with the power to stop the line before any error is passed on. Each defect is measured and logged for the systematic hunting down of quality problems. On top of this, up to 80 people are employed to inspect 1,400 items on every car before it leaves the factory. The assembly line is a model of perfectly choreographed intensity. Rather than parts being piled up at each point in the line where they are fitted, a fleet of electric vehicles refreshes the supply constantly—not just lean production, but leaner. Typical of the commitment to creating the best possible product is the water polishing of every car body during painting, which may be unique to Lexus and provides advantages visible only to the trained eye. Even so, up to 30% of the vehicles made at Miyata don't get past the gimlet-eyed inspectors without some tiny fault, usually slightly less than perfect paintwork, requiring painstaking rectification. A lot of the work on Kyushu is carried out by skilled employees rather than by machines. Managers at the factory talk constantly about “craftsmanship”, while the slogan, “we put our entire soul into each and every car”, is never far away. The production evangelists Perhaps Toyota's greatest achievement is to have proved that it could export its production system, principally to North America, Britain and France. Essential to doing so has been the availability of skilled Japanese engineers, known as sensei, who act as team leaders to inspire new recruits and inculcate the “Toyota Way” from Kentucky to Derbyshire. Four years ago, realising that there might not be enough sensei to meet its ambitious production plans, Toyota established its Global Production Center (GPC) in Japan. The idea was to accelerate the development of sensei by giving them streamlined teaching methods and training devices. More than 10,000 people have graduated from the GPC and branches are being set up overseas. Nevertheless, executives admit that the stream of new sensei has not kept pace with expansion. It is not just the so-called “transplant” factories abroad that have been affected. The speed with which capacity is being created is putting pressure on the whole system. In mid-October Toyota recalled 470,000 vehicles in Japan with a variety of problems from faulty fuel pumps to defective steering systems. It followed recalls of 2.1m vehicles in Japan and North America last year, when it was ordered by the Japanese government to sort things out. In 2005 there were 1.9m recalls in Japan and 2.3m in America. Franz Wirl: Industriebetriebslehre 162 Last month it received an unexpected blow from America's influential Consumer Reports magazine. Declaring that “Toyota is showing cracks in its armour”, it relegated three models from its recommended list: the Camry V6 sedan, the all-wheel-drive variant of the Lexus GS and the Tundra pickup. The magazine added that it would “no longer recommend any new or re-designed Toyota models without reliability data on a specific design”. In other words, it would no longer simply assume Toyotas to be reliable. Overall, Toyota was ranked only the fifth most reliable manufacturer. A recent J.D. Power Initial Quality Study also showed Toyota losing ground to its Japanese rival, Honda. Toyota points out that the Initial Quality Study is not as important as it once was, because all makes are so much better (the difference between the best and worst is now less than one problem per vehicle). What matters more in generating customer loyalty, says Toyota, is dependability over a typical three- to five-year period of ownership. Toyota can claim that Consumer Reports still recommends more of its vehicles than any other carmaker: 17 out of 39. It is also confident of fixing the Camry and the Tundra problems (in the former, a wrongly installed minor component which prevented second gear from engaging; in the latter, a fault in the torque converter that created a loud vibration). But what should alarm Toyota is that the Camry, long the best-selling sedan in America, is not bought because of its stand-out styling or its class-leading performance and handling. Camry owners cite “reliability”, “quality” and “refinement” as their reasons for purchase. Both the new Honda Accord and Chevrolet Malibu provide stiff competition to the Camry, and are also better to drive. As for the redesigned Tundra, launched in February from a new factory in Texas, it has had other problems, from a batch of faulty camshafts to a failure to win a five-star crash rating—something achieved by all its Detroit rivals. Worse still, in the past few weeks stories have begun to circulate on the web suggesting the Tundra's tailgate buckles under heavy loads. Toyota knows better than any producer that its brand reputation depends on bullet-proof build quality. That has taken decades to establish, but it could be quickly eroded. The answer is meant to be Mr Watanabe's “customer first” initiative, which is designed to put more power into the hands of the chief engineer of any new car in order to achieve a trouble-free launch. What may be more difficult, according to people inside the company, is finding enough first-rate engineers to carry out exhaustive tests and any last-minute redesigns that may be necessary. The new Highlander SUV is the first to go through this process and Toyota claims it has gone smoothly. However, Masatami Takimoto, the executive in charge of quality as well as R&D, is not prepared to declare victory just yet. He says another two years of new-product launches are needed to evaluate “customer first”. The assumption must be that Toyota will eventually get on top of its quality problems, even if it means slowing its production plans. With other carmakers, including GM and cash-strapped Ford, catching up fast with higher quality, any complacency could be fatal. Toyota also needs more help from its American dealers, who have had less experience handling customer complaints than those selling rivals' cars. After coming 28th out of 36 vehicle brands in a J.D. Power customer satisfaction survey last year, Toyota's American sales arm came up with a programme called EM2 (“everything matters exponentially”) which was designed to hold a mirror up to all its operations. But the loss of some of Toyota's best American managers has jolted morale. In September Jim Press, a 37-year veteran and the only non-Japanese board member was lured to the new privately owned Chrysler. Four weeks ago, Jim Farley, credited with creating Toyota's entry-level Scion brand, jumped ship to Ford. Another sign of the times is that Toyota, which never used to discount its cars, now gives its dealers almost as much money to help close sales as GM does. According to Art Spinella, of CNW Marketing Research, Toyota's dealer incentives “have more than tripled in the last three years” to an average $3,752 for each vehicle. What could prove even harder than getting on top of its quality problems is deciding how Toyota wants to be seen in the world. The company talks a great deal about sustainable growth and striving for what it calls “zero negative impacts” on the environment. Mr Watanabe wants his engineers to produce cars that do not pollute at all and prevent their drivers having accidents. Fundamental to this image as a kinder, gentler car company is its pioneering hybrid technology. This year, Toyota sold its millionth hybrid car and Mr Takimoto predicts that by 2010 hybrids will account for about 10% of Toyota's production. By 2020 just about all Toyotas will be hybrids. Franz Wirl: Industriebetriebslehre 163 But Toyota could easily lose its lead with hybrids through a combination of complacency and technological conservatism. Its Synergy Drive system is about to face strong competition from the 2-Mode hybrid system developed jointly by GM, Mercedes-Benz and BMW. The main advantage claimed for 2Mode is that it is particularly suited to large vehicles, even heavily loaded SUVs and pick-ups—still the type of vehicles that most Americans buy. A stream of 2-Mode hybrids is about to be launched and these will inevitably deprive Toyota of some of its uniqueness. A paler shade of green Look a little farther ahead and Toyota is threatened by its apparent unwillingness to accelerate the development of the next-generation Prius. Although prototypes are on the road in Japan and France with a larger battery that can be recharged from the mains, Toyota says that production of a new Prius will not begin for at least three years. When it does, it might not provide much of a boost in performance. Toyota's hybrid engineers remain sceptical about whether lighter, faster-charging, lithium-ion batteries (the kind used in mobile phones and laptops) will be dependable enough to use in cars because of their tendency to overheat and fail. As a consequence, the next Prius is likely to continue using nickel-hydride batteries, which will limit its range to around 10km when running on electric power alone. By contrast, GM believes that a car based on its Chevy Volt concept will be ready to launch in 2010. Not only will this use lithium-ion batteries, but it is also designed to run on electric motive power all the time with a small internal-combustion engine employed as a generator when the plug-in charge runs down. The result is likely to be a range on battery power of about 40 miles (64km)—more than enough for the average commuter in America. When asked about GM's plans, Toyota's engineers are politely sceptical. Unlike its American rival, Toyota insists on developing its own lithium-ion battery technology and believes that the outsourcing route taken by GM is unlikely to produce better or faster results. Although they don't quite say so, Toyota's people think that the Volt is more than likely to blow up in GM's face, quite literally. They may be right: Toyota's experience with hybrid vehicles is unmatched. But if they are wrong, Toyota could be leapfrogged in a technology it has exploited brilliantly to define itself as the world's greenest car firm. Toyota is already putting its green credentials at risk by siding with Detroit to oppose the 35mpg corporate-average fuel-economy standard for 2010. It is not hard to understand why. Toyota takes the pragmatic view that it has to produce the cars that consumers want and that without a complete product range its ability to keep growing in America would be severely stunted; hence the giant new Tundra. However, that sits uneasily with the first principle of the Toyota Way—that the company must generate value for society—and with Mr Watanabe's insistence that Toyota be uniquely committed to “sustainable mobility” and, eventually, zero harm to the environment. When Toyota's position on fuel standards became known last month, nine of America's leading scientific and environmental organisations took out advertisements in newspapers and started up a website, www.truthabouttoyota.com, to condemn the company for what they saw as its hypocrisy. Prius owners have attended rallies attacking Toyota for its “betrayal”. The danger Toyota faces is that two of the very things that have made it so successful—the rock-solid reliability of its products and its reputation for making fuel-efficient, greenish vehicles—are threatened by the need to keep feeding its phenomenal growth. Despite some signs of renewed competitive vigour at GM, the momentum Toyota has created means that almost nothing can stop the Japanese company from establishing itself either this year or next as the undisputed leader of the world's car industry. But in doing so Toyota runs the risk that the price of that remarkable achievement will be losing something of its specialness. 6.2.3 JIT in Produktion und Beschaffung Gegeben, dass in der traditionellen Beschaffungsstrategie ohnehin alles optimiert wird, wo liegt der Sinn darin, ein „willkürliches“, „suboptimales“ Beschaffungssystem wie JIT zu propagieren? Die Kosten sollten sich doch dadurch erhöhen? In der traditionellen Beschaffungswirtschaft wird der menschliche Faktor völlig negiert, während JIT berücksichtigt, dass an den Maschinen und in den Lagern Menschen stehen, die entsprechend motiviert werden müssen. z.B. wird bei Bestellung von optimalen Losgrößen ein bestimmter, teilweise recht hoher, Lagerbestand vorhanden sein. Ein solcher hoher Lagerbestand kann aber die Arbeiter dazu verleiten, sich auf diesen zu verlassen, und bei der Behebung von Problemen gemächlich zu Werke zu gehen, während die Lagerbestände bei JIT immer sehr knapp bemessen sind und daher ein größerer Anreiz besteht, Fehler schnell zu beheben, um nicht den ganzen Prozeß zu blockieren. Ziele: Verringerung der Materialbestände Franz Wirl: Industriebetriebslehre Verringerung der Durchlaufzeiten Erhöhung der Arbeitsproduktivität Erhöhung der Flexibilität bezüglich kurzfristiger Lieferungsbereitschaft 164 Einige dieser Ziele wirken auf den ersten Blick widersprüchlich! Funktionsweise Ein ‚Verbraucher‘ nimmt ein Teil nur dann, wenn es gebraucht wird, und nachgefüllt wird nur, wenn eine Lücke erkannt wird. Es wird also von der Konsumentenseite her begonnen, „Supermarktprinzip“ Die Steuerung erfolgt mittels Karten oder Schildern, den sogenannten Kanbans. Diese Form der Steuerung mittels Karten ist jedoch nicht essentiell und kann durch andere Medien, etwa E-Mail, ersetzt werden. Man unterscheidet Transportkanbans: Diese werden von der verbrauchenden Stelle dazu benutzt, ein bestimmtes Material aus dem Pufferlager abzuholen Produktionskanbans: Diese stellen einen Produktionsauftrag für ein bestimmtes Material dar, und werden zwischen dem Pufferlager und der produzierenden Stelle gesetzt. Signalkanbans werden dann eingesetzt, wenn die Materialbeschaffung ab einem gewissen Stand erfolgen soll. (z.B. wenn der Bestand an Teil X kleiner als 50 wird, wird ein kleines Fähnchen dazu gehängt, das anzeigt, dass der Teil wieder nachgeliefert/produziert werden soll.) Lieferantenkanbans: Diese stellen eine Art Bestellschein dar, um eine Materialbestellung beim Zulieferer auszulösen. Die folgende Abbildung 5.8 (Quelle: Fandel-Francois, S. 24f.) stellt einen Kanban-Kreislauf dar. Ausgangspunkt des JIT-Konzepts ist immer die verbrauchende Produktionsstelle. Von dort geht ein Mitarbeiter mit der notwendigen Anzahl von Transportkanbans und den leeren Behältern zu der vorhergehenden Produktionsstelle. Die Behälter lässt er dort stehen. Der Mitarbeiter fügt nun Transportkanbans an die vollen Behälter, die er aus dem Pufferlager mitnimmt. Er entfernt die Produktionskanbans, die er in der Kanban-Sammelbox (Kanban-Annahmestelle) hinterlegt. Beim Austausch der Transport- und Produktionskanbans sind diese sorgfältig auf Übereinstimmung zu prüfen, da sonst später Störungen in der Materialversorgung auftreten können. In kurzen Zeitabständen wird die Kanban-Sammelbox entleert. Die Produktionskanbans stellen die Fertigungsaufträge für die Stelle dar. Das Material, das mit Hilfe der Produktionskanbans angefordert wurde, wird hergestellt und in leere Behälter gelegt. Die aufgefüllten Behälter werden jeweils mit den dazugehörigen Produktionskanbans versehen, und in das Pufferlager transportiert, so dass die Materialien für die nachfolgende Produktionsstätte wieder zur Entnahme bereitstehen. Um die Materialien, die in das Pufferlager transportiert wurden, herstellen zu können, benötigt die Produktionsstelle selbst Materialien von der vorangehenden Stelle. Diese Input-Materialien werden in einem Pufferlager zwischengelagert. Bevor die Materialien verbraucht werden, werden den Behältern die Transportkanbans entnommen und in eine Sammelbox gelegt. Während des Produktionsvorganges werden die Materialien aus den Behältern entnommen. Wenn sich eine genügend große Anzahl von Transportkanbans in der Sammelbox angehäuft hat, begibt sich ein Mitarbeiter mit den Transportkanbans und den leeren Behältern zur vorhergehenden Produktionsstelle, deckt sich dort mit gefüllten Behältern ein und löst wieder eine Nachfrage aus, wie dies bereits in erläutert wurde. Franz Wirl: Industriebetriebslehre 165 Abbildung 5. 8 (Quelle: Fandel-Francois, S. 24f.) Wichtigste Prinzipien: Die Kanbansteuerung zwischen dem Zulieferer und dem Abnehmer verläuft nach dem Bringprinzip (also traditionell). Hingegen gilt innerbetrieblich (mit Ausnahme des Fertigwarenlagers) das Holprinzip. Da sich beim Holprinzip die jeweils nachfolgende Stelle bei der vorangehenden Produktionsstelle eindecken muss und kleinere Störungen in der Produktion ausgeglichen werden müssen, werden die Pufferlager benötigt. Aber auf Grund der kleinen Losgrößen unter JIT haben diese nur geringen Bestand. 1. Produktion Just in Time Voraussetzungen und Grenzen: Kleine Losgrößen müssen sich wirtschaftlich realisieren lassen. Diese kleinen Losgrößen führen dann zu geringeren Lagerbeständen, kürzeren Durchlaufzeiten und erhöhter Flexibilität bei Lieferungen. Die Wirtschaftlichkeit kleiner Losgrößen ist aber nur dann gegeben, wenn die Rüstzeiten gering bleiben, etwa durch die Möglichkeit des Umrüstens (zumindest teilweise) bei laufenden Maschinen oder durch neue Anlagen mit automatischer oder halbautomatischer Umrüstung. Bemerkung: Die Minimierung der Rüstzeiten ist ein allgemeines Prinzip der Anlagenwirtschaft der industriellen BWL und nicht nur von JIT. Vermeiden von Neuplanungen und Wiederverwendbarkeit von Kanban-Karten kann durch ständig wiederkehrende Produktionsabläufe gesichert werden. Bsp: Komplettausstattung japanischer Autos (im Vergleich zu deutschen Autohändlern, wo sehr viele Zusatzelemente noch zum Listenpreis dazu gebucht werden müssen.) Keine starken Schwankungen im Produktprogramm Bsp: Über 10-30 Tage Produktion mit täglich gleichem Modellmix, was geglätteten Bedarf voraussetzt. Gut für JIT geeignet sind demnach X-Teile (konstanter Bedarf), maximal Y (schwankender Bedarf). Weiters A und B Teile (also solche mit hohem Verbrauchswert pro Jahr), weil dadurch Lagerkosten signifikant reduziert werden können. C oder Z Teile sind für JIT nicht geeignet! Franz Wirl: Industriebetriebslehre 166 Hohe Qualität der zu fertigenden Teile weil sonst häufig Fehlbestände im Pufferlager auftreten. Um diese hohe Qualität zu gewährleisten braucht man auch verstärkte Qualitätskontrolle, und zwar durch die produzierenden Arbeitskräfte selbst, oder automatisch. Es liegt also hohe Verantwortung bei den Teams und Mitarbeitern, dies führt auch zu höherer Motivation.(Einzelne werden durch den Druck der Teamkollegen, die insgesamt ein gutes Ergebnis erzielen wollen, angespornt.) Eine weitere Möglichkeit zur Qualitätsverbesserung besteht in der Anschaffung neuer Betriebsmittel und/oder Anwendung neuer Verfahrenstechniken. Aufstellung der Betriebsmittel soll nach dem Betriebsfluss und unter Vermeidung langer Transportwege erfolgen Der Produktionsprozess muss JIT-geeignet sein JIT kann bei kontinuierlichen Verfahren, wie z.B. Roheisengewinnung oder Aluminiumschmelze nicht eingesetzt werden. Auch für eine diskontinuierliche Chargenproduktion ist es wegen großer Lose ungeeignet. Ein Prozess ist für JIT geeignet, wenn er nach Fertigstellung einer Einheit unterbrochen werden kann (offene Produktion). Bei der Einzelauftragsproduktion (z. B. Baustellen) gibt es kaum repetitive Abläufe weshalb sie für JIT ungeeignet ist. Ein Serien-Auftrag erfüllt zwar die Bedingung für repetitive Abläufe, aber es stellt sich die Frage, ob die Ersparnisse durch JIT wirklich hoch genug sind, dass die hohen Umstellungskosten nur für die Dauer des Auftrages sich auszahlen. Angebotsproduktion für Großserien und Massenfertigung ist für JIT geeignet. Wirtschaftlichkeitsüberlegungen: Vorteile der JIT – Produktion: + kleinere Losgrößen führen zu kürzere Durchlaufzeiten + geringere Materialbestände bei gleich hoher Termineinhaltung + geringere Bestände und kürzerer Durchlauf bewirken bessere Übersicht über den Materialfluss + hohe Selbststeuerung bedeutet geringen Steuerungsaufwand, geringere Anforderungen an die Datenverarbeitung + geringere Bestände erlauben besseres Erkennen von operativen Schwachpunkten + höhere Motivation führt zu höherer Arbeitsproduktivität (Entlohnungsbestandteile auf Teambasis) + gelegentliches ‚rock the boat‘ erlaubt Schlupf im System zu eliminieren. Wenn eine Panne passiert, und es dadurch zu keinerlei Engpässen kommt, dann existieren bei Normalbetrieb im Prozess noch „Polster“, die man eventuell eliminieren kann. Andererseits geben Stellen, an denen häufig Pannen auftreten Hinweise auf Schwachstellen. Nachteile der JIT Produktion: - Wegen der geringen Puffer kann es zu Störungen kommen, die sich dann über das System fortpflanzen. So etwas geschah 1998 bei Toyota. Auch Ford konnte1998 einige Wochen nicht produzieren, da ein Hersteller von Schlössern aufgrund eines Streites seine Lieferungen eingestellt hatte. - Wie bereits angesprochen, ist JIT bei starken Nachfrageschwankungen ungeeignet. - Sonderfertigungen sind schwierig ins System einzubringen. (Dazu gibt es aber auch einige Gegenbeispiele von Firmen, die es schaffen, Sonderanfertigungen im Rahmen eines JIT-ähnlichen Systems zu bauen.) Kosten der JIT Produktion: Anpassungskosten sind Kosten: - für die Planung des Kanban-Systems, - Ermittlung der für JIT geeigneten Bereiche, - Einplanung von Transport und Puffern, Beschaffung der Behälter, Konstruktion der Regelkreise, Schulungsmaßnahmen für die Mitarbeiter. Als Kosten, die nach der Einführung des JIT-Systems permanent anfallen, sind zu erwarten: - Kosten für vorbeugende Instandhaltung, - zusätzliche Qualitätssicherung. Franz Wirl: Industriebetriebslehre 167 2. Beschaffung Just in Time Voraussetzungen und Grenzen: Voraussetzung sind standardisierte Bestellvorgänge, elektronische Kanbans informationstechnische Integration, da es ansonsten zu hohen bestellfixen Kosten kommt. Zulieferer muss zur JIT-Lieferung bereit sein. und In der Autoindustrie ist dies meist durch die Marktmacht der Automobilfirmen gewährleistet. Hohe Qualität der Lieferung Oft übernimmt der Lieferant die Verantwortung für die Warenprüfung, wobei oft Qualitätsingenieure des Abnehmers vor Ort Qualitätsprüfungen vornehmen. ABC-Analyse hinsichtlich Qualität (hoch, mittel, gering). Unter JIT spielt die Qualität der gelieferten Waren eine höhere Rolle, was bei der Lieferantenauswahl berücksichtigt werden sollte. Transportbedingungen Aufgrund der ablauftechnischen Integration des Zulieferers müssen die Transporte weitgehend störungsfrei verlaufen, die Zuverlässigkeit sowohl des Lieferanten als auch des Spediteurs muss gegeben sein. Warenannahme Aufgrund von JIT kommt es zu kleineren (weil ja die Lager vor Ort gering gehalten werden sollen), aber natürlich dafür häufigeren Lieferungen. Es muss also hinreichende Kapazität bei den Warenannahmen, vorhanden sein, um Warteschlangen bei der Löschung zu vermeiden oder zumindest kurz zu halten. Auch die JIT-Beschaffung ist also vor allem für A - und B - Teile und mit regelmäßigem (X) bis schwankendem (Y) Bedarf geeignet. Wirtschaftlichkeitsüberlegungen: Vorteile der JIT Beschaffung: + geringe Kapitalbindungskosten + geringe Lagerhaltungskosten + geringe Investition für Lagerraum (Bemerkung: diese Vorteile gibt es auch bei Anwendung der traditionellen Produktionsbewirtschaftung!) Nachteile der JIT Beschaffung: - höhere bestellfixe Kosten - aufgrund höherer Bestellintensität besteht Mehrbedarf für Transportmittel und Entladekapazitäten - erhöhte Einstandspreise (da an den Lieferanten höhere Anforderungen bezüglich Qualität und Übernahme der Lagerkosten gestellt werden, und er dafür kompensiert werden muss) 6.2.4 Lean Management Ergänzend zu Just in Time soll in diesem Abschnitt den Studierenden der allgemeinere Begriff Lean Management nahegebracht werden. Zuerst wird auf den Artikel Is Lean Production Really Lean? von Joachim Reese eingegangen, wobei sich auch zeigen wird, dass Lean Management zu suboptimalen Lösungen führt. Dies wird ergänzt durch einige aktuelle Fallbeispiele. Theorie: Das Herz von Lean Management ist die Produktion. Eine wichtige Voraussetzung ist die Bildung stabiler Gruppen, sogenannter Rugby Teams. Jede Gruppe operiert so, dass dazwischen kein Puffer ist, also just in time. Die Qualitätskontrolle findet in der Gruppe statt. Während die Produktivität eindeutig messbar ist, gilt dies nicht für Flexibilität. Flexibilität kann definiert werden als jene Menge an Nachfragen, die bei gegebener Charakterisierung s (z.B. installierte Kapazitäten) erfüllt werden kann. Also als jener Nachfrageraum für die installierten Produktionskapazitäten, in dem die Nachfrage erfüllt werden kann, oder in dem Nachfrageschwankungen ausgeglichen werden können. {d| x(s) ≥ d}, x = Produktion, d = Nachfrage. Franz Wirl: Industriebetriebslehre 168 Der Parametervektor s beschreibt nicht nur Personal und physikalisch verfügbare Anlagen, sondern alle verfügbaren Ressourcen, weil sonst eine „schlanke“ Organisation komplett inflexibel wäre und bei jeder zukünftigen Nachfrageerhöhung zusammenbrechen würde. Ein Beispiel für einen sehr unflexiblen Produktionsprozess ist die Aluminiumschmelze, die nicht stillgelegt werden kann, weil sonst das Rohmaterial wieder eintrocknet, und nur beschränkte Kapazitäten hat. Keine Ablehnung von Aufträgen. Die folgende Abbildung 5.9 zeigt, an welchen Stellen in einem Probleme auftreten können. Lean Production System welche Abbildung 5.9 „Lean production System“ (aus Reese (1993). Vergleich zwischen einem traditionellen und einem Lean Management Produktionssystem t = 1,...,T Perioden n = 1,...,N Produkte m =1,...,M Anlagen x = Outputvektor d = min {d1,...,dT} minimale Nachfrage A = (M x N) technische Koeffizientenmatrix b = (M x 1) Kapazitäten c = Kosten je Kapazitätseinheit. Der Gewinn soll maximiert werden: max p * x − c * b b (wobei p, x, c und b Vektoren sind). Nebenbedingung: Ax ≤ b (die Kapazitäten dürfen nicht überschritten werden.) Obige Angaben gelten für beide Systeme. Beim traditionellen System ist allerdings x = max {d1,...,dT}, Grundlage für die Wahl der Kapazität (bzw. ein gewinnmaximierender Kosten-Nutzenausgleich) während unter Lean Management, x = d, Franz Wirl: Industriebetriebslehre 169 gilt, das heißt die Kapazität ist auf den minimalen Bedarf ausgerichtet. Beispiel 1: 1 Produkt, 1 Anlage c c* Lohn für reguläre Arbeit Lohn für Überstunden b b* normale Arbeitszeit Überstunden Tabelle 5.3 Periode a=xt=dt c c* b (lean) b* (lean) Schlupf (lean) b (trad) b* (trad.) Schlupf (trad.) 1 8 2 4 6 2 0 8 0 0 2 10 2 4 6 4 0 8 2 0 3 6 2 4 6 0 0 6 0 -2 Im Lean Management wird die Kapazität am Minimum eingerichtet, es werden also 6 Arbeitseinheiten angestellt, es werden also in der ersten Periode 2 Überstunden und in der zweiten 4 Überstunden benötigt, Schlupf gibt es nicht. Die Kosten betragen demnach: 3*6*2 + 4*2+4*4= 60. Nach der traditionellen Vorgangsweise sollen die Gesamtkosten minimiert werden, daraus erhält man eine optimale Lösung mit 8 Arbeitseinheiten. Daraus ergibt sich, dass in der zweiten Periode 2 Überstunden benötigt werden, während in der dritten Periode 2 Stunden überflüssig sind. Daraus ergeben sich Kosten von 8*2*3 + 2*4 = 56. Die Lösung unter Lean Management ist also suboptimal. Beispiel 2: Koordination – Scheduling Minimiert werden sollen die Kosten: M min ∑ t mn N ∑c m =1 n =1 t x , mn mn n wobei x für die Anzahl der Produkteinheiten von n steht, tmn sind die Verweilzeiten und cmn sind die Kosten von Produkt n auf der Anlage m. Die Nebenbedingung ist, dass das Lieferdatum eingehalten werden muss: M ∑t m =1 mn x n ≤ Tn Als Beispiel nehmen wir 3 Produkte, 2 Maschinen und T= 50. Tabelle 5.4 Produkt Stufe 1 Stufe 2 t1n c1n t2n c2n 1 10 50 20 150 2 20 100 5 110 3 10 80 15 120 Beim JIT-Ansatz, beginnen wir mit der Optimierung auf der zweiten Stufe, und erhalten mit Probieren die kostenminimale Produktionssequenz 1,3,2. Zuerst kommt Produkt 1, das 20 Zeiteinheiten benötigt, dann Produkt 3 mit 15 Zeiteinheiten, darauf folgt Produkt 2 mit 5 Zeiteinheiten. Produkt 2 liegt also nur 5 Zeiteinheiten im System, Produkt 3 insgesamt 15+5 = 20, und Produkt 1 15+5+20= 40. Daraus ergeben sich die Kosten: 40*150 + 5*110 + 20*120 = 8.950,Da die Reihenfolge für Stufe 2 schon vorgegeben ist, bleibt nur noch eine Möglichkeit, wie man die Stufe 1 ordnen kann, um rechtzeitig fertig zu werden, nämlich 1,3,2. (Damit man sobald wie möglich auf Stufe 2 Franz Wirl: Industriebetriebslehre 170 mit dem ersten Produkt anfangen kann, muss man natürlich auch auf Stufe 1 mit diesem anfangen, weil nur noch 10 Zeiteinheiten zur Verfügung stehen.) Stufe 2 Produkt 1 (20) Stufe 1 t Produkt 1 (10) 0 5 (5) 10 Produkt 3 (15) Produkt 3 (10) 15 20 Prod. 2(5) Produkt 2 (20) 25 30 35 40 45 50 Produkt 1 bleibt nun insgesamt 10 Zeiteinheiten auf der Stufe, Produkt 3 bleibt 10 +5 (Wartezeit, bis es auf Stufe 2 weiterbearbeitet werden kann) Zeiteinheiten auf Stufe 1 und Produkt 2 bleibt 20 Zeiteinheiten. Die resultierenden Kosten sind: 10*50 + 15*80 + 20*100 = 12.650,Der sequentiell auf der Basis von JIT abgeleitete Produktionsplan ist nicht kostenoptimal, denn die folgende Abfolge (3, 1, 2) auf beiden Stufen verursacht geringere Kosten; die Überprüfung ist dem Leser überlassen. Stufe 2 Produkt 3 (15) Stufe 1 t Produkt 3 (10) 0 6.2.5 5 (5) 10 Produkt 1 (20) Produkt 1 (10) 15 20 Prod. 2(5) Produkt 2 (20) 25 30 35 40 45 50 Fallbeispiele zu Lean Management und JIT Grundlage für die folgenden Fallbeispiele sind die beiden Aufsätze von James Womack/Daniel Jones: From Lean Production to the Lean Enterprise, Harvard Business Review March-April 1994 und Toyota: How to Root Out Waste and Pursue Perfection, Harvard Business Review Sept-Oct. 1996. LUCAS plc. Lucas plc ist ein britischer Anbieter von mechanischen und elektrischen Bauteilen und Komponenten für die Automobil- und Flugzeugindustrie. Es war 1983 eine der ersten britischen Unternehmen, die LeanManagementtechniken einführten, mit der Unterstützung des Prof. John Parnaby. Laut dem „Lean Management Guru“ James Womack brachte dies zunächst dramatische Erfolge: beispielsweise wurde der Prozentsatz zeitgerecht ausgelieferter Aufträge von kläglichen 25% auf 98% gesteigert. Aber es kam bald zu Problemen, weil die für das Funktionieren von Lean Management unbedingt notwendigen Komplementäritäten nicht gegeben waren. Die wichtigsten Kontraktpartner - Rover und Ford - organisierten ihre Produktion und Beschaffung traditionell und plazierten daher ihre Aufträge in einer unprognostizierbaren Art und Weise. Deshalb war Lucas gezwungen, entsprechende Lagerbestände halten. Dies ist eine Todsünde für Lean Management, weil durch die Existenz von Lagerbeständen der Druck auf die Mitarbeiter, rechtzeitig und zuverlässig produzieren zu müssen - damit nicht das ganze System stillsteht - und damit der Fluss verschwindet. Also nimmt die schlanke Unternehmung unweigerlich wieder an Gewicht zu. Dies war verbunden mit internen Konflikten und großen Problemen und es führte zur Übernahme von LUCAS durch TRW im Jahre 1999. Dieses Beispiel soll nochmals betonen, dass beim Einführen von Lean Management besonders auch auf die Schnittstelle zu den Abnehmern und den Lieferanten zu achten ist. UNIPART Unipart wurde 1987 gegründet und ist das Ergebnis eines Verkaufes unterschiedlicher, hoch autonomer Einheiten und Funktionen von Rover an die Arbeitnehmer (management buy-out). Unipart organisierte diese Einheiten in unabhängigen Divisionen, z. B.: Autoteileproduktion, Warenhaus, Verteilung und Vertrieb, Marketing, Informationssystem, Videoproduktion, Mobiltelefone etc. John Neill, der CEO, machte aus UNIPART, und jeder seiner Abteilungen eine schlanke Unternehmung. Der Bereich Autoteileproduktion (Tanks und Auspuff) war bei der Einführung von Lean Management Techniken sehr erfolgreich und erzielte enorme Effizienzsteigerungen. Deshalb wurde er aufgefordert, sein Wissen den anderen Abteilungen zu vermitteln. Aus diesen internen Schulen und Ausbildungen resultierte die Gründung der Unipart University. Jede Abteilung hat damit eigene „Fakultät“ als Zentrum von Expertisen. Dies soll ein Beispiel für die große Bedeutung von internen Schulungen bei Lean Management sein. Franz Wirl: Industriebetriebslehre 171 LANTECH, Louisville, Kentucky Lancaster hatte 1972 die Idee, Paletten mit Plastik zu umhüllen und dadurch den innerbetrieblichen Transport zu ermöglichen. Im Gegensatz zu herrschenden Verfahren - loses Plastik über die Paletten zu stülpen und dann mittels Hitze zu schrumpfen - zog und spannte das Verfahren von Lancaster das Plastik über die Paletten; damit konnte er das 7.5-fache an Größe einpacken. Mit Ausgangsinvestitionen von $ 300 und einfachen Werkzeugen wurde die erste Maschine hergestellt, und gleichzeitig das Verfahren mittels weit reichender Patente abgesichert. Diese Patente sicherten ihn vor Nachahmungen und bereits 1979 hatte das Unternehmen einen Umsatz von $ 13,4 Millionen und 158 Angestellte. Obwohl LANTECH wie jedes kleine Unternehmen, schlank begann, führte dieser Aufschwung zu einer Änderung der Organisation, wofür entsprechende Manager angeheuert wurden. Aus Gründen der produktionstechnischen Effizienz wurde in Losgrößen von 10-15 Maschinen produziert. Da davon jeweils nur eine Maschine unmittelbar zu verkaufen war, standen viele fertige Maschinen auf dem Lager herum. Jedoch die Komplexität des an sich bereits komplizierten Ablaufes wurde noch schlimmer, als die Aufträge unabhängiger Verkäufer sowohl durch das Büro als auch die Fabrik abgearbeitet wurden. Insbesondere die teureren Maschinen - von ca. $ 10,000 bis $ 150,000 - wurden speziell dem Konsumentenwunsch angepasst, was aber eine Rückfrage bei Lantech nach dem endgültigen Preis erforderte. Auf Grund zahlreicher Engpässe dauerte diese Abarbeitung bis zu 14 Tagen, obwohl die eigentliche Durchlaufzeit nur 2 Tage betrug. Wichtig: Auf Grund dieser inhärenten Verzögerungen, versuchten die Verkäufer, das System zu schlagen, indem spekulativ „Aufträge“ platziert wurden, die dann bei tatsächlichem Auftrag entsprechend modifiziert wurden. Dadurch kam es zu einem völlig chaotischen Ablauf. Ähnlich verzögert verlief die Entwicklung neuer Maschinen. Es wurde bis zu einem Jahr für kleinere Änderungen benötigt und bis zu 3-4 Jahre für neue Maschinen (Kommunikationsbarrieren). Zusammenfassend: LANTECH organisierte seine drei wichtigsten Aktivitäten: Entwicklung neuer Maschinen, Verarbeitung der Information was zu erzeugen ist, und die Produktion an sich in einem traditionellen Losgrößen Warteschlangenkonzept. Viele der einzelnen Schritte brachten keinen zusätzlichen Wert, nichts „floß“, die Konsumenten konnten nicht „ziehen“ (pull) und das Management versuchte sich im „Glätten“ anstatt in der Perfektionierung des Ablaufes. Dies ging trotz mittelmäßiger Qualität der Endprodukte bis 1989 gut, weil die Konkurrenz durch die Patente eher beschränkt war. In diesem Jahr verlor LANTECH jedoch gegen einen Konkurrenten eine Patentschutzklage, was den Markt für Konkurrenten eröffnete und Preisverfall hervorrief. Es wurden daraufhin verschiedenste Versuche einer Reorganisation gestartet, wobei fast immer die gerade aktuellen „Management-Moden“ angewandt wurden. Erster Versuch: Profitzentren. Zweiter Schritt einer Reorganisation: Ersetzen orthodoxer, kommandoorientierter Manager durch Manager mit Teamgeist und Organisation in Teams. Da jedoch das verbindende Element fehlte, blieb der Ablauf in der Fabrik ein Chaos. Daher spielten Verkäufer weiter ihre Spiele. Dritter Versuch: Max-Flex. Die Idee dabei war, die langen Durchlaufzeiten zu bekämpfen, indem alle wichtigen Bestandteile auf Lager gehalten wurden, um dann schnell eine Maschine entsprechend den Kundenwünschen zusammenzustellen. Dadurch sollte der Preisnachteil durch schnellere Lieferung ausgeglichen werden. Tatsächlich fiel die Verzögerung von 16 auf 4 Wochen, aber der Preis dafür war enorm. Dazu ein Zitat von Taiichi Ohno, dem „Urvater“ von JIT und Lean Management: „Je mehr man auf Lager hat, desto geringer ist die Wahrscheinlichkeit den Teil auf Lager zu haben, den man eigentlich braucht.“ Vierter Versuch mittels Informationstechnologie, „Data to the People“, jeder Arbeitnehmer hatte alle Produktionsdaten immer zur Verfügung, nicht nur die von ihm gebrauchten. „The old MRP system was slow but 99% accurate. Our new democratic system was a complete catastrophe.“ Ab 1991 fielen die Aufträge trotz Preisnachlässen, und das Unternehmen begann Geld zu verlieren. Seit 1992 werden Lean Managementtechniken angewandt Notwendige Voraussetzung für einen solchen Übergang sind drei Arten von Führungspersönlichkeiten: Eine, die mit dem Geschäft eine langfristige Verpflichtung eingeht, hier der Eigentümer und Entrepreneur Lancaster, der notwendige Anker für Stabilität und Kontinuität. Eine mit tiefem Verständnis für schlanke Organisationsformen, und eine, die die Barrieren und Opposition, die bei jeder Umstellung existierender Strukturen entstehen, aus dem Weg räumen kann. Spezieller Vorteil von LANTECH: Das Produkt wurde von Kunden tatsächlich gewünscht, somit war der erste Schritt des Lean Management – nämlich die Definition des Produktes aus der Sicht des Käufers - bereits erfüllt. Franz Wirl: Industriebetriebslehre 172 Es wurden spezielle Produktionsprozesse für jede der vier Produktfamilien eingerichtet und dabei die Produktionsabteilungen eliminiert und die Maschinen umgruppiert, sodass alles zur Fertigung einer Maschinenfamilie in einer der vier Produktionszellen vorhanden war. Dies wurde mittels des neuen Q-Modells implementiert. Innerhalb einer Woche war die Fertigung entsprechend diesem Zellenkonzept umgruppiert, nur die Lackiererei blieb als zentrales „Monument“ erhalten, doch nach dem Tauchbad im Lack kehrte das Modell in seine „Zelle“ zur Endfertigung zurück. Jeden Morgen und zu jeder Stunde wird jetzt mit einer neuen Maschine begonnen und 14 Stunden später ist diese Maschine fertig. Da die Fertigung ohne Lager und Puffer abläuft, mussten alle Handgriffe so abgestimmt und synchronisiert werden, das alles dieselbe Zeit benötigt und im ersten Schritt passt. Auf Grund dieses Design läuft entweder alles glatt und stetig, oder es kommt überall zu einem Stopp. Da jede Maschine nur nach Auftragseingang tatsächlich gefertigt wird führte man „Takte“ein. Zum Beispiel, beläuft sich der Takt bei einer Schicht von 8 Stunden und einer Bestellung von 16 Maschinen auf eine halbe Stunde. Dies hat zweierlei Effekte: Die Tendenz, zu schnell aber dafür auf Lager zu produzieren, wird eliminiert und bei Schlupf (hohe Taktzeiten) können Arbeiter für Wartungsarbeiten abgezogen werden. Weiter ermöglicht eine Verkürzung des Taktes im Falle einer Nachfrageerhöhung, herauszufinden, ob nicht eine Maschine noch schneller zusammengebaut werden kann, was wiederum hilft zukünftige Verschwendung zu reduzieren. Auftretende Anfangsprobleme wurden vom Produktionsmanager, der sich mit dem neuen System dann identifizierte, beseitigt. Das informationstechnische Planungsinstrument aus dem vierten Reorganisationsversuch wurde durch eine weiße Tafel ersetzt, und das computerisierte MRP diente nur noch den Lieferanten zur Prognose. 1992 war die Umstellung beendet. Pratt & Whitney Pratt & Whitney ist ein Hersteller von Flugzeugturbinen, das zur United Technologies Gruppe gehört. Dieses Beispiel wurde gewählt, weil hier „lean“ nicht nur als Schlankheit, Knappheit die Arbeitskräfte betreffend gesehen wird, sondern auch mit bezug auf das Kapital. Es wurden hier nicht – wie sonst häufig üblich – viele Arbeitskräfte durch Kapital substituiert. Das alte Produktionssystem bei Pratt &Whitney war computergesteuert und stark automatisiert. Es hatte zwar nur 3 Minuten Durchlaufzeit pro Turbinenblatt, allerdings dauerte die Umrüstung auf eine andere Blattgröße oder einen anderen Blatttyp bis zu 8 Stunden. Außerdem musste jedes Blatt auf einen speziellen Rahmen angeschweißt werden, damit es für die hochkomplizierte Fräsmaschine handhabbar war. Aufgrund der hohen Umrüstzeit wurden jeweils mehrere Blätter desselben Typs erzeugt und auf Lager gelegt, und dann umgerüstet. Es herrschte also ein diskontinuierlicher Produktionsverlauf mit Lagern, was bekanntlich der Lean Management Methode widerspricht. Es erfolgte ein Umstieg auf ein System von einfachen Fräsmaschinen, die jeweils von einem Facharbeiter und einer Hilfskraft bedient wurden. Das Fräsen pro Blatt nimmt zwar nun 75 min. in Anspruch, doch in dieser Zeit ist das Umrüsten schon inkludiert! Dadurch ist die effektive Durchlaufzeit durch das Unternehmen von 10 Tagen auf 75 Minuten gefallen, die Lagerbestände sind auf ein Hundertstel gefallen, die Kosten wurden halbiert und die Kosten pro Stück sind auf ein Drittel zurückgegangen. Franz Wirl: Industriebetriebslehre Toyota 173 22 Toyota makes lots of money and is overtaking General Motors to lead the world's car industry. What is the secret of its success? 6 7 8 9 0 1 2 3 4 5 6 THERE is the world car industry, and then there is Toyota. Since 2000 the output of the global industry has risen by about 3m vehicles to some 60m: of that increase, half came from Toyota alone. While most attention over the past four years has focused on a spectacular turnaround at Nissan, Toyota has undergone a dramatic growth spurt all round the world. Japan's industry leader will soon be making more cars abroad than at home. It has overtaken Ford in global production terms and is set to pass Chrysler in sales to become one of America's Big Three. In an industry strewn with basket cases, where hardly any volume producer makes a real return on its capital, Toyota is exceptional in that it consistently makes good returns (see chart 1). 7 8 9 0 1 2 3 Toyota's ebullient chairman Hiroshi Okuda has made little secret that he wants the company to win 15% of the global car market, snatching leadership from General Motors. Having reached Global Ten (10% of the world market) Mr Okuda has his eyes focused on his new goal. “It's just to motivate employees,” says Fujio Cho, Toyota's more downbeat president. “Somehow news of the banners in our factories leaked out,” he says disingenuously, as if you could keep such a secret after it has been blazoned to 264,000 workers around the world. Market capitalisation says it all. Toyota is worth more than the American Big Three put together, and more than the combination of its successful Japanese rivals, Nissan and Honda. Last year Nissan may have outperformed Toyota in terms of operating margin, but over the long haul it has been the provincial powerhouse from Aichi prefecture near Nagoya that has consistently shown the way. First, of course, it taught the modern car industry how to make cars properly. Few had heard of the Toyota Production System (TPS) until three academics in the car industry study programme run by Massachusetts Institute of Technology (MIT) wrote a book in 1991 called “The Machine that Changed the World”. It described the principles and practices behind the “just-in-time” manufacturing system developed at Toyota by Taiichi Ohno. He in turn had drawn inspiration from W. Edwards Deming, an influential statistician and quality-control expert who had played a big part in developing the rapid-manufacturing processes used by America during the second world war. At the core of TPS is elimination of waste and absolute concentration on consistent high quality by a process of continuous improvement (kaizen). The catchy just-in-time aspect of bringing parts together just as they are needed on the line is only the clearest manifestation of the relentless drive to eliminate muda (waste) from the 22 The car company in front, Jan 27th 2005 The Economist print edition Franz Wirl: Industriebetriebslehre 174 manufacturing process. The world's motor industry, and many other branches of manufacturing, rushed to embrace and adopt the principles of TPS. In the process American and European cars went from being unreliable, with irritating breakdowns, leaks and bits dropping off in the 1970s, to the sturdy, reliable models consumers take for granted today. In real terms car prices may only have edged down over the past two decades compared with the drastic reductions seen in personal computers and all consumer-electronics goods. But the quality, content and economy of today's cars is incomparable with what was on offer 30 years ago. The main credit goes to the Japanese, led by Toyota. High petrol prices drove American consumers to buy economical Japanese imports; high quality kept them coming back. Europeans, too, were quick to see the attraction of cars that seldom broke down, unlike the native varieties. When trade barriers were erected, the Japanese built their plants inside them. Toyota may have been slower than Honda or Nissan to expand abroad, but its manufacturing method gave it an advantage once it did so. So Toyota's success starts with its brilliant production engineering, which puts quality control in the hands of the line workers who have the power to stop the line or summon help the moment something goes wrong. Walk into a Toyota factory in Japan or America, Derby in Britain or Valenciennes in France and you will see the same visual displays telling you everything that is going on. You will also hear the same jingles at the various work stations telling you a model is being changed, an operation has been completed or a brief halt called. Everything is minutely synchronised; the work goes at the same steady cadence of one car a minute rolling off the final assembly line. Each operation along the way takes that time. No one rushes and there are cute slings and swivelling loaders to take the heavy lifting out of the work. But there is much more to the soul of the Toyota machine than a dour, relentless pursuit of perfection in its car factories. Another triumph is the slick product-development process that can roll out new models in barely two years. As rival Carlos Ghosn, chief executive of Nissan, notes in his book “Shift” (about how he turned around the weakest of Japan's big three), as soon as Toyota bosses spot a gap in the market or a smart new product from a rival, they swiftly move in with their own version. The result is a bewildering array of over 60 models in Japan and loads of different versions in big overseas markets such as Europe and America. Of course, under the skin, these share many common parts. Toyota has long been the champion of putting old wine in new bottles: over two-thirds of a new vehicle will contain the unseen parts of a previous model. Pleasing Mrs Jones Spend some time with Toyota people and after a time you realise there is something different about them. The rest of the car industry raves about engines, gearboxes, acceleration, fuel economy, handling, ride quality and sexy design. Toyota's people talk about “The Toyota Way” and about customers. In truth, when it is written down the Toyota creed reads much like any corporate mission statement. But it seems to have been absorbed by Japanese, European and American employees alike. Mr Cho thinks something of the unique Toyota culture comes from the fact that the company grew up in one place, Toyota City, 30 minutes drive from Nagoya in central Japan, where the company has four assembly plants surrounded by the factories of suppliers. In this provincial, originally rural setting, Toyota workers in the early days would often have small plots of land that they tended after their shift. Mr Cho, who made his career in the company by being a pupil of Mr Ohno and becoming a master of production control, thinks that the fact that Toyota managers and their suppliers see each other every day makes for a sort of hothouse culture—rather like Silicon Valley in its early days. Jim Press is boss of Toyota's sales in North America. He left Ford in frustration 35 years ago, because he did not think it handled customer relations properly and he suspected that the upstart Japanese company making its way in the American market might do better. He was right. Toyota shares a production plant in California with GM. Identical cars come off the line, some badged as GM, the rest as Toyotas: after five years, according to one study by Boston Consulting Group, the trade-in value of the Toyota was much higher than that of the American model, thanks to the greater confidence people had in the Toyota dealer and service network. 47 48 49 50 51 52 Mr Press talks with a quiet, almost religious, fervour about Toyota, without mentioning cars as such. “The Toyota culture is inside all of us. Toyota is a customer's company,” he says. “Mrs Jones is our customer; she is my boss. Everything is done to make Mrs Jones's life better. We all work for Mrs Jones.” 53 54 55 56 57 58 59 But not even the combination of its world-leading manufacturing, rapid product development and obsessional devotion to customer satisfaction is enough to explain Toyota's enduring success. There is one more ingredient that adds zest to all these. Tetsuo Agata doubles as general manager of Toyota's Honsha plant in Toyota City and as the company's overall manufacturing guru. The magic of Franz Wirl: Industriebetriebslehre 175 Toyota's winning culture was summed up for him by an American friend who observed that Toyota people always put themselves “outside the comfort zone”: whenever they hit one target, they set another, more demanding one. That relentless pursuit of excellence certainly explains much of what has been happening to the company in recent years, at home and abroad. The strain of going global Life started changing for Toyota when the economic bubble burst in Japan at the start of the 1990s. First it had to work hard to improve its competitiveness as the yen strengthened. Mr Okuda, president in the mid-1990s, launched a programme of cost-cutting to make the company's exports competitive even at a yen level of only 95 to the dollar. When costs fell and the yen subsequently weakened, Toyota reaped a double reward. But the company also had to face up to a car market at home that slumped from nearly 6m sales a year to just over 4m. And Toyota has had to respond to renewed competition in its domestic market, after an aggressive push by Honda and the revival of Nissan. One reaction by Mr Cho to tough competition at home has been a further round of cost cuts that have helped Toyota re-build market share in Japan from 38% in the mid-1990s to 44.6% last year, helped partly by windfall sales after the implosion of Mitsubishi Motors. But European imports of Volkswagens, BMWs and Mercedes cars have mopped up 7% of the Japanese market, mostly for premium models, and forced Toyota to introduce its luxury Lexus brand into Japan. Until now, cars that Americans and Europeans have known as Lexuses have been sold as plain old Toyotas in Japan. Now Mr Cho has decided, as part of a wider reorganisation of Toyota's distribution network, to sell these vehicles separately with the Lexus badge and support from their own up-market retail outlets. One of Toyota's strengths has been its army of privately owned car dealers, long organised into five competing channels, each one more or less specialising in different parts of the range. The multiplicity of distribution channels arose simply because of the rapid growth of the Japanese market and Toyota sales from the 1970s onwards. But in February 2003 Toyota administered what was called the Valentine's Day shock. It streamlined the number of channels down to four, including a new one aimed at the young people turned off by mainstream Toyota's staid image. (It is having to go even further in America with a separate sub-brand called Scion to appeal to young consumers.) Like all car companies Toyota in Japan has had to get used to a fragmentation of the market, which means there are no longer huge runs of a few bestselling models. The boss of the Tsutsumi plant, where the firm's trendy Prius hybrid cars are made, recalls the good old days when all they had to do was churn out half a million Camrys and Coronas. Today's lines have been adapted and made flexible so that no fewer than eight different models can be manufactured simultaneously. The Prius—despite its revolutionary engine—still has to share an assembly line in the Tsutsumi plant with several conventional models. Seeds of success Making all these changes at home is relatively easy compared with Toyota's biggest challenge, now that it has set itself the goal of making more cars outside Japan than at home. Apart from seeking to switch production to exports, Toyota also chased growth outside Japan by building three more plants in North America and two in Europe, starting with Derby in Britain, followed by Valenciennes in the north of France. Between 1993 and 2003, overseas production more than doubled to 2m units, while in Japan it declined from 3.5m to 3m before recovering in the later years to its old level, boosted by exports; about half of domestic production is exported. This globalisation process has transformed the size and shape of Toyota. In 1980 Toyota had 11 factories in nine countries; in 1990 it had 20 in 14 countries; today it has 46 plants in 26 countries. In addition, it has design centres in California and in France on the Côte d'Azur, and engineering centres in the Detroit area and in Belgium and Thailand. Although Japan remains its biggest single market, sales topped 2m in North America for the first time last year, and in Europe Toyota is passing through the 1m mark, with 5% of the market, after a long period of slow growth. The opening of plants in Turkey and France and the introduction of the European-designed Yaris small car have done much to make Toyotas more appealing to Europeans, while in America its entry (not without a few hitches) into the enormous market for pick-up trucks and sport-utility vehicles has been responsible for its steady march to beyond 10% of the market. It is now breathing right down the neck of Chrysler. Mr Cho acknowledges that such international growth and globalisation is the biggest change happening to the company. He sees his greatest challenge as maintaining Toyota's high standards in such areas as quality while it grows so fast across the globe. For Toyota has only recently started to transform the way it is run to make itself a truly global company rather than a big exporter with a string of overseas plants. Its top-heavy all-Japanese board has been drastically slimmed and five non-Japanese executives, including Mr Press, have been made managing officers, which means that they sit on the executive committee in Tokyo, but are also left free to run their overseas operations on a day-to-day basis without deferring to head office. For Toyota, that is a big step away from centralised rule by Toyota City. Franz Wirl: Industriebetriebslehre 176 Another leap has been the creation of a Toyota Institute, not just for training Japanese managers, but also for developing groups of executives from all over the world. The centre is expressly modelled on the Crotonville Centre that has played such a big part in the success of General Electric. By having squads of managers moving through development courses, head office can keep tabs on the potential of its people, whilst ensuring that they are thoroughly steeped in Toyota's way of doing things, whether it be in manufacturing, retailing, purchasing and so on. But globalisation and the rapid growth of production now in places such as China is also straining the learning process further down the hierarchy. Toyota has a flying squad of line workers who move around the world to train locals at new factories or move in to help out when there is a model change going on. These line supervisors train local workers. Toyota has also made astute use of joint-ventures to ease the strain of manning overseas operations: apart from its original one with GM in California, Toyota now has another with a local company in Turkey, with PSA Peugeot Citroën in the Czech Republic and in China, which is the fastest-expanding part of Toyota, in line with the country's rapid motorisation. Toyota reckons that it will learn much about purchasing more effectively in Europe from its French partner in the new joint-venture, which is preparing to unveil a budget car for the European market at the beginning of March at the Geneva Motor Show. But the company is finding there are limits to the number of Japanese managers and foremen who are prepared to work as expatriates, either on a temporary or permanent basis. So it has opened a Global Production Centre in a former production area in Toyota City. Here, on a given day you can see Filipino and Chinese workers being taught how to assemble Toyota cars. To get round obvious language barriers the instruction makes heavy use of video recordings and inter-active DVDs, a sort of automated, virtual version of watching how Nelly does it. The best gets better Perhaps the best single example of Toyota managers' aversion to taking it easy in the comfort zone is back where it started—in the mysteries of the TPS. Mr Agata, one of the firm's manufacturing experts, regards his job as inculcating the virtues of the TPS in a younger generation. But he has concluded that the company has to raise its game. “We have always proceeded by steady improvement,” he says. “But now we need to make step changes as well to keep ahead.” That means finding radically different ways of manufacturing things like bumpers or doors, reducing the number of parts, and developing new machines to form parts more economically. As GM's bonds sink towards junk status, and as Japanese carmakers steadily overhaul America's Big Three, it must be a chilling thought that Detroit's nemesis is working on ways to improve its performance. No wonder one GM planner mused privately that the only way to stop Toyota would be the business equivalent of germ warfare, finding a “poison pill” or “social virus” that could be infiltrated into the company to destroy its culture. What else could stop Toyota? Soon it will have the scale to outgun GM. A technological revolution will not threaten it, since Toyota is leading the way with hybrid electrics en route to full-scale fuel-cell electric cars. Consumer preference for exciting designs? Toyota has shown that it can play that game: there is a stylish edginess in recent models such as the Prius, Yaris, the new Avensis and even its venerable LandCruiser SUV. At least the man from GM put his finger on the key to Toyota's success. Provided its culture can be sustained as it goes from being an international Japanese company to a global one, then Toyota's future seems secure. 6.2.6 Fallstudie zu Beschaffung: Integration externer Unternehmen: How Chrysler Created an American Keiretsu, Harvard Business Review July-August 1996, 42-56. Keiretsu: Toyota und Nissan besitzen 20-50% der wichtigsten Zulieferer; wenig Zulieferer, die zum Großteil vom Erfolg der Autofirma abhängen (zu ca 2/3); 20% der Direktoren der Zulieferer waren vormals beim entsprechenden Autoerzeuger Chryslers traditionelle Politik war: • Design eines Autos, unabhängig von Zulieferern. • Ausschreibung für Bauteile, mit Zuschlag an den kostengünstigsten. Die Folgen: - kurzfristige Kontrakte => Zulieferer investieren so wenig wie möglich in spezifische Anlagen - viel Missvertrauen und Unzufriedenheit beiderseits über Qualität (seitens Chrysler) und Bedingungen. - lange Entwicklungszeiten - viele Zulieferer (über 2500). (Nissan Amerika half Zulieferern selbst bei schlechten Produkten anstatt sie fallen zu lassen) Änderungen: Ergebnis von Zufall und Managementwechsel: Akquisition von AMC (Jeep) 1987. AMC als relativ kleiner Produzent involvierte bereits aktiv die Zulieferer und praktizierte bereits Honda-ähnliche Produktionsmethoden. Dadurch sahen diese Methoden auf Franz Wirl: Industriebetriebslehre 177 einmal weniger exotisch aus. So produzierte AMC mit 1000 Ingenieuren zwischen 1980-1987 drei neue Modelle (Cherokee, Premier und Comanche) während Chrysler 5000 Ingenieure in den 80-er Jahren nur vier Modelle (K, MiniVan, Dakota-Lkw, Shadow) zusammenbrachten. Neues Management (Präsident Robert Lutz, Francois Castaing von AMC und andere). Beobachtung von Honda, das am stärksten und am schnellsten seine amerikanische Produktion ausweitete und hier insbesondere die Beziehung zu den Zulieferer, die basierend auf vergangener Vertragserfüllung anstatt durch Ausschreibung bestimmt wurden. Die Entwicklung des LH (Vision/Intrepid) verschlang bereits mehr als $ 1 Milliarde als veranschlagt. Finanziell 1988/89: $ 4,5 Milliarden Unterdeckung der Pensionsansprüche; $ 664 Millionen Verlust. Schlechte Bewertung von den Zulieferern (geringer als Ford und GM). Neuer Ansatz: Wiedererweckung des LH-Projektes mit folgenden wichtigen Entscheidungen. • Aussiedlung der Produktentwicklung, um bürokratischen Einfluß zu reduzieren. • Teams zusammengesetzt aus Individuen der Design-, Ingenieur-, Produktions- , Auftrags-, Marketing- und Finanzabteilung um sequentielle und daher langwierige Entscheidungsprozesse abzukürzen. • Experimente neuer Formen der Zusammenarbeit mit Zulieferern. 1991 stellten sich die ersten positiven Ergebnisse ein: der LH war fertig entwickelt und dabei wurde das an sich aggressive Kostenziel unterschritten. Teams (cross functional): Direktkontakt mit Zulieferern war essentiell um Konflikte zu vermeiden. Momentan 5 Teams (große Pkws, kleine Pkws, MiniVans, Jeeps und Lkws). Stabilere Beziehungen, weil Chrysler Versprechen jetzt besser hält. Inklusion der Zulieferer in der Entwicklungsphase, ja sogar Abtreten signifikanter wenn nicht gesamter Verantwortung. Daher können mehrere Ingenieurarbeiten parallell anstatt seriell abgearbeitet werden und dadurch die Entwicklung beschleunigen. Weiters haben die Zulieferer, die ja bessere Information über die Fertigungsprobleme haben, mehr Flexibilität, was Kosten senkt und die Qualität erhöht. Vorher war Design und Produktion an separate Firmen vergeben, wodurch die Verantwortung für das Endprodukt diffus wurde. Ersatz der Auswahl der Zulieferer mittels Ausschreibungen durch Auswahl durch die Teams auf der Basis von Listen zuverlässiger Lieferanten. Problem dabei: Preisfestlegung durch Bestimmung des Marktpreises und Rückwärtsrechnen (netback value). Tabelle 5.5 Veränderungen bei Chrysler Franz Wirl: Industriebetriebslehre 178 Dyer, S52: How did the company set the initial target costs in the LH program? “Actually, we set them somewhat unscientifically and then, when necessary, had the suppliers convince us that another number was better, “, says Barry Price, Chrysler`s executive director of platform supply for procurement and supply. “We would involve suppliers and tell them, Ì`ve got X amount of money.` We would let them know what functions the part or system in question would be required to perform and ask, `Can you supply it for that cost?` Usually, their response would be no, but they at least came back with some alternatives. The first time through, we had to find our way. The second time, we had the benefit of history and, as a result, we developed better targets at the outset of the program.” Target costing has shifted Chrysler`s relationship with suppliers form a zero-sum game to a positive-sum game. Historically, Chrysler had put constant pressure on suppliers to reduce prices, regardless of whether the suppliers had been able to reduce costs; the automaker did not feel responsible for ensuring that suppliers made a reasonable profit. Chrysler`s new focus on cost instead of price has created a winwin situation with suppliers because the company works with suppliers to meet common cost and functional objectives. Naturally, this process begins to build the trust that is critical if partnerships are to take root. SCORE Programm: wichtigster Bestandteil der Verbesserungen. Begann mit einem Besuch der obersten Chefs (Lutz, Castaing und andere) bei den Zulieferern was 23 alleine psychologisch in starkem Kontrast zu GMs (Lopez! ) Vorgehen war. 1990: Anfrage und Bitte um Änderungen, die die Kosten sowohl von Chrysler als auch der Zulieferer senken können. Diese Einsparungen werden dann zwischen Chrysler und dem Zulieferer geteilt. Zahlreiche Vorschläge kamen und gegen den Widerstand von Chrysler-Ingenieuren wurden diese getestet, was den Zulieferern die Offenheit von Chrysler dokumentierte. Priorität: Zuerst den Fehler bei Chrysler suchen, zweitens den Lieferer um Verbesserungen bitten, eventuell bei einem Zulieferer der 2. Kategorie nachzusehen und erst im dritten Schritt wurde die Schuld dem Zulieferer gegeben. Seit 1992 offizieller Bestandteil. Zwei Optionen: Teilung der Gewinne aus dem Vorschlag, oder Verbesserung der Firmenbewertung und dadurch mehr zukünftige Aufträge (Anreize!). Verbesserte Kommunikation und Koordination. Z. B. signalisierten viele Zulieferer ihr Vertrauen in Chrysler durch Ankauf der von Chrysler verwendeten CAD/CAM Software. Langfristige Verpflichtungen. Vorheriger Durchschnitt 2.1 Jahre, für das LH-Projekt 4.4. Heute haben 90% der Zulieferer eine Zusage über die gesamte Modellaufzeit. Beispiel Magna: Um das SCORE Programm besser verstehen zu können, wird die Erfahrung von Magna International veranschaulicht: Magna, ein bedeutender Zulieferer von Chrysler, der den Automobilhersteller mit Innentüren, Sitzen, etc. beliefert, unterbreitete 1993 seinen ersten SCORE-Vorschlag zur kosteneffizienteren Verwendung eines Materials ohne die Produktqualität zu beeinträchtigen. Nachdem der Vorschlag bewilligt wurde, legte Magna dem Automobilhersteller weitere 213 Vorschläge vor, von denen 129 bewilligt wurden. Insgesamt konnten durch die Umsetzung der SCORE-Vorschläge Kosteneinsparungen von $75.5 Millionen erzielt werden. Anstatt sich an den Kosteneinsparungen zu beteiligen, strebte Magna eine Verbesserung des „performance ratings“ an - um mehr Aufträge von Chrysler zu erlangen. Als Resultat haben sich die Umsätze aus den Verkäufen Magnas an Chrysler von $ 635 Millionen auf $1.45 Milliarden verdoppelt. Noch bedeutender für Magna ist die Verbesserung der „economies of scale“, wodurch die Geschäftsbeziehung mit Chrysler profitabler geworden ist. In den Jahren 1990 und 1991 wurden durch das erfolgreiche SCORE-Programm 875 Ideen umgesetzt, wodurch jährlich Kosteneinsparungen von $170.8 Millionen erzielt wurden. 1995 generierten 3.786 Ideen jährliche Kosteneinsparungen von $504 Millionen. Bis Dezember 1995 wurden 5.300 Ideen implementiert, die für Chrysler jährlich Kosteneinsparungen von $1.7 Millarden eingebracht haben. Vergleich zum japanischen Keiretsu: Keine Eigentümeranteile und mehr Zulieferer => weniger „Intimität“ mit allen Vor- und Nachteilen. Ergebnis (Cirrus/Stratus) Weniger als $ 1 Milliarde Entwicklungskosten, um 20-40% geringer. Verkürzte Produktionszyklen von 234 (Durchschnitt für neue Modelle in den 80-er Jahren) auf 183 Wochen für LH mit 160 Wochen für den neuen LH (erscheint 1997). 23 Während Lopez seinen Leuten verbat, eine Einladung der Zulieferer anzunehmen, lud Chrysler seine Zulieferer ein. Franz Wirl: Industriebetriebslehre 179 Vier neue Modelle in den 80-er Jahren, bereits jetzt 6 neue Modelle in den 90-er Jahren ohne Erhöhung des Personalstandes in den Ingenieurabteilungen. Alleine das Prozedere der Ausschreibung um Zulieferungen dauerte im Durchschnitt 12-18 Monate. Oft wussten die Gewinner dieser Ausschreibung bis 75 Wochen vor der Großserie nicht, dass sie gewählt wurden. Jetzt haben die Zulieferer 18-24 Monate Zeit sich auf die Großserie vorzubereiten und einzustellen. Kosten eines neuen Modells: ER&D: engineering, research and development: - Design und Entwicklung des neuen Modells; - Werkzeug und Formen -Anlagen Kosten vor der Produktion und für den Start wie Ausbildung und Vorbereitung für die Produktion. Bsp: LH Modell: $ 300 Millionen für ER&D (etwa 20% der Gesamtausgaben von $ 1,6 Milliarden) und die Reduktion der ER&D Zeit um 24% ersparte Chrysler alleine $ 75 Millionen. Vormals wurde Material und Werkzeug 75-100 Wochen vor Anlauf bezogen; die Produktion des ersten Prototyps erst 65 Wochen vor Anlauf. Aber Verzögerungszeiten bei Material und Werkzeug war oft länger, sodass bereits vor diesem Zeitpunkt mit der Fertigung der Werkzeuge begonnen werden musste. Traten aber dann Probleme auf, mussten die Spezifikationen bereits bestellter Waren geändert werden. Nach Involvierung der Zulieferer (LH Programm): Prototyp benötigte 24 Wochen weniger, und die Werkzeuge wurden gefertigt, nachdem Chrysler die Probleme bei der Erstellung des Prototyps erkannte. Trend: LH 1,6, Dodge Ram LKW 1,3, Neon 1,2 und Cirrus/Stratus 1 Milliarde $ im Vergleich zu GM von $ 3,5 Milliarden für Saturn (vergleichbar mit Neon) und Ford: 2,5 für Escort, 6 für Mondeo. Da Modellwechsel das Verkaufsvolumen positiv beeinflusst, ist die Möglichkeit schnell und effizient neue Autos zu produzieren wichtig. In der Tat konnte Chrysler seinen Marktanteil auf eine Rekordhöhe innerhalb der letzten 25 Jahre schrauben. Abbildung 5.11 6.2.7 The New, Improved Keiretsu 24 Some of Japan’s most dominant companies owe their success not only to technology and process expertise but also to an often-overlooked factor: During the past decade, they’ve been quietly turning their supplier relationships into a tool for innovating faster while radically cutting costs. Welcome to the new keiretsu—a modern version of the country’s traditional supply system. During its heyday, in the 1980s, the traditional keiretsu system—an arrangement in which buyers formed close associations with suppliers—was the darling of business schools and the envy of manufacturers everywhere. Although there was some tentative movement in the West toward keiretsu-like supplier partnerships at the time, the rise of manufacturing in low-wage countries soon made cost the preeminent concern. Most Western companies today wouldn’t dream of investing in supplier relationships that would 24 by Katsuki Aoki and Thomas Taro Lennerfors, HBR October 2013. Franz Wirl: Industriebetriebslehre 180 require significant care and feeding. Indeed, many people probably assume that keiretsu died when Japanese manufacturers initiated Western-style cost-cutting tactics. But some Japanese automakers have revived and reinvented keiretsu. Toyota provides an instructive example. Its recent stumbles in quality notwithstanding (about which more below), our research suggests that Toyota has gained enormously from the new keiretsu. It now has supplier relationships that are more open, global, and cost-conscious than they ever were, yet it has deepened the trust, collaboration, and educational support that were the hallmarks of keiretsu in their earlier form. Having conducted interviews and gathered data during 39 visits to auto plants and 192 visits to parts makers in Japan and overseas, and analyzed two decades’ worth of auto-manufacturing data, we believe that Toyota’s current supplychain system represents one of the company’s greatest advantages. Through a detailed look at Toyota, we will describe how the new keiretsu depart from tradition and will explore numerous lessons for developed-world and emerging-market companies seeking to innovate rapidly while cutting costs. The Old and New Keiretsu at Toyota The traditional keiretsu consisted of obligational relationships based on trust and goodwill. (For the purposes of this article, we’ll focus on vertical keiretsu, those among a manufacturer and its suppliers, and we’ll ignore horizontal keiretsu, which involve cross-holdings among companies centered on a bank.) That’s in sharp contrast to Western-style arm’s-length supplier relationships, which are governed by as much contractual clarity as possible. In the traditional keiretsu world, an originalequipment manufacturer (OEM) would draw on exclusive, decades-long relationships with key suppliers, in which it often owned significant shares. The OEM would buy individual parts (not systems) at prices that weren’t very competitive—they were usually based on what it had paid for parts for its most recent model. However, as practiced by Toyota, the new keiretsu breaks from tradition in four ways: • • • • • • • • • Instead of buying exclusively from companies with which it has long-term relationships, Toyota also sources from the global market, including from megasuppliers whose streamlined operations allow them to offer very low prices. This gives it flexible sourcing and keeps costs down. • When setting target prices for long-term suppliers, Toyota looks at the prices offered by multiple global companies, another boon in containing costs. • Instead of buying individual parts, the automaker demands that suppliers provide integrated systems of components. This helps it develop high-quality products while reducing costs and development time. • Toyota encourages suppliers to enhance their ability to provide these integrated systems and to become involved in product development at the planning stage. At the same time, Toyota hews to the traditional keiretsu model in important ways: • Despite the automaker’s tough demands, its relationships are still based on trust, cooperation, and educational support for suppliers. The level of mutual commitment and assistance is perhaps even greater than in the 1980s. • Contracts governing the relationships are ambiguous, consisting of general statements and nonbinding targets. For example, rather than insisting on specific prices or price reductions for each year of a contract, as U.S. automakers typically do, Toyota states its expectations of annual cost reductions over the life of a contract— and shares the benefits by allowing suppliers who achieve those reductions to maintain Franz Wirl: Industriebetriebslehre 181 their prices for a certain period of time. Spelling out specifics, Japanese companies believe, would encourage partners to do only what they were instructed to, and nothing more. Toyota counts on its suppliers to go the extra mile—to learn about and meet customers’ demands, help develop innovative processes, find and correct errors, and do whatever it takes to meet deadlines. After the Bubble The new keiretsu grew out of a crisis that affected the Japanese auto industry as a whole. In the early 1990s Western car manufacturers initiated radical cost-cutting programs, fueling the growth of megasuppliers such as Magna, Johnson Controls, and Valeo. To stay ahead, Japanese automakers turned to megasuppliers as well. Moreover, the bursting of the Japanese economic bubble created a period of stagnation that stretched into the country’s “lost decades.” With sales and profits falling, some automakers went in search of capital, opening themselves to investment by foreign companies such as Renault, Ford, and Daimler— which pushed for further cost-cutting. The keiretsu began to lose luster. Seen through a shareholder-value lens, they looked costly and oldfashioned. In 1999 Renault became Nissan’s major shareholder, and a Renault leader, Carlos Ghosn, became the Japanese company’s COO. He soon launched the Nissan Revival Plan, aimed at reducing costs by 20% over three years. Ghosn told the press that Nissan’s keiretsu had not functioned well, and Nissan later sold its holdings in most supplier companies. Japan’s supplier relationships appeared to be drifting steadily toward the Western model. In 2000, with competitive pressures continuing to build and its leaders pressing for rapid global growth, Toyota initiated a radically new purchasing strategy it dubbed “Construction of Cost Competitiveness for the 21st Century,” or CCC21. (See “Lessons from Toyota’s Long Drive,” HBR July–August 2007.) The plan called for selecting suppliers on the basis of globally competitive target prices, with the goal of reducing costs by 30% over three years. It also addressed a competitive advantage the megasuppliers were developing—the ability to provide sophisticated component systems rather than just individual parts. Under CCC21, Toyota began requiring suppliers to enhance their capabilities for producing these valueadded systems. CCC21 enabled Toyota to meet its cost target, and the number of individually purchased parts declined. But it would be inaccurate to view CCC21 as an adoption of Western-style arm’slength contracting. Over the past two decades Toyota’s suppliers’ association (kyohokai) has remained quite stable: From 1991 to 2011 fewer than 20 of about 200 companies withdrew. From 1991 to 2010 the average sales-dependence ratio (the revenue from Toyota-related business as a share of total revenue) of 44 of the company’s suppliers has remained about 80%, even as Toyota has expanded its sourcing pool. Toyota has also helped many suppliers meet its changing needs. Instead of abandoning suppliers when others offer lower prices, it provides support for operational improvements, organizing “study groups” and dispatching engineers to help vendors improve efficiency and quality and bring prices down. When Toyota drops a supplier for a particular model because of price, it works to maintain the relationship, providing opportunities for the vendor to supply parts for other models, for example. Even after the adoption of CCC21, Toyota’s arrangements with suppliers continued to be ambiguous rather than spelled-out, with an emphasis on goodwill and trust. This is particularly noticeable in collaborations involving innovative product design. Toyota executives told us that the company requires suppliers to have a deep understanding of its processes and manufacturing goals and believes knowledge of this type can’t be conveyed merely by providing design drawings. Education, Toyota Style Toyota aims to build up suppliers’ stores of “tacit knowledge” through long-term sharing of work experiences, including attempts to solve problems together through trial and error. This hands-on training, which is as much cultural as technical, encourages suppliers to be on the lookout for problems, anomalies, and opportunities throughout the development and production of parts. Whereas Western manufacturers sometimes check only documents when inspecting suppliers’ factories, Toyota always examines the physical workplaces and products—thus the expression genchi genbutsu (roughly, “actual workplaces and actual things”), which speaks to the importance of being present when problems arise. Over the past decade or so Toyota has forged deeper collaborations with suppliers at earlier stages of development. For many years it handled much of its own interior-systems development. But in 2004, after three of its keiretsu firms—Toyoda Boshoku, Araco, and Takanichi—merged to create an organization that could supply complete interior components (a merger in which Toyota was said to have played a key role), the automaker brought the new company, Toyota Boshoku, into its product-development process at the planning stage. Franz Wirl: Industriebetriebslehre 182 Few manufacturers have been as open to suppliers’ ideas or as successful in incorporating them as Toyota. It expects systems suppliers to help improve product design by, for example, figuring out how to incorporate lighter materials without sacrificing strength. For the Corolla Fielder, a model sold in Japan, Toyota Boshoku and Toyota jointly developed a new interior system with one-touch fold-down rear seats. And consider Advics, a company formed from the brake divisions of Toyota and three of its suppliers for the purpose of developing complete brake systems. In 2001 Advics’s improvements in product design and purchasing achieved a 30% cost reduction in the antilock brake systems for the Noah and Voxy cars. As part of its product-development process, Toyota provides physical spaces that facilitate cooperation with and among suppliers. Vendors may be invited to a meeting known as an obeya—literally, a big room—where they work with Toyota representatives from several departments, including design, engineering, production, quality, and purchasing. Obeya meetings help Toyota avoid a pitfall common in other companies: Even if purchasing managers accept a supplier’s proposed design change, the change might later be rejected by the manufacturer’s engineers. In Toyota’s system everyone is in the big room making decisions together. Toyota has also used a residential-engineer program, in which experts from suppliers work alongside Toyota’s designers for periods ranging from about six months to three years. The program, which hammers home the principle of “right first time,” fosters communication at the earliest stages of development, reducing the need for adjustments later on. Together with the obeya meetings, it has helped cut product-development lead time from three years to as little as one year, depending on the product’s complexity. Developing the bB small wagon, for example, took only about a year; the model was launched in Japan in 2000, and a successor, the Scion xB, appeared in the U.S. a few years later. Toyota has developed keiretsu-like relationships overseas. In 1992 it created the Toyota Supplier Support Center to help U.S. vendors learn the Toyota Production System. In 1997 it established the Toyota Europe Association of Manufacturers, a group of about 70 companies that join together in study groups. And Toyota Europe’s Supplier Parts Tracking Team, containing specialists from purchasing, quality, design, production, and other functions, visits suppliers to help introduce the manufacturing of new parts. Overseas, the company tends to be more explicit in its communications than it is in Japan, providing clearer rules and more-detailed specs. Still, key aspects of the new keiretsu appear to translate, including genchi genbutsu. When we visited Toyota facilities in the U.S. and UK, along with the plants of Aisin, Denso, and other suppliers, managers told us they prize engineers who grasp the “actual workplaces” mind-set, because those engineers drive implementation of the Toyota Production System. Toyota’s supplier relationships are closer to the old keiretsu than those of the other Japanese Big Three automakers are, but Nissan and Honda have retained features of the traditional practice too. Having moved toward Western-style supplier relationships under Carlos Ghosn, Nissan shifted its stance again in 2004, announcing a new purchasing policy that represented a reevaluation of keiretsu. It has increased its investment in one large supplier and continues to rely on goodwill and trust in its dealings with many vendors. One example of its recent keiretsu-like practices is a program in which its engineers and those of its suppliers take up process-improvement projects in the suppliers’ factories. Honda, too, relies on trust and goodwill rather than explicit contractual terms and has organized supplier-development activities. However, in 2010 it announced a very un-keiretsu-like reduction in suppliers—in some categories, cutting the number almost in half. A Tenacious Practice The new keiretsu are far from perfect. Suppliers striving for high quality sometimes find it hard to deliver the simpler, cheaper parts needed in emerging markets. That’s why Honda recently announced an open purchasing policy under which it uses more parts from megasuppliers and from local suppliers in emerging countries. It could be argued that Nissan’s recent success in China—it has surpassed both Toyota and Honda in sales growth there—comes from its emphasis on openness in purchasing; if a supplier relationship is too close, the OEM has difficulty opening up to new suppliers. And obligational contracts can be burdensome for suppliers and their employees: Japanese parts makers sometimes require workers to labor through the night to meet the OEMs’ demands. Nevertheless, the essence of keiretsu has proved durable, and the ability to avoid the hidden costs of Western-style supplier relationships is an important reason. A chief source of those costs is obfuscation of the root causes of supply-chain problems, as manufacturers and suppliers alike maneuver to avoid blame. Keiretsu relationships allow OEMs and suppliers to work together to detect a problem’s causes. And it’s cost-effective for OEMs to provide educational support to suppliers, because that ultimately brings down the suppliers’ costs and lowers the prices they charge. Suppliers’ high levels of dedication, innovativeness, and expertise all contribute to the manufacturer’s competitiveness. (See the sidebar “Why Are Keiretsu So Durable?”) Franz Wirl: Industriebetriebslehre 183 After Toyota’s recovery from the 1991 crisis, profits rose steadily. The ratio of consolidated operating profit to net sales climbed from 5.1% in 1991 to 8.5% in 2003 to 9.3% in 2007. However, the company was hit by the 2008 global recession and the 2011 earthquake and tsunami, and by 2011 the ratio had declined to 2.5%. In the midst of the economic downturn came the 2009–2010 unintended-acceleration crisis, during which Toyota recalled 9 million vehicles worldwide. (A U.S. government report concluded that the problems resulted from accelerator pedals that got stuck or ones that got caught under floor mats.) As a result, Toyota took steps to improve its responsiveness to customer complaints and to speed its corporate decisions. In 2010 it revised its quality standards for parts, reportedly drawing on suggestions from suppliers. It also asked suppliers to strengthen their quality management starting at the design stage and conducted joint activities with them to that end. Although U.S. sales volume slipped from 2009 to 2011, it recovered in 2012. According to J.D. Power’s U.S. Vehicle Dependability Study, from 2009 to 2013 the number of problems per 100 vehicles declined 13% for Toyota, 44% for Lexus, and 39% for Scion, suggesting that overall quality has improved—owing in part to suppliers’ contributions. Engineering Your Own Keiretsu Despite the flaws, the new keiretsu provide a useful template for companies seeking to enrich their relationships with suppliers for long-term benefit. Indeed, although the arm’s-length approach is still dominant in the West, there has been some renewal of interest in keiretsustyle relationships, with a few manufacturers creating hybrid purchasing programs that involve keiretsu-like associations. In certain industries in Europe, suppliers develop deep loyalties to manufacturers and participate in improving their supply chains. For example, the Swedish bus and truck maker Scania holds workshops to help suppliers learn the Scania Production System, which includes continuous improvement and lean production. Scania’s purchasing system shares other features with keiretsu: Suppliers identify with the hub company, which, in turn, works to make them more globally competitive (although it doesn’t hold shares in them). IKEA, too, takes a long view of its supplier relationships, working to build committed partnerships based on mutual advantage. It delegates extensive tasks to vendors and collaborates with them in the interest of efficiency and cost containment. For example, it worked with a number of longtime suppliers to develop the technology for printing veneer patterns on the fiberboard tables in its Lack furniture series. Companies looking to engineer their own forms of the new keiretsu should keep certain guidelines in mind: • • • • • • Learn to think short-term and long-term at the same time. Tell suppliers that you envision lasting relationships, but only if they are cost-competitive today—and work with them to achieve that. Encourage them to regard you as a long-term partner by, for example, not only informing them of your cost-reduction expectations but also showing how the benefits will be shared. • Know your suppliers. If you don’t understand their processes, you can’t contribute to improving them. Instead of outsourcing all components, establish joint ventures for key parts. Visit suppliers’ workplaces. • Develop trust with your suppliers. Make it clear that the relationship will help them improve their operations and become more competitive. Be the customer they want to work with. • Balance explicit and implicit communication. Too much explicitness can lead to mistrust; too much implicitness can result in misunderstanding. • Establish a portfolio of suppliers and identify those most worth improving (you can’t improve them all). Which ones have the potential to be globally competitive? Assign grades according to Franz Wirl: Industriebetriebslehre 184 capabilities such as quality, cost, delivery, people, and development. A supplier’s ability to learn is key to your future competitiveness. Suppliers that demonstrate a willingness to understand the root causes of mistakes are the most likely to improve. • • Build personal relationships between your company and your suppliers, not only at the management level but also among employees. Meet your suppliers. Create joint study groups. Have your managers work with suppliers’ engineers on the shop floor. These steps will lead to faster problem solving and an atmosphere in which vendors are comfortable making suggestions. • • If suppliers underperform, see what can be done to change the situation. Think in terms of development rather than switching. Give them opportunities to show how they could improve. • Involve suppliers in developing new products—invite their engineers to serve on your development teams—and conduct process-improvement activities in their factories. This will increase your competitiveness across the supply chain. Increasingly the locus of competition is between supply chains rather than between individual companies. Western manufacturers that want to move toward improved supplier relationships must remember the keys to keiretsu-like partnerships: support, cooperation, trust, and goodwill. Those elements are critical even in a hypercompetitive, cost-obsessed environment, because they reduce the hidden costs of arm’slength relationships. 6.2.8 Weitere Erfahrungen mit Lean Management Die folgende Abbildung zeigt das Verhältnis von Umsatz zu Lagerbeständen zweier großer Unternehmen im Zeitablauf. Hierbei ist zu beobachten, dass vor Mitte der 70er Jahre, in Folge der Großserienproduktion und Automatisierung große Lager gang und gebe waren, während es danach durch die Einführung von Lean Management Techniken zu einem Rückgang der relativen Lagergröße kam. Ein Beispiel für gemischte Erfahrungen mit Lean Management machte Boeing (nach The Economist, Oct. 11th, 1997, S82): Durch Begutachtung des Produktionssystems bei Toyota ist es Boeing gelungen mittels Just-in-time-Methoden und Lean Management Ansätzen die Produktivität zu steigern (60000 oder con 3 wurden entlassen) und die Lieferzeit auf unter ein Jahr zu drücken. Jedoch für einem dann 1997 hereinbrechenden Boom war das Unternehmen dann doch zu ‚lean’. Aus den daraus resulitierenden Problem und Lieferschwierigkeiten konnte dann der Konkurrent Airbus Kapital schlagen. Abbildung 5.12 Dell Computers: Michael Dell invented a business model that all the world wanted to copy. Yet after all these years, almost nobody has. Why? FOR all his success, Michael Dell has a lot to answer for. Bookshelves groan under the weight of books that discuss how best to learn from Dell Computer’s nifty model of selling directly to consumers and making PCs to order. No ebusiness conference is complete without a few slides on Dell’s virtual supply chains and enviably slender inventory. Executives from traditional manufacturing giants, such as Maytag and General Motors, make pilgrimages to Austin, Texas, to learn the Dell Way. After General Electric’s Jack Welch, there is hardly a more admired boss than Mr. Dell, the man who turned the commodity business of PC making into a goldmine by doing things differently. Franz Wirl: Industriebetriebslehre 185 Now come the hard times, exactly what Mr. Dell’s famous near-zero inventory model was designed to weather best. And so far his company has indeed held up well: on April 5th, Dell announced that, unlike most of its peers, it would not be cutting its (admittedly modest) profit forecast for the latest quarter. But what of those companies that copied the Dell model? Have they done as well? Hard to say: for the most part, they seem not to exist. Nearly 20 years after Mr. Dell started his PC company, it remains in a class of one. Others may have adopted a bit of his model here and a bit there, but none has taken it far. Gateway, which began life as a Dell clone, has since diverged with own-brand stores complete with—gasp!—depreciating inventory. Dell’s biggest competitor, Compaq, still sells most of its wares through indirect distribution channels. And Cisco proved just how unlike Dell it is in the most recent quarter, when its inventory spiked to nearly 40% of sales. Dell’s is less than 6%, and falling (see chart). 10 11 12 13 14 15 Outside the technology industry, the Dell-alikes get even thinner. Mercer Management’s Adrian Slywotzky, author of one of the books that lionises Dell, can think of only two examples, to his surprise: Marshfield DoorSystems, formerly Weyerhaeuser Door (which makes customized doors) and Herman Miller, a maker of office furniture. 16 17 18 19 20 Mr. Dell himself is less surprised. Few industries, he says, have all the ingredients needed to copy the Dell business model properly. And even in those that do, established companies are usually far too wary of undermining their existing businesses and sales channels to push direct buying particularly hard. 21 Dormitory days 22 23 24 When he started his business in 1984, Mr. Dell had no great plans to reinvent PC making. He simply wanted to assemble and sell computers out of his university dormitory. This was possible because a PC-clone industry had just emerged in the wake of IBM’s first machine, complete with an explosion of suppliers. Computer companies no longer needed their own research and manufacturing operations; instead, they could focus on assembly and marketing. Although Mr Dell did not know it at the time, the new PC industry had several other traits that made it ideal—perhaps uniquely ideal—for the streamlined direct-sales operation that Dell now epitomises. As Mr Dell lists those qualities, it becomes a little clearer why so few other firms have followed in his footsteps. For a start, PCs are made almost entirely from standard parts, available from many sources; there is no need to order special components long in advance. Consumers want to customize PCs, but within limits: faster or slower processors, more or less memory, but not their own color or trim. Such limited customization encourages a build-toorder model, without the need for a supply chain drowned by a huge number of parts. Moreover, the most expensive PC components quickly become obsolete and thus lose value by the day, so a PC maker’s profitability is determined largely by the size of its inventory. This creates what Mr. Dell calls “profit pools”: fat margins for the taking, if a company can slim down its stock of components by being more efficient than its competitors. Are there many other industries that share these traits? Mr. Dell shrugs off the question. But all those visits from car companies have given him some insight into one other candidate, at least. American car makers put up with $80 billion worth of inventory a year, of which $50 billion is built in anticipation of orders. That satisfies the criterion of a high cost structure. Yet taking the car industry very far into Dell territory would quickly run into problems. Car companies have huge sales and distribution channels that fight fiercely any attempt to circumvent them; in almost all American states, it is illegal to sell cars any way but through a local dealer. Might a big technology company such as Cisco stand a better chance of becoming Dell-like? Cisco’s most expensive parts are custom processors and other semiconductors that it designs and commissions from chip makers. This violates Mr. Dell’s rule of industry-standard parts. Because Cisco asks its suppliers to make unique components, it must order to forecast. When it gets the forecast too high, it must take the components and watch them lose their value in a warehouse; if the forecast is too low, it cannot quickly find another supplier to make the parts. By contrast, when Dell is gaining market share it can simply take parts that were destined for its rivals; were it to lose share, it could easily sell unwanted stock. Might more businesses eventually take on the characteristics of PC making? The lesson of the past decade is that it will take longer than most guessed, if it happens at all. That could be good news for Mr. Dell, who gains market share when his competitors prove unable to follow him, but it is bad news for the consulting industry that fed off his success. Mr. Dell may be an inspiration, but he is too unique to be the paint-by-numbers role model the world had hoped to make him. Fast Food, McDonald Franz Wirl: Industriebetriebslehre 186 Im Fast-Food Bereich, wo traditionell auf, wenn auch auf geringe, Lager produziert wurde und wird, geht man davon wieder ab produziert nur auf Bestellung. Die Produktion auf Lager hat den Vorteil, dass die Kunden nicht warten müssen, was bei fast food, wie der Name schon sagt, ein wichtiger Vorteil ist. Der Nachteil ist, dass darunter die Qualität leidet und um wenigstens minimale Standards zu erhalten, viel weggeworfen werden muss, dass vorher mit Kosten und Aufwand produziert wurde. Sogar MCDonald versucht diesem Trend zu folgen, also ein MCJITer (The Economist) zu werden. ALONGSIDE the enormous stands for Coke and Disney, one of the main features of McDonald’s recent convention was a huge demonstration kitchen. Thousands of franchisees queued for a chance to peer from a catwalk at the burger flippers below. McDonald’s new “Made for You” system, which has taken five years to prepare, is crucial to its future. It also marks a rare attempt to bring just-in-time (JIT) manufacturing techniques to a service industry. McDonald’s denies that its new system, which costs around $25,000 to install, has anything to do with competitors’ burgers tasting better—it is just responding to customers’ needs. But “Made for You” is plainly an answer to the charge that made-to-order food from rivals such as Burger King and Wendy’s tastes fresher. At present, McDonald’s franchisees often batch-cook their meals for busy periods. The food then loses some of its flavour sitting around. McDonald’s spent a lot of time studying manufacturing systems like Toyota’s. Its new system is a mixture of technology and reorganisation. The technology includes gadgets that can toast buns in 10 seconds, and ovens that can keep burgers fresh for up to 20 minutes. But the main point of the system is speed. The aim is to serve each customer within 90 seconds of ordering. The moment a Big Mac is ordered, a computer screen in the kitchen tells one of the workers to start assembling it. Meanwhile, by monitoring the flow of orders, the computer also estimates future demand, indicating when to start cooking things (like fries) that cannot be squeezed into the 90-second slot. It remains to be seen whether the franchisees embrace the system. “Made for You” should help cut stock costs, and there may be some staff savings. But the proof of the pudding will, so to speak, be in the burgers. An early indicator of their taste came from one franchisee who has installed the new system and who told the Orlando Sentinel that his staff “have started eating the food again”. Jüngste Beispiele sehen sogar, dass Just-in-Time Delivery comes to Knowledge Management, vgl. dazu Davenport und John Glaser im Harvard Business Review vom 2. Juli 2002, S 107- 111. Das Problem – dargestellt an Hand der Medizin – ist dabei folgendes. Jeder Arzt ist im aktuellen Moment einer Entscheidung in Anschluss an eine Diagnose mit tausenden von aktuellen Arbeiten konfrontiert. Klarerweise hätte es keinen Sinn gemacht und wäre auch unmögliche gewesen diese Masse an sich permanent korrigierenden Studien zu lesen und zu verstehen. Jedoch Ignoranz dieses Wissens – falsche Medikationen, falsche Tests, falsche Operationen – kosten jährlich zahlreiche Tote selbst in hervorragenden Spitälern (wie der Harvard Medical School). Hier muss die Information im Falle der Entscheidung zur Verfügung stehen. Die Autoren berichten dabei über wissensbasiertes Computersystem für Ärzte, das sich genau im Moment der Therapie [z.B. Aufschreiben der Medikamente] dazwischen schaltet, mit der Patientenkartei auf Verträglichkeiten bzw. Allergien abtestet und weiteres aktuelle Information bereitstellt. Der Arzt kann diese Empfehlungen überschreiben, aber er muss dafür eine Erklärung liefern. Die Wartung der Wissensbasis wird von kompetenten Wissenschaftlern vorgenommen. 6.2.9 David Landes, The American and Japanese Automobile Industries It would be wrong to see these gains as simply a matter of technique, there for the taking or copying. People made all the difference. For anyone who has ever visited Japan and suffered in the traffic that is one of the vexatious, even nightmarish features of overcrowded urban and industrial agglomerations, the ability to run a just-in-time system comes across as miraculous. How can anyone deliver parts on call and on time? The answer: by sleeping on the job. The driver takes his lorry close by the factory gate and parks there overnight, curling up in the cab. On the morrow he's there. But that makes another point: what's sauce for the goose is not for the gander. The just-in-time mother plant is saving its time. Very smart. But the supplier is spending his time. The whole Japanese system of outsourcing rests on pressing down, on squeezing the purveyors while they in turn squeeze their workforce. All is not immaculate, then, in the Japanese industrial heaven. On the other hand, the mother firm is not unreasonable: it squeezes, but it also helps with equipment, technique, and funding. These are tough, resilient people, as always very hierarchical, but with a strong sense of reciprocal obligation up and down the scale. Is this Japanese mode of "lean production," quality control, and labor-management partnership exportable? Can Americans learn new ways? We have the beginning of an answer in the performance-in the United States but also in Britain-of Japanese affiliates: Honda, Toyota, Mitsubishi, et al. These plants owe their origin to trade barriers; they were built to get behind the walls. They pay about the same wages as American firms, but they have been able to keep out the unions with their task segmentation and Franz Wirl: Industriebetriebslehre 187 divided sovereignty. They also have relied extensively on imported components, to the point of raising questions about the nationality of the product. But that is the nature of global industry: one buys cheapest. In the meantime, these transplants seem to show higher labor productivity and quality than all-American firms, though Japanese factories in Japan do somewhat better. Plenty of blame to go around. Much of the initial failure of the American auto industry to hold its own against this bull of a competitor was its own fault-of labor partly, because of its hormonal reluctance to change ways or give way; but of management even more. The list of sins is long: (1) complacency (we're the best, have always been the best); (2) want of empathy (did they really expect the Japanese, with their often narrow roads and left-side driving, to buy big cars with steering on the left?); (3) residual, two-faced reliance on government support (we're all for free enterprise, but how else counter official favors to the Japanese auto industry?); and (4) a short and selfish time horizon that led American management to use respites from Japanese competition to raise prices and dividends rather than invest and improve techniques. 6.2.10 Anmerkungen Laut Womack-Jones, 1996, verstehen viele Manager die Mächtigkeit von lean management mittlerweile, nämlich dass das Pull-Prinzip (Analogie zur dynamischen Programmierung!! – Lösung wird auf der letzten Stufe begonnen und mittels Vorwärtsinduktion weitergeführt) ungleich einfacher als vorwärts blickende, oft mit komplexer EDV verbundene Fertigungssysteme ist, haben viele versagt dies in einer kohärenten Unternehmensstrategie zusammenzufassen. Mittlerweile hat sich Lean Management auch in den USA und Europa ausgebreitet, insbesondere weil die japanischen Autoproduzenten vor Ort die Kompatibilität dieses Ansatzes auch mit anderen Mentalitäten demonstrierten. Voraussetzungen und Schritte für Lean Managementtechniken: 1. Definition des Wertes aus der Sicht des Endkonsumenten mit der Spezifizierung des Produktes, der Fähigkeiten des Produktes zusammen mit Preis und Zeitpunkt. Die Sicht des Konsumenten ist - nach Taiichi Ohno - unumgänglich, um Verschwendung (muda) zu vermeiden. 2. Identifikation des gesamten Wertstromes jedes Produktes und Eliminierung von jeder Form von Verschwendung. 3. Sicherstellen eines Flusses im Ablauf. 4. Plane und liefere nur was und nur wann der Konsument es wirklich will. 5. Strebe nach Perfektion. Dadurch entsteht ein positiver Regelkreis: Eine präzisere Definition des Wertes legen die existierenden Verschwendungen offener dar, und ein schneller, besserer Fluss deckt immer bis dato versteckte Verschwendung auf. Also je stärker dann die Konsumenten „ziehen“, desto stärker werden Probleme sichtbar, um dann behoben werden zu können. Das japanische Sytem in der Automobilindustrie läuft auch auf eine Risikoteilung hin. So findet jüngst 25 eine Studie , dass (trotz jüngster Änderungen) die Automobilfirmen das Risiko zum grossen Teil absorbieren und damit die Zulieferer (implizit) versichern. 6.2.11 Theoretische Erklärung I 26 der möglichen Effizienz von Lean Management Wie schon in der Einleitung zum Punkt JIT, stellt sich auch bei Lean Management allgemein die Frage, warum man solche zusätzlichen Nebenbedingungen und willkürliche Beschränkungen einführt, die dann zu Teilproblemen und suboptimalen Lösungen führen. Was bringen diese dem Management? In der Folge werden die Beziehungen zwischen einem Lieferanten und einem Abnehmer betrachtet. Der H L Lieferant kann entweder hohen monetären Einsatz (e ) machen, oder niedrigen (e ). Die Wahrscheinlichkeiten mit denen die Produkte entweder intakt oder nicht intakt beim Abnehmer ankommen, sind in untenstehender Skizze angegeben. Abnehmer Lieferant H p B eH 1-pH pL B-r ja Reparatur eL 1-pL nein 0 25 Horoyuki Okamuro, Risk skaring in the supplier relationship: new evidence from the Japanese automotive industry, Journal of Economic Behavior & Organization 45, 361-381, 2001. 26 J. Cremer, Towards an Economic Theory of Incentives in Just-in-Time Manufacturing, European Economic Review, 1995. Franz Wirl: Industriebetriebslehre 188 Abbildung 5.13 Kommt das Produkt intakt an, hat es denn Wert B für den Abnehmer. Kommt es nicht intakt an und wird nicht repariert, hat es den Wert 0, wird es repariert hat es den Wert B minus den Reparaturkosten r. H L H L Weiters zu beachten ist , dass gilt: e > e und p > p . Annahmen: H 1. H L H e e p e > L ⇔ L > H L p e p p eL ) H e −e eH < e , ⇒ H = p − pL pL pH H p (1 − H ) p H L e H (1 − das heißt, dass das Wählen des höheren Einsatzes eine überproportionale Erhöhung der H Wahrscheinlichkeit eines intakten Produktes bringt also hoher Effizienz e effizient wäre. 2. (B - r) < eH/pH D.h., dass der Gewinn des Käufers nach einer Reparatur geringer ist, als was notwendig ist, dem H Lieferanten zu zahlen um gleichzeitig e durchzusetzen, siehe unten (optimale Lösung für w). In diesem Rahmen soll nun als erstes der Fall JIT betrachtet werden. Zu diesem Zweck nehmen wir an, dass bei JIT keine Reparaturen erlaubt sind. Diese zusätzliche Beschränkung schneidet dem Entscheidungsbaum einen Ast ab. Warum sollte man sich freiwillig in seinem Aktionsradius beschränken? Der Grund, wie wir sehen werden ist, dass mit dieser Beschränkung a la JIT erreicht H werden, dass der Lieferant den hohen Einsatz e bringt. Dazu soll sein Kontrakt, bestehend aus der S Zahlung w (Betrag, den er bei Annahme der Lieferung erhält) und der Zahlung w (Betrag, den er bei Ablehnung der Lieferung erhält) so gestaltet werden, dass der Lieferant es bevorzugt, hohen Einsatz zu bringen, anstatt niedrigem. Der Gewinn des Lieferanten bei hohem Aufwand: pHw + (1 - pH)wS – eH muss also größer oder gleich dem Gewinn bei niedrigem Aufwand sein: pLw + (1 - pL)wS – eL. Also pHw + (1 - pH)wS – eH > pLw + (1 - pL)wS – eL, oder umgeformt: ( p H − p L ) w − ( p H − p L ) w S ≥ e H − e L bzw. w − w S ≥ eH − eL pH − pL Dies ist die Anreizkompatibilitätsbedingung oder incentive compatibility constraint. Als weitere Bedingung H muss gelten, dass der Lieferant bereit sein muss, e auszuführen. Dies ist nicht dasselbe wie die obige H L Bedingung, in der nur festgelegt wird, dass der Lieferant e gegenüber e bevorzugt, aber nicht berücksichtigt wird, dass er auch eine dritte Möglichkeit hat, nämlich nichts zu tun, und auf gar keinen Kontrakt einzusteigen. Der Vertrag muss also für den Lieferanten ein positives Ergebnis bringen. Wir nehmen an, seine Einkünfte aus dem Nichtstun seien 0. Es wird also die Formel für den Gewinn des Lieferanten bei hohem Aufwand größer oder gleich 0 gesetzt, daraus ergibt sich: p H w + (1 − p H ) w S ≥ e H Franz Wirl: Industriebetriebslehre 189 Weiters muss festgelegt werden, dass der Abnehmer nur fehlerfreie Teile akzeptiert. Sein Gewinn aus dem Erhalt des intakten Gutes minus der Zahlung des Kaufpreises muss also größer oder gleich sein dem Betrag, den er für fehlerhafte Güter zahlen müsste: ( B − w) ≥ ( − w S ) . Der Abnehmer ist der Prinzipal und kann sich aussuchen, welchen Kontrakt (bestehend aus Werten für S die Zahlungen w und w ) er dem Lieferanten anbieten möchte. Er wird diese Elemente des Vertrags natürlich so wählen, dass sein eigener Gewinn maximiert wird. Dieses Modell ist in der Box unten nochmals zusammengefasst: Zielfunktion: max p H ( B − w) + (1 − p H )( − w S ) S w,w Nebenbedingungen (siehe auch oben): (1) (Incentive Compatibility) w − w ≥ S e H −e L pH − pL (2) Kontrakt muss für Lieferanten vorteilhafter sein, als andere Alternativen p H w + (1 − p H ) w S − e H ≥ 0 (3) Akzeptanz fehlerfreier Teile: B ≥ w − wS (4) w ≥ 0 (5) wS ≥ 0 S (Wäre w negativ, könnte der Abnehmer einfach Teile bestellen, dann nicht annehmen, und würde trotzdem dafür Geld bekommen!) Um dieses Maximierungsproblem zu lösen, wird zunächst die Lagrange-Funktion aufgestellt: L = p H ( B − w) + (1 − p H )( − w S ) eH − eL ] + µ 2 [ B − ( w − w S )] + µ 3 [ p H w + (1 − p H ) w S − e H ] + µ 4 w + µ5 w S + µ1 [( w − w ) − H L p −p S S Gemäß dem Kuhn-Tucker Theorem werden nun die Ableitungen nach w und w gebildet und gleich 0 gesetzt. ∂L = − p H + µ1 − µ 2 + µ3 p H + µ 4 = 0 ∂w δL = −(1 − p H ) − µ1 + µ 2 + µ3 (1 − p H ) + µ5 = 0 S δw Dazu kommen 5 weitere Gleichungen für die sogenannten komplementären Schlupfbedingungen. µi [] = 0, µi ≥ 0, i = 1...5 S Satz von Kuhn und Tucker: obige Bedingungen sind notwendig für optimale Lösungen (w*, w *). Sie sind auch hinreichend, wenn sowohl die Zielfunktion als auch die Nebenbedingungen konkav sind. Finden wir daher nicht-negative Multiplikatoren μi (i=1,...,5) sodass die obigen sieben Gleichungen erfüllt sind, dann haben wir ein Optimum gefunden. Die Lösung Franz Wirl: Industriebetriebslehre 190 w = eH/pH, wS = 0 [μ1 = 0, μ2 = 0, μ3 = 1, μ4 = 0, μ5 =0] erfüllt die obige Bedingungen und stellt den optimalen Liefervertrag vor. Der Gewinn für den Abnehmer bei dieser JIT-Lösung beträgt: pH(B - w) + (1 - pH)wS = pH(B - eH/pH) = pHB - eH. Beim traditionellen Fall, gibt es zwei Möglichkeiten, Verträge mit Reparaturmöglichkeit und ohne. H Entscheidet man sich für einen Vertrag mit Reparaturmöglichkeiten, kann e nicht mehr implementiert H H werden wegen Annahme 2: Der Gewinn (B – r) ist geringer als der Lohn e /p , der notwendig zur H S L Implementation von e ist. Daher w = w = e , der Lieferant wird also genau für seinen niedrigen Einsatz kompensiert, und es ergibt sich folgender Gewinn. pLB + (1 - pL)(B - r) - eL = B - (1 - pL)r - eL. Verträge ohne Reparaturmöglichkeit werden durch JIT dominiert. Vergleicht man die beiden Zielfunktionen, nämlich die unter JIT und die unter traditioneller Vorgangsweise, so sieht man, dass Just in Time dann und nur dann optimal ist, wenn der Gewinn unter JIT größer ist, als der traditionelle, also wenn pHB - eH > B - (1 - pL)r - eL. Umgeformt: (1 - pH)B + eH - eL < (1 - pL)r Angenommen man startet in einer Situation, wo man zwischen den beiden Ansätzen indifferent ist, was müsste sich ändern, damit die Situation für JIT spricht? Z.B. • Es müsste B kleiner werden. Daraus folgt, wenn der Wert des Produktes geringer ist, dann begünstigt es JIT, • e , also die Kompensation für hohen Aufwand, muss kleiner werden • e (also die Kompensation für niedrigen Aufwand) muss wachsen, • p muss kleiner werden, • oder r muss wachsen. H L L 27 6.2.12 Modellansatz II zur möglichen Effizienz von Lean Management: Japanisches versus amerikanisches System von Lieferverträgen Dyer and Ouchi (1993, p54): “While a supplier may have a contract for four years, in reality Toyota’s and Nissan’s partner have essentially open ended contracts that according to Nissan purchasing manager “have no real termination date.” As one Toyota supplier said, ‘Once we win the business, it is basically our business unless we don’t perform. It is our business to loose.” Bemerkung: Diese Art an Vertragsbeziehungen ist traditionell im Gewerbe! Timing Produktion Lieferung Inspektion Offenlegung der Qualität θ t Los x, Qualität θ 27 Wahrsch. α bei Defekt, zurückweisen Curtis R. Taylor and Steven N. Wiggins, Competition or Compensation: Supplier Incentives Under the American and the Japanese Subcontracting Systems, American Economic Review 87, 598 - 618, 1997. Franz Wirl: Industriebetriebslehre 191 Modellzusammenstellung: Annahmen und Variable Käufer („Prinzipal“) benötigt q Einheiten x Größe der Lose Verkäufer („Agent“) Kosten für Lose f + c(θ)x, c´ > 0, c´´ > 0 θ ∈ [θ ,θ ],0 ≤ θ ≤ θ ≤ 1 θ geforderte Qualität, θ minimale Qualität q/x Auftragshäufigkeit x/q Zeit zwischen Aufträgen h:= r/q δ := exp(-hx) Diskontfaktor. α Wahrsch. und m Kosten einer Inspektion w(x, θ) Zahlung für Lieferung x mit Qualität θ. Ziel des Prinzipals min [w + αm]/(1 - δ) x,α,w Anreizkompatibilität Barwert an Quasirenten [w – (f + c(θ) x)]/(1 - δ) ≥ (1 - α) w - (f + c(θ) x einmaliger Gewinn aus ‚shirking‘ Individuelle Rationalität w – (f + c(θ) x) ≥ 0 Annahmen: 1. Ergebnis der Inspektion ist nicht kontrahierbar, aber die Bezahlung kann von der Zufriedenheit des Käufers abhängen. 2. Kosten der Inspektion ua. von der Stichprobe, die wiederum u.a. vom Los ist 3. Geringe Fehler auf Grund der Stichprobe, d.h. eine Inspektion entdeckt immer eine fehlerhafte Lieferung. First-best optimales Los x: Minimierung des durchschnittlichen Wertes der auf Lager liegt. Unser Standardansatz min w (q/x)+ r = min [f + cx](q/x) + ½( f + cx)r => x* = (2fq/(rc))½. Innerhalb des obigen Modells?: min L = w/(1 - δ) = [f + cx]/(1 - δ). Verwendung der Pade-Approximation: δ = exp(-hx) ≈ (2 – hx)/(2 + hx) => (1 - δ) = 2rx/(2q + rx) min (f + cx)(2q + rx)/(2rx) => x* = (2fq/(rc))½. Einschub: Pade-Approximation: Verwendung derselben Ableitungen wie die Taylorreihenentwicklung, aber Konstruktion einer rationalen Funktion zur Approximation von f: Franz Wirl: Industriebetriebslehre 192 r(x) = p(x)/q(x), p und q Polynome der Ordnung m und n dk ( p( x0 ) − f ( x0 )q( x0 ) ) = 0, k = 0,..., m + n dx k wobei q(x0) = 1 als Normalisierungsregel. Taylorapproximation: δ := exp(-hx) = 1 – hx + ½h x 2 2 Pade´-Approximation ist global oft besser als die Taylorapproximation (die lokal optimal ist nach den bekannten Sätzen der Analysis). m = n = 1: p(x) = a + bx; q(x) = α + ßx. a - α = 0, x = 0, k = 0, => a = α = 1. k = 1: b + he-hx(α + ßx) – ße-hx = b + h – ß = 0 k = 2: -h2e-hx(α + ßx) + 2hße-hx = h(2ß - h) = 0 => ß = h/2, b = -h/2 => r(x) = (1 – ½hx)/ (1 + ½hx) = (2 – hx)/(2 + hx). h = 1/1000; f = 1 - h x + (1/2) (h x)^2; g = (2 - h x)/(2 + h x); Plot[{Exp[-h x], f, g}, {x, 0, 500}]; 100 200 300 400 500 0.9 0.8 0.7 0.6 N[{Exp[-h x], f, g} /. x -> 500] {0.606531, 0.625, 0.6} N[{Exp[-h x], f, g} /. x -> 100] {0.904837, 0.905, 0.904762} Abbildung 5.14 Franz Wirl: Industriebetriebslehre 6.3 6.3.1 193 Weitere Fallstudien Japan and the global supply chain 28 Broken links The disruption to manufacturers worldwide from Japan’s disasters will force a rethink of how they manage production LAST year Iceland’s volcanic ash disrupted air transport across Europe and gave the world’s manufacturing supply chain one of its biggest tests since the advent of the low-inventory, just-in-time era. Now, Japan’s quadruple disaster—earthquake, tsunami, nuclear alert and power shortages—has put the supply chain under far greater stress. Three weeks after the massive quake, the extent and likely duration of the disruption are still unclear. There are some enlightening similarities between the shocks that manufacturers are now suffering and those that buffeted the banking system in the 2008 financial crisis. In both cases two of the biggest surprises were the unexpected connections the crisis uncovered, and the extent of the contagion. The problems began in a seemingly well-contained part of the system—subprime mortgages in the case of finance, in manufacturing’s case a natural disaster in an economic backwater—but quickly spread. Like the sudden evaporation of liquidity that the banks experienced, factories are finding that parts that had always turned up reliably have stopped coming. As with financial regulators’ discovery of how poorly they understood the “shadow banking” system and arcane derivatives contracts, manufacturers are discovering how little they know about their suppliers’ suppliers and those even farther down the chain. When Lehman went bust, other banks struggled to measure their exposure because Lehman turned out to be not a single institution but a tangle of many entities. Assembly firms are now finding that their supply chain looks much the same. Just as some financial institutions proved “too big to fail”, some Japanese suppliers are now revealed to be too crucial to do without. For example, two firms, Mitsubishi Gas Chemical and Hitachi Chemical, control about 90% of the market for a specialty resin used to bond parts of microchips that go in to smartphones and other devices. Both firms’ plants were damaged. The compact battery in Apple’s iPods relies on a polymer made by Kureha, which holds 70% of the market, and whose factory was damaged. Manufacturers around the world are now racing to secure supplies of the scarcest components and materials, pushing up their prices. Carmakers in Japan and America have had to scale back production. Toyota fears a scarcity of 500 rubber, plastic and electronic parts. It is not yet clear how much worse things will get as existing stocks run down. Nor can Japanese suppliers be sure yet of how soon they can get back up to speed: hundreds of aftershocks, some strong enough to disrupt production, have rumbled on since the main quake. Given the loss of a very large nuclear plant and shutdowns of others, power shortages may extend for years. Even before the extent of the disruption becomes clear, it seems certain that Japan’s disaster will have a lasting impact on how manufacturers manage their operations, says Hans-Paul Bürkner, boss of the Boston Consulting Group, who was in Tokyo this week. “It is very important now to think the extreme,” he says. “You have to have some buffers.” Over the past decade or so the just-in-time concept of having supplies delivered at the last minute, so as to keep inventories down, has spread down the global manufacturing chain. Now, say economists at HSBC, this chain may be fortified with “just-in-case” systems to limit the damage from disruptions. For instance, suppliers who have near-monopolies on crucial parts and materials may be pressed to spread their production facilities geographically. Their customers may, as a precaution, also switch part of their orders to smaller rivals. Hiwin, a Taiwanese firm with 10% of the market for “linear motion guides”, used in industrial machines, may gain share from customers of Japan’s THK, which dominates the market with a 55% share and which faces power cuts, suggests CLSA, a stockbroker. Assembly firms will be under the same financial pressures as before to keep their inventories of supplies down. So a new growth industry may emerge from the crisis: that of holding and maintaining essential stocks on behalf of manufacturers. Industrial firms, having spent years becoming ever leaner in their production techniques and, in the process, making themselves more vulnerable to these sorts of supply shocks, will now have to go partly into reverse, giving up some efficiency gains to become more robust. One consolation is that their problem of “too crucial to do without” suppliers looks a lot easier to solve than the conundrum of the “too big to fail” banks. 28 The Economist, Mar 31st 2011 Franz Wirl: Industriebetriebslehre 6.4 194 Lernen Die Bedeutung von Lerneffekten in der Produktion ist bekannt, wobei die Lernkostenkurve im interessantesten ist. Bekannt ist vermutlich auch die Anekdote, dass dieser Aspekt – durch hohe Stückzahlen insbesondere zu Beginn der Produktion eines Gutes können die Stückkosten dramatisch gesenkt werden – von Texas Instruments strategisch eingesetzt wurde, in den Markt für Taschenrechner einzudringen, d.h. die ersten Stücke wurden unter den Produktionskosten verkauft in Antizipation der Kostensenkung für später erzeugte Rechner. Im folgende werden zwei Aspekte beleuchtet: Lernkostenkurven und dann ein neuerer Beitrag zum Lernen in Unternehmen. 6.4.1 Lernkostenkurven Lernkostenkurven stellen eine Beziehung zwischen Stückkosten und der Erfahrung die im Produktionsprozess gewonnen dar. Diese Erfahrung wird üblicherweise in der kumulativ erzeugten Stückzahl Q(t) t dQ = q(t ), Q (0) = 0 Q (t ) = ∫ q(t )dt bzw. Q := dt 0 oder allgemeiner durch Berücksichtigung einer Vergessensrate Q (t ) = q(t ) − δQ (t ), Q (0) = 0 beschrieben. Lernkostenkurven wurden erstmalig in einem Bericht von T.P. Wright für die Curtis-Wright Corporation 1936 angewandt. Die erste theoretische Analyse der Auswirkungen von Lernkosten auf die Unternehmensstrategien stammt von Arrow (1962). 6.4.2 Wissenstransfer Im Aufsatz von Lapre und Wassenhove (2002) wird folgendem Phänomen nachgegangen: Von zahlreichen Initiativen zur Erhöhung der Produktivität sind nur zu 25% erfolgreich und einige Veränderungen senken sogar die Produktivität. hoch niedrig konzeptuelles lernen Warum? Die Ursache für einen Erfolg einer Maßnahme ist, dass durch eine Maßnahme gewonnenes Wissen weiter transferiert werden kann. Dies wird an Hand des Unternehmens Bekaert, das 1/3 des Weltvolumens von Stahlgürteln (für Reifen) produziert, dokumentiert. Der Kern des Argumentes ist in der folgenden Projektmatrix konzeptualisiert: Theorien operational bestätigte Theorien Feuerwehr- Künstlerische massnahmen niedrig Fähigkeiten unbestätigte hoch operationales lernen Abb. 5.15 Projektmatrix nach Lapré und Wassenhove (2002). Feuerwehraktionen: Teams versuchen akute Probleme unmittelbar zu lösen mittels kleiner Verbesserungen und ohne wissenschaftliche Ansätze und Unterstützung. Dies kann die Symptome beseitigen, aber die Ursachen bleiben und tauchen vielleicht auf einer anderen Stelle wieder auf, etwa in einem späteren Produktionsprozess. Franz Wirl: Industriebetriebslehre 195 Problemlösungen mit geringem konzeptuellen aber hohem operationalen Lernen finden Lösungen für das anstehende Problem ohne aber was Warum zu verstehen. In Summe finden die Autoren, dass solch künstlerische Lösungen von Problemen nicht mehr an Produktivitätsverbesserungen brachten als reine ‚Feuerwehrmaßnahmen’. Ansätze mit hohem konzeptuellen aber geringem operationalen Lernen resultieren, wenn ungetestete wissenschaftlich aber fundierte Theorien verwendet werden, ohne die Auswirkungen dieses Designs selbst zu testen. Im letzten Fall – hohes konzeptuelles und operationales Lernen – verwenden die Teams wissenschaftliche Ansätze und produzieren wiederholbare Ergebnisse. Dieser Fall ermöglicht auf Grund des Verstehens der Abläufe und der Wiederholbarkeit der Effizienzsteigerung, dass er auch wo anders zum Einsatz kommt. Konsequenzen: Es ist wichtig transferierbares Wissen zu erzeugen. Reine F&E Abteilungen sind ungeeignet für Verbesserung von Prozessen, weil es diesen Abteilungen das operationale Lernen fehlt. 6.5 Aktuell: E-Procurement 6.6 Literaturhinweise: Rohstoffe: Weber, Helmut Kurt: Industriebetriebslehre, 3. Aufl.,1999. Kapitel 7, S 304ff. Traditionelle Bestellmengenpolitik: Weber, Helmut Kurt: Industriebetriebslehre, 3. Aufl.,1999. S 331ff. JIT: Artikel von Fandel et al.., in: Albach, Industrielles Management, S. 23-51. Lean Production: Joachim Reese, Is Lean Production Really Lean?, in G. Fandel, T. Gulledge und A. Jones (Hrsg.) Operations Reserach in Production Planning and Control, 49-70, Springer Verlag, 1993. Fallbeispiele zu Lean Management: James P. Womack and Daniel T. Jones, From Lean Production to the Lean Enterprise, Harvard Business Review March-April 1994, 93. James P. Womack and Daniel T. Jones, Beyond Toyota: How to Root Out Waste and Pursue Perfection, Harvard Business Review September-October 1996, 140. Davenport Thomas H. und John Glaser, Just-in-Time Delivery comes to Knowledge Management, Harvard Business Review vom 2. Juli 2002, S 107- 111. Michael A. Lapre und Luk N. van Wassenhove, Learning Across Lines. The Secret to More Efficient Factories, Harvard Business Review, October 2002, 107- 111. http://www.lucas.co.uk/ http://www.unipart.co.uk/ http://www.pratt-whitney.com/profil/ th th The Economist, April 14 , 2001, p 67, April 4 1998, p 74. Theorie: Franz Wirl: Industriebetriebslehre 196 J.Cremer, Towards an Economic Theory of Incentives in Just-in-Time Manufacturing, European Economic Review, 1995 Curtis R. Taylor and Steven N. Wiggins, Competition or Compensation: Supplier Incentives Under the American and the Japanese Subcontracting Systems, American Economic Review 87, 598 - 618, 1997. Paul Milgrom and John Roberts, Complementarities and Fit. Strategy, Structure, and Organizational Change in Manufacturing, Journal of Accounting and Economics 19, 179 - 208, 1995. Paul Milgrom and John Roberts, The Economics of Modern Manufacturing: Technology, Strategy, and Organization, American Economic Review 87, 511 - 528, 1990. Donald F. Hastings, Lincoln Electric’s harsh lessons from international expansion, HBR, May June 1999, p 162. Outsourcing: Harvard Business Review, May-June 1995. Keiretsu, Fallstudie (Chrysler), Harvard Business Review July-August 1996, 42. Franz Wirl: Industriebetriebslehre 197 7 Langfristige Verträge Grundlegende Vertragsarten im Kontext industrieller Beziehungen zwischen Käufer und Verkäufer: - Spotmarktverträge - Langfristige Verträge - [Netzwerke, Clusters] - Vertikale Integration Definition: Langfristiger Vertrag ist ein Vertragstyp, bei dem die Zeitpunkte der Vertragsabschluß und die Vertragerfüllung auseinander fallen. 7.1 Vorteile von Langfristverträgen gegenüber Spotmarkttransaktionen 7.1.1 Absicherung transaktionsspezifischer Investitionen Um spezielle Produkte kostengünstiger produzieren zu können, sind oft spezifische Investitionen notwendig. Diese Investitionen verursachen Kosten, die wegen ihrer Unabhängigkeit vom Absatz als sunk-costs oder vielleicht „verlorene Aufwendungen“ bekannt sind. Die Kostensenkungen können nur bei der Lieferung an einen speziellen Käufer lukriert werden. k Investitionskosten (versenkte Kosten = sunk costs) c(k) variable Kosten des Verkäufers abhängig von der Investition k v der Wert des gelieferten Produktes für den Käufer c(k) k Abbildung 6.1 Spotmarkttransaktion Bei vollständiger Information ist der Überschuss sowohl dem Käufer als auch dem Verkäufer bekannt: v - c(k) = Überschuss. Sie suchen daher nach dem Verhandlungspreis (p). Verhandlungslösungen. Annahme: Der Überschuss wird also zu je Hälfte (50% zu 50%) geteilt. Diese Annahme kann durch zwei Argumente begründet werden: 1. Kooperativ: Nash Verhandlungslösung (Nash-Bargaining Solution) v – p(k) = p(k) – c(k) p= v + c(k ) 2 2. Nichtkooperativ durch das Rubinstein-Spiel: Franz Wirl: Industriebetriebslehre 198 Zwei Partner müssen sich über die Verteilung eines Kuchens (hier der Überschuss v – c) einigen. Einer schlägt eine Aufteilung vor. Akzeptiert der andere, dann ist das Spiel zu Ende, und der Kuchen wird entsprechend aufgeteilt. Wenn nicht, dann wird die Rolle des Anbieters getauscht ansonst bleibt alles wie in der ersten Runde, allerdings schrumpft der Kuchen von Runde zu Runde. Das Spiel wird so lange wiederholt, bis eine Aufteilung akzeptiert wird. Wenn die Diskontrate hinreichend groß ist, bzw. der Kuchen hinreichend schnell schrumpft, dann ist eine 50% zu 50% Aufteilung in der ersten Runde ein Gleichgewicht (genauer, ein teilspielperfektes, nichtkooperatives Nashgleichgewicht). Daher wird im folgenden und nicht nur in diesem Unterkapitel immer unterstellt, dass der resultierende Überschuss jeweils exakt in der Hälfte geteilt wird. Wenn sich daher der Gewinn des Verkäufers um 1 Geldeinheit erhöht, dann muss er auf Grund der obigen Voraussetzung 0,5 Geldeinheiten an den Käufer abtreten. Dies führt zu folgendem Problem bei Spottransaktionen: G Gewinn des Verkäufers G = p – c(k) – k G= v + c(k ) – c(k) – k 2 Gewinnmaximum verlangt, dass die erste Ableitung verschwindet G’ = c' – c’ – 1 = 0 ⇒ c’ = -2 2 k* k -1 -2 c’ Abbildung 6.2 Effiziente Lösung: Der Gesamtgewinn (GG) sollte maximiert werden. v – c(k) – k max. Daraus folgt die Bedingung: c’ = -1. Ergebnis: Die Spotmarktlösung führt zu einem suboptimalen Investitionsniveau c’ = 2, d.h. der letzte eingesetzte Schilling in Kostensenkungen muss die Kosten um 2 € absenken, um für den Investor rentabel zu sein. Dieses effizientes Investitionsniveau kann auch mit dem Verkaufspreis pv = v + c(k ) + k 2 Franz Wirl: Industriebetriebslehre 199 und durch einen ex ante Vertrag implementiert werden. G = pv – c(k) – k = v + c(k ) + k – c(k) – k 2 Die entsprechende Lösung des Lieferanten für das optimale individuelle Investitionsniveau k ist: c' 1 + – c’ – 1 = 0 2 2 G’ = Daher c’ = 1 und somit Effizienz. Wie nach der obigen Analyse zu erwarten war, erfordert die effiziente Lösung, dass der zuletzt eingesetzte Schilling auch die Kosten um 1 € senkt. Einer der Hauptgründe für langfristige Verträge ist, dass sich zumindest eine der Verhandlungsparteien getätigte spezifische Investitionen (versenkte Kosten) absichern will, denn am Spotmarkt werden nur die variablen Kosten in einer Verhandlungslösung abgegolten. 7.1.2 Risikoaversion Voraussetzung: Entweder Käufer oder Verkäufer müssen risikoscheu sein. Risikoscheu bedeutet, dass eine Partei eine fixe Auszahlung gegenüber einer Lotterie mit demselben erwarteten Gewinn bevorzugt. Sei Y das schwankende Einkommen (z.B. Y = y1 oder y2) mit dem Erwartungswert E(Y) = y (z.B. y = (y1 + y2)/2 und U eine konkave Nutzenfunktion, dann gilt: U(E(Y)) > E(U(Y)) = E(Y) – rV(Y) Wobei r ≥ 0 das Maß für die Risikoaversion ist und V die Varianz des Einkommens ist. In dem Fall ist ein langfristiger Vertrag de facto eine Versicherungspolizze. Optimale Risikoaufteilung: Sei s pmin = c + rV(G ) der minimale Preis, den der Anbieter ex ante akzeptiert bei erwarteten Kosten c , Risikoaversion r und s Gewinn des Verkäufers von G , wobei der hochgestellte Index für s = supplier steht. Analog für den Käufer, der durch den Index b = buyer identifiziert wird: b pmax = v - rV(G ) Die Varianzen der entsprechenden Gewinne hängen nun von der Zufallsvariablen c und der Aufteilung a des Risikos ab: s rV(G ) = V((1 – a)c) b rV(G ) = V(ac). Die optimale Aufteilung dieses Risikos ist nun graphisch unten dargestellt durch den Punkt, wo die Differenz zwischen den Reservationspreisen maximiert wird. Franz Wirl: Industriebetriebslehre 200 € pmin v pmax c a a* 1 Abbildung: Optimale Risikoaufteilung Fall 1: Unsicherheiten ausschließlich auf der Nachfrageseite (v ist stochastisch) und fixe Produktionskosten. Dann versichert ein Festpreisvertrag den Verkäufer, da alle Risiken dem Käufer verbleiben. Abbildung unten zeigt, dass bei inelastischem Angebot sonst der Verkäufer mit der Preisschwankung im Ausmaß von ∆p zu rechnen hätte. Im Falle einer geneigten Angebotskurve ist diese Variation etwas gemildert. Preis Angebot ∆v = ∆p Bandbreite an Nachfrageschwankungen Menge, x Abbildung 6.3: Nachfrageunsicherheit bei vollkommen unelastisches Angebot Fall 2: Unsicherheiten ausschließlich auf der Angebotsseite (c ist stochastisch) und fixe Endnachfrage (v unverändert). Dann versichert ein Festpreisvertrag den Käufer, während der Verkäufer das volle Kostenrisiko trägt. Die Abbildung 6.4 zeigt den Fall vollständig elastischen Angebots, wo die Unternehmen zu kostendeckenden Preisen jede beliebige Nachfrage decken; im Falle eines weniger elastischen Angebots (positiv ansteigende Angebotskurve) bleibt dieser Effekt, wenn auch gemildert erhalten. Umgekehrt versichert ein Spotpreisvertrag den Verkäufer gegenüber eventuelle Kostenrisiken. Franz Wirl: Industriebetriebslehre 201 Preis ∆p =∆c Nachfrage Menge x Abbildung 6.4: Kostenunsicherheit im perfekt elastischen Markt Zusammenfassend: 1. Ein Spotpreisvertrag versichert den Verkäufer gegenüber Kostenrisiken und den Käufer gegenüber Bewertungsrisiken. 2. Ein Festpreisvertrag sichert den Verkäufer gegen Nachfragerisiken und den Käufer gegen Kostenrisiken auf der Angebotsseite. 3. Welcher Vertrag der bessere ist, hängt dann von der relativen Risikoaversion der Vertragsparteien ab (und von zusätzlichen Markparametern, wie Steigungen der Angebots und Nachfragekurven, da diese die resultierende Schwankung bestimmen). 7.1.3 Einsparung der Transaktionskosten Voraussetzung: Als Alternative zum Langfristvertrag gäbe es mehrere Kurzfristverträge. Durch einen langfristigen Vertrag kann man administrative Kosten (Überprüfung der Verträge, Papierkram...). Transaktionskosten im weiteren Sinn inkludieren alle Kosten, die bei Beschaffung über den Markt auftreten, insbesondere Hold-up Kosten. Dies kann nur teilweise durch Verträge reduziert werden. 7.1.4 Auswahl von Partnern – „Screening“ Durch die Bezahlung der Leistungsprämien kann ich mir sicher sein, die Kooperation mit ‚guten’ Partnern zu fördern. 7.2 7.2.1 Vorteile der Langfristverträge gegenüber der vertikalen Integration Weniger Hierarchie Weniger Hierarchie bedeutet mehr und bessere Kontrolle, d.h. Integration vernichtet Kontrollen, kritische Tests und Anreize. 7.2.2 Illegitim: Externalisierung des Schadens Externalisierung des Schadens bedeutet, dass die Teile des Unternehmens die mit Risiko behaftet sind in ein selbständiges Unternehmen umgewandelt werden, um so den etwaigen Schaden zu minimieren. Die Kooperation zwischen den Unternehmen wird allerdings durch Langfristverträge gesichert. 7.2.3 Unabhängigkeit der Unternehmen Die Unternehmen sind nicht ausschließlich aneinander gebunden. Lieferungen von und an andere Unternehmen sind erlaubt. 7.2.4 Outsourcing Trend: aktuell insbesondere von ‚öden’ Spezialistendienstleistungen wie Buchhaltung, Lohnverrechnung etc. Probleme enstanden dabei in jüngster Zeit, wenn ein und dasselbe Unternehme Rechnungsprüfung Franz Wirl: Industriebetriebslehre 202 und Konsulentendienste offerierte, wie man am Fall Enron und damit verbunden der Fall Andersen ersehen konnte. Beispiel Monorail : Economist, December 22nd, 2001: „Monorail Corporation [which sells computers] owns no factories, warehouses or any other tangible asset. It operates from a single floor that it leases in an office building in Atlanta. Its computers are designed by freelance workers. To place orders, customers call a free-phone number connected to FedEx then ships the computer to the customer and sends the invoice to the SunTrust Bank, Monorail’s agent. The company is not much of anything except a good idea, a handful of people, and a bunch of contracts. 7.3 Langfristverträge in einer Arrow-Debreu Welt Die langfristigen Verträge in einer Arrow-Debreu Welt sind vollständige, spezifizierte Kontingenzverträge. Schematische Darstellung: Wahl der Vertragshandlung Transaktionsspezifische Vertrag endet Investition T 0 Τ 1 realisierter Zustand Vertragsabschluß Abbildung 6. 5 Notation: b Käufer s Verkäufer t = 1,...,Τ Zeitpunkte θ = {1,...,n} Zustände a k i jt Vertragshandlung von i bei Zustand j zum Zeitpunkt t i transaktionsspezifische Investitionskosten wobei i∈{s, b}, j∈θ, t...Zeitindex sind. θ ⊂ θ Lieferungen finden zu den Preisen pt( θ ) statt θ keine Lieferung θ⊂θ,θ ∩ θ = ∅, θ ∪ θ = θ E Erwartungsoperator Wt Kooperationsgewinn in Periode t δ Diskontfaktor Maximaler erwarteter Kooperationsgewinn: Τ max { a ijt ,ki} E Σ Wt(ks, a sjt , kb, a bjt )δt t=0 Franz Wirl: Industriebetriebslehre 203 D.h. der Kapitalwert der Kooperationsgewinne kann durch vollständige Kontingenzverträge maximiert werden. Bemerkung: Voraussetzung sind natürlich vollständige Kapitalmärkte, d.h. es muss eine Indifferenz bezüglich der Zahlungsströme bestehen so lange nur derselbe Kapitalwert impliziert wird. Vertragspreise pv pv = {pv0, pv1, ..., pvΤ} pv = {pv0 > 0,pv1 = ...= pvΤ = 0} pv = {pv0 = 0, pv1 = ...= pvΤ =p} pv = { pvtθ = 0, pvt = pvtθ } Zahlenbeispiel: t t = {0, 1} Es handelt sich um zwei Perioden. 0 1 s k = 100 b k =0 D.h., die transaktionsspezifische Investition wird nur vom Verkäufer getätigt. H Zum Zeitpunkt 1 kann der Verkäufer entweder die Ware mit hoher Qualität {q } oder die Ware mit L niedrigerer Qualität {q } liefern. H L Bei q belaufen sich die variablen Kosten auf 2000 GE, bei q auf 1000 GE. Der Diskontfaktor {δ} beträgt 0,9, d.h. dass der Gewinn mit 10% diskontiert wird. Es gibt drei verschiedene Zustände {θ} deren Wahrscheinlichkeit {W t} gleich (je 1/3) ist. Tabelle 6.1: Kosten und Werte je nach Umweltzustand Wert für den Käufer (nach Zustand θ) Qualität fixe Kosten variable Kosten 1 2 3 q H 100 2000 8000 4000 1000 q L 100 1000 6000 3400 500 Die kontingenten Verträge sind jene, die auf den Zustand konditioniert sind. 8000 − 000 = 6000 q H θ = 1 W1 = 6000 − 1000 = 5000 q L a11s = q H Es werden die Waren hoher Qualität geliefert. 4000 − 000 = 000 q H θ = 2 W = 3400 − 1000 = 400 q L a12s = q L Es werden die Waren niedriger Qualität geliefert. 1000 − 000 = −1000 q H θ = 3 W3 = L 500 − 1000 = −500 q a13s = 0 Es gibt keine Lieferung. Der Kapitalwert des Vertrages: Franz Wirl: Industriebetriebslehre 1 ∑W t =0 t 204 1 1 1 ⋅ δ t − k i = 6000 + 2400 + 0 ⋅ 0,9 −100 = 2520 − 100 > 0 3 3 3 Der Kapitalwert der Alternativoptionen: - beim Verkäufer 1000 GE - beim Käufer 500 GE. Vertragsgewinn = 2420 – (1000 + 500) = 920 GE Wenn der Vertragsgewinn 50% zu 50% aufgeteilt wird, dann werden - dem Verkäufer 1000 GE + - dem Käufer 500 GE + 1 920 GE = 1460 GE 2 1 920 GE = 960 GE 2 aus dem Vertrag ausbezahlt. Beispiel an unterschiedlichen Verträgen: 1. EX-ANTE: Der Käufer zahlt beim Vertragsabschluss 2460 an den Verkäufer und erhält dafür die „optimalen“ Lieferungen (θ = 1, θ ), (θ = 2, θ ), (θ = 3,0). H L 1 1 1 G b = −2460 + 0,9 ⋅ 8000 + 3400 + 0 = 960 Gewinn des Käufers 3 3 3 1 1 1 G s = 2460 − 100 − 0,9 2000 + 1000 + 0 = 1460 Gewinn des Verkäufers 3 3 3 2. EX-POST: Der Käufer zahlt bei der Vertragsvollendung. Ergebnis, pv= {0, 2733}, bitte zur Übung überprüfen. 3. Preise/Schadenersatz konditioniert auf Zustand p1 = 5000 p2 = 3200 p3 = 0 (Verifikation zur Übung!) Franz Wirl: Industriebetriebslehre 205 Voraussetzungen für vollständige Kontingenzverträge: EX-ANTE: - Antizipation aller möglichen Eventualitäten - optimale Entscheidungen bestimmen - Verteilung des Kooperationsgewinns - Festlegung der Zahlungsströme EX-POST: - Verifikation des eingetretenen Zustandes - Möglichkeit der Durchsetzung gegenüber Dritten 7.4 Unvollständige, spezifizierte Langfristverträge Gründe für die Unvollständigkeit von Verträgen: EX-ANTE : - Komplexität (es können nicht alle Eventualitäten berücksichtigt werden) - eingeschränkte Rationalität (nicht alle Entscheidungen sind festlegbar, der Vertrag hat Lücken) EX-POST : - Qualität ist oft schlecht beobachtbar - die Durchsetzung ist schwer, besonders beim Gericht - die Durchsetzung kostet. 7.4.1 Vertragsinteresse und wirtschaftliche Unabhängigkeit und Quasirenten EX-ANTE (t=0) p v Vertragspreis t Zeit ={0,...,Τ} r Zinssatz Verkäufer K durch den Vertrag entstehende Investitionskosten k entsprechende amortisierte Kosten je Zeiteinheit (z.B. pro Monat) c variable Kosten (Betriebskosten) s p min, 0 = k +c Käufer vt der Wert des Vertrags für den Käufer b p max, 0 = v0 Franz Wirl: Industriebetriebslehre 206 Tabelle 6.2: Vertragsinteressen ex ante Interesse Verkäufer Käufer positiv p - (k+c) v0 − p v negativ 0 (keine Alternativoption) 0 (keine Alternativoption) konkret p - (k+c) v v0 − p v v Kooperationsgewinn: b s pmax, 0 − pmin,0 = v 0 − ( k + c ) EX-POST (t = Τ) kein Schrottwert (Investition ist komplett wertlos außerhalb der vertraglichen Nutzung) pv Vertragspreis vt Wert des Vertrags für den Käufer c Kosten Tabelle 6.3: Vertragsinteressen ex post Interesse Verkäufer Käufer positiv pv− c vt − p v negativ 0 0 konkret pv− c vt − p v Kooperationsgewinn: vt − c Da sich der Wert für den Käufer nicht stark verändert und vt ≈ v0 angenommen werden kann, folgt daraus, dass ( vt − c ) >> v0 − (k + c) . Quasirenten hier pv − c sind die laufenden Gewinne, die zur Deckung der Investitionen (hier nur des Verkäufers) verwendet werden. Erweiterung um potentielle Vertragspartner Dabei steht unten der Index a für Kosten und Preise die mit dieser Alternative verbunden sind: Tabelle 6.4: EX-ANTE Vertragsinteressen bei Erweiterung um potentielle Vertragspartner Interesse Verkäufer Käufer positiv p v − (k + c ) v0 − pv negativ p as , 0 − (k a + c ) v0 − p ab, 0 konkret p v − p as , 0 p ab, 0 − p v Das Interesse für den Vertrag ist gering Franz Wirl: Industriebetriebslehre - für Verkäufer, wenn p v < p a , 0 - für Käufer, wenn p a , 0 < p v . 207 s b Tabelle 6.5: EX-POST Vertragsinteressen bei Erweiterung um potentielle Vertragspartner Interesse Verkäufer Käufer positiv pv − c vt − p v negativ pas , t − ca vt − pab, t konkret pv − pas , t − (c − ca ) pab, t − pv Die Unterschiede zwischen c und c a ergeben sich durch das Umrüsten von der spezifischen auf die alternative Verwendung. In der Regel steigen die Kosten des Verkäufers ex-post stark an, die Kosten des Käufers bleiben aber unverändert. Bemerkung Der Verkäufer verdient die Quasirente von p v − c. Der Sinn des Vertrages ist es dem Verkäufer diese Quasirente zu sichern, die er zur Deckung der spezifischen Investitionen braucht. Problem Bei unvollständigen Verträgen werden ex-post Ressourcen zur Aneignung der verschwendet. Die Antizipation von dieser Aneignung führt zu ineffizienten Investitionen. Zahlenbeispiel: a Alternativoption t = 5 Jahre r = 12% per annum. Vertragsinteresse ex-ante (monatlich) Verkäufer K = 1.000.000,k = 21.936,− c = 15.000,− Investition in eine Spezialanlage Monat Monat Gesamtkosten: 36.936,v p a = 39.000,c a = 38.000,=> Gewinn aus Alternativoption beträgt 1000. Quasirenten Franz Wirl: Industriebetriebslehre 208 Käufer v = 50.000,v p a = 41.000,v Tabelle 6.6: Ex ante Vertragsinteressen bei einem angenommenen Vertragspreis von p = 40.000,Vertragsinteresse Verkäufer Käufer positiv 40.000 – 36.936 = 3.064,- 50.000 – 40.000 = 10.000,- negativ 40.000 – 39.000 = 1.000,- 50.000 – 41.000 = 9.000,- konkret 3.064 –1.000 = 2.064,- 10.000 – 9.000 = 1.000,- Das Interesse des Verkäufers ist ca. zwei Mal so groß wie das des Käufers. Vertragsinteresse ex-post monatlich Verkäufer K = 10.000,- Schrottwert der für die Spezialanlage erzielt werden kann. k = 219,− also die minimale Kompensation, um die Maschine zu behalten. Monat c = 15.000,− Monat Gesamtkosten: 15.219,v p a = 20.000,Käufer v = 50.500,- (etwa auf Grund ex-ante nicht bekannter Vorteile des Bauteils) v a = 50.000,v p a =41.500,Tabelle 6.7: v Ex post Vertragsinteressen bei einem angenommenen Vertragspreis von p = 40.000,Interesse Verkäufer Käufer positiv 40.000 – 15.219 = 24.781,- 50.500 – 40.000 = 10.500,- negativ 20.000 – 15.219 = 4.781,- 50.000 – 41.500 = 8.500,- konkret 40.000 – 20.000 = 20.000,- 10.500 – 8.500 = 2.000,- Ex post ist das Interesse des Verkäufers ca. 10 Mal so groß wie das des Käufers. Das drückt aus, dass sich der Verkäufer durch die spezifischen Investitionen in die Abhängigkeit vom Käufer begibt. 7.5 Probleme bei langfristigen Verträgen Es ist sehr schwierig zu ökonomisch gerechtfertigten Kosten durchsetzungsfähige Regeln zu finden. Bsp.: Kalifornien-Strom. Ex-post, wenn die Quasirenten aufgeteilt werden sollen, spezifiziert der Vertrag nicht notwendigerweise den Austausch, sondern wird oft als Drohpunkt für die Neuverhandlungen gesehen. Hohe Quasirenten implizieren hohe Abwanderungstendenzen, wo dies der Fall ist, wird vertikale Integration resultieren. (Quasirenten – Hold-up). Beispiel: Der Spotpreis p nimmt folgende Werte an: Franz Wirl: Industriebetriebslehre p1 = 1000 p= 209 ½ ⇒ Ep = 2000. mit Wahrscheinlichkeit p2 = 3000 ½ Nach Vertragsabschluss kann der Produktionskosten von c0 auf c senken: Verkäufer durch eine spezifische Investition k s seine ks = 150: c0 = 950 → c = 750, allerdings nur bei Lieferung an den Vertragspartner. Analog kann der Käufer seinerseits den Wert des Produktes wiederum durch spezifische Investitionen k erhöhen, die ebenfalls nur in Kooperation mit dem Vertragspartner realisierbar sind: b Kb = 250: v0 = 3200 → v = 3500. Preise und Kosten sind in diesem Beispiel so, dass in beiden möglichen Fällen an Spotpreisen eine Vertragserfüllung wirtschaftlich ist. Festpreisvertrag: Im folgenden wird gezeigt, dass unter diesen Umständen ein Festpreisvertrag nicht durchsetzbar ist. Um vom Risikoaspekt hier abzusehen um das Beispiel alleine auf die Hold-UpProblematik abzustellen, nehmen wir als Vertragspreis den erwarteten Spotpreis: pv = Ep = 2000. Fall p = 1000 In diesem Fall kann der Käufer glaubwürdig dokumentieren, den Vertrag nicht einzuhalten, weil der Gewinn bei Vertragsbruch: 3200 – 1000 = 2200 größer ist als bei Erfüllung: 3500 – 2000 = 1500. b Hat nun der Verkäufer die Investition k getätigt, ist er bereit p = 1300 zu akzeptieren, ansonst p = 1000. Dieses (scheinbar unverschämte) Angebot nimmt der Käufer jedoch an, weil es für ihn nach wie vor attraktiver (hier nur für den Fall p = 1000, denn für p = 1300 erhöht sich ja nur die Profitabilität für den Verkäufer) 1000 – 750 = 250 als die Alternative 1000 – 950 = 50 ist. Fall p = 3000 In diesem Fall droht der Verkäufer glaubwürdig Spotmarkttransaktion den viel höheren Ertrag mit einem Vertragsausstieg, weil die 3000 – 950 = 2050 > 2000 – 750 = 1250 liefert. So wie oben ist es für beide wieder attraktiv unter neuen Bedingungen zu kooperieren, so lange nur eine Seite spezifische Investitionen getätigt hat. Hat der Verkäufer investiert ist er bereit zum Preis von p = 2050 + 750 = 2800 s zu liefern, andernfalls für k = 0 nur zum Preis p = 3000. Aber auch in letzterem Fall kommt des zu Lieferungen, wenn nun der Käufer seinerseits investiert hat. Allerdings entsteht dabei das Problem, dass bei Antizipation dieses ex-post Vertragsbruches zumindest einer Partei der Anreiz in diese spezifische Investition verloren geht. Dieses Zerstören an sich wirtschaftlicher Investitionsmöglichkeiten ist das eigentlich Negative an der Hold-Up-Problematik, denn der Rest involviert nur Transfers, also legt fest, wer mehr vom Kuchen bekommt. Denn für den Verkäufer ergeben sich folgende erwarteten Gewinnauszahlungen (im günstigeren Fall, dass der Partner investiert) hat mit der Investition: Franz Wirl: Industriebetriebslehre 210 ½(1300 – 750) – ½(2800 – 750) – 150 = 1150 und ohne der Investition: ½(1300 – 950) – ½(3000 – 950) = 1200. Daher lohnt sich für den Verkäufer die Investition nicht! Ähnliches erhält man für den Käufer zuerst mit ½(3500 – 1300) – ½(3500 – 2800) – 250 = 1200 und dann ohne der Investition: ½(3200 – 1000) – ½(3200 – 2800) = 1300. Im Folgenden sind einige Beispiele angegeben, wie in der Praxis mit dieser Hold-Up Problematik umgegangen wird, angegeben: • Druckgewerbe: Zeitungen besitzen in der Regel die Druckerei, Buchverleger vergeben Aufträge an Druckereien. • Erdölindustrie: Raffinerie und Pipelines sind im Besitz der Ölgesellschaften (oft über Anteile), hingegen werden Tankerlieferungen kontrahiert. • Landwirtschaft: Wein- und Obstanbau fast nur auf eigenen Flächen, Getreideanbau auch auf gepachteten Flächen. 7.6 Verträge zwischen Rigidität und Flexibilität Die laufende Anpassung von Verträgen an veränderte Bedingungen kann ex-ante durch Anpassung der • Preise (auf unterschiedlichste Art und Weise) und • der Mengen geschehen. Ex-post bestehen Adaptionsmöglichkeiten durch • die Berücksichtigung besonderer Umstände (Höheregewaltklausel), • die Delegation von Entscheidungsrechten • und Neuverhandlung Im folgenden werden einige dieser Formen kurz vorgestellt. 7.6.1 Preisabhängige Vertragspreise In vielen Langzeitverträgen ist der Vertragspreis an die Entwicklung anderer Preise gekoppelt: + Vermeidung, dass der Vertragspreis zu stark von den Knappheitspreisen abweicht + Risikoallokation - Oft schwierig einen Marktpreis als Referenzgröße zu finden - Bei transaktionsspezifischen Investitionen existieren entweder keine Spotmärkte oder sind sehr dünn. Die häufigste Form hier sind Spotmarktklauseln: Der Vertragspreis wird an einen beobachtbaren oft sogar publizierten Spotpreis gebunden. Bsp.: Uran, Kupfer und Erdölpreisindexklauseln. Indexklauseln: Die Preise werden an mehr oder weniger komplizierte Preisindizes gekoppelt. Dies ist gebräuchlich bei Rohstoff- und Energielieferungen. So ist der Erdgaspreis an den Heizölpreis gekoppelt. Eine einfache Variante ist, die Inflationsrate für Kostensteigerungen heranzuziehen: Kostenelementklauseln. Beispiele für letzte Variante finden sich in der Praxis der britischen Regulierung (%Preissteigerungen nach der Formel RPI - X, wobei RPI für die Inflationsrate steht), Mietverträge, selbst Banken unterwerfen sich freiwillig ihren Kunden gegenüber einer solchen Verpflichtung (z.B. Bank AustraiCreditanstalt). Franz Wirl: Industriebetriebslehre 7.6.2 211 Meistbegünstigungsklauseln In einigen Lieferverträgen erfolgt die Preisanpassung über sogenannte Meistbegünstigungsklauseln. Durch eine solche Klausel verpflichtet sich der Verkäufer, vom Käufer den jeweils niedrigsten Preis zu verrechnen. Oder der Käufer verpflichtet sich den jeweils höchsten Preis, den er anderen Lieferanten bezahlt, zu zahlen. Daher: Meistbegünstigungsklauseln binden den Vertragspreis an die laufenden Preise, die mit jeweils neuen Vertragspartnern ausgehandelt werden. Dabei können neue und aktuelle Marktbedingungen berücksichtigt werden ohne, dass vergleichbare Spotmärkte existieren. In diesem Sinne erlauben, Meistbegünstigungsklauseln den Vertragsparteien auch mit ihren alten Verträgen die Möglichkeit von neuer Information zu profitieren, noch dazu kostengünstig in der Umsetzung; ‚Trittbrettfahrer’. 7.6.3 + Verkäufermonopol: Schutz des Abnehmers, der entsprechende spezifische Investitionen getätigt hat gegen Ausbeutung durch das Monopol, weil neuer Vertrag mit neuem Abnehmer am besten die Knappheitsrenten widerspiegelt. + Monopson (des Käufers): Hier Schutz des Verkäufers, entsprechende spezifische Investitionen getätigt hat gegen Ausbeutung durch das Monopson des Käufers, weil der höchste Preis, den der Abnehmer zu zahlen bereit ist, ein guter Knappheitsindikator ist. - Stabilisierung eines Kartells. Kostenabhängigen Vertragspreise versus Festpreise Bei vielen Langzeitverträgen – z.B. Entwicklung von Waffensystemen, Satelliten, Großbauten, schlüsselfertige Industrieanlagen – hat der Verkäufer nur eine sehr vage Vorstellung über die entstehenden Kosten. In solchen Fällen können sich die Vertragsparteien auf Erstattungsverträge (costplus contracts) einigen. Dem Verkäufer werden die anfallenden Kosten erstattet und zusätzlich erhält er einen Gewinnaufschlag. Der Nachteil dabei ist, dass kein Anreiz zur Kostensenkung besteht, ja bei prozentualem Aufschlag sogar einen Anreiz besteht, die Kosten zu erhöhen. Dies kann durch Festpreise vermieden werden. Diese haben selbst wiederum Anreizprobleme: Zurückhalten von Informationen über die Kosten Qualitätsverschlechterung Die folgende Abbildung zeigt das Ausmaß an Flexibilität und Rigidität zwischen diesen beiden Vertragsformen auf. vollständige Rigidität Festpreis Kostenelementklauseln Erstattungspreis mit Preisobergrenze Festes Kostenziel Sukzessive angepasstes Kostenziel vollständige Flexibilität Erstattungspreis Abbildung: Flexibilität und Rigidität unterschiedlicher Vertragsformen. 7.6.4 Erfolgsanhängige Vertragspreise Der Preis, den der Käufer für die Leistung des Verkäufers zahlt, wird an den Erfolg gebunden, der Käufer durch die Nutzung der Leistung als Input erzielt. Klassisches Beispiel in der Landwirtschaft: Pacht wird durch einen Fruchtanteilsgenuss festgelegt (Ernteteilungsverträge). + verbesserte Risikoaufteilung gegenüber Festpreis + Reduktion von moralischem Hassard In der Landwirtschaft sind folgende Möglichkeiten denkbar und in Gebrauch für Flächen, die nicht ausschließlich vom Besitzer bewirtschaftet sind: 1. Landarbeiter gegen Lohn. Der Bauer trägt dann das volle Ernterisiko 2. Pachtzins. Pächter trägt das gesamte Risiko 3. Ereignisabhängiger Pachtzins, Ernteteilungsverträge. Franz Wirl: Industriebetriebslehre 212 Diesem offensichtlichen Vorteil stehen auch Nachteile gegenüber, denn ansonsten gäbe es ja die anderen Varianten gar nicht. - Transaktionskosten: komplexerer Vertrag - Risikostreuung ist auch anders möglich: Mischung von festem Pachtzins und Lohnarbeit. Deshalb ist Risikostreuung keine allein befriedigende Erklärung für die unterschiedlichen Verträge. Weitere Gründe für Ernteteilungsverträge sind: (i) Der Grundeigentümer hat einen Anreiz den Pächter bei der Bewirtschaftung zu beraten. (ii) Weniger Raubbau am Boden als bei festem Pachtzins. (iii) Weniger Anreiz teure Information zu akquirieren (Bsp. Holzernteverträge) Hingegen bei hohem unternehmerischen Einsatz des Pächters (z.B. in Indien bei Tabak, aber kaum bei Reis) schließen diese Bauern mit den Grundeigentümern Festpreisverträge ab, um in den Genuss ihres unternehmerischen Handelns zu kommen, da sie den Residualgewinn vollständig behalten dürfen im Unterschied zu einem Ernteteilungsvertrag. Erfolgsabhängige Preise sind vor allem im Franchising üblich, eben um diese Anreizprobleme zu mildern. Frage, Problem: Warum sind Billa-Filialen im Eigentum, aber McDonalds als Franchiseunternehmen organisiert? 7.6.5 Mengenanpassungen und Take-or-Pay Klauseln In vielen Langzeitverträgen wird bereits ex ante eine Flexibilität der zu liefernden Menge vereinbart. Mengenanpassungen des Käufers sollen helfen, auf veränderte Absatzbedingungen zu reagieren. Dies ergibt vor allem dann Sinn, wenn sich um sehr spezifische Leistungen handelt, weil dann der Käufer keinen Anreiz hat seine sanktionslose Wahl strategisch zu treffen. Ein Vorteil ist, dass Preisanpassungen zwangsbedingt in einem Nullsummenspiel resultieren, der Gewinn des einen ist der Verlust des anderen, ist dies bei Mengenanpassungen nicht so, was die Suche nach kooperativen Lösungen erleichtert. Bsp.: Dem Käufer wird das Recht eingeräumt seinen Bezug im Ausmaß von z.B. 10% zu variieren. Die dt. Automobilindustrie sichert ihren Lieferanten typischerweise zu einen bestimmten Prozentsatz der gebauten Autos mit Teilen vom Lieferanten auszustatten. Ein besonderer Fall sind die in der Erdgasindustrie üblichen Take-or-Pay-Verträge. Dabei verpflichtet sich der Abnehmer (eine Raffinerie, eine Pipeline, ein Versorgungsunternehmen) einen Mindestprozentsatz der vertraglich vereinbarten Menge auf jeden Fall zu bezahlen, selbst wenn er diese Menge im Moment nicht gebrauchen kann. Die Zahlungen für eine zusätzliche Einheit verbunden mit diesem Vertrag sind unten (fett) dargestellt; die zusätzlich eingetragenen Produktionsgrenzkosten dienen der folgenden Diskussion. € Grenzkosten für Bezug ohne ToP Klausel Grenzkosten der Produktion Menge (q) qmin qmax Abbildung 6. 6: Darstellung eines Take-or-Pay Vertrages Erklärungen und Gründe für solche Verträge: 1. Risikoallokation: Durch die Mindestabnahmegarantie wird ein Teil des Finanzrisikos des Produzenten und Verkäufers auf den Käufer überwälzt 2. Approximation der Grenzkostenkurve insbesondere im Falle von Erdgas [siehe obige Abbildung]. Franz Wirl: Industriebetriebslehre 213 3. Verringerung des Risikos, dass der Abnehmer durch Verzögerung der Abnahme versucht, den Preis zu drücken. 4. Anpassung an veränderte Marktbedingungen. 5. Einfachheit 7.6.6 Höhere-Gewalt Klausel Höhere-Gewalt (oder force majeure) Klauseln befreien den Verkäufer beim Eintreten bestimmter Ereignisse von seiner Leistungspflicht, bzw. gewähren einen Aufschub. Da diese Klauseln das Risiko auf den Käufer überwälzen, stellt sich die Frage, unter welchen Bedingungen dies ökonomisch ist. Angenommen, das (zufällige) Eintreten des Elementarereignisses erhöht die Produktionskosten stark von: c → c’, c’ >> c so, dass der Anreiz zur vertraglichen Lieferung negativ wird: c’ > p Ein Vertragsbruch auf der Basis dieser Klausel sollte jedoch trotzdem das positive Vertragsinteresse des Käufers (v – p) schützen. Eine solche Schadenersatzregelung hat mehrere Vorteile: (i) Der Verkäufer bricht nur dann den Vertrag, wenn das auch effizient ist: c’ > v (ii) Es bietet Anreize zur Vorsorge. Trotzdem kann diese Schadenersatzregel unerwünschte Folgen haben. Erstens: Im obigen Szenario trägt jetzt der Verkäufer das gesamte Risiko von Kostensteigerungen. Denn der Käufer erhält entweder die Lieferung oder einen vollständigen Schadenersatz für das Vertragsinteresse. Ist nun der Verkäufer stärker risikoavers als der Käufer resultiert daraus eine ineffiziente Risikoallokation (der risikoaverse Verkäufer versichert den etwa sogar risikoneutralen Käufer). Diese Situation kann verbessert werden, etwa dadurch, dass man dem Verkäufer ein Rücktrittsrecht einräumt, wenn die Vertragserfüllung nicht mehr effizient ist, also c’ > v In diesem Fall erleidet der Verkäufer keinen Verlust (aber verliert seine Quasirente gegenüber dem Fall von Lieferung ohne dem Elementarereignis). Der Käufer trägt allerdings das Risiko, dass sein positives Vertragsinteresse sich nicht mehr realisieren lässt. Daher ist der Erwartungswert eines Vertrages mit Rücktrittsrecht für den Käufer geringer, für den risikoaversen Verkäufer jedoch höher. Damit besteht die Möglichkeit über einen entsprechenden Preisnachlass beide besser zu stellen. Zweitens ist es oft schwierig, das positive Interesse des Käufers zu quantifizieren, und noch schwieriger dies bei Dritten durchzusetzen. Diese Schwierigkeiten der Festlegung des wahren Schadens gilt in vielen anderen Fällen auch, insbesondere bei Umweltproblemen. Dies ergibt sich besonders daraus, dass der Käufer die Möglichkeit hat, auf Substitute auszuweichen. Daraus resultieren ex-post Konflikte. Daher begünstigen folgende Faktoren ein ex-ante eingeräumtes Rücktrittsrecht des Verkäufers: 1. Verkäufer ist stärker risikoavers als der Käufer. 2. Möglichkeiten der Kostenbegrenzung sind für den Verkäufer nahezu ausgeschlossen 3. Der Käufer ist besser fähig ex-post den Schaden zu mildern. 7.6.7 Expost Anpassungen durch Delegation und Neuverhandlung Die vorher besprochenen Erweiterungen versuchen ex-ante eine gewisse Flexibilität in den Vertrag einzubringen. Dies kann aber auch erst ex-post nach Beobachtung der Umstände gestehen. Dabei sind folgende Varianten zu beobachten: 1. Delegation von Entscheidungsrechten an eine Vertragspartei 2. Delegation von Entscheidungsrechten an Dritte (Gerichte, Schiedsgerichte) 3. Neuverhandlung Franz Wirl: Industriebetriebslehre 214 In die erste Kategorie - Delegation von Entscheidungsrechten an eine Vertragspartei – fallen Preisänderungsvorbehalte. Auf der anderen Seite in dieser Kategorie steht das Lösungsrecht des Käufers bei Preiserhöhungen. Solche Klauseln machen dann ökonomischen Sinn, wenn die gesamten erwarteten Kosten durch Preisänderungsvorbehalte geringer sind als die nächstbeste Alternative. In kompetitiven Märkten mit Listenpreisen für Konkurrenzgüter können dies Käufer akzeptieren. Weniger effizient sind solche Klauseln, wenn: 1. Zuverlässige Knappheitsindikatoren existieren (Spotmärkte). 2. Geringer Wettbewerb so, dass der Listenpreis nicht der Knappheit entspricht. Ein weiterer Fall der in die erste Kategorie fällt sind Mengenoptionen, d.i. einer Partei (Käufer oder Verkäufer) wird das Recht zu übertragen, die Mengen erst zum Lieferzeitpunkt festzulegen. Bsp.: • Lieferabrufe der Automobilhersteller gegenüber Lieferanten spezifischer Bauteile. • Mineralölkoks - Der Verkäufer legt die Menge fest zu der der Käufer zur Abnahme verpflichtet ist. Solche Verträge werden dann geschlossen, wenn es (a) Schwierig ist die Menge festzulegen. (b) Missbrauch seitens des Ausübers der Mengenoption gering ist. Solche Mengenoptionen ermöglichen es, der begünstigten Partei die Mengen der jeweils aktuellsten Situation anzupassen und zwar ohne kostspielige Neuverhandlungen zu führen. Da staatliche Gericht oft wenig geeignet sind eine schnelle, kostengünstige Entscheidung zu fällen, geht man dazu über, bereits im Vertragsabschluss Schiedsgerichte für potentiell strittige zukünftige Entscheidung vorzusehen. Dieses Vorgehen nimmt zu und dies vor allem bei internationalen Verträgen. Um die Bezeichnung Langzeitvertrag zu rechtfertigen, darf der Vetrag nicht jederzeit und ohne Angabe von Gründen von einer Partei gekündigt werden, um Neuverhandlungen zu erzwingen. Deshalb sind solche Neuverhandlungen an bestimmte und entsprechende Klauseln gebunden. Typische Neuverhandlungsklauseln habe eine Ähnlichkeit mit den Höhere-Gewalt Klauseln. Der Unterschied ist, dass letztere eine Aussetzung der Lieferung bezwecken, während hier eine Lieferung, wenn auch unter geänderten Bedingungen, zustande kommen soll. Neuverhandlungsklauseln können - sehr allgemein und - eher unverbindlichgehalten sein - oder Fristen oder Schwellwerte spezifizieren. Ein typischer Vertreter eines solchen Typs sind die Neuverhandlungsklauseln bei langfristigen Bau- und Anlagenvorhaben. Bei diesen Projekten, wo jedes singulär ist, besteht hohe gegenseitige Abhängigkeit. Crocker-Masten (1991): Neuverhandlungsklauseln werden gegenüber Anpassung der Vertragspreise in folgenden Fällen begünsigt: - je schwieriger es ist, die zukünftigen Zustände zu identifizieren, - je schwieriger entsprechende Anpassungsformeln sind, bzw. deren Durchsetzung gegenüber Dritten (gilt auch für die obigen Zustände) schwierig ist, - mit der Laufzeit des Vertrages - Bei fixem Mengenbezug können festgelegte Preisanpassungsklauseln oft die Änderungen nur ungenügend einfangen. Dies findet sich in etwa bestätigt in einer Analyse von 234 amerikanischen Erdgaslieferverträgen. 7.7 Private Mechanismen zur Durchsetzung von Langzeitverträgen Wenn sich Verträge nicht oder nur teilweise vor Gericht durchsetzten lassen, dann müssen sich die Vertragsparteien ex-ante nach Alternativen umsehen, damit das jeweilige Eigeninteresse an der Erfüllung des Vertrags gewahrt bleibt. Dies kann durch mehrere Alternativen ermöglicht werden: - Selbst durch setzende Verträge Franz Wirl: Industriebetriebslehre - Reputation - Pfand - Vertragsstrafen 7.7.1 215 Sich selbst durchsetzende Verträge Selbst bei völliger Abwesenheit staatlicher Instanzen, können die Parteien ein Interesse haben einen Vertrag zu erfüllen, sofern sie hinreichend an zukünftigen Transaktionen mit dem entsprechenden Vertragspartner interessiert sind. Zur besseren Darstellung betrachten wir folgendes einfaches Modell (eines wiederholten Spiels): (p-c, v – p) Z Legende: K K = Käufer V = Verkäufer V L NZ (-c, v) NL Z L = liefern NL = nicht liefern Z = zahlen (p, -p) NZ = nicht zahlen NZ (0, 0) Abbildung 6. 7: Spiel zwischen Verkäufer und Käufer in extensiver Form Dieses Spiel in extensiver Form hat folgende Auszahlungsmatrix: Tabelle 6.x: Auszahlungsmatrix für das Spiel aus Abbildung 6.7. Käufer Z NZ L (p –c), (v – p) (-c), v NL p, 0 0 Verkäufer (-p) Da es sich dabei um eine Variante des Gefangenendilemmas handelt, besteht in einer einmaligen Lieferbeziehung kein Anreiz zur Kooperation. Jedoch in einem unendlich wiederholten Spiel ständig wiederkehrender Lieferbeziehungen kann Kooperation erreicht werden, wenn der Barwert an Gewinnen aus einer Aufrechterhaltung der Kooperation den kurzfristigen Gewinn aus opportunistischem Handeln übersteigt. Der Kapitalwert des Gewinns für die Spieler s und b (mit den entsprechenden Diskontraten rs und rb) bei Aufrechterhaltung der Kooperation ist und zu jedem Zeitpunkt t ist: ∞ Vs = ∑ (1 + rs ) t −t ( p − c) = t =t ∞ Vb = ∑ (1 + rb ) t −t p−c , rs (v − p ) = v − p . t =t rb Da der Gewinn des Verkäufers aus opportunistischem Verhalten c, den eingesparten Produktionskosten, entspricht, erfordert die eigennützige Einhaltung des Vertrages, p−c >c rs für den Verkäufer und v− p >p rb Franz Wirl: Industriebetriebslehre 216 für den Käufer ist. Dies ist für Vertragspreise p gewährleistet die folgende Ungleichung erfüllen: (1 + rs )c ≤ p ≤ v 1 + rb Dieser Vergleich unterstellt implizit, dass die Lieferbeziehungen für immer beendet werden, wenn ein Partner sich unkooperativ verhält. Bemerkungen: 1. Dieses Ergebnis gilt auch für endliche Wiederholungen, wenn der Stoppzeitpunkt selbst unsicher ist. Allerdings erhöht dies die entsprechenden Diskontfaktoren und schränkt damit den Bereich zulässiger Vertragspreise ein. 2. Dieses positive Ergebnis wird durch eine sogenannte Trigger-Strategie erzielt (Folk-Theorem), indem man einmalige Nichterfüllung ad infinitum durch Kooperationsverweigerung bestraft. Dies ist ohne Zweifel eine sehr unerbittliche Strategie, und es ist auch nicht immer im Sinne der Spieler diese Höchststrafe zu exekutieren. 3. Diese obige Gleichgewicht in Triggerstrategien ist nur eines der möglichen, insbesondere bleibt die statische Lösung nicht zu kooperieren ebenfalls ein Nash-Gleichgewicht. 4. Diese Strategie ist nicht neuverhandlungsresistent (re-negotiation proof). Obwohl eine Partei den Vertrag verletzt hat, ist es oft nach wie vor vorteilhaft, den Kooperationsgewinn über einen Vertrag anzustreben und auf eine Bestrafung des Vergangenen (bygones are bygones) zu verzichten. 7.7.2 Reputation Jede Vertragspartei, die vor der Entscheidung steht, ob es sich lohnt nicht einklagbare Vertragsbestandteile zu brechen (z.B. durch Lieferung von Gütern schlechter Qualität), muss berücksichtigen, dass sich dieses unredliche Verhalten auch unter anderen Marktteilnehmern herumspricht und dadurch die Chancen auf zukünftige Verträge beeinträchtigt. Der Verkäufer hat die Möglichkeit ein Gut in niedriger (l) und hoher Qualität (h) zu den Kosten cl < ch herzustellen. Der Käufer ist vor Vertragsabschluss zum Vertragspreis p nicht in der Lage, die Qualität zu überprüfen (z.B. bei einem Autokauf). Der Käufer hält nun die Beziehung aufrecht solange die hohe Qualität geliefert wird. Entdeckung einer Lieferung mit schlechter Qualität führt zum Abbruch der Geschäftsbeziehungen. Annahmen: (i) (ii) (iii) Lieferung führt zum Absatz q. Offenes Vertragsende, das zu jedem Zeitpunkt mit derselben Wahrscheinlichkeit y eintritt. Vertragsverletzungen werden allen Marktteilnehmern bekannt. Dies ergibt folgen Kapitalwert (auf den Zeitpunkt t abgezinst) aus Vertragserfüllung, d.h. bei Lieferung der hohen Qualität: Vs = ∞ ∑ (1 + r ) t t −t (1 − y ) = t +1 t −t ( p − ch ) = ∑ 1 − y t = t +1 1 + r ∞ t −t ( p − ch ) = δ ( p − ch ) : =δ 1−δ Ein opportunistischer Verkäufer erlöst einmalig zum Zeitpunkt t den Zusatzgewinn von q(ch – cl). Vertragseinhaltung erfordert für diesen Verkäufer daher, dass (ch − cl ) ≤ 1 − y ( p − ch ) . r+ y 7.7.3 Faustpfand (hostages) und andere Sicherheiten Da die Drohung der Vertragsbeendigung oder Reputationseffekte oft nicht ausreichen, Vertragserfüllung sicherzustellen, stellt sich die Frage, wie ein Vertragsbruch zusätzlich verteuert werden kann. In diesem Franz Wirl: Industriebetriebslehre 217 Kapitel wird dies dadurch erreicht, dass zum Vertragsabschluss zwischen den Parteien wechselseitig ein Pfand hinterlegt wird, das im Falle eines Vertragsbruches Dritten zugute kommt. Beispiele: Pfandleiher geben Kredite gegen Hinterlegung eines Wertstückes. Beim Hypothekardarlehen dienen Immobilien zur Sicherung. In der folgenden Darstellung wird auf ein einfaches Zweiperiodenmodell zurück gegriffen. Angenommen ein Verkäufer tätige zum Zeitpunkt t = 0 spezifische Investition von k für den Verkauf von einer Einheit (mit Produktionskosten c) and den Käufer zum Vertragspreis pv. Der Wert des Vertrages für den Käufer, wie üblich bezeichnet mit v, sei eine Zufallsvariable: vN < c + k mit Wahrscheinlichkeit π v= vH > c + k mit Wahrscheinlichkeit (1 - π). Beide Parteien seien risikoneutral und vor Vertragsabschluss herrsche vollständige Konkurrenz unter den Anbietern. Um Vertragstreue zu signalisieren, hinterlegt der Käufer ein Pfand mit Wert h (für den Käufer) und dem Wert αh, α < 1, für den Verkäufer. Zum Zeitpunkt der Lieferung hat der Käufer folgende Möglichkeiten: b (a) Er kann den Vertrag erfüllen und das Pfand zurückfordern mit dem Gewinn: G = v – pv. b (b) Er bricht den Vertrag und verwirkt damit das Pfand, G = –h. Daher wird der Vertrag für v > pv – h erfüllt werden. Aus der Sicht des Verkäufers gibt es zwei Möglichkeiten bedingt durch Realisierungen der Zufallsvariablen. 1. Ist v so niedrig, dass der Käufer den Vertrag bricht, dann resultiert der Gewinn G = αh – k. N s N s 2. Der Vertrag wird nicht gebrochen und bei v > pv – h nie, was G = pv – c – k liefert. N Der erste Fall (v niedrig) führt dazu, dass der Vertrag mit Wahrscheinlichkeit erwarteten Gewinn π gebrochen wird, was zum EGs = (pv – c – k)(1 - π) + π(αh – k) Liefert. Aus den Annahmen der ex-ante Konkurrenz unter Anbietern um solche Verträge und der Risikoneutralität folgt, dass dieser erwartete Gewinn gegen Null gehen muss, was den Vertragspreis: πv = c + k − παh . 1−π Betrachten wir zuerst den Spezialfall α = 1, d.h., beide bewerten das Pfand gleich hoch (z.B. Geld), dann folgt h = k. Eine Sicherheit in diesem Ausmaße ist effizient, denn sie veranlasst den Verkäufer die Investition im Ausmaße von k zu tätigen. Es versichert den Verkäufer gegen ein Hold-Up (Weigerung der Vertragserfüllung zur Preisdrückung, c + k > p > c) seitens des Käufers. Und der Käufer wird diesem Vertrag zu stimmen, wenn sein erwarteter Gewinn daraus nicht negativ ist, also, (vH – c – k)(1 - π) + π(–k) ≥ 0 ↔ (vH – c)(1 - π) ≥ k. Allerdings ist der Verkäufer indifferent zwischen Liefern/Nichtliefern, wodurch ein Hold-Up Problem entsteht. Der Verkäufer kann sich weigern zu liefern und die Sicherheit zurückzugeben insbesondere bei nicht hinreichend spezifizierten Verträgen um einen höheren Lieferpreis c + k < p < v herauszupressen. Dies kann durch ein Pfand abgewehrt werden, dass hohen Wert für den Käufer hat aber nur geringen oder keinen Wert für den Verkäufer. Allerdings wird dadurch der Verkäufer erpressbar: Der Käufer kann Franz Wirl: Industriebetriebslehre 218 Vertragserfüllung verweigern um niedrigen Preis nachträglich zu erzielen. Dies kann (nur) durch Verpflichtung zur Zerstörung des Pfands vermieden werden kann. 7.7.4 Vertragsstrafen Vertragsstrafen sind eine andere Möglichkeit einen Vertragsbruch zu sanktionieren. Dabei treten folgende Probleme auf: 1. Dies setzt voraus, dass dieser Vertragsbruch vor Gericht einklagbar und durchsetzbar ist. 2. Bei Vertragsstrafen als Kompensation kann diesen den einen Partner dazu veranlassen, den Vertragsbruch zu provozieren. 3. Die Zahlung der Strafe an Dritte verhindert zwar die Strategie unter 2, aber generiert ein Hold-Up Problem. Eine Partei kann drohen der anderen einen hohen und dann nicht kompensierten Schaden zuzufügen, wenn die Vertragsbedingungen nicht ex-post geändert werden. 7.8 Aktuelle Beispiele 29 Unter Langfristigen Verträgen versteht man einen Vertragstyp, bei dem der Zeitpunkt des Vertragsabschlusses und die Vertragserfüllung auseinander fallen. Sie werfen dabei die in den Vorlesungsunterlagen ausführlich dargestellten Vor- und Nachteile auf. Langfristige Verträge werden auch oft als Rahmenbedingung für Relationship-Marketing betrachtet, worunter man in der Praxis alle langfristigen Beziehungen versteht, die durch beiderseitige Nutzenbeziehungen gekennzeichnet sind. Diese Beziehungen können mit Kunden, Lieferanten oder Distributoren eingegangen werden. Es werden in der Regel enge Bande geknüpft, sei es eben durch langfristige Verträge oder gemeinsame Abstimmung der Ablauforganisation, um gemeinsame Gewinne zu realisieren. Eng mit diesem Begriff verbunden ist das bereits in der Vorlesung behandelte Networking. Das Marketing-Network besteht aus dem Unternehmen und seinem Umfeld. Man fokussiert hier oft auf die verschiedenen Kooperationspartner, ohne die ein Unternehmen in der heutigen komplexen Umwelt praktisch keinen »full service« mehr anbieten kann. Man spricht dabei heute mitunter schon von einem Wettbewerb zwischen den Networks um die Gunst des Kunden und nicht mehr zwischen einzelnen Unternehmen. Im Folgenden möchte ich auf einige in den Medien behandelte langfristige Verträge mit ihren Vor- und Nachteilen eingehen. 7.8.1 Netzwerk und Langfristige Verträge am Beispiel von Airbus Ein am Freitag den 10. Januar 2003 veröffentlichter Artikel der Welt behandelt die Fusion der Dasa mit Aerospatiale Matra. Allein 200 Zulieferfirmen der Dasa sitzen im Norden Deutschlands. Nach Ansicht von Dasa-Sprecher Rolf Brandt in Hamburg werden die norddeutschen Airbus-Standorte von dem Zusammenschluss profitieren. Auch der Vorsitzende des Konzernbetriebsrates, Peter Zimmermann, sieht die Arbeitsplätze "sicherer als vor der Fusion". Gerade eine Fusion von solcher Größenordnung lässt in der Regel Einflüsse für die Zulieferer vermuten. Die geplante Fusion hat bei den norddeutschen Zulieferern aber kaum zu Reaktionen geführt. Die Firmen haben langfristige Verträge und setzen auf das Wachstum in der Luftverkehrsbranche. Insgesamt liefern mehr als 5400 Unternehmen Einzelteile und ganze Baugruppen zu. Die bereits erwähneten 200 norddeutschen, für Airbus tätigen, Firmen sind überwiegend mittelständische und kleine Unternehmen. Als Beispiel wird unter anderen die 65 Mitarbeiter zählende Halstenbeker Werner Groth Feinwerktechnik genannt, welche zu den zu den kleineren Zulieferern gezählt wird. Nach Angaben von Geschäftsführer Peter Leveringhaus fertigen die 65 Mitarbeiter "spanabhebend bearbeitete Teile" wie Bolzen und Gabeln, sowie Teile für die Waschräume. Leveringhaus erwartet aber keine Änderungen bei den Geschäftsbedingungen. Das Unternehmen hat Rahmenverträge über drei Jahre, die stückzahlmäßig je nach Auftragslage geändert werden können. In unmittelbarer Nachbarschaft des Werkes Finkenwerder hat sich die Dasell Cabin Interior GmbH angesiedelt. Sie liefert jährlich 1200 bis 1400 Waschräume für die Airbusse sowohl nach Finkenwerder wie auch nach Toulouse. Auch deren Geschäftsführer Henderikus Kamerling erklärte, es gebe langfristige Verträge, die nicht gefährdet seien. Der Geschäftsführer des Wilhelmshavener Zahnradwerks Rust, erwartet kurzfristig gesehen keine Auswirkungen auf die bestehenden Verträge langfristig aber sogar eine Steigerung der Zuliefermenge. Deutlich ersichtlich ist also, dass die an die Langfristigen Verträge gebundenen Unternehmen zwar als eigenständige Firmen bestehen, sich also somit ein gehöriges Maß an Flexibilität erhalten, aber dennoch von den Vorteilen der Fusion profitieren. Im Endeffekt ist das Netzwerk, das durch die langfristigen Verträge besteht ja die Basis für eine Fusion. Wie bereits unter dem Punkt Allgemeines angesprochen, wäre die Dasa ohne ihr Netzwerk an Zulieferern die sie durch langfristige Verträge an sich gebunden hat ja gar 29 Die folgenden Beispiele basieren auf einer Recherche von Oliver Prügel. Franz Wirl: Industriebetriebslehre 219 nicht mehr in der Lage selbst zu produzieren. Wobei diese Verträge den einzelnen Unternehmen wiederum einen verläßlichen Rahmen lassen sich selbst zu entwickeln. Dass ein solches Modell funktionieren kann zeigt das Beispiel Dasa anhand dieser Fusion sehr gut. 7.8.2 Mangelnde Flexibilität am Beispiel des grünen Punktes In Verbindung mit Langfristigen Verträgen ist ja nicht nur die Beschaffung und das Zulieferersystem interessant, sondern auch eventuell auftretende Probleme betreffs er Entsorgung. Eine große Diskussion lösten hier die Verträge in Verbindung mit dem Grünen Punkt aus. Seit Einführung dieser Verpackungsverordnung 1991 besteht für Hersteller und Händler eine Rücknahme- und Verwertungspflicht für Verpackungen. Es wird zwar als ein sehr leistungsfähiges System beschrieben, ist aber auch eines der teuersten. Das liegt daran, dass in der Anfangsphase das Duale System mit den Entsorgungsbetrieben langfristige Verträge zu überhöhten Konditionen abgeschlossen hat. Diese Verträge laufen jedoch bald aus. Neue Verträge, durchschaubarer Wettbewerb und der Einsatz von kostengünstigerer Technik werden hoffentlich zu einem besseren Preis-Leistungsverhältnis führen. Hier zeigt sich deutlich, dass langfristige Vertragsbindungen sich durchaus auch nachteilig auswirken können. Scheinbar wurden keine Klauseln in die Verträge eingearbeitet die den Vertragsparteien bei Bedarf die nötige Flexibilität eingeräumt hätten. Im Vorlesungsskript wird zum Beispiel die Variante einer Neuverhandlungsklausel genannt. 7.8.3 Investition und langfristige Verträgen am Beispiel der Deutsche Bahn Laut einer Zeitungsmeldung droht der Vorstandschef der Deutschen Bahn, Hartmut Mehdorn, den Ländern und der deutschen Bundesregierung mit einem Investitionsstopp und einem Abbau von Arbeitsplätzen beim Nahverkehr, was seiner Meinung nach bei einem überstürzten und ungeordneten Wettbewerb zwischen Eisenbahnunternehmen um die Regionalstrecken die Folgen wären. Die Deutsche Bahn sieht ihre Geschäftspolitik und ihre hohen Investitionen im Nahverkehr stark gefährdet. Anlass ist eine kürzlich ergangene Entscheidung des Regierungspräsidiums Magdeburg, das langfristige Verträge der Länder mit der DB für die Regionalzüge als Einschränkung des Wettbewerbs auf der Schiene und daher als unzulässig einstuft. DB- Vorstandschef Mehdorn warnt die Verkehrs- und Finanzminister der Länder sowie das Bundesverkehrsministerium, wenn diese Linie weiter verfolgt werde, habe das bittere Konsequenzen für den Nahverkehr in ganz Deutschland. Die DB brauche Planungs- und Investitionssicherheit, schreibt Mehdorn in einem der SZ vorliegenden Brief. Sei das nicht gewährleistet, „wird die Bahn keine Investitionen in Fahrzeuge und Werkstätten des Nahverkehrs vornehmen". Außerdem werde das Unternehmen dann „alle Arbeitsplätze, die zur Sicherstellung des Mindestbedienungs-Standards nicht unbedingt erforderlich sind, konsequent abbauen". Nach dem Ende des DB-Monopols auf der Schiene kommt langsam ein Wettbewerb in Gang. Die Länder, die den Nahverkehr mit fast sieben Milliarden Euro pro Jahr fördern, schreiben immer mehr Regionalstrecken öffentlich aus. Bei fast jeder zweiten Linie erhalten dann private Bahn-Unternehmen den Zuschlag, nur noch knapp 60 Prozent der Verträge verbleiben beim Staatskonzern DB. Größter Konkurrent der DB ist das Unternehmen Connex, eine Tochterfirma des französischen Mischkonzerns Vivendi. Connex hat mit einer Beschwerde beim Regierungspräsidium Magdeburg jene Entscheidung herbeigeführt, die der Bahn nun Probleme bereitet. Der Staatskonzern muss fast alle Nahverkehrs-Verträge mit den Ländern neu verhandeln, da die Abkommen auslaufen. Mehdorn will sich dabei den Großteil der Regionalstrecken für die nächsten zehn Jahre sichern. Die Vergabestelle beim Regierungspräsidium Magdeburg erklärte jedoch einen neuen Vertrag der DB mit dem Land Sachsen-Anhalt für ungültig. Eine schlagartige Ausschreibung aller Regionallinien hätte nach Darstellung des Vorstandschefs katastrophale Folgen. Ohne langfristige und umfassende Verträge seien die geplanten 4,3 Milliarden Euro Investitionen in moderne Regionalzüge hinfällig. Auch wenn die Bahn nicht zu den zu behandelnden Industriebetrieben zählt, so zeigen sich hier doch sehr gut die Abhängigkeit eines Unternehmens, in diesem Fall der Bahn, wie auch eines evtl. produzierenden Industriebetriebes, von den Bezugsquellen oder Absatzmärkten oder eben wie eben hier bei der Bahn, die zu betreibenden Strecken. Gerade für die Deutsche Bahn ist es sehr schwierig, da einige Strecken in Deutschland nicht kostendeckend zu betreiben sind. Demnach wird sich auch kein privates Unternehmen um die Zuschläge für solche Strecken bewerben. Die Deutsche Bahn AG ist aber verpflichtet auch auf solchen Strecken eine Mindestversorgung aufrecht zu erhalten. Gerade daher ist die Deutsche Bahn in gewisser Weise davon abhängig die besser frequentierten Strecken gewinnbringend bearbeiten zu können. Um aber auf dem teilweise nicht besonders modernen deutschen Schienennetz erfolgreicher arbeiten zu können muss einiges investiert werden. Solche Investitionen machen aber wenig Sinn, beziehungsweise bieten wenig Anreiz, wen man Gefahr läuft schon sehr bald den Zuschlag für die Strecke wieder zu verlieren. Insofern ist es verständlich dass Manager auf langfristige Verträge pochen, wenn es um umfangreiche Investitionen geht, sprich die transaktionsspezifischen Kosten absichern wollen. Andererseits wird die Deutsche Bahn aber auch das Problem haben, in Deutschland nicht gerade den besten Ruf zu geniesen, wobei natürlich die Bundesländer gerade bei langfristigen Franz Wirl: Industriebetriebslehre 220 Verträgen ein großes Interesse haben dürften dem besten Streckenbetreiber den Zuschlag zu geben. Was wiederum zeigt, dass gerade bei langfristigen Verträgen die Vertragsanbahnungskosten und bemühungen höher ausfallen dürften, da man ja lange daran gebunden ist. 7.8.4 Wegfall langfristiger Verträge am Beispiel des Strommarktes Auch ein gutes Beispiel für langfristige Verträge bietet der Strommarkt. Die Deregulierung am Strommarkt hat die Bedingungen für die Kraftwerkbetreiber drastisch verändert: Langfristige Verträge weichen dem täglichen Wettbewerb. Der Erzeuger muss sich immer wieder fragen: Wie viel kann ich erzeugen und wie viel muss ich liefern? Zu welchem Preis kann ich produzieren und zu welchem Preis kann ich beziehen und verkaufen? Gerade diese Größen sind aber durch das Schwinden der langfristigen Verträge nicht mehr konstant. Aber nur mit Informationen für die nächsten Tagen kann er vorausschauend disponieren. Bei Engpässen kann er an einer Energiebörse Energie kaufen, bei Überschüssen diese gewinnbringend verkaufen. Neue IT-Lösungen wie das PROFIT Cockpit müssen dem Betreiber also helfen, seine Entscheidungen bezüglich der optimalen Produktion zu treffen. Das System bezieht alle Einflussgrößen wie prozesstechnische Zustände, Maßnahmen für Wartung und Reparatur, Brennstoffkosten, Betriebskosten und mögliche Verkaufserlöse in die Bewertung ein. Mit Hilfe integrierter Vorhersagemodule lassen sich Informationen wie Lastprognose, Produktionskosten und Ersatzteilplanung generieren. Es zeigt sich also, wie sich die gesamten Rahmenbdingungen für ein Unternehmen verändern, wenn langfristige Verträge wegfallen. Konditionen die früher fix waren, sind nun variable Größen, auf die dementsprechend flexibler reagiert werden muss. 7.8.5 Erdgasmarkt Im Vorlesungsskript wird einige Male das Beispiel der Erdölversorger für langfristige Verträge angeführt. Aber auch für die Erdgasversorger finden sich Informationen die die entsprechenden Punkte, besonders die Investitionen betreffenden, verdeutlichen. Das Erdgasaufkommen in Deutschland stammte 1999, zu 21% aus deutscher Produktion, zu 44% aus westeuropäischen Quellen (ohne deutsche Produktion) und zwar: zu 19% aus den Niederlanden, zu 20% aus Norwegen und zu 5% aus Dänemark und Großbritannien, sowie zu 35% aus Russland. Technische und wirtschaftliche Zusammenarbeit zwischen Lieferländern und Erdgasimporteuren tragen zur langfristigen Stabilität der Erdgasbezüge bei. Die Erdgasproduzenten müssen Milliarden-Beträge investieren, um Erdgas fördern und liefern zu können. Dabei geht es nicht nur um die Erschließung der Erdgaslagerstätten, sondern auch um die Anlieferungen von der Quelle bis zur Übergabestelle an der deutschen Grenze. Besonders groß sind die Investitionen zur Erschließung von weit entfernt gelegenen Feldern (z.B. in Westsibirien) sowie von OffshoreFeldern (z.B. in der norwegischen Nordsee). In den Importländern werden für die Weiterleitung des Erdgases bis zum Verbraucher ebenfalls umfangreiche Anlagen und Einrichtungen benötigt. Sie umfassen die überregionalen Leitungssysteme mit den dazugehörigen Verdichter-, Speicher- und Messanlagen sowie die regionalen Leitungsnetze bis zu den lokalen Verteilungssystemen. In den alten Bundesländern wurden für den Ausbau der gastechnischen Anlagen seit Anfang der 80er Jahre durchschnittlich mehr als 1,5 Mrd EUR pro Jahr investiert. Im Jahre 1999 betrugen die Investitionen der deutschen Gaswirtschaft insgesamt rund 3 Mrd EUR. Diese hohen Investitionen erfordern im internationalen Erdgashandel in der Regel Verträge mit einer Laufzeit von 20 bis 25 Jahren. Nur in derartigen Zeiträumen amortisieren sich die Investitionen beider Seiten. Die Erdgasleitungen sind für die jeweiligen Liefermengen und Lieferwege ins Bestimmungsland gebaut. Dadurch binden sich Produzent und Importeur wesentlich stärker aneinander als bei anderen Energien. Es besteht für beide ein ausgeprägtes gemeinsames Interesse, die eingegangenen langfristigen Verpflichtungen zu erfüllen. Damit wird eine weit reichende Stabilität der Erdgasversorgungsströme erreicht. Zu den langfristigen Verpflichtungen gehört auch die Einhaltung der vertraglich festgelegten Regeln, nach denen die Erdgaspreise während der Vertragslaufzeit im Hinblick auf die jeweiligen Preise der Konkurrenzenergien angepasst werden. Mit dieser Flexibilität ist gewährleistet, dass Erdgas entsprechend der aktuellen Konkurrenzsituation zu marktgerechten und wettbewerbsfähigen Preisen angeboten werden kann. Seit 1963 beziehen Unternehmen der deutschen Gaswirtschaft Erdgas aus den Niederlanden. Im Jahre 1995 waren es rund 24 Milliarden Kubikmeter. Für diese Erdgasbezüge bestehen langfristige Verträge; sie reichen bis über das Jahr 2010 hinaus. Bei einer weiterhin positiven Explorationsentwicklung ist damit zu rechnen, daß auch zukünftig größere Erdgasmengen aus den Niederlanden exportiert werden können. Eine gute Beschreibung der Situation im Bezug auf die aus Russland bezogenen Erdgasmengen und die damit verbundnen benötigten Investitionen bietet der folgende Artikel: Nur jede vierte Bohrung ein Erfolg, von Gerit Schulze, Gasversorger wollen langfristige Verträge mit russischen Lieferanten MDZ 09-07-2002. Die großen deutschen Ferngasunternehmen fürchten durch die Liberalisierung um die Versorgungssicherheit am Gasmarkt. Anlässlich der Moskauer Rohstoffmesse „Neftegas" forderten sie die Beibehaltung langfristiger Verträge und stabile Preise, damit sich ihre Investitionen rechneten. „Wem nutzt das billigste Gas, wenn es nicht da ist", meint Ewald Holst, Vorstandsvorsitzender der Leipziger Verbundnetz Gas AG (VNG). Er kritisierte in Moskau, dass die EU-Liberalisierungspolitik vor allem auf Franz Wirl: Industriebetriebslehre 221 fallende Preise ausgerichtet sei, nicht jedoch auf die Versorgungssicherheit im Gasbereich. Die VNG ist nach Ruhrgas zweitgrößter Erdgasversorger in der Bundesrepublik und hat im Vorjahr 15 Milliarden Kubikmeter Gas vor allem an Kunden in Ostdeutschland geliefert. Davon kamen 42 Prozent aus Russland, der Rest aus Norwegen und Deutschland. Die langfristigen Verträge mit der Gasprom sehen eigentlich vor, dass die VNG mindestens die Hälfte ihres Rohstoffes aus Russland bezieht. Doch der Preisverfall am deutschen Markt hat den Gasprom-Anteil im Vorjahr sinken lassen. „Nach der Liberalisierung des Strommarktes sind viele Erzeugeranlagen von Gas auf Kohle umgestellt worden", erklärt Vorstandschef Holst. „Um da weiter mithalten zu können, mussten wir die Preise senken." Da Gasprom nicht flexibel reagiert und keinen Nachlass eingeräumt habe, wurde der Rohstoff verstärkt bei anderen Lieferanten eingekauft. „Wir brauchen nun einmal Rabatte, um auf solche Veränderungen am Markt reagieren zu können", so Holst gegenüber der MDZ. An den festen Lieferverträgen mit Gasprom bis zum Jahr 2013 will die VNG dennoch nicht rütteln. Inzwischen sei das Problem beim Moskauer Konzern auch erkannt worden, Gespräche über kurzfristige Rabatte liefen, erklärt der VNG¬Vorstandsvorsitzende. „Die Russen haben hohe Investitionskosten für ihre Leitungen und sind daher an einer hundertprozentigen Auslastung interessiert. Deshalb müssen sie auf uns zugehen." Die enormen Kosten bei der Erschließung von Lagerstätten und dem Bau der Pipelines sind für Reinier Zwitserloot das Hauptargument für langfristige Verträge. „Jede Probebohrung kostet einige Millionen USDollar. Aber nur bei jeder vierten Bohrung werden wir fündig", so der Vorstandsvorsitzende der Wintershall AG. Die BASF-Tochter hat vor zehn Jahren mit Gasprom das Gemeinschaftsunternehmen Wingas gegründet, das neben Ruhrgas und der VNG drittgrößter Erdgasversorger in Deutschland ist. „Für große Entwicklungen braucht man Absatz- und Volumensicherheit", sagte Zwitserloot Ende Juni in Moskau und kritisierte damit die EU-Forderung nach Lieferverträgen mit kürzeren Laufzeiten. Sein Kollege Burkhard Genge, im Wintershall-Vorstand zuständig für den Erdgashandel, meinte dazu: „Ohne langfristige Verträge sind Investitionen in Lagerstätten sehr schwierig. Die geplante Verschärfung der Liberalisierungsvorschriften schießen über das Ziel hinaus." Zusammen mit Urengojgasprom untersucht Wingas derzeit die Lagerstätte Achimow im Jamalo-Nenzischen Autonomen Kreis nordöstlich des Urals. Rund 90 Millionen US-Dollar kosten die Vorerkundungen, berichtet Bernhard Schmidt, der bei Wintershall für den Bereich Exploration und Produktion verantwortlich ist. Die Fundstätte sei technisch sehr kompliziert zu erschließen, das Gas liege in bis zu 400 Meter tiefen Schichten, in denen ein hoher Druck herrsche. Rund eine Milliarde US-Dollar Investitionen wären nötig, um die Förderung in Achimow zu beginnen, schätzt Schmidt. „Doch mit den Vorräten würde die nahe gelegene 90 000-Einwohner-Stadt Nowyj Urengoj eine jahrzehntelange Zukunft haben", meint Vorstandsvorsitzender Zwitserloot. Etwa acht bis neun Milliarden Kubikmeter Gas könnten pro Jahr aus der Achimow-Lagerstätte gewonnen werden immerhin ein Zehntel des jährlichen Gesamtverbrauchs in Deutschland. Für Zwitserloot ist schon jetzt klar, dass in Zukunft noch mehr Gas aus Russland nach Europa fließen wird. Dann allerdings müssten andere Förderländer verdrängt werden, meint VNG-Vorstandschef Holst. „Der zusätzliche Bedarf in Deutschland und Europa wird oft überschätzt", meinte er in Moskau. „Die Marktsättigung ist dort nahezu erreicht. Um jeden Kunden müssen wir kämpfen." Die Gefahr, dass Russlands Monopolist Gasprom seine starke Position in Europa ausnutzen könnte, sieht Holst nicht. Die sind seit Jahrzehnten dort tätig und viel zu sehr von unseren Märkten abhängig." Dennoch wäre er „nicht böse darüber", wenn auch in Russland mehr Wettbewerb entstünde. Allerdings nur, wenn die neuen Lieferanten auch liquide genug sind, die notwendigen Investitionen zu finanzieren. 7.8.6 Aufgabe langfristiger Geschäftsbeziehungen am Beispiel Nissan Manche Kulturen bemessen langfristigen Unternehmensbeziehungen einen stärkeren Rang bei, als es die westliche tut. Das Beispiel Nissan bietet hierfür ein gutes Beispiel. Im Falle von Nissan wird unterstellt, dass schlecht bzw. großzügig ausgehandelte langfristige Verträge mit am Niedergang des Unternehmens beteiligt waren. Gerade in Japan aber sind ja die jahrzehntealten Geschäftsverbindungen nahezu unantastbar. Carlos Ghosn, der neue Manager, sollte den schwer defizitären Autohersteller Nissan retten. Der Auftrag galt als heikel, zumal es keine Vorbilder gab. Heute ist Ghosn der erste Weltklassemanager, der für einen großen japanischen Konzern agiert. Dass der Beauftragte des französischen Renault-Konzerns aber sehr harte Maßnahmen ergriffen hat ist jedoch kein Geheimnis mehr. Gleich drei japanische Nissan-Werke mussten unter seiner Regie schließen. Nissan stand nach allgemeiner Branchenmeinung kurz vor dem Bankrott. Die Auslastung der Produktionskapazitäten stieg inzwischen von verlustträchtigen 51 Prozent auf mehr als 74 Prozent, die akkumulierten Schulden im Autogeschäft des Konzerns fielen erstmals in 15 Jahren unter die 1000Milliarden-Yen-Marke (knapp 18 Milliarden Mark), der Rekordprofit lag im vergangenen Jahr bei rund sechs Milliarden Mark, höher als jemals zuvor in der 70-jährigen Geschichte des Konzerns. Obwohl anfangs niemand an einen Erfolg glaubte zeigten sich auch bald für den französischen Investor erste positive Effekte. Seit Renault 5,4 Milliarden Dollar für einen 37-Prozent-Anteil bei Nissan zahlte, belaufen Franz Wirl: Industriebetriebslehre 222 sich die jährlichen Einsparungen beider Konzerne laut Ghosn auf eine Milliarde Mark. Die Unternehmen haben ihre Einkaufsabteilungen zusammengelegt. Für die Thematik der langfristigen Verträge ist hier besonders interessant, dass sich allein bei Nissan die Zahl der Zuliefer auf 600 halbiert hat. Zugleich wurde jeder Zuliefervertrag nach Weltmarktpreisen neu ausgehandelt. Wie bereits erwähnt unterstellte man Nissan bislang „einen Haufen Geschenke verteilt zu haben". Gerade das betrachtete Auflösen jahrzehntealter Geschäftsverbindungen, die in Japan als unantastbar betrachtet werden, ist besonders bemerkenswert. 7.8.7 Vertragliche Verpflichtung der Zulieferer zum Umweltschutz am Beispiel von BMW Gerade im Bezug auf Zuliefererverbindungen bietet es sich förmlich an einen Automobilhersteller zu betrachten. BMW bietet auf dem unternehmenseigenen Internetauftritt einen breiten Überblick über die Umweltpolitik und die damit verbundene Zuliefererpolitik. Laut diesen Angaben ist die BMW Group der erste Automobilhersteller weltweit, der alle Produktionsstätten neben einem Qualitätsmanagementsystem mit einem Umweltmanagementsystem ausgestattet hat. Für die Automobilindustrie besonders interessante Faktoren sind der Energie und Wasserverbrauch, das Abwasseraufkommen, die Abgas- und Geräuschemissionen, das Abfall- und Gefahrstoffaufkommen, der Lösungsmitteleinsatz und C02. Um in diesen Bereichen Fortschritte zu erzielen, hat die BMW Group laut eigenen Angaben im Jahr 2000 15,8 Millionen Euro in den Umweltschutz investiert und 31,5 Millionen Euro für laufende Umweltschutzaufwendungen aufgebracht. Um künftig noch bessere Umweltschutzeffekte in der Produktion zu erzielen, wurde von der BMW Motoren GmbH in Steyr, Österreich gemeinsam mit der Universität Linz ein neues Umwelt-Controlling entwickelt. Es soll nach dem erfolgreichen Anlauf in Steyr ab 2002 auch an allen anderen Produktionsstandorten der BMW Group zum Einsatz kommen. Ziel des Controllings ist es, auf wissenschaftlicher Grundlage mit der systematischen Beobachtung zentraler Steuergrößen die Effizienz von Maßnahmen in bezug auf Umwelt und Nachhaltigkeit zu verbessern. Im weiteren Sinne könnte man dieses Vorgehen durchaus auch als den im Vorlesungsskript erwähnten Vorteil der Externalisierung von eventuellen Risiken betrachten. Das neue Modell wird nicht sofort in allen Firmenzweigen eingeführt, sondern zuerst an einem eingeführt. Wobei sich die Externalisierung hier eben auf eine zur BMW Group gehörigen Firma bezieht. Von den Erfahrungen in Steyr werden also künftig alle BMW Werke profitieren. So ist es laut Angaben von BMW dem internationalen Austausch, unter anderem zwischen Steyr und dem neuen BMW Motorenwerk in Hams Hall in England, zu verdanken, dass dort innerhalb kürzester Zeit ein Umweltmanagementsystem aufgebaut werden konnte. Aber auch die Zulieferer der BMW Group sind auf Basis von Verträgen in die umweltverträgliche Produktion der BMW Fahrzeuge eingebunden. Zwar müssen sie nicht über ein Umweltmanagementsystem verfügen, sie werden jedoch vertraglich zur Einhaltung der BMW Umweltleitlinien verpflichtet und müssen im Unternehmen über ein effizientes Managementsystem verfügen. Bestandteil der BMW Einkaufsbedingungen ist die Anlage zur "Umweltverträglichkeit von BMW Produkten". In dieser Anlage werden die Lieferanten genau über die Zielsetzung der BMW Umweltpolitik negative Auswirkungen der Produkte auf Mensch und Umwelt zu minimieren - informiert. Für den Entwicklungsprozess werden dann die ökologischen Anforderungen in Bauteil-Lastenheften genau definiert. Hauptbewertungskriterien sind dabei der sparsame Einsatz von Ressourcen, die Recyclingfähigkeit, Materialien und Inhaltsstoffe sowie Emissionen. Dadurch ist es der BMW Group möglich, bei der Auswahl von Zulieferern auch ökologische Kriterien bei der Entscheidung zu berücksichtigen. Der potenzielle Zulieferer muss für die Produktion eines Bauteils bei Bedarf detaillierte Angaben über den Material-, Energie- und Wasserbedarf, den Transportaufwand sowie die Emissionen machen. Diese werden von der zuständigen BMW Fachstelle "Recycling" für ökologische Bauteilbilanzierungen herangezogen, um die Umweltauswirkungen möglichst umfassend und genau beurteilen zu können. Die BMW Group stellt laut eigenen Angaben nicht nur hohe Ansprüche an die Zulieferer, sondern legt im Gegenzug auch größten Wert auf deren Zufriedenheit. Im Jahr 2001 hat BMW erstmals den Spitzenplatz im Zulieferer-Zufriedenheitsindex SSI der Forschungsstelle Automobilwirtschaft belegt. 722 Zulieferer wurden in der Untersuchung zur Zufriedenheit mit den deutschen Automobilherstellern befragt, die BMW Group hat in 48 von insgesamt 59 Kriterien die Bestnote erreicht. Für die BMW Group ist die Zufriedenheit ihrer Geschäftspartner eine wesentliche Voraussetzung dafür, dass auch die Kunden mit der Qualität der BMW Produkte zufrieden sind. Franz Wirl: Industriebetriebslehre 7.9 223 Literaturhinweise: Thomas Eger, Eine ökonomische Analyse von Langzeitverträgen, Marburg, Metropolis Verlag, 1995. Masten Scott E., Case Studies in Contracting and Organization, Oxford Univ. Press, 1996. Zu aktuellen Beispielen: 51/2002, 16. Dezember, Internetmagazin FirstSurf.de http://www.wett.de/daten/1999/10/16/1016hw133803.htx http://qdl-wuerzburq.de/seite25u.htm www.gruener-punkt.de http://www.zeit.de/2001/38NVirtschaft/200138 portraet ghosn.html Wie der RenaultManager Carlos Ghosn den maroden Autohersteller Nissan sanierte, Von Georg Blume (c) DIE ZEIT 3812001 www.BMW.de, Stand: 18. Juli 2002