+ PWÖ - Institut für Logistik und Unternehmensführung
Transcription
+ PWÖ - Institut für Logistik und Unternehmensführung
Kompetenz, Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre Wolfgang Kersten • Jochen Wittmann (Hrsg.) Kompetenz, Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre Festgabe für Klaus Bellmann zum 70. Geburtstag Herausgeber Wolfgang Kersten Hamburg, Deutschland ISBN 978-3-658-03461-0 DOI 10.1007/978-3-658-03462-7 Jochen Wittmann Weissach, Deutschland ISBN 978-3-658-03462-7 (eBook) Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Gabler © Springer Fachmedien Wiesbaden 2013 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Springer Gabler ist eine Marke von Springer DE. Springer DE ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.springer-gabler.de Univ.-Prof. Dipl.-Ing. Dr. rer. pol. Klaus Bellmann Grußwort Es ist schön und zugleich beruhigend, dass es in Zeiten, in denen Wissenschaftler sich primär an Zeitschriftenrankings orientieren, noch möglich ist, die akademische Tradition zu bewahren, eine Festschrift für einen sehr geschätzten Kollegen herauszugeben. Mit Klaus Bellmann wird ein Wissenschaftler geehrt, der ursprünglich ein Studium der Elektrotechnik absolvierte und dann über das Industrieseminar der Universität Mannheim, das Institut für Physikalische Technologie, das er dann von 1974–1990 leitete, den Weg in die Betriebswirtschaftslehre fand. Sowohl in der Forschung als auch in der Lehre war Klaus Bellmann sehr breit aufgestellt, was sich in seinen Publikationen deutlich niederschlägt. Neben seinen Forschungsarbeiten zu Fragen der Beschaffung und Produktion bildete der Netzwerkansatz einen Schwerpunkt seiner wissenschaftlichen Tätigkeit, und zwar nicht nur als Forschungsparadigma, sondern insbesondere bei konkreten Problemen in Beschaffungs-, Produktions- und Technologienetzwerken. Mit letzteren schlägt er gleichzeitig eine Brücke zu dem Forschungsfeld des Innovations- und Technologiemanagement, dem er mit seinem technologischen Background kreative Impulse zu geben vermochte. Nicht zuletzt sei anzumerken, dass Klaus Bellmann zu den Forschern zählt, die den Bereich der Ökologie in seiner Bedeutung frühzeitig erkannten. Bereits in den 1970er und 1980er Jahren griff er Fragen des Recycling und der Produktlebensdauer auf. In der Kommission für Produktionswirtschaft ist er bereits seit seiner Zeit als wissenschaftlicher Mitarbeiter bei Herrn Kollegen von Kortzfleisch aktiv und als Kollege und Diskussionspartner immer gerne gesehen. Als Vorsitzender der Kommission für Produktionswirtschaft möchte ich ihm im Namen aller Kommissionsmitglieder weiterhin Gesundheit und Freude wünschen – ad multos annos. Hans Corsten Vorsitzender der wissenschaftlichen Kommission für Produktionswirtschaft im Verband der Hochschullehrer für Betriebswirtschaft e. V. Grußwort Festschriften haben im deutschen Sprachraum eine große akademische Tradition. Schüler, Freunde und Fachkollegen ehren damit einen herausragenden Gelehrten zu einem runden Geburtstag. Das Gewicht dieser Auszeichnung lässt sich beispielsweise daran erkennen, dass das Konzept der Festschrift auch in der angelsächsischen Universitätswelt übernommen wurde. Interessanterweise wird sie dort auch so genannt. Mehr als einmal habe ich über berühmte Fachkollegen den Satz „his former students and colleagues prepared a festschrift for him“ gehört. Er wird im Tonfall des höchsten Respekts ausgesprochen, denn es ist klar, dass eine solche Anerkennung keinem gewöhnlichen Professor zuteilwird. Die Festschrift ist ein Synonym für außerordentlichen akademischen Einfluss, große Verdienste in der Entwicklung des Faches und eine besondere Förderung des wissenschaftlichen Nachwuchses. Klaus Bellmann hat dem Fach Betriebswirtschaft als Quereinsteiger aus der Technologie viele wichtige Impulse gegeben. Seine Beiträge zum Produktions- und Logistikmanagement, zum Qualitäts- und Umweltmanagement, zur Steuerung von Forschung und Entwicklung, Produktionsnetzwerken und komplexe Systeme haben das Fach geprägt und weisen in die Zukunft. Gerade auch in der wissenschaftlichen Kommission „Technologie, Innovation und Entrepreneurship“ war und ist Klaus Bellmann aktiv und als Fachkollege, Ratgeber und Freund geschätzt. Stellvertretend für die über 200 in dieser Kommission organisierten Wissenschaftler möchte ich nun auch über Klaus Bellmann den Satz „his former students and colleagues prepared a festschrift for him“ sagen – und zwar im vollen Bewusstsein der oben skizzierten Bedeutung. Alles Gute zum 70. Geburtstag! Nikolaus Franke Vorsitzender der wissenschaftlichen Kommission Technologie, Innovation und Entrepreneurship im Verband der Hochschullehrer für Betriebswirtschaft e. V. Grußwort Das Thema Nachhaltigkeitsmanagement ist zurzeit in aller Munde. Die ersten Klimaveränderungen sind auch in Deutschland spürbar. So werden einzelne Teile des Landes überschwemmt, während nicht weit davon entfernt fast Dürre herrscht. Dabei ist dies eigentlich kein lokales oder regionales Problem, sondern eine globale Herausforderung. Die großräumige Verflechtung der Wetter- und Klimaereignisse ist den Menschen dabei oft einsichtiger, als die internationale und globale Verknüpfung von Produktionssystemen. Die Nachhaltigkeitsherausforderungen entlang der Wertschöpfungskette stellen dabei eine stetige Herausforderung dar. In diesem Kontext ist es bemerkenswert, dass Prof. Dr. Bellmann bereits früh entsprechende Fragen in seinem wissenschaftlichen Werk bearbeitet. Dabei sind zwei Stränge zu würdigen. Einerseits geht es um die Wirkung umweltpolitischer Instrumente, deren Einsatz einerseits für Unternehmen Kosten verursacht, andererseits aber auch einen Ausgleich von Wettbewerbsnachteilen bedeuten kann. In diesem Zusammenhang kommt der Gestaltung von Produkten eine ebenso große Bedeutung zu wie der Planung von Produktionsnetzwerken. Damit ist das zweite zentrale Forschungsfeld von Prof. Dr. Bellmann angesprochen, in dem er sich auch der Verknüpfung dieser beiden Aspekte gewidmet hat, die zudem von zentraler Bedeutung für die Umweltwirkungen sowohl der Produkte selbst als auch der damit verbundenen Produktionsprozesse sind. Der Jubilar gehört damit zu den wenigen Vertretern der deutschen Betriebswirtschaftslehre, die sich bereits früh mit solchen Fragestellungen beschäftigt haben. Insofern bleibt dem Jubilar Gesundheit und Wohlergehen zu wünschen, so dass er weiterhin in diesem Sinne wirken kann. Stefan Seuring Vorsitzender der wissenschaftlichen Kommission Nachhaltigkeitsmanagement im Verband der Hochschullehrer für Betriebswirtschaft e. V. Vorwort der Herausgeber Der vorliegende Sammelband erscheint als Festgabe zum 70. Geburtstag von Univ.-Prof. Dr. Klaus Bellmann, emeritierter Inhaber des Lehrstuhls für Allgemeine Betriebswirtschaftslehre und Produktionswirtschaft sowie Co-Direktor des Center of Market-Oriented Product and Production Management (CMPP) an der Johannes Gutenberg-Universität Mainz. Akademische Schüler und deren Schüler, Kollegen und Freunde danken mit ihren Beiträgen dem Jubilar, der wissenschaftlicher Förderer, hilfsbereiter Kollege und Forschungspartner sowie vielen ein väterlicher Ratgeber und Freund war und ist. Die erste Festgabe zum 60. Geburtstag von Klaus Bellmann stand unter dem Titel „Perspektiven und Facetten der Produktionswirtschaft – Schwerpunkte der Mainzer Forschung“. Zu seinem 65. Geburtstag erschien die Festgabe zu dem Themenkreis „Spektrum des Produktions- und Innovationsmanagements: Komplexität und Dynamik im Kontext von Interdependenz und Kooperation“. Die zum 70. Geburtstag nun vorliegende dritte Festgabe geht über den Rahmen der Produktionswirtschaft sowie des Produkt- und Innovationsmanagements deutlich hinaus. Sie fokussiert auf wichtige thematische Eckpfeiler und Leitlinien des wissenschaftlichen Werkes und Wirkens von Klaus Bellmann: „Kompetenz, Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre“. Betriebswirtschaftslehre verstanden als (praxeologische) Kunstlehre im Schmalenbachschen Sinne zielt ähnlich der operativen Kunst der Militärwissenschaften, auf die bereits sein Doktorvater und wissenschaftlicher Förderer, Univ.-Prof. Dr. Gert-Harald v. Kortzfleisch, frühzeitig hingewiesen hat, auf die sachgerechte Vorbereitung und Unterstützung von Entscheidungen der Führung in Unternehmungen ab. Diese betriebswirtschaftliche Sicht steht nicht konträr, sondern komplementär zur quantitativ-wissenschaftlichen Betriebswirtschaftslehre, die Planungen und Führungsentscheidungen auf Basis von Kalkülen rational gestalten will. Beiden Ansätzen steht Klaus Bellmann, diplomierter Elektrotechnikingenieur an der TU Darmstadt und ausgebildeter Reservestabsoffizier der Bundesluftwaffe, von Beginn seiner wissenschaftlichen Karriere an sehr nahe. Führungs- und Managemententscheidungen in zunehmend unsicheren, dynamischen und komplexen Umwelten treffen auf inflexible und daher zur Disposition stehende Strukturen, Prozesse und Steuerungskonzeptionen. Der Entwurf und die Gestaltung von funktionsübergreifenden und interdisziplinären Theorien, Konzepten, Ansätzen und Instrumenten zur Anpassung an bzw. Reduktion von Umweltkomplexität sowie der Auf- und Ausbau von Kern- und Komplementärkompetenzen bilden hierfür wesentliche Lösungshilfen. Diesen Anspruch hat sich Klaus Bellmann in seinen theoretischen und anwendungsorientierten Forschungen und Lehrtätigkeiten stets in beeindruckender Weise selbst gestellt und erfüllt. Sein Forschungsprojekt „Strukturierungs- und Steuerungsaspekte in hochkomplexen heterarchischen Unternehmensnetzwerken“ oder sein Engagement im Arbeitskreis „Strategisches Kompetenzmanagement“ sollen hier als Beispiele dienen. Die Beiträge dieser Festgabe ließen sich leicht zu je einem Drittel den drei Themenbereichen Kompetenz, Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre zu- XIV Vorwort der Herausgeber ordnen. Dies wäre aber nicht im Sinne des Jubilars, da dies eine vorweggenommene, subjektiv einschränkende Komplexitätsreduktion darstellen würde und somit gewissermaßen „bias“-verdächtig wäre. Viel zu ganzheitlich ist seine Sichtweise, und die vielfältigen Perspektiven der Autorinnen und Autoren sind geeignet, dieses Wissenschaftsverständnis weiträumig auszuleuchten. Die Herausgeber überlassen es deshalb den Lesern, bei der Lektüre ihre eigene Sichtweise zu Kompetenz, Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre zu entwickeln, um neue Perspektiven für sich zu gewinnen. Um dies uneingeschränkt zu ermöglichen, haben wir eine rein namensalphabetische Reihenfolge aller Beiträge gewählt. In der Rubrik „Nachlese“ finden sich bislang unveröffentlichte Reminiszenzen zur akademischen Feierstunde anlässlich des 65. Geburtstags des Jubilars an der Johannes Gutenberg-Universität Mainz am 06. Juni 2008. Kulinarisch und ökonomisch an der molekularen Küche Interessierte, die nach Einschätzung des Jubilars signifikante Effektivitäts- und Effizienzgewinne in den Fertigungsbereich „Küche“ aus Sicht eines „Produktionswirtschaftlers“ einbringen kann, wenden sich bitte direkt an ihn zwecks Gedanken- und Erfahrungsaustauschs. Allen Autorinnen und Autoren dieses Sammelbandes danken wir sehr herzlich für ihre Ideen, die sie in vielfältigen interessanten Beiträgen zu Ehren des Jubilars in diesem Sammelband niedergelegt haben – ohne ihren Einsatz und ihre Termintreue gedankt wäre dieses Buch nicht zustande gekommen. Die Festgabe wurde großzügig finanziell unterstützt von den Schülern des Jubilars sowie den Unternehmen Böhringer Ingelheim GmbH, Ingelheim am Rhein, Dr. Ing. h.c. F. Porsche AG, Stuttgart, Ricoh Deutschland GmbH, Hannover, Xelios Consult GmbH, Frankfurt am Main. Über die Festgabe hinaus konnte so anlässlich des Geburtstages von Klaus Bellmann der Fachbereichsbibliothek Rechts- und Wirtschaftswissenschaften der Johannes Gutenberg-Universität Mainz eine Geldspende für den Bucherwerb zur Verfügung gestellt werden. Frau Dr. Valérie Schüller sei für ihre administrative Unterstützung gedankt und Herrn Prodekan, Univ.-Prof. Dr. Roland Euler, für die wohlwollende Begleitung des Vorhabens. Für die problemfreie Abwicklung der verlagsseitigen Angelegenheiten sind die Herausgeber Frau Marta Schmidt und Frau Nicole Schweitzer vom Verlag Springer Gabler, Wiesbaden, zu Dank verpflichtet. Herr Jens Ossadnik, Lektorat „Rund um Text“, hat die trotz Formatierungsvorgaben der Herausgeber durchaus vielfältigen Formatinterpretationen der Autorenschaft durch hohe Professionalität bei den Satzarbeiten dankenswerterweise gemeistert. Dank schulden wir ebenfalls Frau Stephanie Richter und Frau Anja Meister für ihre vielfältige Sekretariatsunterstützung bei der Vorbereitung des Sammelbandes. Wir wünschen Klaus Bellmann im Namen aller Autorinnen und Autoren, Schüler und Kollegen für die kommenden Jahre viel Glück, stets gute Gesundheit, uneingeschränkte Tatkraft, anregende Entspannung im Kreise seiner um einen Enkel erweiterten, geschätzten Familie und die Entdeckung immer wieder neuer Perspektiven! Dabei gilt es nach wie vor, neue Gipfel zu erklimmen: Zu seiner geplanten Bergtour auf die Tiroler Wildspitze (3.768 m ü. A.) wünschen wir ihm deshalb ebenfalls gutes Gelingen! Wolfgang Kersten – Jochen Wittmann Inhaltsverzeichnis Grußwort Hans Corsten .................................................................................................. VII Grußwort Nikolaus Franke.............................................................................................. IX Grußwort Stefan Seuring ................................................................................................. XI Vorwort der Herausgeber ................................................................................................ XIII Inhaltsverzeichnis .......................................................................................................... XV Autorenverzeichnis ....................................................................................................... XIX Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge Hans Corsten, Hagen Salewski...................................................................................................... 1 Innovationen – Plattformen erleichtern den Weg! Joachim Fischer ............................................................................................................................ 17 On the Firm’s Raison d’Être and Competence-based Nature of the Firm Jörg Freiling.................................................................................................................................. 29 Conceptualizing the Capability of Supplier Sustainability Risk Management Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter .................................................................. 39 XVI Inhaltsverzeichnis Complexity and Robustness Influence on Production Performance – A Theoretical Framework Regina Grussenmeyer, Thorsten Blecker ....................................................................................... 57 Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt Sylke Heusinger von Waldegge...................................................................................................... 71 Industrielles Beschaffungsmanagement im Spannungsfeld zwischen Herausforderung und Relevanz Frank Himpel................................................................................................................................. 87 Der Wert der Werte Überlegungen im Ausgang von Goethes „Werther“ Jochen Hörisch .............................................................................................................................. 93 Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch Guido Kaupe, Eva Engel ............................................................................................................... 103 Zielorientiertes Risikomanagement bei Einsatzorganisationen Eva-Maria Kern, Thomas Hartung ................................................................................................ 113 Implementierung eines Supply Chain Risk Managements Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach ............................................. 133 E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien Dagmar Kessler ............................................................................................................................. 149 Achtsamkeit in Organisationen: Vom Stressmanagement über das achtsame Interagieren und Führen zur bewussten Gestaltung von Veränderungsprozessen Niko Kohls, Andrea Berzlanovich, Sebastian Sauer ...................................................................... 163 Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis – Theoretische Überlegungen und empirische Ergebnisse Sascha Kwasniok, Hans Meissner ................................................................................................. 179 Development of Information Systems in Manufacturing Olga Levina, Hermann Krallmann ................................................................................................ 195 Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung in der Logistik Markus Mathieu, Klaus Breuer ..................................................................................................... 209 Inhaltsverzeichnis XVII Environmental Sustainability Practices in Supply Chains Case of North American High-Tech Industry Mark Morrissey, Anshuman Khare ................................................................................................ 221 Interorganizational Learning between Convergence and Cospecialization – A Knowledge-Based Typology of Strategic Alliances Dietrich von der Oelsnitz, Marcus Lorenz ..................................................................................... 243 Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen Niko Paech .................................................................................................................................... 259 Strategic Management of Innovation in Life Science Christian Schäfer ........................................................................................................................... 279 Betriebswirtschaftslehre und Militärwissenschaft – Widerspruch oder Kooperation? Eine analytische Skizze aus „dogmengeschichtlichem“ Interesse Dietmar Schössler.......................................................................................................................... 289 Die Wirtschaftstrends der Zukunft Hermann Simon ............................................................................................................................. 297 Anforderungen des Technologiemanagements an die Modellierung von Entscheidungssituationen Dieter Specht, Gunnar Berntsen .................................................................................................... 303 Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion Marion Steven, René Blank............................................................................................................ 323 Nutzung von verborgenen Unternehmensressourcen in Krisensituationen Horst Wildemann ........................................................................................................................... 347 Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009 Jan Wirsam .................................................................................................................................... 359 Networks, Anomy and Open Innovation: Some Conceptual Views Jochen Wittmann ........................................................................................................................... 373 Nachlese.......................................................................................................................... 387 Grußwort des Präsidenten zur Emeritierung von Prof. Bellmann Georg Krausch .............................................................................................................................. 389 XVIII Inhaltsverzeichnis Professor Dr. Klaus Bellmann eine Melange zum Geburtstag: Kurzfassung und Abrundung der Laudatio zum 65er Eva-Maria Kern............................................................................................................................. 391 Auf dem Weg zur Eggszellenz Klaus Bellmann ............................................................................................................................. 395 Wissenschaftliche Veröffentlichungen Univ.-Prof. Dipl.-Ing. Dr. rer. pol. Klaus Bellmann ................................................... 407 Autorenverzeichnis B Prof. Dr. Klaus BELLMANN Johannes Gutenberg-Universität Mainz Co-Direktor des Center of Market-Oriented Product and Production Management Jakob-Welder-Weg 9 D - 55099 Mainz bellmann@uni-mainz.de http://www.cmpp.de/ Gunnar BERNTSEN Brandenburgische Technische Universität Cottbus Institut für Produktionsforschung Lehrstuhl für Produktionswirtschaft Siemens-Halske-Ring 6 D - 03046 Cottbus berntsen@prodwi.tu-cottbus.de http://www.prodwi.tu-cottbus.de/ Professor Dr. med. Andrea BERZLANOVICH Medizinische Universität Wien Department für Gerichtliche Medizin Sensengasse 2 A - 1090 Wien andrea.berzlanovich@meduniwien.ac.at http://www.meduniwien.ac.at/gerichtsmedizin/ René BLANK Ruhr-Universität Bochum Lehrstuhl für Produktionswirtschaft Universitätsstraße 150 D - 44801 Bochum rene.blank@rub.de http://www.prowi.ruhr-uni-bochum.de/ XX Autorenverzeichnis Professor Dr. Thorsten BLECKER Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg blecker@ieee.org http://www.logu.tu-harburg.de/ Professor Dr. Klaus BREUER Johannes Gutenberg-Universität Mainz Lehrstuhl für Wirtschaftspädagogik Jakob-Welder-Weg 9 D - 55099 Mainz klaus.breuer@uni-mainz.de http://www.wipaed.uni-mainz.de/ C Professor Dr. Hans CORSTEN Vorsitzender der Wissenschaftlichen Kommission für Produktionswirtschaft im Verband der Hochschullehrer für Betriebswirtschaft e.V. Technische Universität Kaiserslautern Lehrstuhl für Produktionswirtschaft Gottlieb-Daimler-Straße, Geb. 42 D - 67663 Kaiserslautern corsten@wiwi.uni-kl.de http://produktion.wiwi.uni-kl.de/ E Eva ENGEL Rechnungswesensysteme und -services der Fraport AG Flughafen Frankfurt/Main D - 60547 Frankfurt am Main e.engel@fraport.de http://www.fraport.de/ F Max FESER Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg max.feser@tuhh.de http://www.logu.tu-harburg.de/ XXI Autorenverzeichnis Professor Dr. Joachim FISCHER Universität Paderborn Fakultät Wirtschaftswissenschaften Schwerpunkt Wirtschaftsinformatik 1 Betriebswirtschaftliche Informationssysteme Warburger Straße 100 D - 33098 Paderborn joachim.fischer@notes.uni-paderborn.de http://winfo1-www.uni-paderborn.de/ Professor Dr. Nikolaus FRANKE Vorsitzender der Wissenschaftlichen Kommission für Technologie, Innovation und Entrepreneurship im Verband der Hochschullehrer für Betriebswirtschaft e.V. Wirtschaftsuniversität Wien Institut für Entrepreneurship und Innovation Augasse 2-6 A - 1090 Wien nikolaus.franke@wu.ac.at http://www.wu.ac.at/ Professor Dr. Jörg FREILING Universität Bremen Fachbereich Wirtschaftswissenschaft Lehrstuhl für Mittelstand, Existenzgründung und Entrepreneurship (LEMEX) Wilhelm-Herbst-Straße 5 D - 28359 Bremen freiling@uni-bremen.de http://www.lemex.uni-bremen.de/de/ G Jörg H. GRIMM Universität St. Gallen Forschungszentrum für Supply Chain Management, Logistik & Verkehr Lehrstuhl für Logistikmanagement (LOG-HSG) Dufourstrasse 40a CH - 9000 St. Gallen joerg.grimm@unisg.ch http://www.logistik.unisg.ch/ Regina GRUSSENMEYER Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg regina@grussenmeyer.eu http://web.logu.tu-harburg.de/ XXII Autorenverzeichnis H Professor Dr. Thomas HARTUNG Prodekan des Fachbereichs Wirtschafts- und Organisationswissenschaften Universität der Bundeswehr München Professur für Versicherungswirtschaft Werner-Heisenberg-Weg 39 D - 85577 Neubiberg thomas.hartung@unibw.de http://www.unibw.de/wow6_4/ Dr. Sylke HEUSINGER VON WALDEGGE Product Charging Manager Strategy & Program Office Schaeffler Technologies AG & Co. KG Industriestraße 1-3 D - 91074 Herzogenaurach Sylke.von.Waldegge@schaeffler.com http://www.schaeffler.de Professor Dr. habil. Frank HIMPEL Hochschule Anhalt Logistikmanagement Strenzfelder Allee 28 D – 06406 Bernburg http://www.hs-anhalt.de/ Professor Dr. Jochen HÖRISCH Seminar für Deutsche Philologie Universität Mannheim Neuere Germanistik II D - 68131 Mannheim hoerisch@rumms.uni-mannheim.de http://germanistik.uni-mannheim.de Assistenz-Professor Dr. Joerg S. HOFSTETTER Universität St. Gallen Forschungszentrum für Supply Chain Management, Logistik & Verkehr Lehrstuhl für Logistikmanagement (LOG-HSG) Dufourstrasse 40a CH - 9000 St. Gallen joerg.hofstetter@unisg.ch http://www.logistik.unisg.ch/ XXIII Autorenverzeichnis K Dr. Guido KAUPE Leiter Rechnungswesensysteme und -services der Fraport AG Geschäftsführer der Energy Air GmbH Flughafen Frankfurt/Main D - 60547 Frankfurt am Main g.kaupe@fraport.de http://www.fraport.de/ Professor Dr. Eva-Maria KERN, MBA Dekanin des Fachbereichs Wirtschafts- und Organisationswissenschaften Universität der Bundeswehr München Professur für Wissensmanagement und Geschäftsprozessgestaltung Werner-Heisenberg-Weg 39 D - 85577 Neubiberg eva-maria.kern@unibw.de http://www.unibw.de/wow5_5/ Professor Dr. Dr. h.c. Wolfgang KERSTEN Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg logu@tu-harburg.de http://www.logu.tu-harburg.de/ Prof. Dr. Dagmar KESSLER Fachhochschule Worms Studiengang Wirtschaftsinformatik Erenburgerstraße 19 D - 67549 Worms kessler@fh-worms.de, http://www.fh-worms.de Professor Dr. Anshuman KHARE Stipendiat der Alexander von Humboldt-Stiftung bei Professor Dr. Klaus Bellmann Athabasca University Faculty of Business Operations Management & Sustainable Development Chair 22 Sir Winston Churchill Avenue St. Albert, AB T8N 1B4 Kanada anshuman@athabascau.ca http://www.mba.athabascau.ca/ XXIV Autorenverzeichnis Markus KLOTZBACH Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg markus.klotzbach@tuhh.de http://www.logu.tu-harburg.de/ Prof. Dr. phil. Dr. habil. med. Niko KOHLS Hochschule Coburg Bereich Integrative Gesundheitsförderung Samueli Scholar Brain, Mind & Healing Program Friedrich-Streib-Straße 2 D - 96450 Coburg niko.kohls@hs-coburg.de http://www.hs-coburg.de/ Professor Dr. Hermann KRALLMANN Technische Universität Berlin Institut für Wirtschaftsinformatik und Quantitative Methoden Fachgebiet Systemanalyse und EDV Franklinstraße 28/29 D - 10587 Berlin hkr@sysedv.tu-berlin.de http://www.sysedv.tu-berlin.de/ Professor Dr. Georg KRAUSCH Präsident Johannes Gutenberg-Universität Mainz D - 55099 Mainz praesident@uni-mainz.de www.uni-mainz.de Dr. Sascha KWASNIOK Berater Betriebsorganisation Alte Leipziger Lebensversicherung a.G. Alte-Leipziger-Platz 1 D - 61440 Oberursel sascha.kwasniok@alte-leipziger.de http://www.alte-leipziger.de/ XXV Autorenverzeichnis L Dr. Olga LEVINA Technische Universität Berlin Institut für Wirtschaftsinformatik und Quantitative Methoden Fachgebiet Systemanalyse und EDV Franklinstraße 28/29 D - 10587 Berlin olga.levina.1@tu-berlin.de http://www.sysedv.tu-berlin.de/ Dr. Marcus LORENZ Technische Universität Braunschweig Department Wirtschaftswissenschaften Institut für Unternehmensführung Lehrstuhl für Organisation und Führung Abt-Jerusalem-Straße 4 D - 38106 Braunschweig c.charcholla@tu-braunschweig.de http://www.tu-braunschweig.de M Markus MATHIEU Johannes Gutenberg-Universität Mainz Lehrstuhl für Wirtschaftspädagogik Jakob-Welder-Weg 9 D - 55099 Mainz markus.mathieu@uni-mainz.de http://www.wipaed.uni-mainz.de/ Professor Dr. Hans MEISSNER Fachleiter für den Bereich Versicherungen Duale Hochschule Baden-Württemberg Mannheim Coblitzallee 1-9 D - 68163 Mannheim meissner@dhbw-mannheim.de http://www.dhbw-mannheim.de/ Mark MORRISSEY mark_morrissey_12@hotmail.com XXVI Autorenverzeichnis O Professor Dr. Dietrich VON DER OELSNITZ Technische Universität Braunschweig Department Wirtschaftswissenschaften Institut für Unternehmensführung Lehrstuhl für Organisation und Führung Abt-Jerusalem-Straße 4 D - 38106 Braunschweig c.charcholla@tu-braunschweig.de http://www.tu-braunschweig.de P Professor Dr. Niko PAECH Universität Oldenburg Lehrstuhl Produktion und Umwelt Fakultät II - Informatik, Wirtschafts- und Rechtswissenschaften Institut für Betriebswirtschaftslehre und Wirtschaftspädagogik D - 26111 Oldenburg niko.paech@uni-oldenburg.de http://www.uni-oldenburg.de S Hagen SALEWSKI Technische Universität Kaiserslautern Lehrstuhl für Produktionswirtschaft Gottlieb-Daimler-Straße, Geb. 42 D - 67663 Kaiserslautern salewski@wiwi.uni-kl.de http://produktion.wiwi.uni-kl.de/ Dr. Sebastian SAUER Ludwig-Maximilians-Universität München GRP - Generation Research Program Associated Researcher Prof.-Max-Lange-Platz 11 D - 83646 Bad Tölz sauer@grp.hwz.uni-muenchen.de http://www.grp.hwz.uni-muenchen.de/ Dr. Christian SCHÄFER Director Global Forecasting & Strategic Process Böhringer Ingelheim GmbH Binger Strasse 173 D - 55216 Ingelheim am Rhein Christian.h.schaefer@t-online.de http://www.boehringer-ingelheim.de XXVII Autorenverzeichnis Professor Dr. habil. Dietmar SCHÖSSLER Universität der Bundeswehr München Fakultät für Sozialwissenschaften Werner-Heisenberg-Weg 39 D - 85577 Neubiberg dietmar.schoessler@unibw-muenchen.de http://www.unibw.de Dr. Meike SCHRÖDER Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg meike.schroeder@tuhh.de http://www.logu.tu-harburg.de/ Professor Dr. Stefan SEURING Vorsitzender der Wissenschaftlichen Kommission für Nachhaltigkeitsmanagement im Verband der Hochschullehrer für Betriebswirtschaft e.V. Universität Kassel Institut für Betriebswirtschaftslehre Fachgebiet Supply Chain Management Untere Königsstraße 71 D - 34117 Kassel seuring@uni-kassel.de http://www.uni-kassel.de Professor Dr. Dr. h.c. mult. Hermann SIMON Chairman Simon-Kucher & Partners Strategy & Marketing Consultants Willy-Brandt-Allee 13 D – 53113 Bonn hermann.simon@simon-kucher.com http://www.simon-kucher.com/ Professor Dr.-Ing. habil. Dieter SPECHT Brandenburgische Technische Universität Cottbus Institut für Produktionsforschung Lehrstuhl für Produktionswirtschaft Siemens-Halske-Ring 6 D - 03046 Cottbus info@prodwi.tu-cottbus.de http://www.prodwi.tu-cottbus.de/ XXVIII Autorenverzeichnis Professor Dr. Marion STEVEN Ruhr-Universität Bochum Lehrstuhl für Produktionswirtschaft Universitätsstraße 150 D - 44801 Bochum marion.steven@rub.de http://www.prowi.ruhr-uni-bochum.de/ Professor Dr. Wolfgang STÖLZLE Universität St. Gallen Forschungszentrum für Supply Chain Management, Logistik & Verkehr Lehrstuhl für Logistikmanagement (LOG-HSG) Dufourstrasse 40a CH - 9000 St. Gallen wolfgang.stoelzle@unisg.ch http://www.logistik.unisg.ch/ W Professor Dr. Dr. h.c. mult. Horst WILDEMANN Technische Universität München Lehrstuhl für Betriebswirtschaftslehre – Unternehmensführung, Logistik und Produktion Leopoldstraße 145 D - 80804 München wisekretariate@wi.tum.de http://www.bwl.wi.tum.de/ Dr. Jan WIRSAM Ricoh Deutschland GmbH Ricoh Document Center Georg-Kohl-Straße 42 D - 74336 Brackenheim janwirsam@gmx.de http://www.ricoh-documentcenter.de/ Dr. Jochen WITTMANN General Manager Dr. Ing. h.c. F. Porsche Aktiengesellschaft Entwicklungszentrum Porschestraße D - 71287 Weissach jochenwittmann@yahoo.com http://www.porsche.com/ Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge Hans Corsten, Hagen Salewski 1 Problemstellung Der Begriff der Dienstleistungen wird in der Literatur kontrovers diskutiert.1 Ohne auf diese Diskussion einzugehen, sollen Dienstleistungen in diesem Beitrag als Problemlösungen verstanden werden2, deren Produktion durch die Integration eines externen Produktionsfaktors gekennzeichnet ist. Ein Nachfragerbedürfnis wird dabei als ein individuelles Problem des Nachfragers und die Bedürfnisbefriedigung als eine von ihm akzeptierte Problemlösung charakterisiert, die vom Produzenten, ggf. unter aktiver Beteiligung des Nachfragers, gefunden wird. Ein Problem ergibt sich für ein Wirtschaftssubjekt aus einer als negativ empfundenen, nichttolerierbaren Diskrepanz zwischen dem aktuellen Ist-Zustand und dem Soll-Zustand eines Betrachtungsobjektes (externer Faktor) aus seinem Verfügungsbereich. Wird die Leistung am Nachfrager selbst erbracht, dann wird von einer personenbezogenen Dienstleistung gesprochen. Eine Dienstleistung konkretisiert sich dann als nutzenstiftende Transformation von problematischen Eigenschaften des externen Faktors in Richtung des Soll-Zustandes.3 Die Modularisierung von Dienstleistungen wird insbesondere im Spannungsfeld von Standardisierung und Individualisierung in der Literatur thematisiert.4 Diese sind jedoch nicht als Gegensätze zu interpretieren, sondern sie bilden die Eckpunkte eines Kontinuums. Bei einer Individualisierung zielt das Leistungsangebot eines Anbieters auf die individuellen Wünsche des Nachfragers ab, die er möglichst gut befriedigen möchte.5. Es liegt somit eine differenzierte Marktbearbeitung vor, die Chancen für eine verstärkte Kundenbindung 1 Vgl. zu einem Überblick Corsten/Gössinger 2007, S. 21 ff. 2 Vgl. z. B. Kern 1979, Sp. 1434 ff. 3 Vgl. auch Corsten/Gössinger 2004, S. 255 ff. 4 Vgl. z. B. Jacob 1995, S. 35 ff.; Schackmann 2003, S. 9 ff. 5 Vgl. Mayer 1993, S. 36. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_1, © Springer Fachmedien Wiesbaden 2013 2 Hans Corsten, Hagen Salewski auf der Grundlage einer erhöhten Leistungsattraktivität zur Schaffung eines Preisspielraumes sowie eine Errichtung von Markteintrittsbarrieren eröffnet.6 Bei der Standardisierung7 erfolgt eine Vereinheitlichung von Leistungen (Einheitslösung), um so die Vielfalt der Leistungen zu reduzieren (undifferenzierte Marktbearbeitung), d. h., sie zielt auf die Gemeinsamkeiten der Nachfragerwünsche ab.8 Eine Standardisierung von Prozessen geht in der Regel zumindest mit einer Standardisierung von Teilleistungen einher und ist nur in dem Umfang durchführbar, wie die Nachfragerwünsche vor der Erbringung einer Leistung durch den Anbieter antizipierbar sind. Trotz der (teilweise restringierenden) Einwirkungen des externen Produktionsfaktors auf den Dienstleistungserstellungsprozess lassen sich einzeln Aktivitäten und Sequenzen standardisieren. Die Standardisierung bewirkt folglich eine Einschränkung des Leistungsspektrums des Anbieters und ist mit Kostenvorteilen verbunden, die sich generell auf Erfahrungskurveneffekte sowie Senkung der Umrüst- und Koordinationskosten zurückführen lassen. Darüber hinaus geht die Standardisierung mit einer Reduzierung von Unsicherheiten und der Realisation von Zeitvorteilen (wenn es sich nicht um Zeitvertreibungsangebote handelt) einher9 und bewirkt somit eine erhöhte Transparenz und Vereinfachung. Die Modularisierung zielt darauf ab, die Standardisierung und Individualisierung gleichermaßen zu berücksichtigen.10 Hierbei wird der Dienstleistungserstellungsprozess in Teilleistungen zerlegt, die dann flexibel miteinander kombiniert werden können, um so ein Spektrum heterogener Kundenbedürfnisse zu befriedigen.11 Die Kombination der Module darf dabei aber nicht willkürlich erfolgen, sondern es sind die Wechselwirkungen zwischen den Modulen zu beachten. Vor diesem Hintergrund lässt sich die Modularisierung als eine Dekomposition eines Systems in abgeschlossene und weitgehend voneinander unabhängige Teilsysteme beschreiben.12 Diese Teilsysteme werden als Module bezeichnet, die dann auf der Grundlage standardisierter Schnittstellen in unterschiedlicher Weise miteinander kombiniert werden können.13 Um diese Schnittstellen zu handhaben, müssen Regeln für eine gemeinsame Aufgabenerfüllung formuliert, definierte Verantwortlichkeiten sowie Informations- und Kommunikationswege geschaffen werden. 6 Vgl. Schnäbele 1997, S. 38. 7 Vgl. Levitt 1972, S. 47 ff., Levitt 1976, S. 63 ff. 8 Mayer 1993, S. 42 ff. spricht von einer Befriedigung von Durchschnittswünschen, d. h., es geht um die Feststellung von Gemeinsamkeiten in der Anspruchsstruktur der Nachfrager. 9 Vgl. Büttgen/Ludwig 1997, S. 29 ff. 10 Zu einer Systematisierung in Abhängigkeit von der Eingriffstiefe des Nachfragers in den Leistungserstellungsprozess vgl. Lampel/Mintzberg 1996, S. 25 f. 11 Vgl. Stauss 2006, S. 324. 12 Vgl. z. B. Burr 2002, S. 120 f. 13 Vgl. Baldwin/Clark 1997, S. 125; Sanchez 1996, S. 126 ff. Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge 3 Der Modularisierung werden in der Literatur generell die folgenden Vorteile zugesprochen:14 - Komplexitätsreduktion, Kostensenkung in der Produktion, Verkürzung der Produktentwicklungsleistungen und Erhöhung der Angebotsvielfalt. Im Folgenden sollen zwei Modelle zur Gestaltung von modularen Dienstleistungen abgeleitet werden. Ziel dieser Modelle ist es, jeweils die Elemente einer Dienstleistung so in Module zu zerlegen, dass dabei die Koordinationskosten, die bei der Nutzung des modularen Systems entstehen, minimiert werden. Die gemeinsame (Daten-)Basis beider Ansätze, auf die zunächst im folgenden Abschnitt fokussiert werden soll, ist die strukturierte Erfassung der Interdependenzkosten zwischen den Leistungselementen. 2 Design Structure Matrizen als Modellierungsgrundlage Als Grundlage quantitativer Ansätze zur Dienstleistungsmodularisierung lassen sich die sogenannten Design Structure Matrizen (DSM) heranziehen, die von Steward15 entwickelt wurden, um Zusammenhänge in komplexen Systemen zu veranschaulichen. Den Einsatzschwerpunkt von DSM bildet die Konfiguration physischer Produkte im Maschinenbau.16 Ihr Einsatz zur Gestaltung von Dienstleistungen wurde erstmals von Burr17 vorgeschlagen, jedoch nicht konkret modelliert. Im Rahmen der Modularisierung von Dienstleistungen erfassen DSM die Abhängigkeiten zwischen den einzelnen (standardisierten) Leistungselementen, aus denen sich die betrachtete Dienstleistung zusammensetzt. Diese Abhängigkeiten werden als Zahlenwert in der DSM dargestellt und können, je nach Anwendung der DSM und Ermittlungsart der konkreten Werte, auf unterschiedliche Art und Weise interpretiert werden. Im Folgenden werden die Elemente der DSM als Koordinationskosten interpretiert, weil bei arbeitsteiliger Dienstleistungserstellung durch (mehrere) Anbieter und (mehrere) Nachfrager das Problem der Erstellung von kompatiblen Leistungselementen, die unabhängig voneinander erstellt werden können, virulent wird.18 Um die Kompatibilität sicherzustellen, sind grundsätzlich die beiden folgenden Vorgehensweisen denkbar: - vor Erstellung der Leistungselemente wird durch Einsatz von Koordinationsinstrumenten eine Kompatibilität herbeigeführt, oder - es werden bei Auftreten von Inkompatibilitäten entsprechende Korrekturmaßnahmen ergriffen. 14 Vgl. Burr 2002, S. 147 ff.; Meyer/DeTore 1999, S. 65; Sanchez 1999, S. 95 ff. 15 Erstmals erwähnt von Steward 1965, S. 345 und ausführlicher in Steward 1981, S. 11 ff. 16 Für einen Überblick über den Einsatz von DSM im Produktdesign und darüber hinaus vgl. Browning 2001, S. 292 ff., Eppinger/Browning 2012, S. 1 ff. 17 Vgl. Burr 2002, S. 128 ff. 18 Vgl. Gaitanides 2007, S. 93 ff. 4 Hans Corsten, Hagen Salewski Beide Vorgehensweisen verursachen Kosten, die als Koordinationskosten bezeichnet werden sollen. Sie sind Opportunitätskosten eines nicht erfüllten Koordinationsbedarfs. Zur Veranschaulichung ist in Abbildung 1 die Design Structure Matrix eines Behandlungsprozesses in der Notfallaufnahme eines Krankenhauses dargestellt.19 A B C D E F G H I J K L M Ankunft A 0 2 2 0 1 0 0 2 0 0 2 0 0 Aufnahme B 2 0 2 5 2 0 0 2 1 0 1 1 0 Ersteinschätzung C 0 1 0 2 2 1 0 2 1 1 2 0 0 Röntgen D 1 0 3 0 3 3 3 3 2 1 1 0 4 Diagnose E 2 0 2 2 0 2 3 4 2 1 2 0 3 Bruch richten F 1 0 0 0 2 0 3 0 0 1 0 1 0 Gipsen G 0 0 1 1 2 3 0 2 0 1 1 1 0 Konsil H 1 0 1 1 3 2 3 0 3 1 1 0 5 OP-Terminierung I 0 0 1 1 2 0 4 2 0 3 3 1 0 OP-Aufklärung J 2 0 0 0 0 1 1 1 2 0 1 0 1 Bettensuche K 1 1 0 0 0 1 1 2 4 2 0 0 2 Verlegung L 1 2 1 1 1 2 3 0 1 1 6 0 3 Gips öffnen M 1 1 2 3 3 4 4 4 0 1 0 0 0 Abbildung 1: Beispiel einer Design Structure Matrix Grundsätzlich lassen sich die Beziehungsarten, die zwischen den Leistungselementen existieren, in drei Klassen unterteilen: - Unabhängigkeit: es bestehen keine direkten Abhängigkeiten zwischen den Leistungselementen (z. B. zwischen F und I in Abbildung 1). Die Erstellung der Leistungselemente muss nicht koordiniert werden. - Einseitige Abhängigkeiten (Dependenzen): ein Leistungselement beeinflußt die Erstellung des anderen, wird von diesem aber nicht selbst beeinflusst (z. B. zwischen D und J). Der Koordinationsbedarf kann aufgelöst werden, wenn zunächst die Parameter von Leistungselement D bestimmt werden. 19 In der Design Structure Matrix des Beispiels sind zeilenweise die Koordinationskosten, die durch das Leistungselement bei anderen Leistungselementen erzeugt werden, dargestellt, wohingegen spaltenweise die durch die Koordination mit anderen Leistungselementen verursachten Kosten dargestellt sind. Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge 5 - Wechselseitige Abhängigkeiten (Interdependenzen): beide Leistungselemente beeinflussen sich gegenseitig (z. B. zwischen M und H), wobei die Stärke des Einflusses variieren kann. Die Koordination zwischen den beiden Leistungselementen kann minimiert werden, wenn der höhere Koordinationsbedarf aufgelöst wird, also bei Erstellung von H die Vorgaben durch M berücksichtigt werden und der niedrigere Koordinationsbedarf wirksam wird. Existiert bei einer Dienstleistung die Möglichkeit, dass die Leistung durch Kombinationen von Leistungselementen erstellt und somit individualisiert wird, dann weist die Dienstleistung mehrere denkbare Dienstleistungspfade auf, wobei jeder Pfad eine mögliche Erstellungsalternative beschreibt. Pfadspezifische DSM lassen sich aus einer Gesamtdienstleistungs-DSM ableiten, indem Beziehungen zu Leistungselementen, die nicht Bestandteil des Pfades sind, mit Null bewertet werden. Ferner wird im Folgenden angenommen, dass sich die möglichen Dienstleistungspfade erfassen lassen und ihre Ausführungswahrscheinlichkeiten ermittelt werden können.20 3 Modellierung als Zuordnungsproblem An die Modellierung der koordinationskostenoptimalen Zuordnung aller Leistungselemente zu Modulen werden die folgenden Anforderungen formuliert: - Die Koordination der einem Modul zugeordneten Leistungselemente erfolgt ausschließlich durch einen Modulverantwortlichen, wodurch die Koordinationskomplexität sinkt. Hierdurch wird der Koordinationsbedarf innerhalb des Moduls durch einen von der Modulgröße abhängigen Koordinationsbedarf ersetzt. Das kleinste denkbare Modul besteht aus genau einem Leistungselement, die maximale Anzahl der Leistungselemente eines Moduls ist durch die Koordinationskapazität des Modulverantwortlichen restringiert.21 Die durch den modulinternen Koordinationsbedarf verursachten Kosten werden als intermodulare Koordinationskosten bezeichnet. - Zwischen den einzelnen Modulen besteht eine direkte Hierarchie, durch die die Reihenfolge der Auflösung von Abhängigkeiten bestimmt wird. - Die direkten Koordinationskosten zwischen zwei Modulen ergeben sich aus der Summe der nicht aufgelösten Abhängigkeiten der Leistungselemente, die unterschiedlichen Modulen zugeordnet sind. Sie hängen damit sowohl von der Modulhierarchie als auch von der Zuordnung der Leistungselemente zu den einzelnen Modulen ab. - Die Summe aller wirksamen Koordinationskosten entspricht dann der Summe aller Koordinationskosten, die zwischen allen Modulen wirksam werden. Diese werden als direkte intermodulare Koordinationskosten bezeichnet. - Daneben existieren indirekte intermodulare Koordinationskosten, die durch die Komplexität der intermodularen Koordination beeinflußt werden. 20 Vgl. Corsten/Gössinger/Salewski 2012, S. 6 ff. 21 Vgl. Picot/Freudenberg 1998, S. 77. 6 Hans Corsten, Hagen Salewski Um die beschriebenen Anforderungen in einem Optimierungsmodell adäquat modellieren zu können, sind die folgenden Annahmen zu treffen: - Die indirekten intermodularen Koordinationskosten lassen sich in eine geordnete Menge von Kostenklassen unterteilen, die nach der Anzahl der Koordinationsvorgänge zwischen allen Modulen, d. h. der Anzahl aller wirksamen Koordinationsbedarfe, deren Stärke größer Null ist, geordnet sind. Da die Anwendung von Koordinationsinstrumenten mit Kosten verbunden ist, die in der Regel mit der Komplexität ansteigen, werden die Kostenklassen mit einer größeren Anzahl maximaler Koordinationsvorgänge mit höheren Kosten versehen. Die kleinste definierte Kostenklasse hat ein Maximum von Null Koordinationsvorgängen, wodurch keine Koordinationskosten entstehen. - Analoge Überlegungen gelten für die intramodularen Koordinationskosten, die sich ebenfalls in Kostenklassen einteilen lassen, die durch die Anzahl der Leistungselemente bestimmt werden, die einem Modul zugeordnet sind. Die kleinste zulässige Größe muss Null Leistungselemente sein, damit die Lösungsgüte des Optimierungsmodells nicht durch eine Vorgabe der Modulanzahl22 beeinflusst wird. Hierdurch lassen sich beliebige Kostenfunktionen in diskreter Form darstellen. In Abhängigkeit von der Anzahl der Kostenklassen kann dies mit beliebiger Genauigkeit erfolgen, wobei der Lösungsaufwand mit jeder weiteren Kostenklasse ansteigt. Damit lässt sich ein quadratisches Zuordnungsproblem modellieren, das durch x v.m ∈ {0,1} eine Zuordnung von ( v = 1, , V ) Leistungselementen zu ( m = 1, , M; M < V ) Modulen beschreibt:23 ª M-1 M V V º M I P J »+ Min! K = ¦ p p ⋅ « ¦¦¦¦ ( x v.m ⋅ x v′.m′ ⋅ a p.v.v′ ) + ¦ ( d j.p ⋅ cinter ) ( b m.i ⋅ cintra ) j i « m =1 m′ = v =1 v′ =1 » ¦¦ p =1 j=1 m =1 i =1 ¬« m +1 ¼» direkte intermodulare Koordinationskosten indirekte intermodulare Koordinationskosten (1) intramodulare Koordinationskosten u.d.B.d. M ¦x v.m =1 ∀v ∈ V (2) m =1 22 Die Anzahl der Leistungselemente dividiert durch die kleinste definierte Modulgröße ergibt die maximal mögliche Modulanzahl. 23 Vgl. Corsten/Salewski 2013, S. 100 ff. Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge I ¦b 7 =1 ∀m ∈ M (3a) ≤ Siintra ⋅ b m.i + Ω ⋅ (1 − b m.i ) ∀m ∈ M, i ∈ I (3b) ∀m ∈ M, i > 1 (3c) ∀m ∈ M, i = 1 (3d) ∀p ∈ P (4a) ∀j ∈ J, p ∈ P (4b) ∀p ∈ P, j > 1 (4c) 0 ≤ ¦¦¦¦ ( x v.m ⋅ x v′.m′ ⋅ f ≥ (a p.v.v′ ) ) ∀p ∈ P, j = 1 (4d) x v.m ∈ {0,1} ∀v ∈ V, m ∈ M (5a) b m.i ∈ {0,1} ∀m ∈ M, i ∈ I (5b) d j.p ∈ {0,1} ∀j ∈ J, p ∈ P (5c) m.i i =1 V ¦x v.m v =1 V b m.i ⋅ ( Siintra −1 + 1) ≤ ¦ x v.m v =1 V 0 ≤ ¦ x v.m v =1 J ¦d j.p =1 j=1 M-1 M V V ¦¦¦¦ ( x m =1 m ′ = v =1 v ′ =1 m +1 v.m ⋅ x v′.m′ ⋅ f ≥ (a p.v.v′ ) ) ≤ Sjinter ⋅ d j.p + Ω ⋅ (1 − d j.p ) M-1 M V V ≥ d j.p ⋅ ( Sjinter −1 + 1) ≤ ¦¦¦¦ ( x v.m ⋅ x v ′.m′ ⋅ f (a p.v.v′ ) ) m =1 m ′ = v =1 v ′ =1 m +1 M-1 M V V m =1 m ′ = v =1 v ′ =1 m +1 8 Hans Corsten, Hagen Salewski Ziel dieser Zuordnung ist die Minimierung der Koordinationskosten über alle Pfade (1), die sich aus - den direkt wirksamen intermodularen Koordinationskosten a p.v.v′ zwischen den Leistungselementen v und v′ eines Pfades, ablesbar aus den pfadspezifischen Design Structure Matrizen A des Problems, - den modulgrößenabhängigen intramodularen Koordinationskosten und - den von der Anzahl der intermodularen Koordinationsvorgänge abhängigen, pfadspezifischen indirekten intermodularen Koordinationskosten zusammensetzen. Die pfadspezifischen Kostenelemente werden mit der PfadausführungsP wahrscheinlichkeit p gewichtet, wobei gilt: ¦ p p = 1 . p =1 Jedes Leistungselement wird genau einem Modul zugeordnet (2). Die intermodularen Koordinationskosten sind die Summe aller Koordinationskosten, die durch Koordinationsbedarfe zwischen den Leistungselementen v und v′ entstehen, wenn die Leistungselemente unterschiedlichen Module zugeordnet sind ( m ≠ m ′ ) und ihre Abhängigkeit nicht bereits durch die Modulhierarchie berücksichtigt wurden ( m ′ > m ) . Jedes Modul m wird durch die binäre Zuordnungsvariable b m.i genau einer modulgrößenabhängigen Kostenklasse ( i = 1, , I ) zugeordnet (3a), wobei sowohl die Maximalgröße ( 0 ≤ S1intra ≤ ≤ Si intra ≤ ≤ SIintra ) jeder Kostenklasse (3b) als auch das Minimum24 jeder Klasse (3c und 3d) berücksichtigt wird. Die indirekten intermodularen Koordinationskostenklassen ( j = 1, , J) werden analog hierzu für jeden berücksichtigten Pfad durch die binären Zuordnungsvariablen d j.p zugewiesen (4a bis 4d), wobei jedoch eine Modifikation der DSM mit der Funktion f ≥ (a p.v.v′ ) vorgenommen wird. Sie nimmt den Wert f ≥ (a p.v.v′ ) = 1 genau dann an, wenn zwischen v und v′ Koordinationskosten anfallen. Die maximale Größe jeder Klasse ist durch 0 ≤ S1inter ≤ ≤ Sjinter ≤ ... ≤ SJ inter gegeben. Das vorgestellte Modell ist ein verallgemeinertes quadratisches Zuordnungsproblem mit quadratischen Nebenbedingungen (QPQC) und fällt in die Klasse der NP-vollständigen Optimierungsprobleme. Das vorgestellte Modell lässt sich für kleine Probleminstanzen mit 24 Das Minimum einer Kostenklasse i > 1 ist durch Siintra −1 + 1 gegeben und das Minimum der ersten Kostenklasse beträgt Null. Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge 9 Hilfe von quadratischen Solvern lösen. Eine Verkürzung der Lösungszeit lässt sich durch eine Linearisierung des Modells mit Hilfe der Reformulation-Linearization-Technik (RLT)25 realisieren. Hierzu werden die quadratischen Terme in der Zielfunktion und in den Nebenbedingungen durch die zusätzlichen Entscheidungsvariablen y v.v′.m.m′ = x v.m ⋅ x v′.m′ ersetzt und die Nebenbedingungen 6a bis 6c ergänzt. M ¦y ∀v, v′, m (6a) y v.m.v′.m′ = y v′.m′.v.m ∀v, v′, m, m′ (6b) y v.m.v′.m′ ≥ 0 ∀v, v′, m, m′ (6c) m ′=1 4 v.m.v ′.m ′ = x v.m Modellierung als Flussproblem Bei der Modellierung des Dienstleistungsmodularisierungsproblems als Zuordnungsproblem wächst die Anzahl der Entscheidungsvariablen mit zunehmender Anzahl von berücksichtigten Teilleistungen und Modulen exponentiell, weshalb sich nur sehr kleine Probleminstanzen lösen lassen. Neben der Anwendung von (Meta-)Heuristiken zur Lösung des Problems kann eine alternative Modellierung die Rechenzeiten beschleunigen, weil andere Lösungsverfahren möglich werden. Im Folgenden soll daher, ausgehend von den im vorherigen Abschnitt abgeleiteten Anforderungen, das Dienstleistungsmodularisierungsproblem als Flussproblem modelliert werden, das der Lösung mit einem Branch-and-PriceAlgorithmus26 zugänglich gemacht werden kann. Zur Veranschaulichung eines wesentlichen Teils des Modells dient der ungerichtete Graph einer kleinen Probleminstanz mit drei Leistungselementen und drei Modulen in Abbildung 2. Der Graph ist durch die Kantenmengen A, B und C in drei Teile gegliedert, wobei die Knoten mit der Kennzeichnung „M“ die Kantenmengen A und B sowie die Knoten mit der Kennzeichnung „V“, die Kantenmengen B und C miteinander verknüpfen. Die Kanten und Knoten werden dabei auf folgende Weise interpretiert: - Jede Kante der Kantenmenge A verbindet den Quellknoten 0 mit einem Knoten M m.i und repräsentiert damit die Zuordnung des Moduls m zur intermodularen Koordinationskostenklasse i. Hierzu sind die Kanten in A mit dem Kostenklassenfaktor giA gewichtet, und der Fluss durch diese Kante ist durch die Kapazität κi restringiert. Der Kostenfaktor entspricht den Kosten der jeweiligen direkten Koordinationskostenklasse ( ci intra im Zuord25 Vgl. allgemein zur RLT Sherali/Adam 1999, S. 297 ff. und zur Anwendung auf das verallgemeinerte quadratische Zuordnungsproblem Hahn et al. 2008, S. 352 ff. 26 Barnhard et al. 1998, S. 316 ff. 10 Hans Corsten, Hagen Salewski nungsmodell) und der Kapazität der maximalen Größe dieser Kostenklasse ( Si intra im Zuordnungsmodell). - Die Kanten der Kantenmenge B verbinden die Knoten M m.i mit den Knoten Vm.v und realisieren damit die Zuordnung der Teilleistungen v zu den Modulen m . Sie sind mit keinen Kosten verbunden, und die Kapazität jeder Kante in B ist Eins. - Die Kanten der Kantenmenge C repräsentieren die direkten Koordinationsbedarfe zwischen den Leistungselementen. Diese Kanten verbinden zwei Knoten der Knotenmenge Vm.v miteinander, wenn beide Knoten unterschiedliche Module und unterschiedliche Leistungselemente repräsentieren. Sie sind mit dem Faktor g Ck gewichtet, der den Werten der direkten Koordinationskosten entspricht und direkt aus der DSM ermittelt wird. Die Kapazität dieser Kanten ist ebenfalls Eins. Zur Formulierung eines Optimierungsmodells müssen die Kantenmengen in Teilmengen zerlegt werden: A m = {a (m −1)⋅I +1 , ... ,a (m −1)⋅I + I } ∀m ∈ M BM m = {b (m −1)⋅ V ⋅ I +1 , ... ,b (m −1)⋅ V ⋅ I + V ⋅I } ∀m ∈ M BVv = {b V⋅r + v | r = 0,1, ... , M ⋅ I − 1} ∀v ∈ V { } BiI = b r +1 , ... ,b r + V | r = (m − 1) ⋅ M ⋅ I + (i − 1) ⋅ V , m ∈ M { } { } V M V M ° Bv Bm1 Bv2 Bm2 ½° BC = ® 1 ¾ °¿ ¯°| v1 > v 2 ∧ m 2 > m1 ∀i ∈ I ∀v1 , v 2 ∈ V; m1 , m 2 ∈ M Die (Teil-)Menge - A m enthält alle a-Kanten, die dem Modul m ∈ M zugeordnet werden und den Knoten der Menge M m.i für beliebige i ∈ I mit dem Knoten 0 verbinden. - BM m enthält die b-Kanten, die dem Modul m zugeordnet werden und die Knoten der Menge M m.i für beliebige i mit den Knoten der Menge Vm.v für beliebige Leistungselemente v ∈ V verbinden. - BVv enthält alle b-Kanten, die dem Leistungselement v zugeordnet werden und die Knotenmenge Vm.v für beliebige m mit der entsprechenden Knotenmenge M m.i verbinden. - BiI enthält alle b-Kanten, die durch den Knoten der Menge M m.i mit der Kostenklasse i ∈ I für beliebige m ∈ M gepaart sind. Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge 11 - BCk enthält jeweils die Menge aller b-Kanten, die mit einem der beiden Knoten Vm.v und Vm′.v′ verbunden sind und zusätzlich durch eine Kante k ∈ C verknüpft sind. Abbildung 2: Beispielnetzwerk mit drei Modulen und drei intermodularen Koordinationskostenklassen 12 Hans Corsten, Hagen Salewski Das Dienstleistungsmodularisierungsproblem kann dann als Flussproblem dargestellt werden: § · (7) Min! K = ¦ ¦ g iA ⋅ a i + ¦ g Ck ⋅ c k + ¦ p p ¨ ¦ g Dj ⋅ d j.p ¸ m∈M i∈A m k∈B p∈P J ©j∈ ¹ intramodulare Koordinationskosten direkte intermodulare Koordinationskosten indirekte intermodulare Koordinationskosten u.d.B.d. ¦a i ≤1 ¦a i ⋅ κi ≥ ∀m ∈ M (8) ∀m ∈ M (9a) ∀m ∈ M, i ∈ A m , o ∈ BiI (9b) i∈Am ¦b o o∈BM m i∈A m a i ≥ bo ¦b o =1 ∀v ∈ V (10) o ≤ ck + 1 ∀k ∈ C (11) ≤1 ∀p ∈ P (12a) ∀p ∈ P (12b) a i ∈ {0,1} ∀i ∈ A (13a) b o ∈ {0,1} ∀o ∈ B (13b) o∈BV v ¦b o∈BCk ¦d j.p ¦d j.p j∈J o∈O ⋅ γ o ≥ ¦ c k ⋅ f ≥ ( g Ck.p ) k∈B Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge 13 c k ∈ {0,1} ∀k ∈ C (13c) d j.p ∈ {0,1} ∀j ∈ J, p ∈ P (13d) In der Zielfunktion wird die Summe aller drei Koordinationskosten minimiert (7), und jedes Modul wird genau einer intramodularen Koordinationskostenklasse zugeordnet (8). Die maximale Modulgröße wird berücksichtigt (9a), indem alle Kanten der Menge B, die der gleichen intramodularen Koordinationskostenklasse zugeordnet sind, gezählt werden. Die Verbindung der Kantenmengen A und B erfolgt zusätzlich durch Ungleichung 9b, die eine Aktivierung der a-Kanten sicherstellt, wenn eine entsprechende b-Kante aktiv ist. Jedes Leistungselement wird genau einem Modul zugeordnet (10), und die intermodularen Koordinationskosten zwischen zwei Leistungselementen werden nur dann berücksichtigt ( ck = 1 ), wenn sie unterschiedlichen Modulen zugeordnet sind27 (11). Die Zuordnung zu einer indirekten intermodularen Koordinationskostenklasse erfolgt für jeden Pfad eindeutig (12a), wobei die Anzahl der Koordinationsvorgänge analog zur Modellierung des Zuordnungsproblems durch eine Transformationsfunktion28 berücksichtigt wird (12b). 5 Ausblick Die beiden vorgestellten Modelle eignen sich grundsätzlich für die kostenoptimale Zuordnung von Leistungselementen zu Modulen und vermögen somit die Modularisierung von Dienstleistungen zu unterstützen. Alle vorgestellten Modelle wurden erfolgreich implementiert und mit Hilfe von Standardsolvern gelöst. Hierbei dominierte das mit Hilfe der Reformulation Linearization Technik modellierte Zuordnungsproblem hinsichtlich der Lösungsgeschwindigkeit alle anderen Implementierungen. In einem nächsten Schritt soll das Flussmodell mit Hilfe eines Branch-and-Price-Algorithmus gelöst werden, mit dem Ziel, so die Lösungszeiten weiter zu reduzieren. Bei größeren Probleminstanzen wird dennoch der Gebrauch von Metaheuristiken notwendig sein, um zumindest gute Lösungen des Dienstleistungsmodularisierungsproblems in akzeptabler Zeit zu berechnen. 27 Im Kantenpaar BCk gilt dann für beide o ∈ BCk : b 0 = 1 . 28 In der Transformationsfunktion f ≥ werden die pfadspezifischen intermodularen Koordinationskosten g Ck.p berücksichtigt, die aus der Pfaddefinition und der DSM generiert werden können. In Bezug zur ZielP funktion gilt: ¦p p=1 p ⋅ g Ck.p = g Ck . 14 Hans Corsten, Hagen Salewski Literatur Baldwin, C.Y.; Clark, K.B: Sun Wars. Competition within a Modular Cluster 1985–1990, in: D.B. Yoffie (Hrsg.), Competition in the Age of Digital Convergence, Boston 1997, S. 123–157. Barnhart, C.; Johnson, E.L.; Nemhauser, G.L.; Savelsbergh, M.V.P.; Vance, P.H.: Branch-and-Price. Column Generation for Solving Huge Integer Programs, in: Operations Research, Vol. 46 (1998), S. 316–329. Browning, T.R.: Applying the Design Structure Matrix to System Decomposition and Integration Problems – A Review and New Directions, in: IEEE Transactions on Engineering Management, Vol. 48 (2001), S. 292–306. Burr, W.: Service Engineering bei technischen Dienstleistungen. Eine ökonomische Analyse der Modularisierung, Leistungstiefengestaltung und Systembündelung, Wiesbaden 2002. Büttgen, M.; Ludwig, M: Mass-Customization von Dienstleistungen, in: R. Köhler (Hrsg.), Arbeitspapier des Instituts für Markt- und Distributionsforschung der Universität zu Köln, Köln 1997. Corsten, H.; Gössinger, R: Gestaltung der Output-Flexibilität in Dienstleistungsunternehmungen. Eine produktionstheoretische Analyse, in: A. Braßler; H. Corsten (Hrsg.), Entwicklungen im Produktionsmanagement, München 2004, S. 251–257. Corsten, H.; Gössinger, R.: Dienstleistungsmanagement, 5. Aufl., München/Wien 2007. Corsten, H.; Gössinger, R.; Salewski, H.: Simultaneous Multi-path Service Modularisation. An Approach on the Basis of Design Structure Matrices, in: H. Corsten (Hrsg.), Schriften zum Produktionsmanagement Nr. 93, Kaiserslautern 2012. Corsten, H.; Salewski, H.: Dienstleistungsmodularisierung im Krankenhaus. Theoretischer Rahmen und Anwendung, in: R.B. Bouncken; M.A. Pfannstiel; A.J. Reuschl, (Hrsg.), Dienstleistungsmanagement im Krankenhaus I. Prozesse, Produktivität und Diversität, Berlin et al. 2013, S. 95–115. Eppinger, S.D.; Browning, T.R.: Design Structure Matrix Methods and Applications, Cambridge/London 2012. Gaitanides, M.: Prozessorganisation. Entwicklung, Ansätze und Programme des Managements von Geschäftsprozessen, 2. Aufl., München 2007. Hahn, P.M.; Bum-Jin, K.; Guignard, M.; MacGregor Smith, J.; Zhu, Y.-R.: An Algorithm for the Generalized Quadratic Assignment Problem, in: Computational Optimization and Applications, Vol. 40 (2008), S. 351–372. Jacob, F.: Produktindividualisierung. Ein Ansatz zur innovativen Leistungsgestaltung im Business-toBusiness-Bereich, Wiesbaden 1995. Kern, W.: Produkte, Problemlösungen als, in: W. Kern (Hrsg.), Handwörterbuch der Produktionswirtschaft, Stuttgart 1979, Sp. 1433–1441. Lampel, J.; Mintzberg, H.: Customizing Customization, in: Sloan Management Review, Vol. 38 (1996), Fall, S. 21–30. Levitt, T.: Production-line Approach to Service, in: Harvard Business Review, Vol. 50 (1972), Nr. 9/10, S. 41–52. Levitt, T.: The Industrialization of Service, in: Harvard Business Review, Vol. 54 (1976), Nr. 9/10, S. 63–74. Mayer, R.: Strategien erfolgreicher Produktgestaltung. Individualisierung und Standardisierung, Wiesbaden 1993. Meyer, M.H.; De Tore, A.: Perspective. Creating a Platform-Based Approach for Developing New Services, in: Journal of Product Innovation Management, Vol. 18 (2001), S. 188–204. Sanchez, R.: Strategic Product Creation. Managing New Interactions of Technology, Markets, and Organizations, in: European Management Journal, Vol. 14 (1996), H. 2, S. 121–138. Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge 15 Sanchez, R.: Modular Architecture in the Marketing Process, in: Journal of Marketing, Vol. 63 (1999), Special Issue, S. 92–111. Schackmann, J.: Ökonomisch vorteilhafte Individualisierung und Personalisierung. Eine Analyse unter besonderer Berücksichtigung der Informationstechnologie und des Electronic Commerce, Hamburg 2003 Schnäbele, P.: Mass Customized Marketing. Effiziente Individualisierung von Vermarktungsobjekten und prozessen, Wiesbaden 1997. Sherali, H.D.; Adams, W.P.: A Reformulation-Linearization Technique for Solving Discrete and Continuous Nonconvex Problems, Dordrecht et al., 1999. Stauss, B.: Plattformstrategie im Dienstleistungsbereich, in: H.-J. Bullinger; A.-W. Scheer (Hrsg.), Service Engineering. Entwicklung und Gestaltung innovativer Dienstleistungen, 2. Aufl., Berlin et al. 2006, S. 321–340. Steward, D.V.: Partitioning and Tearing Systems of Equations, in: Journal of the Society for Industrial and Applied Mathematics Series B. Numerical Analysis, Vol. 2 (1965), S. 345–365. Steward, D.V.: Systems Analysis and Management. Structure, Strategy and Design, New York/Princeton 1981. Innovationen – Plattformen erleichtern den Weg! Joachim Fischer 1 Ausgangslage Innovationen werden als Königsweg aus der wirtschaftlichen Stagnation angesehen und von den Unternehmen gefordert. Allerdings zeigt die historische Erfahrung, dass Innovationen von Unternehmen oft vorgelagert eine „radikale“ Plattforminnovation voraussetzen, die dann von ihnen für Anwendungen genutzt werden kann. Als „Plattform“ wird im folgenden eine verlässliche und auf Dauer angelegte technologische und geschäftliche Basisinnovation bezeichnet, die Kooperationspartner zur Entwicklung von komplementären eigenen Produkten veranlasst. Diese wird von dem Plattformentwickler • technologisch durch Informationen über Schnittstellen, Dienste und Qualitätssicherung und • wirtschaftlich durch einen gesicherten Markt oder Subventionen gefördert. Nur auf Basis solcher Plattformen sind Eisenbahnen, Elektrizität, Radio und Fernsehen sowie Internet, Mobiltelefonie und Navigationsgeräte zur Erfolgsgeschichte geworden. Angesichts des Renditedrucks fehlt den Unternehmen sonst der Mut zu langwierigen und aufwändigen Investitionen in Innovationen. Die technologischen Wege müssen in der Regel durch Pioniere (Staat oder – oft in dessen Auftrag – Leitunternehmen) erst erschlossen, die Renditen gesichert werden. Ist beides gegeben, entwickeln kaufmännisch agierende Unternehmen Anwendungen. In den letzten Jahren ist der Staat immer seltener „Wegbereiter“ oder ebnet nur „Sackgassen“. Beispiele sind der Transrapid und IT-Projekte wie die Elektronische Gesundheitskarte (vgl. Mertens (2009), (2012)). Vielleicht deshalb wird in der betriebswirtschaftlichen Literatur zum Forschungs- und Entwicklungsmanagement das Schumpeter-Leitbild des „schöpferischen Unternehmers“ vertreten, der aus sich heraus den technologischen und wirtschaftlichen Fortschritt aktiv voran treibt. Allerdings gibt es in D kaum Beispiele, bei denen Innovationen (z. B. Elektrizität, Hörfunk, Fernsehen) ohne staatlich abgesicherte Plattformen erfolgreich waren. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_2, © Springer Fachmedien Wiesbaden 2013 18 Joachim Fischer Die sich verschärfenden Probleme in den Gesellschaften der Industrieländer (u.a. Vergreisung, Staatsverschuldung), der Transfer von deren Lebensstil aufgrund des wirtschaftlichen Fortschritt in die bevölkerungsstarken BRICS-Gesellschaften (u.a. Ressourcenverknappung, Umweltverschmutzung, globale Erwärmung) sowie die altbekannten Probleme der III. Welt (Ernährung, Gesundheit, Bildung) erfordern durchgreifende Innovationen im Gemeinwesen, die nur schwer ohne den „Wegbereiter Staat“ denkbar sind. Probleme D/EU/J/USA & BRICS III. Welt • Drogen • Korruption • Steuerflucht • Ressourcenverknappung • Umweltverschmutzung • Globale Erwärmung • Korruption • Bevölkerungswachstum • Ernährung • Gesundheit • Bildung • Umweltschonende, massentaugliche Mobilität (Roller, Busse) • Sozialversicherungen • Handybasierte, bankenunabhängige Bezahlsysteme • Ressourcenschonende, dezentrale Energieerzeugung • Infrastrukturschonende Verkehrsmittel • Vergreisung • Kostendruck Sozialversicherungen • Staatsverschuldung • Mängel Bildungssystem Erforderliche Innovationen • Altersgerechte Haustechnik (Robotik, Sensorik) • Vernetztes Gesundheitssystem (Telemedizin) • Integriertes kontrolliertes Bankensystem • Smart Energy Grids • Smart Homes – Standards • Smart Mobility – Infrastruktur • Low Cost Solarkoch- / -kühlgeräte • Low Cost Trinkwasserreinigung • Low Cost Verhütung • Precision Farming • Vernetztes Bildungs- & Bibliothekssystem • Integrierte institutionenübergreifende Finanz- &Steuerbuchhaltung Abbildung 1: Gesellschaftliche Problemfelder und Innovationen (Auswahl) Innovationen – Plattformen erleichtern den Weg! 2 19 Erwartete Eigenschaften von Plattformen 2.1 Schaffen gewinnsichernder Initialnachfrage Für „radikale Innovationen“, d.h. solche die gänzlich neue Produkte und somit Märkte schaffen, bedarf es erfahrungsgemäß akzeptierter und pragmatischer Plattformen, die von vertrauenswürdigen staatlichen oder privaten Institutionen technologisch entwickelt und bis zur Produktionsreife gebracht werden. Auf diesen entwickeln Unternehmen Applikationen, sobald Initialnachfrager (z. B. staatliche Institutionen) mit Rücksicht auf die hohen Kosten zu Lernkurvenbeginn gewinnsichernde Preise gewährleisten. Erst wenn die resultierenden Produkte bei Fortschreiten der Lernkurve zu akzeptablen Preisen angeboten werden können und sich selbst tragende Märkte aufgrund der Kundennutzenvorteile bilden, werden Unternehmen selbständig auf Märkten initiativ. Ohne diese Prämissen sind auch technisch führende Unternehmen überfordert • mit der Realisierung von Technologien (Beispiel: off-shore Windparks) , • mit der Verbreitung von Technologien (Beispiel: Gesundheitskarte), • mit dem Aufbau von Märkten für staatlich gewollte und subventionierte Technologien (Beispiel: Alternative Energien). Existiert keine Plattform zögern die Unternehmen nach dem Motto „Hannemann, geh du voran“, da Fehlallokationen drohen. 2.2 Schaffen stabiler Technik-Schnittstellen Technologiefelder wie „E-Mobilität“ (ähnlich „Smart Home“, „Smart Grid“), die Implikationen auf eine Vielzahl von Branchen (z. B. Automobil, Energie, Haustechnik) und Infrastrukturkomponenten (z. B. Parkplätze mit Ladestationen & E-Netzen, Stecker) haben, überfordern in ihren Interdependenzen nach anfänglicher Euphorie Unternehmen und Verbände, so lange nicht eine Institution eine beherrschbare und sichere Technik für diese Interdependenz- = Schnittstellen etabliert und deren Weiterentwicklung zumindestens für den Lebenshorizont der Infrastruktur organisiert. 2.3 Sichern gegen Überraschungen Überraschungen sind subjektiv unerwartete Ereignisse. Sie resultieren aus eigener Kreativität oder der von Wettbewerbern sowie aus diversen soziopolitischen Umsystemquellen. Überraschungen können wie ein „Blitz aus heiterem Himmel“ kommen. Häufiger sind Überraschungen, bei denen erwartete Ereignisse mit anderen Folgen, zu anderen Zeiten auftreten, länger dauern oder stärker wirken (Weick / Sutcliffe (2003), S. 48ff). Plattformen sollen nach der Erwartung der Akteure sachliche oder zeitliche Überraschungen und deren technische und wirtschaftliche Folgen ausschalten oder zumindest reduzieren. Bellmann / Haritz (2001, S. 278) sprechen von Reduktion technologischer Unsicherheit und Marktintransparenz (Setzen von Standards). Allerdings ist deren regionale und zeitliche Reichweite zu beachten: 20 Joachim Fischer Nationale Plattformen sichern nur bei national abgrenzbaren Systemen gegen Überraschungen ab. Zum Beispiel wurden Frankreich und Deutschland mit ihren nationalen Plattformen für Kommunikationsnetze (z. B. Minitel – F) durch die globale Entwicklung des Internet überrascht und haben in der Folge einen Teil ihrer einschlägigen Industrie eingebüßt. Das Überraschungspotential eines Systems wird in dessen Komplexität gemessen (Wohland (1997), S.12). Sie ist das Maß für die Vielfalt, die jede Systemoperation für die Folgeoperation erzeugt. Von Plattformen verspricht man sich daher Komplexitätsreduktion. 2.4 Entscheidungen integrieren In einer Welt voller Komplexität streben „gekürte Entscheidungsträger“ nach jemandem, der zum einen die Zahl Quantität und Qualität der von ihnen zu treffenden technischen Entscheidungen und der zu berücksichtigenden Randbedingungen reduziert, zum anderen die wirtschaftlichen Folgen kalkulierbar macht. Plattformen sollen Entscheidungen hinsichtlich Technologien und Märkten in allen Innovationsphasen der beteiligten Unternehmen und Institutionen integrieren, d. h. auf Basis einer integeren und aktuellen Informationsbasis, einer abgestimmten Begriffswelt sowie offen artikulierter Ziele inhaltlich und zeitlich koppeln. 3 Wege zu Innovationsplattformen Einzelunternehmerische Innovationen aus reinem schöpferischen Unternehmertum (im Sinne Schumpeters) ohne staatliche Initialnachfrage waren noch vor zwanzig Jahren eher selten, häufig ließen sich „ganz zivile“ Produkte letztlich auf staatliche (z. B. militärische) technische Anforderungen und Nachfrage zurückführen. Beispiel: Kärcher Hochdruckreiniger zur ABC- Kampfstoffreinigung von Fahrzeugen. Staatliche Initialnachfrage in eine nachhaltige zivile Nachfrage überzuleiten war für Produkte zwar schwierig, da staatliche (speziell militärische) Technikanforderungen und die Preis- und Kostentoleranz sich wesentlich von denen ziviler Kunden unterschieden, gelang aber für die zugrundeliegende Plattform. In gewinnträchtigen Bereichen wurden zunehmend Plattformen privat geschaffen (z. B. IBM / Microsoft). Hinzu kommen private Initiativen aus idealistischen Motiven (z. B. Wikipedia, Linux). Zurzeit fehlen speziell in traditionellen Branchen Plattformen und gefährden deren Existenz zumindest in der bisherigen Form. Es gilt Stillstände aufgrund von • egoistischen Zukunftsängsten und daher Widerständen vieler Stände (z. B. Ärzte, Apotheker) und Gewerke (z. B. im Bauhandwerk, Verlage), • Investitions- und Risikoscheu zu überwinden. 21 Innovationen – Plattformen erleichtern den Weg! Branche Zukunftstechnol Risiken bei Widerstandsträger in D ogien mit fehlender erforderlicher Plattform Plattform • Mobile Payment • Proprietäre Lö• Geldautomatenhersteller (Internet) sungen Branchen- • Banken & Verbände fremder (Google, • Einzelhandel & VerbänAmazon) de Banken Gesundheitsbe reich Medien / Bildung Energie- / Haustechnik Mobilität Abbildung 2: • Elektronische • Kostenexplosion Gesundheitskarim Gesundheitste weisen • Elektronische • Verschwinden Skripte / Medien traditioneller Ver• Abrechnungs- / lage Bezahlsysteme • Fehlinvestitionen in kurzlebige Hard- / Software • SmartHome • Gefährdung der • Smart Grid Energiewende • Telematik • Gefährdung der • E-Mobilität deutschen Auto• Brennstoffzelle / mobilindustrie Wasserstoff • Ärzte • Krankenversicherungen • Föderalismus • Zeitungsverleger • Lehrbuchverlage • Energieversorger • Baugewerke in D • Automobilhersteller • Kfz-Handwerk Durch fehlende Plattformen gefährdete Branchen in D 3.1 Plattformen schaffen Plattformen bilden eine verlässliche und auf Dauer ausgelegte technologische und geschäftliche Basis für kooperierende Unternehmen und Personen, die • zum einen Unternehmen zur Entwicklung von komplementären eigenen Produkten veranlasst, die von dem Plattformproduzenten durch Informationen über Schnittstellen, Dienste und Qualitätssicherung gefördert wird, • zum anderen zur Nutzung der resultierenden Produkte motiviert und somit eine profitable, dauerhafte Nachfrage schafft. Um Plattformen zu schaffen, sind der technische Wissensstand und die wirtschaftlichen Interessen potenzieller Partner und Wettbewerber zu identifizieren und hinsichtlich Komplementaritäten und Konflikten zu analysieren. Ziel ist es, eine technisch und wirtschaftlich kräftige Gemeinde aus Produzenten und Nutzern aufzubauen. Dabei existieren Spannungsfelder z. B. hinsichtlich der • ein- oder beidseitigen Exklusivität für ausgewählte (Auswahlkriterien?) oder Offenheit der Plattform für Produzenten oder Nutzer, • technischen Abstufung der Plattformeigenschaften für Produzenten- oder Nutzerklassen, 22 Joachim Fischer • technischen Mitbestimmung der Plattformeigenschaften durch Produzenten oder Nutzer, • Nutzungsentgelte für Produzenten oder Nutzer und deren Bemessungsgrundlage. Kommerzielle Nutzer betrachten in D die (vermuteten oder tatsächlichen) Wirkungen auf die Branchenstrukturen, scheuen Vorreiterrollen und entscheiden sich oft für eine konservative Lösung. Private Nutzer konzentrieren sich auf ihren eigenen Vorteil und sind oft experimentierfreudiger. 3.2 Innovationsgemeinden etablieren Technologisch oder fachlich revolutionäre Plattformen werden heute meist von privaten Netzwerken (Wikipedia, LINUX) oder Unternehmen (Google) geschaffen und erweitern sich „tintenklecksartig“ in Quantität und Qualität. Offenbar fehlt staatlichen Institutionen zur Zeit die Motivation und die technologische und finanzielle Kraft, die sie zu Zeiten des Kalten Krieges und des auf schnelle Lösungen drängenden Militärs hatten. Allerdings sind private Plattformen weniger nachhaltig für den Innovationsprozess als staatliche, da deren rechtliche Normierungsmacht und finanzielle Nachfragekraft fehlt. Unterschieden werden in der Folge staatliche „Normen“ von privaten „Standards“. Bei privaten Plattformen (z. B. Smartphone-Betriebssystemen) existieren oft mehrere Alternativen, die mit technischen und wirtschaftlichen Eigenschaften um Gemeinden von Produzenten und Nutzern werben. 23 Innovationen – Plattformen erleichtern den Weg! Beispiele Kennzeichen Vor- / Nachteile Abbildung 3: 3.2.1 Private Standards IOS/ITunes(Apple), Android (Google), Skype Alternative Vorschläge auf dem Markt; Käufer wählen aus + Eigeninteresse des Plattformbereitstellers an Komplementärprodukten - Gefahr der Monopolbildung (Microsoft, Google) / The winner takes it all - Follower schlagen oft Pioniere (Google vs. Yahoo, Microsoft vs. Apple, Android vs. Iphone?) - Gewinnträchtigkeit dominiert Gemeinnutz - Billige Lösungen (.pdf) dominieren fortschrittliche Technik (OpenDoc), - Keep it simple & successful (KISS) dominiert - Bildet sich rechtzeitig keine Lösung heraus, gehen ganze Branchen „über den Jordan“ (Musik-, Zeitungsverlage) Staatliche Normen Internet, WWWeb, GSM Vorgelagerte Debatten, dann Verankerung von Normen + Rechtliche Normierungsmacht + Finanzielle Nachfragekraft - Zeitbedarf - Lobbyistendruck und Zeitbedarf der Debatten - Fehlinvestitionen im Vertrauen auf staatliche Normierungskraft (Gesundheitskarte) - Durchdachte technische Lösungen mit oft zu hohem Implementierungsaufwand (z. B. EDIFACT) - Betrachten oft geschäftliche Aspekte zu wenig Private Standards oder staatliche Normen Gemeindezentrum – Alternativen Das Gemeindezentrum sorgt für eine technische Weiterentwicklung der Plattform und die dazu notwendigen Willensbildungsprozesse unter den „Jüngern“ sowie das Marketing, um ein möglichst starkes Netzwerk von Produzenten und Nutzern zu etablieren: Beim Normen – Zentrum versucht eine staatliche oder ähnliche Institution (z. B. ein Industrieverband) eine Norm zu entwickeln und diesen dann für einen Gültigkeitsraum (z. B. EU) verabschieden zu lassen. Aufgrund der faktischen wirtschaftlichen „Macht der Norm“ entschließen sich Produzenten von Soft- und Hardware für diese Plattform Applikationen anzubieten. 24 Joachim Fischer Beispiel: BMECAT – XML basiertes Austauschformat für Katalogdaten vom Bundesverband für Materialwirtschaft, Einkauf und Logistik. Früher bildeten häufig technische „Zentralämter“ der Bundesbehörden oder staatlicher Monopolunternehmen, oft unterstützt durch technische Hochschulen, solche Normenzentren. Beim Markt-Zentrum versucht meist ein Unternehmen eine Plattform zu entwickeln und diese mit seiner Marktmacht als Standard zu etablieren. Aufgrund der Einsatzvorteile im Nutzernetzwerk entsteht ein Netzprodukt. Beispiel: IBM für die Microsoft PC-Betriebssystemfamilie WINDOWS Beim „Guru“ – Zentrum baut eine charismatische Persönlichkeit mit visionären Innovationen eine Plattform auf. Beispiel: Steve Jobs mit iTunes. Der „Guru“ kann kommerziell (Gates, Jobs) oder idealistisch (Torvald) motiviert sein. In einem Demokratischen Gremium versuchen Privatpersonen und Unternehmen nach demokratischen Regeln einen Standard zu entwickeln, deren Rechte durch eine gemeinnützige Stiftung gehalten werden. Beispiel: LINUX mit den Initialpersonen Stallmann und Torvalds. Ein Plattformzentrum hat in allen Phasen und Aspekten des Inventions- und Innovationsprozesses den Vorteil einer einheitlichen und stringenten Willensbildung, allerdings den Nachteil Mitwirkungsrechte und -willen der Gemeinde und damit deren Kreativität einzuschränken. 3.2.2 Plattformpartner Zu unterscheiden sind zwei Typen von Plattformpartnern: • „Jünger“, die z. B. aus idealistischen, wissenschaftlichen oder kommerziellen Motiven an der Erweiterung der Plattform arbeiten. • „Produzenten“, die für eine existierende Plattform Applikationen entwickeln und anbieten. Noch vor wenigen Jahrzehnten wurden Normen von staatlichen Institutionen unterstützt durch eine Auswahl von Instituten, Verbänden und Unternehmen initiiert und weiter entwickelt. Seit der Staat weitgehend auf Marktkräfte vertraut, entwickeln Unternehmen Plattformen, die ihrerseits „Jünger“ in Kooperationen um sich scharen. In der virtuellen Welt sind bemerkenswert viele Privatpersonen bereit, an der Entwicklung von Plattformen aus idealistischen Motivation zu arbeiten und erzielen qualitativ hervorragende Ergebnisse (Beispiele: LINUX, Wikipedia). Versuche von Unternehmen, diese Entwicklungen zu dominieren oder sich anzueignen, sind mehrfach gescheitert. Zur Finanzierung wurden Stiftungen gegründet, die von nutzenden Unternehmen dotiert werden. 25 Innovationen – Plattformen erleichtern den Weg! Herkömmlich Kommerziell Virtuelle Welt Zentrum Staatliches Normenzentrum Marktzentrum Demokratisches Gremium Jünger Ausgewählte Institute, Verbände, Unternehmen Beauftragte Unternehmen Idealisten Produzenten Unternehmen zunächst für staatliche Kunden, dann für Privatpersonen & Unternehmen, geleitet durch Technologie- & Vermarktungsplattform Engagierte Privatpersonen Nutzer Zunächst staatliche Institutionen, dann kommerzielle Zunächst kommerzielle, dann private Nutzer Private „Freaks“, dann Konsumenten und Unternehmen Abbildung 4: Typische Organisationsformen von Plattformen Die Verbreitung von Plattformen hängt von den Nutzervorteilen und damit von den Applikationen und deren Produzenten ab. Während herkömmlich staatliche Institutionen als Initialnutzer das „Lehrgeld“ bezahlten, sind private Nutzer und Produzenten kosten- und zeitbewusster. APPLE hat mit seinem Smartphone und deren „Apps“ gezeigt, dass es mit benutzerfreundlichen • Entwicklungs-, • Qualitätssicherungs- und • Vermarktungsplattformen (iTunes) auch kommerziell gelingen kann, rasch eine große Anzahl von Applikationen für unterschiedlichste Anwendungen sowohl durch Privatpersonen als auch durch Unternehmen zu produzieren. Ähnliche Erfolge sind mit sich entwickelnder Technik für den Bereich der Sensorik (z. B. Quantify yourself – Gemeinde) und Aktorik (z. B. 3D-Drucken) zu erwarten. Die Aktorik wird auf den Plattformen den Übergang von virtuellen Produkten zu materiellen Gütern ermöglichen, die Sensorik die Brücke von der realen in die virtuelle Welt schlagen. Jünger sollen die Schwachstellen einer Plattform durchleuchten und Verbesserungen und Entwicklungsmöglichkeiten vorschlagen, die dann in Plattformversionen etabliert werden. Produzenten werden oft mit finanziellen Zuschüssen oder Absatzgarantien dazu bewegt, die Potenziale einer Plattform auszuloten und kontinuierlich innovative Applikationen zu entwickeln. Angesichts der Vielzahl der im Netz entstehenden „Communities“ für alle denkbaren Interessensfelder und der begrenzten Anzahl technischer Talente ist die Gewinnung 26 Joachim Fischer von Jüngern und Produzenten eine anspruchsvolle Aufgabe im Spannungsfeld von technischer Faszination und Kommerz. Ziel ist es, eine Plattform auf einer Technologie- und Anwendungsdomäne zu etablieren und durch die Talente ihrer „Jünger“ und „Produzenten“ einen kaum einholbaren technischen und geschäftlichen Vorsprung zu verschaffen. Danach strebende Unternehmen präsentieren im Web Prototypen mit dem Ziel einer Gemeinde, warten die Produzenten- und Nutzerreaktionen ab, entwickeln die Prototypen dann weiter oder verzichten darauf (z. B. Google mit „Wave“, „Catalogs“, „Jaiku“, „Buzz“). 3.3 Technologie orchestrieren Viele Plattformen nutzen eine dirigistische Konfiguration und Koordination der Produktund Produktionstechnik durch das Gemeindezentrum, um • die Betriebssicherheit, Qualität und Datenschutz & Datensicherheit zu gewährleisten, • die Zukunft der Investitionen der Gemeindemitglieder zu sichern, • das Vertrauen der Mitglieder in die Gemeinde zu stärken und langfristig zu sichern. Um die Attraktivität der Plattform perspektivisch zu stärken, werden z. B. „TechnikRoadmaps“ präsentiert. Einige Plattformen bieten nach Jünger- und Produzentenklassen abgestufte Phasenmodelle mit definierten Alpha- / Betaphasen an, um diesen Spielwiesen für mögliche Plattformevolutionen zu bieten. 3.4 Geschäftsmodell choreografieren Übergreifendes Ziel des Geschäftsmodells ist es, allen Mitgliedern der Gemeinde zu ermöglichen, mit ihren technischen und geschäftlichen Potenzialen am Erfolg der Gemeinde teilzuhaben. Da 1. die Nutzer der Plattform meist mehr an den Applikationen als an der Plattform interessiert sind, 2. die Produzenten wenig Interesse an kostenintensiven, durch Plattformänderungen induzierten Applikationsvarianten haben, 3. das Zentrum und die Jünger durch Sortimentskomplettierung den Geschäftserfolg absichern wollen, entstehen Spannungsfelder zwischen Produzenten und Gemeindezentrum samt „Jüngern“. Während staatliche Normen nicht auf den geschäftlichen Erfolg angewiesen sind, sondern die Verbreitung durch Normierungsmacht erzwingen, ist für private Standards der kommerzielle Erfolg zwingend. Da dort die Gemeindemitglieder autonom agieren und miteinander konkurrieren, ist eine Choreografie der geschäftlichen Schritte in der Gemeinde erforderlich. Dies bedarf einer Koordination der absatzpolitischen Instrumente (Preis, Werbung, Vertriebswege und Werbung). Z. B. arbeitet APPLE mit der Vermarktungsplattform iTunes, die u. a. Ethikanforderungen und Preiskategorien vorgibt. Innovationen – Plattformen erleichtern den Weg! 4 27 Zusammenfassung Staatliche Normen waren jahrzehntelang die Basis und der Treiber des Innovationsprozesses (nicht nur) in der deutschen Wirtschaft. Oft initiiert durch Interessensverbände, durch staatliche Stellen mit ihrer rechtlichen Macht und wirtschaftlichen Kraft institutionalisiert, haben Unternehmen auf dieser gesicherten Grundlage dann Anwendungen für staatliche und private Kunden entwickelt und vermarktet. Seit einiger Zeit fehlen staatlichen Stellen in D dazu die technologischen und wirtschaftlichen Mittel, vielleicht auch (z. B. aufgrund einiger Fehlschläge und dem „Marktglauben“) der Willen, so dass mangels Investitionssicherheit in vielen Lebensbereichen der Fortschritt nur stockend vorankommt. Private Plattformen können dies zum Teil kompensieren, vor allem in gewinnträchtigen konsumentennahen Bereichen. Dort wurden mit ihrer Hilfe meist auf Basis des Internet beachtenswerte Netze und Applikationen geschaffen. Ob dies auch auf den großen gesellschaftlichen Problemfelder gelingt, bleibt abzuwarten. Literatur Bellmann, K. / Mildenberger, U. / Haritz, A.: Management von Technologienetzwerken, in: Kaluza, B./ Blecker, Th. (Hrsg.): Produktions- und Logistikmanagement in Virtuellen Unternehmen und Unternehmensnetzwerken, Berlin – Heidelberg – New York 2000, S. 119–146. Bellmann, K. / Haritz, A.: Innovationen in Netzwerken, in: Blecker, Th. / Gemünden, H.G. (Hrsg.): Innovatives Produktions- und Technologiemanagement, Berlin – Heidelberg – New York 2001, S. 271 – 298. Brockhoff, K: Forschung und Entwicklung – Planung und Kontrolle, 3. Aufl. München – Wien 1992. Dueck, G.: Abschied vom Homo Oeconomicus, Frankfurt / M. 2008. Dueck, G.: Aufbrechen! – Warum wir eine Exzellenzgesellschaft werden müssen, Frankfurt/ M. 2010. Eisele, J.: Google: Scheitern als Geschäftsmodell, in: Zeit-Online 2.03.2011. Fischer, J./ Lange, U.: Invention und Innovation – (nicht immer) zwei Seiten einer Medaille, in: Amelingmeyer, J. / Harland, P.E. (Hrsg.): Technologie- und Innovationsmanagement – Festschrift für Prof. Dr. Günter Specht, Wiesbaden 2005, S. 367–380. Iansinti, M. / Levien, R.: Keystone Advantage: What the New Dynamics of Business Ecosystems Mean for Strategy, Innovation and Sustainibility, Harvard Business School Press 2004. Mertens, P.: Schwierigkeiten mit IT – Projekten der Öffentlichen Verwaltung – Neuere Entwicklungen, in: Informatik-Spektrum 32 (2009), 1, 42–49. Mertens, P.: Schwierigkeiten mit IT – Projekten der Öffentlichen Verwaltung – Neuere Entwicklungen, in: Informatik-Spektrum 35 (2012), 6, 433–446. Osterwalder, A. / Pigneur, Y.: Business Model Generation, Hoboken / New Jersey 2010. Scheer, C./ Deelmann, T. / Loos, P.: Geschäftsmodell und internetbasierte Geschäftsmodelle – Begriffsbestimmung und Teilnehmermodell, Arbeitspapier Univ. Mainz 2003. Specht, D. / Möhrle, M.G. (Hrsg.): Handbuch Technologiemanagement, Wiesbaden 2002. Specht, G. / Beckmann, C. / Amelingmeyer, J.: F&E-Management – Kompetenz im Innovationsmanagement, Stuttgart 2002. Stähler, P.: Geschäftsmodelle in der digitalen Ökonomie, Köln 2011. 28 Joachim Fischer Teece, D. J.: Business Models, Business Strategy and Innovation, in: Long Range Planning 43 (2010), S. 172–194. Weick, K. E. / Sutcliffe, K. M. Das Unerwartete managen – Wie Unternehmen aus Extremsituationen lernen, Stuttgart 2003. Wirtz, B.W.: Business Model Management: Design-Instrumente – Sucess Factors, Wiesbaden 2010. Wohland, G.: Jenseits von Taylor – Virtuelles Unternehmen, Fraktale Organisation, Arbeitspapier Darmstadt 1997. On the Firm’s Raison d’Être and Competence-based Nature of the Firm Jörg Freiling Introduction Transaction cost theory tells us that firms are an integral part of the market process for they help economic agents to cope with highest degrees of uncertainty and specificity (Williamson, 1985). There is no point to question this understanding. However, we should note that this point of view only refers to one issue in connection with uncertainty in the market process: the negative impact of uncertainty, i.e. the risk. Firms exist because they provide economic agents with a governance mode that is sufficient to cope with most complex challenges of risk. Is this the only reason why firms exist? This paper argues that the firm’s raison d’être rests on at least one additional argument transaction cost theory necessarily neglects due to its basic ambitions and antecedents. Therefore, we leave thinking in terms of transaction cost theory and new institutional economics to demonstrate the potential of theories that do not belong to the market equilibrium cluster. Theories that adopt market process thinking, namely market process theory (Mises, 1949; Kirzner, 1973; Hayek, 1978), shed light on business opportunities. Unfortunately, market process theory is, by now, a theory that focuses on the market as the basic ontological level and not on the firm itself. Competencebased theory, however, is able to write the ‘missing chapter’ (Boettke, 1994) of market process theory that is about the nature of the firm. We adopt the respective branch of the ‘competence-based theory of the firm’ (Foss and Ishikawa, 2007; Freiling et al., 2008) to develop the basic view that firms exist due to their particular organizational ambiance that provides the firm with a superior potential of coordination and motivation compared to alternate institutions of the market. Therefore, the ambition of this paper is to address the following research question: Besides protecting the firm from opportunism, what is the competence-based nature of the firm? To this end, the paper proceeds as follows: In the next section, we outline basic approaches to the theory of the firm and, particularly, the cornerstones of CbTF as the theory to be employed. Next, we develop the argument of the organizational ambiance by reviewing the literature of the resource, knowledge, capability, and competence research. In the main step we present the notion of the organizational ambiance in the light of CbTF. Finally, a brief outlook finishes the paper. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_3, © Springer Fachmedien Wiesbaden 2013 30 Jörg Freiling CbTF and its Positioning the Organization and Management Theory There are several approaches in literature to structure the enormous variety of theories that belong to organization and management studies (e.g. Astley and Van de Ven, 1983). The taxonomy of Burrell and Morgan (1979), however, belongs to the most prominent ones. Burrell and Morgan use two criteria to finally identify four different paradigms: first, the question of subjectivism versus objectivism and, second, the sociology of regulation versus the one of radical change. Although many theories do not adopt a clear ‘either/or logic’ in the face of the two dimensions, the separation is useful to understand basic viewpoints. In particular we can recognize that many traditional approaches employed in business research belong to the ‘functional paradigm’ that adopts a more static and objectivist position. The rather deterministic view of the relationship between the organization and the environment often implies the adoption of an ‘optimization logic’. However, whenever we want to understand the role of firms in recent times, environmental and corporate change plays a pivotal role. These changes are often driven by proactive agents that try to improve their situation. Entrepreneurial behaviour is core to understand the business reality. If we do not totally disagree with this viewpoint, then we need to consider more subjectivist positions, based on radical or incremental change, seriously. This implies employing approaches in particular of the interpretive paradigm according to Burrell and Morgan (1979). The interpretive paradigm itself is a cluster of quite different theories of several disciplines (e.g. sociology, economics) with a common core. Market process theory (e.g. Hayek, 1945; Kirzner, 1973) belongs to this paradigm and addresses evolutionary processes of the market triggered by the use of knowledge. Market process theory conceptualizes people as more or less alert agents (Mises, 1949; Kirzner, 1973; Lachmann, 1986) who strive for their own advantage and try to modify the actual set of targets, means, and alternatives for own purposes. When transaction cost theory argues that firms are ‘safe ports in troubled seas’ of uncertainty and opportunistic behaviour, market process theory focuses the opportunities in connection with uncertainty. CbTF, however, is a theoretical program based on market process theory and shares the same antecedents. CbTF adopts thinking in terms of proactively generating and exploiting opportunities while, in contrast to the Austrian School of market process theory, intending to understand the nature of the firm. As a (re-conceptualized) branch of the resource-based school of strategy (Freiling et al., 2008), CbTF focuses on firm-specific and firmaddressable resources, knowledge, capabilities, and competences (Sanchez et al., 1996; Freiling et al. 2008) and, thanks to its subjectivist nature, posits that every firm has a very particular set of available resources (idiosyncrasy argument). As a first result, one competence-based response to the nature of the firm is that every firm has, to some extent, its own very nature. This, however, does not imply that we cannot find any commonalities when researching the nature of the firm as an institution. We come back to this issue later on. What is the particular profile of CbTF? It makes sense commencing with the basic antecedents that Freiling et al. (2008) conceptualized against the concept of research programs of Lakatos (1970), here in particular the hard core assumptions. In a nutshell, the set of assumptions contains (Freiling et al., 2008): On the Firm’s Raison d’Être and Competence-based Nature of the Firm 31 • subjectivism – people (and organizations) differ in what they are, what they know, what they want, and what they can; the states are not steady but subject to permanent changes, • radical uncertainty – knowledge is rather incomplete, so that not only knowledge exist the agents roughly know but do not long for, but also knowledge that is completely unknown from decision-makers and, finally, there is knowledge relevant to decisions that does not yet exist, • methodological individualism – organizational phenomena (like culture or organizational learning) exist but can only be explained by tracing them back to the actions of individuals, • moderate voluntarism – as for the relationship between the firm and the environment, firms are embedded in their market and social environment, but for every firm managerial discretion exists to alter at least parts of this environment for own purposes (Freiling, 2008), • ‘homo agens’ – different from the ‘homo oeconomicus’, people act proactively and constantly look out for opportunities to move to more favourable positions by taking the chances of the managerial discretion in the sense of moderate voluntarism, • relevance of time – whatever happens over time, the chronological order is decisive and every decision made in the past has implications for later decision-making so that lock-in und lock-out effects create organizational commitment and maybe path dependence. Notably, the CbTF is an evolutionary theory and adopts the typical reasoning in terms of variation, selection, and retention – well known from evolutionary theory. Belonging to the range of theories of capability and competence research (Sanchez, 2001; Teece et al., 1997; Sanchez and Heene, 2004; Helfat et al., 2007), CbTF does not (solely) focus on explaining sustaining competitive advantage but the existence, nature, essence, and the boundaries of the firm (Freiling, 2004). Therefore, CbTF is much more an organization theory than a management approach. However, CbTF adopts the causal mechanisms developed in the realm of resource and competence research. Among them, we find particularly the so-called isolating mechanisms (Rumelt, 1984; Dierickx and Cool, 1989) that create a protected area of the firm in the face of competitors’ attacks. There is a considerable and infinite number of isolating factors. To name but a few, asset interconnectedness, social complexity, tacit knowledge, routines, and causal ambiguity (Dierickx and Cool, 1989) belong to the most prominent causal factors. Most notably, these mechanisms offer protection from unfavourable forces of competition and can, at the same time, trigger the development of resources and competences within the firm. As a consequence, they are relevant to the ‘ambiance notion’ as outlined initially. We need to come back to this issue when explaining the competence-based nature of the firm below. The Organizational Ambiance in the Mirror of Previous Research The idea that firms are more than only strongholds against the negative impact of uncertainty in economic decision-making is not new to management and organization studies. Among the protagonists of classic theory, List (1841) argues within the debate on his ‘law of the confederation of the productive forces’ that taking advantage of the division of labour requires institutional solutions to integrate the divided work alertly. Just in research on resources and competences we can find some hints why firms can be superior modes of coordination and motivation. In her seminal work, Penrose (1959: 25) concludes: 32 Jörg Freiling A firm is more than an administrative unit; it is also a collection of productive resources the disposal of which between different uses and over time is determined by administrative decision. (…) The essential difference between economic activity inside the firm and economic activity in the ‘market’ is that the former is carried on within an administrative organization, while the latter is not. Although we need to clarify what an administrative organization is made of, one can recognize that certain principles work in firms different compared to alternate institutions. In this sense, what makes the difference between firms and markets? One response to this question is the availability of so-called ‘higher order organizing principles’ of the firm, as formulated by Kogut and Zander (1992 & 1996). These principles are a first indication that coordination in firms differs from other institutions: Basically, they rest on social procedures that coordinate and recreate relations among employees (Kogut and Zander, 1992). By employing these principles knowledge can be used in a structured way to facilitate value-added activities. This aspect, however, is rather close to Foss’ (1996) consideration that firms exist due to a more efficient coordination of learning activities compared to other institutions: firms obviously learn faster and/or better. The issues raised by Wilkens et al. (2004) point in a similar direction. Referring to Rouse and Daellenbach (2002) as well as Helfat and Peteraf (2003) and based on empirical fieldwork they conclude that in case of causally ambiguous relations among people in organizations joint interpretations develop that lead to collective minds. Similarly, Hodgson (1998) makes an interesting suggestion by pointing out the firm’s capacity to protect and develop competences in the organization. He recognizes the capacity of the firm as an institution to amalgamate and integrate the individual perceptions, preferences, abilities, and actions of its personnel. Obviously, firms offer a specific background for the purpose of economic coordination. However, this is not the whole truth, since the potential of motivation is different from markets (Osterloh et al., 1999). We can demonstrate this by the transfer of tacit knowledge as a backbone of competence building and leveraging. In markets there is simply no incentive to share tacit knowledge among the economic agents. Facing the incentive structure of the price mechanism as the dominant coordination mode in markets, this would not pay off in any regard. The price mechanism rests on extrinsic motivation. However, the transfer of tacit knowledge can only work in case of intrinsic motivation for the transfer cannot be measured in an unambiguous manner. In firms, however, the situation is quite different (Freiling, 2004). People work together in teams, create a mutual understanding and, sometimes, also care to a certain extent for each other. A transfer of tacit knowledge takes place in different ways—sometimes simply because people work together and observe the other team members, sometimes because of explicit decisions by the bearer of the knowledge. This motivation differential is one key to answer the question about the nature of the firm. The findings contribute to a preliminary understanding of the specific ‘organizational ambiance’ of a firm and its ‘raison d’être’. In contrast to transaction cost theory, these considerations not only focus on coordination and transaction but on value-added activities as well. CbTF is able to integrate these two issues. Understanding the fertile background offered by firms as institutions requires going some steps further. On the Firm’s Raison d’Être and Competence-based Nature of the Firm 33 The Competence-based Nature of the Firm and the Organizational Ambiance As yet, we already dealt with the term of the organizational ambiance several times without clarifying exactly what this construct means. Basically, the organizational ambiance is a rather complex phenomenon that can be explained by referring to the isolating mechanisms as mentioned above. Resource-based reasoning suggests that the firm’s core resources and competences, that might constitute sustaining competitive advantages, are protected by structural factors. However, what are these structural factors that make a difference in coordination and motivation vis-à-vis markets as the most important point of reference in the theory of the firm? Compared to markets, firms are characterized by decisive differences as for the relationships among people. Whereas in markets the price mechanism coordinates economic agents and does not necessitate higher degrees of interaction, the coordination in firms can best be described by borrowing the concept of ‘social complexity’ (Barney, 1991). Social complexity rests on a magnitude of different relationships among people in firms and the dynamics associated with it. Among others, Barney (1991) traces back the social complexity to interpersonal relations in firms and the organizational culture. He claims that social complexity protects the firm from imitation activities of their rivals. There is no reason to question this viewpoint. However, the social complexity of personal relationships in firms is a factor that might go beyond creating an environment that is ‘only’ protecting. More than that, socially complex relationships among people in firms constitute a net of ties that allow for communication and mutual learning. So to speak, this environment is fertile and nurturing for resource development, as well. The ties develop over time and change in quality – and maybe quantity, too. Notably, these relationships rest on long-time couplings of people and are, therefore, stable but not static. Instead, the more people get in touch with each other, the more they will learn from colleagues and the more a mutual understanding develops. Insofar we cannot really understand the emergence and the very nature of organizational culture without referring to these interpersonal relationships. More generally, phenomena such as economies of learning or higher order organizing principles (see the previous section) do not appear from nowhere but are the result of interconnected assets. Dierickx and Cool (1989) stress the connections among all the assets available to a firm. We share this point of view with the explicit amendment that people and the relationships among people in firms matter. However, this differentiation brings us one step further in our reasoning. We can differ among diverse asset structures and ties in the firm. Some of them are more visible, some of them are rather invisible, implicit, deeply embedded in the organization, and ‘sticky’ (Szulanski, 2003). Accordingly, it is useful to differ among surface structures and the deeply embedded structural elements, the deep structures, of a firm. Surface structures consist of the formal organization, i.e. operational and structural organization (the structure of the divisions and the strategic business units, the formal responsibilities, the definition of the business processes and the like). These organizational elements are visible, formalized, and often rather easily manageable and changeable. The opposite holds true in case of the deep structures. When people live together for a long 34 Jörg Freiling time, often with an open end horizon of collaboration, they develop a kind of ‘glue’ that keeps them together in groups. As a consequence, common principles and norms develop how to organize the cooperation. Sometimes a certain ‘slang’ emerges that represents common attitudes and interpretations among the people involved. The same holds true for the logics employed within an organization. We share the view of Sanchez et al. (1996: 10) who regard the strategic logic of a firm as follows: Strategic logic refers to the rationale(s) employed (explicitly or implicitly) by decision makers in the firm (…). All employees within a firm have at least some degree of discretion in the allocation of resources. (…) Thus, the strategic logic of the firm is not an exclusive creation of top managers. (…) Subsequent interpretations by other employees (…) require the adoption by each decision maker of a rationale for deciding (…). (…) the firm’s strategic logic (…) resides at all levels of the firm (…). According to that, also these logics and routines belong to the informal structural elements that are deeply embedded in the organization. Most notably, the dynamic interplay of the above mentioned structural elements creates, step by step, an identity of groups of people and, finally, of organizations. The shared values, however, that emerge this way, become more and more taken-for-granted and create the core of an organizational culture—as e.g. conceptualized in the sense of Schein (2004). Why are all these considerations relevant to the topic of this paper? The answer is that we cannot explain the very nature of the organizational ambiance as the cornerstone argument of this paper on the nature of the firm without both the surface and the deep structures. To understand why the firm is chosen as an institution both surface and, in particular, deep structures play a role. The main argument is that these structural elements with the reinforcing ties in the run of events form a specific environment that is different from market and hybrids. The discussion on the isolating mechanisms reveals that this environment is equipped with protection forces that ensure the state of the ‘crown jewels’ of the firm, namely the core resources and competences (Montgomery, 1995). The dynamic interplay of interconnectedness of assets, social complexity, the use of routines and tacit knowledge make imitation and substitution of critical resources and competences by rivals less likely. This, however, is only one side of the coin. For an understanding of the organizational ambiance as a reason why firms exist it is not less important that resources and competences can be built and developed. To this end, firms need a fertile environment fostering processes of resource and competence building. In this respect, the surface and deep structures, the strong and weak ties of the resource endowment matter significantly to generate and identify and, later, to exploit available business opportunities. Why is this so? The organizational ambiance consists of hygiene factors that foster knowledge sharing and knowledge integration. These hygiene factors are manifold. Among them, the most important elements are organizational culture, routines, and governance mechanisms employed in firms. We introduce the three elements in more detail. First, firms need sense-making principles. As long as the people are not aware of why collaboration among the staff members is useful and do not know why they should unfold their individual potential for the firm, processes of resource and competence building will not come to a desirable end. Among the sense-making elements we cannot over-estimate the role of organizational culture. As Crossan et al. (1999) as well as Fichtner and Freiling (2008) demonstrate, organizational culture plays a pivotal role in case of learning processes On the Firm’s Raison d’Être and Competence-based Nature of the Firm 35 and competence building. Organizational culture, thus, not only triggers motivation but enables coordination as well. Second, routines are regular and predictable patterns of activity that are made up of a sequence of coordinated actions by individuals (Grant, 1991) and connote a menu of previously learned patterns of action (Winter, 1995). According to Grant (1996), routines permit the integration of specialized knowledge without the need for communicating it. Insofar routines allow for sophisticated ways of coordination due to the use of existing and proven patterns. It is part of their very nature to structure and integrate knowledge and to support the transfer of it. Routines are more than organized process structures due to the fact that they are deeply embedded in people’s minds. Third, among the hygiene factors we need to consider the role of governance mechanisms employed in firms. It goes without saying that governance mechanisms are employed in every institution, be it a market, a relationship or a firm. However, the particular mechanisms in use differ in quality when we compare firms and markets. Formal modes, such as contracts, are indispensable to our understanding of markets and many kinds of hybrids. They are relevant to firms as well as the notion of the firm as a nexus of contracts (Fama, 1980) suggests. However, governance modes in firms are a system of interrelated mechanisms that enable and foster coordination and motivation. Formal governance modes (e.g. contracts, commands, monitoring systems) stand side by side with informal ones (e.g. trust, commitment). To summarize the considerations, the organizational ambiance is made of a rich set of social ties among the people who belong to a firm and interrelated assets. The interrelations undergo permanent improvements and adaptations to provide the firm with a higher degree of competitiveness. Due to the open end horizon, the couplings are stable and form a structure that consists of both surface and deeply rooted elements. This net of personal and functional relations builds the organizational ambiance that provides the firm with an atmosphere of familiarity. People know each other quite well in organizations due to interactions and numerous social contacts. They learn how to use the considerable structural complexity the organizational ambiance consists of. Although causal ambiguity (Lippman and Rumelt, 1982) might exist, we have to differ between the internal opacity of firms and the external opacity which is significantly higher. Thus, the consequence of causal ambiguity is that people in firms are not aware of any detail as for the coordination mechanisms and potentials of their particular firm. However, they have an idea how to utilize the existing structures of the ambiance. More than that, via internal knowledge transfer processes that are fostered by the management of the firm the possibility of making the best of the ambiance available to the firm works better over time. Oppositely, external parties, in particular rivals, are not fully aware of these personal and functional ties. They only get a rather sketchy and incomplete understanding of the firm they observe. As rivals they are usually not integrated in processes of knowledge transfer but, at best, of knowledge diffusion. Insofar, the organizational ambiance unfolds a potential to protect the firm from outside attacks on the firm’s ‘crown jewels’. Moreover, the ambiance provides the firm with a fertile environment for the purpose of resource and competence building. This potential grows over time. The more people employ this ambiance to the desired ends, the more knowledge will be embedded in the 36 Jörg Freiling firm’s deep structures and will improve coordination. The more the ambiance brings people together and creates common sense, the sooner the motivation of the people in firms increases. So to speak, utilizing the organizational ambiance improves the potential of coordination and motivation in the sense of ‘learning by doing’. Moldaschl and Fischer (2004) coined the term ‘generative resources’ to address that some types of resources are means for action that are created and augmented in use. This exactly holds true for the organizational ambiance as the centrepiece of this paper. Thus, the ambiance allows for a both protecting and nurturing environment for resource and competence management that provides the firm as an institution with both a differential of coordination and a differential of motivation vis-à-vis alternate institutional modes. To regard firms as a net of stable, not static personal and functional relationships goes beyond viewing firms as a nexus of contracts and as a fortress against the threat of opportunistic behaviour of economic agents in competition. The ambiance, in this sense, is basic in order to capitalize on the division of labour. Notably, the ambiance should not be regarded as a purely rational result of managerial action. Admittedly, the ambiance is, often to a large extent, consciously developed by means of resource and competence management. However, we should not under-estimate the role of emergent processes for the purpose of developing the ambiance. In this sense, the ambiance can be adequately understood as a generative resource. This, however, does not imply that every move is always a step forward into the direction of improved competitiveness. Outlook Having stressed the role of firms as institutions, we extended the typical notion of firms as safe ports in the face of the negative impact of uncertainty by showing that firms allow for exploring and exploiting the opportunities of the market process as well. By employing CbTF as market process theory’s pendant on the level of organization theory, we were in a position to address this particular role of firms. The organizational ambiance as a construct was introduced. Notably, this ambiance provides the firm with a protection belt and catalytic forces to improve the firm’s asset endowment. In this sense, we need empirical work in order to specify the particular structure of the organizational ambiance. By now, we can only use causal concepts of resource and competence research such as the isolating mechanisms. As the ambiance belongs to the rather ‘sticky’ factors of the firm, we are well advised to take care when selecting adequate empirical methods. It seems that typical means of qualitative and quantitative empirical research are not fully appropriate to investigate the nature of the ambiance. Maybe approaches from clinical research are required to further our understanding of the construct under investigation. Until now, we primarily addressed the nature and essence of the firm. By now, we did not clarify that, first, there may be some common patterns of firms that are fundamentally different from alternate institutions while, second, every firm is equipped with a specific nature. Competence research already stressed idiosyncrasies of firms. CbTF shares this point of view, in particular by assuming subjectivism. Insofar, the organizational ambiance of every firm is to some extent idiosyncratic. This fact is basic to our understanding of the nature of the firm – and different from the viewpoint of new institutional economics. On the Firm’s Raison d’Être and Competence-based Nature of the Firm 37 References Astley, W.G., Van de Ven, A.H. (1983). ‘Central perspectives and debates in organization theory’. Administrative Science Quarterly 28: 245–273. Barney, J.B. (1991). ‘Firm resources and sustained competitive advantage’. Journal of Management 17/1: 99–120. Boettke, P. (1994). ‘Alternative paths forward for austrian economics’ in The Elgar Companion to Austrian economics. Boettke, P. (ed), 601–615. Aldershot: Elgar. Burrell, G., Morgan, G. (1979). Sociological paradigms and organisational analysis. London et al.: Heinemann. Crossan, M.M., Lane, H.W., White, R.E. (1999). ‘An organizational learning framework: From intuition to institution’. Academy of Management Review 24(3): 522–537. Dierickx, I. and Cool, K. (1989). ‘Asset stock accumulation and sustainability of competitive advantage’. Management Science 35: 1504–1511. Fama, E.F. (1980). ‘Agency problems and the theory of the firm’. Journal of Political Economy 88: 288– 307. Fichtner, H., Freiling, J. (2008). ‚Organizational Culture, Organizational Ambiance & Competences: A Competence-based Theory of the Firm’. SSRN Working Paper, available at SSRN: http://ssrn.com/abstract=1113860 (March 27, 2008). Foss, N.J. (1996). ‘The emerging competence perspective’ in Towards a competence theory of the firm. N.J. Foss and C. Knudsen (eds): 1–12. London, New York: Brunner-Routledge. Foss, N.J., Ishikawa, I. (2007). ‘Towards a Dynamic Resource-based View’. Organization Studies 28(5): 749–772. Freiling, J. (2004). ‘A Competence-based Theory of the Firm’. Management Revue 15(1): 27–52. Freiling, J. (2008). ‘RBV and the Road to the Control of External Organizations’. Management Revue 19(1–2): 33–52. Freiling, J., Gersch, M., Goeke, C. (2008). ‘On the Path Towards a Competence-based Theory of the Firm’. Organization Studies 29(8–9): 1143–1164. Grant, R.M. (1991). ‘The Resource-Based Theory of Competitive Advantage’. California Management Review 33(3): 114–135. Grant, R.M. (1996). ‘Toward a Knowledge-based Theory of the Firm’. Strategic Management Journal 17: 109–122. Hayek, F.A. (1945). ‘The Use of Knowledge in Society’. American Economic Review 35 (September): 519–530. Hayek, F.A. von (1978). ‘Competition as a discovery problem’ in New Studies in Philosophy, Politics, Economics, and the History of Ideas. London: Routledge. Helfat, C., Finkelstein, S., Mitchell, W., Peteraf, M.A., Singh, H., Teece, D.J., Winter, S.G. (2007). Dynamic Capabilities, Malden: Blackwell. Helfat, C., Peteraf, M. (2003). ‘The dynamic resource-based view’. Strategic Management Journal 24: 997– 1010. Hodgson, G.M. (1998). ‘Competence and Contract in the Theory of the Firm’. Journal of Economic Behavior and Organization 35: 179–201. Kirzner, I.M. (1973). Competition and Entrepreneurship. Chicago: University Press. 38 Jörg Freiling Kogut, B., Zander, U. (1992). ‘Knowledge of the firm: Combinative capabilities, and the replication of technology’. Organization Science 3: 383–397. Kogut, B., Zander, U. (1996): ‘What Firms Do? Coordination, Identity, and Learning’. Organization Science 7: 502–518. Lachmann, L.M. (1986). The Market as an Economic Process. Oxford/New York: Basil Blackwell. Lakatos, I. (1970). ‘Falsification and the Methodology of Scientific Research Programmes’ in Criticism and the Growth of Knowledge. I. Lakatos, A. Musgrave (eds), 91–195, Cambridge: Cambridge University Press. Lippman, S., Rumelt, R.P. (1982). ’Uncertain Imitability: An Analysis of Interfirm Differences in Efficiency under Competition’, Bell Journal of Economics 13: 418–438. List, F. (1841/1909). ‘Das nationale System der Politischen Ökonomie’. Stuttgart, Tübingen. English edition: ‘The National System of Political Economy’. London: Longmans, Green & Co. Mises, L. von (1949). Human action. Irvington-on-Hudson/NY: Free Market Books. Moldaschl, M., Fischer, D. (2004). ‘Beyond the Management View’, Management Revue 15(1): 122–151. Montgomery, C.A. (1995). ‘Of Diamonds and Rust: A New Look at Resources’. in Resource-Based and Evolutionary Theories of the Firm. Montgomery, C.A. (ed), 251–268. Boston: Kluwer. Osterloh, M., Frey, B.S., Frost, J. (1999). ‘Was kann das Unternehmen besser als der Markt?’ Zeitschrift für Betriebswirtschaft 69: 1245–1262. Penrose, E.T. (1959). ‘The theory of the growth of the firm’. 1st edn. Oxford: Basil Blackwell. Rouse, M.J., Daellenbach, U.S. (2002). ‘More Thinking on Research Methods for the Resource-Based Perspective’. Strategic Management Journal, 23(10): 963–969. Rumelt, R.P. (1984). ‘Towards a strategic theory of the firm’. in Competitive strategic management. R.B. Lamb (ed.), 556–570. Englewood Cliffs: Prentice-Hall. Sanchez, R., Heene, A. (2004). The New Strategic Management, New York: Wiley. Sanchez, R., Heene, A., Thomas, H. (1996). ‘Towards the theory and practice of competence based competition’ in Dynamics of competence-based competition. Sanchez, R., Heene, A., Thomas, H. (eds), 1–35. Oxford: Pergamon. Sanchez, R. (2001). ‘Building Blocks for Strategy Theory: Resources, Dynamic Capabilities and Competences’ in Rethinking Strategy. Volberda, H., Elfring, T. (eds) 143–157. London: Sage. Schein, E.H. (2004). Organizational culture and leadership (3rd ed.), San Francisco: Jossey Bass Wiley. Szulanski, G. (2003). Sticky knowledge: Barriers to knowing in the firm. London: Sage. Teece, D.J., Pisano, G., Shuen, A. (1997). ‘Dynamic capabilities and strategic management’. Strategic Management Journal 18(7): 509–533. Wilkens, U., Menzel, D., Pawlowsky, P. (2004). ’Inside the black-box: Analysing the generation of core competencies and dynamic capabilities by exploring collective minds’. Management Revue 15(1): 8–26. Williamson, O.E. (1985). The Economic Institutions of Capitalism. New York: Free Press. Winter, S.G. (1995). ‘Four Rs of Profitability: Rents, Resources, Routines, and Replication’. in ResourceBased and Evolutionary Theories of the Firm. Montgomery, C.A. (ed), 147–178. Boston: Kluwer. Conceptualizing the Capability of Supplier Sustainability Risk Management1 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter 1 Introduction External stakeholders have built up high expectations on “sustainability”, putting firms under constant watch by non-governmental organizations, media, etc. (Bellmann, 1999; Kudla & Stölzle, 2011). Stakeholders usually do not differentiate between a firm’s and its suppliers’ operations. They hold the focal firm responsible for all practices involved in the making of the product, including any potential sustainability concern (Koplin, Seuring & Mesterharm, 2007; Rao, 2002). Suppliers not complying with the firm's promised standards, norms, or values are likely to cause damaged brand reputation, decreased brand value, or destroyed consumer confidence. Nike and Mattel are prominent examples of brands that suffered from non-compliant suppliers and faced media campaigns, consumer boycotts and partially declining sales (Locke & Romis, 2007; Wagner et al., 2009). Firms specify their sustainability commitment in corporate sustainability standards that often voluntarily go beyond the law (Bansal & Hunter, 2003). Those corporate sustainability standards are frequently represented in so called 'codes of conducts', which also become a contractual element between firms, suppliers and their suppliers upstream supply chain (Jiang, 2009). After the contractual implementation, firms still face the risk that their suppliers, and also further sub-suppliers in the upstream supply chain, do not comply with the issued corporate sustainability standards (Egels-Zandén, 2007; Hoejmose & Adrien-Kirby, 2012). Consequently, firms need to establish effective supplier management practices to drive supply chain partners' compliance with firms' corporate sustainability standards. The literature emphasizes that currently firms possess too little resources to control their entire supply chains (Foerstl, Reuter, Hartmann & Blome, 2010; Grimm, Hofstetter, Müggler & Peters, 2011): Firstly, related practices such as supplier assessment, development and continuous monitoring are very time and cost consuming. Moreover, firms' supply bases may include thousands of suppliers – a number that increases accordingly with existing value-adding steps by further indirect sub-suppliers in the supply chain. For example, 1 This article advances a paper presented at the 71st Annual Meeting of the Academy of Management by Grimm, Hofstetter and Röthig (2011). W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_4, © Springer Fachmedien Wiesbaden 2013 40 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter Hewlett-Packard sources directly from approximately 1’000 production suppliers and 50’000 non-production suppliers, which are located in six different continents and more than 45 countries (HP, 2012). In this context, research has recently emphasized the importance of an effective risk management in order to successfully manage suppliers with respect to sustainability factors (Carter & Rogers, 2008; Cousins et al., 2004; Spence & Bourlakis, 2009; Teuscher et al., 2006). Moreover, the literature highlights the value that an organizational capability of 'supplier sustainability risk management' might provide to focal firms seeking to improve sustainability performance in their supply chains, and particularly, to increase compliance levels at their suppliers’ sites (Foerstl et al., 2010; Grimm et al., 2011). It could enable a rigorous prioritization of sustainability risks in supply chains that allows firms to implement supplier management practices of different scale in accordance with the prioritized risks. This might enable an efficient usage of limited resources by means of an appropriate processing of the respective practices to drive suppliers’ compliance with firm's issued corporate sustainability standards (Foerstl et al., 2010; Grimm et al., 2011). Moreover, addressing sustainability risks in supply chains can positively affect firms’ economic factors by reducing the risk of reputational damages and enhancing further operational performance (Foerstl et al., 2010; Reuter et al., 2010). The concept of risk management has rarely been considered in sustainability and supply chain research (Carter & Rogers, 2008; Foerstl et al., 2010). Further knowledge for a comprehensive conceptualization of a 'supplier sustainability risk management' capability is required. Reviewing the current literature reveals that past research had a strong qualitative focus, whereas no measurement instruments yet exist that can indicate the maturity of a firm’s 'supplier sustainability risk management' capability. The overall goal of this article is twofold. Firstly, we seek to strengthen the general understanding of 'supplier sustainability risk management' by deriving a respective conceptualization. Secondly, we aim for the development of a measurement instrument that can give practitioners an estimation of their current capability maturity. The maturity evaluation of the 'supplier sustainability risk management' capability might consequently indicate where to invest resources in order to develop the focused capability, ultimately enabling them to reduce sustainability risks in supply chains. To achieve this objective, the remainder of this paper is organized as follows: Firstly, we review the literature on risk management within the context of “general” supply chain management, followed by a specific sustainability focus, that is, risk management within the sustainable supply chain management context. Consequently, this enables us to derive an initial conceptualization of the capability of 'supplier sustainability risk management'. Based on the conceptualization, we propose a measurement instrument that allows conducting a maturity evaluation of the targeted capability. The paper ends with a discussion of managerial implications. Conceptualizing the Capability of Supplier Sustainability Risk Management 2 41 Literature Review 2.1 ‘General’ Risk Management in Supply Chains The term ‘risk’ describes the exposure to an event with an uncertain outcome (Holton, 2004). Uncertainty about the outcome implies that the result could be either as expected, better, worse, or entirely different than expected (Khan & Burnes, 2007). Often only the negative component of risk is considered (Gray & Wiedemann, 1999; Rao & Goldsby, 2009). Correspondingly, risk management is the discipline for dealing with this uncertainty (Sadgrove, 2008). It emerged from the handling of “economic risk in early capitalism” and from “natural hazard research” (Gray & Wiedemann, 1999: 203) but was soon applied in quality management (Sadgrove, 2008), finance and strategic management (Jüttner, 2005). Risk management is a technical approach, which evaluates risks in a step-by-step process through estimating probabilities (Gray & Wiedemann, 1999). Although varying process elements can be found in literature, there is a general agreement on three essential steps of risk management: (1) risk identification, (2) risk assessment and (3) risk control. The first step serves to determine all possible risks that might occur, the second step quantifies and prioritizes the identified risks and the third step includes deciding on and implementing appropriate risk mitigation strategies (Khan & Burnes, 2007; Paulsson, 2004; White, 1995). In an ideal case, these steps are undertaken in a sequential and continuous process (Sadgrove, 2008). During the last decade the systematic approach of risk management has expanded into the field of supply chain management (e.g. Jüttner, 2005; Kersten & Blecker, 2006; Khan & Burnes, 2007; Rao & Goldsby, 2009). In the supply chain context, risks have been defined as any disturbance to the flows of material, capital and information that might negatively affect one or more participants of the supply chain (Kersten et al., 2006; Pfohl, Köhler & Thomas, 2010). Therefore, they refer to events such as delivery delay, breakdown of IT systems, or the loss of a supplier (Jüttner, 2005; Pfohl et al., 2010). The threat of opportunistic behavior in (cooperative) buyer-supplier-relationships, interpreted by Seiter (2006: 110) as the “breaking of explicit or implicit agreements between the partners within the supply chain”, has found minor attention in literature (Spekman & Davis, 2004; Seiter, 2006).2 Focusing on supply chains, various instruments have been suggested to identify, assess and manage supply chain risks. Rao and Goldsby (2009) propose the initial development of a supply chain map “as a reasonable starting point” for identifying hazards within a firm's supply chain. In a first step, it increases transparency by identifying supply chain members and respective material, financial and information flows. Depending on the specific purpose and the level of detail, such maps can help to detect critical suppliers: They visualize information, for example on channel dynamics relating to suppliers’ relative size and power; and they help to illustrate entire supply chains with potential bottlenecks (Gardner & Cooper, 2003). 2 For a detailed typology of occurring risks in supply chains, see Rao and Goldsby (2009) or Wagner and Bode (2006). 42 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter Zsidisin, Ellram, Carter and Cavinato (2004) analyze different supply risk assessment approaches, concluding that all underlying procedures aim to evaluate the probability and impact of possible negative events in supply chains. This is supported by Jüttner (2005), who found “Risk likelihood/Impact”-analysis to be a commonly used assessment tool in supply chain risk management. Khan and Burnes (2007: 208) give an overview of the risk management measures in the supply chain context that are especially directed towards suppliers: − Supplier quality, auditing and certification programs, − Supplier development and improvement programs, and − Communication and early involvement of suppliers in strategic decisions. Furthermore, Chen and Paulraj (2004: 125) argue, that supply base reduction is “a required element of contemporary supply chain management” as it frees up coordination efforts, ultimately enabling improved trust due to more frequent communication and therefore supporting long-term relationships with suppliers. According to Seiter (2006), a continuous partner selection and assessment process is an effective instrument to reduce the risk of opportunistic behavior between supply chain partners. 2.2 Risk Management for Supply Chains in the Context of Sustainability Earlier work in the field of sustainability has suggested that environmental and social initiatives can serve as a risk mitigation strategy to avoid reputational damage (Welford & Frost, 2006; Peters et al. 2011). However, detailed advice on their effective implementation in supply chains is still missing (Millington, 2008; Schneider & Schwerk, 2010). Scholars have only recently started to recognize the relevance of risk management approaches for reducing sustainability risks and assuring suppliers’ compliance with sustainability standards (Carter & Rogers, 2008; Cousins et al., 2004; Foerstl et al., 2010; Reuter et al., 2010; Spence & Bourlakis, 2009; Teuscher et al., 2006). Carter and Rogers (2008: 365) identify “the concept of risk and the management of risk (...) as a reoccurring theme in the sustainability literature” and therefore consider it to be a critical aspect of successfully improving social and environmental performance in firm's supply chains. Moreover, Carter and Rogers (2008) show that firms increasingly recognize the relevance of sustainability risks for their business. For example, Hewlett-Packard assesses the social and environmental risks of their supply base for prioritization and General Electric examines suppliers’ potential human rights threats (Carter & Rogers, 2008). The body of sustainable supply chain management literature identifies various approaches that are appropriate to mitigate sustainability risks, including evaluation, monitoring, sanctions (e.g. delisting) and training of suppliers. Commonly used measures for assessments are supplier evaluation schemes with an extended set of criteria, referring to environmental and social aspects, or supplier self-assessments asking how suppliers deal with sustainability issues (Kudla & Stölzle, 2011). The suppliers’ social and environmental performance then serves as a prerequisite to be considered for orders and services by the Conceptualizing the Capability of Supplier Sustainability Risk Management 43 firm. Furthermore, comprehensive audits are needed for a successful implementation of sustainability standards (Kudla & Klaas-Wissing, 2012). Cousins et al. (2004) develop a conceptual model, which describes the scope and the type of environment-related supplier initiatives that firms might undertake in relation to the risks perceived by managers and to the level of strategic purchasing. A firm is more likely to engage in proactive initiatives, if managers perceive potential losses (e.g. financial or social loss) as high, and if the purchasing function is relatively advanced. Based on their model, the authors suggest four generic types of environment-related supplier initiatives: “Why bother?”, “No choice!”, “Enthusiasts” and “Go first” (Cousins et al., 2004: 560), the last one being the most proactive. Firms that fall into this category follow risk mitigating approaches such as supplier-assessments, approved supplier list, training programs, purchasing environmental champion and use management information systems for tracking data (Cousins et al., 2004). Similarly, Spence & Bourlakis (2009) describe how supplier self-assessment questionnaires can be used to analyze the sustainability performance of new suppliers and to prioritize them according to their risk of non-compliance into high, medium and low risk suppliers. Suppliers’ initial non-compliance is not an unusual case and should not lead to suppliers’ immediate rejection. Instead, “a program of corrective action is agreed and monitored” (p. 296) to improve suppliers’ sustainability performance (Spence & Bourlakis, 2009). Teuscher et al. (2006) identify internal and external economic, ecological and social risks within a firm’s supply chain and illustrate how risk management helps to establish a sustainable supply chain. Importantly, the authors recommend the establishment of a solid partnership between the firm and its suppliers, as they find that “accountable partners help to minimize risks” (p. 3). Multiple activities are suggested for this purpose, e.g. the mapping of the supply chain and risks, setting targets and defining measures, evaluating the sustainability practices of business partners, focusing on accountable suppliers and auditing suppliers. Foerstl et al. (2010) and Reuter et al. (2010) conduct multiple case study research in the chemical industry to explore how firms identify, assess and handle sustainability risks emerging from their suppliers. The authors outline that sustainability risk management is integrated into the supplier management processes and argue that supplier sustainability risk management capabilities (Foerstl et al., 2010: 118) can be a source of competitive advantage. As for risk identification, all of the studied firms use supplier-self assessment questionnaires and maintain a supplier data base. In addition, externally acquired information was attained. The majority of the studied firms relied on a likelihood-businessimpact-analysis when assessing the risks of their suppliers, and accordingly, based their prioritization on the suppliers’ criticality. The authors particularly pinpoint on the advantage of one approach, which solely aims to evaluate the probability of noncompliance and gives no attention to the strategic importance of suppliers, due to the fact that “stakeholders will condemn any kind of misconduct irrespective of spend volume with a particular supplier or strategic relevance to the buyer. The actions of any supplier may thus pose a reputational risk to the buying firm” (Reuter et al., 2010: 57). The firms calculate the likelihood of suppliers’ non-compliance by using risk indicators such as properties of supplied goods, geographic location, production process and results of the 44 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter supplier self-assessment. The strategies to mitigate sustainability risks and improve suppliers’ compliance are similar across the studied firms: − Firstly, sustainability criteria are included in the supplier selection process and acts as a “gate-keeper” (Foerstl et al., 2010: 124) for new suppliers, i.e. compliance with mustmeet-criteria is required to be considered for further cooperation. − Secondly, all the firms engage in supplier development if non-compliance occurs within their established supply base. During a predefined time-frame suppliers are supported to re-meet the minimum sustainability requirements. − Thirdly, relationships with established suppliers, who repeatedly violate the firms’ sustainability standards and fail to implement corrective actions, are terminated. The second strategy is preferred over the third, as competition between suppliers is fostered and each termination would increase the dependence on the remaining suppliers leading to higher risks for the goal of economic sustainability (Foerstl et al., 2010; Reuter et al., 2010). Other recent research in the field of sustainability have proposed similar approaches for achieving suppliers’ compliance (e.g. Andersen & Skjoett-Larsen, 2009; Boyd, Spekman, Kamauff & Werhane, 2007; Schneider & Schwerk, 2010), however, without referring to any formal risk management procedure. For example, Boyd et al. (2007) argue that accurate sustainability information is needed to achieve compliance. Therefore, they suggest process mapping “to show the entire flow of goods through the pipeline from the simplest raw material to the most complex subassembly” (p. 349), collecting data on each firm participating in the process and conducting audits. Furthermore, Boyd et al. (2007) recommend the termination of supplier relationships if trust is missing and differences exist between the suppliers’ sustainability values and that of the supplied firm. Nevertheless, they also mention that it is important to help suppliers’ in adopting sustainability initiatives. Furthermore, Schneider and Schwerk (2010) as well as Andersen and Skjoett-Larsen (2009) underline the importance of supplier selection based on social and environmental criteria. Besides increasing the suppliers’ engagement for sustainability issues (Schneider & Schwerk, 2010), this approach enables a more efficient use of valuable resources used for supplier development (Andersen & Skjoett-Larsen, 2009). Accordingly, supplier questionnaires can be used for data-gathering on the sustainability performance of suppliers. The resulting information builds the basis for benchmarking suppliers and helps to identify areas for continuous improvement strategies (Keating et al., 2008). Commonly, it is argued that closer, trusting and long-term relationships can help to achieve compliance, e.g. by working closely with suppliers’ management and building sustainability knowledge over time (Andersen & Skjoett-Larsen, 2009; Egels-Zandén, 2007; Schneider & Schwerk, 2010). Therefore supply base reduction is necessary, as collaborative approaches are resource-consuming and therefore cannot be pursued with a large number of suppliers (Egels-Zandén, 2007; Schneider & Schwerk, 2010; Welford & Frost, 2006). Table 1 summarizes the various risk management practices, which we identified within our review of relevant supply chain and sustainability literature. In the following section we consequently seek to structure the identified elements and conceptualize a comprehensive ‘supplier sustainability risk management’ capability. 45 Conceptualizing the Capability of Supplier Sustainability Risk Management Table 1: Risk management practices covered in supply chain and sustainability literature Study Risk management practices Chen and Paulraj (2004) Supply base reduction Cousins et al. (2004) Zsidisin et al. (2004) Jüttner (2005) Seiter (2006) Teuscher et al. (2006) Boyd et al. (2007) Egels-Zandén (2007) Carter and Rogers (2008) Keating et al. (2008) Seuring and Müller (2008) Method Measure development Supplier assessment, approved supplier list, Conceptual training programs, data tracking Risk probability and impact-analysis Case study Risk likelihood and impact-analysis Conceptual, survey Supplier selection Survey Supply chain mapping, partner evaluation, Case study supplier selection, audits, partnership approach Supply chain mapping, audits, supplier Theoretical development, supplier de-selection Supplier base reduction, long-term Case studies relationship Supplier sustainability risk assessment and Conceptual prioritization Supplier questionnaires, information data Case study base, supplier improvement strategies Supplier evaluation, monitoring, sanctions Literature review (e.g. de-listing), supplier training, supplier evaluation schemes / self-assessment Supplier selection, long-term relationship Case study Andersen and SkjoettLarsen (2009) Rao and Goldsby (2009) Supply chain mapping Spence and Bourlakis Supplier self-assessment questionnaires, (2009) supplier prioritization, supplier development Foerstl et al. (2010), Supplier self-assessment questionnaires, Reuter et al. (2010) supplier data base, supplier selection, probability (and impact)-analysis, supplier de-selection, supplier development Schneider and Schwerk Supplier selection, long-term relationship (2010) Literature review Case study Case studies Literature review, case studies 46 3 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter Conceptualization of the Capability of ‘Supplier Sustainability Risk Management’ As the literature review showed, risk management approaches are commonly based on a sequential process, which is composed of three steps, i.e. identification, assessment and control of risks. Our literature review further indicated various fragmented risk management practices and approaches, which we subsequently compose to a comprehensive conceptualization of the ‘supplier sustainability risk management capability’ along the three aforementioned steps. 3.1 Risk Identification For a comprehensive risk management, it is crucial that a firm acknowledges the equal damage potential of all suppliers and sub-suppliers to its reputation (Reuter et al., 2010). Therefore, literature highlights the significance of having an accurate understanding of the sustainability risks of each supplier and sub-supplier (Boyd et al., 2007). A supply chain map can be helpful for visualizing and simplifying large-sized and complex supply chains (Gardner & Cooper, 2003; Rao & Goldsby, 2009). It is a typical supply chain risk management tool (Jüttner, 2005) that can be adapted to locate suppliers with a potentially critical sustainability performance (Teuscher et al., 2006; Boyd et al., 2007). Since any supplier in the network can be a source of risk to the firm’s reputation (Reuter et al., 2010), the effort should be made to build a detailed map of the entire supply chain, including as many suppliers as possible from tier-1 to tier-n suppliers (Gardner & Cooper, 2003). Supplier self-assessment questionnaires, which include environmental and social minimum requirements and ask suppliers how they handle sustainability issues, are instruments used for identifying the sustainability risks of each (new or established) direct supplier in more detail (Foerstl et al., 2010; Keating et al., 2008; Reuter et al., 2010; Seuring & Müller, 2008; Spence & Bourlakis, 2009). Furthermore, externally acquired information on the sustainability performance or the reputation of a supplier can give valuable input for risk identification (Foerstl et al., 2010). To enable continuous risk identification, it has been argued that it is beneficial to build up a data base with the sustainability information collected from mapping the supply chain, supplier questionnaires, supplier audits and monitoring or external sources (Boyd et al., 2007). If updated regularly, such a data base could track developments of the supply base regarding sustainability risks (Cousins et al., 2004; Foerstl et al., 2010) and therefore help to identify risky changes early, which is essential for eliminating the causes of undesired incidents proactively (Kersten et al., 2006). 3.2 Risk Assessment The preceding literature review indicated that the general assessment technique for risks consists of a likelihood-impact-analysis (Zsidisin et al., 2004; Jüttner, 2005). However, Reuter et al. (2010) have argued that effective risk management in the sustainability context is solely based on the probability of suppliers’ non-compliance since any supplier − independent of his strategic importance − could be a risk to the firms’ reputation. Thus, an Conceptualizing the Capability of Supplier Sustainability Risk Management 47 impact assessment, which is strongly geared to factors such as revenue-share or order volume with a particular supplier, could falsify the resulting risks. Besides the supplier questionnaires and information from the data base, aspects such as the production process, the properties of the good and the geographic location should be considered to assess the probability of non-compliance (Foerstl et al., 2010,). Depending on the industry and sustainability standards, these aspects can vary, but according to Reuter et al. (2010) the geographic location can serve as a distinct risk indicator, since especially suppliers from developing countries tend to show a poorer sustainability performance. Based on the assessment, suppliers are prioritized according to their risk of noncompliance, e.g. into high, medium and low risk (Carter & Rogers, 2008; Spence & Bourlakis, 2009). The prioritization of suppliers helps the firm in deciding on the suppliers’ need for development and control measures, i.e. what approaches could successfully reduce the risk of non-compliance. This enables a more efficient use of resources, which is important regarding the large number of suppliers a firm usually depends on (Andersen & Skjoett-Larsen, 2009; Foerstl et al., 2010; Reuter et al., 2010). 3.3 Risk Control After having prioritized the suppliers, the firm needs to choose appropriate strategies and operational measures to avoid the risks arising from any identified poor sustainability performance. The literature review revealed five approaches well rooted within traditional supplier management that constitute the last step in the risk management process. Supplier base reduction for partnership approach. Partnership approaches and closer long-term relationships with suppliers have been identified as an effective way to reduce sustainability-related risks and increase suppliers’ compliance (e.g. Andersen & SkjoettLarsen, 2009; Cousins et al., 2004; Egels-Zandén, 2007; Jiang, 2009; Schneider & Schwerk, 2010; Teuscher et al., 2006). Since such a strategy requires more time and resources, supplier base reduction, i.e. the focus on fewer suppliers, is essential (e.g. Chen & Paulraj, 2004; Schneider & Schwerk, 2010; Welford & Frost, 2006). Supplier selection based on sustainability criteria. The risk of non-compliance can be reduced by including sustainability criteria in the supplier selection process (Seiter, 2006). If minimum requirements for social and environmental performance cannot be met by a new supplier, this supplier should not be considered for further cooperation (Foerstl et al., 2010; Reuter et al., 2010; Schneider & Schwerk, 2010). Risky suppliers are hindered from entering the supply base and, thus, important resources can be saved (Andersen & SkjoettLarsen, 2009). Furthermore, standards integrated into the supplier selection process are more likely to be complied to as future sustainability is expected to be higher (Rao, 2004; Schneider & Schwerk, 2010). Supplier selection can also include established suppliers. Relationships with suppliers violating sustainability standards and failing to meet minimum requirements over a longer period should be terminated whenever possible (Andersen & Skjoett-Larsen, 2009; Boyd et al., 2007; Foerstl et al., 2010; Teuscher et al., 2006). Supplier development. A way to proactively eliminate non-compliance is investing time and money in suppliers to help them develop capacity for meeting sustainability requirements (Boyd et al., 2007; Spence & Bourlakis, 2009). Predominantly applied 48 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter concepts in supplier development include training, knowledge-transfer, or corrective actionplans to alter the practices of critical suppliers (Krause & Ellram, 1997; Schneider & Schwerk, 2010; Teuscher et al., 2006). Above average supplier development efforts should be dedicated to suppliers having particularly high risk of non-compliance (Reuter et al., 2010). Supplier auditing. First-party audits (i.e. supplier self-assessments) and third-party audits (i.e. conducted by independent auditing companies) are commonly used instruments to monitor (direct) suppliers’ sustainability performance (Kortelainen, 2008; Teuscher et al., 2006). They help identifying problems, such as non-compliance, and tracking the impact of applied risk mitigation measures, e.g. supplier development (Teuscher et al., 2006). Spence and Bourlakis (2009: 294) remark that audits should respect a supplier’s characteristics, e.g. size, because especially small suppliers “are unlikely to have the same levels of formal or written procedures in place”. Matching audits help increasing the effectiveness of information gathering as some suppliers have been found to cheat in order to hide critical aspects from external parties (Welford & Frost, 2006; Jiang, 2009). Conducting regular audits beyond tier-1 suppliers based on previous risk identification and assessments measures allows better observation of the sustainability performance (and risks) of the entire supply chain. Sanctions. The fifth measure identified to reduce risk of non-compliant behavior in the supply chain is sanctions. Although the effectiveness of sanctions is controversially debated in academia (Seiter, 2006), the threat of reducing order volumes is a commonly used sanction in business practice (Schneider & Schwerk, 2010). Foerstl et al. (2010) and Reuter et al. (2010) describe how firms put the relationship with non-compliant suppliers on hold to avoid purchasing from suppliers that fail to meet minimum sustainability requirements and to keep purchasing personnel from conflicts of interest, e.g. asking for price reductions to overlook their non-compliance. 3.4 ‘Supplier Sustainability Risk Management’ Process Framework Based on the preceding discussion, we consequently propose a ‘supplier sustainability risk management’ process framework as illustrated in figure 1. Risks emerge from the uncertainty about the sustainability performance of the firm’s suppliers. Possible performance outcomes range from full compliance with the sustainability standards of the firm to the worst case of complete non-compliance. In an ideal case, the respective risk management approach is a systematic process, which is composed of three steps, i.e. identification, assessment and control of risks (see previous sections 3.1.-3.3.). The three steps are complementary and carried out in a continuous process (Khan & Burnes, 2007; Sadgrove, 2008). The impact of implemented risk mitigation measures is therefore monitored through the recurring identification and assessment procedures and the overall risk management can only be as effective as to the degree each step and its according tasks are adopted by a firm. Accordingly, we define the corresponding capability of ‘supplier sustainability risk management’ as firm’s ability to continuously and systematically identify, assess, and control the risks emerging from the economic, environmental and social performance of a firm’s suppliers in relation to the firm’s defined sustainability standards. Conceptualizing the Capability of Supplier Sustainability Risk Management Figure 1: 4 49 ‘Supplier sustainability risk management’ process framework Maturity Evaluation for the Capability of ‘Supplier Sustainability Risk Management’ Based on our previous discussions of relevant literature and capability conceptualization, we subsequently derive a corresponding maturity evaluation scheme providing practitioners with an indication how ‘mature’ their firm’s capability is developed. The measurement instrument for this maturity evaluation might pinpoint on areas for improvement and might indicate where firms should invest to enhance their capability of ‘supplier sustainability risk management’. Identification. Within the identification phase, a firm seeks to detect all sustainability risks arising from its suppliers as a prerequisite to become able to actively manage them. The firm might use different tools, such as a supply chain map or supplier self-assessment questionnaires (e.g. Keating et al., 2008; Khan & Burnes, 2007; Rao & Goldsby, 2009; Spence & Bourlakis, 2009; White, 1995). Accordingly, we propose the following maturity evaluation elements to measure the ‘identification dimension’ of firm’s ‘supplier sustainability risk management’ capability as summarized by table 2. 50 Table 2: Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter Risk identification Step Identification of sustainability risks emerging from suppliers Evaluation elements* We believe that any (sub-)supplier has equal damage potential to our reputation. We have a detailed understanding of who are our sub-suppliers beyond the tier-1 level all the way up to the exploitation of raw materials. We build a very detailed supply chain map from tier-1 to tier-n suppliers. We use supplier self-assessment questionnaires, in which suppliers evaluate their handling of sustainability issues. We consider external information on suppliers’ sustainability risks (e.g. NGO reports, press articles). We maintain a supplier data base, which includes continuously updated sustainability information (risky supplier products, potential previous noncompliance to sustainability standards, over-all sustainability performance, dates and results of previous audits, etc.) Source Inspired by Foerstl et al. (2010); Reuter et al. (2010) Inspired by Boyd et al. (2007); Gardner and Cooper (2003) Inspired by Keating et al. (2008); Seuring and Müller (2008) Inspired by Foerstl et al. (2010) Inspired by Cousins et al. (2004); Foerstl et al. (2010) * Evaluation based on a seven-point Likert-scale with 1 “not at all” to 7 “to the fullest extent” Assessment. Once the sustainability risks are identified, the probability of supplier noncompliance to the firm’s sustainability standards is evaluated and prioritized within the 'assessment' phase (e.g. Carter & Rogers, 2008; Foerstl et al. 2010; Khan & Burnes, 2007; Reuter et al., 2010; Spence & Bourlakis, 2009). Accordingly, we propose the following maturity evaluation elements to measure the ‘assessment dimension’ of firm’s ‘supplier sustainability risk management’ capability as summarized by table 3. 51 Conceptualizing the Capability of Supplier Sustainability Risk Management Table 3: Risk assessment Step Evaluation elements* Source Assess and prioritize suppliers’ risk of non-compliance We assess the probability of suppliers’ non- Inspired by Foerstl et al. compliance to our sustainability standards, (2010); Reuter et al. independent from our revenue-share with their (2010) company. We consider different sustainability risk factors to assess the suppliers’ probability of non-compliance, e.g. the suppliers’ geographic location, the production process, the properties of the supplied good, etc. We prioritize suppliers based on their risk of Inspired by Foerstl et al. non-compliance to our sustainability standards (2010); Carter and to determine appropriate risk mitigation Rogers (2008); Reuter approaches. et al. (2010); Spence and Bourlakis (2009) * Evaluation based on a seven-point Likert-scale with 1 “not at all” to 7 “to the fullest extent” Control. Based on the prioritization, strategic and operational measures allow reducing the identified sustainability risks. These might include a supplier selection process based on sustainability criteria, periodical audits, a partnership approach to suppliers, the development of suppliers, and sanctions (e.g. Foerstl et al., 2010; Paulsson, 2004; Schneider & Schwerk, 2010; Seiter, 2006). Accordingly, we propose the following maturity evaluation elements to measure the ‘control dimension’ of firm’s ‘supplier sustainability risk management’ capability as summarized by table 4. Table 4: Risk control Step Control elements #1: Supplier base reduction #2: Supplier selection Evaluation elements* Source We pursue to rely on a relatively small number of suppliers to enable a partnershipapproach. New suppliers are only considered for further cooperation if they meet our minimum sustainability requirements. Adopted from Chen and Paulraj (2004) Inspired by Foerstl et al. (2010); Reuter et al. (2010); Seuring and Müller (2008) If a supplier repeatedly violates our minimum Inspired by Boyd et al. sustainability requirements, cooperation is (2007); Foerstl et al. terminated. (2010) 52 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter Table 4 (Continuation) Step #3: Supplier development #4: Supplier auditing #5: Sanctions Evaluation elements* We develop our suppliers to help them meet our sustainability requirements, e.g. through trainings, corrective action plans, knowledgetransfer, etc. We put more supplier development efforts into suppliers that have a higher risk of noncompliance. We engage in supplier development with (sub-)suppliers beyond the tier-1 level. We regularly audit our direct suppliers to discover non-compliance to sustainability standards. We regularly audit our direct suppliers to track the development of suppliers’ sustainability performance. We regularly audit (sub-)suppliers beyond the tier-1 level. We put more effort into auditing suppliers that have a higher risk of non-compliance. We match the auditing procedure with the suppliers’ characteristics (e.g. size, supplied product, etc.) to gain as much relevant information about sustainability factors as possible. If minor violations of our sustainability standards occur, we reduce our order volume with the supplier. If major violations of our sustainability standards occur, the supplier is put on hold until improvements have been made. Source Inspired by Boyd et al. (2007); Spence and Bourlakis (2009) Inspired by Reuter et al. (2010) Inspired by Kortelainen (2008); Seuring and Müller (2008) Inspired by Spence and Bourlakis (2009); Keating et al. (2008) Inspired by Schneider and Schwerk (2010) Inspired by Foerstl et al. (2010); Reuter et al. (2010) * Evaluation based on a seven-point Likert-scale with 1 “not at all” to 7 “to the fullest extent” 5 Managerial Implications Beside the structural set-up of supplier management practices improving sustainability in firms’ supply chains, our previous discussion highlighted the importance of a corresponding organizational ‘supplier sustainability risk management’ capability. We argued that only the presence of such a capability enables the efficient usage of firms’ scare resources. For practitioners seeking to build up their own ‘supplier sustainability risk management’ capability, the outlined framework pinpoints on respective key elements. Conceptualizing the Capability of Supplier Sustainability Risk Management 53 Furthermore, the proposed maturity evaluation scheme provides a starting point to initiate the necessary steps. Risk identification for sustainability non-compliance should not be restricted to the tier-1 supplier level or suppliers with high sourcing volumes only. Also smaller suppliers and sub-suppliers with non-compliant practices could affect the focal firm’s reputation or lead to further economic and legal consequences. To enable an effective risk identification, a detailed understanding of critical supply chain paths − all the way up to the raw materials − should be developed. Mapping and visualizing the supply chain paths including information about origin and critical production processes serve as an initial step. The integration of experienced sourcing experts with profound supply chain and process knowledge is key. Cross-functional collaboration between sourcing and sustainability departments allows overcoming sourcing experts’ frequently limited awareness of sustainability risks (Grimm et al., 2011). Prioritization based on previously identified sustainability risks allows to handle the scarcity of organizational resources (i.e. budget, manpower etc.). Risk assessment is commonly based on the consideration of the ‘probability of non-compliance’ and the potential resulting ‘business impact’. In cases when the determination of probabilities and business impact must rely on subjective perceptions, the inclusion of multiple internal stakeholders and the consideration of various decision criteria still allows a sound prioritization. Appropriate risk control measures − corresponding to the preceding prioritization − should be integrated into firms’ supplier management. This allows investing more efforts into the management of those suppliers, which are more likely to be non-compliant with firms’ corporate sustainability standards and might cause high business impact. For example, a firm might choose 2nd party audits (i.e. conducted by the firm itself) for “lowrisk” suppliers, whereas “high-risk” suppliers must additionally undergo 3rd party audits (i.e. conducted by an independent auditor). Similarly, supplier development efforts could be aligned with the level of compliance that is expected: For minor non-compliance, awareness-rising workshops might be sufficient, while major issues could require extensive trainings or improvement programs. Overall, addressing and responding to sustainability risks in supply chains suggest a positive influence on focal firms’ economic performance by reducing the risk of reputational damages and enhancing further operational performance. References Andersen, M., & Skjoett-Larsen, T. 2009. Corporate social responsibility in global supply chains. Supply Chain Management: An International Journal, 14: 75–86. Bansal, P., & Hunter, T. 2003. Strategic explanations for the early adoption of ISO 14001. Journal of Business Ethics, 46(3): 289–299. Bellmann, K. 1999. Betriebliches Umweltmanagement im Spannungsfeld von Politik, Wissenschaft und unternehmerischer Praxis. In: K. Bellmann (Ed.), Betriebliches Umweltmanagement in Deutschland: eine Positionsbestimmung aus Sicht von Politik, Wissenschaft und Praxis: 3–18. Wiesbaden: DUV. 54 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter Boyd, D. E., Spekman, R. E., Kamauff, J. W., & Werhane, P. 2007. Corporate social responsibility in global supply chains: A procedural justice perspectiv. Long Range Planning, 40: 341–356. Carter, C. R., & Rogers, D. S. 2008. A framework of sustainable supply chain management: Moving towards new theory. International Journal of Physical Distribution & Logistics Management , 38(5): 360–387. Chen, I. J., & Paulraj, A. 2004. Towards a theory of supply chain management: The constructs and measurements. Journal of Operations Management, 22: 119–150. Cousins, P. D., Lamming, R. C., & Bowen, F. 2004. The role of risk in environment-related supplier initiatives. International Journal of Operations & Production Management, 24: 554–565. Egels-Zandén, N. 2007. Suppliers’ compliance with MNCs’ codes of conduct: Behind the scenes at Chinese toy suppliers. Journal of Business Ethics, 75: 45–62. Foerstl, K., Reuter, C., Hartmann, E., & Blome, C. 2010. Managing supplier sustainability risks in a dynamically changing environment – Sustainable supplier management in the chemical industry. Journal of Purchasing & Supply Management, 16: 118–130. Gardner, J. T., & Cooper, M. C. 2003. Strategic supply chain mapping approaches. Journal of Business Logistics, 24(2): 37–64. Gray, P. C. R., & Wiedemann, P. M. 1999. Risk management and sustainable development: Mutual lessons from approaches to the use of indicators. Journal of Risk Research, 2: 201–218. Grimm, J. H., Hofstetter, J. S., Müggler, M., & Peters, N. J. 2011. Institutionalizing proactive sustainability standards in supply chains: Which institutional entrepreneurship capabilities matter? In A. Marcus, P. Shrivastava, S. Sharma, & S. Pogutz (Eds.), Cross-Sector Leadership for the Green Economy. Integrating Research and Practice on Sustainable Enterprise: 177–193. New York: Palgrave Macmillan. Grimm, J. H., Hofstetter, J. S. & Röthig, J. 2011. Developing a measure for the capability of ‘sustainable supplier risk management’. Paper presented at the 2011 Annual Meeting of Academy of Management, August 12-16, 2011, San Antonio. Hoejmose, S. U. & Adrien-Kirby, A. J. 2012. Socially and environmentally responsible procurement: A literature review and future research agenda of a managerial issue in the 21st century. Journal of Purchasing and Supply Management, 18(4): 232–242. Holton, G. A. 2004. Defining risk. Financial Analysts Journal, 60(6): 19–25. HP 2012. FY11 Global Citizenship Report – Supply chain responsibility. Retrieved May 8, 2013, from http://www8.hp.com/us/en/pdf/hp_fy11_gcr_supply_chain_responsibility_ tcm_245_1357693.pdf. Jiang, B. 2009. Implementing supplier codes of conduct in global supply chains: Process explanations from theoretic and empirical perspectives. Journal of Business Ethics, 85(1): 77–92. Jüttner, U. 2005. Supply chain risk management: Understanding the business requirements from a practitioner perspective. The International Journal of Logistics Management, 16(1): 120–141. Keating, B., Quazi, A., Kriz, A., & Coltman, T. 2008. In pursuit of a sustainable supply chain: insights from Westpac Banking Corporation. Supply Chain Management: An International Journal, 13: 3175–3179. Kersten, W., & Blecker, Th. (Eds.). 2006. Managing risks in supply chains. Berlin: Erich Schmidt Verlag. Kersten, W., Böger, M., Hohrath, Ph., & Späth, H. 2006. Supply chain risk management: Development of a theoretical and empirical framework. In W. Kersten & Th. Blecker (Eds.), Managing risks in supply chains: 3–17. Berlin: Erich Schmidt Verlag. Khan, O., & Burnes, B. 2007. Risk and supply chain management: Creating a research agenda. The International Journal of Logistics Management, 18: 197–216. Conceptualizing the Capability of Supplier Sustainability Risk Management 55 Koplin, J., Seuring, S., & Mesterharm, M. 2007. Incorporating sustainability into supply management in the automotive industry – The case of the Volkswagen AG. Journal of Cleaner Production, 15(11-12): 1053– 1062. Kortelainen, K. 2008. Global supply chains and social requirements: Case studies of labour condition auditing in the people’s Republic of China. Business Strategy and the Environment, 17: 431–443. Krause, D. R., & Ellram, L. M. 1997. Success factors in supplier development. International Journal of Physical Distribution & Logistics Management, 27: 39–52. Kudla, N. L. & Klaas-Wissing, T. 2012. Sustainability in shipper-logistics service provider relationships: A tentative taxonomy based on agency theory and stimulus-response analysis. Journal of Purchasing and Supply Management, 18(4): 218–231. Kudla, N.L. & Stölzle, W. 2011. Sustainability Supply Chain Management Research: A structured Literature Review. Die Unternehmung (Swiss Journal of Business Research and Practice), 65(3): 261– 300. Lee, S.-Y. 2008. Drivers for the participation of small and medium-sized suppliers in green supply chain initiatives. Supply Chain Management: An International Journal, 13(3): 185–198. Locke, R., & Romis, M. 2007. Improving work conditions in a global supply chain. MIT Sloan Management Review, 48(2): 54–62. Millington, A. 2008. Responsibility in the supply chain. In A. Crane, A. McWilliams, J. Moon & D. S. Siegel (Eds.), The Oxford handbook of corporate responsibility: 363–383. New York: Oxford University Press. Paulsson, U. 2004. Supply chain risk management. In C. Brindley (Ed.), Supply chain risk: 79–97. Aldershot: Ashgate. Peters, N. J., Hofstetter, J. S., & Hoffmann, V. H. 2011. Institutional entrepreneurship capabilities for interorganizational sustainable supply chain strategies. The International Journal of Logistics Management, 22(1): 52–86. Pfohl, H.-Ch., Köhler, H., & Thomas, D. 2010. State of the art in supply chain risk management research: Empirical and conceptual findings and a roadmap for the implementation in practice. Logistics Research, 2: 33–44. Rao, P. 2002. Greening the supply chain: A new initiative in South East Asia. International Journal of Operations & Production Management, 22(5/6): 632–655. Rao, S., & Goldsby, Th. J. 2009. Supply chain risks: A review and typology. The International Journal of Logistics Management, 20: 97–123. Reuter, C., Foerstl, K., Hartmann, E., & Blome, C. 2010. Sustainable global supplier management: The role of dynamic capabilities in achieving competitive advantage. Journal of Supply Chain Management, 46(2): 45–63. Sadgrove, K. 2008. The complete guide to business risk management (2nd ed.). Aldershot: Gower. Schneider, A.-M., & Schwerk, A. 2010. Corporate social responsibility in Chinese supplier firms. Zeitschrift für Betriebswirtschaft, Special Issue 1: 39–59. Seiter, M. 2006. Risk management in supply chains behavioural risks: The underestimated force. In W. Kersten & Th. Blecker (Eds.), Managing risks in supply chains: 110–121. Berlin: Erich Schmidt Verlag. Seuring, S., & Müller, M. 2008. From a literature review to a conceptual framework for sustainable supply chain management. Journal of Cleaner Production, 16: 1699–1710. Spekman, R. E., & Davis, E. W. 2004. Risky business: Expanding the discussion on risk and the extended enterprise. International Journal of Physical Distribution & Logistics Management, 34: 414–433. 56 Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter Spence, L., & Bourlakis, M. 2009. The evolution from corporate social responsibility to supply chain responsibility: The case of Waitrose. Supply Chain Management: An International Journal, 14: 291–302. Teuscher, P., Grüninger, B., & Ferdinand, N. 2006. Risk management in sustainable supply chain management (SSCM): Lessons learnt from the case of GMO-free soybeans. Corporate Social Responsibility and Environmental Management, 13: 1–10. Wagner, St. M., & Bode, Ch. 2006. An empirical investigation into supply chain vulnerability experienced by German firms. In W. Kersten & Th. Blecker (Eds.), Managing risks in supply chains: 79–96. Berlin: Erich Schmidt Verlag. Wagner, T., Lutz, R. J., & Weitz, B. A. 2009. Corporate hypocrisy: Overcoming the threat of inconsistent corporate social responsibility perceptions. Journal of Marketing, 73(6): 77–91. Welford, R., & Frost, S. 2006. Corporate social responsibility in Asian supply chains. Corporate Social Responsibility and Environmental Management, 13: 166–176. White, D. 1995. Application of system thinking to risk management: A review of the literature. Management Decision, 33(10): 35–45. Zsidisin, G. A., Ellram, L. M., Carter, J. R., & Cavinato, J. L. 2004. An analysis of supply risk assessment techniques. International Journal of Physical Distribution & Logistics Management, 34: 397–413. Complexity and Robustness Influence on Production Performance – A Theoretical Framework Regina Grussenmeyer, Thorsten Blecker 1 Introduction Different trends such as globalization, shortened product life cycles or high variability influence today’s production systems [1, 2]. A consequence of these trends is a rising complexity in production [3, 4] as well as increasing costs and decreasing flexibility [5]. Moreover, companies react on a volatile, challenging environment by creating complex structures [6]. These developments influence all business units and thus, especially affect company’s production. In order to be competitive, a production has to be able to react flexible, quick and on individual customer requirements and changing environmental conditions since production flexibility is a key success factor [7, 8]. At the same time the optimization and improvement of robustness enables an increased performance of the value adding steps [9, 10, 11]. In literature and practice statements regarding the importance of the research on complexity, flexibility and robustness in production systems can be found (e.g. [12, 13 or 14]). However, to our knowledge, only one article directly addresses their linkage by formulating design requirements for changing conventional production systems [15]. Nevertheless we think that it is first of all important to know the interdependencies of those factors before dealing with handling methodologies. In this article, we validate a before developed conceptual framework that shows those interdependencies between the factors complexity, flexibility, performance, robustness and stability in production environments. 2 Key characteristics of production systems Recent production and operations related publications consider several main characteristics as primarily influencing modern manufacturing systems. Those are: flexibility, stability, robustness, and complexity. These factors are considered as basic characteristics of manufacturing. Furthermore, performance as the general result measure of production systems will be included as factor as well. However, those characteristics have not been investigated scientifically on the same level; flexibility and complexity have been common research W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_5, © Springer Fachmedien Wiesbaden 2013 58 Regina Grussenmeyer, Thorsten Blecker fields in science for decades, whilst robustness and stability are quite emerging topics. Since the research is rather spread, we will only focus on the narrow field of production. For our production focus, we will follow the production definition in the narrow sense, which means that the factors operating, resource, work, and material are combined to products in the manufacturing process [16, 17]. Regarding the literature analysis of the terms complexity, flexibility, robustness and, stability, we will directly limit it to the production / manufacturing field. Furthermore, we will exclude all continuing processes, we will focus on the manufacturing of discrete products. We will now give the definitions of the variables we work with in order to ensure overall comprehensibility. Complexity: In manufacturing, complexity is the variability, connectivity and functionality of the different elements of a production system as well as their dynamic change over time. The product, the production plan, and the vertical integration thus influence the degree of complexity [18, 19, 20]. Stability: Stability is the reliability of the production systems. So it is the characteristic of a stable production process, that fulfills planned achievements under certain constraints in a certain time. Therefore, a stable production is a system where no breakdowns occur. At the same time, a stable system has no big variance regarding the reference value, so it is deviation-free [21, 22, 23, 24]. Flexibility: Flexibility is the ability of a production system to quickly cope with and leverage changing conditions (e.g. in product, process or capacity utilization), or instability (e.g. machine interruptions) with low effort, cost-performance reduction or penalties for non-fulfillment [25, 26]. Robustness: Generally, robustness is the ability of a system, to “maintain its functionalities against external and internal perturbations”[27]. For a production environment this means, that robust production processes are inured to short-term turbulences by meeting their defined targets, such as e.g. delivery dates [15]. Performance: The alignment of considerations regarding robustness and complexity should lead to an improvement in the supply chain performance, which can be measured in various ways [28]. In production, performance is tightly linked to four terms (efficiency, effectiveness, productivity, and profitability), which [29] analyzed more detailed. In order to measure the performance of the production system, we rely basically on four different indicators which have been presented by [29]. 3 Linking Complexity, Flexibility, Stability, Robustness, and Performance In this chapter, we will show how the four characteristics we described are linked within a production system. The according propositions are described in a previous article [30]. For the path model development we followed the strategy of [31] basing in on a theoretical deduction. We choose the path analysis for modeling the interdependencies of the production characteristics complexity, flexibility, and robustness as well as their influence on performance. Complexity and Robustness Influence on Production Performance 59 By this means, it is possible to detect relationships of manifest and latent variables [32]. The developed framework is shown in figure 1. Figure 1: Interdependencies Framework [30] The main findings of this interdependencies framework can be seen as two major aspects: (1) the mediating nature of robustness and (2) the moderating effects of complexity. The first facet is very interesting, since the literature on robustness is not very broad and [30] could now give a meaningful differentiation between stability, flexibility and robustness and how they are linked to each other. The moderating character of complexity has been defined before, but has never been connected to the other main factors of production systems. 4 Content Validation The described indicators for the variables [30] will be validated in this chapter. First there will be a description of the used methodology and afterwards we delineate the results of the validation. A. Methodology The measurement of a construct includes two quality aspects – validity and reliability [33]. Especially for multi-item measures [34] the content validity is crucial. For our manuscript we follow the approach of [31] who states that content validity is more meaningful as e.g. high alphas. Content validity avoids the deletion of useful indicators, like research face in the domain sampling approach [35] for convergence or discriminant validity. In literature, different approaches to identify content validity exist, such as the LawsheApproach [36], the Moore-Benbasat-Technique [37] or the Best-Worst Scaling Methodology [38], Cohens Kappar and the Inter Judgement Agreement. Since the Best-Worst Scaling bases on a latent dimension, such as importance or degree of interest [39], it does not comply with our requirements. The Lawshe-Approach as well is not suitable, since it does not enable an individual classification performed by the judges [36]. Furthermore, the calculation of Cohens kappa [40] or the inter judgement agreement is not possible due to a panel with more than two participants. Therefore, we use the Moore-Benbasat-Technique. As suggested by 60 Regina Grussenmeyer, Thorstcn Bleeker [41] we asked the judges to sort indicators into certain categories. For each item, 20 judges (consisting out of 5 researchers, practitioners, consultants and Master stodents each) indicated what characteristic they perceived that item would measure. This range of backgrounds was chosen to ensure that a range of perceptions would be included in the analysis, like [37] suggests. Due to the selection of participants in different occupational areas, objectivity was tried to be achieved. The participants received a letter with the description of the validation procedure and a questionnaire including all chosen indicators. To receive a reliable result, the indicators were sorted alphabetically and split in 4 blocks. Those blocks were scrambled and given to the participant groups. Therefore the effect of answering the first indicators more attentive then the last was reduced An extract of the survey is depicted in Fig. 2. f Efficiency ~ ~ ~ = ~ .e ~ ! ~ ! ~ .t i~ c U ~ Lot Size Mean time between failure Figure 2: Survey QuestkJns Extract For the content validation the indicators were listed in different rows and were to be assigned to the variables, which were listed in the columns by checking in that specific spot. Since in the path model interrelations were detected, it is possible that some indicators will be assigned to more than one variable due to the connection between the two variables. Therefore multiple allocations were possible. Additionally it was possible to not assign an indicator to any variable and therefore not answer for that specific indicator by checking the boxnla. After an answering period of about a week and an extension of four days, fifteen experts have sent back their questionnaire. The answers were transferred into a table and the frequency of the assignment of an indicator to a variable was counted. More precisely, the item placement ratio of Moore-Benbasat was calculated by counting all the indicators that are correctly sorted into the target characteristic by each of the judges. In other words, because each item was included in the pool explicitly to measure a particular underlying construct, a measurement was taken of the overall frequency with all judges placed items within the intended theoretical construct. The formula for the Item placement ratio or the Total Hit Ratio is as follows [37]. Hit Ratio = Correctly sorted items Total number Of items (1) 61 Complexity and Robustness Influence on Production Performance Item placement ratios (Fonnula I) exceeding the level of 0.70 are considered acceptable to evidence content validity [42]. Furthermore, according to [37] validity can be assumed if an indicator is always assigned to a variable. Vice Versa discriminant validity can be expected if an indicator is never allocated to a variable. To evaluate the results the following formula was used: percentage per i and c = number check marksic number of answers number check markstc number participants number check marks in n/~ (2) Fonnula 2 shows the percentage of answers that assigned Indicator (i) to the Variable/Category (c) [37]. The recommended level of 0.60is considered acceptable for this measure [43]. B. Implementation First of all, the Hit Ratio was calculated. Table 1: Hit Ratio Calculation Variable f IDdieator I ~ I 8 5 J 1 "8 ~ 01: Number of indicators 6 7 0 4 9 Correctly sorted indicators 48 60 0 44 77 Hit ratio 0.53 0.57 1.0 0.73 0.57 The overall hit ratio is with 0.59 too low to assume content validity, however this is mainly due to the Stability, Flexibility and Complexity variables. Robustness and Performance were validated. In order to now select the indicators that do not necessarily fit well into the operationa1ization of the path model, we applied the second fonnula. If 60 percent of the participants assigned an indicator to a certain category, validity is assumed. The following table (Table I) is the result of the formula earlier described and beholds the percentages for every categoryindicator combination, with which the participants assigned the indicator to the category. The percentages above the 60 percent threshold are highlighted in bold and with shading. The list of indicators is given alphabetically, in order to avoid any bias. 62 Table 2: Regina Grussenmeyer, Thorsten Blecker Percentage of assignment per variable & indicator Adaption costs of the system after failure 0.08 0.83 Complexity Performance Robustness Flexibility Indicator Stability Variable 0.17 0.25 0.25 Defect item quota 0.43 0.14 0.21 0.64 0.07 Effectivness 0.23 0.15 0.15 0.77 0.08 Efficiency 0.36 0.14 0.07 0.71 0.21 Inventory 0.38 0.62 0.15 0.23 0.15 Interfaces (number, dissimilarity/variety, dynamic) 0.21 0.57 0.29 0.29 1.00 Level of domain egoisms 0.11 0.11 0.11 0.56 0.56 Level of lack of expertise 0.62 0.38 0.23 0.69 0.15 Level of lack of motivation 0.50 0.36 0.21 0.79 0.07 Level of mechanization 0.50 0.42 0.42 0.83 0.58 Lot size 0.09 0.91 0.09 0.55 0.27 Number of different processes Number of different information and communication systems Number of involved employees 0.27 0.47 0.13 0.20 1.00 0.14 0.50 0.14 0.29 0.71 0.14 0.29 0.14 0.57 0.79 Number/Duration of failures 0.67 0.07 0.60 0.67 0.07 Mean time between failure Probability of production continuation after system adaption (Mean time to repair) Probability of total breakdown 0.38 0.15 0.54 0.46 0.23 0.36 0.64 0.36 0.29 0.29 0.50 0.21 0.43 0.36 0.29 Productivity 0.43 0.21 0.21 1.00 0.21 Products (number, dissimilarity, dynamic) 0.07 0.67 0.07 0.20 0.80 Profitability 0.09 0.27 0.00 0.91 0.09 Set up time 0.14 0.86 0.07 0.64 0.07 Utilization of Machines (idle/ unproductive time) 0.27 0.27 0.07 0.80 0.00 Variance of production output 0.67 0.27 0.33 0.53 0.20 Variance of throughput time 0.67 0.40 0.47 0.40 0.33 Waiting time 0.31 0.54 0.08 0.69 0.00 The validation confirmed a few indicators of complexity. Those were number of different processes, number of involved employees, number of different information and communication systems as well as the number of intersections and products. Complexity and Robustness Influence on Production Performance 63 Indicators, supposed to measure complexity, which have not been validated, are level of mechanization (58%), level of domain egoisms (56%), and level of lack of motivation (7%) or expertise (15%). It seems that the connection to the complexity of planning was not recognized by the survey participants. Also 6 of 15 participants did not give any link at all to the indicator level of domain egoisms. Therefore the 56% of this indicator are not a representative amount. The level of mechanization is only marginal below the 60 percent threshold, so with continuation of questioning that indicator might get validated. Concluding, all validated complexity indicators are shown in the following figure 3. Number of different information and communication systems Products (number, dissimilarity, dynamic) Complexity Interfaces (number, dissimilarity/variety, dynamic) Level of mechanization Number of different Processes Number of involved employees Figure 3: Selected complexity indicators after validation As expected, the indicators lot size (91%), set up time (86%), adaption costs of the system (83%), probability of continuation of production after adaption of the system (64%) and inventory (62%) were assigned to flexibility. The indicators waiting time (54%) and utilization of the machine (27%) were not validated. The non-validation might be due to the fact that the effect is indirect, since the possibility of adding new products or variations is given if the utilization is low. A similar reason is possible for the connection between work in process and waiting times due to poor adaptations. Additionally the indicator products were validated for flexibility. The indicator products can be seen as part of the market and product flexibility, because it influences the ease of adapting to market demand. Fig. 4 shows the validated flexibility indicators. For robustness no indicators were validated. This fits our expectations, as robustness was seen as a not-measurable variable, since it results out of stability and flexibility. 64 Regina Grussenmeyer, Thorsten Blecker Adaption costs of the system Stock of inventory Products (number, dissimilarity, dynamic) Flexibility Set up time Lot size Probability of continuing production after adaption of the system Figure 4: Selected flexibility indicators after validation For stability the indicators number and duration of failures, variances of throughput time and production output were assigned as expected. Additionally was the indicator level of lack of expertise validated which might result out of the assumption that an inexperienced or unfit employee might make more mistakes. Those mistakes might afterwards lead to failures or disrupted processes and therefore to instability. The defect item quota was not validated. This could be a result of the participant’s opinion in which quality is not a measure or characteristic of stability. Further probability and extent of failure as well as the probability of a total failure were not validated. Fig. 5 shows all validated indicators of stability. Variences of throughput time Stability Variences of production output Number / duration of failures Level of lack of expertise Figure 5: Selected stability indicators after validation One very interesting finding regarding the performance validation is that many indicators were validated and assigned for performance. All expected indicators (Efficiency (77%), Effectiveness (83%), Productivity (100%) and Profitability (64%). were validated. The additional indicators can be assumed to result from the interconnections between the other variables and performance. Therefore they will not be included. Fig. 6 illustrates all validated performance indicators. Complexity and Robustness Influence on Production Performance 65 Profitability Performance Productivity Efficiency Effectiveness Figure 6: Selected performance indicators after validation Figure 7: Interdependencies framework including indicators Summarizing the validation and the theoretically developed framework, we can provide Fig. 7 as final result for investigating the interdependencies of complexity and robustness and their influence on production performance. 66 Regina Grussenmeyer, Thorsten Blecker According to the finally selected indicators, we elaborated an updated overall hit ratio which shows improved item placement ratios. The actualized hit ratio improved to 0.71 which fits to the required level of 0.70 as minimum for path model content validity. Table 3: Updated Hit Ratio Calculation Complexity Robustness Flexibility Stability Indicator Performance Variable Number of indicators 3 5 0 4 Correctly sorted indicators 30 49 0 44 6 69 Hit ratio 0.67 0.65 1.0 0.73 0.77 Since the two variables stability and flexibility remained lower than the required value of 0.70, we asked the experts why they did not align the given indicators to the variables. They stated that it was due to the fact that for them the difference between stability and flexibility in terms of measurement were not clear. After explaining them in detail where there is the difference between those two variables, the interviewed experts agreed on our propositions. 5 Summary Our research study provides some insights regarding the different main characteristics of modern production systems. This supports companies when they are on the verge of considering only one factor individually without including its influence on the other production variables. The detected interdependencies were derived theoretically and intrinsically logical from a literature analysis. Finally, we performed an external validation of our interdependencies framework regarding the convergent validity of the indicators measuring the variables. Regarding our framework, we were able to validate the measurement of the variables through the indicators. Especially our theoretically derived latency of robustness has been confirmed. However, many indicators were assigned to performance additionally to the expected variables. Thus a connection between the other variables and performance as described in the path model is probable. Further research is necessary to complete the path model in which the intensity of the interrelations of the model is being assessed. Concluding, the interrelations of the variables complexity, flexibility, robustness, and stability as well as their influence on the performance of a production system were shown in a path model. This provides new insights on how these variables affects the others and the performance of the system. As a result companies can better plan changes in their production and are not surprised by unexpected negative outcomes due to the change of one variable and its relation to another. Further research should focus on the validation of the framework itself. This especially affects proof of the propositions we developed. This might be by some case studies or a Complexity and Robustness Influence on Production Performance 67 survey. Case studies could support or not support the propositions while a survey with a certain amount of participants could give the potential of generalization and as well highlight additional information such as trade-offs or the real relation of flexibility, stability and robustness. References [1] R. Kuivanen, “The future of manufacturing industry in Europe,” International Journal of Productivity and Performance Management, pp. 488–493, 57 (6) 2008. [2] H. Arndt, Supply Chain Management: Optimierung logistischer Prozesse, 4th ed., Wiesbaden: Gabler, 2008. [3] S. Samy and H. ElMaraghy, “Complexity mapping of the product and assembly system,” Assembly Automation, pp. 135–151, 32 (2) 2012. [4] S. Krumm and K. Schopf, “Komplexität beherrschen,” in VDI-Bericht 1905, Düsseldorf, VDI, 2005, pp. 45-51. [5] M. Govil and J.-M. Proth, Supply chain design and management: strategic and tactical perspectives, San Diego: Academic Press, 2002. [6] D. Ashmos, D. Duchon and R. McDaniel, “Organizational responses to complexity: the effect on,” Journal of Organizational Change Management, pp. 577-595, 13 6 2000. [7] Y. Mehrjerdi, “Excellent supply chain management,” Assembly Automation, pp. 52–60, (29) 1 2009. [8] N. Kuschinsky, Stabilisierung von Hersteller-Lieferantenbeziehungen als pfadabhängiger Organisa- tionsprozess, Frankfurt am Main: Peter Lang GmbH, 2008. [9] Y. Meepetchdee and N. Shah, “Logistical network design with robustness and complexity considerations,” International Journal of Physical Distribution & Logistics Management, pp. 201–222, 37 (3) 2007. [10] A. Shukla, V. A. Lalit and V. Venkatasubramanian, “Optimizing efficiency-robustness trade-offs in supply chain design under uncertainty due to disruptions,” Journal of Physical Distribution & Logistics Management, pp. 623–647, 41 (6) 2011. [11] M. Kleiner, Untersuchung zur Aktualisierung der Forschungsfelder für das Rahmenkonzept “Forschung für die Produktion von morgen", Dortmund, 2007. [12] K. Lorentzen, T. Maschek, R. Richter and J. Deuse, “Entwicklung einer Variabilitätstypologie,” Zeitschrift für wirtschaftlichen Fabrikbetrieb, pp. 214-218, 106 (4) 2011. [13] H. Wildemann, “Neue Montagekonzepte,” Zeitschrift für wirtschaftlichen Fabrikbetrieb, pp. 316-322, 105 (4) 2010. [14] Spörer, Uta (Fraunhofer IML & ThyssenKrupp), “Fraunhofer IML,” 2012. [Online]. Available: www.lfo.tu-dortmund.de. [Accessed 25 6 2012]. [15] M. Lindemann and N. Gronau, “Gestaltung marktorientierter Produktionssysteme,” Weiterentwicklung der Produktion, Specht, Ed., Heidelberg, Springer, 2009, pp. 43-60. in [16] R. K. Rajput, A textbook of manufacturing technology (manufacturing processes), New Dehli: Laxami, 2007. [17] M. Lehmann and H. Moog, Betriebswirtschaftliches Rechnungswesen, Berlin Heidelberg: Springer Verlag, 1996. [18] P. Stonebraker and J. Liao, “Supply chain integration: exploring product and environmental contingencies,” Supply Chain Management: An International Journal, pp. 34–43, 11 (1) 2006. 68 Regina Grussenmeyer, Thorsten Blecker [19] T. Blecker and N. Abdelkafi, “Complexity and variety in mass customization systems: analysis and recommendations,” Management Decision, pp. 908–929, 44 (7) 2006. [20] S. Schmidt, Die Diffusion komplexer Produkte und Systeme, Wiesbaden: Gabler Verlag, 2009. [21] W. Ip, S. Chan and C. Lam, “Modeling supply chain performance and stability,” Industrial Management & Data Systems, pp. 1332–1354, 111 (8) 2011. [22] Z. Ma, “Towards a unified definition for reliability, survivability and resilience,” Aerospace Conference, 2010 IEEE, pp. 1-12, 6-13 3 2010. [23] G. Müller and L. Friedrich, Stabilität und Zuverlässigkeit von Fertigungsprozessen, Berlin: VEB Verlag Technik, 1977. [24] C. Wolff, Stabilität und Flexibilität von Kooperationen, Wiesbaden: Deutscher Universitätsverlag, 2005. [25] R. Beach, A. Muhlemann, D. Price, A. Paterson and J. Sharp, “A review of manufacturing flexibility,” European Journal of Operational Research, pp. 41-57, 1 April 2000. [26] Y. P. Gupta and T. M. Somers, “The measurement of manufacturing flexibility,” European Journalof Operational Research, pp. 166-182, 1992. [27] H. Kitano, “Biological Robustness,” Nature Reviews – Genetics, pp. 826-837, 5 2004. [28] C. Caplice and Y. Sheffi, “A review and evaluation of logistics metrics,” The International Journal of Logistics, pp. 11-28, 5 (2) 1994. [29] T. Grünberg, “Performance improvement – towards a method for finding and prioritising potential performance improvement areas in manufacturing operations,” International Journal of Productivity and Performance Management, pp. 52–71, 2004. [30] L. Stark, R. Grussenmeyer, T. Blecker, S. Böhm and S. Wagner, “Linking production characteristics into a theoretical framework,” Hamburg International Conference on Logistics, 2012. [31] J. Rossiter, “The C-OAR-SE procedure for scale development in marketing,” International Journal of Research in Marketing, pp. 305–335, 2002. [32] C. Schendera, Datenmanagement und Datenanalyse mit dem SAS-System, München: Oldenbourg Wissenschaftsverlag GmbH, 2004. [33] G. J. Churchill, “A paradigm for developing better measures of marketing constructs,” Journal of Marketing Research, pp. 64–73, XVI (February) 1979. [34] J. Jacoby, “Consumer research: a state of the art review,” Journal of Marketing, pp. 87–96, 42 (April) 1978. [35] J. Nunally, Psychometric Theory, New York: Mc-Graw-Hill, 1967. [36] C. Lawshe, “A Quantitative Approach to Content Validity,” in Content Validity II, Bowling Green State University, 1975. [37] G. C. Moore and I. Benbasat, “Development of an Instrument to Measure the Perceptions of Adoptin an Information Technology Innovation,” Information Systems Research, pp. 192–222, 1991. [38] A. Marley and J. Louviere, “Some probabilistic models of best, worst, and best-worst choices,” Journal of Mathematical Psychology, pp. 464–480, 49 (6) 2005. [39] T. Coltman, T. Devinney and B. Keating, “Best-Worst scaling approach to predict customer choice for 3PL services,” Journal of Business Logistics, pp. 139–152, 32 (2) 2011. [40] S. Boon-itt and H. Paul, “A study of supply chain integration in Thai automotive industry,” Management Research News, pp. 194–205, 29 (4) 2006. [41] F. Davis, “Perceived usefulness, perceived ease of use, and user acceptance of information technology,” MIS Quarterly, pp. 319–340, 13 (3) 1989. Complexity and Robustness Influence on Production Performance 69 [42] X. Li, T. Goldsby and C. Holsapple, “Supply chain agility: scale development,” The International Journal of Logistics Management, pp. 408–424, 20 (3) 2009. [43] W. Perreault and L. Leigh, “Reliability of nominal data based on qualitative judgements,” Journal of Marketing Research, pp. 135–148, 1989. [44] F. Davis, R. Bagozzi and P. Warshaw, “User acceptance of computer technology: a comparison of two theoretical models,” Management Science, pp. 982–1003, 35 (8) 1989. Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt Sylke Heusinger von Waldegge 1 Einleitung Mit der zunehmenden Globalisierung zahlreicher Unternehmen mit weltweiten Tochterunternehmen oder Jointventures wird interkulturelles Verständnis immer wichtiger. In dem Maße, in dem sich Organisationen in globale Märkte aufstellen, werden auch Stellen von Personal- und Führungskräfte international besetzt. Aufgrund der nationalen Unterschiede hinsichtlich der Gesetzgebung und anderen volkswirtschaftlichen Rahmenbedingungen, der Sprache und der Kultur, werden zusätzliche Anforderungen an die Führungskräfte hinsichtlich Führungsform und des Führungsstils gestellt.1 Auf allen Ebenen des Unternehmens, beginnend von der Konzernspitze bis auf Arbeitsebene, gibt es mögliche interkulturelle Berührungspunkte. Insbesondere in der Interaktion mit Kunden und Lieferanten anderer kultureller Herkunft werden von den deutschen Führungskräften nicht mehr nur Fachkompetenzen, sondern auch soziale Kompetenzen und im speziellen interkulturelle Kompetenzen gefordert. Die verschiedenen Faktoren wie Religion, Zeitauffassung und Sprache in den Kulturbereichen beeinflussen die Unternehmens- und Verhandlungsführung. Ebenso wichtig sind für Mitarbeiter ausländischer Projekte bzw. Mitarbeiter in Auslandseinsätzen die Kenntnisse der politisch-administrativen Verhaltensmuster und Kontakte in die Politik des Gastlandes. Auch bei Entsendungen von Mitarbeitern ins Ausland werden diese kulturellen Unterschiede zu einer persönlichen Herausforderung für die entsendeten Mitarbeiter. Und die Zahl der Entsendungen steigt. Doch was verbirgt sich hinter dem Begriff interkulturelle Kompetenz? Und wie lässt sich interkulturelle Kompetenz verstehen? 2 Begriffserklärung von interkultureller Kompetenz Bei der interkulturellen Kompetenz steht die erfolgreiche Kommunikation zwischen verschiedenen Kulturen im Mittelpunkt der Betrachtung. Es geht um die Fähigkeit, sich an fremde Kulturen anzupassen und in ihr effektiv zu handeln. Ziel ist das gegenseitige besse1 Vgl. Scheffler, E.: Konzern Management: Betriebswirtschaftliche und rechtliche Grundlagen der Konzernführungspraxis, 2. Aufl., München 2005, S. 59. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_6, © Springer Fachmedien Wiesbaden 2013 72 Sylke Heusinger von Waldegge re Verstehen und besser verstanden werden und der Abbau von Vorurteilen. Mit Hilfe der interkulturellen Kompetenz können anhand von Merkmalen die Unterschiede zwischen der eigenen und der fremden Kultur erkannt und Handlungsstrategien abgeleitet werden.2 „Wichtig sind dabei die emotionale Kompetenz und die interkulturelle Sensibilität, die es uns erlauben, die Konzepte der Wahrnehmung, des Denkens, Fühlens und Handelns der Fremdkultur bei unserem Handeln zu berücksichtigen. Die eigenen Erfahrungen der interkulturell kompetenten Person werden in diesem Moment zurückgestellt und es besteht die Bereitschaft Stereotype und Vorurteile zu revidieren und Neues zu erlernen.“3 Die interkulturelle Kompetenz unterstützt einerseits eigene Ziele zu erreichen und andererseits befähigt sie, die Ziele des Gegenübers zu respektieren und die Umgangsformen einzuhalten, die dem Anderen wichtig sind. Es geht nicht allein um Toleranz, sondern um gegenseitiges Verständnis. 3 Beschreibung der Kulturstandards von Deutschland, der VR China und den USA Jede Kultur entwickelt eigene Standards für Denken, Handeln, Fühlen, Wahrnehmen und Werten. Sie prägen das Arbeits- und Kommunikationsverhalten ebenso wie Bekleidungsund Essgewohnheiten, zwischenmenschliche und familiäre Beziehungen, Sitten und Gebräuche.4 Um weitere kulturelle Unterschiede hervorzuheben, wird folgend das Konzept der Kulturstandards von Alexander Thomas5 vorgestellt. Es stammt aus dem Bereich der kulturvergleichenden und interkulturellen Psychologie. Diese Standards entstanden über Interviews mit Menschen, die über langjährige Erfahrung in der interkulturellen Interaktion und Kommunikation verfügen (überwiegend Fach- und Führungskräfte). Dabei wurden zentrale Allgemeingültigkeiten für Deutschland, der VR China und den USA identifiziert, die im folgenden Text erläutert werden.6 Der repräsentative Deutsche ist sach- und regelorientiert. Der Deutsche möchte schnell zum Kern des Problems vordringen, statt sich mit einer angenehmen Gesprächsatmosphäre aufzuhalten. Das ist ein gravierender Unterschied zu Kulturen, die viel Wert auf Small Talk legen. Smalltalk ist in vielen Ländern die Einleitung zum Verhandlungsgespräch. Einige Menschen reagieren ungeduldig und empfinden die entspannte Konversation als Zeitverschwendung. Dagegen ist in China, Japan, Indien und den arabischen Ländern ein Beziehungsaufbau durch die Konversation essenziell für Geschäftsverhandlungen. Weiterhin wird Deutschland als ein stark „verrechtlichtes“ Land gesehen. Das prägt auch die Kultur des Geschäftslebens. Schriftliche Verträge und Vereinbarungen werden bis auf Punkt und 2 Vgl. Weber u. a.: Internationales Personalmanagement, 2. Aufl., Wiesbaden 2001, S. 176ff. 3 Institut für Interkulturelle Kompetenz kompetenz.html (Abruf am 03.05.2013). 4 Vgl. Henze, J.: Kulturelle Sensibilisierung – Asia-Mix, Interkulturelles Training der Ceikom für die Schaeffler Gruppe, 27.09.2011. und Didaktik e.V. http://www.ikud.de/interkulturelle- 5 Vgl. Thomas, A.: Grundlagen der interkulturellen Psychologie, Nordhausen: Bautz 2005, S. 46f. 6 Vgl. ebenda, S. 46f. Vgl. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, Band 1: Grundlagen und Praxisfelder, Göttingen 2003, S. 25f. 73 Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt Komma eingehalten. Der Verstoß des Anderen dagegen führt zu starkem Vertrauensverlust. Andere Kulturen legen diese Regelorientierung aber auch als mangelnde Flexibilität aus. Für nahezu alle Deutschen ist der Zeitplan ein festes Korsett. Abweichungen sind nicht vorgesehen, da sie ein Zeichen für Unzuverlässigkeit sind. Gerade hier sind Konflikte und Missverständnisse absehbar, wenn der Geschäftspartner den Plan nur als grobe Richtlinie ansieht. Ein Drittel der Deutschen trennt Berufs- und Privatleben strikt und verbringt keine Freizeit mit den Arbeitskollegen. Zugleich sind Deutsche geprägt vom „schwachen Kontext“ als Kommunikationsstil. Die Betonung liegt eher auf dem „was“, als „wie“ gesprochen wird. Ebenso spricht der Deutsche gerne direkt Probleme an und erwartet, dass sein Gesprächspartner kritikfähig ist. Er agiert als Individualist und hat gelernt, auch mal gegen den Strom zu schwimmen. Wichtig sind ihm die eigene Meinung, die Selbständigkeit und die Betonung des Einzelmenschen unabhängig von der Gruppenzugehörigkeit.7 Tabelle 1: • • • • • • Deutsche, chinesische und US-amerikanische Kulturstandards nach A. Thomas Deutschland Sachorientierung Regelorientierung Zeitplanung Trennung von Persönlichkeits- und Lebensbereichen „schwacher Kontext“ als Kommunikationsstil Individualismus • • • • • • • VR China Danwei-System (Clanund Cliquenbeziehung) Hierarchieorientierung List und Taktik Soziale Harmonie Etikette Bürokratie Guanxi-System (Beziehungsnetzwerke) • • • • • • • • • USA Patriotismus Gleichheitsdenken Handlungsorientierung Leistungsorientierung Bedürfnis nach sozialer Anerkennung Interpersonale Distanzminimierung zwischengeschlechtlich e Beziehungsmuster Gelassenheit Individualismus Quelle: Vgl. Thomas, A.: Grundlagen der interkulturellen Psychologie, a. a. O., 2005, S. 46f. Der repräsentative Chinese ist durch das Danwei-System geprägt. Um China zu verstehen, ist es notwendig, die Danwei (Arbeitseinheit) als grundlegende Sozialstruktur der chinesischen Gesellschaft zu betrachten. Danweis bestehen seit der Gründung der Volksrepublik (VR) China und decken heute in der VR China den kompletten Lebensbereich der Bevölkerung ab. Auf dem Land kann Danwei die Dorfgemeinde sein. In der Stadt ist es die Fabrik oder die Universität. Sie dominiert nicht nur das Arbeits-, sondern auch das Privatleben, z. B. Wohnung, Freizeit, Kindergarten, Schule, Studium, Beruf, Entlohnung, Gesundheits- und Altersversorgung. Der chinesische Betrieb ist nicht mit dem westlichen Betriebstyp zu vergleichen, da er weitgehend soziale, administrative und politische Aufgaben zu erfüllen hat und aufgrund seines Danwei-Charakters eine der zentralen gesellschaftlichen Institutionen in China ist. Er ist eine ökonomisch und soziale ,,Einheit“, die neben seiner wirtschaftlichen Funktion auch für jedes Mitglied wie eine ,,große Familie“ funktio7 Vgl. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, a. a. O., 2003, S. 25ff. Vgl. http://www.qm-aktuell.com/page.asp?his=2833.2835.7975 (Abruf am 25.04.2013). 74 Sylke Heusinger von Waldegge niert. Fast alle wichtigen Entscheidungen werden von der Danwei getroffen und als Individuum verliert der Einzelne die Bedeutung. Neben dem Primat der Gemeinschaft gibt es eine Macht von Ritualen und Traditionen. Chinesen sind sehr hierarchiebewusst und halten sich streng an bestehende Strukturen. Während in Deutschland das Zusammenleben wesentlich durch bestehende Regeln organisiert wird, erfolgt dies in China durch hierarchische Strukturen. Jeder hält sich an die für seine Statusgruppe festgelegten Verhaltensregeln, Rechte und Pflichten und hinterfragt sie nicht. Die Akzeptanz einer Person erfolgt in China in erster Linie aufgrund ihrer Position und nicht so sehr aufgrund ihrer Kompetenz. Weiterhin wird dem Chinesen nachgesagt, List und Taktik anzuwenden, um den Gegner durch Einfallsreichtum zu überlisten. Das Hauptziel ist es aber nicht dem Gegner zu schaden, sondern kriegerische Auseinandersetzungen zu vermeiden. List und Taktik darf nicht als Hinterlistigkeit verstanden werden. Es zählt mehr die konfuzianische Ethik als der kurzfristige Vorteil. Die in China gelebte soziale Harmonie bedeutet nicht, dass alle Menschen in China gleich behandelt werden. Die soziale Harmonie bedeutet vielmehr die soziale Einbindung des Einzelnen in das gesellschaftliche Gefüge. Ebenso wird Harmonie über bestimmte Umgangsformen gewahrt, durch sogenannte Etikette. Bescheidenheit und Höflichkeit sind Umgangsformen, die konfliktreichen Situationen vorbeugen und das Gleichgewicht aufrecht erhalten sollen. Die Bürokratie in China ist für deutsche Geschäftsleute schwer zu verstehen. Es ist ein hierarchisch strukturiertes Machtgefüge mit dem sich daraus ergebenden Verhalten chinesischer Geschäftspartner. Das Guanxi-System ist allgegenwärtig. Guanxi steht für das Netzwerk persönlicher Beziehungen, von dessen Wirken in China kaum eine Entscheidung unbeeinflusst bleibt. Guanxi kann als ein endloser Zyklus von Gefälligkeiten betrachtet werden. Gegenseitige Gefälligkeiten sind der entscheidende Faktor zum Erhalt des Guanxi-Netzes. Die Ablehnung einer Gegenleistung wird als eine unverzeihliche Beleidigung angesehen. Je mehr von jemandem erbeten wird, desto mehr steht dieser bei dem Gönner in der Schuld. Das Beziehungsnetz wird unter Chinesen für Ausländer kaum bemerkbar eingesetzt. Beziehungen können daraus resultieren, dass zwei Personen im selben Dorf gewohnt oder an derselben Universität studiert haben.8 Der repräsentative Amerikaner ist patriotisch und stolz auf seine Nation. Europäer betrachten diesen Nationalstolz der Amerikaner skeptisch, da sie ihn oft für überzogen halten. Der Patriotismus ist im Kontext einer hauptsächlich aus Einwanderern bestehenden Gesellschaft zu verstehen. Dadurch unterscheidet er sich von entsprechenden Erscheinungen in europäischen Nationalstaaten. In diesem Zusammenhang erfüllt Patriotismus auch oder hauptsächlich die Funktion, Menschen aus unterschiedlichen, teilweise auch gegeneinander feindlich eingestellten Kulturkreisen, die Integration zu erleichtern. Amerikaner sind von der Idee der Chancengleichheit und der damit verbundenen Möglichkeit zu Aufstieg und Karriere überzeugt. Das betrifft sowohl das Geschlecht, als auch die Herkunft, das Alter oder die Hautfarbe. Die starke Handlungsorientierung der Amerikaner korreliert mit ihrer Leistungsorientierung. Handeln und aktiv zu sein ist in den amerikanischen Kulturstan8 Vgl. Henze, J.: Kulturelle Sensibilisierung – Asia-Mix, a. a. O. Vgl. http://www.chinaknigge.de/2008/10/hierarchieorientierung.html (Abruf am 04.04.2013); Vgl. Poerner, M.: Business Knigge China: Die Darstellung Chinas in interkultureller Ratgeberliteratur, Frankfurt am Main 2009, S. 42ff.; Vgl. http://www.computerwoche.de/a/erp-einfuehrung-in-china-zwischen-jinshui-undguanxi,1233412 (Abruf am 01.03.2012); Vgl. SinaLingua, Erfolg in China, Interkulturelles Training für die Schaeffler Gruppe, 4.10.2012. Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt 75 dards wichtiger, als alle Risiken abzuwägen. Effizienz und Effektivität haben den absoluten Vorrang und bestimmen auch die soziale Stellung. Ein Amerikaner hat ein starkes Bedürfnis nach sozialer Anerkennung und ist stets bemüht, ein „nice guy“ zu sein. Er will bei seinen Mitmenschen ankommen, möchte gut mit anderen auskommen und geschätzt werden. Die soziale Anerkennung ist für die Selbstachtung notwendig und muss durch die Gesellschaft ständig bestätigt werden. Amerikaner sind deshalb auf positive Reaktionen in Form von Komplimenten oder freundlichen Gesten angewiesen. Im US-amerikanischen Kontext haben Erstbegegnungen in der Regel eine Distanzminimierung zum Ziel. D. h. beim Zusammentreffen von Personen sollen durch spezifische beziehungsorientierte Verhaltensregeln die soziale und emotionale Distanz abgebaut werden. Respekt und Höflichkeit vor den Mitmenschen bei gleichzeitiger Lässigkeit im sprachlichen Umgang bestimmen sowohl das Freizeit- als auch das Berufsleben. Was die zentrale zwischengeschlechtliche Beziehung anbelangt, so gibt es selten Freundschaften zwischen Männern und Frauen. Durch ihre Gelassenheit sind Amerikaner häufig sehr viel offener für Veränderungen und können flexibler mit neuen Situationen umgehen. Bei aller Lockerheit im persönlichen Umgang werden Regeln der Höflichkeit, Zuverlässigkeit und Pünktlichkeit auch im Geschäftsleben gerne gewahrt. In China erscheint trotz der einsetzenden Verwestlichung unverständlich was an Individualismus insbesondere in den USA vorgelebt wird.9 4 Das Entstehen von kulturellen Überschneidungssituationen Die im vorhergehenden Kapitel beschriebenen Kulturstandards für Deutschland, China und die USA lassen vermuten, wie schwierig sich Verhandlungen zwischen den Menschen der verschiedenen Kulturen gestalten können. Ohne Kenntnis über die Verhaltensnormen anderer Länder können Verhandlungen ohne Absicht ergebnislos ausgehen. Beide Seiten handeln aus eigenkulturellen Verständnis heraus und befinden sich in der Interaktion in einer kulturellen Überschneidungssituation. In dieser Situation ist ein interkulturelles Verhalten erforderlich, damit beide Seiten zu ihrem Recht kommen. Sympathie und Interesse entsteht, wenn eine Ausgeglichenheit zwischen Fremden und Eigenem hergestellt wird und somit ein Austausch auf gleicher Augenhöhe ermöglicht wird. Dabei treten das Eigene und das Fremde in eine wechselseitige Beziehung miteinander und das Fremde gewinnt für das Eigene an Bedeutung. Dies kann in positiver als auch negativer Hinsicht stattfinden. Um kulturelle Überschneidungssituationen positiv zu gestalten und eine Ausgeglichenheit zwischen Fremdem und Eigenem herzustellen und somit einen Austausch zu ermöglichen, ist interkulturelle Handlungskompetenz gefordert.10 9 Vgl. Elder, St.: Interkulturelles Training USA der Culture Waves Intercultural Consulting and Training für die Schaeffler Gruppe, 04.07. 2011.Vgl. Slate, E., Schroll-Machl, S.: Beruflich in den USA, Trainingsprogramm für Manager, Fach- und Führungskräfte, Göttingen 2009, S. 41. 10 Vgl. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, a. a. O., 2003, S. 46f. 76 Sylke Heusinger von Waldegge Das Eigene Eigenkultur Abbildung 1: Das Fremde entstandenes Interkulturelle Fremdkultur Kulturelle Überschneidungssituation in Anlehnung an A. Thomas Quelle: Vgl. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, a. a. O., 2003, S. 46. Interkulturelle Handlungskompetenz ist eine Fähigkeit, die erlernt werden kann, wobei einige Fertigkeiten aber auch als allgemeine Kompetenzen angesehen werden können und sind nicht von Grund auf neu zu erlernen. Doch um welche Fertigkeiten geht es, wenn von interkultureller Kompetenz gesprochen wird? 5 Das Set an Fähigkeiten von interkultureller Kompetenz Interkulturelle Kompetenz wird als ein Spektrum von Wissen, Fähigkeiten und Fertigkeiten dargestellt, die die interkulturell kompetente Person dazu befähigen, in interkulturellen Überschneidungssituationen (wenn das Eigene und das Fremde in eine wechselseitige Beziehung miteinander treten) in einer effektiven und angemessenen Weise zu handeln. Mit dem Wissen um interkulturelle Kompetenz sind Menschen einerseits in der Lage, eigene Ziele zu erreichen (Effektivität), andererseits aber auch bereit bzw. fähig, die Ziele des Verhandlungspartners zu achten sowie Umgangsregeln zu befolgen, die dem Partner wichtig sind (Angemessenheit). Zu den Fähigkeiten von interkultureller Kompetenz zählen in Anlehnung an A. Thomas die folgend beschriebenen11: • Empathie Empathie ist die Fähigkeit, sich in die Gedanken, Gefühle und Bedürfnisse eines anderen Menschen einzufühlen und so deren Verhalten und Handlungen nachvollziehen zu können. • Ambiguitätstoleranz Im interkulturellen Lernen gibt es kein „richtig“ oder „falsch“, sondern immer eine Vielzahl möglicher Perspektiven, in denen sich kulturelle und individuelle Muster überlappen. Interkulturelle Kompetenz bedeutet auch, solche Ambiguitäten zu akzeptieren und auszuhalten. 11 Vgl. http://www.metrionconsulting.de/node/62 (Abruf am 01.03.2013); Vgl. Straub, J.: Lerntheoretische Grundlagen, in: Wiedemann, A.; Straub, J.; Nothnagel, S. (Hrsg.): Wie lehrt man interkulturelle Kompetenz? Theorien, Methoden und Praxis in der Hochschulausbildung, Bielefeld 2010, S.31-98, S. 31. 77 Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt • Perspektivenwechsel Perspektivenwechsel ist eine Technik bzw. Fähigkeit, bei der man sich in die Rolle und Position eines anderen hineinversetzt und versucht, die Welt (und sich selber) aus dessen Sicht zu sehen und damit das Denken und Verstehen des Anderen besser zu begreifen. Selbstreflexion Empathie (Angemessenheit, Feedback) (Beobachtung, Wahrnehmung) Kommunikation (Sprache, Körpersprache) Ambiguitätstoleranz (Stressmananagement, Konfliktbewältigung, Angstfreiheit) Offenheit (Toleranz, Flexibilität, Integrationsfähigkeit, Gemeinsamkeiten, Umgang mit Frust) Perspektivenwechsel (Strategien zum Umgang, Rollendistanz) länderspezifische Kenntnisse (Kulturstandards, Kulturprozesse, Kulturkonzepte) Transkulturelles Hintergrundwissen (Anerkennung, Wertschätzung) Abbildung 2: Fähigkeiten interkultureller Kompetenz Quelle: Eigene Darstellung • Offenheit Offenheit in interkulturellen Kontexten heißt, z. B. zu akzeptieren, dass Menschen unterschiedliche Werte, andere Maßstäbe und Empfindungen haben. Offenheit ist gleichzeitig auch ein wichtiger Bausteine für Kreativität und Erfindungsvermögen im Umgang kulturfremden Situationen. • Transkulturelles Hintergrundwissen Transkulturelles Hintergrundwissen ist die Kenntnis rund um die Kultur, deren verschiedene Weltanschauungen, Lebensbedingungen und soziokulturelle Konzepte. • Länderspezifische Kenntnisse In diesem Zusammenhang ist die interkulturelle Landeskunde zu verstehen. Dazu zählen länderspezifische Kenntnisse wie Begrüßungsrituale, Kommunikationsstile, Politik, Geschichte etc. • Kommunikation Kommunikation ist die wichtigste Form der sozialen Interaktion und von zentraler Bedeutung in interkulturellen Begegnungen. Die Kenntnis um kulturspezifische unterschiedliche Konventionen des Kommunizierens (insbesondere non- und paraberbal) und Kommunikationsstile vermindern das Risiko für Missverständnisse. „Unabhängig vom Grad der fremdsprachlichen Performanz sind für eine effektive interkulturelle Kommunikation ein hohes Maß an grundlegender kommunikativer Kompetenz, sozialer Aufgeschlossenheit, kommunikativer Beweglichkeit und Flexibilität sowie kommunikativer 78 Sylke Heusinger von Waldegge Variantenreichtum, Expressivität, eine ausgesprochene Sensibilität für Zwischentöne sowie die Fähigkeit und Bereitschaft zum Zuhören wesentliche Voraussetzungen“.12 • Selbstreflexion Selbstreflexion ist eine grundlegend menschliche Fähigkeit sich weiter zu entwickeln, das eigene Denken und Handeln situationsbezogen zu hinterfragen, auf den Prüfstein zu stellen, ein realistisches Selbstbild mit Stärken und Schwächen zu analysieren und auch alternative Handlungsoptionen zu durchdenken. 6 Die Methoden der Kulturvermittlung Empirische Untersuchungen belegen, dass interkulturelle Trainings die interkulturelle Kompetenz jedes Einzelnen fördert und somit für ein international tätiges Unternehmen generell einen wichtigen Erfolgsfaktor darstellen kann.13 Insbesondere vor einem Auslandsaufenthalt hilft ein interkulturelles Training, um eine Anpassung an die Gastlandkultur zu erreichen und ein Gefühl der Isolation zu vermeiden.14 Fähigkeiten und Eigenschaften, die einen Handelnden in die Lage versetzen, mit Angehörigen anderer Kulturen erfolgreich umzugehen, oder die sich doch zumindest als förderlich für Interaktionen mit Angehörigen anderer Kulturen erweisen, werden in interkulturellen Trainings gezielt angesprochen. Mit dem Training soll die interkulturelle Kompetenz international tätiger Mitarbeiter entwickelt werden, so dass sie den Verlauf der kulturellen Anpassung positiv beeinflussen kann.15 Beim Training informieren erfahrene Auslandsmanager oder idealerweise Personen aus dem Gastland aus erster Hand den Kursteilnehmer über die Situation und Probleme in der für sie fremden Umgebung bzw. Situation. Im Mittelpunkt steht dabei neben konkreten Empfehlungen und Leitlinien eine vorbereitende Kontaktaufnahme mit der Kultur des Gastlandes.16 Ziele der Schulung sind: - die Sensibilisierung, das Verhalten der anderen Kultur in Ursachen und Zusammenhängen wahrzunehmen. - Erfahrungen im Umgang mit der anderen Kultur zu beurteilen, einzuordnen und für sich positiv weiterzuverarbeiten. - Stärken des Verhaltens der anderen Kultur zu erkennen und für die eigene Arbeit einzusetzen.17 12 Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, a. a. O., 2003, S. 113f. 13 Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, München 2004, S. 875. 14 Vgl. Weber u.a. 2001: Internationales Personalmanagement, a. a. O., 2001, S. 176. 15 Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004, S. 871. 16 Vgl. ebenda, S. 873. 17 Vgl. Henze, J.: Kulturelle Sensibilisierung – Asia-Mix, a. a. O. 79 Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt Das Training sollte die kognitive, affektive und behaviorale Lernebene ansprechen, um einzelne Komponenten interkultureller Kompetenz zu fördern und herauszubilden. Wichtig ist auch, dass sich die einzelnen Bereiche interkultureller Kompetenz gegenseitig beeinflussen und wechselseitig bedingen. Insgesamt geht es bei dem Modell interkultureller Handlungskompetenz um ein theoretisches Modell, dessen Zielvorgaben und Idealzustände in der Fülle im Normalfall nicht vollkommen erfüllt werden können. Methoden der Kulturvermittlung werden in experimentelle Kulturvermittlung und in eine didaktische Kulturvermittlung unterschieden. Die experimentelle Kulturvermittlung setzt dabei auf Erfahrung, die während des Kurses selbst gewonnen wird (z. B. mit Hilfe von Selbsterfahrungstechniken, interkultureller Workshops, Simulationstrainings). Im interkulturellen Training haben neben den eher komplexen Methoden des experimentellen Lernens auch die klassischen didaktischen Instrumente und Methoden ihren Platz, wie z. B. Lektüre, Vorträge, Diskussionen, audiovisuelle Medien. Neben den zwei Vermittlungsformen werden zwei Dimensionen unterschieden, die spezifische Kulturvermittlung und die generelle Kulturvermittlung.18 Gerade der erfahrungsbezogene Ansatz weist dem Trainer eine zentrale Rolle als Kulturmittler und Mediator zu. Er sollte in der Lage sein, gruppendynamische Prozesse zu steuern, schwierige Situationen zu erkennen und zu beleuchten. Er muss, wie die Chinesen sagen, „den Ton auf der Hand spüren“. Fingerspitzengefühl benötigt der Trainer vor allem, wenn es darum geht, auch heftige Emotionen der Teilnehmer zu kanalisieren und für seine didaktischen Zwecke produktiv werden zu lassen. Tabelle 2: Methoden der Kulturvermittlung Experimentelle (erfahrungsbezogene) Kulturvermittlung Didaktische Kulturvermittlung • • • • • • • • Generelle Kulturvermittlung Interkultureller Workshop Selbsterfahrungstechniken Traditionelles HumanRelationship Training Generelle Kultursimulation Contrast American Simulation Albatros-Übung Traditionelle akademische Kurse Kulturelle Selbsterfahrung über Video Spezifische Kulturvermittlung • Bikulturelles RelationsTraining • Bikultureller Workshop • Verhaltensmusteransatz • Landeskunde und Sprachtraining • Kultur-Assimilator Quelle: Scholz, C.: Personalmanagement, a. a. O., 2000, S. 534. Mit zunehmender Integration und Interaktion mit der Gastlandkultur sowie längerer Aufenthaltsdauer steigen die zu empfehlende Intensität und Dauer des Trainings. Die Aufenthaltsdauer hängt von der Art des Einsatzes ab. Bei einer Dienstreise bleibt der Mitarbeiter kurzfristig im Ausland. Der Anstellungsvertrag im Inland bleibt bestehen und der Mitarbeiter ist nur einem kurzen Zeitraum der fremden Kultur ausgesetzt. Bei einer Abordnung 18 Vgl. Scholz, C.: Personalmanagement, 5. Aufl., München 2000, S. 534. 80 Sylke Heusinger von Waldegge kommt es zu einem Aufenthalt von wenigen Wochen bis zu ca. zwei Jahren mit einer besonderen Vereinbarung zwischen Arbeitgeber und Mitarbeiter. Dagegen ist die Entsendung mit etwa drei Jahren einer Versetzung gleichzusetzen, bei der der Mitarbeiter seine Tätigkeit nicht mehr unabhängig von lokalen Vorschriften und dort geltenden diziplinarischen Regelungen ausüben kann. I. d. R. hat der Mitarbeiter einen Rückkehranspruch. 19 Die Herausforderung in einer fremden Kultur für einen längeren Zeitraum zu leben und zu arbeiten ist sehr groß (z. B. neue Arbeitsaufgaben, Klima, Ernährung, Lebensrhytmus, Wohnsituation, Freizeitmöglichkeiten, Schule für Kinder, soziale Regeln). Nicht jeder Mitarbeiter kommt gleich mit den einhergehenden Veränderungen der Lebensituation im Gastland zurecht. Dennoch lernen beide Seiten, der entsandte Mitarbeiter und der Mitarbeiter der Organisation im Entsendungsland, voneinander. Für Entsendungen gibt es Anreize, die in der Entgeltgestaltung verhandelt werden. Um diese international möglichst einheitlich zu gestalten, werden ähnliche Postionen bzw. Stellen relativ ähnlich entlohnt. Dabei erhalten die Entsandten je nach Gastland und Entsendungsdauer eine Reihe von Zulagen, die der Kompensation entsendungsbedingter zusätzlicher Belastungen und finanzieller Nachteile dienen. Die Auslastungszulage ist in der folgenden Tabelle nach Ländern aufsteigend gruppiert. Länder mit einer geringen Erschwernis im Geschäfts- und Privatleben haben keine bzw. eine geringe Auslastungszulage. Für Länder mit der höchsten Erschwernis wird eine Auslastungszulage bis 40% des Grundgehaltes vorgeschlagen.20 19 Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004, S. 878f. 20 Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004, S. 888. 81 Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt Tabelle 3: Länderklassifikation zur Bestimmung von Auslandszulagen Kennzeichen der Ländergruppe A keine Erschwernis B geringste Erschwernis C geringste Erschwernis D geringste Erschwernis E geringe Erschwernis F mittelgroße Erschwernis G große Erschwernis H sehr hohe Erschwernis I höchste Erschwernis Auslastungszulage (in % des Grundgehalts) Länderbeispiele EU-Länder, USA Australien, Neuseeland, Singapur Südafrika 0 Chile, Türkei, Tunesien, Ungarn 10 Argentinien, Malaysia, Marokko, Slowenien Ägypten, Brasilien, Polen, Thailand GUS, Indien (Städte) Japan, Republik Kongo VR China (Städte), Kasachstan, Libyen, Saudi-Arabien Iran, Kolumbien, Nigeria, Uzbekistan VR China (Provinz), Bangladesch, Indien (Provinz), Mozambique 5 15 20 25 30 35 40 Quelle: Deutsche Gesellschaft für Personalführung 1995, S.77, zit. nach Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, München 2004, S. 889. 7 Das Phasenmodell kultureller Anpassung im Auslandseinsatz Für den einzelnen Mitarbeiter bedeutet eine Entsendung zunächst eine Anpassungsleistung an eine neue Kultur zu erbringen. In der wissenschaftlichen Literatur existiert eine Vielzahl von Phasenmodellen, die den Anpassungsverlauf von entsandten Mitarbeitern bei einem Auslandsaufenthalt beschreiben. Es ist nötig, dass sich der im Gastland tätige Mitarbeiter anpasst, da es ein wesentliches Ziel der effektiven Aufgabenerfüllung ist. In der Einsatzphase im Ausland werden i. d. R. unterschiedliche Phasen der kulturellen Anpassung durchlaufen. Der Prozess der Anpassung sieht bei den fast allen Menschen ähnlich aus und kann durch das Anpassungsphasenkonzept von Hofstede21, das auf die Arbeiten von Danckwortt zurückgeht, wie folgt beschrieben werden: - In der ersten Beobachtungsphase und Phase der Euphorie nimmt der Mitarbeiter nur das positiv Erwartete wahr. Diese Phase dauert die ersten Wochen des Auslandsaufenthaltes an. Die ersten Kontakte sind schnell geknüpft und organisatorische Dinge hat das Unternehmen übernommen. - Es folgt die Auseinandersetzungsphase, da für den Mitarbeiter die ersten Schwierigkeiten auftreten. Er erkennt die Normalitätsregeln der Zielkultur nicht und es kann zu 21 Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004, S. 882. Vgl. Hofstede, G.: Lokales Denken, globales Handeln, Interkulturelle Zusammenarbeit und globales Management, 2. Aufl., München 2001, S. 259. 82 Sylke Heusinger von Waldegge Missverständnissen kommen. Zum Beispiel verhalten sich Kollegen nicht wie erwartet. Es kommt zum sogenannten Kulturschock. Der entsandte Mitarbeiter muss sich hinsichtlich der Umgebung (Klima, anderes Essen) anpassen und er beginnt zum anderen seine Familie und den Freundeskreis in der fremden Stadt zu vermissen. Zunehmend werden an den Neuankömmling die gleichen Maßstäbe wie an die Mitarbeiter des Gastlandes gestellt. In dieser Phase ist die Abbruchwahrscheinlichkeit am größten. - Sobald der Mitarbeiter beginnt die Unterschiede zu akzeptieren und auszuhalten, beginnt die Akkulturation in der Verfestigungsphase. Die Sprachkenntnisse haben sich verbessert und die Ursachen der Missverständnisse werden nachvollziehbar. Der Mitarbeiter beginnt sich sukzessive an die fremde Kultur anzupassen, ohne eigene Werte aufzugeben. Der Mitarbeiter tendiert zur Übernahme fremdkulturspezifischer Verhaltensmerkmale. - Die letzte Phase, die Aufbruchphase, beginnt mit der Planung der Rückkehr ins Heimatland. Hier können starke emotionale Schwankungen auftreten, durch Verlustempfindungen der kennen- und zu schätzengelernten Kultur bis über die Unsicherheit über die private und berufliche Situation nach der Rückkehr. positiv …. Zeit negativ Phase Abbildung 3: 1 Euphorie 2 Kulturschock 3 Akkulturation 4 Rückkehr Verlauf der kulturellen Anpassung in Anlehnung an Hofstede Quelle: Vgl. Hofstede, G.: Lokales Denken, globales Handeln, Interkulturelle Zusammenarbeit und globales Management, a. a. O., 2001, S. 259. Diese Phasenbeschreibung zeigt die Wichtigkeit der Antizipation der Verunsicherung der eigenen Identität, die bei interkulturellen Kontakten zu erwarten ist.22 „Eine Antizipation dieser Konflikte bereits vor der Ausreise kann die Bedrohung des eigenen Wertesystems 22 Vgl. Erl, A.; Gymnich, M.: Interkulturelle Kompetenzen: Erfolgreich kommunizieren zwischen den Kulturen, Stuttgart 2010, S. 66. Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt 83 und der eigenen Identität als weniger verunsichernd wirken lassen und somit zu einer Verringerung des anfänglichen Kulturschocks führen.“23 Die Planung der Rückkehr des Mitarbeiters in das Heimatland beginnt in der Regel sechs Monate vor der Abreise. Die Reintegration in der Rückkehrphase ist nach einer Entsendung ebenso wichtig wie die Vorbereitung der Entsendung. Es gibt in vielen Firmen Mentoren, die über die gesamte Entsendungszeit bis einschließlich der Rückkehr den Mitarbeiter mit regelmäßigen Gesprächen betreuen. Die Rückkehrphase, die sog. Repatriierungsphase werden nach K. Hirsch24 in folgende verschiedene Phasen unterschieden: - Die erste Phase, der naiven Integration, ist geprägt von einer optimistischen und euphorischen Grundstimmung des Entsandten durch die Freude bald wieder zu Hause zu sein und Freunde und Familie zu treffen. - Nach ca. sechs Monaten nach der Rückkehr folgt der Re-Integrationsschock. Es treten wie in der Auseinandersetzungsphase des Anpassungsphasenkonzeptes Missverständnisse mit Kollegen oder allgemein im Alltag auf. Diese ersten Schwierigkeiten und Probleme sind nicht so leicht zu überwinden. Es fehlt dem Zurückgekehrten das Zugehörigkeitsgefühl und Unzufriedenheit und Enttäuschung nehmen zu. - Die zweite Phase scheint nach ca. zwölf Monaten überwunden, wenn der Rückkehrer die Realität akzeptiert und eine realistische Erwartungshaltung aufgebaut hat. In der nun dritten Phase der Integration passt sich dieser an seine ursprüngliche Umgebung und Situation wieder an und beginnt sich zu integrieren. Diese Phasenerläuterung zeigt, dass der Erfolg und der Misserfolg einer Entsendung stark von den Erwartungen des Entsendeten abhängen kann. Ebenso nehmen die Erwartungen des Unternehmens eine bedeutende Rolle ein. Mentorenprogramme helfen beim richtigen Umgang mit den Erwartungshaltungen.25 Ebenso helfen Austauschforen, Internetplattformen mit Erfahrungsberichten von Entsandten, interkulturelle Trainings und Sprachtrainings für die gesamte Familie in der Zeit. 8 Schlussfolgerung Die Auslandsentsendung ist eine Maßnahme der Personalentwicklung und die Investition in einen Mitarbeiter ist dabei erheblich. Die hohen Kosten entstehen auf Grund von Anreizsystemen wie Gehalt, Wohnungszuschüsse, Dienstwagen, Flugkosten für Heimaturlaub, spezielle Krankenversicherungen mit Option von Operationen in Deutschland, Schul- 23 Hoppe, A.: So war ich nicht, so bin ich nicht! Vom Einfluss des kulturellen Umfelds auf die eigene Identität, in: Kumbier, D.; Schulz von Thun, F. (Hrsg.): Interkulturelle Kommunikation: Methoden, Modelle, Beispiele, Reinbek bei Hamburg 2006, S. 170-186, S. 185. 24 Vgl. Hirsch, K.: Reintegration von Auslandsmitarbeitern, in: Bergemann, N.; Sourisseaux, A.L.J. (Hrsg.): Interkulturelles Management, 2. Aufl., Heidelberg 1996, S.285-298, S. 291f. 25 Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, , a. a. O., 2004, S. 883. 84 Sylke Heusinger von Waldegge gebühren für die Kinder.26 Kennzeichnende Probleme bei Entsendungen sind hohe Abbruchquoten und „das Absitzen der Zeit“. Schätzungsweise liegen die Kosten pro Abbruch drei- bis viermal so hoch wie das Jahresgehalt des entsandten Mitarbeiters. 27 Daher spielt nicht nur in der Personalentwicklung, sondern auch in der Personalauswahl die interkulturelle Kompetenz der Bewerber zunehmend eine wichtige Rolle. Die interkulturelle Kompetenz hat daher ihre besondere Rolle in der Geschäftswelt gefunden. Sie wird immer mehr zu einer Schlüsselqualifikation für Manager und Mitarbeiter, die unabhängig von einer spezifischen Ausbildung in vielen Berufen gefordert sind. Literatur Elder, St.: Interkulturelles Training USA der Culture Waves Intercultural Consulting and Training für die Schaeffler Gruppe, 04.07. 2011. Erl, A., Gymnich, M.: Interkulturelle Kompetenzen: Erfolgreich kommunizieren zwischen den Kulturen, Stuttgart 2010. Henze, J.: Kulturelle Sensibilisierung – Asia-Mix, Interkulturelles Training der Ceikom für die Schaeffler Gruppe, 27.09.2011. Hirsch, K.: Reintegration von Auslandsmitarbeitern, in: Bergemann, N.; Sourisseaux, A.L.J. (Hrsg.): Interkulturelles Management, 2. Aufl., Heidelberg 1996, S.285–298. Hofstede, G.: Lokales Denken, globales Handeln, Interkulturelle Zusammenarbeit und globales Management, 2. Aufl., München 2001. Hoppe, A.: So war ich nicht, so bin ich nicht! Vom Einfluss des kulturellen Umfelds auf die eigene Identität, in: Kumbier, D.; Schulz von Thun, F. (Hrsg.): Interkulturelle Kommunikation: Methoden, Modelle, Beispiele, Reinbek bei Hamburg 2006, S. 170–186. http://www.qm-aktuell.com/page.asp?his=2833.2835.7975 (Abruf am 25.04.2013). http://www.china-knigge.de/2008/10/hierarchieorientierung.html (Abruf am 04.04.2013). http://www.computerwoche.de/a/erp-einfuehrung-in-china-zwischen-jinshui-und-guanxi,1233412 (Abruf am 01.03.2012). http://www.metrionconsulting.de/node/62 (Abruf am 01.03.2013). Institut für Interkulturelle Kompetenz und Didaktik e.V. http://www.ikud.de/interkulturelle-kompetenz.html (Abruf am 03.05.2013). Poerner, M.: Business Knigge China: Die Darstellung Chinas in interkultureller Ratgeberliteratur, Frankfurt am Main 2009. Scheffler, E.: Konzern Management: Betriebswirtschaftliche und rechtliche Grundlagen der Konzernführungspraxis, 2. Aufl., München 2005. Scholz, C.: Personalmanagement, 5. Aufl., München 2000. SinaLingua, Erfolg in China, Interkulturelles Training für die Schaeffler Gruppe, 4.10.2012. 26 Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004, S. 880. 27 Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004, S. 882. Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt 85 Slate, E., Schroll-Machl, S.: Beruflich in den USA, Trainingsprogramm für Manager, Fach- und Führungskräfte, Göttingen 2009. Straub, J.: Lerntheoretische Grundlagen, in: Wiedemann, A.; Straub, J.; Nothnagel, S. (Hrsg.): Wie lehrt man interkulturelle Kompetenz? Theorien, Methoden und Praxis in der Hochschulausbildung , Bielefeld 2010, S. 31–98. Thomas, A.: Grundlagen der interkulturellen Psychologie, Nordhausen: Bautz 2005. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, Band 1: Grundlagen und Praxisfelder, Göttingen 2003. Weber u.a. 2001: Internationales Personalmanagement, 2. Aufl., Wiesbaden 2001. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, München 2004. Industrielles Beschaffungsmanagement im Spannungsfeld zwischen Herausforderung und Relevanz1 Frank Himpel Themenöffnung und Vorbemerkung Bereits im Römischen Reich vor rund 2000 Jahren waren Fragen der Beschaffung und der Beschaffungslogistik virulent. Die in Mogontiacum stationierten römischen Legionen verfügten über ein ausgeklügeltes Supply Chain Management, denn die Waren der damaligen Zeit, die im Römischen Reich überhaupt verfügbar waren, konnten grundsätzlich auch in Mogontiacum zur Verfügung gestellt werden. Auch die betriebswirtschaftliche Forschung greift Fragen der Beschaffung seit ihren Anfängen auf. So haben zum Beispiel Schär (1911), Nicklisch (1912), Gutenberg (1928) und Weber (1931) Sichten der Betriebswirtschaft konzeptualisiert, die sich in ihrem Kern auch in heutigen Beschaffungskonzepten wiederfinden. Dazu gehört bspw. die Interpretation der Beschaffungsabteilung als Koordinationszentrum für Wertschöpfung bis hin zur Interpretation der Beschaffungsfunktion als „taktgebendes“ Informationszentrum im Supply Chain Management. Ausgangssituation für das industrielle Beschaffungsmanagement Die Beschaffung ist für industrielle Leistungsanbieter in den vergangenen 10 bis 15 Jahren zu einem strategischen Gegenstandsbereich geworden. Zunächst fokussiert auf das Begriffskonzept der Strategie (altgriechisch von „strataegeo“), lässt sich strategische Orientierung in ihrem Grundsatz wie folgt interpretieren: „Das eigene Denken und Handeln an übergeordneten Zielen ausrichten und sich dabei nicht durch vordergründige Dringlichkeiten, d.h. Augenblicksvorteile und -nachteile ablenken lassen.“ 2 1 Dieser Beitrag basiert in modifizierter Form auf dem Manuskript zu einem Vortrag, den der Autor an der Johannes Gutenberg-Universität Mainz gehalten hat. Für inhaltliche Impulse und Anregungen dankt der Autor herzlich dem Jubilar Klaus Bellmann. Gleichsam dankt der Autor auch den Herren Univ.-Prof. Dr. Klaus Breuer sowie Univ.-Prof. (em.) Dr. Herbert Kargl für wertvolle Hinweise, die über den Kontext des hier angesprochenen Vortrags hinausgehen. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_7, © Springer Fachmedien Wiesbaden 2013 88 Frank Himpel In dieser Sicht rücken also Fragen der Orientierung an Ursache-Wirkungs-(Ursache-) Beziehungen in den Mittelpunkt der Betrachtung. Gestaltungsfragen zum industriellen Beschaffungsmanagement weisen i.d.S. zunehmend strategischen Charakter auf. Hierfür können mehrere Ursachen angeführt werden, von denen hier nur vier typologisiert werden: Der Anteil des Beschaffungsvolumens am Umsatz von Industrieunternehmen steigt seit rund 20 Jahren kontinuierlich und beträgt in einzelnen Branchen inzwischen durchaus rund 90%. Der Internationalisierungsgrad der Beschaffung von Industrieunternehmen steigt seit 20 Jahren kontinuierlich und beträgt vereinzelt inzwischen durchaus auch rund 90%. Die Kontraktion von Entwicklungszyklen für neue Produkte bindet die Kompetenzen von Lieferanten viel früher als bis vor wenigen Jahren noch üblich in industrielle Entwicklungsprozesse ein, weshalb die Schnittstelle Beschaffung-Entwicklung besonders bedeutsam wird (dieses nicht zuletzt auch im Kontext der Schärfung von eigenen (Kern-)Kompetenzen). Die auf saturierten Käufermärkten vorherrschende Volatilität in der Kundennachfrage schlägt sich deshalb von der Absatzseite aus kommend u.a. nieder in zeitlich instabileren Hersteller-Lieferanten-Beziehungen, weshalb Fragen des strategischen Aufbaus von (potentiellen) Lieferanten und des Aufbaus einer geeigneten „Lieferantenbasis“ erfolgskritisch werden; traditionelle Hersteller-Lieferanten-Relationen werden dadurch mitunter destabilisiert. Vor diesem Hintergrund stellen sich mehrere Herausforderungen an das industrielle Beschaffungsmanagement. Zunächst fokussiert auf das Begriffskonzept der Beschaffung, lässt sich Beschaffungsmanagement wie folgt interpretieren: „Beschaffung umfasst alle Prozesse zur Versorgung des Unternehmens mit (…) Material, Dienstleistungen, Rechten sowie Maschinen und Anlagen aus unternehmensexternen Quellen (…). Beschaffungsmanagement beinhaltet die entsprechenden Planungs-, Steuerungs- und Kontrollprozesse.“ 3 Strategische Herausforderungen an die Beschaffung Vor dem Hintergrund der Hauptzielsetzung des industriellen Beschaffungsmanagements, nämlich der langfristigen Sicherstellung der Faktorversorgung des Unternehmens mit sämtlichen für die Produktion erforderlichen Einsatzfaktoren (Ausnahme: Kapital und Personal), emergieren zahlreiche (Gestaltungs-)Probleme, mit denen das industrielle Beschaffungsmanagement aus Sicht eines abnehmenden industriellen Leistungsanbieters gegenwärtig konfrontiert ist. In einer Typologie lassen sich drei Hauptproblemfelder herausschälen: Gestaltung des (interorganisationalen) Schnittstellenportfolios, Gestaltung des (Markt-) Kontaktflächenportfolios und Gestaltung des (Kern-)Kompetenzportfolios. Strategisches Beschaffungsmanagement als Gestaltung des Schnittstellenportfolios: Primär sind interorganisationale Schnittstellen geeignet auf die strategischen Herausforderungen auszurichten, und zwar sowohl in klassisch-vertikaler Richtung (i.e. HerstellerLieferant), als auch in horizontaler Richtung (i.e. Hersteller-Hersteller). Innovative Formen 2 Wüthrich, H.: Neuland des strategischen Denkens, zugl.: St. Gallen, Univ., Ha-bil.-Schr., Wiesbaden 1991, S. 15. 3 Kaufmann, L.: Internationales Beschaffungsmanagement, zugl.: Gießen, Univ., Habil.-Schr., Wiesbaden 2011, S. 39 f. Industrielles Beschaffungsmanagement im Spannungsfeld zwischen Herausforderung und Relevanz 89 der interorganisationalen Kooperation diffundieren gleichsam in dieses Gestaltungsfeld, so bspw. Betreibermodelle. Strategisches Beschaffungsmanagement als Gestaltung des (Markt-) Kontaktflächenportfolios: Aus der Sicht eines Leistungen abnehmenden Herstellers wird seine Transparenz über die 2nd-tier-Lieferantenbasis der (System-)Lieferanten zunehmend geringer, weshalb sein innerter „Durchgriff“ auf die Lieferantenbasis vglw. geringer und quasi-simultan seine Abhängigkeit vom (System-)Lieferanten vglw. stärker wird. Hersteller stärken in dieser Sicht primär neben ihrem Lieferantenmanagement ihr Markenmanagement, da die Bindung des Herstellers an die Absatzmärkte existentielle Bedeutung hat. Andernfalls könnten (System-)Lieferanten an den Herstellern vorbei auf dessen Absatzmärkte vordringen (z.B. Automobilproduktion ohne Marke). Strategisches Beschaffungsmanagement als Gestaltung des (Kern-) Kompetenzportfolios: Die Hervorbringung von Produkten für saturierte Käufermärkte im weltweiten Maßstab erfordert aufgrund der Vielschichtigkeit der Bedarfe und der Volatilität in der Marktnachfrage u.a. die Fokussierung auf Kernkompetenzen und die Auslagerung von Nicht-(Kern-) Kompetenzen auf entsprechende Lieferanten, die i.S.v. Wertschöpfungspartnern gemeinschaftlich die Wertschöpfungsleistung erbringen. Dabei ist die Definition von Kernkompetenzen für industrielle Leistungsanbieter keinesfalls trivial und oftmals nur in Abstimmung mit (System-)Lieferanten zu vollziehen. In der Folge werden Werke eines Herstellers genauso behandelt wie die Produktionsstätten von Lieferanten (insbesondere mit Blick auf Kapitalallokation, Kapazitätsallokation und Faktorausstattung der Infrastruktur). Dieses vollzieht sich regelmäßig im Übergang von der strategischen auf die taktische (Entscheidungs-)Ebene; die Gestaltung des Kapazitätsportfolios ist also nicht mehr als rein strategische Aufgabe zu interpretieren, weshalb z.B. auch Standort(verlagerungs-)fragen zu taktischen Herausforderungen werden. Lösungszugänge zur Adressierung der Herausforderungen Die Gestaltung der Schnittstellen-, (Markt-)Macht- und (Kern-)Kompetenzportfolios kann das strategische industrielle Beschaffungsmanagement vollziehen über Maßnahmen, die primär die Koordinationsleistung betreffen. In seinem Kern dreht es sich hierbei um die Konzeptualisierung von Maßnahmen, welche die Orchestration von Wertschöpfung für Absatzmärkte unter Einbindung einer Mehrzahl von Akteuren auf vertikalen und horizontalen Wertschöpfungsstufen geeignet organisieren. Hierfür lassen sich aus Sicht von industriellen Leistungsanbietern mehrere Alternativen ableiten, um die Zusammenarbeit mit Lieferanten im vorbeschriebenen Sinn zu beeinflussen. In einer Typologie lassen sich drei hauptsächliche Lösungszugänge konzeptualisieren: Einkaufskooperation bzw. Beschaffungsnetzwerk, Outsourcing und Akquisition. Kooperation auf horizontaler (Hersteller-)Ebene in entsprechenden Einkaufskooperationen bzw. Beschaffungsnetzwerken (begrifflich auch: hybrides Strukturdesign): Horizontale Kooperationen dieser Art bieten neben primär operativ anschlagenden ökonomischen Performanzeffekten (z.B. Kostenvorteile durch konsolidierte Beschaffung) auch das Poten- 90 Frank Himpel tial, Schnittstellen der Abnehmer in Entsprechung von beschaffungs- und absatzmarktseitigen Herausforderungen verbessert zu gestalten und strategisch zu durchmustern.4 Outsourcing der Beschaffungsfunktion auf externe Dienstleister (begrifflich auch: marktliches Strukturdesign): Analog des Outsourcing im IT-Bereich werden primär operative Beschaffungstätigkeiten an externe Dienstleister ausgelagert, die z.T. auch strategischtaktische Aufgaben sukzessive übernehmen können.5 Auf Seiten des Herstellers verbleibt lediglich ein „Kernbereich“, der die strategische, grundsätzliche Ausrichtung und Koordination der Outsourcing-Partner koordiniert. Akquisition auf horizontaler (Hersteller-)Ebene durch Zusammenlegung und Integration der Beschaffungsfunktion in gemeinsamen Beschaffungsbereichen (begrifflich auch: hierarchisches Strukturdesign): Während Einkaufskooperationen bzw. Beschaffungsnetzwerke Lösungszugänge zur Koordination von Beschaffungstätigkeiten darstellen, die nicht durch auf Dauer angelegte Integration in die Unternehmenshierarchie vollzogen werden sollen, hebt die Akquisitionslösung explizit auf diesen Integrationsaspekt ab. Wenngleich Synergien durch Akquisition beim Zusammengehen von industriellen Leistungsanbietern nicht primär durch Beschaffungsüberlegungen motiviert sind, sondern z.B. aufgrund von absatzmarktbezogenen Überlegungen, die eine verbesserte Kapitalamortisation mit sich bringen, spielen entsprechende Effekte aus dem Beschaffungsbereich in der Plausibilisierung von Akquisitionsplanungen durchaus eine große Rolle. Relativierung der Lösungszugänge in kritisch-reflektivem Diskurs Um die drei skizzierten Lösungszugänge mit Blick auf ihre Eignung zu relativieren, also ausdrücklich nicht umfassend zu bewerten, lassen sich mehrere Kriterien anführen. Diese orientieren sich idealerweise daran, inwieweit es gelingt, die aktuellen Probleme bzw. strategischen Herausforderungen verbessert in den Griff zu bekommen. Insofern spannt sich also gedanklich eine Matrix auf, in der die Eignung der drei skizzierten Lösungszugänge jeweils bezogen wird auf Fragen der Gestaltung von (interorganisationalen) Schnittstellen-, (Markt-)Kontaktflächen- und (Kern-)Kompetenzportfolios. Im Grundsatz lassen sich nur Vor- und Nachteile der skizzierten Lösungszugänge abschätzen und, in unterschiedlicher Form bewertet, in grobe Eignungskategorien typisieren. Entscheidend im weiteren Fortgang ist, dass eine Entscheidung für oder gegen eine der Lösungszugänge nach kritisch-reflektiven Abwägungen zu treffen ist. Letztlich erscheint die strategische Positionierung eines industriellen Leistungsanbieters und seine Auswahl der hier skizzierten Lösungszugänge als unternehmensindividuelles Abwägungsfeld, bei dem unternehmensspezifische Chancen-/Risikoprofile zu realisieren 4 Das Begriffsverständnis von „optimieren“ rekurriert i.d.S. darauf, dass die Grenzen bestehender Systeme akzeptiert werden, wohingegen „gestalten“ durchaus auf das Denken in grundsätzlicher Neujustierung der Interaktionsrelationierungen gerichtet sein kann. 5 Im realpraxeologischen Sinnzusammenhang siehe bspw. das Konzept „Sourcing of the Future“ der USamerikanischen Unternehmensberatung A.T. Kearney oder das ehemalige Konzept von „Hoechst Procurement International“. Industrielles Beschaffungsmanagement im Spannungsfeld zwischen Herausforderung und Relevanz 91 sind. Hier erscheint es unzweckmäßig, generische, immer gültige, normativ-deklaratorische Setzungen formulieren zu wollen. Wettbewerbsrechtliche, -theoretische und -politische Aspekte sind im Einzelfall darüber hinaus, neben der rein ökonomischen Sicht auf die Plausibilität, einer Entscheidung für oder gegen einen der Lösungszugänge mit in die Abwägungsentscheidung einzubeziehen. Die konkrete Orchestrierungsform ist abhängig vom Aggregationsniveau der Analyse, also bspw. auch von den Beschaffungsobjektkategorien. In der konkreten Anwendung wirken zudem auch „weiche“ Verhaltensantezedenzen, die in die sachrationale Analyselogik diffundieren und mitunter auch mit dieser interferieren können. Pointierter Exkurs als Zusammenfassung Die vorgestellten Lösungszugänge zur Adressierung der strategischen Herausforderungen an ein modernes industrielles Beschaffungsmanagement sind ihrem Wesen nach nicht grundständig neu. In Bezug auf die Metapher zum Römischen Reich zu Beginn der Überlegungen lässt sich – pointiert und mit einem Augenzwinkern formuliert – nämlich analysieren, dass auch Legionen des Römischen Reichs ihre Beschaffungsbedarfe gepoolt und im Rahmen von Handelsbeziehungen mit Germanen in der Provinz Germania Superior konsolidiert haben (analog der Vorstellung von Einkaufskooperationen), dass die an den Außengrenzen des Römischen Reichs sesshaften Gallier ihre Beschaffungsbedarfe an Wildschweinen auf den für die Wildschweinjagd aufgrund von entsprechender „Kompetenzausstattung“ besonders prädestinierten Obelix ausgelagert haben (analog der Vorstellung vom Outsourcing), und dass deshalb vielleicht auch der „Wunsch“ der Römer um Julius Cäsar nach „Akquisition“ des gallischen Dorfes zur dauerhaften Sicherung der Kompetenzausstattung zur Wildschweinjagd mithin besonders stark ausgeprägt war (analog der Vorstellung von der Akquisition). Literatur Kaufmann, L.: Internationales Beschaffungsmanagement, zugl.: Gießen, Univ., Habil.Schr., Wiesbaden 2011. Wüthrich, H.: Neuland des strategischen Denkens, zugl.: St. Gallen, Univ., Habil.-Schr., Wiesbaden 1991. Der Wert der Werte Überlegungen im Ausgang von Goethes „Werther“ Jochen Hörisch 1 Werther Goethe kannte sich in ökonomisch-finanziellen Sphären glänzend aus. Kein Wunder: war er doch Sohn eines reichen Kaufmanns, der gut von den Zinsen seines Vermögens leben konnte, überdies bemerkenswert aufmerksamer Leser der nationalökonomischen Fachliteratur seiner Zeit (Adam Smith voran!) und nicht zuletzt langjähriger Finanzminister, der die Steuerprivilegien des Adels stark eingeschränkt und damit den Haushalt des kleinen, aber feinen Landes Sachsen-Weimar saniert hatte. Zu seiner hohen volkswirtschaftlichen Fachkompetenz trug aber vor allem auch der Umstand bei, dass er nicht „nur“ Finanz-, sondern auch Kultusminister war – und der beste Schriftsteller (nicht nur!) seiner Epoche sowieso. Deshalb ist es nicht erstaunlich, dass Goethes Werke fast durchweg von der Begegnung kultureller, ästhetischer und ethischer Werte einerseits mit ökonomischen Werten andererseits handeln. Das gilt auch von seinem 1795 erschienenen Bildungsroman Wilhelm Meisters Lehrjahre. Darin findet sich eine Szene, in der Wilhelm, der theatralisch Schweifende, einen Brief seines Jugendfreundes und jetzigen Schwagers Werner erhält, der wie er selbst und wie sein Autor Sohn eines reichen Kaufmanns ist und ihn an ihr altes Projekt erinnert, gemeinsam einträgliche Geschäfte voranzutreiben. Konkret schlägt Werner vor, Wilhelm solle ein abgewirtschaftetes und deshalb preiswert zu erwerbendes Gut verwalten, es in Stand setzen und dann mit Gewinn verkaufen. In dem Brief heißt es: „Wir rechnen auf Dich, daß Du dahin ziehst, den Verbesserungen vorstehst, und so kann, um nicht zu viel zu sagen, das Gut in einigen Jahren um ein Drittel an Wert steigen; man verkauft es wieder, sucht ein größeres, verbessert und handelt wieder, und dazu bist Du der Mann. (…).“ Wilhelm könnte durchaus der Mann für solche Geschäfte sein. Immerhin managt er einigermaßen erfolgreich eine ganze Theaterkompanie. Dennoch ist er von Werners Vorschlag nicht angetan: „So gut dieser Brief geschrieben war, und so viel ökonomische Weisheit er enthalten mochte, mißfiel er doch Wilhelmen auf mehr als eine Weise. Das Lob, das er über seine fingierten statistischen, technologischen und ruralischen Kenntnisse erhielt, war ihm ein stiller Vorwurf, und das Ideal, das ihm sein Schwager vom Glück des bürgerlichen Lebens vorzeichnete, reizte ihn keineswegs; vielmehr ward er durch einen heimlichen Geist des Widerspruchs mit Heftigkeit auf die entgegengesetzte Seite getrieben“ (Goethe 1981, S. 288f.). Das heißt pointiert ausgedrückt: Der Wertbegriff ist nicht homogen, sondern nur W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_8, © Springer Fachmedien Wiesbaden 2013 94 Jochen Hörisch homophon; kennt er doch „entgegengesetzte Seiten“. Die „ökonomische Weisheit“, die in diesem Fall darin besteht, zukünftige Gewinnchancen auf dem Immobilienmarkt präzise einzuschätzen, ist mit den weisen Einsichten, die Wilhelm im Prozess seiner theatralischen Sendung zu erlangen hofft, nicht in Übereinstimmung zu bringen. Denn Wilhelm stellt eine Wertfrage, die man heute als Frage nach der Work-Life-Balance charakterisieren würde: Wie viel Wert lege ich auf ökonomisch-finanzielle Werte? Vertragen sie sich mit ästhetisch-ethischen Werten? An welchen Werten muss ich mich orientieren, wenn mein Leben lebens- und liebenswert sein soll? Worauf muss ich verzichten, wenn ich nicht auf Reichtum verzichten will? Mit einem Wort: Wilhelm stellt die Wertfrage, nämlich die Frage nach dem Wert von Werten. Damit erweist er sich als würdiger, wenn auch weniger leidenschaftlicher Nachfolge Werthers, der durch den Nachdruck, mit dem er Wertfragen stellt, seinem Namen alle Ehre macht (Gutbrodt 1995, S. 579–630). Angeführt seien nur einige der Passagen, die deutlich machen, dass Werther einen sprechenden Namen hat. Als der junge Karrierejurist Lotte begegnet, begrüßt sie ihn mit der Anrede ‚Vetter‘. Und Werther antwortet: „‚Vetter?‘ sagte ich, indem ich ihr die Hand reichte, ‚glauben Sie, daß ich des Glücks wert sei, mit Ihnen verwandt zu sein?‘“ (22)1 Lotte, von der Werther sagt, dass sie ihm „in so wenig Augenblicken so wert geworden war“ (26) wie nichts anderes auf dieser Welt, sorgt durch ihre schiere Gegenwart für rasante semantisch-emotionale Wertsteigerungen auch der Orte, an denen sie zusammen mit Werther geweilt hat. „Nach einem Wege von anderthalb Stunden kamen wir gegen die Stadt zurück, an den Brunnen, der mir so wert und nun tausendmal werter ist.“ (35) Dass es sich hier um Werte jenseits der profanen Ökonomie handelt, versteht sich von selbst. Zu den reizvollen Implikationen der Liebes-Wert-Logik gehört es, dass der Liebende, der die Geliebte zum absoluten Wert (v)erklärt, seinerseits eine Wertsteigerung erfährt, sich werter als je zuvor fühlt, wenn er zurückgeliebt wird: „Und wie wert ich mir selbst werde, wie ich – dir darf ich's wohl sagen, du hast Sinn für so etwas – wie ich mich selbst anbete, seitdem sie mich liebt!“ (38) Nun ist die Wertlogik der Liebe (und der Selbstliebe!) aber nicht schlicht die Alternative zur ökonomischen Wertlogik. Die „entgegengesetzten Seiten“ des Wertbegriffs haben mehr miteinander gemein, als es zuerst den Anschein hat. Auch in Liebesdingen gilt, dass nur das Knappe wertvoll ist. Und Lotte ist ein knappes Liebesgut, ist sie doch schon einem Mann versprochen, der da Albert heißt und dessen Namen mit dem seines verspäteten Konkurrenten die Buchstaben „ert“ teilt, die auf Wert verweisen. Lotte wirft auf die irritierende Verwandtschaft der ökonomischen wie der erotischen Wertlogik einen nüchternen Blick, wenn sie sich selbst ausdrücklich als „Besitz“ und „Eigentum eines andern“ bezeichnet und dabei gar sich selbst versachlicht, von sich als „das“ und nicht als „die“ sprechend. „‚Warum denn mich, Werther? just mich, das Eigentum eines andern? just das? Ich fürchte, ich fürchte, es ist nur die Unmöglichkeit, mich zu besitzen, die Ihnen diesen Wunsch so reizend macht.‘ – Er zog seine Hand aus der ihrigen, indem er sie mit einem starren, unwilligen Blick ansah. ‚Weise!‘ rief er, ‚sehr weise! hat vielleicht Albert diese Anmerkung gemacht? Politisch! sehr politisch!‘ – ‚Es kann sie jeder machen.‘ versetzte sie drauf. ‚Und sollte 1 Seitenangaben in Klammern beziehen sich auf die Ausgabe von Die Leiden des jungen Werther im Rahmen der Hamburger Ausgabe, Bd. 6. München 1981. Der Wert der Werte: Überlegungen im Ausgang von Goethes „Werther“ 95 denn in der weiten Welt kein Mädchen sein, das die Wünsche Ihres Herzens erfüllte? Gewinnen Sie's über sich, suchen Sie darnach, und ich schwöre Ihnen, Sie werden sie finden; denn schon lange ängstigt mich, für Sie und uns, die Einschränkung, in die Sie sich diese Zeit her selbst gebannt haben. Gewinnen Sie es über sich, eine Reise wird Sie, muß Sie zerstreuen! Suchen Sie, finden Sie einen werten Gegenstand Ihrer Liebe, und kehren Sie zurück, und lassen Sie uns zusammen die Seligkeit einer wahren Freundschaft genießen.‘ (102 f.) Lauter ökonomische Begriffe im Liebesdiskurs der begehrten Frau: besitzen, gewinnen, Eigentum, werter Gegenstand. Werther kann nicht glauben, dass die von ihm so leidenschaftlich geliebte Frau tatsächlich so schnöde, nämlich so politökonomisch denkt. Ihre politischen, sehr politischen, analytischen, kalkulierenden Worte muss ihr Albert souffliert haben. Denn viel nüchterner als dieser unsentimentale Charakter kann man nicht argumentieren: Ein Liebesobjekt, in Lottes Worten ein „werter Gegenstand“, kann durch einen anderen Gegenstand, der ebenso viel wert ist, ersetzt werden. Das ökonomische Wertgesetz der Äquivalenz herrscht auch in der Sphäre der Liebe. Genau dies kann Werther nicht akzeptieren. Denn für ihn ist offenbar, dass es Werte gibt, die tausendmal werter sind als Werte, zu denen es ein Äquivalent gibt. Nun gehört es zu den Subtilitäten von Goethes Text (und genau diese Subtilität verleiht Goethes Schriften einen Wert, der sie werter macht als andere hochliterarische Texte), dass er leidenschaftlich auf der Inkompatibilität von ökonomischen und transökonomischen Werten besteht – und genau diese Inkompatibilität negiert. Schon vor den nüchternen Worten, die ausgerechnet das unvergleichliche Liebesobjekt spricht, bemüht Werther nämlich zum zweiten Mal die seinem Namen völlig homophone Formel „tausendmal werter“. Diesmal gilt sie nicht von einem Brunnen, sondern, subtil, sehr subtil, von einer „blaßroten Schleife“ und „zwei Büchelchen in Duodez“, die er an seinem Geburtstag, dem 28. August (der bekanntlich auch Goethes Geburtstag ist), von Lotte und Albert zum Geschenk erhält. „Am 28. August. / Es ist wahr, wenn meine Krankheit zu heilen wäre, so würden diese Menschen es tun. Heute ist mein Geburtstag, und in aller Frühe empfange ich ein Päckchen von Alberten. Mir fällt beim Eröffnen sogleich eine der blaßroten Schleifen in die Augen, die Lotte vor hatte, als ich sie kennen lernte, und um die ich sie seither etlichemal gebeten hatte. Es waren zwei Büchelchen in Duodez dabei, der kleine Wetsteinische Homer, eine Ausgabe, nach der ich so oft verlangt, um mich auf dem Spaziergange mit dem Ernestischen nicht zu schleppen. Sieh! so kommen sie meinen Wünschen zuvor, so suchen sie alle die kleinen Gefälligkeiten der Freundschaft auf, die tausendmal werter sind als jene blendenden Geschenke, wodurch uns die Eitelkeit des Gebers erniedrigt. Ich küsse diese Schleife tausendmal.“ (54) Das ist nun ein atemberaubendes Arrangement. Zwei Freunde schenken Werther zwei Dinge, von denen eines zweiteilig ist: ein Textil und einen Text, nämlich eine zweibändige Homerausgabe, von der ausdrücklich festgehalten wird, dass sie im Duodezformat gedruckt ist. Sie ersetzt eine zweite, unhandlichere Homer-Ausgabe. Und die Formel, hier handele es sich um etwas, das „tausenmal werter“ ist als anderes, fällt zum zweiten Mal. Was nichts anderes heißt als dies: Schon vor den analytisch kühlen Worten Lottes, Werther solle sich einen anderen werten Gegenstand seines Begehrens suchen, musste Werther, ohne sich davon transparente Rechenschaft abzulegen, die Erfahrung machen, dass noch das vermeintlich Inkompatible Äquivalente hat. Das, was tausendmal werter ist als alles andere, ist kein Wert über allen anderen Werten; das, was tausendmal werter ist als alles andere, gibt es (mindestens) zweimal. Lotte selbst ist ja, als Werther sie kennenlernt, bereits eine Ersatz- 96 Jochen Hörisch figur. Muss sie doch als älteste in der Geschwisterreihe die Funktion der verstorbenen Mutter übernehmen, was sie Werther nicht weniger wert macht. „‚Lotte!‘ rief ich aus, indem ich mich vor sie hinwarf, ihre Hand nahm und mit tausend Tränen netzte, ‚Lotte! der Segen Gottes ruht über dir und der Geist deiner Mutter!‘ – ‚Wenn Sie sie gekannt hätten,‘ sagte sie, indem sie mir die Hand drückte, – ‚sie war wert, von Ihnen gekannt zu sein!‘ – Ich glaubte zu vergehen. Nie war ein größeres, stolzeres Wort über mich ausgesprochen worden.“ (58) Gegen Ende des Passionsromans, der den meisten Goethe-Lesern tausendmal werter schien als andere Goethe-Werke, kommt das Wort ‚wert/er‘ immer seltener vor. Es hat seinen Wert wenn nicht verloren, so doch verschoben. Diese Verschiebung ist wert, bedacht zu werden. Werther hat schmerzlich erfahren müssen, dass eine allzu emphatische Semantik des Liebeswerts und des Liebenswerten sich in Paradoxien (der Liebe und der Selbstliebe, des Authentischen und des Supplements, des unverwechselbar Persönlichen und des austauschbar Sachlichen) verstrickt. Und Werthers Schöpfer Goethe ist nicht davor zurückgescheut, noch das Unverwechselbare, Individuellste, Liebenswerteste als ersetzbar zu denken. In dem damals nicht publizierbaren, weil grob obszönen „mikroskosmischen Drama“ Hanswursts Hochzeit, das Goethe kurz nach dem Erscheinen von Werthers Leiden schrieb, spricht der Titelheld in unüberbietbar zynischen Worten über den funktionalen Wert des heißen, leidenschaftlichen „lieben Wertherischen Bluts“: Mir ist das liebe Wertherische Blut Immer zu einem Probierhengst gut Den laß ich mit meinem Weib spazieren Vor ihren Augen sich abbranlieren Und hinten drein komm ich bei Nacht Und vögle sie daß alles kracht. (Goethe 1985, S. 586) Das sind Verse aus derselben Feder, die auch Werthers Leiden niederschrieb. Leidenschaftliche Liebe und Sex gehören zu zwei unterschiedlichen Wertsphären. Liebe kann man nicht kaufen, Sex schon. Dennoch gehören beide Sphären, die der Ökonomie und die der Liebe, zusammen. Auch wenn die libidoökonomischen Reflexionen des Werther-Romans nicht so brutal ausfallen wie von Hanswurst, ist doch unverkennbar, dass auch in Goethes frühem Roman der emphatische Wertbegriff die Sphäre wechselt. Er kommt gegen Ende nicht mehr erotologisch, sondern ökologisch daher. „Man möchte rasend werden, Wilhelm, daß es Menschen geben soll ohne Sinn und Gefühl an dem wenigen, was auf Erden noch einen Wert hat.“ (80) Folgt die beredte Klage über die Abholzung der Nussbäume – um ihrer ökonomischen Verwertbarkeit willen. Werthers Leiden sind – nun eben Wert-Leiden; Werther erträgt nicht, dass es Menschen ohne Sinn und Gefühl für das gibt, was auf Erden noch einen Wert hat, die Liebe oder die Natur dies- und jenseits aller ökonomischen Werte. Kein Wunder, dass dieser Roman Goethes bis heute sein mit Abstand populärster ist. Denn die Konflikte um das rechte Verständnis dessen, was eigentlich Wert hat, hören auch im Zeitalter der globalen Wert-Ökonomie nicht auf aufzuhören. 2 Werte Wilhelm Meister ist der ernüchterte Nachfolger Werthers. Ihm, der nicht eine, sondern viele Frauen liebt (unter anderen Mariane, Philine, Aurelie, Therese, Natalie, um von Mignon zu schweigen) und dem auch deshalb die Formel nicht zur Verfügung steht, etwas oder eine Der Wert der Werte: Überlegungen im Ausgang von Goethes „Werther“ 97 sei tausendmal werter als alle(s) andere(n), kultiviert ein abgeklärtes Verhältnis zu Wertfragen. Dazu trägt bei, dass ihm an emphatischen Verteidigern ästhetischer gegen ökonomische Werte aufgefallen ist, wie ökonomisch sie ihrerseits denken. „Nicht ebenso leicht konnte er die Aufführung der übrigen Schauspieler […] mit seinen Begriffen vereinigen. Geschäftig im Müßiggange, schienen sie an ihren Beruf und Zweck am wenigsten zu denken; über den poetischen Wert eines Stückes hörte er sie niemals reden und weder richtig noch unrichtig darüber urteilen; es war immer nur die Frage: ‚Was wird das Stück machen? Ist es ein Zugstück? Wie lange wird es spielen? Wie oft kann es wohl gegeben werden?‘ und was Fragen und Bemerkungen dieser Art mehr waren. (Goethe 1981, S. 59f.). Auch die Kunst geht nach Brot, wie Goethe mit Lessing wusste. Der Streit um das rechte Verständnis des Wertbegriffs dauert bis heute an. „Wert“ – wir wissen es alle – ist ein vieldeutiger Begriff. Es gehört zu den Stärken der Wirtschaftstheorie, dass sie diesem oszillierenden Wort eine klare, nämlich numerische Fassung zu geben vermag. Ökonomische Werte (etwa die von Waren, Dienstleistungen, Risiken, Gewinnen etc.) lassen sich quantifizieren. Preise sind die klare numerische Fassung von Werten. Das macht sie so faszinierend und zugleich so anfällig für kulturkritische Einwände. Diese Konserve ist 49 Cent wert, diese Menge Trüffel 100 Euro. Dieser gepanschte Rotwein kostet 1,99 Euro, diese Flasche Chateau dތYquem kostet 2.000 Euro. Die Arbeit eines Chauffeurs ist 35.000 Euro per annum wert, die des Managers, den er kutschiert, 3,5 Millionen Euro. Dieses Bild von Max Ernst ist eine Million Dollar wert. Wenn sich herausstellt, dass der Gutachter, der die Echtheit dieses Gemäldes zertifizierte und dafür mit einer ansehnliche Summe ent- beziehungsweise belohnt wurde (im Fall der festzustellenden Nichtauthentizität des Gemäldes wäre auch das Gutachten nur einen Bruchteil wert), danebenlag (selbstredend besten Gewissens, der höhere Wert eines positiven Gutachtens hat beim Diktum „Das ist ein echter Max Ernst“ gewiss keine Rolle gespielt), sinkt der Wert des Gemäldes um circa 99 Prozent. Auch um ökonomische Werte ist es ersichtlich seltsam bestellt. Dennoch: Sie lassen sich berechnen, sie lassen sich zählen. Andere Werte nicht. Sie kann man nicht eigentlich berechnen und zählen, von ihnen muss man erzählen. Wie großartig der Urlaub war – darüber gibt die Geldsumme, die er gekostet hat, allenfalls unvollständig Auskunft, das kann man bestenfalls erzählen. Ein romantisches Liebesabenteuer kann unendlich viel wertvoller sein als bezahlter Sex. Was eigentlich lebens- und liebenswert ist, kann nicht mit einer Zahl ausgedrückt werden. So will es die romantische Sicht, so will es Werther. Es gehört schon beeindruckende Kaltblütigkeit dazu, ihr zu widersprechen und sich dadurch dem Risiko auszusetzen, massiv Sympathien zu verlieren. Wissenschaft aber ist abstrakt, berechnend, kalt und kaltblütig, sonst ist sie keine Wissenschaft. Und also besteht sie darauf, dass man auch den Wert eines Lebens oder einer Liebe berechnen kann. Risiko- und Kapitallebensversicherungen tun dies am laufenden Band; und klare Brautpreise sind in den Sphären der Vormoderne, die doch als romantischer gilt als die kalte Moderne, um von der coolen Spät- und Postmoderne zu schweigen, verbreitet. Zählen und erzählen sind – nicht nur etymologisch – nah verwandte Worte. Das heißt aber auch, dass sie, wie bei nahen Verwandten nicht unüblich, in einem Spannungsverhältnis zueinander stehen. Beide bringen nur ein unvollständiges Verständnis für die Binnenlogik der anderen, der zählenden beziehungsweise erzählenden, Seite auf. Man kann Buchstaben und Worte zählen, hat damit aber nicht begriffen, was sie uns zu sagen haben. Und 98 Jochen Hörisch man kann erzählend zu paraphrasieren versuchen, was eine Zahl über einen ökonomischen Wert verrät, wird damit aber an der Börse wenig Erfolg haben, wenn man mit vielen anderen vor der Entscheidung kaufen oder verkaufen steht. Das Erzählen ist einfach zu zeitaufwendig und unpräzise, um wirklich wirtschaftstauglich zu sein. Was wiederum nicht ausschließt, dass eine gute Story über ein Start-up-Unternehmen dessen Börsenkurs erheblich beflügeln kann. Transökonomische und ökonomische Werte hängen zusammen, sie hätten sich viel zu erzählen beziehungsweise vorzurechnen und können doch nicht recht zusammenkommen. Luhmanns Systemtheorie kann dieses Dilemma plausibel erklären. Selbstredend weiß auch die Systemtheorie, dass alles mit allem zusammenhängt – aber sich eben deshalb in modernen, funktional ausdifferenzierten Subsystemen unterschiedliche Codes gegeneinander immunisieren. Jedes dieser Subsysteme (wie Justiz, Wirtschaft, Religion, Wissenschaft etc.) hat seine spezifische Leitunterscheidung (etwa Recht/Unrecht; zahlen/nicht-zahlen; transzendent/immanent; wahr/falsch) und einen orientierenden positiven Leitwert (Gerechtigkeit, Gewinn, Transzendenz, Wahrheit). Was so abstrakt klingt, lässt sich handfest illustrieren. Natürlich kann ein Richter von der Schönheit der Angeklagten bezaubert sein. Er darf ihr aber, wenn sie denn schuldig ist, nicht um ihrer Schönheit willen einen Strafnachlass gewähren oder sie gar freisprechen. Und natürlich kann der gutachtende Wissenschaftler bestechlich sein, er darf es aber nicht sein, und er wird mit Sicherheit nicht in sein Gutachten schreiben, dass er zum Schluss kommt, dieses Max-Ernst-Bild sei echt oder Atomkraftwerke seien unter allen Umständen sicher, weil ihm ein Galerist oder die AKWIndustrie eine extrem hohe Zuwendung für den Fall versprochen hat, dass er zu genau diesem Schluss kommt. Dass es Codevermischungen bei erotisch affizierbaren Richtern, bestechlichen Gutachtern und in vielen weiteren Kontexten gibt, wird keiner bestreiten. Aber fast alle Bewohner in korruptionsaversen modernen Gesellschaften werden sie verurteilen. Und doch auch nicht. Denn gerade im Hinblick auf Werte wünschen sich viele aus nur allzu plausiblen Gründen, dass sich außerökonomische Werte möglichst bruchlos und unbeschädigt in ökonomische Werte übersetzen lassen. Doch genau dies ist offenbar nicht der Fall. Das Wirtschafts- und Finanzsystem kann mit ethischen, religiösen, ökologischen, ästhetischen und vielen weiteren Werten kaum etwas anfangen. Auf moralische Appelle („Beutet nicht aus!“) reagiert es einigermaßen hilflos. Werte vor oder nach der Ökonomie liefern für das Wirtschaftssystem keine distinkten Signale. Wirtschaft nimmt moralische Appelle, ethische Werte, ökologische Bedenken oder religiöse Einsprüche zumeist nur als irritierendes Rauschen wahr. Am Sonntag darf man nicht arbeiten, also darf auch Geld am Sonntag nicht für uns arbeiten und keine Zinsen abwerfen – was genau will die christliche Religion der Wirtschaft damit sagen, wie können Banken dafür sorgen, dass Zinsen nur von Montag bis Samstag, nicht aber am Sonntag anfallen? Es ist leicht, zu bedauern oder auch scharf zu kritisieren, dass das Wirtschaftssystem extrem unsensibel für höhere Werte ist. Man sollte sich aber vergegenwärtigen, dass Immunisierung gegen Werte aus anderen Systemen und Sphären kein exklusives Merkmal nur der Wirtschaft ist. Auch Kunst kann wenig mit dem Appell anfangen „stelle alles wissenschaftlich richtig dar“ oder „mache nur Aussagen, die falsifizierbar sind“. Wissenschaft muss es als Zumutung ablehnen, nur schöne und ästhetisch ansprechende Resultate zu liefern oder gar selbst auf Schönheit statt auf Wahrheit zu setzen. Justiz muss gegenüber religiösen Der Wert der Werte: Überlegungen im Ausgang von Goethes „Werther“ 99 Werten indifferent sein, ja das Rechtssystem muss religiöse Wertansprüche ablehnen, wenn es Recht sichern will, also Äußerungen wie „wir haben die Offenbarungswahrheit und der hat sich dem Recht zu fügen“ verwerfen. Umgekehrt werden sich religiöse Menschen von wertbasierten juristischen Hinweisen wie „die katholische Kirche sei eindeutig antidemokratisch verfasst und deshalb eigentlich verfassungswidrig“ nicht erfreuen lassen. Kurzum: Werte aus anderen Systemen sind für das jeweilige System nur dann wirklich, also funktional relevant, wenn sie in die eigenen Werte konvertierbar sind. Aufgeklärter, gar atheistischer Spott über den Glauben an die Muttergottes wird Religion nicht erreichen, ein Hinweis auf das Wort Jesu an seine Mutter Maria „Weib, was habe ich mit dir zu schaffen?“ (Joh. 2,4) lässt sich, da aus wertvollster neutestamentarischer Quelle stammend, hingegen nicht ignorieren. Die Kritik, ein Gerichtsurteil sei nicht so elegant formuliert wie eine Passage aus einem Gedicht Goethes, erreicht das Rechtssystem nicht und erschüttert es schon gar nicht; der Hinweis, es widerspreche diesem oder jenem Gesetzes-Paragraphen, kann hingegen die Revision des Urteils erzwingen. Das Kompliment an einen Wissenschaftler, er schreibe elegant, ist nur dann nicht vergiftet, wenn dabei nicht die Botschaft mitschwingt, die Eleganz ginge zu Lasten der spröden Wissenschaftlichkeit. Diese schlichte Überlegung hat weitreichende Konsequenzen für das Verhältnis von ökonomischen und außerökonomischen Werten. „Wirtschaftsethik“ – das klingt gut, das leuchtet ein, das muss sein, zumal nach den Krisen und Skandalen der letzten Jahre. Aber Wirtschaftsethik ist eine traurige Wissenschaft. Denn sie muss geradezu systematisch von Geschichten einer verfehlten Begegnung Rechenschaft geben. Wirtschaft und Ethik sind Königskinder, die nicht recht zueinander kommen können. Und das nicht etwa deshalb, weil führende Wirtschaftssubjekte wie Unternehmer, Manager, Banker oder PR-Leute stets signifikant schlechtere Menschen wären als ihre Mitarbeiter oder als Beamte und Bauern und Bischöfe oder Leiter eines volkseigenen Betriebes oder einer Odenwaldschule. Dennoch gilt, dass Wirtschaft als besonders moralferne Sphäre wahrgenommen wird. Zwar müssen sich auch Kirchen und Reformschulen, Kunst und Politik, Wissenschaft und Sport ethisch-moralisch begründete Einsprüche gefallen lassen. Aber die sind meist nicht system-, sondern personenbezogen: Dieser Bischof hat Kinder geprügelt und das dann systematisch geleugnet, dieser Schulleiter hat Kinder missbraucht, dieser Künstler hat sich mit einem Diktator gemein gemacht, dieser Politiker, Wissenschaftler oder Schiedsrichter war korrupt. Natürlich gilt das – in den letzten Jahren verstärkt – auch für Führungsfiguren der Wirtschaftsund Bankensphäre: Dieser Manager hat nach der von ihm zu verantwortenden Pleite eine Riesenabfindung erhalten, jener Banker hat seinen Kunden Schrottpapiere angedreht. Dennoch bleibt die Differenz: Die Wirtschafts- und Finanzsphäre gilt unabhängig vom Verhalten einzelner Personen als amoralisch. Für den Fußballfan bleibt Fußball die schönste Nebensache der Welt, auch wenn sich herausstellt, dass mehrere Schiedsrichter Spiele manipuliert haben und es noch edlere Charaktere gibt als den Präsidenten des Deutschen Fußballbundes. Und Kunst und Kultur bleiben ein hoher Wert, auch wenn mehr als nur ein Künstler einen sittlich verwerflichen Lebenswandel pflegt. Das Wirtschaftssystem aber wird von vielen unabhängig vom Fehlverhalten Einzelner als moralfern wahrgenommen. So erstaunlich ist das nicht. Denn diese Wahrnehmung ist gerechtfertigt. Moderne Wirtschaft ist offensiv moralfern. Ob vormoderne Wirtschaftsformen, die zum Beispiel auf Sklaverei, Leibeigenschaft, Lehnswesen, Anerbrecht oder Zunftwesen beruhende Formen des Wirtschaftens in moralisch-ethischer Hinsicht überzeugender waren, sei in diesem 100 Jochen Hörisch Kontext dahingestellt – sie taten aber und verstanden sich selbst wohl so, als entsprächen sie Gottes Willen oder der natürlich-moralischen Ordnung der Dinge. Hochgradig aufschlussreich ist es deshalb, dass sich moderne Marktökonomie von vormoderner Wirtschaft auch dadurch unterscheidet, dass sie anders als diese gar nicht erst den Anspruch erhebt, hohen moralischen Maßstäben oder gar Tugendidealen zu entsprechen. Spätestens mit Mandevilles Fable of the bees (1705) und Adam Smiths The Wealth of Nations (1774) ist die Mainstream-Selbstbeschreibung des Wirtschaftssystems von (moralisch beeindruckender!) Offenheit: Der Bäcker, Schuster, Maurer, Banker schert sich nicht um Moral und Tugend, wenn er Brötchen backt, Schuhe herstellt, ein Haus baut oder Geld verleiht; er handelt nicht aus Nächstenliebe, sondern aus Eigennutz. Und das ist auch gut so. Denn die Entkoppelung des Wirtschaftens von den Anforderungen des tradierten Tugendkataloges setzt eine ungeheure Produktivität frei. Und so gilt: Privat vices become public benefits (um den schnell berühmt beziehungsweise berühmt-berüchtigt gewordenen Untertitel der von Mandevilles Bienenfabel zu zitieren). Es zahlt sich nicht für alle, aber doch für viele, ja für die meisten aus, wenn das System Wirtschaft die Imperative von Tugend, Moral, Ethik und Religion ignoriert oder nicht einmal ignoriert. Nicht alle sagen das so klar und deutlich, so kaltblütig und rücksichtslos wie Milton Friedman in seinem berüchtigten Essay im New York Times Magazine vom 13.9.1970 über die Verantwortung der Wirtschaft fürs große Ganze: „The social responsibility of business is to increase its profits.“ Ein Vergleich zwischen einer staatssozialistischen Planwirtschaft einerseits, die sich an sympathischen Werten und tugendhaften Geboten wie Gleichheit, Solidarität, Gerechtigkeit und Ausbeutungsverbot orientiert, und einem Kapitalismus andererseits, der Eigennutz, Profitgier und Ausblendung des Allgemeinwohls zulässt, fällt eindeutig aus. Die Sowjetunion und die USA, die DDR und die BRD, Nord- und Südkorea, China zur Zeit von Mao und in der Zeit nach Mao: Zugunsten einer moralischen Steuerung von Wirtschaftsprozessen fallen diese Vergleiche nicht aus. Amoralität zahlt sich ökonomisch aus. Nun ist dieses Resultat schwer zu ertragen. Und dies aus vielfältigen Gründen. Um nur die drei wichtigsten zu nennen: Erstens ist die Kritikbedürftigkeit auch der siegreichen Seite im Vergleich moralfreier Kapitalismus versus moralgesteuerter Staatssozialismus unbestreitbar. Kapitalistische Marktwirtschaft funktioniert besser als moralgesteuerte Kommandowirtschaft, aber ersichtlich nicht rundum gut. Arbeitslosigkeit, Inflation, Bankenkrisen, ökologische Verwerfungen, Kollaps der sozialen Sicherungssysteme, extreme Einkommens- und Vermögensdifferenzen, psychische Verelendung und viele weitere Stichworte mehr zeigen die Grenzen moralfreien Wirtschaftens an. Zweitens: Auch wer gute Gründe zu haben glaubt, eine Entkoppelung zwischen dem Wirtschafts- und Finanzsystem und dem Code der Moral für geboten, weil produktiv zu halten, wird zur Kenntnis nehmen müssen, dass nicht alle auf der Höhe seiner Einsichten sind und sich weiterhin auf der Grundlage des fast allseits beliebten Moralcodes verständigen – also gierige Manager, zynische Unternehmer und Banker mit Casinomentalität „böse“ finden. Im gar nicht so seltenen Extremfall gibt es dann Revolten und Revolutionen aller Art. Und die sind in aller Regel teuer; sie kennen systematisch mehr Verlierer als Sieger. Drittens: Moralität ins moralferne Wirtschafts- und Finanzsystem einzubinden, lohnt sich, weil es sich rechnet – so ein verbreitetes, wenn nicht das beliebteste Argument von Wirtschaftsethikern. Weil die meisten Leute nun einmal nicht anders können, als die Welt unter moralischen Kategorien wahrzunehmen, hat es üble ökonomische Konsequenzen für eine auf das Vertrauen ihrer Kunden angewiesene Versicherung, wenn sie mit einem Großbordell verwechselbar wird, Der Wert der Werte: Überlegungen im Ausgang von Goethes „Werther“ 101 oder für ein Unternehmen, wenn sich herumspricht, dass ihre Produkte aus Profitgier unsicher und für ihre Nutzer bedrohlich sind. Gerade der letztgenannte Aspekt zeigt die Ambivalenzen im Verhältnis von moralischen und wirtschaftlichen Werten an. Moral fungiert hier eben nicht als hierarchiehöchster Supercode, sondern als ein ökonomierelevanter Wert unter anderen – wie etwa Material-, Transport- und Lohnkosten, gutes Design oder raffinierte PR. Dafür aber funktioniert das Rendezvous zwischen moralischen und ökonomischen Werten in diesem Fall einigermaßen. Und dies einfach deshalb, weil sich der Wert der Werte, nämlich der ökonomische Wert moralischer Werte berechnen und in Preisen auszählen lässt. Kosten und Preise aber sind – anders als rein moralische, religiöse, ästhetische oder kulturelle Wertappelle – Signale, die das Wirtschaftssystem versteht, sogar glänzend versteht. Was nichts anderes heißt als dies: Ethik als Reflexionssystem der Moral muss eben die Moral belehren, sich auf das moralferne bis von Moral entkoppelte Wirtschaften einzulassen. Konkret: Umweltschutz ist ein hoher Wert, gerade deshalb müssen Verschmutzungsrechte an internationalen Börsen gehandelt werden. Korruption ist moralisch verwerflich, aber in der Wirtschaftssphäre verbreitet; deshalb muss das Wirtschaftssystem lernen, die Korruption zu korrumpieren. Ausbeutung steht nicht als hoher Wert im Tugendkatalog, deshalb muss Wirtschaft lernen, sie zu hegen, weil es sonst nicht hinreichend viele kaufkräftigen Konsumenten gibt. Kurzum: Nichts ist für Moral verheerender als Kontaktverbot mit dem Bösen. Unterhalb des Niveaus von „sympathy for the devil“ ist produktives Wirtschaften nicht zu haben. Das weiß Goethe, wenn er Mephisto die goldenen beziehungsweise dunkel leuchtenden Worte sprechen lässt, er sei ein Teil von jener Kraft, die stets das Böse will und (deshalb!) stets das Gute schafft. Der Speer nur heilt die Wunde, der sie schlug. Literatur Goethe, Johann Wolfgang von 1981: Wilhelm Meisters Lehrjahre, in: Goethe: Werke, Hamburger Ausgabe Bd. 7, München 1985: Hanswursts Hochzeit oder der Lauf der Welt – Ein mikrokosmisches Drama, in: Goethe: Sämtliche Werke (Frankfurter Ausgabe) 40 Bände, Abt. I/Band 4, hg. v. Dieter Borchmeyer, Frankfurt am Main Fritz Gutbrodt 1995: The Worth of Werther – Goethe's Literary Marketing; in: MLN – Volume 110, Number 3 (1995), S. 579–630 Mit freundlicher Genehmigung des Autors für den Zweitabdruck, früher erschienen in: Annette Kehnel (Hrsg): Erfolg und Werte: Wirtschaft und Kultur im Gespräch – Band 3, Frankfurt/Main 2011, S. 179-192. Weitere Veröffentlichung in: Hörisch, Jochen, ,Man muss dran glauben – Die Theologie der Märkte‘ (Fink Verlag München), 2013. Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch Guido Kaupe, Eva Engel 1 Struktureller Wandel im Airport-Business Das Airport Business in Europa erlebt aktuell einen Veränderungsprozess, der maßgeblich durch zwei Haupteinflussfaktoren voran getrieben wird. Einerseits befindet sich Europa noch immer in einer wirtschaftlich schwierigen Situation, andererseits erleben europäische Flag-Carrier (klassische Linien-Airlines) verstärkt Konkurrenz von außereuropäischen Airlines auf interkontinentalen, so genannten Interkont-Strecken. Die schwächelnde Weltwirtschaft, aber vor allem auch die europäische Finanz- und Wirtschaftskrise führen zu einer sich abkühlenden Wirtschaftstätigkeit innerhalb Europas und zwischen den Kontinenten. Diese schwächelnde Wirtschaft spiegelt sich aufgrund stagnierender oder auch in Teilen zurück gehender internationaler Warenströme auch in der Luftfahrtindustrie wider und führt infolge dessen zu stagnierenden oder negativen Fracht- und Passagierentwicklungen. Neben den bereits seit längerer Zeit etablierten Low Cost-Carriern entsteht ein zusätzlicher Preisdruck, der insbesondere im europäischen Bereich die Margen für Ticketpreise sinken lässt. Darüber hinaus verschärft sich diese Situation aber auch durch einen steigenden Wettbewerb auf den sogenannten Interkont-Strecken. Diese Strecken von Europa nach Amerika oder Fernost waren bisher die margenstärksten und damit lukrativsten Ziele der etablierten europäischen Airlines (wie z.B. Deutsche Lufthansa, Air France/KLM, British Airways). Geringe Margen auf innereuropäischen Strecken wurden durch diese hochmargigen Interkont-Strecken kompensiert. Seit einigen Jahren expandieren v.a. Airlines aus der Golfregion (wie z.B. Etihad oder Emirates) extrem und bieten vermehrt auf den Interkont-Strecken Flugreisen an, die bisher nahezu ausschließlich von den Home-Carriern angeboten wurden. Die Reaktion der Deutschen Lufthansa auf den verstärkten Konkurrenzdruck sind sogenannte Cost-Cutting-Projekte. Im Jahr 2012 hat die Deutsche Lufthansa das Projekt „SCORE“ gestartet, mit dessen Hilfe wegbrechende Erlöseinnahmen durch Ausgabenreduzierungen auf der Aufwandsseite kompensiert werden sollen.1 Die Fraport AG, als Flughafenbe1 Vgl. Deutsche Lufthansa: Geschäftsbericht 2011, S. 11. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_9, © Springer Fachmedien Wiesbaden 2013 104 Guido Kaupe, Eva Engel treiber und Infrastrukturdienstleister, kann auf diese wirtschaftlichen Entwicklungen weniger flexibel reagieren, da sich der Hauptkostenblock aus fixen Kosten zusammensetzt. Ein klassisches Phänomen großer Infrastrukturanbieter. Gerade aus diesem Grund ist es wichtig, die Effizienz und Effektivität der Leistungserbringung in jedem einzelnen Geschäftsund Servicebereich immer wieder zu hinterfragen. Vor diesem Hintergrund versucht der vorliegende Artikel, sich mit der Aufgabenkomplexität und dem Effizienzanspruch im Airport Facility Management auseinanderzusetzen. Ziel ist es, eine Steuerungsebene zu definieren, die die effiziente Ausrichtung in Bezug auf wirtschaftliche und strategische Fragestellungen unterstützt. Die primären, direkt am Markt tätigen Serviceeinheiten des Flughafenbetreibers, wie z. Bsp. das Groundhandling sehen sich bereits seit mehreren Jahren dem zunehmenden Kostendruck des Marktes, nicht zuletzt durch die Marktöffnungsbestrebungen der EU, ausgesetzt. Diese Entwicklung ging an den internen, sekundären Serviceeinheiten des Flughafens bisher vorbei. Lag der Fokus in der Vergangenheit innerhalb dieser Serviceeinheiten primär auf einer aufbauorganisatorischen Steuerung, so ist nun eine wirtschaftliche und strategische Detailsteuerung auf Produktebene von Nöten. Bei einer hochkomplexen Wirtschaftseinheit wie der eines Flughafens und eines hochkomplexen Wirtschaftsstandorts wie der eines internationalen Hubflughafens ist die Herausforderung, somit weder im Detail zu versinken und enorme Aufwände für das Controlling zu produzieren noch die Entscheidungsebenen so global zu steuern, dass den operativen Belangen eines internationalen Hubs mit entsprechenden hohen prozessualen Qualitätsansprüchen unter Umständen nicht entsprechend Rechnung getragen wird. Die bisherige Strategie bestand darin, alle an den Facility Management Dienstleister gestellten Aufgaben und Anforderungen zu realisieren, getreu nach dem Motto, der Kunde bestellt, der Servicedienstleister liefert. Sämtliche unternehmensinternen Dienstleistungen wurden so erbracht, dass alle Anforderungen entsprechend der gesetzlichen Anforderungen, aber vor allem gemäß der Kundenwünsche bestmöglich erfüllt wurden. Hieraus resultierten permanent steigende operative Aufwendungen. Die tiefgreifenden Veränderungen im externen Umfeld führen nun dazu, daß dieser Ansatz grundsätzlich überdacht und überarbeitet werden muß. 2 Implikationen des Airport Facility Management 2.1 Tätigkeitsbezogene Implikationen Facility Management (FM) bezeichnet die Verwaltung und Bewirtschaftung von Gebäuden, Anlagen und Einrichtungen. Gebäude, Liegenschaften und betriebliche Abläufe werden im FM dabei ganzheitlich, d.h. über den gesamten Lebenszyklus der Immobilie betrachtet.2 DIN 15221-1 definiert die Prozesse des Facility Management als solche, die zur 2 Zur Abgrenzung der Begrifflichkeiten Facility Management und Property Management vgl. Bogenstätter, Ulrich: Property Management und Facility Management, Oldenbourg Wissenschaftsverlag GmbH, 2008, S. 2ff. Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch 105 Unterstützung und Verbesserung der Effektivität der Hauptaktivität der Organisation dienen und somit klassische sekundäre Serviceprozesse darstellen3. Das Ziel einer koordinierten Abwicklung der Facility Management Prozesse ist es, die Betriebs- und Bewirtschaftungskosten dauerhaft zu senken, Fixkosten zu flexibilisieren, die technische Verfügbarkeit der Anlagen zu sichern, sowie den Wert von Gebäuden und Anlagen langfristig zu erhalten. Die Anforderungen an einen modernen Facility Manager haben sich zu dem in der nahen Vergangenheit fundamental geändert und den klassischen Gebäudebetreiber zu einem professionellen Facility Management-Dienstleister weiterentwickelt. Die Schlagworte seiner Tätigkeit heißen Kundenorientierung, Effizienz, Wirtschaftlichkeit und Ressourcenschonung. Neben Kundenorientierung im Sinne einer transparenten Leistungserbringung und dem Vorhalten eines zentralen Ansprechpartners für das gesamte Dienstleistungsspektrum müssen die Prozesse eines modernen Facility Managers auch dem Postulat der Effizienz und der Wirtschaftlichkeit genügen. In der Forderung nach einer Ressourcenschonung wird erwartet, dass die Immobilien oder die Anlagen die Nachhaltigkeitsziele des Unternehmens erfüllen. Der operative Aufwand des Airport Facility Managers stellt in den leistungsempfangenden Bereichen eine nicht unerhebliche Kostenposition dar. Aus diesem Grund lässt sich zusammenfassend sagen, dass die Verwaltung und Bewirtschaftung von Gebäuden, Anlagen und Einrichtungen eines börsennotierten und damit wirtschaftlich agierenden Unternehmens stets das Ziel der kostenoptimierten Leistungserbingung zu verfolgen hat. Im Zuge dieser wirtschaftlichen Leistungserbringung müssen jedoch flughafenspezifische und extern-induzierte Implikationen Berücksichtigung finden. 2.2 Airport-spezifische und extern induzierte Implikationen Flughafen-spezifische Implikationen lassen sich aus den grundlegenden Anforderungen eines internationalen Luftverkehrsdrehkreuzes ableiten. Der Flughafen Frankfurt nimmt mit 57,5 Mio. Passagieren Platz 3 der passagierstärksten Flughäfen Europas ein. Er hat mit einem Umsteigeranteil von 55% den höchsten Anteil an Transferpassagieren aller europäischen Flughäfen. Im Sommerflugplan 2013 fliegen 107 Fluggesellschaften von Frankfurt aus 295 Ziele in 107 Ländern an.4 Oberstes Ziel des Airport Facility Managers ist es deshalb, die Funktionsfähigkeit des Flughafens möglichst störungsfrei aufrecht zu erhalten. Treten flug- und passagierbeeinflussende Störfälle auf, dann ist es die Aufgabe des Servicebereichs, diese Probleme möglichst ad hoc und ohne zeitliche Verzögerungen zu beseitigen. Diese Anforderung ist umso wichtiger, je näher das Problem am Passagierprozess liegt und je mehr eine Hochverfügbarkeit von Dienst- und/oder Unterstützungsleistungen gefordert wird. Längerfristige Verzögerungen können zu erheblichen Regressforderungen seitens der Airlines und/oder der 3 DIN EN 15221-1 Facility Management – Teil 1 Begriffe; Deutsche Fassung EN 15221-1:2006, S. 5. 4 Fraport AG: Zahlen, Daten, Fakten 2013. 106 Guido Kaupe, Eva Engel betroffenen Passagiere führen. Der Airport Facility Manager muss vor diesem Hintergrund den kontinuierlichen Betrieb von Anlagen mit Hochverfügbarkeitsstatus gewährleisten. Neben den Anforderungen an die Hochverfügbarkeit einzelner Anlagen liegt die Kernkompetenz des Airport Facility Managers in der Instandhaltung flughafenspezifischer Immobilien und/oder Anlagen. Hierzu ist ein Spezial-Know-how erforderlich, welches sich klassischen Facility Managern entzieht. Dieses Spezial-Know-how wird beispielsweise für die Instandhaltung von Fluggastbrücken, Landebahnbefeuerungen, Spezialimmobilien (z.B. Tower der Deutschen Flugsicherung) oder Spezialfahrzeugen (z.B. Flugzeugschlepper) benötigt. Dieses spezielle, flughafen-spezifische Know-how kann als Alleinstellungsmerkmal innerhalb Deutschlands beschrieben werden, da die Anlagen und Prozesse in dieser Größe und Komplexität in ihrer Gesamtheit mit keinem anderen deutschen Flughafen verglichen werden können. Zum Teil sind diese technischen Anlagen in ihrer Anzahlhäufung, Komplexität und Dimensionierung selbst einzigartig in Europa. Zur Darstellung des Aufgabenspektrums eines Airport Facility Managers ist es hilfreich, einen Auszug der am Flughafen Frankfurt/Main zu bewirtschaftenden Immobilien, Flächen und Anlagen aufzuzeigen: • • • • • • • • • • • 1.625 ha Gesamtfläche des Flughafens, 6,7 km² Vorfeldfläche, 428 Gebäude sowie 2 Terminals mit über 2,4 Mio. m² Bruttogeschoßfläche (BGF), 1.427 Sanitärräume, allein 450.000 Leuchten im Terminal 1, 150 km Fahrstraßen, 9,4 Mio. m² Grünflächen, 16.000 Fahrzeuge und Spezialgeräte 70.000 gebäudetechnische Anlagen ca. 1.400 km Kabelnetz Passagier-Transport-System etc. Der FM-Bereich der Fraport AG erbringt dabei ein sehr breites und heterogenes Leistungsspektrum. Das technische Gebäudemanagement der Terminals und Service &Verwaltungsgebäude erbringt dabei alle technischen Serviceleistungen (Betreiber), ist verantwortlich für die Störungsbeseitigung, das Management der technischen Anlagen (Betrieb & Instandhaltung), die Sicherstellung des Betriebs und der Verfügbarkeit aller technischen Anlagen. Der Bereich trägt die Gesamtverantwortung für die technische Sicherheit und für die Technikräume auch für die Verkehrssicherungspflicht, ebenso wie für die Optimierung des Gebäudebetriebs. In den Standortdienstleistungen sind die Bereiche Materialwirtschaft, Postdienste, Tankdienste, Fahrdienst, Car-Pool und Airport Print Center gebündelt. Die Einheit des technischen Anlagenmanagement umfasst die Bereiche Airfieldtechnik, Anlagentechnik, Passagier-Transport-Systeme, sowie der Serviceleistungen Flächenreinigungs- und Grünflächenmanagement und Winterdienst. Die Gebäudereinigung und das Technische Management Center sind noch einmal einem gesonderten Bereich zugeordnet. Der Betrieb der Fahrzeugwerkstätten wird durch den Bereich der Fahrzeugtechnik sichergestellt. Der sich auch um das Wartungsmanagement, die Instandsetzung, Umbauten, sowie die technische Fahrzeugbeschaffung, Fahrzeugdokumentation, und um Garantie- und Kulanzarbeiten kümmert. Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch 107 Übergreifend nimmt der Bereich Airport Facility Management innerhalb der Fraport AG die Betreiberverantwortung für die Gebäude, Anlagen und Einrichtungen des Unternehmens wahr.5 „Der Airport Facility Manager steht in der unternehmensweiten Organisationsverantwortung für den technischen und baulichen Betrieb.“ 6 Der FM-Bereich der Fraport AG umfasst damit rund 1.000 Mitarbeiter und verursacht einen operativen Aufwand von ca. 200 Mio. EUR p.a. Aus diesen Zahlen und auf Basis der beschriebenen Implikationen ist ersichtlich, welche Komplexität dieser Bereich besitzt und welche Anforderungen diese Komplexität an die Struktur der Steuerungsinstrumente stellt. Wie beschrieben gibt es hier unterschiedliche Anforderungen seitens des Betriebs und der kaufmännischen Steuerung. 3 Produktspezifische Differenzierung von Facility-ManagementLeistungen 3.1 Anforderungen an die Produktstruktur Für eine wirksame Steuerung der Effizienz eines Facility-Managements-Dienstleisters müssen neben den betrieblichen Steuerungsaspekten, die auch den Vorgaben der Wahrnehmung der Betreiberverantwortung genügen müssen, zusätzliche wirtschaftliche und strategische Aspekte berücksichtigt werden. Neben den beschriebenen Anforderungen an die Leistungen des Airport Facility Managers in Bezug auf die Sicherstellung eines kontinuierlichen Betriebs hochverfügbarer Anlagen gibt es weitere, extern induzierte Anforderungen. Für den Betrieb von Gebäuden und komplexen Anlagen müssen gesetzliche Anforderungen, Anforderungen der Hersteller, sowie der Stand der Technik berücksichtigt werden. Diese umfangreichen gesetzlichen Rahmenbedingungen sind bei der Wahrnehmung der sogenannten Betreiberverantwortung zu berücksichtigen. Für die konkrete betriebliche Steuerung heißt das, daß der Betrieb an einer Produktstruktur interessiert ist, die eine betriebliche Steuerung der Prozesse ermöglicht und darüber hinaus auch eine Dokumentation der durchgeführten Tätigkeiten sicher stellt. Bei der Fraport AG sind dazu aktuell rund 3.900 Produkte/Materialstämme definiert und systemtechnisch abgebildet (SAP-PM). Diese dienen auch als Basis für die Mitarbeiterdispositon und mittels der Rückmeldung der durch die Mitarbeiter mitgeführten mobilen Geräten (Handhelds) erfolgt eine direkte systemische Dokumentation auf Produktebene. Für eine wirtschaftliche Steuerung im Sinne eines wirksamen FM-Controllings ist die betriebliche Produktwelt mit seinen 3.900 Produkten jedoch zu kleinteilig und nicht zielführend. Im Rahmen der wirtschaftlichen Steuerung wird im Facility Management am Flughafen zwischen zwei grundlegenden Tätigkeiten unterschieden: 5 Für einen Überblick über gesetzliche Anforderungen der Anlagensicherheit sowie dem Erfordernis der Nachweisführung vgl. die Ausführungen von Hanke, Bernd: Controlling der Facility ManagementAnforderungen, in: Schrammel, Florian et al.: Facility Management – Recht und Organisation, Werner Verlag 2013, S. 159-205. 6 Mai, Herbert; Schneider, Christoph: Betreiberrichtlinie der Fraport AG, Stand: 01.01.2013, S. 10. 108 Guido Kaupe, Eva Engel • Instandhalten und Betreiben von Gebäuden, Anlagen und Infrastruktur • Services (Dienstleistungen) Die Tätigkeiten haben unterschiedliche Steuerungsaspekte und Kostentreiber. Instandhaltungsprozesse gliedern sich in zwei Teilbereiche, die regelmäßige Instandhaltung (RIH) mit den Tätigkeiten Bedienen, Inspizieren und Warten, welche auf Maßnahmenebene planbar sind und die unregelmäßige Instandhaltung (UIH) mit den Tätigkeiten Entstören und Instandsetzen, welche zwar in Summe in Form eines Budgets planbar sind, aber dafür nicht auf Maßnahmenebene. Die RIH wird primär durch sogenannte Muss-Vorgaben bestimmt, welche durch gesetzliche Vorgaben, behördliche Auflagen, herstellerbedingte Vorgaben und dem Stand der Technik bedingt sind, um die Betriebssicherheit des Gebäudes oder einer Anlage zu gewährleisten und damit überhaupt die Nutzbarkeit herzustellen. Unter unregelmäßiger Instandhaltung versteht man reaktive Instandhaltung, welche Störungen und Schäden behebt. Auf der anderen Seite steht das Tätigkeitsfeld der Serviceerbringung, welches primär kundengetrieben ist, d.h. diesbezüglich ist nur eine Nachfragesteuerung möglich. Je mehr Menge nachgefragt wird, je schneller die gewünschten Reaktions- und Bearbeitungszeiten sind, desto mehr Aufwand und somit Kosten entstehen. Für ein wirksames Kostencontrolling ist es daher unerlässlich, diese Unterschiede im Steuerungsaspekt zu berücksichtigen. Benötigt wird dafür allerdings eine Ebene, die aggregiert genug ist zum Steuern und differenziert genug ist, um den Produktverantwortlichen entsprechend sinnvolle Steuerungshinweise geben zu können. Zusätzlich ist es nötig, neben einer reinen Kosten- und Mengenbetrachtung (Anzahl Anlagen, Quadratmeter der betreuten Fläche) die Korrelation der beiden Größen zueinander im Blick zu haben, um bei gleichzeitigen Schwankungen beider Größen stets auch eine Indikation der nachhaltigen Effizienz zu erfassen. Dies ist generell über eine Kennzahlenbetrachtung in Form eines Kosten/Mengen-Durchschnitts oder eines eingesetztes Personal/Mengen-Durchschnitts möglich. Neben der betrieblichen Dokumentationspflicht im Rahmen der Betreiberverantwortung und den klassischen Dokumentationspflichten im Rahmen der ordnungsgemäßen Buchführung, bedürfen behördenabrechnungsrelevante Sachverhalte einer gesonderten Dokumentation (Kalkulationsdokumentation) im Facility Management am Flughafen. Dies kommt insbesondere im Rahmen der Nebenkostenabrechnung zur Geltung, wovon die regelmäßige Instandhaltung des Facility Management einen Teilkostenblock darstellt. Die Kostenentlastung der Instandhaltungsaufträge erfolgt dabei direkt auf die Gebäudekostenstelle. Bei über 400 betreuten Gebäuden auf dem Flughafen-Campus, ist diese Zahlenbasis jedoch für ein übergreifendes FM-Controlling ebenfalls zu differenziert, zumal damit nur ca. 50% des operativen Aufwands des Facility Managements des Flughafens betrachtet wären. 3.2 Produktclusterstruktur zur Ableitung strategischer Entscheidungen Fremdvergabe oder Oursourcing ermöglicht es grundsätzlich in vielen Bereichen die Betriebskosten zu reduzieren, Fixkosten zu flexibilisieren, sowie den Bereich auf sein Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch 109 Kerngeschäft auszurichten7. Der Bezug von Teilen, Teilbereichen oder ganzen Gewerken in Fremdleistung ist weitverbreitet im Facility Management und hängt davon ab, welche strategische Ausrichtung im Unternehmen dazu vorherrscht. Von intelligenter Ausrichtung der Fremdvergabe8 bzw. des Outsourcings spricht man dabei, wenn die Fremdvergabe dem Unternehmen hilft sich auf seine Kernkompetenzen zu fokusieren und diese nicht wahllos erfolgt und nachhaltig bei gleicher Qualität Kosten reduziert. In Bezug auf die Betreiberverantwortung muss bei Outsourcings oder der Fremdvergabe zwingend beachtet werden, dass eine wirksame Delegation stattgefunden hat, da ansonsten die Problematik bestehen kann, dass sämtliche Pflichten beim ursprünglich Verantwortlichen verbleiben. Auch die Prozesskosten in Bezug auf Kontrolle, Bündelung der internen Anforderungen, intern vorzuhaltendes Fachwissen zur fachlichen und sachlichen Kontrolle der Fremdleistung und Reibungsverluste, die sich aus einer Fremdvergabe ergeben sollten, tunlichst mit berücksichtigt werden, um einen tatsächlichen Einspareffekt zu erreichen. Um diese Ziele zu erreichen, bedarf es einer entsprechenden Detaillierung, aber gleichzeitig einer Verdichtung von Aufgaben und Tätigkeiten, die zum einen eine strategische Bewertung zulassen und zum anderen mit marktähnlichen Produkten oder Produktgruppen vergleichbar sind, um Benchmarks zu ermöglichen. Nicht zuletzt muss die gewählte Struktur mit Hilfe einfacherer Anpassungen auf mehreren Unternehmensebenen kommunizierbar sein. 4 Controllinginstrumente im Airport Facility Management 4.1 Verdichtung der operativen Detailebene Auch wenn die betriebliche Produktstruktur in ihrer Filigranität eine essentielle Voraussetzung zur Sicherstellung der wahr genommenen Betreiberverantwortung ist, so ist diese Detailtiefe aus Sicht einer kaufmännischen Steuerung nicht sinnvoll. Der extrem hohe Detaillierungsgrad ist für eine Produktionsplanung und -steuerung hilfreich, verhindert jedoch den Blick auf eine übergeordnete Steuerung des Bereichs. Strategische Entscheidungen auf der untersten Produktionsebene zu treffen, ist deshalb nicht zielführend. Andererseits liefert eine Steuerung auf Basis aufbauorganisatorischer Strukturen keine Erkenntnisse darüber, wie effizient einzelne Produktbereiche arbeiten. Aus diesem Grund ist es hilfreich, eine Produktstruktur zu definieren, auf deren Basis strategische Entscheidungen vorbereitet werden können und andererseits sich die wirtschaftliche Effizienz beurteilen lässt. Diese Vorgehensweise setzt auch eine geänderte Philosophie im Selbstverständnis des Servicebereichs voraus. Die Produktebene liefert, wie beschrieben, den erforderlichen Detaillierungsgrad zur Kalkulation von Produkten und Dienstleistungen auf SLA- und SAP-Ebene sowie zur 7 Vgl. Gruber, Xaver F: Fremdleistungscontrolling in der Instandhaltung in: Biedermann, Hubert (Hrsg.): Instandhaltungscontrolling und Budgetierung im Wandel: Planung, Kontrolle und Koordination der Instandhaltung, 2005, S. 184. 8 Vgl. Kalaitzis, Dimitrios: Instandhaltungscontrolling, S. 105. 110 Guido Kaupe, Eva Engel Darstellung der operativen Steuerung auf Auftragsebene (SAP-PM). Die Produktebene dient ebenso zur Durchführung produktspezifischer Benchmarks. Für eine kaufmännische Steuerung (SAP-FI/AA, SAP-CO) ist jedoch eine aggregiertere Ebene erforderlich. Für strategische Managemententscheidungen ist es daher nötig, Dienstleistungen und Tätigkeiten in Produktclustern zu bündeln und zu verdichten, um eine Produktivitäts- und Kostenbewertung vornehmen zu können und daraus Make-or-Buy Entscheidungen ableiten zu können, bzw. eine managementorientierte Steuerung oberhalb der operativen Ebene einführen zu können. Die Verdichtung erleichtert auch die Kommunikation an das TopManagement, insbesondere zu den Fragen: „Was macht ihr, wie macht ihr es, in welcher Qualität und wie/was kann man da(s) steuern?“. Zu diesem Zweck erfolgt die Einführung einer produkt(cluster)orientierten Steuerung. Der erste Schritt ist dabei die Verdichtung der Produkte zu Produktclustern und der zweite Schritt der Aufbau eines produkt(cluster)orientierten Kennzahlenreportings. Bei der Definition von Produktclustern werden zur einfachen Umsetzung die folgenden Aspekte berücksichtigt: Die Clusterung leitet sich aus der vorhandenen aufbau-organisatorischen Struktur ab. Die Cluster sind homogen, überschneidungsfrei und in sich geschlossen. Jedes Cluster kann einer Organisationseinheit, sowie einem Abteilungsleiter eindeutig zugeordnet werden. Kostenstellen können eindeutig Clustern zugeordnet werden, sei es in einer 1:1- oder n:1-Beziehung. 4.2 Instrumente zur wirtschaftlichen Steuerung Für eine Beurteilung der Wirtschaftlichkeit und zur wirksamen Steuerung ist es erforderlich, alle Aspekte die auf ein Produktcluster wirken darzustellen und zu berücksichtigen. Ein Produktcluster-Reporting hat dabei das Ziel, zum einen den Zusammenhang zwischen Steuerung und Qualität transparent darzustellen, und zum anderen einen Überblick über alle wesentlichen Einflussfaktoren auf den operativen Aufwand des Clusters zu liefern. Zusätzlich ist es sinnvoll, wenn das Reporting eine Darstellung der Verteilung von Eigen- zu Fremdleistung je Cluster beinhaltet, um zu erkennen, in welchem Rahmen bereits eine externe Beschaffung stattfindet bzw. welche Komponenten das jeweilige Cluster wie beeinflussen. Eine kennzahlenorientierte Produktclusterung ist insbesondere im Rahmen der jährlichen Planung hilfreich, um bei Mengen- und Aufwandsänderungen eine effektive Steuerung mit Hilfe von Vergleichen zu vorangegangenen Perioden zu gewährleisten. Dabei werden sowohl der operative Aufwand, wie auch die Anzahl der Vollzeitäquivalente des jeweiligen Clusters zu einem adäquaten Wert-/Kostentreiber ins Verhältnis gesetzt. Letztendlich lassen sich aus der intertemporären Entwicklung dieser Kennzahlen Steuerungsansätze ableiten und die nachhaltige Effizienz der Leistungserbringung bewerten. 4.3 Instrumente zur strategischen Steuerung Mit Hilfe der Produktclusterung ist auch eine Basis geschaffen, um strategische Entscheidungen treffen zu können. Die Struktur hat einen ausreichenden Detailierungsgrad auf der einen Seite, ist aber auf der anderen Seite immer noch aggregiert genug, um strategische Entscheidungen treffen zu können. Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch 111 Die strategische Bewertung erfolgt dann auf zwei Betrachtungsebenen. Zum einen liegt der Fokus auf den flughafen-spezifischen Kernkompetenzen des Airport Facility Managers und zum anderen auf der Kostenoptimierung der jeweiligen Leistungserbringung. Somit erfolgt im ersten Schritt eine Bewertung der vorhanden Produktcluster in Hinblick auf ihre strategische Bedeutung. Die strategische Bewertung erfolgt anhand von Kriterien, die prüfen, ob die Leistung wesentlicher Bestandteil des Hauptprozesses der Unternehmung ist, die Leistung eine Kernkompetenz des Bereichs darstellt oder es Anforderungen an Verfügbarkeit oder andere Qualitätskomponenten gibt, die für eine interne Erbringung der Leistung sprechen. Im zweiten Schritt erfolgt dann bei den Clustern mit geringerer strategischer Bedeutung eine Bewertung hinsichtlich des wirtschaftlichen Vorteils, sowie der Opportunitätskosten, wie z. Bsp. erhöhter Schnittstellenkosten eines möglichen Fremdbezugs. Auf dieser Grundlage kann eine ausgewogene Make-or-Buy-Strategie aufgebaut werden, da zahlreiche Leistungen auch von anderen Marktanbietern erbracht werden könnten. Bezogen auf das Airport Facility Management ist die wesentliche Aufgabe die Aufrechterhaltung des Flughafenbetriebs. Das derzeit breite und kleinteilige Leistungsspektrum, dient schwerpunktmäßig der Aufrechterhaltung und Sicherstellung des Flughafenbetriebs (Immobilien und Anlagen). Im Hinblick auf eine künftige anforderungsgerechte Fokussierung der Aufgabenstellungen ist eine permanente Überprüfung und ggf. Neujustierung der Leistungserbringung in Bezug auf eine optimale Fertigungstiefe notwendig. Hinsichtlich des eingangs beschriebenen Kostendrucks auf die Servicebereiche des Flughafens leitet sich aus diesen strategischen Entscheidungen eine grundlegende Überarbeitung des Geschäftsmodells des Airport Facility Managements ab. 5 Grenzen der strategischen Weiterentwicklung von Airport Facility Management-Leistungen Der Kostenverlauf in der Nutzungsphase einer Anlage oder eines Gebäudes wird unter dem Blickwinkel einer Lebenszykluskostenperspektive maßgebend von der Anlagen- und Technikentscheidung in der Konzeptions- und Bauphase beeinflusst. Dies ist nicht unwesentlich, wenn es darum geht, inwieweit Effizienzpotentiale überhaupt gehoben werden können und welche effizienzeinschränkenden Parameter bereits durch diese vorgelagerten Entscheidungen unumstößlich sind. Gerade bei Facility Management Leistungen, die hohe Instandhaltungskomponenten aufweisen, kann es sein, dass durch den reinen Blick auf die Investitionsvolumina überproportionale Kostenverläufe in der Betriebsphase weitgehend außer Acht bleiben. Wichtig ist es, bei Investitionsentscheidungen neben den Realisierungskosten auch die Betriebskosten adäquat zu berücksichtigen, um eine Investitionsentscheidung aus einer kostenminimalen Produktlebenszykluskostenbetrachtung abzuleiten. Vor diesem Hintergrund werden große Anforderungen an eine Lebenszyklusbetrachtung gestellt, aus der sich letztendlich auch die Instandhaltungsstrategie ableiten muss. Eine weitere Herausforderung eines Infrastrukturanbieters ist es, dass die Leistungen des Facility Management im Wesentlichen verkehrsunabhängig sind. Bei starken Schwankungen im Verkehrsaufkommen kann es sein, dass tatsächlich technische Notwendigkeiten durch die ausschließliche finanzfokussierte Effizienzbrille in den Hintergrund gedrängt werden. Denn bei allem Effizienzbestreben steht die Verantwortung des Airport Facility 112 Guido Kaupe, Eva Engel Managers im Vordergrund, die limitierten finanziellen Mittel so einzusetzen, dass auch weiterhin die Betreiberverantwortung und die Betriebssicherheit sichergestellt werden. Im Rahmen dieser limitierten Mittel sollten somit mit höchster Priorität gesetzliche Anforderungen an das Facility Management erfüllt werden. Im Anschluss daran erfolgen unregelmäßige und nicht geplante Instandhaltungsleistungen und erst in letzter Konsequenz werden Maßnahmen erfüllt oder umgesetzt, die zur Steigerung der Kundenzufriedenheit beitragen (z.B. Malerarbeiten, Schönheitsreparaturen in Betriebsgebäuden oder Terminals). Dies ist eine Gratwanderung, die regelmäßig beachtet und nachjustuiert werden muss. Im Zuge einer strategischen Neuausrichtung des Airport Facility Managers liegt der langfristige Fokus auf effizienter Leistungserbringung flughafenspezifischer Kernkompetenzen im FM-Bereich. Rein serviceorientierte Dienstleistungen sind permanent zu hinterfragen und ggf. weiterzuentwickeln. Gerade in Unternehmen mit öffentlichen Wurzeln und einer starken Arbeitnehmervertretung liegt es in der Führungsverantwortung des Managements, dabei für alle Beteiligten vernünftige und sinnvolle Lösungsansätze zu finden. Nur diese Vorgehensweise führt dazu, dass eine nachhaltige Steigerung der Effizienz und Effektivität des FM-Dienstleisters auch wirklich erreicht werden kann. Literatur Bogenstätter, Ulrich: Property Management und Facility Management, Oldenbourg Wissenschaftsverlag GmbH, 2008. Deutsche Lufthansa: Geschäftsbericht 2011. DIN Deutsches Institut für Normung e.V., DIN EN 15221-1 Facility Management – Teil 1 Begriffe; Deutsche Fassung EN 15221-1:2006. Gruber, Xaver F.; Fremdleistungscontrolling in der Instandhaltung, in: Biedermann, Hubert (Hrsg.): Instandhaltungscontrolling und Budgetierung im Wandel: Planung, Kontrolle und Koordination der Instandhaltung, 2005. Fraport AG: Zahlen, Daten, Fakten 2013. Hanke, Bernd; Controlling der Facility Management-Anforderungen, in: Schrammel, Florian et al.: Facility Management – Recht und Organisation, Werner Verlag 2013, S. 159–205. Kalaitzis, Dimitrios (Hrsg.): Instandhaltungscontrolling, Köln 2006. Mai, Herbert; Schneider, Christoph: Betreiberrichtlinie der Fraport AG, Stand: 01.01.2013. Zielorientiertes Risikomanagement bei Einsatzorganisationen Eva-Maria Kern, Thomas Hartung 1 Einleitung Katastrophenhilfe, das Löschen von Großbränden, Bekämpfung von Terrorismus und organisierter Kriminalität, Auslandseinsätze: die Palette der durch Einsatzorganisationen wie Technisches Hilfswerk (THW), Feuerwehr, Polizei, Rettung und Bundeswehr erbrachten Leistungen umfasst ein weites Spektrum. Gemäß ihrem Auftrag verfügen diese Einsatzorganisationen über ein spezifisches Fähigkeitspotenzial, das im Einsatzfall abrufbereit sein muss. Da in der Regel die Rahmenbedingungen eines Einsatzes kaum denen eines anderen gleichen, ist die konkret erforderliche Leistungserstellung nicht vollständig planbar. Dabei nimmt die Planbarkeit mit steigender Komplexität und Dynamik der Einsatzlage dramatisch ab. Hinzu kommt die Notwendigkeit einer situationsabhängigen Kooperation mit anderen Einsatzorganisationen. Risikomanagement stellt für Einsatzorganisationen einen unverzichtbaren Bestandteil ihres Aufgabenspektrums dar. Sie können selbst als risikopolitisches Instrument gesehen werden, wobei die Qualität ihrer Einsatzleistung von ihrer kontinuierlichen Funktionsfähigkeit und strukturellen Stabilität abhängt. Somit spielen zwei „Niveauebenen“ des Risikomanagements für Einsatzorganisationen eine Rolle: • • Die Bevölkerung ist unterschiedlichsten Bedrohungen ausgesetzt. Einsatzorganisationen müssen entsprechend aufgestellt und ausgerichtet sein, auf diese Bedrohungen zu reagieren (strategisches Risikomanagement). Die Leistungserstellung von Einsatzorganisationen erfolgt meist in „Hochrisikosituationen“. Dies erfordert ein entsprechend geplantes und strukturiertes Vorgehen in Einsatzsituationen sowie die Unterstützung mit geeigneten Risikomanagement-Tools im Sinne eines operativen Risikomanagements. Wenn auch Einsatzorganisationen mit Risikomanagement an sich kein Neuland betreten, ist trotzdem oftmals ein nur punktueller Umgang mit Risiken zu beobachten, die mit speziellen Einsatzszenarien oder Gefährdungslagen in Verbindung stehen.1 Beispiele für solche Sze1 Vgl. beispielsweise die Risikobeurteilung des Polizeidepartements Zürich in dessen Strategischem Plan 2010 - 2014, S. 31-32. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_10, © Springer Fachmedien Wiesbaden 2013 114 Eva-Maria Kern, Thomas Hartung narien können Großveranstaltungen, wie etwa Olympische Spiele bzw. Fußballweltmeisterschaften, oder Katastrophenereignisse, wie etwa terroristische Anschläge, sein. Der Fokus ist dann schwerpunktmäßig auf das operative Risikomanagement gerichtet. Zu wenig konzeptualisiert wurde bislang aber ein durchgängiger Ansatz für das einsatzorganisationale Risikomanagement, der insbesondere das strategische und das operative Risikomanagement miteinander verbindet. Ziel des vorliegenden Beitrages ist es, einen Risikomanagementansatz für Einsatzorganisationen vorzustellen, der deren spezifischen Charakteristika Rechnung trägt. Basis dafür ist die Darstellung der Besonderheiten der Leistungserstellung von Einsatzorganisationen. Darauf aufbauend und ausgehend vom betrieblichen Zielsystem erfolgt die Ableitung eines geeigneten einsatzorganisationalen Zielsystems. Danach wird die Relevanz von Risikomanagement für Einsatzorganisationen erläutert. Dazu wird auf deren spezifisches Risikoportfolio eingegangen und ausgeführt, wie das Auftragserfüllungspotenzial von Einsatzorganisationen durch Risikomanagement verbessert werden kann. Darauf aufbauend werden Ansatzpunkte für ein Risikomanagement von Einsatzorganisationen skizziert. Der Beitrag schließt mit einem Fazit. 2 Leistungserstellung und Zielsystem bei Einsatzorganisationen Ausgangspunkt für Risikomanagement stellt das Zielsystem von Organisationen dar, dessen Ausgestaltung von den organisationsspezifischen Charakteristika bestimmt wird. Im Folgenden wird ein einsatzorganisationales Zielsystem abgeleitet und vorgestellt. 2.1 Besonderheiten der Leistungserstellung von Einsatzorganisationen Bevor im folgenden Abschnitt die Spezifika der Leistungserstellung von Einsatzorganisationen herausgearbeitet werden, muss der Begriff Einsatzorganisation, wie er im vorliegenden Beitrag verstanden wird, definiert und eingeordnet werden. Hierzu kann konstatiert werden, dass bisher in der Literatur keine eindeutige und differenzierende Definition von „Einsatzorganisation“ vorliegt. Dies hängt damit zusammen, dass Einsatzorganisationen in der Betriebswirtschaftslehre als solches bis dato nicht selektiv als besondere bzw. eigenständige Organisationsform untersucht werden, sondern aufgrund ihrer organisationalen Charakteristika unterschiedlichen Forschungskontexten zugeordnet werden.2 So werden Einsatzorganisationen in der NPO-Forschung3 als eines von vielen möglichen Beispielen angeführt oder exemplarisch z. B. aus der Perspektive der öffentlichen Verwaltung4 oder der Hochrisikoforschung5 näher beleuchtet. Zudem existieren Veröffentlichungen, die sich 2 Eine Ausnahme bildet Bruderer, der in seiner Dissertation Organisationsformen sozio-technischer Systeme mit Milizcharakter bearbeitet (vgl. Bruderer, 1978) 3 Vgl. z. B. Badelt et al., 2007, S. 3 4 Vgl. z. B. Hilgers, 2008, der öffentliches Performance Management im Anwendungsfeld Feuerwehr behandelt. 5 Vgl. z. B. Mistele, 2007, der im Rahmen seiner Arbeit empirisch Rettungsdienste, Spezialeinheiten der Polizei und Feuerwehreinheiten untersucht, um zu Aussagen über Faktoren des verlässlichen Handelns zu kommen. Zielorientiertes Risikomanagement bei Einsatzorganisationen 115 speziell auf einzelne Einsatzorganisationen wie z. B. Feuerwehr, Rettung, Polizei, THW oder Militär konzentrieren. 6 Ebenso wird in der Praxis von Einsatzorganisationen gesprochen; aber auch hier haben sich weitere, durchaus ähnliche Begrifflichkeiten etabliert, die jedoch bei genauerer Betrachtung nur in Teilen deckungsgleich sind. In Deutschland wird z. B. die Bezeichnung Behörden und Organisationen mit Sicherheitsaufgaben (BOS) für jene Organisationen verwendet, die mit Aufgaben der inneren Gefahrenabwehr betraut sind. Zudem hat sich der Begriff Blaulichtorganisationen eingebürgert, unter dem im allgemeinen Polizei, Feuerwehr und Rettungsdienst verstanden werden. Auch Bezeichnungen wie Zivil- und Katastrophenschutzorganisationen oder Hilfsorganisationen werden verwendet. Im vorliegenden Beitrag werden Einsatzorganisationen als Organisationen verstanden, deren Zweck, d. h. Auftrag, eine Leistungserbringung in dringlichen Situationen zur Erhaltung und Wiederherstellung der normalen Lebensführung oder gar des menschlichen Überlebens darstellt.7 Für das Verständnis der weiteren Ausführungen relevant ist die Tatsache, dass die hier betrachteten Einsatzorganisationen über sogenannte Einsatzkräfte verfügen, die ihren regelmäßigen Aufenthaltsort durch „Ausrücken“ verlassen und ihre Einsatzleistungen für den Bürger vor Ort erbringen. Ausgehend von diesem Einsatzorganisationsverständnis wird nachstehend die Leistungserstellung von Einsatzorganisationen dargestellt. Vom Grundsatz her sind Einsatzorganisationen Dienstleister, weswegen sich als Ausgangsbasis für die Beschreibung ihrer Leistungserstellung Modelle der Dienstleistungsproduktion eignen. Allerdings müssen dabei spezifische Charakteristika der Einsatzorganisationen berücksichtigt werden. Die Ausführungen werden anhand der konstitutiven Merkmale von Dienstleistungen, der Potenzial-, Prozess- und Ergebnisorientierung, strukturiert, die sich an den Phasen der Dienstleistungserstellung orientieren (siehe Abbildung 1).8 Die Potenzialorientierung der Dienstleistung zeigt sich in der Fähigkeit und Bereitschaft eines Dienstleistungsanbieters, die dienstleistende Tätigkeit auszuüben.9 Bei Einsatzorganisationen ist dies die Phase der Herstellung bzw. des Erhalts der Einsatzfähigkeit. Hierbei muss einerseits die personelle Einsatzbereitschaft gewährleistet werden, d. h. das Personal muss entsprechend ausgebildet und in Übung gehalten werden. Andererseits ist das für den Einsatzfall erforderliche Material funktionsfähig zu erhalten (materielle Einsatzbereitschaft). Da es beim Übergang zur eigentlichen Leistungserbringung, d. h. dem Einsatz, zu einem Wechsel der Organisationsstruktur kommt, weil für die Einsatzdurchführung spezifische Einsatzstrukturen, Prozesse und (Führungs-)Verfahren erforderlich sind, ist es zudem wesentlich, deren Funktionsfähigkeit sicherzustellen. 6 Vgl. z. B. Hellmich, 2010, der sich mit Qualitätsmanagement im Rettungsdienst befasst. 7 Vgl. Bruderer, 1978, S. 6 8 Vgl. hierzu Bruhn / Meffert, 2012, S. 25; Hartmann 2012, S. 15 9 Vgl. Hilke, 1989, S. 11 116 Abbildung 1: Eva-Maria Kern, Thomas Hartung Leistungserstellung von Einsatzorganisationen aus Dienstleistungssicht Ein weiteres Merkmal ist, dass die Leistungserbringung nicht wie bei „normalen Dienstleistern“ regelmäßig bzw. relativ standardisiert verläuft. Die Herausbildung von Lerneffekten gemäß der klassischen Lernkurve ist demzufolge nur eingeschränkt möglich. Das Personal kann sich Einsatzerfahrung lediglich punktuell über Einsätze erwerben, vielmehr spielt für den Potenzialerhalt regelmäßige Übungstätigkeit eine große Rolle.10 Dies ist umso wichtiger, je weniger oft einzelne Personen in den Einsatz gehen bzw. je komplexer die zu erwartenden Einsatzlagen sind. Einen besonderen Extremfall stellt dabei das Militär dar, das sich nicht fortwährend in kriegerischen bzw. friedensstiftenden oder -erhaltenden Einsätzen befindet, die den Einsatz des gesamten militärischen Fähigkeitsspektrums erfordern, und dennoch gewährleisten muss, bei Bedarf alle erforderlichen Fähigkeiten zur Verfügung zu stellen. Die besondere Herausforderung bei der Herstellung und dem Erhalt der Einsatzbereitschaft besteht darin, dass im Idealfall für alle im Umfang des Auftrags liegenden Einsatzszenarien und -lagen Fähigkeiten vorgehalten werden müssen, die zu jedem beliebigen Zeitpunkt abgerufen werden können. Aus prozessorientierter Perspektive stellt der konkrete Einsatz die eigentliche Dienstleistungserstellung dar, d. h. die eigentliche Einsatzleistung wird als Endleistung gegenüber dem Bürger am Einsatzort erbracht11. Der externe Faktor kann somit der Bürger selbst (z. B. bei einer Verletztenbergung durch die Feuerwehr) sein, oder aber ein in dessen Besitz befindliches Gut (z. B. ein Haus, in dem ein Brand ausgebrochen ist). Besonders bedeutsam ist die Tatsache, dass sich die Produktionsfaktoren eines Einsatzes nie vollständig im Verfügungsbereich und damit Verantwortungsbereich einer Einsatzorganisation befinden. Zeitpunkt, Umfang, Ausmaß und Fortgang der nachfrageorientierten Leistungserbringung sind 10 Vgl. Mistele, 2007, S. 5 11 Vgl. Goebel et al., 1998, S. 72 Zielorientiertes Risikomanagement bei Einsatzorganisationen 117 situationsbezogen und damit überwiegend fremdbestimmt.12 Auslöser eines Einsatzes sind zumeist unvorhergesehene Ereignisse, wie z. B. ein Brand oder eine Überschwemmung. Auch bei vorhersagbaren Einsätzen, wie z. B. bei der Planung von Großereignissen (Fußballspiele, politische Veranstaltungen, etc.) ist nur der mögliche Einsatzzeitraum grob bekannt. Wie die Leistungserstellung jedoch im konkreten Fall aussieht, kann nur sehr eingeschränkt vorhergesagt werden. Aus diesen Gründen stellt sich die qualitative und quantitative Planung der in der Potenzialphase bereitzustellenden Fähigkeiten als große Herausforderung dar. Wie schon dargestellt, gestaltet sich jeder Einsatz individuell. Zwar werden in der Phase Herstellung und Erhalt der Einsatzbereitschaft spezifische Fähigkeiten und Fertigkeiten entwickelt und standardisierte Abläufe und Verfahren trainiert. Im realen Einsatz bedarf es jedoch einer situationsspezifischen Ausgestaltung der Leistungserbringung durch eine koordinationsintensive ad-hoc Kombination von Teilfähigkeiten. Dem wird in der Praxis dadurch Rechnung getragen, dass sich spezifische Führungsstrukturen und –prozesse etabliert haben und den Einsatzkräften sowohl auf individueller als auch auf Teamebene viel Handlungs- und Entscheidungskompetenz zugebilligt wird. Den persönlichen Fähigkeiten Einzelner kommt damit eine große Bedeutung zu. Erschwerende Rahmenbedingungen während des Einsatzes sind der im Allgemeinen bestehende hohe Zeit-, Entscheidungs- und Handlungsdruck. Die handelnden Personen müssen innerhalb kurzer Zeit viele und komplexe Entscheidungen treffen, wobei diese Entscheidungen und die aus ihnen resultierenden Handlungen wiederum die Einsatzsituation und damit den Einsatz selbst beeinflussen.13 Zudem besteht die latente Gefahr für Leib und Leben, denen sich die Einsatzkräfte ausgesetzt sehen. Aus der ergebnisorientierten Perspektive kann das Ergebnis des Dienstleistungsprozesses als Wirkung umschrieben werden, die sich beim Dienstleistungsnachfrager konkretisiert.14 Im Kontext von Einsatzorganisationen sind dies in Abhängigkeit von deren konkretem Auftrag beispielsweise die Rettung von Menschen, die Gefahrenabwehr oder aber die Wiederherstellung der öffentlichen Sicherheit. Die obigen Ausführungen haben gezeigt, dass die Leistungserstellung von Einsatzorganisationen Besonderheiten aufweist, die bei der Definition ihres Zielsystems und damit bei der Konzeption eines geeigneten Risikomanagementansatzes berücksichtigt werden müssen. Im Folgenden wird ein geeignetes einsatzorganisationales Zielsystem entwickelt. 2.2 Das betriebliche Zielsystem als Referenzobjekt Risikomanagement hat grundsätzlich eine zielorientierte, d. h. finale Ausrichtung. Entscheidungsträger in Organisationen richten ihr gesamtes Handeln an Zielen aus. Nur dort, wo Ziele gesetzt werden, besteht die Gefahr, diese nicht zu erreichen. Nur dort resultieren also Risiken. Die prinzipiell herausragende Bedeutung von Zielen folgt dem Umstand, dass sie Leitlinien des Handelns begründen und Entscheidungen über den Einsatz von Ressour12 Vgl. Hilgers, 2008, S. 252 ff. 13 Vgl. Mistele, 2007, S. 36 14 Vgl. Hilke, 1989, S. 13 f. 118 Eva-Maria Kern, Thomas Hartung cen beurteilbar machen. Somit dienen Ziele oder, wenn mehrere Ziele in ein miteinander verbundenes hierarchisches Verhältnis gesetzt werden, ein Zielsystem15 als Ausgangspunkt risikopolitischer Überlegungen. Hierfür kann das in der betriebswirtschaftlichen Literatur umfassend erarbeitete betriebliche Zielsystem als Referenzobjekt herangezogen werden, wobei gegebenenfalls Anpassungen, insbesondere in der konkreten Zielformulierung, vorzunehmen sind, sobald die Fokussierung auf Unternehmen aufgegeben wird und nicht ausschließlich wirtschaftliche Interessen verfolgende Organisationen betrachtet werden. Als Ziel wird im betriebswirtschaftlichen Kontext ein zukünftiger, gegenüber dem derzeitigen im allgemeinen veränderter und von einem Subjekt erwünschter Zustand verstanden, der als Ergebnis einer Entscheidung eintreten soll.16 Ziele haben aber nicht nur die Aufgabe gewünschte Zustände zu beschreiben, sondern sie fungieren auch als Bewertungsmaßstab. Ziele implizieren, dass Handlungen darauf ausgerichtet werden und dass Ergebnisse im Hinblick auf die Zielerreichung bewertet werden. Die präzise Definition von Zielen ist folglich ein zentrales Problem wirtschaftlichen Handelns. Um ihrer Bewertungsfunktion gerecht zu werden, müssen Ziele vollständig definiert werden (vgl. Abbildung 2):17 − Der Zielinhalt legt fest, auf welche Größe sich das Streben eines Subjekts richtet. Zunächst ist daher festzulegen, auf welche Zielgrößen bzw. Zielinhalte das unternehmerische Handeln ausgerichtet werden soll. − Der Zeitbezug des Ziels bestimmt den Zeitpunkt der geplanten Zielerreichung oder den Zeitraum der Zielgültigkeit. So kann zwischen operativen Zielen, taktischen Zielen und strategischen Zielen differenziert werden. − Das Zielausmaß bezeichnet das gewünschte Ausmaß des Zielinhalts. Möglich sind Vorschriften der Extremierung, Optimierung, Satisfizierung oder Fixierung des Zielausmaßes.18 Die Operationalisierung, also Messbarkeit, eines Ziels ist dann gegeben, wenn der Erreichungsgrad des Ziels gemessen werden kann, unabhängig davon, ob die Messung auf Kardinal-, Ordinal- oder Nominalskalen beruht.19 Die Quantifizierung, d. h. zahlenmäßige Bestimmbarkeit, bedingt hingegen die kardinale Messung der Zielerreichung mittels einer Verhältnis- oder Intervallskala.20 In der Regel verfolgt ein Unternehmen nicht nur ein Ziel, sondern mehrere Ziele simultan. Diese Ziele stehen nicht alle auf gleicher Ebene und isoliert nebeneinander. Vielmehr weisen Ziele bestimmte Relationen und Abhängigkeiten zueinander auf.21 Die Abbildung 15 Vgl. exemplarisch Raffée, 1974, S 119 ff. 16 Vgl. Bea, 2009, S. 338. 17 Vgl. Diederich, 1990, S. 31. 18 Vgl. Bea, 2009, S. 338. 19 Vgl. Heinen, 1985, S. 99. 20 Vgl. Diederich, 1990, S. 31. 21 Vgl. Heinen, 1976, S. 89. 119 Zielorientiertes Risikomanagement bei Einsatzorganisationen der Gesamtheit aller Ziele eines Unternehmens sowie der horizontalen und vertikalen Beziehungen zwischen diesen Zielen erfolgt im Zielsystem des Unternehmens.22 Zielsystem Ziele im Unternehmen Beziehungen zwischen Zielen  Zielinhalt / Zielgröße  Interdependenzrelationen  Zeitbezug  Instrumentalrelationen  Zielausmaß / Zielkriterium Abbildung 2:  Präferenzrelationen Zielsystem Die Interdependenzrelationen beschreiben, ob und in welchem Ausmaß die Realisierung eines Ziels die Verwirklichung anderer Ziele beeinflusst. Zum Beispiel stehen zwei Ziele zueinander in komplementärer Beziehung, wenn die Erreichung des einen Ziels durch die Erreichung des anderen Ziels gefördert wird.23 Zwei Ziele verhalten sich hingegen konkurrierend oder konfliktär, wenn die Erfüllung des einen Ziels zu einer Minderung des Erfüllungsgrades des anderen Ziels führt. Eine weiterführende Ordnungsmöglichkeit von komplementären Zielen besteht in einer Anordnung der entsprechenden Ziele nach ihrem Beitrag zur Erfüllung weiterer Ziele.24 Die Instrumentalrelationen begründen als Mittel-Zweck-Beziehungen somit die hierarchischen Zusammenhänge zwischen einzelnen Zielen, gemeinhin eine Zielhierarchie.25 Beispielsweise werden im Rahmen der strukturellen Organisation einer Unternehmung auf verschiedenen Ebenen Ziele definiert (Ober-, Zwischen- und Unterziele, vgl. Abbildung 3). Dabei sind die Ziele einer Ebene Mittel zum Zweck zur Erreichung der Ziele der nächsthöheren 22 Vgl. Bidlingmaier / Schneider, 1976, Sp. 4733. 23 Vgl. Heinen, 1976, S. 94-95. 24 Vgl. Heinen, 1976, S. 102-103. 25 Vgl. Bidlingmaier, 1964, S. 76-77. 120 Eva-Maria Kern, Thomas Hartung Ebene. Durch Vorgabe geeigneter Zwischen- und Unterziele ist somit die Koordination von dezentralisierten Teilentscheidungen und deren Ausrichtung auf das Oberziel möglich.26 Üblicherweise steigt mit einer höheren Einordnung eines Ziels in der Zielhierarchie auch dessen Planungshorizont. Oberziele sind somit eher strategischer, Unterziele hingegen taktischer bzw. operativer Natur. Oberziel Zwischenziele Unterziele Abbildung 3: Zielhierarchie Während die Interdependenz- und Instrumentalrelationen zwischen Zielen objektiv bestimmbar sind, hängen Präferenzrelationen von individuellen Wertmaßstäben ab. Werden mehrere, mindestens teilweise konfliktäre Ziele verfolgt, müssen diese entsprechend der individuellen Präferenz bzw. Priorität ihres Erreichens in eine Ordnung gebracht werden. Als Resultat entsteht eine subjektive Rangordnung der betrachteten Ziele. Hierfür können unterschiedliche Methoden angewandt werden, wie beispielsweise die Zielgewichtung Neben der inhaltlichen Festlegung der zu verfolgenden Zielgrößen ist zudem das Ausmaß zu definieren, in dem die Zielerreichung angestrebt werden soll.27 Zur Messung von Risiken ist es letztendlich unabdingbare Voraussetzung, eine Zielvorgabe in der Weise festzulegen, dass ein Ziel sowohl inhaltlich definiert als auch quantifiziert wird. 2.3 Vom betrieblichen zum einsatzorganisationalen Zielsystem Das Zielsystem einer Einsatzorganisation kann nur bedingt mit dem eines gewinnorientierten Unternehmens verglichen werden. Die in diesem Beitrag betrachteten Einsatzorganisationen dienen der Aufrechterhaltung bzw. Wiederherstellung der inneren bzw. äußeren 26 Vgl. Heinen, 1991, S. 16. Oftmals ist das Oberziel nur für den Betrieb als Ganzes, nicht aber in Bezug auf delegierte Entscheidungen operabel. Vgl. Diederich, 1990, S. 39. 27 Vgl. Heinen, 1976, S. 82. Zielorientiertes Risikomanagement bei Einsatzorganisationen 121 Sicherheit und demzufolge dem Gemeinwohl. Ihr spezifischer Auftrag ist staatlich definiert, in Gesetzen bzw. Richtlinien festgeschrieben28 und häufig nicht ohne weiteres zu quantifizieren. Einsatzorganisationen sind durch das Vorherrschen von Sachzielen geprägt, deren Operationalisierung sich herausfordernd gestaltet.29 Die klassischen Formalziele eines Unternehmens treten in den Hintergrund. In Anlehnung an entsprechende, im Kontext von NPOs von Horak et al.30 getätigte Überlegungen, beschreibt Abbildung 4 die wesentlichen Bausteine eines Zielsystems von Einsatzorganisationen. Abbildung 4: Bausteine des Zielsystems von Einsatzorganisationen31 Das Oberziel der Einsatzorganisation wird im Auftrag festgeschrieben, der die Existenzgrundlage für die Organisation beinhaltet, gleichzeitig aber auch eine gewisse Starrheit 28 Vgl. z.B. Verteidigungspolitische Richtlinien, THW-Gesetz, Rettungsdienstgesetz, Katastrophenschutzgesetz. 29 Diesbezüglich lassen sich Parallelen zwischen Einsatzorganisationen und Non-Profit Organisationen (NPO) feststellen. Vgl. Stötzer, 2009, S. 2. Manche Einsatzorganisationen, wie zum Beispiel das Rote Kreuz, lassen sich auch unter NPO subsumieren. 30 Vgl. Horak et al., 2007, S. 179 ff. 31 In Anlehnung an Horak, 1993, S. 165 122 Eva-Maria Kern, Thomas Hartung untergeordneter Ziele mit sich bringt.32 Beispielsweise ist es Auftrag der Bundeswehr, Deutschland und seine Bürgerinnen und Bürger zu schützen, die außenpolitische Handlungsfähigkeit Deutschlands zu sichern, zur Verteidigung der Verbündeten beizutragen, einen Beitrag zu Stabilität und Partnerschaft im internationalen Rahmen zu leisten und die multinationale Zusammenarbeit und europäische Integration zu fördern.33 Das THW leistet technische Hilfe: (1) nach dem Zivilschutz- und Katastrophenhilfegesetz, (2) im Ausland im Auftrag der Bundesregierung, (3) bei der Bekämpfung von Katastrophen, öffentlichen Notständen und Unglücksfällen größeren Ausmaßes auf Anforderung der für die Gefahrenabwehr zuständigen Stellen sowie bei der Erfüllung öffentlicher Aufgaben im Sinne der Nummern 1 bis 3, soweit es diese durch Vereinbarung übernommen hat.34 Die Berliner Feuerwehr hat unter anderem den Auftrag Gefahren für die öffentliche Sicherheit abzuwehren, die durch Brände, Explosionen, Überschwemmungen, Unfälle und ähnliche Ereignisse entstehen.35 Der Auftrag stellt den Rahmen für die Zielbildung der Einsatzorganisation dar und dient demzufolge als Grundlage für die Ableitung von Zwischen- und Unterzielen. Die angeführten Beispiele lassen erahnen, welche Herausforderungen sich dabei ergeben (können). Die Leistungswirkungsziele haben direkt die Erfüllung des Auftrags zum Inhalt.36 Sie konkretisieren den Auftrag, beschreiben die beabsichtigten Wirkungen bei den Leistungsempfängern und stellen die konkretisierten Oberziele der Einsatzorganisation dar. Häufig bestehen mehrere Leistungswirkungsziele nebeneinander, die zudem – aufgrund ihres meist qualitativen Charakters – nur schwer operationalisierbar sind. Damit Wirkungen erreicht werden können, müssen die Einsatzorganisationen spezifische Leistungen erbringen, die in den sogenannten Leistungserbringungszielen festgelegt werden. Hier wird festgelegt, über welches Fähigkeitsspektrum die Einsatzorganisation verfügen soll, d. h. welche Aufgaben von ihr zu erbringen sind. Beispielhafte Aufgaben, die die Bundeswehr zu erbringen hat, sind die Landesverteidigung als Bündnisverteidigung im Rahmen der Nordatlantischen Allianz, internationale Konfliktverhütung und Krisenbewältigung einschließlich des Kampfs gegen den internationalen Terrorismus oder die Beteiligung an militärischen Aufgaben im Rahmen der Gemeinsamen Sicherheits- und Verteidigungspolitik der EU.37 Das Bayerische Rote Kreuz zählt z. B. die Mitwirkung beim Schutz der Zivilbevölkerung, die Teilnahme an nationalen und internationalen Hilfsaktionen, bei diesen im Auftrag des DRK, die Notfallrettung und Krankentransport oder die erste Hilfe bei Not- und Unglücksfällen zu seinen Aufgaben.38 32 So ist es für Einsatzorganisationen nicht ohne weiteres möglich, ihren Leistungskatalog schnell und flexibel zu verändern, wenn dieser an Gesetze gekoppelt ist. 33 Vgl. BMVg, 2011, S. 11 34 Vgl. Gesetz über das Technische Hilfswerk, § 1. 35 Vgl. Berliner Feuerwehrgesetz 36 Vgl. Horak et al., 2007, S. 179 37 Vgl. BMVg, 2011, S. 11 38 Vgl. Bayerisches Rotes Kreuz, 2001, S. 4. Zielorientiertes Risikomanagement bei Einsatzorganisationen 123 Von besonderer Bedeutung für Einsatzorganisationen ist die Definition der Potenzialziele. Hier muss festgelegt werden, welche Ressourcen (z. B. Personal, Material) in welcher Qualität und Menge gebraucht werden bzw. welche organisatorischen Strukturen und Verfahren angewendet werden müssen, damit die Leistungswirkungs- und Leistungserbringungsziele erreicht werden können. Die Festlegung der Potenzialziele gestaltet sich insbesondere aufgrund der oben schon näher ausgeführten eingeschränkten Planbarkeit von Zeitpunkt, Art und Ausmaß der Leistungserstellung als kritisch und herausfordernd. Beim Zielbildungsprozess in Einsatzorganisationen sind insbesondere zwei Herausforderungen hervorzuheben: • Die Festlegung von Leistungswirkungs-, Leistungserbringungs- und Potenzialzielen ist aufgrund der Charakteristika des Leistungserstellungsprozesses sowie aufgrund des das Zielsystem beeinflussenden komplexen und dynamischen Umfeldes von großer Unsicherheit geprägt. Weder kann ohne Restrisiko festgelegt werden, was die jeweilige Einsatzorganisation tatsächlich können soll (beispielsweise ist dies besonders kritisch im Bereich Polizei und Militär, weil sich aktuelle und zukünftige Bedrohungen nicht immer richtig einschätzen lassen), noch lässt sich daraus präzise ableiten, welche Ressourcen erforderlich sind, um die Leistungserstellung in allen Facetten und Situationen uneingeschränkt erbringen zu können. An dieser Stelle steht das einsatzorganisationale Risikomanagement vor erheblichen Herausforderungen, die vor allem der besonderen Bedrohungslage und der in den meisten Fällen nur kurzen Reaktionszeiten geschuldet sind. • Im Unternehmenskontext lassen sich viele Ziele und Leistungen anhand von Nominalgütern, d. h. Geldeinheiten, festlegen und messen. Einer solchen Messung entziehen sich regelmäßig die Leistungswirkungs- und Leistungserbringungsziele, die nicht auf einen ökonomischen bzw. unternehmerischen Erfolg gerichtet, sondern tendenziell immaterieller Natur sind. Abstrakte Zielsetzungen, wie beispielsweise der Schutz der Bevölkerung, können nur anhand (subjektiv) gewählter, messbarer Stellvertretergrößen quantifiziert werden. Die sonstigen Formalziele legen weitergehende Einschränkungen fest, was die Handlungsspielräume zur Erreichung der Leistungswirkungs-, Leistungserbringungs- und Potenzialziele betrifft. Hier können z. B. Budgetziele genannt werden, die aus der Anforderung eines sparsamen Umgangs mit öffentlichen Mitteln abgeleitet werden können. Inwieweit sich hier allerdings streng konfliktäre Zielsetzungen ergeben, hängt von der jeweiligen Einsatzsituation ab. Gegebenenfalls werden Budgetbeschränkungen aufgehoben, um Leib und Leben potenzieller Opfer oder auch erhebliche Sachwerte zu schützen. Weitere Formalziele können auch aus speziellen politischen Ausrichtungen entstammen. Beispielsweise können mögliche Auftragslagen und die daraus abgeleiteten Ziele der Bundeswehr präzisiert werden, wenn etwaige Beschränkungen politischer Natur als Rahmenziel gesetzt werden (z. B. spielt hier der Verzicht politischer Instanzen eine Rolle, die Bundeswehr mit Aufträgen hinsichtlich der inneren Sicherheit zu versehen). Die Ausführungen lassen die Herausforderungen erkennen, mit denen sich Einsatzorganisationen bei der Formulierung und Quantifizierung ihrer Ziele als Basis für ein Risikomanagement konfrontiert sehen. Welche Relevanz Risikomanagement für Einsatzorganisationen aufweist, beschreibt der nächste Abschnitt. 124 3 Eva-Maria Kern, Thomas Hartung Relevanz eines Risikomanagements für Einsatzorganisationen Die generelle Risikolage des 21. Jahrhunderts ist durch eine weitläufige – häufig sogar globale – Exponierung gegenüber einer Vielzahl von Risiken verursacht, die sowohl in ihrer Häufigkeit als auch in ihrem Ausmaß regelmäßig neue Intensitäten erreichen. In der Öffentlichkeit derzeit breit wahrgenommene Risiken stammen beispielsweise aus den Bereichen Natur- und Umweltkatastrophen39, Terrorismus oder auch Kriminalität bzw. Piraterie. Einsatzorganisationen agieren genau vor diesem Hintergrund einer von Dynamik geprägten Umwelt. Zur Gewährleistung des Schutzes der Bevölkerung ist es erforderlich, dass sie in der Lage sind, auf die sich wandelnden Bedrohungen, die aus dieser Umwelt resultieren, zu reagieren und sich dementsprechend auszurichten und aufzustellen. Die dafür notwendige strukturierte Informationsversorgung bedarf eines adäquaten Risikomanagements. Ferner stellen die in Abschnitt 0 beschriebenen Kontextfaktoren des Handelns (hoher Zeit-, Entscheidungs- und Handlungsdruck, Gefahr für Leib und Leben) besondere Anforderungen an den Umgang mit Risiken bei der einsatzorganisationalen Leistungserstellung. Zudem erwarten Bürger eines modernen „Vorsorgestaates“– ob in allen denkbaren Situationen zu Recht sei an dieser Stelle dahingestellt –, dass der Staat entsprechende Maßnahmen zur Gefahrenabwehr zur Verfügung stellt. Die Bundesregierung misst diesem Themenfeld große Bedeutung bei, wie u.a. das Rahmenprogramm „Forschung für die zivile Sicherheit“ des Bundesministeriums für Bildung und Forschung (BMBF), erkennen lässt40. Hier werden auch entsprechende Aspekte des Risikomanagements adressiert. Auch in der Praxis kommt der Thematik ein großer Stellenwert zu. So ist die Risikoanalyse im Kontext des Bevölkerungsschutzes ein zentraler Bestandteil und wurde von der Bundesregierung im Sinne eines „übergeordneten Risikomanagements“ gesetzlich im Zivilschutz- und Katastrophenhilfegesetz (ZSKG) verankert. Auch in Einsatzorganisationen ist Risikomanagement durchaus heute schon fester Bestandteil des Agierens, allerdings überwiegend nur punktuell auf einzelne Bausteine bezogen. „Risikomanagement-Denken“ äußert sich zum Beispiel anhand der Planung konkreter Einsatzszenarien, der Übung anhand der Simulation solcher Szenarien und durchaus auch auf strategischer Ebene wie z.B. durch die gezielte Analyse und Bewertung von Umweltrisiken. Zu bemängeln ist allerdings, dass diese Bausteine größtenteils unverbunden nebeneinanderstehen. In der Konsequenz wird Risikomanagement damit nur punktuell betrieben, es fehlt derzeit noch ein systematisches und durchgängig anwendbares Risikomanagementkonzept für Einsatzorganisationen. Im Folgenden werden als Basis für eine solche Konzeption besonders relevante Risiken für Einsatzorganisationen erläutert und der konkrete Nutzen von Risikomanagement bei Einsatzorganisationen beschrieben. 39 Vgl. beispielsweise MunichRe, 2013. 40 Vgl. Bundesministeriums für Bildung und Forschung (BMBF), 2012. Dieses Thema stand auch schon in den Jahren 2007 bis 2012 in einem Programm der Bundesregierung „Forschung für die zivile Sicherheit“ im Fokus. Zielorientiertes Risikomanagement bei Einsatzorganisationen 125 3.1 Risikoportfolio von Einsatzorganisationen In Einsatzorganisationen lassen sich Risiken vorfinden, die in breiteren organisationalen Kontexten, wie beispielsweise innerhalb von Unternehmen, ebenfalls eine Rolle spielen. Diese Risiken haben bereits eine intensive Auseinandersetzung in der Literatur erfahren und werden aus diesem Grund hier nicht näher betrachtet. Vielmehr werden im Folgenden insbesondere die Risiken beleuchtet, die besonders relevant (oder auch spezifisch) für Einsatzorganisationen sind, wobei eine Differenzierung zwischen strategischen und operativen Risiken vorgenommen wird. Strategische Risiken betreffen die Wirksamkeit und Legitimation der Einsatzorganisation an sich, aber auch im Zusammenwirken mit anderen Einsatzorganisationen. Sie lassen sich zuvorderst unterteilen in Umweltrisiken und Effektivitätsrisiken: − Umweltrisiken resultieren aus der Veränderung der für Einsatzorganisationen relevanten Umwelten. Diese Umwelten lassen sich differenzieren in • die natürliche Umwelt, in der z. B. Klima- bzw. Umweltveränderungen ein verstärktes Auftreten von Naturkatastrophen in Form von wetterbedingten Extremereignissen hervorrufen können, • die soziokulturelle Umwelt, in der Risiken wie z. B. Kriminalität auftreten, oder aber auch die veränderte Bereitschaft, soziales Engagement zu betreiben, was sich insbesondere negativ auf Einsatzorganisationen mit freiwilligen Helfern auswirken kann, • die politische Umwelt, in der beispielsweise militärische Einsätze erforderlich sind bzw. werden oder der internationale Terrorismus zur Bedrohung wird, und • die wirtschaftlich-technische Umwelt, in der sich z. B. durch die Entwicklung neuer Technologien bis dato unbekannte Bedrohungen etablieren (z.B. Cyberkriminalität) oder aber eigentlich gängige Technologien wie beispielsweise die Atomkraft zu Risiken werden. − Aus der Dynamik der Umwelten ergeben sich „Effektivitätsrisiken“. Diese resultieren aus der einsatzorganisationalen Besonderheit, dass bei nur unzureichender Information über alle Bedrohungen und deren Folgen sowohl bei den Leistungswirkungs-, Leistungserstellungs- als auch Potenzialzielen das Risiko generiert wird, dass nicht die „richtigen“ Ziele gesetzt werden und damit die „Wirksamkeit“ bzw. die Effektivität der Einsatzorganisation darunter leidet. Ein solches „Effektivitätsversagen“ kann sogar die Existenzberechtigung der Einsatzorganisation in Frage stellen, wenn nach Risikoeintritt die Erwartungshaltungen hinsichtlich Hilfs- und Versorgungsmaßnahmen bei den Betroffenen nicht erfüllt werden. Operative Risiken stellen die Risiken der konkreten Leistungserstellung dar und lassen sich aus deren spezifischen Charakteristika ableiten. Hierzu zählen aus der Perspektive von Einsatzorganisationen unter anderem die folgenden Risiken: − Leistungswirkungsrisiken: Risiken, die die Realisierung der intendierten spezifischen Wirkungen, die zur Erreichung des Auftrags beitragen, beeinträchtigen oder konterkarieren. Zum Beispiel lassen sich durch bestimmte polizeiliche Maßnahmen Wirkungen erreichen, die zur Aufrechterhaltung oder Wiederherstellung der öffentlichen Sicherheit 126 Eva-Maria Kern, Thomas Hartung führen. Derartige Maßnahmen können aber auch gegenteilige Wirkungen erzeugen, wenn sie in der Bevölkerung als unangemessen empfunden wird. − Leistungserbringungsrisiken: Risiken, die das Agieren im konkreten Einsatz beeinträchtigen können, wie z. B.: • Personalrisiken (Qualifikation, Personalausfall, etc.) • Material- bzw. Ausstattungsrisiken (Ausfall, unzureichende Menge, etc.) • Risiken, die aus den vorne dargestellten spezifischen Kontextfaktoren des Handelns resultieren • Kooperations- bzw. Abstimmungsrisiken mit anderen Einsatzorganisationen − Potenzialrisiken: Risiken, die die Einsatzbereitschaft an sich beeinträchtigen können, wie beispielsweise: • Personalrisiken (unzureichende Qualifikation, Personalausfall, etc.) • Material- bzw. Ausstattungsrisiken (Ausfall, Veralterung, etc.) Die nachfolgenden Ausführungen sollen aufzeigen, wie ein adäquates, auf die besonderen Situationen von Einsatzorganisationen abgestelltes Risikomanagement zur Auftragserfüllung beitragen kann. 3.2 Verbesserung des Auftragserfüllungspotentials von Einsatzorganisationen durch Risikomanagement Als Zweck des Risikomanagements kann vor allem die Erhaltung und Weiterentwicklung einer Organisation durch die Bewusstmachung und die dadurch stimulierte Bewältigung von Risiken bei Führungs- und Durchführungsprozessen genannt werden.41 Bei Einsatzorganisationen geht es selbstverständlich ebenfalls darum, durch die Anwendung von risikopolitischen Instrumenten die gesetzten Ziele bestmöglich zu erreichen. Allerdings wird im Vergleich zu anderen Organisationen das Risikomanagement um drei weitere wesentliche Funktionen erweitert: • Erhalt der Wirksamkeit der Einsatzorganisation auf strategischer Ebene: diese Funktion wird durch eine – im Idealfall proaktive, notfalls nur reaktive – Weiterentwicklung der Einsatzorganisation erfüllt. Notwendig hierzu ist ein risikobezogener Abgleich zwischen dem Soll- und dem Ist-Leistungsprofil der Einsatzorganisation. Änderungen im SollProfil können durch die Beantwortung von Fragen erkannt werden, wie: • Kann die Einsatzorganisation das, was sie soll? • Ist der Auftrag noch im Einklang mit der realen Bedrohungslage? • Sind die aus dem Auftrag abgeleiteten strategischen Leistungswirkungs-, Leistungserbringungs- und Potenzialziele passend? Zur fundierten Beurteilung ist die Analyse der oben genannten Umweltrisiken erforderlich, aus deren Ergebnis dann entsprechende Maßnahmen zum Umgang mit der verän41 Vgl. Hahn, 1987, S. 138 Zielorientiertes Risikomanagement bei Einsatzorganisationen 127 derten Risikolage abgeleitet werden können. Konkrete Handlungsempfehlungen können dann beispielsweise auf den Einsatz neuer Technologien oder die Entwicklung neuer Konzepte zur Helfergewinnung abstellen. • Kommunikationsfunktion an den Staat: diese Funktion ist insbesondere für politische Instanzen von Bedeutung, wenn über die Weiterentwicklung einer Einsatzorganisation entschieden werden soll bzw. wenn die „kollektive“ Weiterentwicklung mehrerer Einsatzorganisationen, z. B. für den Katastrophenschutz, beabsichtigt wird. • Möglichst risikoarme Abwicklung der Dienstleistung „Einsatz“: hier ist insbesondere der Schutz von Leib und Leben der Einsatzkräfte zu nennen; daraus resultieren auch Abwägungen, in welcher Form Kapazitäten zur Rettung von Opfern eingesetzt werden sollen, bzw. ob nicht sogar in Grenzfällen der Tatbestand der „Unrettbarkeit“ festgestellt werden muss. Hier spielen Vorwegnahmen im Rahmen der Einsatzplanung bzw. einsatzorganisationsspezifische Instrumentarien eine entsprechende Rolle. Die Integration bzw. enge Verknüpfung des operativen mit dem strategischen Risikomanagement ist für Einsatzorganisationen von übergeordneter Bedeutung. Aus den Erkenntnissen im Umgang mit den operativen Risiken lassen sich Schlussfolgerungen für den Umgang mit den strategischen Risiken treffen. Beispielsweise können punktuelle Rückmeldungen oder insbesondere die systematische Aufarbeitung von „lessons learned“ aus dem unmittelbaren Einsatzgeschehen Impulse für operative aber auch strategische Veränderungen im Sinne von Nachsteuerungsbedarfen liefern. Beispiele hierfür wären konkrete Rückmeldungen über die Passgenauigkeit oder den technischen Stand der verwendeten Ausrüstung, Hinweise auf fehlende Qualifikationen der Einsatzkräfte oder Anstöße zur Überarbeitung von Einsatzplänen. Impulse zum „Wirksamkeitserhalt“ der Einsatzorganisation können sowohl aus der Analyse strategischer als auch operativer Risiken gewonnen werden, wofür aber die Passung der Schnittstellen zwischen operativem und strategischem Risikomanagement vorausgesetzt werden muss. 4 Ansatzpunkte für ein Risikomanagement bei Einsatzorganisationen Die vorangehenden Ausführungen zeigen, wie wichtig es im Kontext von Einsatzorganisationen ist, strategisches und operatives Risikomanagement miteinander zu verbinden. Ausgangsbasis der weiteren Überlegungen bildet daher das Konzept des von Kern und Hartung vorgestellten geschäftsprozessorientierten Risikomanagements.42 In Abbildung 5 wird die Grundidee für ein integriertes Risikomanagement bei Einsatzorganisationen dargestellt. Die Wertschöpfung (und damit die für die Gesellschaft und den Bürger relevante Leistungserstellung), erfolgt in den beiden Kernprozessen Einsatz und Herstellung/Erhalt der Einsatzbereitschaft, die beispielhaft für das THW illustriert werden. Der Kernprozess Einsatz, d. h. die eigentliche Leistungserbringung, lässt sich in die Teilprozesse unmittelbare Einsatzvorbereitung, Einsatzdurchführung und unmittelbare Einsatznachbereitung unterteilen. Basis für die Herstellung bzw. den Erhalt der Einsatzbereitschaft sind eine entsprechende Fach- und Umsetzungsplanung, in der die strategischen Ziele des THW auf Basis einsatztaktischer Überlegungen umgesetzt sowie die einsatzrelevante Auf42 Vgl. Kern / Hartung, 2008, S. 59 ff. 128 Eva-Maria Kern, Thomas Hartung bau- und Ablauforganisation geplant werden. Zudem fließen hier lessons learned aus Einsätzen ein. Ergebnis dieses Teilprozesses sind Anforderungen an die Einsatzorganisation, an einsatzbereites Personal und Material sowie die Erstellung der Stärke- und Ausrüstungsnachweisung (StAN). Im Teilprozess Materielle Einsatzbereitschaft erfolgt die Entwicklung und Fortschreibung technischer Konzepte, die Entwicklung und Erprobung von Ausstattung zur Beschaffungsreife sowie die Wartung und Pflege der Einsatzausstattung mit dem Ziel, einsatzbereites Material bereitstellen zu können. Der Teilprozess Personelle Einsatzbereitschaft hat das Ziel, qualifizierte und motivierte Einsatzkräfte bereitzustellen. Hierzu werden z. B. Konzepte zur Helfergewinnung und Helferbindung erarbeitet, Ausbildungskonzepte und –unterlagen entwickelt und fortgeschrieben sowie die Einsatzausbildung durchgeführt. Im Teilprozess Aufbau, Erhalt und Anpassung einsatzbereiter Einheiten und Strukturen geht es darum, einsatzbereite und modular kombinierbare Einsatzeinheiten (bestehend aus Personal und Material) bereitzustellen. Dazu werden z. B. Übungen und Wettkämpfe innerhalb des THW oder gemeinsam mit anderen Einsatzorganisationen durchgeführt. Alle in den beiden Kernprozessen ablaufenden Teilprozesse müssen Anforderungen an Effektivität und Effizienz erfüllen, wobei der Effektivität, also der Erfüllung des Auftrags, regelmäßig ein höheres Gewicht zugesprochen wird. Die Effizienz wird zum Beispiel an der Einhaltung gewisser Budgetgrenzen gemessen, wobei in konkreten Bedrohungslagen politische Instanzen durchaus Bereitschaft zeigen, die Budgetgrenzen zu flexibilisieren. Nichtsdestotrotz gelten zunächst der Auftrag und dessen Durchführung mittels gegebener Ressourcen als fixierte Zielsetzung. Um durch die Kernprozesse eine bestmögliche Auftragserfüllung zu erreichen, ist ein systematisches Risikomanagement, das ein enges Zusammenwirken der operativen und der strategischen Ebene beinhaltet, unabdingbar. Zielorientiertes Risikomanagement bei Einsatzorganisationen Abbildung 5: 129 Integriertes Risikomanagement bei Einsatzorganisationen43 Das strategische Risikomanagement bildet quasi den Rahmen für das operative Risikomanagement, indem damit bezweckt wird, die Wirksamkeit einer Einsatzorganisation sicherzustellen und zu erhalten. Das operative Risikomanagement setzt innerhalb dieses Rahmens daran an, die Kernprozesse einer Einsatzorganisation so unter risikopolitischen Gesichtspunkten zu beeinflussen, dass die konkreten Ziele des einsatzorganisationalen Zielsystems erreicht werden. Die Kernprozesse stellen somit darauf ab, die Leistungswirkungs-, Leistungserbringungs-, Potenzial- und sonstigen Formalziele zu erfüllen. Entscheidend ist, dass der Risikomanagement-Prozess auf beiden Ebenen durchlaufen werden muss, wobei wechselseitige Abstimmungen angebracht sind, um passgenau Maßnahmen zu ergreifen. Aus der risikobezogenen Analyse der Umwelt und der daraus abgeleiteten Effektivität folgt die Definition der erwünschten Wirksamkeit der Einsatzorganisation auf strategischer Ebene. Hier ist das strategische Risikomanagement gefordert, einen Beitrag zur jeweiligen Abstimmung zwischen Umweltänderungen und aktuellem Status der Wirksamkeit zu leisten. Aus der Festlegung der erwünschten Wirksamkeit einer Einsatzorganisation können dann Anforderungen abgeleitet werden, wie die Teilprozesse der im operativen Bereich befindlichen Kernprozesse ausgestaltet werden sollen und wie durch 43 Illustration am Beispiel der Kernprozesse des THW, Technisches Hilfswerk: Projektgruppe Fokus Einsatz 2012 130 Eva-Maria Kern, Thomas Hartung geeignete Risikomanagementmaßnahmen die Kernprozesse „abgesichert“ werden sollen. Als Beispiel wäre hier die Mitarbeitergewinnung zu nennen. Auf strategischer Ebene üben Veränderungen der sozialen Umwelt Einfluss darauf aus, wie sich das Personalangebot bei beruflicher (Polizei, Bundeswehr, Berufsfeuerwehr) oder ehrenamtlicher (THW, freiwillige Feuerwehr) Tätigkeit in Einsatzorganisationen entwickelt. Wird festgestellt, dass sich keine Mitwirkenden im Ehrenamt mehr begeistern lassen, müssen auf operativer Ebene Maßnahmen getroffen werden, die bei der Helfer- und Jugendgewinnung ansetzen. Aus dem Risikomanagement der operativen Ebene lassen sich dann wiederum Erkenntnisse gewinnen, die auf die strategische Ebene zurückgespiegelt werden müssen, um zu prüfen, ob die beabsichtigte Wirksamkeit der Einsatzorganisation noch erreicht wird. Insgesamt sollte sich die Implementierung bzw. Erweiterung des Risikomanagements in Einsatzorganisationen an anerkannten Standards, wie beispielsweise ISO 31000 oder variierenden nationalen Normen anlehnen44, um eine entsprechende Akzeptanz zu erfahren. Eine solche Vorgehensweise kann zudem verhindern, dass bei störungsbehafteten Einsätzen die manifestierten Risiken im operativen Bereich zum Anlass genommen werden, die prinzipielle strategische Ausrichtung in Form der Wirksamkeit in Frage zu stellen. 5 Fazit Einsatzorganisationen sind sehr spezifische Dienstleister, deren konkret erforderliche Leistungserstellung jedoch nicht vollständig planbar ist. Eingebettet in eine dynamische Umwelt hat es für Einsatzorganisationen oberste Priorität, sich entsprechend der durch die Umweltbedingungen und -veränderungen hervorgerufenen Bedrohungslage aufzustellen. Zudem erfolgt die konkrete Leistungserstellung in der Regel in Hochrisikosituationen, die durch hohen Zeit-, Entscheidungs- und Handlungsdruck sowie die latent bestehende Gefahr für Leib und Leben der Einsatzkräfte gekennzeichnet sind. Risikomanagement stellt daher einen unverzichtbaren Bestandteil des Aufgabenspektrums von Einsatzorganisationen dar. Ausgehend von den Kernprozessen „Einsatz“ bzw. „Herstellung / Erhalt der Einsatzbereitschaft“ muss ein integriertes Risikomanagementkonzept eine Verknüpfung von strategischer und operativer Ebene sicherstellen. Nur so kann gewährleistet werden, dass eine dem Auftrag entsprechende Wirksamkeit durch strategische und operative Maßnahmen erreicht wird. Wechselseitige Impulse zwischen strategischer und operativer Ebene lassen sich durch ein integriertes Risikomanagement sowohl zur Effektivitäts- als auch zur Effizienzsteigerung einer Einsatzorganisation nutzen. Literatur Badelt, Christoph / Meyer, Michael / Simsa, Ruth (2007): Die Wiener Schule der NPO-Forschung: in: Badelt, Christoph / Meyer, Michael / Simsa, Ruth (Hrsg.): Handbuch der Nonprofit Organisation: Strukturen und Management, 4. Auflage, Stutgart, S. 3–16. Bayerisches Rotes Kreuz (2001): Satzung vom 21. Juli 2001, zuletzt geändert am 22.10.2011, München. 44 Beispielsweise könnte die ÖNORM ISO 31 000 „Risikomanagement“ 6l und der ONR 49000 ff „Risikomanagement“ verwendet werden. Vgl. exemplarisch Fritzenwallner / Hammerschmid, 2013, S. 295. Zielorientiertes Risikomanagement bei Einsatzorganisationen 131 Bea, Franz Xaver (2009): Entscheidungen des Unternehmens, in: Bea, Franz Xaver / Schweitzer, Marcell (Hrsg.): Allgemeine Betriebswirtschaftslehre, Bd. 1: Grundfragen, 10. Auflage, Stuttgart, S. 332–437. Bidlingmaier, Johannes (1964): Unternehmerziele und Unternehmerstrategien, Wiesbaden. Bidlingmaier, Johannes / Schneider, Dieter J. G. (1976): Ziele, Zielsystem und Zielkonflikte, in: Grochla, Erwin / Wittmann, Waldemar (Hrsg.): Handwörterbuch der Betriebswirtschaft, 4. Auflage, Band I/3, Stuttgart, Sp. 4731–4740. Bundesministerium für Bildung und Forschung (BMBF) (Hrsg.) (2012): Forschung für die zivile Sicherheit 2012 – 2017; Rahmenprogramm der Bundesregierung, Bonn, Berlin Bundesministerium der Verteidigung (BMVg) (2011): Verteidigungspolitische Richtlinien: Nationale Interessen wahren – Internationale Verantwortung übernehmen –Sicherheit gemeinsam gestalten, Berlin. Bruderer, Hansueli (1978): Organisationsformen sozio-technischer Systeme mit Milizcharakter, Dissertationsschrift ETH Zürich. Bruhn, Manfred / Meffert, Heribert (2012): Handbuch Dienstleistungsmarketing: Planung – Umsetzung – Kontrolle, Wiesbaden. Diederich, Helmut (1990): Grundtatbestände der Betriebswirtschaftslehre, in: Jacob, Herbert (Hrsg.): Allgemeine Betriebswirtschaftslehre: Handbuch für Studium und Prüfung, 5. Auflage, Wiesbaden, S. 17– 116. Fritzenwallner, Rupert / Hammerschmid, Reinhard (2013): Forschungsprojekt „Corporate Security Management“ – ein Statusbericht, in: Österreichische Militärische Zeitschrift, 3/2013, S. 292–300. Goebel, Eberhard / Schmitt, Axel / Boguslawski, Nicole / Kling, Siegfried (1998): Kosten- und Leistungsrechnung im Feuerwehrwesen: Bd. 1: Die Einführung betriebswirtschaftlicher Instrumente zur Steigerung der Wirtschaftlichkeit, Helsa. Hahn, Dietger (1987): Risiko-Management: Stand und Entwicklungstendenzen, in: Zeitschrift für Organisation, Nr. 3, S. 137–150. Hartmann, Tomas (2012): Prozessmanagement für Dienstleistungen: Entwicklung eines Ansatzes des Prozessmanagements für Dienstleistungsprozesse, Hamburg. Hilgers, Dennis (2008): Performance Management: Leistungserfassung und Leistungssteuerung in Unternehmen und öffentlichen Verwaltungen, Wiesbaden. Heinen, Edmund (1991): Industriebetriebslehre als entscheidungsorientierte Unternehmensführung, in: Heinen, Edmund (Hrsg.): Industriebetriebslehre: Entscheidungen im Industriebetrieb, 9. Auflage, Wiesbaden, S. 1–71. Heinen, Edmund (1985): Einführung in die Betriebswirtschaftslehre, 9. Auflage, Wiesbaden. Heinen, Edmund (1976): Grundlagen betriebswirtschaftlicher Entscheidungen: Das Zielsystem der Unternehmung, 3. Auflage, Wiesbaden. Hellmich, Christian (2010): Qualitätsmanagement und Zertifizierung im Rettungsdienst: Grundlagen – Techniken – Modelle – Umsetzung, Berlin-Heidelberg. Horak, Christian (1993): Controlling in Nonprofit-Organisationen: Erfolgsfaktoren und Instrumente, Wiesbaden. Horak, Christian / Matul, Christian / Scheuch Fritz (2007): Ziele und Strategien von NPOs, in: Badelt, Christoph / Meyer, Michael / Simsa, Ruth (Hrsg.): Handbuch der Nonprofit Organisation: Strukturen und Management, 4. Auflage, Stuttgart, S. 178–201. Kern, Eva-Maria / Hartung, Thomas (2008): Geschäftsprozessorientiertes Risikomanagement am Beispiel der industriellen Produktion; in: Himpel, F.; Kaluza, B., Wittmann, J. (Hrsg.): Spektrum des Produktionsund Innovationsmanagements – Komplexität und Dynamik im Kontext von Interdependenz und Kooperation, Wiesbaden, S. 55–66. 132 Eva-Maria Kern, Thomas Hartung Mistele, Peter (2007): Faktoren des verlässlichen Handelns: Leistungspotenziale von Organisationen in Hochrisikoumwelten, Wiesbaden. MunichRe (2013): Topics Geo: Naturkatastrophen 2012 – Analysen, Bewertungen, Position, München. Technisches Hilfswerk: Projektgruppe Fokus Einsatz (2012): Kern, Eva-Maria / Liewald, Astrid / Löffler, Dietmar: Interne Projekt-Präsentation vom 15.2.2013 Raffée, Hans (1974): Grundprobleme der Betriebswirtschaftslehre, Göttingen. Stadt Zürich (2010): Strategischer Plan des Polizeidepartements 2010 – 2014, Zürich. Stötzer, Sandra (2009): Stakeholder Performance Reporting von Nonprofit-Organisationen: Grundlagen und Empfehlungen für die Leistungsberichterstattung als stakeholderorientiertes Steuerungs- und Rechenschaftslegungsinstrument, Wiesbaden. Gesetz über das Technische Hilfswerk (THW-Helferrechtsgesetz – THW-Gesetz) vom 22. Januar 1990 (BGBl. I S. 118), geändert zuletzt durch Artikel 5 des Gesetzes vom 11. Juni 2013 (BGBl. I S. 1514). Implementierung eines Supply Chain Risk Managements Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach 1 Einleitung Die Planung und Steuerung von Wertschöpfungsaktivitäten, mit der sich Klaus Bellmann in seinen wissenschaftlichen Werken intensiv beschäftigt (vgl. Bellmann/Gerster 2006, Bellmann 2005, Bellmann/Hippe 1996), stehen bereits seit einigen Jahren nicht nur im Fokus betriebswirtschaftlicher Forschung, sondern erfahren vor allem in der Praxis eine steigende Akzeptanz. Ein wesentlicher Grund hierfür ist, dass Unternehmen die Erfolgspotentiale verteilter Wertschöpfung erkannt haben. Die zunehmende Vernetzung innerhalb von Wertschöpfungsnetzwerken birgt neben steigender Steuerungs- und Planungskomplexität jedoch auch Risiken, die für viele Unternehmen schwer handhabbar sind (vgl. Bellmann/Mildenberger 1996). Unternehmen müssen daher heute mehr denn je wirksame Methoden zur Handhabung von Risiken vorhalten. Das Thema Supply Chain Risk Management (SCRM) hat daher in den letzten Jahren stark an Bedeutung gewonnen. Zwar findet sich in der wissenschaftlichen Literatur eine Vielzahl von Beiträgen zum SCRM, jedoch findet dabei eine Fokussierung auf damit verbundene Gestaltungsempfehlungen zu dessen unternehmensspezifischen Implementierung kaum statt. Ziel des vorliegenden Beitrags ist es daher, ein Vorgehensmodell zur situationsadäquaten Implementierung eines SCRM aufzuzeigen. Aufbauend auf einer Klärung der begrifflichen Grundlagen werden hierzu die Ergebnisse einer empirischen Erhebung zum Thema Risikomanagement in der deutschen Windenergiebranche analysiert. Die Auswertung der 150 Fragebögen geht dabei vertieft auf den Status quo der SCRM-Implementierung ein. Es werden Supply Chain-Risiken und deren Treiber analysiert sowie eine Bewertung von Risikosteuerungsinstrumenten dargestellt. Darüber hinaus werden Hindernisse aufgezeigt, welche die Umsetzung eines SCRM beeinträchtigen können. Abschließend wird ein Vorgehensmodell zur situationsadäquaten Implementierung eines SCRM vorgestellt, in welches die Ergebnisse von vier Fallstudien eingeflossen sind. Das Modell soll Entscheidungsträger bei der Implementierung eines SCRM unterstützen, wobei die besonderen Anforderungen ihres Unternehmens Berücksichtigung finden. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_11, © Springer Fachmedien Wiesbaden 2013 134 2 Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach Management von Risiken in Wertschöpfungsnetzwerken Zunächst werden die Begriffe Supply Chain Management, Risiko und Risikomanagement voneinander abgegrenzt. Anschließend erfolgt eine Beschreibung des Risikomanagements in der Supply Chain sowie der bestehenden SCRM-Ansätze in der Literatur. 2.1 Supply Chain Management Sowohl in der betriebswirtschaftlichen Forschung als auch in der Unternehmenspraxis ist der Begriff „Supply Chain Management“ (SCM) fest etabliert. Eingeführt durch Oliver und Webber (1982) wurde unter dem Begriff SCM zunächst die funktions- und unternehmensübergreifende Planung und Steuerung von Material- und Informationsflüssen entlang der Lieferkette verstanden. Neben dem Supply Chain-Begriff wurde auch das Konzept des SCM in der Folgezeit sukzessive weiterentwickelt. Tier 2 Zulieferer Tier 1 Zulieferer Tier 1 Kunden 1 2 n 2 1 1 n 2 2 1 1 n n 1 2 3 3 n 1 n n n 1 1 n n Überwachte Prozessverbindung Nicht gesteuerte Prozessverbindung Prozessverbindung von nicht Mitgliedern 1 2 n Gesteuerte Prozessverbindung Abbildung 1: Tier 3 bis n Kunden / Endkunden Tier 3 bis n Kunden Tier 3 bis n Zulieferer Erstzulieferer 1 Tier 2 Kunden Kunden / Endkunden Tier 3 bis n Zulieferer / Erstzulieferer Fokales Unternehmen Mitglieder der Supply Chain des fokalen Unternehmens Keine Mitglieder der Supply Chain des fokalen Unternehmens Allgemeines SCM Modell (übersetzt nach Lambert et al. 1998, S. 7) Das eher eindimensionale Begriffsverständnis, das die Supply Chain als sequentielle Verkettung der an der Wertschöpfung beteiligten Unternehmen verstand, wich im Zuge der Weiterentwicklung einem vom Netzwerkgedanken geprägten Supply Chain-Begriff, der die Vielfalt der Lieferanten-Abnehmer-Beziehungen im Zuge der Wertschöpfung abbildet (vgl. Lambert/Cooper 2000, Christopher 2005 etc.). Dieses Supply Chain-Verständnis wird in Abbildung 1 dargestellt. Implementierung eines Supply Chain Risk Managements 135 Der SCM-Begriff wurde ebenfalls durch die Einbeziehung der unternehmensübergreifenden Planung und Steuerung von Finanzströmen und Dienstleistungen den veränderten strukturellen und ökonomischen Rahmenbedingungen angepasst (vgl. Bowersox et al. 2007, Simchi-Levi et al. 2004). Obwohl weder in der Literatur noch in der Praxis eine allgemein gültige und akzeptierte SCM-Definition etabliert ist, so ist erkennbar, dass der Aspekt der unternehmensübergreifenden Koordination allen Definitionen gemein ist. Dem vorliegenden Beitrag liegt das SCM-Verständnis von Christopher (2005, S. 5) zugrunde, wonach SCM als „das Management von Beziehungen zwischen Lieferanten und Abnehmern mit dem Ziel, überlegenen Kundennutzen bei geringeren Supply-Chain-bezogenen Kosten“ definiert ist. Dieses SCM-Verständnis erweitert den ursprünglichen SCM-Begriff dahingehend, dass das Management von Wertschöpfung im Sinne der Erfüllung eines konkreten Kundennutzens in den Vordergrund gerückt wird. 2.2 Risiko und Risikomanagement Der Begriff „Risiko“ unterliegt in der Unternehmenspraxis zum Teil sehr unterschiedlichen Interpretationen. Im wissenschaftlichen Kontext wird der Risikobegriff in Abhängigkeit des jeweiligen Forschungsfelds ebenfalls unterschiedlich ausgelegt. In der Risikoforschung mit betriebswirtschaftlichen Bezug können allgemein zwei definitorische Strömungen unterschieden werden: ursachenbezogene vs. wirkungsbezogene Ansätze (vgl. Braun 1984, Fiege 2006). Während die ursachenbezogenen Definitionen Risiko als Resultat einer unsicheren Zukunftssituation verstehen, betrachten wirkungsbezogene Ansätze die Effekte, die der Eintritt eines Risikos hat. So definiert Knight (1921) als Vertreter der ursachenbezogenen Strömung Risiko als quantifizierbare und damit messbare Unsicherheit. Im Vordergrund der wirkungsbezogenen Risikodefinitionen steht die Verlustgefahr als Wirkweise des Risikos. In diesem Zusammenhang beschreibt Leitner (1915, S. 7) Risiken als „unmittelbare und mittelbare Vermögensbestandsverluste und Vermögensaufwendungen”, während Wittmann (1959, S. 36) Risiko allgemein als ein „Misslingen von Plänen“ definiert. Allen wirkungsbezogenen Ansätzen ist somit gemein, dass sie ein Risiko als „Möglichkeit der Zielverfehlung“ interpretieren (Braun 1984, S. 23). Dieser Logik folgend würde jedoch nicht zwischen negativer und positiver (in Bezug auf die gefassten Unternehmensziele) Verfehlung unterschieden werden, was von Kupsch (1973) als wesentlicher Kritikpunkt an diesem Ansatz formuliert wird. Die zentrale Bedeutung der Unterscheidung der Begriffe „Risiko“ und „Chance“ wird deutlich, wenn das Verständnis der Begrifflichkeiten in Literatur und Praxis gespiegelt wird. So zeigen March und Shapira (1987) in einer empirischen Erhebung, dass im Praxisumfeld ein Risiko als negative Zielverfehlung und Chance als Zielerreichung oder positive Ziel(über)erfüllung verstanden wird. Aus ihrer Studie leiten sie darüber hinaus eine Risikodefinition ab, der im vorliegenden Artikel gefolgt wird. Demnach ist ein Risiko als Produkt der Eintrittswahrscheinlichkeit eines negativen Ereignisses und der zu erwartenden Schadenshöhe definiert. Das Management von Risiken hat seinen Ursprung in der amerikanischen Managementpraxis und bezeichnet ursprünglich eine Unternehmensfunktion zum kostenoptimalen Ma- 136 Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach nagement versicherbarer Risiken, wie z.B. Haftpflicht oder Brand (vgl. Thom 2008). In der Folgezeit wurde das Begriffsverständnis sukzessive dahingehend erweitert, dass unter Risikomanagement nunmehr auch die Handhabung nicht-versicherbarer Risiken gefasst wird, die etwa als Resultat unternehmerischer Handlungen entstehen (vgl. Hahn 1987, Fiege 2006). Daher beschreibt Mikus das Risikomanagement als zentrale Funktion des unternehmerischen Führungsprozesses, dessen Aufgabe darin besteht, im Sinne einer nachhaltigen Existenzsicherung negative Abweichungen von den durch die Unternehmensführung festgelegten Zielen zu verhindern (vgl. Mikus, 1996). Eine zeitgemäße Definition des Risikomanagements, die die systematische Handhabung auch nicht-versicherbarer Risiken (z.B. Managemententscheidungen, Wettbewerberverhalten etc.) einschließt, ist durch den „Deutschen Rechnungslegungsstandard Nr. 5 – Risikoberichtserstattung“ gegeben. Danach ist Risikomanagement „ein nachvollziehbares, alle Unternehmensaktivitäten umfassendes System, das auf Basis einer definierten Risikostrategie ein systematisches und permanentes Vorgehen mit folgenden Elementen umfasst: Identifikation, Analyse, Bewertung, Steuerung, Dokumentation und Kommunikation von Risiken sowie die Überwachung dieser Aktivitäten“ (DRSC 2010, Artikel 9). Darüber hinaus weist das Gesetz für Kontrolle und Transparenz im Unternehmensbereich (KonTraG) Unternehmen in Deutschland darauf hin, „geeignete Maßnahmen zu treffen, insbesondere ein Überwachungssystem einzurichten, damit den Fortbestand der Gesellschaft gefährdende Entwicklungen früh erkannt werden“ (§91 Abs. 2 AktG – Aktiengesetz). Die Umsetzung bzw. Einbettung eines strukturierten Risikomanagementprozesses in Unternehmen wird in der Fachliteratur umfänglich diskutiert. In diesem Zusammenhang hat sich ein vierstufiges, generisches Vorgehensmodell etabliert, welches nachfolgend auf die Supply Chain angewendet wird. 2.3 Ansätze zum Risikomanagement in der Supply Chain Wie zuvor erwähnt, hat das SCRM in den letzten Jahren sowohl in der Theorie als auch in der Unternehmenspraxis an Bedeutung gewonnen. SCRM verbindet die zuvor beschriebenen Ansätze zum Risikomanagement und SCM. Dabei wird unter SCRM der “[…] Baustein innerhalb des unternehmensübergreifenden SCM, der alle Strategien und Maßnahmen, alles Wissen, alle Institutionen, alle Prozesse sowie alle Technologien umfasst, die auf technischer, personeller und organisatorischer Ebene dazu geeignet sind, das Risiko innerhalb einer Supply Chain zu verkleinern” verstanden (Kersten et al. 2007, S. 1171). Da eine Vielzahl von Supply Chain-Risiken existieren, gibt es verschiedene Ansätze diese zu kategorisieren. Christopher und Peck (2004) unterscheiden zum Beispiel Risiken die im Umfeld, in der Supply Chain oder im Unternehmen wirken. Auf der Ebene der Supply Chain differenzieren sie zwischen Beschaffungs- und Nachfragerisiken, während im Unternehmen Steuerungs- und Prozessrisiken auftreten können. Eine solche übergeordnete Klassifizierung von Supply Chain-Risiken kann beliebig verfeinert werden, zum Beispiel unterscheidet Rogler (2002) Beschaffungsrisiken in Bedarfsdeckungs-, Liefer-, Transport- und Lagerrisiken. Um mit der hohen Anzahl an möglichen Risiken umgehen zu können, müssen diese für die betrachtete Supply Chain bzw. aus Unternehmenssicht systematisch identifiziert wer- Implementierung eines Supply Chain Risk Managements 137 den. Dies erfolgt im Rahmen des standardisierten SCRM-Prozesses, der in Anlehnung zur Risikomanagementtheorie in vier Phasen unterteilt ist: Risikoidentifikation, -analyse, -steuerung und -kontrolle. In der Phase der Risikoidentifikation werden Risiken systematisch gesammelt (vgl. Norrman/Lindroth 2004). Diese Sammlung von Risiken bildet die Grundlage für die folgenden Prozessschritte und ist von besonderer Bedeutung, da nicht identifizierte Risiken auch in den weiteren Schritten nicht beachtet werden. Es handelt sich hierbei um ein MetaRisiko, das durch den Einsatz geeigneter Instrumente möglichst minimiert werden sollte. Pfohl et al. (2008) geben zum Beispiel einen Überblick über mögliche Risikoidentifikationsinstrumente. Eine geeignete Methode ist hierbei z.B. die Erstellung von Risikokatalogen (vgl. Kajüter 2003). Nachdem die Supply Chain-Risiken identifiziert sind, folgt in der zweiten Prozessphase die Analyse. Dafür eignen sich die beiden Dimensionen Eintrittswahrscheinlichkeit (im Folgenden auch Häufigkeit genannt) und Schadenshöhe bzw. -ausmaß (vgl. Kajüter 2003, Wagner/Bode 2007). Für die Analyse von Supply Chain-Risiken existiert ebenfalls eine Vielzahl von Methoden. Diese sollten für die zu betrachteten Risiken ausgewählt werden, da zum Beispiel Versorgungs- und Umweltrisiken verschiedene Merkmale aufweisen. Kajüter (2003) schlägt weiterhin vor, diesen Schritt auch in Zusammenarbeit mit Supply Chain-Partnern durchzuführen. In der Phase der Risikosteuerung werden Maßnahmen ergriffen, die zum Beispiel die Eintrittswahrscheinlichkeit von identifizierten und bewerteten Risiken verringern können. Es können aber auch Maßnahmen ergriffen werden, die die Schadenshöhe von Risiken reduzieren. Neben diesen zwei allgemeinen Risikosteuerungsarten, kommen noch Maßnahmen in Frage, die zu einer Risikoteilung, zur Versicherung oder zum Selbsttragen von Risiken führen (vgl. Haller 1986). Die Risikokontrolle bildet die vierte Phase des Prozesses. Hierbei geht es um die Überprüfung der Effektivität der eingesetzten Instrumente. Dies kann zum Beispiel mit Hilfe einer Balanced Scorecard erfolgen, die einen systematischen Informationsaustausch auch zum leitenden Management ermöglicht (vgl. Kajüter 2003). Grundsätzlich sollte der SCRM-Prozess regelmäßig durchlaufen werden, da sich die Bewertungen in den einzelnen Phasen kontinuierlich verändern können (vgl. Eberle 2005). Hierbei ist nicht zuletzt eine effektive organisatorische Implementierung des SCRM von Bedeutung. Eine Analyse der Literatur zeigt jedoch, dass sich nur wenige wissenschaftliche Beiträge mit der organisatorischen Implementierung eines SCRM befassen (vgl. Tabelle 1). 138 Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach Tabelle 1: SCRM und Implementierung in der Literatur (Auszug übersetzt nach Schroeder et al. 2013) Autoren SCRM-Bezug Fokus auf Implementierung Burger und Burchart (2002) Hallikas et al. (2005) Heusler (2004) Jüttner et al. (2003) Österle und Winter (2003) Pfohl et al. (2007) Ritchie und Brindley (2004) Schorcht (2004) Winter (2009) Zeyer (1996) Legende: Kriterium erfüllt Kriterium teilweise erfüllt, Kriterium nicht erfüllt Häufig wird nur auf Teilbereiche der Implementierung oder auf SCRM im Allgemeinen fokussiert (vgl. z.B. Hallikas et al. 2005, Jüttner et al. 2003). Burger und Burchart (2002) beschäftigen sich in ihrem Beitrag umfassend mit der Fragestellung, ob ein internes Risikomanagement zentral oder dezentral angesiedelt oder ob es separat bzw. in eine bestehende Organisationseinheit integriert werden sollte. Zwar reflektieren sie die Vor- und Nachteile der organisatorischen Einbindung, lassen jedoch situative Faktoren außen vor. Heusler (2004) beschäftigt sich intensiv mit der Planung, Realisierung und Kontrolle des Implementierungsprozesses, betrachtet hierbei allerdings den Implementierungsprozess im Allgemeinen und geht nur am Rande auf SCRM ein. Pfohl et al. (2007) vergleichen einzelne Aspekte der Implementierung eines SCRM auf Unternehmensebene mit der auf Supply-Chain-Ebene. Zwar werden einzelne Vor- und Nachteile aufgezeigt, konkrete Gestaltungsempfehlungen für Unternehmen bleiben jedoch aus. Schorcht (2004) widmet sich verstärkt dem Thema der Implementierung eines SCRM. Er führt ein siebenstufiges Phasenkonzept ein, welches mit dem Projektanstoß (Phase 1) beginnt und mit dem Anstoß zur Anpassung und Weiterentwicklung (Phase 7) abschließt. Hierbei handelt es sich jedoch um ein idealtypisches Konzept, bei dem situative Aspekte unberücksichtigt bleiben. Ritchie/Brindley (2004) sowie Winter (2009) schließen in ihren Arbeiten situative Faktoren mit ein. Zwar finden z.B. die Unternehmensgröße, Organisationsstrukturen oder Anzahl Implementierung eines Supply Chain Risk Managements 139 der Schnittstellen bei den Gestaltungsempfehlungen Berücksichtigung, ein thematischer Schwerpunkt auf SCRM wird jedoch nicht gewählt. Abschließend ist festzuhalten, dass wissenschaftliche Artikel, die sich mit dem Implementierungsprozess beschäftigen, überwiegend auf andere Managementmethoden fokussieren, wie z.B. Business Engineering (vgl. Österle/Winter 2003) oder Lean Management (vgl. Zeyer 1996). Zwar existieren einzelne Konzepte zur organisatorischen Implementierung eines SCRM, jedoch besteht hinsichtlich der Einbindung situativer Faktoren eine Forschungslücke. 3 Studienergebnisse zum SCRM in der deutschen Windenergiebranche Um den aktuellen Stand der SCRM Implementierung in der Praxis zu untersuchen, hat das Institut für Logistik und Unternehmensführung in Zusammenarbeit mit der Putz und Partner Unternehmensberatung AG eine quantitative Studie durchgeführt. Bei der Auswertung wurden insbesondere situative Faktoren berücksichtigt. Die Ergebnisse werden im Folgenden vorgestellt. 3.1 Design der Studie Die Studie wurde im Zeitraum April bis Juni 2012 durchgeführt (siehe auch Kersten et al. 2012). Sie erreichte eine Rücklaufquote von 36% und basiert auf 150 Rückmeldungen. Es wurden 412 Einladung an Unternehmensvertreter für den online-basierten Fragebogen verschickt und anschließend umfangreiche telefonische Nachfragen durchgeführt. Im Rahmen der Erhebung sollten alle Stufen der Wertschöpfungskette der deutschen Windenergiebranche abgedeckt werden. 45% der Antworten stammen von Komponenten-, 16% von Material-, 15% von Systemlieferanten, 10% von Anlagenherstellern (OEM – Original Equipment Manufacturer), sowie 8% von Dienstleistern bis zum Netzanschluss und 6% von Dienstleistern im Betrieb. Die Unternehmen der Studie verfügen über eine hohe Branchenerfahrung. So sind knapp 60% seit mindestens zehn Jahren in der Windenergie tätig, während lediglich knapp 10% der Unternehmen noch keine fünf Jahre in der Branche vertreten sind. Insgesamt entstammen 43% der Antworten von großen Unternehmen mit 500 oder mehr Mitarbeitern, 35% von mittleren und 22% von kleinen mit weniger als 100 Angestellten. Die Befragung war in fünf Themengebiete aufgeteilt. Der erste Teil behandelte allgemeine Daten der Unternehmen. Anschließend wurde um eine Einschätzung von Risiken nach den Dimensionen Häufigkeit und Schadenshöhe gebeten. Weiterhin gab es in diesem Teil eine Abfrage von Risikotreibern. Der dritte Teil analysierte den Einsatz von SCRM. Es wurden Hindernisse zur Einführung eines SCRM bewertet und anschließend der Einsatz von Instrumenten der Risikosteuerung beleuchtet. Der fünfte Teil fragte abschließend aktuelle Managementtrends ab. 140 Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach 3.2 Supply Chain-Risiken und deren Treiber in der Windenergiebranche Die Studie analysiert insgesamt 32 Versorgungs-, Nachfrage-, Steuerungs-, Umfeld- und Prozessrisiken. Über die gesamte Stichprobe wird das höchste Schadensausmaß dem Zahlungsausfall bzw. der Insolvenz eines Kunden und dem Verlust von Kunden an internationale Wettbewerber zugeordnet. Diesen Risiken wird allerdings eine vergleichsweise geringe Eintrittswahrscheinlichkeit beigemessen. Schwankungen der Nachfragemenge sowie ein verzögerter Abruf bestellter Leistungen durch den Kunden weisen dagegen eine hohe Häufigkeit bei relativ geringem Schaden auf. Insgesamt wird die Gruppe der Nachfragerisiken in der Kombination von Eintrittswahrscheinlichkeit und Schadensausmaß höher bewertet als alle anderen abgefragten Risiken. Bei den Versorgungsrisiken dominieren ein Anstieg von Rohstoffpreisen, ein Preisanstieg von Bauteilen und eine verzögerte Zulieferung. Während bei den Steuerungs-, Umfeld- und Prozessrisiken Themen wie ein Bauteilversagen und -austausch während des Betriebs, ein Wissensabfluss an Wettbewerber sowie ein Ausfall von Schlüsselpersonal am höchsten bewertet werden. Neben den Supply Chain-Risiken wurden auch deren Treiber auf einer siebenstufigen Likert-Skala abgefragt. Eine Abhängigkeit von Personen mit besonderen Qualifikationen und weltweiter Wettbewerb werden hierbei als wichtigste Treiber identifiziert. Nachfolgend spielt die Abhängigkeit von anderen Unternehmen der Supply Chain sowie single sourcing eine dominierende Rolle. Eine geringe Verfügbarkeit von Equipment für Transport und Errichtung und inkompatible Informationssysteme wird dagegen als weniger relevant eingestuft. 3.3 Status quo der SCRM-Implementierung Die Studie zeigt auf, dass nur 40% der befragten Unternehmen über eine SCRM verfügen. Weitere 30% planen die Einführung eines solchen, aber knapp ein Drittel beabsichtigen zurzeit keine SCRM Implementierung. Eine Auswertung nach dem situativen Faktor Unternehmensgröße ist hier aufschlussreich: Mittlere und große Unternehmen verfügen zu 60% über ein SCRM. In dieser Gruppe planen weitere 26% eine Einführung eines SCRM, wohingegen kleine Unternehmen nur zu 16% bereits ein SCRM implementiert haben. 36% der teilnehmenden Unternehmen planen zumindest die Einführung, aber knapp die Hälfte sehen hier keinen Handlungsbedarf. In Bezug auf die organisatorische Einbindung eines SCRM in den Unternehmen liefert die Studie ebenfalls hilfreiche Erkenntnisse: So wird SCRM in den betrachteten Unternehmen fast zu gleichen Prozentsätzen von einer Stabsstelle, Linien- oder Stabsfunktion aus organisiert. Der Betrachtungshorizont liegt in der Mehrzahl der Unternehmen auf der ersten Wertschöpfungsstufe. In der Praxis betrachten nur wenige SCRM-Ansätze darüber hinaus auch die zweite oder dritte Stufe. Zur Identifizierung von Risiken im Rahmen der Risikoanalyse setzen die meisten Unternehmen Instrumente der Lieferanten- und Kundenbewertung ein. Qualitäts- und Prozessaudits spielen neben Marktanalysen ebenfalls eine wichtige Rolle. Sensitivitäts- und Szenarioanalysen werden seltener eingesetzt und gleichzeitig in ihrer Eignung geringer eingeschätzt. 141 Implementierung eines Supply Chain Risk Managements Insgesamt werden die meisten Methoden als geeigneter angesehen als sie in der Praxis tatsächlich eingesetzt werden, was auf ein Anwendungsdefizit für Risikoanalyseinstrumente hinweist. Abbildung 2 illustriert die Anwendung und Eignung von Risikosteuerungsinstrumenten. Wie schätzen Sie die grundsätzliche Eignung der folgenden Instrumente des SCRM ein? Beurteilen Sie bitte auch die Anwendungshäufigkeit dieser Instrumente in Ihrem Unternehmen. sehr hoch 6 Gesamtstichprobe (N=91) 5 6 9 4 Anwendung 3 7 3 12 2 sehr gering 13 8 14 5 11 4 19 16 1 17 18 15 2 10 20 1 0 0 1 2 3 4 sehr gering 5 6 sehr hoch Eignung Abbildung 2: 1 Collaborative Planning 2 Kontinuitätsplanung 3 Aufbau langfristig orientierter Zuliefer-AbnehmerBeziehungen 4 Lokale / regionale Beschaffung 5 Multiple Sourcing 6 Auswahl zertifizierter Zulieferer 7 Lieferantenentwicklung 8 Versicherung gegen das Eintreten einzelner Risiken 9 Vertragliche Regelungen (Rahmenverträge,…) 10 Schulungen des Personals zum Risikomanagement 11 Verbesserung der internen und externen Kommunikationsstruktur 12 Einsatz von Krisenmanagementteams 13 Räumliche Annäherung von Hersteller und Lieferanten 14 Puffer (Zeit, Bestände, Kapazität,…) im eigenen Unternehmen 15 Puffer (Zeit, Bestände, Kapazität,…) in der Supply Chain 16 Insourcing von kritischen Prozessen 17 Flexibilität der Produkte hinsichtlich Spezifikationen und Komponenten 18 Verwendung von Standardbauteilen 19 Standardisierung von unternehmensübergreifenden Prozessen 20 Aufschubstrategie Bewertung von Risikosteuerungsinstrumenten Quelle: Kersten et al. 2012, S. 419 Eine hohe Übereinstimmung zwischen Anwendung und Eignung ist bei der Auswahl zertifizierter Zulieferer (6) und bei vertraglichen Regelungen (9) zu beobachten. Diese Instrumente sind auch mit dem Aufbau von langfristig orientierten Zuliefer-AbnehmerBeziehungen (3) in beiden Dimensionen am höchsten bewertet. Lokale bzw. regionale Beschaffung (4) und die Versicherung gegen das Eintreten einzelner Risiken (8), sowie der Aufbau von Puffern im eigenen Unternehmen (14) werden weiterhin als sehr geeignet angesehen und auch häufig angewendet. Insgesamt wird ein Anwendungsdefizit deutlich, da fast alle Instrumente unterhalb der gestrichelten Diagonalen liegen, die eine Übereinstimmung zwischen Eignung und Anwendung signalisiert (siehe Abbildung 2). 142 Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach 3.4 Umsetzungshindernisse eines SCRM Die Studie gibt zudem Aufschluss über Hindernisse, welche die Umsetzung eines SCRM beeinträchtigen. Dem Fehlen von freien Managementkapazitäten, unzureichendem Wissen über SCRM sowie mangelnder Transparenz in der Supply Chain wird in diesem Zusammenhang die größte Bedeutung zugemessen. Um den Einfluss der Unternehmensgröße auf die Umsetzungshindernisse zu analysieren, wurde in Abbildung 3 eine situative Auswertung vorgenommen. Welche Bedeutung haben für Ihr Unternehmen die folgenden Hindernisse bezüglich der Umsetzung eines Supply Chain Risk Managements? 6 5 4 3 2 1 Kleine Unternehmen (N=50) Abbildung 3: Mittlere Unternehmen (N=63) Keine freien Managementkapazitäten Fehlende Top-Management Unterstützung Unklare organisatorische Einbettung Ungenügende Berücksichtigung in Zielvereinbarungen der Mitarbeiter Wissen über SCRM ist nicht ausreichend Keine geeigneten Werkzeuge vorhanden Mangelnde IT-Unterstützung Ungenügende finanzielle Mittel Unklare Koordination innerhalb der SC Mangelndes Vertrauen zu SC-Partnern Eingeschränkter Informationsaustausch mit SC-Partnern Mangelnde Transparenz in der SC Keine stabile Beziehung mit SCPartnern Keine Notwendigkeit von SCRM 0 Große Unternehmen (N=44) Hindernissen zur Umsetzung eines SCRM nach Unternehmensgröße Quelle: Eigene Darstellung Die Ergebnisse verdeutlichen, dass für große Unternehmen auch die unklare Koordination innerhalb der Supply Chain, mangelnde IT-Unterstützung und das Fehlen von geeigneten Werkzeugen bedeutende Hindernisse darstellen. Im Gegensatz zu großen bewerten kleine und mittlere Unternehmen insbesondere die fehlende Notwendigkeit von SCRM als wichtiges Hindernis. Eine abnehmende Bedeutung von großen über mittlere hin zu kleinen Unternehmen lässt sich insbesondere im mangelnden Vertrauen zu Supply Chain-Partnern beobachten. Implementierung eines Supply Chain Risk Managements 4 143 Vorgehensmodell zur situationsadäquaten Implementierung eines SCRM Wie zuvor beschrieben ist die Einführung eines SCRM für Unternehmen in der Regel mit Hindernissen und besonderen Herausforderungen verbunden. Häufig stehen bei der Umsetzung eines Risikomanagements nur geringe Ressourcen zu Verfügung, was insbesondere kleine und mittelständige Unternehmen vor Probleme stellt. Um Unternehmen die Implementierung eines SCRM zu erleichtern, führen die Autoren aktuell ein Forschungsprojekt zur situationsadäquaten Implementierung eines SCRM (SitRisk) durch. Im Rahmen des Projektes werden zunächst Einflussfaktoren auf das SCRM in der Unternehmenspraxis identifiziert. Auch aus den zuvor beschriebenen Ergebnissen der Studie werden Anforderungen an eine Implementierung abgeleitet. Die Erkenntnisse werden anschließend in ein Konzept zur Implementierung von SCRM überführt, bei dem situative Faktoren Berücksichtigung finden. Durch ein situativ angepasstes SCRM kann auftretenden Supply Chain-Risiken proaktiv gegengesteuert werden, so dass z.B. langfristige Unterbrechungen der Wertschöpfungskette vermieden werden können. Das entwickelte Modell soll Unternehmen zur Entscheidungsunterstützung in den einzelnen SCRM-Phasen dienen. Neben einer ausführlichen Literaturrecherche wurden im Zeitraum Januar bis April 2013 vier umfangreiche Fallstudien in Unternehmen der Medizintechnikbranche durchgeführt. Hier stand die unternehmensspezifische Ausgestaltung des SCRM im Vordergrund der Diskussionen mit den Unternehmensvertretern. Die Autoren des Beitrags gelangten zu der Erkenntnis, dass das Referenzmodell sowohl strukturelle und SCRM-prozessbezogene Aspekte als auch situative Faktoren beinhalten sollte (basierend auf Ritchie/Brindley 2004, Winter 2009, vgl. Abbildung 4). Die strukturellen Aspekte sollten sich dabei über die organisatorische, technologische und personelle Implementierung erstrecken (basierend auf Pfohl et al. 2007, Burger/Burchart 2002, Heusler 2004). Gleichzeitig muss eine Abstimmung der strukturellen Aspekte auf die einzelnen Phasen des SCRM-Prozesses Risikoidentifikation, -analyse, -steuerung und -kontrolle erfolgen (siehe Kapitel 2.3). Als weiterer Bestandteil des Modells wurden zudem Methodenkataloge zusammengestellt. Jeder Katalog beinhaltet eine Beschreibung der Methoden und Instrumente, die in den einzelnen SCRM-Phasen angewandt werden können. Unter Berücksichtigung der situativen Faktoren hilft das Vorgehensmodell, diejenigen Methoden auszuwählen, die am besten zu dem entsprechenden Unternehmen passen. So muss bspw. im Rahmen der SCRM-Phase Risikoidentifizierung zunächst entschieden werden, wie der Identifizierungsprozess konkret ablaufen soll, ob z.B. Zulieferer in den Prozess integriert werden sollen und welche Instrumente sich in dieser Phase eignen. Anschließend müssen Methoden ausgewählt werden, die sich zum einen zur Risikoidentifizierung eignen, zum anderen jedoch auch auf das Unternehmen abgestimmt sind. So können bei der Risikoidentifizierung z.B. Simulationsmodelle zur Hilfe genommen werden, deren Anwendung jedoch voraussetzt, dass das Unternehmen über entsprechende Kenntnisse im Umgang damit verfügt (Schroeder et al. 2013). 144 Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach Situationsadäquates Vorgehensmodell Phase Vorbereitung Struktur Organisation Prozess RisikoIdentifikation Implementierung Personal IT Risikoanalyse Dauerhafte Anwendung Risikosteuerung Risikokontrolle Methode Abbildung 4: Situationsadäquates Vorgehensmodell zur Implementierung eines SCRM (übersetzt nach Schroeder et al. 2013) Das im Rahmen des Projekts entwickelte Vorgehensmodell wird in den nächsten Monaten anhand weiterer Fallstudien evaluiert. 5 Zusammenfassung und Ausblick Die durchgeführte Literaturanalyse sowie die gewonnenen Erkenntnisse aus der beschriebenen Studie zeigen, dass eine Vielzahl potentieller Supply Chain-Risiken existiert, die zu Störungen in verteilten Wertschöpfungsketten führen können. Ein effektives SCRM trägt daher zur Wettbewerbsfähigkeit von Unternehmen teil, insbesondere wenn diese in komplexen Wertschöpfungsnetzwerken eingebunden sind. Die Ergebnisse der vorgestellten Studie zeigen die aktuelle Risikosituation in der deutschen Windenergiebranche auf. Zudem ermöglicht die Studie eine Analyse des Status quo der SCRM-Implementierung: Nur 40% der befragten Unternehmen verfügen bislang über Implementierung eines Supply Chain Risk Managements 145 ein SCRM. Zumindest gaben weitere 30% an, eine Einführung zu planen. Knapp ein Drittel der befragten Unternehmen haben allerdings bislang kein SCRM implementiert und planen ein solches auch nicht. Weiterhin wird bei der Analyse von SCRM-Methoden ein Anwendungsdefizit deutlich, da die meisten Methoden als geeigneter eingeschätzt werden, als sie tatsächlich angewendet werden. Zudem erschweren z.B. unklare Koordination innerhalb der Supply Chain, mangelnde IT-Unterstützung oder das mangelnde Vertrauen zu Supply Chain-Partnern die Umsetzung des SCRM. Um die SCRM-Implementierung zu erleichtern und sie dauerhaft effizient umzusetzen, ist es sinnvoll, situative Faktoren bei der Implementierung zu berücksichtigen. Die durchgeführte Literaturanalyse zeigt in diesem spezifischen Feld eine Forschungslücke. Daher wurden von den Autoren vier Fallstudien durchgeführt, um ein Vorgehensmodell zur situationsadäquaten Implementierung eines SCRM abzuleiten. Das Modell berücksichtigt sowohl auf struktureller als auch SCRM-prozessbezogener Ebene situative Faktoren. Dabei umfasst die strukturelle Ebene organisatorische, technische und personelle Aspekte. Weiterhin wird die Implementierung durch das Vorgehensmodell insoweit unterstützt, dass geeignete Methoden für jede SCRM-Prozessphase vorgeschlagen werden. Das vorgestellte Modell befähigt somit Entscheidungsträger bei der Implementierung eines SCRM unter Berücksichtigung der besonderen Anforderungen ihres Unternehmens. Zur Validierung des entwickelten Vorgehensmodells sind weitere Fallstudien geplant. Förderhinweis Das Projekt zur situationsadäquaten Implementierung eines Supply Chain Risk Managements „SitRisk“ (IGF-Vorhaben 17234 N / 1) der Forschungsvereinigung Bundesvereinigung Logistik e.V. - BVL, Schlachte 31, 28195 Bremen wird über die Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ (AiF) e. V. im Rahmen des Programms zur Förderung der industriellen Gemeinschaftsforschung und -entwicklung (IGF) vom Bundesministerium für Wirtschaft und Technologie aufgrund eines Beschlusses des Deutschen Bundestages gefördert. Die Projektlaufzeit erstreckt sich von Januar 2012 bis Juni 2013. Literatur Bellmann, K. (2005): Flexibilisierung der Produktion durch Dienstleistungen, in: Kaluza, B. / Blecker, T. (Hrsg.): Erfolgsfaktor Flexibilität – Strategien und Konzepte für wandlungsfähige Unternehmen, Erich Schmidt, Berlin, S. 153–174. Bellmann, K. / Gerster, B. (2006): Netzwerkmanagement kleiner und mittlerer Unternehmen, in: Blecker, T. / Gemünden, H. (Hrsg.): Wertschöpfungsnetzwerke – Festschrift für Bernd Kaluza, Erich Schmidt, Berlin, S. 53–68. Bellmann, K. / Hippe, A. (1996): Netzwerkansatz als Forschungsparadigma im Rahmen der Untersuchung interorganisationaler Unternehmensbeziehungen, in: Bellmann, K. / Hippe, A. (Hrsg.): Management von Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung, Gabler, Wiesbaden, S. 3–18. Bellmann, K. / Mildenberger, U. (1996): Komplexität und Netzwerke, in: Bellmann, K. / Hippe, A. (Hrsg.): Management von Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung, Gabler, Wiesbaden, S. 121–156. 146 Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach Bowersox, D. J. / Closs, D. J. / Cooper, M. B. (2007): Supply chain logistics management, McGraw-Hill / Irwin, Mass. (u.a.). Braun, H. (1984): Risikomanagement: Eine spezifische Controllingaufgabe, Toeche-Mittler, Darmstadt. Burger, A. / Buchhart, A. (2002): Risiko-Controlling, Oldenbourg, München (u.a.). Christopher, M. (2005): Logistics and Supply Chain Management: creating value-adding networks, Financial Times / Prentice Hall, Harlow (u.a.). Christopher, M. / Peck, H. (2004): Building the Resilient Supply Chain, in: The International Journal of Logistics Management, 15(2), S. 1–13. DRSC (2010): Deutscher Rechnungslegungsstandard Nr. 5 – Risikoberichterstattung, in der Fassung vom 5. Januar 2010. Eberle, A. O. (2005): Risikomanagement in der Beschaffungslogistik – Gestaltungsempfehlungen für ein System, Difo-Druck, Bamberg. Fiege, S. (2006): Risikomanagement- und Überwachungssystem nach KonTraG: Prozess, Instrumente, Träger, Deutscher Universitätsverlag, Wiesbaden. Hahn, D. (1987): Risiko-Management. Stand und Entwicklungstendenzen, in: ZfO, 56. Jg., 1987, S. 137– 150. Haller, M. (1986): Risiko-Management – Eckpunkte eines integrierten Konzepts, in: Jakob, H. (Hrsg.): Risiko-Management, Schriften zur Unternehmensführung, Band 33, Gabler Verlag, Wiesbaden, S. 7–43. Hallikas, J. / Puumalainen, K. / Vesterinen, T. / Virolainen, V. (2005): Risk-Based Classification of Supplier Relationships, in: Journal of Purchasing and Supply Management, 11 (2–3), S. 72–82. Heusler, K. F. (2004): Implementierung von Supply Chain Management. Kompetenzorientierte Analyse aus der Perspektive eines Netzwerkakteurs, Deutscher Universitäts-Verlag, Wiesbaden. Jüttner, U. / Peck, H. / Christopher, M. (2003): Supply Chain Risk Management: Outlining an Agenda for Future Research, in: International Journal of Logistics Research and Applications, 6 (4), S. 197–210. Kajüter P. (2003): Instrumente zum Risikomanagement in der Supply Chain, in: Stölzle W. (Hrsg.): Supply Chain Controlling in Theorie und Praxis, 1. Auflage, Wiesbaden, S. 107–135. Kersten, W. / Feser, M. / Klotzbach, M. (2012): Supply Chain Risk Management – Konzept und Implementierung in der Praxis, in: Wimmer, T. (Hrsg.): Tagungsband zum 29. Deutschen Logistik-Kongress 2012, DVV Media Group, Hamburg, S. 405–432. Kersten, W. / Held, T. / Meyer, C. M. / Hohrath, P. (2007): Komplexitäts- und Risikomanagement als Methodenbausteine des Supply Chain Managements, in: Hausladen, I. / Mauch, C. (Hrsg.): Management am Puls der Zeit – Strategien, Konzepte und Methoden, TCW Transfer-Centrum, München. Knight, F. H. (1921): Risk, Uncertainty and Profit. Reprint 1965, Harper & Row, New York. Kupsch, P. (1973): Das Risiko im Entscheidungsprozess, Betriebswirtschaftlicher Verlag Gabler, Wiesbaden. Lambert, D. C. / Cooper, M. C. / Pagh, J. D. (1998): Supply Chain Management: Implementation issues and research opportunities, in: International Journal of Logistics Management, 9 (2), S. 1–19. Lambert, D. C. / Cooper, M. C. (2000): Issues in Supply Chain Management, in: Industrial Marketing Management, 29, S. 65–83. Leitner, F. (1915): Die Unternehmungsrisiken, Georg Reimer Verlag, Berlin. March, J. G. / Shapira, Z. (1987): Managerial Perspectives on Risk and Risk Taking, Management Science, 33, S. 1404–1418. Mikus, B. (1996): ZP-Stichwort: Risikomanagement, in: Zeitschrift für Planung, 7. Jg., 1996, S. 105–110. Implementierung eines Supply Chain Risk Managements 147 Norrman, A. / Lindroth, R. (2004): Categorization of Supply Chain Risk and Risk Management, in: Brindley, C. (Hrsg.): Supply Chain Risk, Ashgate, Aldershot (u.a.), S. 14–27. Oliver, R. K. / Webber, D. (1982): Supply Chain Management: logistics catches up with strategy, in: Christopher, M. (Hrsg.): Logistics – The Strategic Issues, Chapman & Hall, New York (u.a.). Österle, H. / Winter, R. (2003): Business Engineering. Auf dem Weg zum Unternehmen des Informationszeitalters, Springer, Berlin et al. Pfohl, C. / Gallus, P. / Köhler, H. (2007): Implementierung eines Supply Chain Risikomanagements. Theoretische Ansätze zur organisatorischen Umsetzung, in Wimmer, T. / Bobel, T. (Hrsg.): Effizienz, Verantwortung, Erfolg: Deutscher Logistik-Kongress, Bundesvereinigung Logistik, Bremen, S. 191–224. Pfohl, H. / Gallus, P. / Köhler, H. (2008): Konzeption des Supply Chain Risikomanagements, in: Pfohl, H. (Hrsg.): Sicherheit und Risikomanagement in der Supply Chain, Deutscher Verkehrs-Verlag, Hamburg, S. 7–79. Ritchie, B. / Brindley, C. (2004): Risk Characteristics of the Supply Chain — A Contingency Framework, in Brindley, C. (Hrsg.): Supply Chain Risk Management, Ashgate, Aldershot et al., S. 28–42. Rogler, S. (2002): Risikomanagement im Industriegebiet: Analyse von Beschaffungs-, Produktions- und Absatzrisiken, Dt. Universitäts-Verlag, Wiesbaden. Schorcht, H. (2004): Risikomanagement und Risikocontrolling junger Unternehmen in Wachstumsbranchen: Konzeption eines theoriegeleiteten Handlungsrahmens für die praxisinduzierte Unternehmenssteuerung, Logos, Berlin. Schroeder, M. / Feser, M. / Kersten, W. (2013): Supply chain risk management implementation: an empirical analysis within the medical technology industry sector, in: Proceedings of the 20th European Operation Management Association (EurOMA) Conference, Dublin Ireland, 07-12th June 2013, published soon. Simchi-Levi, D. / Kaminsky, P. / Simchi-Levi, E. (2004): Managing the supply chain: the definitive guide for the business professional, McGraw-Hill, New York (u.a.). Thom, A. (2008): Entwicklung eines Gestaltungsmodells zum Management von Risiken in Produktionsnetzwerken, Universitäts-Verlag der TU Berlin, Berlin. Wagner, S. / Bode, C. (2007): Empirische Untersuchung von SC-Risiken und SC-Risikomanagement in Deutschland, in: Vahrenkamp, R. / Siepermann, C. (Hrsg.): Risikomanagement in Supply Chains – Gefahren abwehren, Chancen nutzen, Erfolg generieren, Erich Schmidt Verlag, Berlin, S. 59–79. Winter, M. (2009): Referenzmodell zur Ableitung eines situationsadäquaten Projektmanagements, Shaker, Aachen. Wittmann, W. (1959): Unternehmung und unvollkommene Information, Westdeutscher, Köln und Opladen. Zeyer, U. (1996): Implementierungsmanagement: Ein konzeptioneller Ansatz am Beispiel der Implementierung von Lean Management, Rainer Hampp, München und Mering. E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien Dagmar Kessler 1 Einleitung Die wirtschaftliche Entwicklung der letzten drei Jahrzehnte stellt sowohl die Unternehmen des produzierenden als auch des Dienstleistungssektors vor anspruchsvolle Herausforderungen. Führen doch die Liberalisierung der europäischen Märkte sowie die Globalisierung zu zunehmendem Wettbewerb und Kostendruck. Dem gegenüber steht der Wunsch der Kunden nach Individualisierung von Produkten und Dienstleistungen sowie höherer Flexibilität bezüglich Produktionsprogramm und Lieferkonditionen. Die Unternehmen sind gezwungen, ihre Geschäftsprozesse flexibel zu gestalten und sich konsequent an den Kundenwünschen zu orientieren. Schon wird die Erweiterung des Begriffes des „Supply Chain Management“ (SCM) zum „Demand & Supply Chain Management“1 diskutiert, wobei letzterer auf die Ausrichtung der gesamten Wertschöpfungskette über die jeweiligen Unternehmensgrenzen hinweg auf den Kundenwunsch fokussiert. Das Beherrschen des damit verbundenen komplexen Informations- und Materialflusses stellt vor allem für die Logistik eines Unternehmens und dessen Partner in der gesamten Wertschöpfungskette eine zentrale Herausforderung dar. Die Auswirkungen des globalen, vernetzten Marktes haben die Logistik zu einem bedeutenden Faktor für den Erfolg eines Unternehmens und dessen Netzwerkes gemacht. Der effiziente Einsatz moderner Informations- und Kommunikationstechnologien sichert die Wettbewerbsfähigkeit in einem komplexen und dynamischen internationalen Unternehmensumfeld. 2 Begriffsklärung E-Logistics Der Begriff e-logistics beinhaltet nach Straube „... die strategische Planung und Steuerung aller für die elektronische Geschäftsabwicklung erforderlichen Logistiksysteme und -prozesse sowie deren administrative und operative Ausgestaltung für die physische Abwick1 Marbacher, A.: Demand & Supply Chain Management: zentrale Aspekte der Gestaltung und Überwachung unternehmensübergreifender Leistungserstellungsprozesse betrachtet aus der Perspektive eines Markenartikelherstellers der Konsumgüterindustrie, Wien 2001, S. 8. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_12, © Springer Fachmedien Wiesbaden 2013 150 Dagmar Kessler lung…“2. Es geht demnach um den effizienten Einsatz von modernen Informations- und Kommunikationstechnologien (IT) zur Unterstützung der Geschäftsprozesse sowohl im operativen als auch im strategischen Bereich der Logistik. Vor dem Hintergrund, dass nicht mehr nur Unternehmen mit Unternehmen konkurrieren, sondern „…Wertschöpfungsnetzwerke miteinander im Wettbewerb stehen…“3, müssen entsprechend auch die IT-Systeme der einzelnen Unternehmen einer Wertschöpfungskette vernetzt betrachtet und optimiert werden. Ziel ist es, mit dem Einsatz von IT-Systemen für die gesamte Logistikkette einen entscheidenden Vorteil im Wettbewerb der Unternehmensnetzwerke zu generieren. Die Unternehmensberatung Capgemini befragte in Zusammenarbeit mit dem Georgia Institute of Technology, SAP und DHL im Jahr 2007 im Rahmen einer Studie „Third Party Logistics“ insgesamt 1.568 Logistik-Manager aus 61 Ländern zu IT-Ansatzpunkten und deren Nutzen in der Logistik. Die am häufigsten von den befragten Logistik-Managern genannten IT-Ansatzpunkte waren Visibility-Tools (Tracking-Tracing, Event-Management), web-basierte Kommunikation, Transport-Management und Lager-Management. Dabei zeigten sich Lücken zwischen IT-Anforderungen und -Leistungen ausgewählter IT-Systeme in der Logistik. Eine auffällige Lücke zeigte sich zwischen dem gegenwärtigem (14%) und dem zukünftigen Nutzen (70%) bei der Radio Frequency Identification(RFID)-Technologie. Hier ergab sich bei den Befragten der Wert mit der höchsten Erwartungshaltung an den künftigen Einsatz.4 Die aktuelle, 17te „2013 Third-Party Logistics Study“ von Capgemini unterscheidet in der neuen Befragung zwischen den Antworten der „Shippers“ und der „3PL Providers“, also zwischen dem reinen Frachtführer und dem 3PL-Dienstleisters, auch Kontraktdienstleister genannt.5 Dabei übernimmt im Geschäftsmodell des 3PL-Providers der Spediteur neben seinen klassischen Transport-, Umschlag- und Lager-Dienstleistungen zusätzliche Leistungen innerhalb der logistischen Kette, von der Zollabwicklung bis hin zu einzelnen Arbeitsschritten in der Endmontage. In der Studie aus dem Jahr 2013 zeigt sich bezüglich der RFID-Technologie ein nur moderater Anstieg in der Bedeutung auf 24 bzw. 36% (Shippers bzw. 3PL Providers).6 Die hohen Erwartungen aus dem Jahr 2007 konnten offensichtlich bislang nicht erfüllt werden. Daher scheint es interessant, sich diese relativ neue, in Relation zu den hohen Erwartungen in der Logistik noch unterrepräsentierte Informationstechnologie näher zu betrachten. 2 Straube, F.: E-Logistik: ganzheitliches Logistikmanagement, Heidelberg 2004, S. 6f. 3 Bellmann, K., Himpel, F.: Fallstudien zum Produktionsmanagement, Wiesbaden 2008, S. 52. 4 Vgl. Logistikdienstleister müssen innovativer werden. In: Einkauf und Management, URL: logistikdienstleister_muessen_innovativer_werden, eingesehen am 01.05.2013. 5 Vgl. Vahrenkamp, R., Kotzab, H., Siepermann, Chr.: Logistik, Management und Strategien, München 2012, S. 55. 6 Vgl. Capgemini: 2013 Third-Party Logistics Study, The State of Logistics Outsourcing, Results and Findings of the 17th Annual Study, 2012, S. 11. E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien 151 Dabei gehört RFID neben Barcode und Spracherkennung zu den vorherrschenden Verfahren der Automatischen Identifikation und Datenerfassung in der Logistik. 3 Einsatz von AutoId-Verfahren in der Logistik 3.1 Identifikationssysteme Im industriellen Einsatz werden Objekte am häufigsten durch die Anbringung von Informationsträgern identifiziert, die bei Bedarf ausgelesen werden.7 Sowohl in der innerbetrieblichen Logistik, der Intralogistik, als auch in den Warenflüssen zwischen den Unternehmen der Supply Chain dienen Verfahren der automatische Identifikation und Datenerfassung („Auto-ID“) der mobilen und IT-gestützten Identifikation und Erfassung der Waren. Hierbei finden Technologien wie Barcode, Smart Label, Mobile Datenerfassung, Spracherkennung, lichtbasierte Verfahren sowie RFID Einsatz. Die führende Auto-ID-Technik zur automatischen, berührungslosen Datenerfassung ist bislang noch der Barcode. Die Möglichkeit der automatisierten Identifizierung der Waren durch den Barcode bietet Ansatzpunkte zur Optimierung der Prozesse in der gesamten Logistikkette wie die durchgängige Nutzung von Sendungsinformationen oder die Eliminierung redundanter Prozessschritte. Ein hohes Optimierungspotenzial liegt vor allem in der Reduzierung von manuellen Tätigkeiten wie dem bestandsmäßigen Abgleich von Avis und tatsächlichen Warenbewegungen. Darüber hinaus ergeben sich in der Regel eine erhöhte Abwicklungsgeschwindigkeit, sowie Transparenz und Sicherheit der Warenbewegungen in der gesamten Logistikkette.8 In einigen Publikationen wird prognostiziert, dass die RFID-Technologie in den nächsten Jahren den Barcode ablösen wird. Derzeit wird der Barcode durch RFID lediglich erweitert. Radio Frequency Identification überträgt kabel- und berührungslos Informationen mittels Funk-Mikrochips von Schreib- und Lesegeräten. Somit lassen sich die logistischen Einheiten vollautomatisiert und berührungslos erfassen. Dies bietet u.a. den Vorteil der lückenlosen Warennachverfolgung durch die gesamte Logistikkette, die Optimierung des Wareneingangs und des Versands sowie eine effiziente Organisation von Warenlagern. 3.2 Technologische Grundlagen der RFID-Technologie Ein RFID-System besteht aus einem Datenträger, der Sende- und Empfangseinrichtung sowie der Auswerteeinheit (vgl. Abbildung 1). Der Datenträger dient der Kennzeichnung des zu identifizierenden Objektes und wird in der Regel als Transponder bezeichnet. Er ist in der Regel fest mit dem Objekt verbunden, z. B. durch Smartlabels, die aufgeklebt werden können. 9 7 Vgl. Franke, W.[Hrsg.]: RFID - Leitfaden für die Logistik: Anwendungsgebiete, Einsatzmöglichkeiten, Integration, Praxisbeispiele, Wiesbaden 2006, S. 71 ff. 8 Vgl. Vahrenkamp, a.a.O, S. 75. 9 Vgl. Franke, a.a.O., S. 17. 152 Dagmar Kessler Ein Transponder besteht aus einem Mikrochip zur Speicherung von Informationen, beispielsweise den Electronic Product Code18 (EPC), der das Objekt eindeutig beschreibt, sowie ergänzenden Objektinformationen. Zur berührungslosen Datenübertragung ist noch eine Spule erforderlich, die als Sende- und Empfangsantenne für den Datenaustausch mit der Umwelt („Luftschnittstelle“10) fungiert. Eine umschließende Hülle schützt den Transponder. Abbildung 1: RFID-System11 Die Schreib-/Lesestationen codieren und decodieren die auf dem Mikrochip gespeicherten bzw. zu speichernden Daten. Die Anbindung an die nachgelagerten Anwendungen (z.B. betriebliche ERP-Software) erfolgt über eine sogenannte Middleware.12 Sobald sich der Transponder innerhalb der Reichweite einer Lese-/Schreibstation befindet wird der Lese- bzw. Schreibvorgang automatisch gestartet.13 Prinzipiell werden aktive und passive Transponder unterschieden. Aktive Transponder beziehen die benötigte Energie für die Datenübertragung und den Datenerhalt aus einer Batterie. Passive Transponder sind batterielose Systeme und erhalten die benötigte Energie während des Lese-/Schreibvorgangs von einem elektromagnetischen Feld, welches vom Leser bzw. von der Lese-/Schreibstation erzeugt wird.14 10 Vgl. Wohlers, G., Breitner, M. H. (Hrsg.): RFID-Anwendungen: Einführung, Fallbeispiele und Szenarien in der Praxis, Aachen 2008, S. 24. 11 Quelle: eigene Darstellung in Anlehnung an Finkenzeller, K.: RFID-Handbuch: Grundlagen und praktische Anwendungen von Transpondern, kontaktlosen Chipkarten und NFC, 5. Aufl., München 2008, S. 7. 12 Vgl. Wohlers, a.a.O., S. 11. 13 Vgl. Vahrenkamp, a.a.O., S. 75. 14 Vgl. Vahrenkamp, a.a.O., S. 75. E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien 153 In der Logistik finden aktive Transponder beispielsweise Einsatz zur Prozessdokumentation bei Montageprozessen in der Automobilindustrie sowie zur Verbesserung von Qualitätskontrollen und Qualitätsnachweisen. Aktive Transponder werden zudem zur Identifizierung von Containern und bei der Prozesskontrolle im Containerumschlag eingesetzt. Auch LKW lassen sich mittels aktiver Transponder identifizieren und so beim Ein- und Ausfahren an Lieferpunkten kontrollieren. Zudem arbeiten Mautsysteme mit aktiven Transpondern. Transponder unterscheiden sich vor allem in dem Frequenzbereich, auf dem sie arbeiten. Dieser hat entscheidende Auswirkungen auf die Kommunikation zwischen Transponder und Schreib-/Lesestation und bestimmt somit die Umgebung, in der ein RFID-System eingesetzt werden kann (vgl. Abbildung 2). Abbildung 2: Eigenschaften gängiger RFID-Systeme15 Je nach verwendetem Frequenzbereich lassen sich RFID-Systeme mit einer Reichweite zwischen wenigen cm bis zu über 100 m realisieren. In den niedrigen Frequenzbereichen kann ein Einsatz auf Metall problematisch sein, bei einer Anwendung im Bereich von Flüssigkeiten hingegen sind die hohen Frequenzbereiche problematisch. Auch die Möglichkeit, mehrere Tags gleichzeitig zu lesen, die sogenannte Pulkfähigkeit, hängt vom verwendeten Frequenzbereich ab. Dies ist gerade für die Logistik von großer Bedeutung, da sich beispielsweise im Lager-und Wareneingangsbereich erhebliche Rationalisierungspotenziale durch das Lesen ganzer Paletten ergeben können. Die Gebinde müssen bei der Identifizierung mit RFID nicht mehr aufgelöst und die einzelnen Pakete nicht 15 Quelle: ebenda, S. 76. 154 Dagmar Kessler mehr per Hand mit einem Scanner eingelesen werden. Hier wäre der hohe Frequenzbereich besser geeignet. Schließlich ist auch die Datenübertragungsrate abhängig von dem verwendeten Frequenzbereich, wobei hier der hohe Frequenzbereich höhere Übertragungsraten ermöglicht. Auch die Bauform des Transponders wird durch den Frequenzbereich und den Bedingungen am Einsatzort bestimmt. Ist die Zuverlässigkeit der Lese- und Schreibvorgänge von Bedeutung, sind aktive Transponder eher geeignet, da diese mit einer Zuverlässigkeit von 99,98% arbeiten. Für den Verwendungszweck sind auch die Kosten der Tags entscheidend. Die Kosten für einen aktiven Tag liegen heute (je nach Bauart) zwischen 20 und 150 € pro Stück, wären also beispielsweise für den Einsatz auf Lebensmittelverpackungen wie Joghurtbecher noch zu teuer.16 Weitere, für den Anwender wichtige Randbedingungen wie Betriebs- und Lagertemperaturen, Fremdmaterialien hinter dem Transponder, Verschmutzungen, mechanische Beanspruchungen durch Vibration, Stoß oder freien Fall sowie Störstrahlungen können Entscheidungskriterien für oder gegen den Einsatz bestimmter RFID-Systeme sein.17 3.3 Potenziale der RFID-Technologie in der Logistik Der Einsatz von RFID in der Supply Chain eröffnet vor allem im Rahmen der Warenidentifikation und -verfolgung entlang der Logistikkette Vorteile. In der Konsumgüterindustrie und im Einzelhandel werden zu diesem Zweck ausschließlich passive Transponder verwendet. Es werden nach VAHRENKAMP drei Anwendungsstufen unterscheiden: • 1. Stufe: Kennzeichnung und Identifikation auf Ladungsträgerebene: Hierbei ersetzt der RFID-Tag das EAN-128-Transportetikett, das auf jedem Ladungsträger (z.B. Palette) angebracht ist. Der Transponder speichert Informationen zu der geladenen Ware. • 2. Stufe: Kennzeichnung und Identifikation auf Karton-/Behälterebene: Die RFID-Tags werden auch an die im Ladungsträger befindlichen Behälter, z.B. Kartons, befestigt. • 3. Stufe: Kennzeichnung und Identifikation auf Artikel-/Stückebene: Die RFID-Transponder werden ebenso an jede Produkteinheit angebracht, der ein elektronischer Produktcode (EPC) zugeordnet ist. Der elektronische Produktcode (EPC) stellt eine Erweiterung der EAN dar, mit der es möglich wird, jede einzelne Artikeleinheit weltweit eindeutig zu kennzeichnen.18 RFID-Systeme bieten weitaus mehr Möglichkeiten als die Barcode-Technologie. Neben der Möglichkeit, Objekte über den im Tag hinterlegten EPC eindeutig zu identifizieren, eröffnet das Speichern zusätzlicher Informationen oder das Versehen der Transponder mit Sen- 16 Vgl. Vahrenkamp, a.a.O., S. 76. 17 Vgl. Franke, a.a.O., S. 19. 18 Vgl. Vahrenkamp, a.a.O., S. 76. E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien 155 soren völlig neue Anwendungsfelder. Ausgestattet mit solchen Transpondern, kann beispielsweise die Temperatur von Produkten überwacht werden. „Das oberste Ziel des Einsatzes von RFID ist es, die Transaktionskosten betrieblicher Prozesse an der Schnittstelle zwischen realer und virtueller Welt zu reduzieren.“19 Um diese vollautomatische Maschinen-Maschinen-Beziehung zwischen realen Dingen und bestehenden Informationssystemen herzustellen, werden Objekte mit Transpondern und Sensoren ausgestattet und haben so die Möglichkeit, ihre Umgebung wahrzunehmen. Sie werden als „Smarte Dinge“ bezeichnet. In der neuen wissenschaftlichen Disziplin Ubiquitous Computing, kurz „UbiComp“20, spricht man sogar von dem „Internet der Dinge“21, in dem der „… autonome Dialog der Dinge in globalen Zusammenhängen…“22 ermöglicht wird. Ereignisse der realen Welt können mit Informationssystemen verbunden werden. Ein in diesem Zusammenhang häufig beschriebenes Anwendungsbeispiel ist die intelligente Milchflasche, die, sobald das Haltbarkeitsdatum naht, mit dem Kühlschrank kommuniziert, worauf hin dieser dann über das Internet eine neue Flasche bestellt.23 4 Anwendung der RFID-Technologie der in der Praxis Eine weitere Anwendung der RFID Technologie ist die Identifizierung von Personen (z.B. biometrische Zutrittskontrolle, Positionsortung). Dies ist ein Bereich, der zuvor nicht mit der Barcode-Technologie erschlossen wurde. Dieser Trend wird von sinkenden Hardwarekosten beschleunigt. Der Einsatz von RFID in der Logistik und die Kennzeichnung zur Identifizierung mittels Transpondern setzten sich derzeit durch bei logistischen Einheiten, bei Transporthilfsmitteln, bei Investitionsgütern sowie bei hochwertigen Artikeln. Der großflächige Einsatz von RFID auf Artikelebene wird stark von den Transponderpreisen abhängen. Erst ab einem relativ niedrigen Preis (ca. 5 Cent) für einen passiven Tag, wird es sich wirtschaftlich lohnen, Smartlabels auf alle Produkte anzubringen.24 Die Einführung einer RFID-Anwendung gestaltet sich weitaus unkomplizierter und schneller, wenn ein in sich abgeschlossener Kreislauf vorliegt, da keine Unternehmensschnittstellen überwunden und unterschiedliche IT-Systeme abgeglichen werden müssen. In der betrieblichen Intralogistik dienen RFID-Transponder beispielsweise der Steuerung des Behälterkreislaufs in der Produktion.25 19 Gillert, F., Hansen,W.-R. : RFID für die Optimierung von Geschäftsprozessen: Prozess-Strukturen, ITArchitekturen, RFID-Infrastruktur, München 2007, S. 7. 20 Fleisch, E., Mattern, F.: Das Internet der Dinge. Ubiquitous Computing und RFID in der Praxis, Heidelberg 2005, S. 4. 21 Ebenda, S. 5. 22 Wohlers, a.a.O., S. 12f. 23 Vgl. Franke, a.a.O., S. 17. 24 Vgl. Wohlers, a.a.O., S. 18. 25 Vgl. Barton, Th.: Ein Informationssystem für das RFID-gestützte Behältermanagement, in: Barton, 156 Dagmar Kessler Im Folgenden soll anhand eines Beispiels aus der industriellen Praxis der Einsatz und der mögliche Nutzen der RFID-Technologie in der Produktionslogistik aufgezeigt werden. 4.1 Einsatz von RFID in der Produktionslogistik der SCHOTT AG Am Beispiel einer RFID-Einführung bei der SCHOTT AG in Mainz soll eine Einsatzmöglichkeit der RFID-Technologie in der Produktionslogistik vorgestellt werden. Die SCHOTT AG in Mainz ist ein international tätiger Spezialglashersteller. Eines der Kerngeschäfte ist die Produktion von optischem Glas. Die kontinuierlich betriebenen Schmelzwannen werden mit Gemenge und Scherben bestückt. Diese werden von einem zentralen Gemengehaus beliefert, welches auch die Schmelzwannen weiterer Geschäftsbereiche mit anderen Glasarten versorgt. Die Zufuhr zur Produktionslinie des optischen Glases erfolgt in Form von sogenannten „Bigbags“ und „Containern“, welche durch Aufsatz auf den Gemenge- bzw. Scherbenturm befüllt werden. Dies ist eine manuelle Tätigkeit in Verantwortung des Schaltwarts. Eine Verwechslung der zugeführten Gemenge oder Scherben führt in der Regel zu hohem wirtschaftlichen Schaden und Produktionsausfall. Im Rahmen eines Projektes zur Kostensenkung wurde daher die Einführung eines eindeutigen und sicheren Identifikationsverfahrens der Einheiten zur Gemengezufuhr geplant. Die Ziele des Projektes waren die Sicherung der Prozesse und hieraus resultierend eine Kostensenkung. Mit dem Einsatz der RFID-Technologie sollte ein erhöhter Schutz gegen die Vertauschung von Gemenge und Scherben erreicht werden und somit das Risiko eines erheblichen wirtschaftlichen Schadens minimiert werden. Zu Beginn des Projekts stand das Projektteam von SCHOTT vor einigen Herausforderungen, die sich aus dem „rauen“ Produktionsumfeld ergaben. • Die beliefernden Scherbencontainer sind aus Metall, so dass eventuell Probleme beim Lesen der Informationen im RFID-System zu erwarten waren (vgl. 3.2.). • Ebenso war die Installation in einem Umfeld vieler metallischer Komponenten (Stahlbühne, Gemenge und Scherbenturm,...) geplant, was wiederum den erfolgreichen Einsatz der RFID-Technologie gefährden konnte. • Im Bereich der Anlage herrschen sehr hohe Temperaturen von bis zu über 60°C, die im Rahmen der Realisierung berücksichtigt werden mussten. • Im geplanten RFID-System musste ein Abstand zwischen Transponder und Antenne von bis zu 900 mm realisiert werden. • Die geplanten RFID-Transponder mussten in unterschiedlichen Lagen bzw. Positionen gelesen werden können. • Zudem ist mit Verschmutzungen durch Gemengestaub zu rechnen. • Schließlich musste das künftige Lesegerät außerhalb des „heißen“ Bereichs installiert sein, sodass größere Kabellängen von bis zu 12 m zwischen Antenne und Lesegerät erforderlich waren. Hier stellte sich die Frage nach der Art der erforderlichen Antenne. Th., Erdlenbruch, B., Herrmann F., Müller, Chr. (Hrsg.): Logistische Anwendungen in der Wirtschaftsinformatik, Verlag News & Media, Berlin 2010, S. 29 – 39, S. 30. E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien 157 • Die Schmelzwanne und das anschließendes Platinsystem werden mit zum Teil sehr großen Strömen bzw. Frequenzen beheizt. Hier konnten Probleme in Bezug auf die elektromagnetische Verträglichkeit (EMV) zu technischen Restriktionen führen. All diese Vorüberlegungen führten schnell zu der Erkenntnis, dass in diesem Anwendungsfall kein RFID-System „von der Stange“ eingesetzt werden konnte, sondern erhebliche Entwicklungsarbeit notwendig war. Wie oben beschrieben bestimmt der Frequenzbereich, welche Transponder für ein solch anspruchsvolles Produktionsumfeld geeignet sind. Der UHF-Bereich erzielte die besten Ergebnisse (also bei 869,525MHz). Es werden robuste, passive Transponder für die Transportbehälter der Gemenge und Scherben verwendet (vgl. Abbildung 3). Die nun verwendeten Dipolantennen werden von einem robusten Kunststoffgehäuse geschützt. Im Ergebnis garantierten nur zwei Hersteller die erforderlichen größeren Kabellängen zwischen Antenne und Lesegerät. Die Transponderbefestigung an den Bigbags erfolgte jeweils links vorne und links hinten, um eine sichere Erkennung zu gewährleisten. Für einen festen Halt der Transponder wurden Stifte installiert. Um ausreichend Abstand zum flächigen Metall der Scherbencontainern zu garantieren, wurden Abstandhalter befestigt (vgl. Abbildung 3). Abbildung 3: RFID System der SCHOTT AG, Transponderbefestigung an Bigbags und Scherbencontainern26 Insgesamt konnten die EMV-technischen Probleme gelöst werden. 26 Quelle: SCHOTT AG, Mainz. 158 Dagmar Kessler In der Schaltwarte wurde ein zentraler PC installiert. Im Bühnenbereich wird über eine Ampelsteuerung die Zufuhr für Gemenge und Scherben kontrolliert. Hierbei fungieren die Ampelfarben als Signal für den jeweiligen Status der Belieferung: • Grün bedeutet, dass das richtige Gemenge oder die richtigen Scherben aufgesetzt wurden. • Rot bedeutet, dass das falsche Gemenge oder die falschen Scherben aufgesetzt wurden. • Gelb bedeutet, dass kein Transponder im Antennenfeld, also kein Bigbag oder Scherben, gelesen werden konnten. • Rot blinkend zeigt an, dass zwei oder mehr Transponder gleichzeitig gelesen werden und mindestens einer davon falsch ist. • Ist die Ampel aus, bedeutet dies, dass der Rechner zur Verwaltung des RFID-Systems oder ein Lesegerät nicht in Betrieb ist. Das Beispiel der SCHOTT AG zeigt, dass der Einsatz der RFID-Technologie auch in zunächst schwierigen Produktionsumgebungen erfolgreich möglich ist. Der Aufwand zur Installation eines RFID-Systems, selbst wenn zusätzliche Entwicklungsarbeiten notwendig werden, kann sich wie im Beispiel des Optik-Bereichs der SCHOTT AG rechnen, da die Minimierung des Risikos eines Produktionsausfalls die Kosten zur Einführung des Systems rechtfertigt. Erfolgreich implementierte RFID-Systeme in in sich abgeschlossenen Kreisläufen wie in der Produktionslogistik eines Unternehmens zeigen die Nutzenpotenziale dieser neuen Technologie und dienen als Wegbereiter für den Einsatz in unternehmensübergreifenden Anwendungen wie in der Logistik von Wertschöpfungsketten. 4.2 Kritische Würdigung der RFID-Technologie aus Sicht der Logistik Wie für jede neue Technologie lassen sich auch für die RFID-Technologie je nach beabsichtigtem Anwendungsfeld Vor-und Nachteile aufzeigen. Auch für die Logistik in und zwischen Unternehmen bedeutet dies, für den jeweiligen Anwendungsfall die spezifischen Vor- und Nachteile des Einsatzes der RFID-Technologie abzuwägen und unter betriebswirtschaftlichen Aspekten zu bewerten. Aus technischer Sicht bietet die RFID-Technologie im Vergleich zum Barcode den Vorteil, dass keine Ausrichtung des Tags und damit der logistischen Einheit zum Lesegerät notwendig ist. Die Transponder lassen sich durch feste und nicht-metallische Stoffe hindurch lesen, so dass kein Sichtkontakt zwischen Datenträger und Lesegerät erforderlich ist. Dies ermöglicht die schon oben beschriebene und für die Logistik aus wirtschaftlicher Sicht höchst attraktive Pulkerfassung. Hier werden erhebliche Zeit- und Kosteneinsparungen realisierbar. Zudem werden durch den automatischen Abgleich des Auftrags mit der Ware Fehlverladungen oder -einlagerungen vermieden, was wiederum zu Effizienzgewinnen führen wird. Die RFID-Tags besitzen einen großen und zudem veränderbaren Datenspeicher. Sie sind unempfindlich gegen Verschmutzungen und Deformierungen sowie physische Abnutzung. Des Weiteren sind die Transponder hitze- und kältebeständig. Insgesamt führen diese technischen Eigenschaften zu einer niedrigeren Fehleranfälligkeit beim Lesevorgang. Darüber hinaus erleichtert die größere Reichweite beim Lesevorgang und der geringe Platzbedarf des Tags den Vorgang der Datenerfassung. E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien 159 Die gespeicherten Daten können in Sekundenschnelle gelesen und somit die Objekte schneller als mit dem Barcode identifiziert werden. Der gespeicherte EPC ermöglicht es, die Objekte weltweit eindeutig zu identifizieren.27 Sollte die oben genannte, von VAHRENKAMP beschriebene, höchste Implementierungstiefe erreicht werden, in der jeder Artikel mit einem RFID-Tag mit individuellem EPC gekennzeichnet ist, könnten weitere Vorteile für die Logistik entlang der gesamten logistischen Wertschöpfungskette generiert werden wie die Automatisierung des Kassierprozesses im Einzelhandel durch Pulk-Erfassung oder die Vereinfachung von Inventuren und Bestandskontrollen durch die Erfassung der Lagerbestände mittels mobiler RFID-Lesegeräte. Hierdurch kann die Gefahr von Fehlbeständen, also den Out-of-Stock-Situationen, verringert und eine falsche Platzierung von Artikeln in den Regalen erkannt und verhindert werden. RFID-Tags könnten als elektronischer Kassenbon fungieren und so Umtauschprozesse vereinfachen, die vor allem im B2C-Handel von Bedeutung sind. Die Ware wäre entlang der gesamten Lieferkette besser zu verfolgen. Schließlich würden die Tags auch der elektronischen Warensicherung und -überwachung dienen und somit Schwund und Diebstähle reduzieren.28 Als Strategisches Ziel zur Optimierung der Waren-und Informationsflüsse entlang der gesamten Supply Chain ließe sich die Minimierung der Gefahr des Eintretens des gefürchteten Peitscheneffektes, des „Bullwhip-Effect“, erreichen.29 Dieser Effekt beschreibt ein Aufschaukeln von Liefer-und Nachfrageschwankungen entlang der Stufen einer Lieferkette.30 Demgegenüber stehen die Nachteile der RFID-Technologie wie die schon oben beschriebenen Probleme mit metallischen Materialien oder Flüssigkeiten. Diese können eine Kennzeichnung von beispielsweise Getränken oder Produkten in Konservendosen erschweren. Auch schränkt die Störanfälligkeit durch Funk das Einsatzgebiet ein. Für einzelne Anwendungen könnten die ungenügenden Reichweiten eine Restriktion darstellen. Soll das Ziel einer weltweit eindeutigen Identifizierung erreicht werden, bedingt dies eine weltweite Standardisierung der Frequenzen und der Datenschnittstellen. Schließlich erfordert die RFID-Technologie noch weitere Entwicklungsarbeit im Bereich des Datenschutzes und der Datensicherheit. Die hohen Kosten für die Hardware und die Integration der RFID-Technologie müssen durch die quantitativen und qualitativen Nutzenvorteile kompensiert werden.31 Die Erschließung der Rationalisierungspotenziale in der Logistik durch RFID bedingt jedoch eine flächendeckende Umstellung vom Barcode auf die Transponder. Dabei wird zunächst eine Übergangsphase notwendig sein, in der beide Technologien parallel Einsatz 27 Vgl. Franke, a.a.O., S. 72f. 28 Vgl. Vahrenkamp, a.a.O., S. 78. 29 Vgl. Hansen, W.-R.: Vernetzte Welten, in: Software in der Logistik – Intelligente Systeme, München 2012, S. 52 – 55, S. 52. 30 Vgl. Vahrenkamp, a.a.O., S. 38. 31 Vgl. Franke, a.a.O., S. 72f. 160 Dagmar Kessler finden. Hierzu können sogenannte Hybrid-Etiketten, die sowohl einen Barcode als auch einen Transponder tragen, verwendet werden.32 5 Ausblick Verschiedene Einzelhandelskonzerne wie Tesco (Großbritannien), Wal-Mart und Metro erproben zurzeit den Einsatz von Transpondern in der Logistik im Rahmen von Pilotprojekten.33 Weitere Entwicklungsschritte werden vor allem noch im Bereich der Standardisierung notwendig sein. Insbesondere die Transponder und Schreib-/Lesegeräte verschiedener Hersteller müssen zueinander kompatibel werden. Der für die RFID-Technologie zu nutzende Frequenzbereich muss international vereinheitlicht werden. Beispielsweise liegt der in den USA für eine RFID-Anwendung in der Logistik verwendete Frequenzbereich sehr dicht an dem in Europa für Handys und schnurlose DECT-Telefone vergebenen Frequenzbereich, so dass hier ein Ausweichen auf andere Frequenzbereiche erforderlich wäre.34 Viele Anwendungsfälle werden eine Erhöhung der Erfassungsgenauigkeit der passiven Transponder erforderlich machen. Ziel wird es sein, Leseraten von nahezu 100% zu realisieren. Problematisch könnte das zu erwartende Datenvolumen sowie das zu verarbeitende Datenvolumen pro Zeiteinheit werden, sollte eine flächendeckende Umstellung vom Barcode auf die RFID-Transponder Realität werden. Die heutigen Warenwirtschafts- und ERPSysteme sind auf die Verarbeitung dieser „bis zu Hunderte von Terabytes“35 nicht eingestellt. Auch hier ist vielfach noch Entwicklungsarbeit erforderlich.36 Schon heute bieten bereits Anbieter von ERP-Software wie SAP und Oracle-PeopleSoft RFID-fähige Versionen ihrer Anwendungen für das SCM an.37 Wie oben beschrieben wird auch letztendlich der Preis der RFID-Tags die wirtschaftliche Nutzung und damit die Verbreitung der Technologie maßgeblich beeinflussen. Die für den Einsatz in der Logistik benötigten RFID-Tags kosten derzeit ca. 0,50 € pro Stück. Erst ab einem Stückpreis von weniger als 0,10 € pro Stück wäre jedoch ein wirtschaftlicher Einsatz der RFID-Technologie zur umfassenden Warenkennzeichnung und -identifikation in der 32 Vgl. Vahrenkamp, a.a.O., S. 78. 33 Vgl. Wohlers, a.a.O. , S. 9. 34 Vgl. Vahrenkamp, a.a.O., S. 79 f. 35 Laudon, K. C., Laudon, J. P., Schoder, D.: Wirtschaftsinformatik: eine Einführung, München 2010, S. 360. 36 Vgl. Vahrenkamp, a.a.O., S. 79. 37 Vgl. Laudon, a.a.O., S. 360. E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien 161 Logistikkette möglich.38 Für das Ende des Jahrzehnts, evtl. schon in „einigen Jahren“39 wird mit dem Absinken des Preises auf unter 0,05 € pro Stück gerechnet.40 Solange sich die RFID-Technologie nicht durchgängig und flächendeckend in der Logistikkette durchsetzen lässt, werden IT-Systeme wie das „Cloud-Computing“ oder „SaaS (Software as a Service)“ alternative Ansatzpunkte zur Optimierung der Prozesse in der Logistikkette eröffnen. Einige Anwendungen, die durch die RFID-Verfahren beschrieben werden, lassen sich schon mit zweidimensionalen Datamatrixcodes, die eine größere Datenmenge darstellen können als der Barcode, insbesondere in Verbindung mit Smartphones realisieren. Das Handy fungiert somit als RFID-Tag oder -Reader.41 Zurzeit wird die RFID-Technologie vorwiegend zur Automatisierung logistischer Prozesse diskutiert. Aber auch im Bereich der Produktionslogistik, wie oben anhand des praktischen Beispiels beschrieben, sowie der Produktion können Rationalisierungspotenziale aufgezeigt werden. Hier müsste ebenfalls noch in Entwicklungsarbeiten investiert werden, um einen künftigen effizienten Einsatz der RFID-Technologie zu ermöglichen. Als eine Übergangslösung wird beispielsweise vorgeschlagen, zunächst nur die Transportbehältnisse mit RFID-Tags zu versehen.42 Schließlich werden noch im Bereich der Endverbraucher Aufklärungsarbeit und vertrauensbildende Maßnahmen nötig sein. Viele Bedenken von Verbraucher- und Datenschutzorganisationen müssen ausgeräumt werden, um nicht zum Hindernis bei der flächendeckenden Einführung von RFID zur Kennzeichnung von Konsumgütern zu werden. Die Hauptkritik richtet sich gegen die Möglichkeit, das Kaufverhalten jedes einzelnen Konsumenten lückenlos zu erfassen und hieraus die individuellen Kaufgewohnheiten abzuleiten. Zudem wird befürchtet, dass beispielsweise RFID-Tags in der Kleidung die Ortung eines Menschen ermöglichen könnten, da dessen aktueller Aufenthaltsort bei jedem Passieren einer RFID-Schleuse automatisch ermittelt werden könnte. Transponder in der Berufskleidung könnten gleichzeitig zur Überwachung am Arbeitsplatz genutzt werden.43 Die RFID-Technologie eröffnet insbesondere für die Logistik enorme Rationalisierungspotenziale. Um diese Potenziale ausschöpfen zu können, müssen Konsumgüterindustrie und Handel verantwortungsvoll mit der neuen Technologie umgehen.44 38 Vgl. Vahrenkamp, a.a.O., S. 79f. 39 Laudon, a.a.O., S. 360. 40 Vgl. Wohlers, a.a.O., S. 18. 41 Vgl. Hansen, a.a.O., S. 55. 42 Vgl. Günther, O., Kletti, W., Kubach, U.: RFID in manufacturing, Berlin 2008, S. 6. 43 Vgl. Vahrenkamp, a.a.O., S. 80. 44 Vgl. ebenda. 162 Dagmar Kessler Literatur Barton, Th.: Ein Informationssystem für das RFID-gestützte Behältermanagement, in: Barton, Th., Erdlenbruch, B., Herrmann F., Müller, Chr. (Hrsg.): Logistische Anwendungen in der Wirtschaftsinformatik, Verlag News & Media, Berlin 2010, S. 29–39. Bellmann, K., Himpel, F.: Fallstudien zum Produktionsmanagement, Wiesbaden 2008. Capgemini: 2013 Third-Party Logistics Study, The State of Logistics Outsourcing, Results and Findings of the 17th Annual Study, 2012. Einkauf und Management: Logistikdienstleister müssen innovativer werden, URL: www. einkauf_und_management.at/index.php/einkauf/more/logistikdienstleister_muessen_innovativer_werden, eingesehen am 01.05.2013. Finkenzeller, K.: RFID-Handbuch: Grundlagen und praktische Anwendungen von Transpondern, kontaktlosen Chipkarten und NFC, 5. Aufl., München 2008. Fleisch, E., Mattern, F.: Das Internet der Dinge. Ubiquitous Computing und RFID in der Praxis, Heidelberg 2005. Franke, W.[Hrsg.]: RFID - Leitfaden für die Logistik: Anwendungsgebiete, Einsatzmöglichkeiten, Integration, Praxisbeispiele, Wiesbaden 2006. Gillert, F., Hansen,W.-R. : RFID für die Optimierung von Geschäftsprozessen: Prozess-Strukturen, ITArchitekturen, RFID-Infrastruktur, München 2007. Günther, O., Kletti, W., Kubach, U.: RFID in manufacturing, Berlin 2008. Hansen, W.-R.: Vernetzte Welten, in: Software in der Logistik – Intelligente Systeme, München 2012, S. 52–55. Laudon, K. C., Laudon, J. P., Schoder, D.: Wirtschaftsinformatik: eine Einführung, München 2010. Marbacher, A.: Demand & Supply Chain Management: zentrale Aspekte der Gestaltung und Überwachung unternehmensübergreifender Leistungserstellungsprozesse betrachtet aus der Perspektive eines Markenartikelherstellers der Konsumgüterindustrie, Wien 2001. Straube, F.: E-Logistik: ganzheitliches Logistikmanagement, Heidelberg 2004. Vahrenkamp, R., Kotzab, H., Siepermann, Chr.: Logistik, Management und Strategien, München 2012. Wohlers, G., Breitner, M. H. (Hrsg.): RFID-Anwendungen: Einführung, Fallbeispiele und Szenarien in der Praxis, Aachen 2008. Achtsamkeit in Organisationen: Vom Stressmanagement über das achtsame Interagieren und Führen zur bewussten Gestaltung von Veränderungsprozessen Niko Kohls, Andrea Berzlanovich, Sebastian Sauer 1 Achtsamkeit – eine Einführung Achtsamkeit (Mindfulness) ist ein zentraler Begriff in der buddhistischen Weisheitslehre, der in psychologischer Terminologie als ein spezifischer, trainierbarer Bewusstseinszustand beschrieben werden kann, der auf das direkte und nicht-wertende Gewahrsein dessen abzielt, was in jedem Augenblick geschieht (Hayes and Feldman, 2004, Sauer et al., 2011b, Bishop et al., 2004). Achtsamkeit beschreibt folglich eine Bewusstseinshaltung, die sich dadurch auszeichnet, dass ein Individuum ganz im Modus des Präsenzerlebens ist und eine Situation folglich so objektiv wie möglich wahrnimmt, ohne sich dabei zu potentiell unbewusst ablaufenden bewertenden Interpretationen und damit einhergehenden Verhaltensreaktionen hinreißen zu lassen (Dunning, 2005). Obwohl die Fähigkeit, den gegenwärtigen Moment direkt und unverfälscht in einer akzeptierenden Weise zu erleben, auf den ersten Blick als triviale Angelegenheit erscheint, ist die Erreichung und Aufrechterhaltung dieses Bewusstseinszustands – in der meditativen Übung und ebenso im Alltag – nicht einfach. Um dies zu verstehen, müssen die Erkenntnisse der neurobiologischen und psychologischen Forschung vergegenwärtigt werden, die aufzeigen, dass Menschen das „Jetzt“ (gegenwärtiger Moment) immer als eine flotierende phänomenale Ereignisinsel erfassen, das zwischen Vergangenem und Zukünftigem eingebettet ist (Wittmann, 2013, Wittmann, 2011). Jedoch benutzen Menschen zumeist ihr autobiographisches und episodisches Gedächtnis, um eine konkrete gegenwärtige Situation auf der Basis von vergangenen Lernerfahrungen einzuordnen und zu interpretieren, oder sie versuchen ihr Verhalten derart auszurichten, dass ein gewünschtes Ereignis eintritt. Auf der einen Seite sind diese kognitivemotionalen Rückgriffe in die Vergangenheit über das episodische Gedächtnis sowie das antizipierende, auf einen zukünftigen Zustand bezogene Handeln aus evolutionsbiologischer Sicht sinnvolle Mechanismen, um die Problemlösefähigkeiten und somit letztlich auch die Wahrscheinlichkeit für das Überleben zu erhöhen. Auf der anderen Seite führen diese Strategien aufgrund der Optimierung der Wahrnehmungseffizienz zu einer reduzierten Genauigkeit des Gegenwartserlebens zugunsten von effizienten Mustererkennungsprozessen. Es werden also nur so viele sensorischer Reize verarbeitet, wie für schnelle und hinreichend akkurate Entscheidungsprozesse notwendig sind. Herausgebildete mentale Kategorien beschleunigen diese Vorgänge. Demnach kann Achtsamkeit als Versuch beschrieben werden, die individuellen erlernten (und partiell angeborenen) Stereotypen und W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_13, © Springer Fachmedien Wiesbaden 2013 164 Niko Kohls, Andrea Berzlanovich, Sebastian Sauer Vorurteile bewusst unter Kontrolle zu halten. Dies führt zu einer weniger individualistischen Sichtweise, die verhindert, dass Wahrnehmungen zu stark „subjektiv eingefärbt“ werden. 2 Die Schulung von Achtsamkeit und resultierende Gesundheitseffekte Das akzeptierende Erleben der Gegenwart kann mit Hilfe von bestimmten körperorientierten Bewusstseinsübungen systematisch trainiert werden, die auch als achtsamkeitsbasierte Interventionen, im englischen Sprachgebrauch als Mind-Body-Verfahren, bezeichnet werden (Walach et al., 2012). Im Kontext der westlichen Medizin ist die Achtsamkeitsmeditation am bekanntesten. Mit deren Hilfe kann rasch erlernt werden, den Moment wahrzunehmen, Körperempfindungen, Gedanken, Gefühle zu betrachten und diese zu akzeptieren, ohne sie kognitiv oder emotional zu bewerten (Sauer et al., 2011b). Eine einfache Übung mit einer Rosine, die in Achtsamkeitsschulungen häufig verwendet wird, vermag die Wirkung von Achtsamkeit praktisch zu verdeutlichen: Die Praktizierenden werden in einem ersten Schritt gebeten, eine Rosine in eine Hand zu nehmen und diese zu betrachten, ohne dabei ihren Impulsen nachzugeben, mit der Rosine etwas Bestimmtes tun zu wollen. Im zweiten Schritt soll die Rosine bewusst und mit allen zusätzlichen Sinnen wahrgenommen werden: Tasten, riechen und schließlich schmecken. Geruch und Geschmack der Rosine müssen präzise erforscht werden und der damit einher gehende Vorgang des Zungenkontakts, Kauens und Schluckens muss genau beobachtet und registriert werden. So wie die Rosinenübung vielen Menschen erstmals zu einem bewussten Nachvollziehen von automatisierten Abläufen verhilft, können durch andere Übungen überraschende körperbezogene Selbsterfahrungen und reflexive Einsichten gewonnen werden. Denn die achtsamkeitsbasierten Techniken zielen darauf ab, einen inneren Ort der Aufmerksamkeit zu aktivieren, welcher erlaubt, die Empfindungen/Gedanken des Moments wertfrei wahrzunehmen. Die Achtsamkeitsmeditation hebt sich von anderen meditativen Praktiken ab, die auf einer Fokussierung oder willentlichen Lenkung des Bewusstseins beruhen. Achtsamkeit kann und sollte jedoch nicht nur in den zurückgezogen Stunden der Meditation geübt werden, sondern auch innerhalb des Alltags. Achtsamkeit ist nicht nur eine Technik, sondern gleichfalls eine Lebenshaltung und eine Art zu Sein. Der amerikanische Molekularbiologe Jon Kabat-Zinn hat die Achtsamkeitsmeditation vor mehr als zwanzig Jahren von ihrem weltanschaulichen buddhistischen Hintergrund gelöst und zu einem standardisierten Programm entwickelt. Dieses soll helfen, besser mit Stress, Angst und Krankheiten umzugehen (Kabat-Zinn, 1998, Kabat-Zinn, 1996). 1979 wurde die erste Mindfulness-Based Stress Reduktion (MBSR)- Gruppe ins Leben gerufen. MBSR ist ein psycho-edukatives, auf Selbsterfahrung aufbauendes Programm, welches verschiedene Meditationsformen (BodyScan, formelle Meditation im Sitzen oder Gehen, Yoga Übungen) lehrt, und das sowohl ambulant als auch stationär implementiert werden kann. Obwohl die zugrundeliegenden Meditationstechniken vorwiegend aus der Achtsamkeitstradition des Buddhismus (Vipassana) stammen, sind sie völlig von ihrem buddhistischen Kontext gelöst und somit für Personen geeignet, die keine Affinität zu spirituell-religiösen Dimensionen oder andere religiöse Orientierungen haben (Hayes and Feldman, 2004, Bishop et al., 2004). Das standardisierte MBSR-Basistraining besteht aus einem achtwöchigen Gruppen- Achtsamkeit in Organisationen 165 angebot von 1,5 Stunden Dauer pro Woche sowie einen ganzen Tag der Achtsamkeit. Zusätzlich wird den Teilnehmer/inne/n empfohlen, täglich 30-45 Minuten eigenständig zu praktizieren. Mittlerweile wird das MSBR-Training in den USA an über 250 Kliniken und Gesundheitszentren zur Behandlung unterschiedlicher Krankheiten und Symptome erfolgreich eingesetzt. In den letzten Jahren werden achtsamkeitsbasierte Verfahren nicht nur zur Bewältigung von Stress und verschiedenen Krankheiten, sondern gleichfalls zur Steigerung des Wohlbefindens herangezogen. Ergebnisse zahlreicher Evaluationsstudien belegen die Wirksamkeit von Achtsamkeitstrainings für die Gesundheit und Leistungsfähigkeit von Personen bereits nach einem Zeitraum von sechs bis acht Wochen systematischen Trainings (Mars and Abbey, 2010). Das Einüben von Achtsamkeit ermöglicht zudem konzentrierter und emotional ausgeglichener zu handeln (Heidenreich and Michalak, 2006). Achtsamkeitsbasierte Verfahren werden mittlerweile für eine Bandbreite von psychischen und physischen Problemen und Beschwerden wie Stress, Depression, Angst, Schmerzen, Süchten, Bluthochdruck, Tinnitus, Schuppenflechte als auch als flankierende Maßnahmen bei malignen und chronischen Erkrankungen eingesetzt (Gander et al., 2008, Hofmann et al., 2010, Chiesa and Serretti, 2010). 3 Achtsamkeit für Organisationen Obwohl Achtsamkeit in den Gesundheitswissenschaften mittlerweile als ein zentrales Konzept etabliert ist, haben die nicht primär gesundheitsbezogenen Effekte von Achtsamkeit im arbeits- und organisationswissenschaftlichen Zusammenhang noch kaum Beachtung gefunden. Achtsamkeit kann durchaus der Optimierung von Entscheidungsfindungen, Empathiefähigkeit und sozialen Interaktionen in Organisationen dienen (Neuberger, 2002, Northouse, 2009). Erkenntnisse aus der gesundheitswissenschaftlichen Forschung können ebenso für die Verbesserung von Führungsverhalten genutzt werden (Mars and Abbey, 2010). Weniger gestresste Führungskräfte sind nicht nur leistungsfähiger, sondern auch zugewandter zu ihren Mitarbeiter/inne/n. Die Bedeutung von Achtsamkeit jenseits der stressreduzierenden Wirkung für authentische Führungskompetenzen lässt sich aus impliziten und expliziten Annahmen der modernen Führungsforschung ableiten. Die Studie von Dunning et al. (2004) zeigt auf, dass Manager/innen dazu neigen, die Annahme der selbstattribuierten Überdurchschnittlichkeit zu entwickeln, was die Kommunikations- und Interaktionsqualität mit Kolleg/inn/en und Mitarbeiter/inne/n potentiell beeinträchtigen kann. Eine Inkongruenz von Selbst- und Fremdbild erschwert die Ausbildung eines als authentisch wahrgenommenen Führungsverhaltens und dem damit einhergehenden Vertrauen (Wong et al., 2010, Gardner et al., 2011). Durch die Verzerrungseffekte der Eigenwahrnehmung wird in der Regel eine Kaskade von negativen Folgen ausgelöst, die durch achtsamkeitsbasiertes Training verhindert oder zumindest partiell abgeschwächt werden können. Bislang liegen nur wenige Studien vor, die die Auswirkungen von achtsamkeits-basierten Interventionen für spezifische, führungsrelevante Kompetenzen, Fähigkeiten und Verhaltensweisen anhand von Stichproben mit Führungskräften empirisch oder experimentell analysieren. Die meisten einschlägigen wissenschaftlichen Arbeiten stammen aus dem pflegewissenschaftlichen Bereich (Zeller and Levin, 2013, Pipe, 2008). Da die Alten- und Krankenpflege ein belastungs- und stressintensives Arbeitssetting darstellt, das zudem durch asymmetrische Kommunikations- und Interaktionsprozesse (“Jüngere Gesündere“ pflegen „Ältere Kranke“) geprägt ist. Darüber hinaus gibt es einige Untersuchungen, die die 166 Niko Kohls, Andrea Berzlanovich, Sebastian Sauer Bedeutung von Achtsamkeit für wichtige organisatorische Kommunikations-, Interaktionsund Entscheidungsprozesse auf der Grundlage von theoretischen Überlegungen und deduktiven Ableitungen aus der gesundheitswissenschaftlichen Branche beleuchten (Sauer and Kohls, 2011, Sauer et al., 2011a, Boyatzis and McKee, 2005). 4 Potentiell förderliche Auswirkungen von Achtsamkeit 4.1 Achtsamkeit und Stressabbau Die Effekte von Achtsamkeit wurden im arbeits- und organisations-wissenschaftlichen Kontext überwiegend auf ihre stressmindernde Wirkung erforscht (Pipe, 2007, Walach et al., 2007, Yong et al., 2010, Klatt et al., 2012), wobei die vorliegenden Resultate darauf hindeuten, dass sich für Achtsamkeit am Arbeitsplatz – ähnlich wie im gesundheitswissenschaftlichen Umfeld – eine stress- und belastungsreduzierende Wirkung finden lässt. Die Arbeiten von Pipe und Yong et al. unterstreichen, dass Achtsamkeit die psychische Gesundheit von im Pflegebereich tätigen Führungskräften verbessern kann. Walach und Kollegen haben ebenfalls Gesundheits- und Stressparameter in einem Arbeitssetting, das durch hohe Belastung – einem Call-Center – gekennzeichnet ist, analysiert. Klatt und Kollegen haben die Wirksamkeit von einer niederschwellig angebotenen achtsamkeitsbasierten Intervention für skandinavische Bankangestellte aufgezeigt. Diese Studienergebnisse lassen den Rückschluss zu, dass Achtsamkeit nicht nur hilfreich ist, um leichter mit Belastungen umzugehen, sondern auch um adaptivere Strategien zur Stressregulation zu entwickeln. Vor diesem Hintergrund kann belegt werden, dass Achtsamkeit für Führungskräfte eine gute Maßnahme zum Abbau von Stress und zum Aufbau von Stressresilienz bildet (Chiesa et al., 2011, Chiesa and Serretti, 2009, Lyons and Schneider, 2009). Dies scheint nicht nur auf achtsamkeitsbasierte Interventionen zuzutreffen, sondern auch auf einige andere Formen von Mind-Body-Verfahren, die im Rahmen der integrativen Medizin und Gesundheitsförderung angewandt werden (Walach et al., 2012). Beispielsweise konnte eine rezente Studie beweisen, dass die Effektgrößen von einer achtsamkeitsbasierten Intervention am Arbeitsplatz sich nicht von einer Yoga-Intervention unterschieden haben (Wolever et al., 2012). Trotz dieser Einschränkung kann der Schluss gezogen werden, dass achtsamkeitsbasierte Verfahren zu den am meisten untersuchten und am leichtesten zu implementierenden Verfahren zählen. 4.2 Achtsamkeit und kognitive Ressourcenallokation Um die Wirkung von Achtsamkeit diesbezüglich zu veranschaulichen, muss man sich vergegenwärtigen, dass es nicht selten passiert, dass man eine gut bekannte Strecke im Auto gefahren ist und sich am Ziel nicht mehr daran erinnern kann, was auf weiten Teile der Fahrt geschehen ist. Dieses Phänomen, das vor allem bei implizit erlernten Handlungs- und Verhaltensweisen (beispielsweise Auto-, Motorrad- oder Fahrradfahren) auftritt, aufgrund der durch die Lernprozesse erworbenen Routine wie in einem kognitiven AutopilotenModus ausgeführt werden, wird als „Geistesabwesenheit“ – „mindlessness“ – bezeichnet (Langer, 1989). Diese weitgehend „unbewusst“ ausgeführten Verhaltensweisen sind aus evolutions-biologischer und entwicklungspsychologischer Sicht nützliche und sinnvolle Strategien, um zu überleben. Es ist nicht sinnvoll, alle kognitiven Ressourcen auf einmal Achtsamkeit in Organisationen 167 Erlerntes zu fokussieren, weil es sonst keinen Lern- und / oder Habituations-prozess geben würde, der zu der Ausbildung von schemataartigen Verhaltensprogrammen in Form von mentalen Skripten führt. Dennoch ist Geistesabwesenheit eine der Hauptursachen von Unfällen im Straßenverkehr (Hanan et al., 2010, Kass et al., 2008). Aber auch im organisationalen Kontext, wenn Tätigkeiten monoton erscheinen (Hoyos, 1995), besteht die Gefahr, dass eine Person in den Autopilotenmodus verfällt und nicht mehr konzentriert genug ist. Im Gegensatz zu Routinetätigkeiten gibt es viele komplexe Interaktionsprozesse, wie beispielsweise in der Personalführung und Entscheidungsfindung, auf die nur durch situationsund kontextsspezifische Modulation des Verhaltens adäquat reagiert werden kann. Häufig wird auf solche bekannten, aber komplexen Umstände mit automatisierten und stereotypen Verhaltensweisen reagiert, die in der Vergangenheit erlernt wurden (vgl. Fischer et al., 2005). Hier kann Achtsamkeit helfen, um die vermeintlich bekannte Situation noch einmal genauer zu betrachten und dadurch die Möglichkeit zu entwickeln, auf diese individueller und weniger stereotyp einzugehen. Denn Personen, die regelmäßig Achtsamkeitsübungen praktizieren sind nicht nur in der Lage, ihre Gegenwartswahrnehmung zu stabilisieren (Sauer et al., 2012), sondern können – vermutlich aufgrund verbesserter Allokation ihrer kognitiven Ressourcen und Verbesserung der emotionalen Selbstregulationsfähigkeit – auch automatisierte Verhaltensreaktionen bewusster reflektieren (Sauer et al., 2011c, Teper and Inzlicht, 2013). Eine Studie von Zeidan et al. weist außerdem hin, dass achtsamkeitsbasierte Interventionen bereits nach einer kurzen Trainingsphase die kognitive Performanz signifikant steigern können (Zeidan et al., 2010). Aufgrund der hohen Stressbelastung, der zunehmend komplexeren Aufgaben sowie der zahlreichen Unterbrechungen des Arbeitsprozesses, denen Menschen in Organisationen heutzutage ausgesetzt sind (Haufe, 2009), kann eine erhöhte Konzentrationsfähigkeit hilfreich sein, um Aufgaben und Tätigkeiten reflektierter, effektiver und weniger fehleranfällig auszuführen. Darüber hinaus ist „Mind Wandering“, also Gedankenabwesenheit, im Grunde ein dissoziativer Vorgang, der mit „Erfahrungsvermeidung“ einhergehen kann. Dies bedeutet, dass unangenehme Gedanken, Erfahrungen und Erinnerungen – wie unliebsame Tätigkeiten oder unerfreuliche Gespräche – tendentiell unterdrückt werden, wodurch es zu Verzerrungen der Wahrnehmung und Erinnerung kommen kann. Achtsamkeits-basierte Interventionen können bewerkstelligen, dass die Tendenz zur Erfahrungsvermeidung, welche auch mit bestimmten psychischen Problemen und Erkrankungen sowie generell reduzierter kognitiver Performanz in Verbindung gebracht wird, abnimmt (Chawla and Ostafin, 2007). Die mit achtsamkeitsbasierten Interventionen einhergehende Verbesserung der emotionalen Selbstregulation und kognitiven Performanz können auch mit neuronalen Funktionen und Strukturen in Verbindung gebracht werden. Denn die Forschungsbefunde legen nahe, dass durch regelmäßiges Üben von Achtsamkeit auf psychologischer Ebene nicht nur das Selbstmodell verändert wird, sondern auf physiologischer Ebene morphologische Hirnstrukturen und neuronale Aktivierungsmuster beeinflusst werden, die Veränderungen im Immunsystem bewirken können (Davidson, 2012, Davidson et al., 2003). Die Ergebnisse einer funktionellen Magnetresonanztomographie-Studie (fMRT) deuten darauf hin, dass durch achtsamkeitsbasierte Interventionen das Selbstmodell von Meditierenden derart umgestellt wird, dass die Hirnareale, die für die gegenwärtige Selbst- und Körperwahrnehmung zuständig sind, von den für ihr autobiographisches Gedächtnis und damit für ihr biographisches Selbstbild zuständigen Arealen abgekoppelt werden können (Farb et al., 2007). Hierbei ist es möglich, neuronale Korrelate zu finden, in denen sich achtsamkeitsbasierte Interventionen von anderen Mind- 168 Niko Kohls, Andrea Berzlanovich, Sebastian Sauer Body-Techniken unterscheiden. Beispielsweise wurden die Hirnaktivitäten von Teilnehmer/inne/n einer Achtsamkeitsgruppe mit denen einer Entspannungsgruppe verglichen (Tang et al., 2009, Tang et al., 2007). Dabei wurde bei den Personen, die in Achtsamkeit geschult wurden, im Vergleich zu der Entspannungsgruppe, eine signifikant stärkere Durchblutung von Teilen des limbischen Systems festgestellt, das für die Emotionsregulierung von zentraler Bedeutung ist. Die Verbesserung der emotionalen Selbstregulationsfähigkeit wird durch eine Studie belegt, in der gezeigt werden konnte, dass spezifische für Emotionen und Aufmerksamkeitsleistungen zuständige Hirnregionen durch das Achtsamkeitstraining an Volumen zunahmen (Hölzel et al., 2008). Trotzdem emotionale Selbstregulation für Menschen in Organisationen eine wichtige Kompetenz ist (George, 2000, Kerr et al., 2006, Riggio and Reichard, 2008, Lawrence et al., 2011), gibt es keine spezifischen Untersuchungen im Bereich der Organisationswissenschaften, die die Effekte von Achtsamkeit auf die Emotionsregulationsfähigkeit bei Führungskräften auf neuronaler Ebene dokumentieren. 4.3 Achtsamkeit als Ressource zur Bewältigung von Führungsund Organisationsaufgaben Auf die zentrale Rolle introspektiver Kompetenzen hat der Psychologe und Kommunikationswissenschaftler Friedemann Schulz von Thun (Schulz von Thun and Stegemann, 2004) mit seinem Bonmot: „Willst du ein guter Führer sein, schau‘ erst in dich selbst hinein“ hingewiesen. Die Veränderung des Führungsstils, weg von einem autokratischen und hierarchisch strukturierten Führungsverhalten, hin zu einem egalitaristischen und vermehrt partizipativ ausgerichteten Führungsverhalten sowie eine damit einhergehende breitere Verteilung von Macht, Einfluss und Verantwortung in Organisationen (Manz and Sims, 2001, Müller, 2005) spiegelt sich vor allem in den verschiedenen Führungstheorien innerhalb der Organisationswissenschaften wider (McGregor, 1960). Ein verändertes Rollenund Aufgabenverständnis hat aber auch implizite Implikationen, die den Bewusstseinszustand und somit auch das Ausmaß von Achtsamkeit von Führungskräften betreffen. Die Theorie authentischer Führung geht davon aus, dass Achtsamkeit mit dazu beiträgt, dass Führungskräfte selbstkongruenter und authentischer auftreten können, wodurch sie ihr Handeln glaubwürdiger an persönlichen Überzeugungen und transparenten Wertesystemen ausrichten können (Avolio and Gardner, 2005). Im Kontext von Ansätzen wie „super leadership“ (Manz and Sims, 2001) oder „Führung durch Selbstführung“ (Müller, 2005) gehört Achtsamkeit zu den Prozessen, die Führungskräfte dabei unterstützen können, an „innerer Transparenz“ zu gewinnen und mehr durch das eigene, authentisch gelebte Vorbild als durch Kontrolle oder Anweisung zu führen. Eine wichtige Funktion könnte Achtsamkeit schließlich im Rahmen des an Bedeutung gewinnenden „coachenden“ Führungsverhaltens (Hunt and Weintraub, 2006) einnehmen, da hier nicht nur die Auswirkungen des persönlichen Kommunikations- und Interaktionsverhaltens differenziert wahrgenommen werden, sondern auch die Bedürfnisse, Einstellungen und Vorlieben von Mitarbeiter/inne/n reflektiert werden müssen. Auf der Grundlage einer von Mintzberg (Mintzberg, 1990) entwickelten Typologie von Führungsaufgaben, werden im Folgenden weitere potenziell relevante Vorteile der Achtsamkeit für Führungsprozesse diskutiert. Achtsamkeit in Organisationen 169 4.3.1 Verbesserung der Informationsverarbeitung durch Achtsamkeit Menschen in Organisation müssen in der Lage sein, komplexe Informationen schnell und effizient zu verarbeiten. Wer dabei gelernt hat, seine mentalen Ressourcen effizient zu nutzen, kann für auftretende Probleme effektivere, innovativere und kreativere Lösungen finden. Die Fähigkeit, bei der Lösung eines Problems nicht den bereits etablierten mentalen Repräsentationskategorien zum Opfer zu fallen, sondern in neuen und kreativen mentalen Kategorien zu denken, wird durch Achtsamkeit sicherlich begünstigt. Die Psychologin Ellen Langer konnte bestätigen, dass Achtsamkeit die Herausbildung neuer kognitiver Strukturen erleichtert (Langer and Moldoveanu, 2000). Langer stellte fest, dass ihre Untersuchungsteilnehmer/innen nach einem Achtsamkeitstraining in der Lage waren, „mit frischem Blick“ auf Standard- oder Routineaufgaben zu schauen. Sie konnten durch die verbesserte Präsenzwahrnehmung häufig subtile, aber relevante Details in vermeintlichen Standardsituationen erkennen und dadurch neue Verständnisperspektiven entwickeln („thinking out of the box“). Diese Fähigkeit, Dinge genau und interessiert zu betrachten, wie als wenn man sie das erste Mal sehen würde („beginners mind“), wird auch von dem Entwickler, der MBSR-Programs, Jon Kabat-Zinn als zentral erachtet. In einer Studie konnten Slagter und Kollegen die zugrundeliegenden neuronalen Prozesse beleuchten (Lutz et al., 2008). Mit Hilfe eines bestimmten experimentellen Versuchsaufbaus – sogenanntes „Attentional Blink“-Paradigma – wurden Versuchspersonen in Abständen von Sekundenbruchteilen Buchstabenreihen am Bildschirm präsentiert, zwischen denen mitunter an zwei Stellen eine Ziffer gemischt war. Unter „attentional blink“ („Aufmerksamkeitsblinzeln“) wird dabei das Phänomen verstanden, dass die zweite Ziffer oft nicht wahrgenommen werden kann, wenn die Reize schnell erfolgen und die beiden Ziffern kurz hintereinander dargestellt werden (z.B. eine halbe Sekunde Abstand). Die Aufgabe der Probanden/innen war es dementsprechend, die beiden Ziffern korrekt zu benennen, wenn sie am Bildschirm aufschienen. Gleichzeitig wurde mittels ereigniskorrelierter Potenziale (spezifische Wellenformen im Elektroenzephalogramm), die mit Sinneswahrnehmungen oder mit kognitiven Prozessen assoziiert sind bestimmt, wie viel attentionale Ressourcen die neuronale Maschinerie der jeweiligen Versuchspersonen für das korrekte Benennen der Ziffern benötigte. Eine höhere Amplitude des ereigniskorrelierten Potenzials zeigte an, dass die neuronale Maschinerie mehr attentionale Ressourcen einsetzen musste, um die Ziffern mit Hilfe von Mustererkennungsprozessen wahrzunehmen. Die Achtsamkeitsgruppe benötigte im Vergleich zur Kontrollgruppe nicht nur weniger attentionale Ressourcen für diese Aufgabe, es gab auch signifikant weniger Erkennungsfehler aufgrund von Aufmerksamkeitsblinzeln. Demnach ist Achtsamkeit für Menschen in Organisationen höchst relevant, um fehlerfreier zu arbeiten sowie innovative Lösungen zu entwickeln. 4.3.2 Kommunikation, Interaktion und Achtsamkeit Eine weitere zentrale Aufgabe von Menschen in Organisationen besteht darin, mit Mitarbeiter/inne/n, Kolleg/inn/en und Kooperationspartner/inne/n zielführend zu interagieren und zu kommunizieren. Dies geschieht normalerweise bei formellen oder informellen Treffen und Besprechungen, Briefwechsel, Telefonaten oder beim Austausch über elektronische Medien (Email, Video-Konferenz, Live-Chat). Glaubwürdigkeit und Authentizität verbessern die Qualität von Kommunikation und Interaktionsprozessen. Einer Studie der Unternehmensberatung Towers Watson (2008) zufolge ist die wichtigste Voraussetzung für das 170 Niko Kohls, Andrea Berzlanovich, Sebastian Sauer langfristige Aufrechterhalten der Arbeitsmotivation von Mitarbeiter/inne/n, dass das Führungspersonal ein ehrliches und aufrichtiges Interesse am Wohlergehen der Belegschaft hat. Beschäftigte sind vor allem dann unmotiviert und unzufrieden, wenn Führungskräfte nicht offen und ehrlich mit ihnen kommunizieren oder kein emotionales Interesse an ihnen haben. Für gelungene Interaktions- und Kommunikationsprozesse ist es zentral, der anderen Person zuzuhören und auf sie einzugehen (Hackman and Johnson, 2004). Dazu müssen die Betreffenden in der Lage sein, zumindest zeitweilig persönliche Interessen in den Hintergrund und die Belange der Anderen in den Vordergrund zu stellen, um sich empathisch in das Gegenüber hineinversetzen und dessen Perspektive einnehmen zu können („Theory of Mind“). Es überrascht nicht, dass dies vor allem Personen mit narzisstischen und egozentrierten Tendenzen schwer fällt (vgl. Oelsnitz and Busch, 2010). Shapiro et al. (2006) betrachten den Abbau narzisstischer Tendenzen als den zentralen Wirkfaktor von Achtsamkeit. Achtsamkeit wirkt der Tendenz entgegen, eine gegebene Situation automatisch im Sinne egoistischer Bestrebungen zu interpretieren. Indem gelernt wird, das eigene Ich und seine Relevanz zumindest temporär einen Schritt zurück treten zu lassen, trägt Achtsamkeit dazu bei, die Fähigkeit der Perspektivenübernahme zu entwickeln, was im Sinne von Dialogfähigkeit einen authentischen und empathischen Brückenschlag in der Interaktion mit anderen Menschen möglich macht (Buber, 1973). 4.3.3 Entscheidungsprozesse, moralisches Verhalten und Achtsamkeit Die Fähigkeit, Informationen zu verarbeiten und sich mit anderen Personen auszutauschen, hat auch immer damit zu tun, Entscheidungen zu treffen. Im Zuge der gegenwärtigen Finanz- und Wirtschaftskrise sind Entscheidungen von Führungskräften und Firmenchefs oft heftig kritisiert worden, weil durch strategische Fehlentscheidungen nicht nur Kapital und Arbeitsplätze vernichtet worden sind, sondern auch Vertrauen zerstört wurde. Spektakuläre Fehlentscheidungen in Firmen – wie beispielsweise der Zusammenbruch des Geldhauses Lehmann, der Schneider-Pleite oder der Zusammenbruch des Kirch-Konzerns – haben die Frage aufgeworfen, wie es dazu kommen konnte, dass große und erfolgreich agierende Unternehmen unter erfahrener Leitung nicht nachvollziehbare Fehlentscheidungen getroffen haben. Der Finanzmathematiker Nassim Nicholas Taleb hat die Nachteile einer weit verbreiteten Heuristik zur Prognose von zukünftigen Systemkonstellationen, die linearere Extrapolationen, untersucht. Dabei hat er sich auf den Umgang mit seltenen, zumeist unprognostizierbaren, aber wirkmächtigen Ereignissen fokussiert, die von ihm als „Schwarze Schwäne“ bezeichnet werden (Taleb, 2009). Ursache vieler Probleme, Krisen und Fehlentscheidungen ist seiner Ansicht nach darin zu suchen, dass auf „Schwarze Schwan“Szenarien üblicherweise nicht mit bewährten Strategien zur Bewältigung bekannter Probleme adäquat reagiert werden kann. Dahinter steht letztlich die Erkenntnis, dass komplexe Systeme den Gesetzen der nichtlinearen Dynamik gehorchen, die durch linearere Extrapolationen nicht beschrieben werden können. Obwohl die lineare Projektion vergangener Situationen und Problemlösungen in die Zukunft ohne Zweifel oftmals nützlich sein kann, kann dadurch gelegentlich der Blick auf potentielle „Schwarze Schwäne“-Szenarien versperrt werden, wenn die Entscheidungsträger nicht das notwendige Ausmaß an Achtsamkeit mitbringen, das es ihnen ermöglicht, Situationen und Probleme in neuem Licht zu sehen und mit angemessenen Entscheidungen zu reagieren. Achtsamkeit in Organisationen 171 Darüber hinaus werden auch sozialpsychologische Erklärungen wie „gelernte Sorglosigkeit“, „Konformitätsdruck“ („groupthink“) (Esser, 1998) zur Erklärung unternehmerischer Fehlentscheidungen herangezogen. Der Psychologe Gerd Gigerenzer, der die zentrale Rolle der Intuition für Entscheidungsprozesse betont, macht vor allem die Tendenz, vermehrt „defensive Entscheidungen“ zu treffen, für Fehlentscheidungen von Managern und Unternehmern verantwortlich (Gigerenzer, 2008). Darunter wird verstanden, dass Entscheidungsträger/innen eine besser begründbare, faktisch aber nur drittklassige Option wählen, um ihre Entscheidung im Falle eines dadurch entstehenden Problems post-hoc besser legitimieren zu können. Interessanterweise ist die Tendenz zu „defensiven Entscheidungen“ in familiengeführten Unternehmen geringer als in Organisationen, die von einem Vorstand gelenkt werden, der nur für einen begrenzten Zeitraum bestellt wird. Sicherlich kann Achtsamkeit auch jenseits von der unternehmerischen Organisationsstrukturen dazu beitragen, Entscheidungsträger/inne/n diese Selbstschutztendenzen bewusster zu machen und letztlich zu einem reflektierten, weil bewussterem Umgang zu verhelfen. Die Unentbehrlichkeit eines über den gesetzlich vorgeschriebenen Mindeststandard der Compliance hinausgehendes moralisches und ethisches Verhalten von Organisationen wurde in den letzten Jahren zunehmend unter dem Begriff der unternehmerischen Sozialverantwortung („corporate social responsibility“ [CSR]) diskutiert (Hansen and Schrader, 2005). In dem abschließenden Projektbericht des von der Europäischen Union geförderten Forschungsprojektes RESPONSE als Akronym für „Understanding and Responding to Societal Demands on Corporate Responsibility“, wird die Effizienz von Maßnahmen untersucht, durch die Führungskräfte zu einer langfristigen und systematischen Umsetzung von unternehmerischer Sozialverantwortung gebracht werden sollen (Zollo et al., 2007). Im entsprechenden Bericht wird darauf verwiesen, dass die konventionellen Maßnahmen zur Verstetigung von unternehmerischer Sozialverantwortung, wie beispielsweise geleitete Gruppendiskussionen oder Einzelfallanalysen, dazu nur wenig geeignet sind, während Coachingprogramme für Leitungskräfte, die durch introspektive und meditative (Mind-Body)-Techniken flankiert wurden, sich als die wirksamsten Interventionen zur langfristigen Umsetzung von CRS erwiesen haben. Hier eröffnen sich große Möglichkeitskorridore für Organisationen, ihren Mitarbeiter/inne/n das Bewusstsein und die Bereitschaft unternehmerischer Sozialverantwortung und das damit verbundene moralische und ethische Verhalten über introspektive Bewusstseinsverfahren zu vermitteln. 5 Achtsamkeit in Organisationen – Möglichkeiten und Grenzen Das systematische Einüben von Achtsamkeit bietet großes Entwicklungspotential für Menschen, ihre Aufgaben in Organisationen nicht nur effizienter, erfolgreicher und authentischer, sondern auch mit weniger Belastung und in einer prosozialeren und kooperativeren Weise auszuführen. Daraus kann nicht geschlossen werden, dass sich durch achtsamkeitsbasierte Interventionen in Unternehmen auch automatisch die kognitive Performanz, intrinsische Motivation, Kommunikations- und Interaktionsverhalten sowie Entscheidungskompetenz von Menschen in Organisationen verbessern. Denn einerseits gehören die achtsamkeitsbasierten Interventionen zu den Maßnahmen, die an der Person und ihrem Bewusstsein ansetzen. Neben den intrapersonalen Faktoren bestimmen viele andere intra-, inter- und extrapersonalen Faktoren menschliche Erlebens- und Verhaltensweisen, einschließlich der damit zusammenhängenden Informations-verarbeitungs-, Interaktions- und Entscheidungs- 172 Niko Kohls, Andrea Berzlanovich, Sebastian Sauer prozesse. Andererseits sind Anforderungsszenarien vorstellbar, in denen die systematische Einübung von Achtsamkeit nachteilige Konsequenzen haben könnte. Vor allem im Zusammenhang mit moralischen Dilemmata, beispielsweise Situationen, in denen Kollektivund Individualinteressen nicht mehr miteinander in Einklang gebracht werden, könnte eine achtsame Haltung hinderlich sein. Achtsamkeit fördert die Fähigkeit zur Empathieübernahme (Block-Lerner et al., 2007, Dekeyser et al., 2008), was eine emotionale Distanzierung und „objektive“ Haltung bei harten Entscheidungen, wie Kündigungen, behindern kann. Darüber hinaus besteht die Möglichkeit, dass die Akzeptanzkomponente von Achtsamkeit im Sinne einer phlegmatischen, hinnehmenden Haltung fehlinterpretiert wird. Damit ist keinesfalls gemeint, dass alles hingenommen werden sollte, was passiert. Eine achtsame Haltung legt nahe, vor allem unangenehme Erfahrungen und Situationen so objektiv aufzunehmen wie sie sind, ohne dabei ins Katastrophisieren zu verfallen. Sie schließt keineswegs aus, die nötigen Schritte durchzuführen, um angemessen auf unangenehme und schwierige Umstände zu reagieren. Dabei sollten zu starke Emotionen nicht die genaue Interpretation einer Situation verzerren („achtsame Akzeptanz“ einer Situation) (Sauer et al., 2011b). Achtsamkeit bedeutet sich der Wahrnehmung des Moments bewusst zu sein und die wahrgenommene Realität des Augenblicks so hinzunehmen, wie sie eben ist. Mit dieser Einstellung soll vor allem Gelassenheit und Offenheit gegenüber schwierigen Gegebenheiten erlernt werden. Die Einsicht, dass man beispielsweise gerade unkonzentriert, gelangweilt, oder müde ist und sich dies auch einzugestehen, ist eine wichtige Voraussetzung für die Herausbildung von introspektiven Fähigkeiten im Sinne einer achtsamen Grundhaltung. Achtsamkeit erscheint für viele Menschen in Organisationen zunächst als eigenwillige Übung, die mit einer ungewohnten Bewusstseinshaltung einhergeht. Jedoch zeigen große Projekte bei Unternehmen wie Google, aber auch unsere eigenen Erfahrungen in Zusammenhang mit der Einführung von Achtsamkeit in Organisationen, dass die meisten Menschen dieser Thematik mit Offenheit und Interesse begegnen. Es bedarf – neben der Unterstützung der Leitungsebene – sicherlich systematischer Übung und anfangs einer fundierten Anleitung, um Fortschritte zu machen. Obwohl achtsamkeitsbasierte Programme üblicherweise auf Stressbewältigung abzielen (Baer, 2003; Grossman, Niemann, Schmidt, & Walach, 2004), sollten diese Interventionen nicht auf diesen spezifischen Aspekt begrenzt werden. Die vorliegenden Befunde sprechen dafür, dass durch erfahrungsbasiertes Lernen und introspektiv orientierte Programme nicht nur die kognitiv-emotionale Selbstregulationsfähigkeit verbessert wird, sondern auch spezifische Aspekte wie Informationsverarbeitungs- und Entscheidungsfindungsprozesse, Empathiefähigkeit, Interaktions- und Kommunikationsvorgänge und darüber hinaus die Ausbildung einer prosozialen, ethischmoralischen Verhaltensweise gefördert werden. Achtsamkeitsbasierte Interventionen sind in erster Linie nicht als „Trainingsprogramme zur Steigerung der persönlichen Leistungsfähigkeit“ zu verstehen. Achtsamkeit beschreibt eine förderliche Grundhaltung gegenüber dem Leben und der eigenen Existenz. Wird diese Grundhaltung authentisch gelebt, können gesundheits- und leistungssteigernde Auswirkungen eintreten. Das Paradox von Achtsamkeit ist allerdings darin zu sehen, dass diese Effekte sich nur dann längerfristig manifestieren, wenn Achtsamkeit als authentische Grundhaltung und nicht als „Skill“ praktiziert wird. Die Herausbildung von Achtsamkeit kann nicht in wenigen Wochenendseminaren, sondern nur durch systematisches Praktizieren erlernt werden, was mitunter maßgebliche Veränderungen der individuellen Lebensgewohnheiten und Einstellungen nach sich zieht. Achtsamkeit in Organisationen 6 173 Zusammenfassung und Ausblick Eine Anzahl von Studien belegt, dass Achtsamkeit das Potenzial bietet, Gesundheit, Leistungsfähigkeit und prosoziale Verhaltensweisen von Menschen gleichermaßen zu verbessern. Die Effekte von Achtsamkeit sind keine psychologischen Effekte, sondern auch auf physiologischer Ebene nachweisbar. Achtsamkeit ermöglicht einem Individuum, Situationen gewissenhafter wahrzunehmen und kreativere Problemlösungen zu finden. Darüber hinaus kann durch Achtsamkeit egozentrierten Handlungstendenzen entgegengewirkt werden, die häufig ein Grund dafür sind, dass Organisationsmitglieder unzufrieden mit den sozialen Interaktionsprozessen sind. Obwohl es erste Ansätze gibt, den Zusammenhang von Achtsamkeit in Organisationen zu untersuchen (Sauer and Kohls, 2011), sind empirische Studien gegenwärtig noch rar. Vor dem Hintergrund der hohen Wirksamkeit von Achtsamkeit für den Bereich der körperlichen und psychischen Gesundheit, ist es zielführend, die Effekte von Achtsamkeit auf Menschen in Organisationen näher zu beforschen. Denn achtsamkeitsbasierte Interventionen in Organisationen sind ein mächtiges Werkzeug, um komplexe Veränderungsprozesse, wie die mittlerweile in vielen Branchen geforderte Transformation, in der gesamten Unternehmenskultur zu realisieren. Hinweis: Dieser Beitrag ist auf der Grundlage von zwei früheren Arbeiten entwickelt worden (Sauer and Kohls, 2011, Sauer et al., 2011a). Literatur Avolio, B. J. & Gardner, W. L. 2005. Authentic leadership development: Getting to the root of positive forms of leadership. The Leadership Quarterly, 16, 315–338. Bishop, S. R., Lau, M., Shapiro, S., Carlson, L., Anderson, N. D., Carmody, J., Segal, Z. V., Abbey, S., Speca, M., Velting, D. & Devins, G. 2004. Mindfulness: A proposed operational definition. Clinical Psychology: Science and Practice, 11, 230–241. Block-Lerner, J., Adair, C., Plumb, J. C., Rhatigan, D. L. & Orsillo, S. M. 2007. The case for mindfulnessbased approaches in the cultivation of empathy: Does nonjudgmental, present-moment awareness increase capacity for perspective-taking and empathic concern? Journal of Marital and Family Therapy, 33, 501–516. Boyatzis, R. & Mckee, A. 2005. Resonant leadership: Renewing yourself and connecting with others through mindfulness, hope, and compassion, Boston, Harvard Business Press. Buber, M. 1973. Ich und Du – Das Dialogische Prinzip, Schneider. Chawla, N. & Ostafin, B. 2007. Experiential avoidance as a functional dimensional approach to psychopathology: An empirical review. Journal of Clinical Psychology, 63, 871–890. Chiesa, A., Calati, R. & Serretti, A. 2011. Does mindfulness training improve cognitive abilities? A systematic review of neuropsychological findings. Clinical Psychology Review, 31, 449–464. Chiesa, A. & Serretti, A. 2009. Mindfulness-based stress reduction for stress management in healthy people: A review and meta-analysis. The journal of alternative and complementary medicine, 15, 593– 600. Chiesa, A. & Serretti, A. 2010. A systematic review of neurobiological and clinical features of mindfulness meditations. Psychological medicine, 40, 1239–1252. Davidson, R. 2012. The Emotional Brain, London, Penguin. 174 Niko Kohls, Andrea Berzlanovich, Sebastian Sauer Davidson, R. J., Kabat-Zinn, J., Schumacher, J., Rosenkranz, M., Muller, D., Santorelli, S. F., Urbanowski, F., Harrington, A., Bonus, K. & Sheridan, J. F. 2003. Alterations in brain and immune function produced by mindfulness meditation. Psychosomatic Medicine, 65, 564–570. Dekeyser, M., Raes, F., Leijssen, M., Leysen, S. & Dewulf, D. 2008. Mindfulness skills and interpersonal behaviour. Personality and Individual Differences, 44, 1235–1245. Dunning, D. 2005. Self-insight: Roadblocks and detours on the path to knowing thyself, London, Psychology Press. Dunning, D., Heath, C. & Suls, J. M. 2004. Flawed self assessment. Psychological science in the public interest, 5, 69–106. Esser, J. K. 1998. Alive and Well after 25 Years: A Review of Groupthink Research* 1. Organizational Behavior and Human Decision Processes, 73, 116–141. Farb, N. A. S., Segal, Z. V., Mayberg, H., Bean, J., Mckeon, D., Fatima, Z. & Anderson, A. K. 2007. Attending to the present: mindfulness meditation reveals distinct neural modes of self-reference. Social Cognitive and Affective Neuroscience, 1–10. Fischer, P., Frey, D. & Greitemeyer, T. 2005. Urteile und Fehlurteile. In: Frey, D., Rosenstiel, L. V. & Hoyos, C. G. (eds.) Wirtschaftspsychologie. Weinheim: Beltz. Gander, M., Kohls, N. & Walach, H. 2008. Achtsamkeit und Krebs – eine Übersicht. Deutsche Zeitschrift für Onkologie, 40, 158–162. Gardner, W., Cogliser, C., davis, K. & Dickens, M. 2011. Authentic leadership: A review of the literature and research agenda. The Leadership Quarterly, 22, 1120–1145. George, J. M. 2000. Emotions and Leadership: The Role of Emotional Intelligence. Human Relations, 53, 1027–1055. Gigerenzer, G. 2008. Gut Feelings: Short Cuts to Better Decision Making London, Penguin. Hackman, M. Z. & Johnson, C. E. 2004. Leadership: A communication perspective, Long Grove, Waveland press Illinois. Hanan, A., King, M. J. & Lewis, I. M. Are you a mindful driver? A review of the potential explanatory value of mindfulness in predicting speeding behaviour. 2010. The Road Safety Research, Policing and Education Conference. Hansen, U. & Schrader 2005. Corporate social responsibility als aktuelles Thema der Betriebswirtschaftslehre. Die Betriebswirtschaft DBW, 65, 373–395. Haufe 2009. Haufe Führungskräftestudie 2009. Haufe Akademie. Hayes, A. M. & Feldman, G. 2004. Clarifying the construct of mindfulness in the context of emotion regulation and the process of change in therapy. Clinical Psychology: Science and Practice, 11, 255–262. Heidenreich, T. & Michalak, J. 2006. Achtsamkeit und Akzeptanz in der Psychotherapie. Ein Handbuch, Tübingen, Dgvt-Verlag. Hofmann, S., Sawyer, A., Witt, A. & OH, D. 2010. The effect of mindfulness-based therapy on anxiety and depression: A meta-analytic review. Journal of Consulting and Clinical Psychology, 78, 169–183. Hölzel, B., Ott, U., Gard, T., Hempel, H., Weygandt, M., Morgen, K. & Vaitl, D. 2008. Investigation of mindfulness meditation practitioners with voxel-based morphometry. Social Cognitive and Affective Neuroscience, 3, 55–61. Hoyos, C. G. 1995. Occupational safety: Progress in understanding the basic aspects of safe and unsafe behaviour. Applied Psychology, 44, 233–250. Hunt, J. M. & Weintraub, J. R. 2006. The coaching organization: A strategy for developing leaders, Thousand Oaks, Sage Publications, Inc. Achtsamkeit in Organisationen 175 Kabat-Zinn, J. 1996. Gesund durch Meditation. Das grosse Buch der Selbstheilung, München, Barth. Kabat-Zinn, J. 1998. Im Alltag Ruhe finden: Das umfassende praktische Meditationsprogramm für alle Lebenslagen, Freiburg, Herder. Kass, S. J., Cole, K. & Legan, S. 2008. The role of situation awareness in accident prevention. In: SMET, A. D. (ed.) Transportation accident analysis and prevention. New York: Nova Science Publishers. Kerr, R., Garvin, J., Heaton, N. & Boyle, E. 2006. Emotional intelligence and leadership effectiveness. Leadership & Organization Development Journal, 27, 265–279. Klatt, M., Norre, C. & White, S. 2012. P04. 38. The efficacy of an English-to-Danish translation of a lowdose mindfulness workplace intervention for Scandinavian bank employees on stress. BMC complementary and alternative medicine, 12, P308. Langer, E. 1998. The power of mindful learning. Reading: Da Capo Books. Langer, E. 2009. Counter Clockwise: Mindful health and the power of possibility, New York, Ballantine Books. Langer, E. J. 1989. Mindfulness, Reading, MA, US, Addison-Wesley/Addison Wesley Longman. Langer, E. J. & Moldoveanu, M. 2000. The Construct of Mindfulness. Journal of Social Issues, 56, 1–9. Lawrence, S., Troth, A., Jordan, P. & Collins, A. 2011. A review of emotion regulation and development of a framework for emotion regulation in the workplace. Research in Occupational Stress and Well-being, 9, 197–263. Lutz, A., Slagter, H. A., Dunne, J. D. & Davidson, R. J. 2008. Attention regulation and monitoring in meditation. Trends in Cognitive Sciences, 12, 163–169. Lyons, J. B. & Schneider, T. R. 2009. The effects of leadership style on stress outcomes. The Leadership Quarterly, 20, 737–748. Manz, C. C. & Sims, H. P. 2001. The new superleadership: Leading others to lead themselves, San Francisco, Berrett-Koehler Publishers. Mars, T. S. & Abbey, H. 2010. Mindfulness meditation practise as a healthcare intervention: A systematic review. International Journal of Osteopathic Medicine, 13, 56–66. Mcgregor, D. 1960. The human side of enterprise, New York, McGraw-Hill, Incorporated. Mintzberg, H. 1990. The Manager's Job: Folklore and Fact. Harvard Business Review, 68, 163–176. Müller, G. F. 2005. Führung durch Selbstführung. Gruppendynamik und Organisationsberatung, 36, 325– 334. Neuberger, O. 2002. Führen und führen lassen: Ansätze, Ergebnisse und Kritik der Führungsforschung, Stuttgart, Utb. Northouse, P. G. G. 2009. Leadership: Theory and practice, Thousand Oaks, Sage Publications, Inc. Oelsnitz, D. v. d. & Busch, M. W. 2010. Narzisstische Manager – falsche Götter am Unternehmenshimmel? ZFO – Zeitschrift Führung und Organisation, 3, 186–188. Pipe, T. B. Innovative Leadership: Mindfulness as a Skill for Nursing Leaders. 39th Biennial Convention, 2007 2007 Baltimore Pipe, T. B. 2008. Illuminating the inner leadership journey by engaging intention and mindfulness as guided by caring theory. Nursing Administration Quarterly, 32, 117. Riggio, R. E. & Reichard, R. J. 2008. The emotional and social intelligences of effective leadership: An emotional and social skill approach. Journal of Managerial Psychology, 23, 169–185. Sauer, S., Andert, K., Kohls, N. & Müller, F. 2011a. Mindful Leadership: Sind achtsame Führungskräfte leistungsfähigere Führungskräfte? Gruppendynamik und Organisationsberatung, 42, 339–349. 176 Niko Kohls, Andrea Berzlanovich, Sebastian Sauer Sauer, S. & Kohls, N. 2011. Mindfulness in Leadership: Does Being Mindful Enhance Leaders’ Business Success? In: Han, S. & Pöppel, E. (eds.) Culture and Neural Frames of Cognition and Communication. Heidelberg: Springer, 287-308. Sauer, S., Lemke, J., Wittmann, M., Kohls, N., Mochty, U. & Walach, H. 2012. How long is now for mindfulness meditators? Personality and Individual Differences. Sauer, S., Lynch, S., Walach, H. & Kohls, N. 2011b. Dialectics of Mindfulness: Implications for Western Medicine. Philosophy, Ethics, and Humanities in Medicine, 6, 10. Sauer, S., Walach, H., Schmidt, S., Hinterberger, T., Horan, M. & Kohls, N. 2011c. Implicit and explicit emotional behavior and mindfulness. Consciousness and Cognition, 20, 1558–1569. Schulz von Thun, F. & Stegemann, W. 2004. Das innere Team in Aktion. Praktische Arbeit mit dem Modell, Reinbek, rororo. Shapiro, S. L., Carlson, L., Astin, J. A. & Freedman, B. 2006. Mechanisms of mindfulness. Journal of Clinical Psychology, 62, 373–386. Taleb, N. N. 2009. Ten principles for a Black Swan-proof world. Financial Times, April, 7. Tang, Y. Y., Ma, Y., Fan, Y., Feng, H., Wang, J., Feng, S., Lu, Q., Hu, B., Lin, Y., Li, J., Zhang, Y., Wang, Y., Zhou, L. & Fan, M. 2009. Central and autonomic nervous system interaction is altered by short-term meditation. Proceedings of the National Academy of Sciences, 106, 8865–8870. Tang, Y. Y., Ma, Y., Wang, J., Fan, Y., Feng, S., Lu, Q., Yu, Q., Sui, D., Rothbart, M. K., Fan, M. & Posner, M. I. 2007. Short-term meditation training improves attention and self-regulation. Proceedings of the National Academy of Sciences, 104, 17152–17156. Teper, R. & Inzlicht, M. 2013. Meditation, mindfulness and executive control: the importance of emotional acceptance and brain-based performance monitoring. Social Cognitive and Affective Neuroscience, 8, 85–92. Towers, W. 2008. Towers Perrin Global Workforce Study 2008. Towers Watson. Walach, H., Gander Ferrari, M., Sauer, S. & Kohls, N. 2012. Mind-Body-Practices in Integrative Medicine. Religions, 3, 50–81. Walach, H., Nord, E., Zier, C., Dietz-Waschkowski, B., Kersig, S. & Schüpbach, H. 2007. Mindfulnessbased stress reduction as a method for personnel development: A pilot evaluation. International Journal of Stress Management, 14, 188–198. Wittmann, M. 2011. Moments in time. Frontiers in integrative neuroscience, 5. Wittmann, M. 2013. The inner sense of time: how the brain creates a representation of duration. Nature Reviews Neuroscience, 14, 217–223. Wolever, R., bobinet, K., Mccabe, K., Mackenzie, E., Fekete, E., Kusnick, C. & Baime, M. 2012. Effective and viable mind-body stress reduction in the workplace: A randomized controlled trial. Journal of occupational health psychology, 17, 246. Wong, C., L., S., K., H. & Cummings, G. 2010. Authentic leadership and nurses' voice behaviour and perceptions of care quality. Journal of Nursing Management, 18, 889–900. Yong, J., Kim, J., Park, J., Seo, I. & Swinton, J. 2010. Effects of a Spirituality Training Program on the Spiritual and Psychosocial Well-Being of Hospital Middle Manager Nurses in Korea. The Journal of Continuing Education in Nursing, 1. Zeidan, F., Gordon, N. S., Merchant, J. & Goolkasian, P. 2010. The Effects of Brief Mindfulness Meditation Training on Experimentally Induced Pain. The Journal of Pain, 11, 199–209. Zeller, J. & Levin, P. F. 2013. Mindfulness interventions to reduce stress among nursing personnel: an occupational health perspective. Workplace health & safety, 61, 85–9; quiz 90. Achtsamkeit in Organisationen 177 Zollo, M., Casanova, L., Crilly, D., Hockerts, K., Neergaard, P., Schneider, S. & Tencati, A. 2007. Understanding and responding to societal demands on corporate responsibility (RESPONSE): final report. Island Press. Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis – Theoretische Überlegungen und empirische Ergebnisse Sascha Kwasniok, Hans Meissner 1 Zur Entwicklung marktorientierter Vertriebssteuerungsansätze in der Versicherungspraxis In den letzten Jahren lassen sich in der Versicherungswirtschaft gewisse Tendenzen erkennen, die Steuerung der Leistungsbeziehung zwischen Vertriebsmitarbeitern und Produktgebern stärker marktorientierten Prinzipien zu unterwerfen. Aktuelle Beispiele hierfür sind etwa Vorschläge zur Reduzierung planorientierter Elemente bei der Vermittlervergütung, Diskussionen um die Führung des Versicherungsvertriebs als unternehmensähnlicher Profit-Center oder Überlegungen zur Ausgliederung von Absatzaufgaben in rechtlich selbständige Vertriebsgesellschaften, die frei zwischen dem internen oder externen Bezug von Versicherungsprodukten entscheiden können.1 Aus Sicht der Organisationstheorie steht hinter einer solchen Marktorientierung die Idee, durch die Etablierung geeigneter organisatorischer Regelungen die Gesetzmäßigkeiten des externen Marktes umfassend auf den innerbetrieblichen Leistungsaustausch zu übertragen. Damit ist das Ziel verbunden, die marktwirtschaftlich organisierten Systemen zugeschriebenen koordinations- und motivationsbezogenen Vorteile, dokumentiert etwa in einer dezentralen Ressourcenallokation oder in einem leistungsfördernden Wettbewerb, auch innerhalb der Unternehmensgrenzen zu nutzen.2 Eine nähere Auseinandersetzung mit den in der Versicherungspraxis vorzufindenden Konzepten einer marktorientierten Vertriebssteuerung lässt allerdings vermuten, dass sich die bisherigen Überlegungen zumeist auf eine wenig systematische, von einzelnen Theorieansätzen oder Modeströmungen geleitete Beleuchtung ausgewählter Einzelaspekte beschränken. Ausgehend von diesem Befund verfolgen wir mit diesem Beitrag das Ziel, die Grundzüge eines Rahmenkonzepts für die systematische Einbringung marktorientierter Prinzipien in die Vertriebssteuerung von Versicherungsunternehmen zu entwickeln (Abschnitt 2). 1 Vgl. z. B. Schinnenburg (2004), S. 282–298; Nickel-Waninger (2005), S. 644–647; Endres (2007), S. 157 f.; Meissner/Kwasniok (2008), S. 299; von Spannenberg (2011), S. 27. 2 Vgl. z. B. Halal (1994), S. 69–82; Frese/Lehmann (2002), Sp. 1542 f.; Frost/Queiȕer (2007), S. 244. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_14, © Springer Fachmedien Wiesbaden 2013 180 Sascha Kwasniok, Hans Meissner Daneben interessiert uns die Frage, welche konkreten Ausprägungsformen einer marktorientierten Vertriebssteuerung derzeit in der Versicherungspraxis zur Anwendung gelangen und welche Zielsetzung mit diesen jeweils verfolgt wird (Abschnitt 3). Basis für die Erhebung bilden Interviews mit Führungskräften aus dem Vertrieb in Deutschland tätiger Versicherer. Als Grundlage für die Systematisierung der empirischen Ergebnisse verwenden wir den vorab entwickelten theoretischen Bezugsrahmen. 2 Interne Märkte als konzeptionelle Grundlage einer marktorientierten Vertriebssteuerung 2.1 Eigenschaften interner Märkte Interne Märkte entstehen, wenn zur rechentechnischen Entkopplung interdependenter Einheiten Verrechnungspreise eingeführt werden. Die zwischen Unternehmensteilbereichen bestehenden Leistungsbeziehungen nehmen so Eigenschaften von Markttransaktionen an. Die Bereiche verhandeln über Preise, Mengen und Qualität unter Orientierung an den für sie erzielbaren Transaktionserfolgen.3 Der wesentliche Unterschied zwischen internen und externen Märkten lässt sich an der Frage festmachen, an welchen Zielsetzungen sich die Entscheidungen der Marktteilnehmer ausrichten. Auf externen Märkten handeln die Akteure gemäß ihren individuellen Präferenzstrukturen. Die Verfolgung des Eigeninteresses seitens einzelner Parteien erfährt idealtypisch nur dann Einschränkungen (z. B. durch staatliche Regulierung), wenn sie die Freiheit anderer Marktteilnehmer berührt oder die Funktionsweise des Gesamtsystems bedroht.4 Auf internen Märkten hingegen dient der Beitrag zur Zielerreichung des Gesamtunternehmens als letztgültiger Orientierungsmaßstab für die Vorteilhaftigkeit dezentraler Entscheidungen. An die Stelle der individuellen Nutzenmaximierung tritt das Primat der Unternehmensziele.5 Vor diesem Hintergrund können interne Märkte als Instrumente zur Bewältigung von Problemen verstanden werden, die in Unternehmen durch Arbeitsteilung entstehen. Solche Probleme können sich einerseits auf die Koordination von Entscheidungen als auch auf die Motivation der Mitarbeiter beziehen.6 2.2 Interne Märkte und Koordination Die Behandlung interner Märkte mit Koordinationsfunktion reduziert sich in der Literatur vielfach auf die Frage, ob ein Verrechnungspreis existiert, der in der Lage ist, mit der Optimierung individueller Bereichserfolge gleichzeitig den Unternehmenserfolg zu maximie- 3 Vgl. z. B. Frese (2004), Sp. 553. 4 Vgl. z. B. Coase (1988), S. 10; Schumann/Meyer/Ströbele (2007), S. 11–14. 5 Vgl. Lehmann (2002), S. 101. 6 Zu dieser Trennung vgl. Milgrom/Roberts (1992), S. 25; Frese/Graumann/Theuvsen (2012), S. 6. Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis 181 ren.7 Dahinter steht der zweifelsfrei reizvolle Gedanke, dass durch Leistungsverflechtungen verbundene Einheiten zur gegenseitigen Abstimmung lediglich Preisinformationen austauschen, die in ihre eigenständig geführten Entscheidungskalküle eingehen. Mit dem Preis steht den internen Transaktionspartnern dann ein Kommunikationsmedium zur Verfügung, das für die betrachtete Transaktion alle entscheidungsrelevanten Informationen in einer einzigen Größe zusammenfasst. Entsprechend erübrigt sich bei der Koordination bereichsbezogener Entscheidungen der Bedarf an hierarchischen Eingriffen wie etwa einer bereichsübergreifenden Absatzplanung.8 Arbeiten zur Allokationsfunktion von Verrechnungspreisen legen allerdings den Schluss nahe, dass in Situationen, die für die Unternehmenspraxis relevant sind, keine Preisbasis existiert, die eine gesamtzieloptimale Koordination dezentraler Bereichsentscheidungen sicherstellt.9 Für die weitere Betrachtung vernachlässigen wir daher diesen Problemkreis interner Märkte. Stattdessen widmen wir uns einem bislang wenig beachtetem Teilaspekt der Koordinationswirkung interner Märkte, die Lehmann als laterale Kontrolle bezeichnet.10 Laterale, d. h. hierarchieunabhängige Kontrolle verfolgt das Ziel, durch Interdependenzen hervorgerufene Abhängigkeiten zwischen Bereichen derselben Hierarchieebene produktiv dazu verwerten, bei den betroffenen Einheiten das Interesse für die Art und die Ergebnisse der Leistungserbringung ihres jeweiligen Transaktionspartners zu schärfen. Ein solches Interesse wird bei der hier betrachteten Leistungsbeziehung zwischen Produktgeber und Versicherungsvertrieb auf Seiten der Vertriebsmitarbeiter dadurch geweckt, dass ihre Vertriebsergebnisse zumindest in Teilen von Entscheidungen beeinflusst werden, deren Zustandekommen sich ihrem unmittelbaren Einflussbereich entzieht. So ist ihr Einkommen in Vergütungssystemen der Praxis vornehmlich an den erfolgreichen Verkauf von Versicherungsprodukten geknüpft, deren Gestaltung jedoch nicht in ihren, sondern in den Aufgabenbereich des Produktgebers fällt.11 Aus Sicht des Versicherungsunternehmens können mit dem Aufbau eines funktionierenden lateralen Kontrollsystems zwei wesentliche Vorteile verbunden sein: Einerseits werden übergeordnete Instanzen durch die Delegation von Kontrollaufgaben entlastet. Andererseits ist unter rein sachlogischen Gesichtspunkten eine Verbesserung der Entscheidungsqualität zu vermuten, wenn die Lösung von Transaktionsproblemen Einheiten übertragen wird, die aufgrund ihrer Problemnähe über wesentliche entscheidungsrelevante Informationen verfügen.12 Die Realisierung dieser Vorteile setzt allerdings voraus, dass den Vertriebsmitarbeitern geeignete Handlungsoptionen zur Verfügung stehen, um auf Verschlechterungen im Produktangebot reagieren zu können. Wir greifen in diesem Zusammenhang die Überlegungen von Hirschman auf, der mit der Abwanderungs- und Widerspruchsoption zwei 7 Zu entsprechenden Überlegungen vgl. z. B. Hirshleifer (1956), S. 173–184; Solomons (1965), S. 212– 232; Winter (1986), S. 89–233; Martini (2007), S. 27–93. 8 Vgl. Hax (1965), S. 130. 9 Vgl. Frese/Glaser (1980), S. 120; Rein (1993), S. 141. 10 Vgl. Lehmann (2002). 11 Vgl. Kwasniok (2012), S. 212 f. 12 Vgl. Lehmann (2002), S. 311. 182 Sascha Kwasniok, Hans Meissner grundlegende Reaktionsweisen der Nachfragerseite beschreibt, ihrer Unzufriedenheit in Transaktionsbeziehungen Ausdruck zu verleihen.13 Bei der Abwanderung kommt die Unzufriedenheit des Leistungsbeziehers im Abbruch bestehender Geschäftsbeziehungen mit anschließendem Wechsel zu Alternativanbietern zum Ausdruck. Da sich hiermit verbundene Nachfragereduzierungen unmittelbar im Ergebnis des Anbieterbereichs niederschlagen, wird auf diesen ein Druck ausgeübt, Maßnahmen einzuleiten, die zur Erfüllung der nachfragerseitig formulierten Leistungsanforderungen beitragen. Die Wahrnehmung der Abwanderungsoption setzt allerdings voraus, dass Nachfrager überhaupt die Möglichkeit besitzen, Leistungen von Konkurrenzanbietern zu beziehen. Eine solche Situation kann auf internen Märkten etwa gegeben sein, wenn innerhalb eines Versicherungskonzerns mehrere Anbieter einer Versicherungssparte existieren, auf deren Produkte der Vertrieb gleichzeitig zurückgreifen kann.14 Aus Anbietersicht ergibt sich außerdem die Schwierigkeit, dass die Abwanderung nur relativ unspezifische Informationen für die Problembehebung liefert. So gibt der bloße Abbruch von Geschäftsbeziehungen dem Produktanbieter lediglich Aufschluss darüber, dass problematische Entwicklungen in seinem Leistungsverhalten eingetreten sind, im Regelfall aber nicht, worin diese begründet liegen.15 Ein in diesem Zusammenhang deutlich direkterer Weg der Kommunikation von Transaktionsproblemen bezeichnet Hirschman als Widerspruch.16 Widerspruch beschreibt eine nachfragerseitig artikulierte Unzufriedenheit mit preislichen oder qualitativen Verschlechterungen des Produktangebots. Liegen die Art der Produktmängel nicht auf der Hand, erhält der Produktanbieter im Gegensatz zur Abwanderung relativ genaue Hinweise auf die entsprechende Problemursache. Möglicherweise kombinieren nachfragende Bereiche ihren Widerspruch sogar mit Verbesserungsvorschlägen. Aus Nachfragersicht dokumentiert sich der wesentliche Vorteil der Widerspruchsoption vor allem darin, dass bei ihrer Wahrnehmung eine möglicherweise mit hohen Transaktionskosten verbundene Suche nach alternativen Geschäftspartnern entfällt. Insofern gewinnt der Widerspruch vor allem in Situationen an Bedeutung, in denen die transaktionsbezogenen Rahmenbedingungen eine Abwanderung allenfalls zu prohibitiv hohen Kosten zulassen. Bleiben seitens der Nachfrager Geschäftsbeziehungen trotz bestehender Defizite im Produktangebot bestehen, ist jedoch zu berücksichtigen, dass auf den Anbieterbereich kein Druck ausgeübt wird, angemahnte Mängel zu beseitigen. So drohen bei der Realisierung dieser Handlungsoption dem Produktanbieter keine der Abwanderung vergleichbaren unmittelbar spürbaren Sanktionen.17 13 Vgl. hierzu und zum Folgenden Hirschman (1974). 14 Eine solche Konstellation war bis zur Aufgabe einer Mehrmarkenstrategie im Jahre 2010 etwa beim Ergo-Versicherungskonzern zu beobachten. Hier konnte der Vertrieb z. B. die Produkte verschiedener, zum gleichen Konzern gehörender Lebensversicherer (z. B. Victoria oder Hamburg-Mannheimer) nachfragen. 15 Vgl. Lehmann (2002), S. 310. 16 Vgl. hierzu und zum Folgenden Hirschman (1974). 17 Vgl. Kwasniok (2012), S. 238 f. Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis 183 2.3 Interne Märkte und Motivation In der Versicherungspraxis ist zu beobachten, dass die Abstimmung der Schnittstelle zwischen Produktgeber und Vertrieb vielfach unter Einfluss planorientierter Elemente erfolgt. Diese dokumentieren sich vor allem in über sog. Geschäftsplanausschreibungen kommunizierten Absatzvorgaben, die aus der Vertriebsplanung hervorgehen. Mit steigendem Detaillierungsgrad dieser Planwerte nimmt vor allem die Entscheidungsautonomie der Vertriebsmitarbeiter hinsichtlich der Produktverkaufsmöglichkeiten ab. Das zwischen Produktgeber und Vertrieb bestehende Koordinationsproblem wird dann bis zu einem gewissen Grad zentral im Rahmen einer bereichsübergreifenden Planung gelöst. Entsprechend der Beeinflussbarkeit von Ergebniskomponenten erfolgt in solchen planorientierten Systemen die Leistungsbeurteilung der Vertriebsmitarbeiter anhand des Erfüllungsgrads der hierarchisch vorgegebenen Vertriebsvorgaben.18 Planorientierten Anreiz- und Kontrollsystemen werden in der Literatur jedoch gewisse Nachteile hinsichtlich ihrer Motivations- und Verhaltenswirkung angelastet. Kritisiert wird beispielsweise die einseitige Konzentration auf die Erfüllung von Planvorgaben, die tendenziell zu einer Vernachlässigung durch das Beurteilungssystem nicht erfasster, für das Unternehmen aber ebenfalls relevanter Aufgaben führt.19 Ist etwa ausschließlich die Erfüllung stück- oder umsatzbezogener Absatzvorgaben Gegenstand der Vertriebsplanung, ist zu erwarten, dass sich die Bemühungen der Vertriebsmitarbeiter auf deren Erfüllung konzentrieren, während z. B. Maßnahmen der langfristigen Kundenbindung aufgrund einer mangelnden Berücksichtigung im Beurteilungssystem nachrangig behandelt werden.20 Hieraus leitet sich die Frage ab, ob durch die Einbeziehung marktorientierter Elemente (z. B. Erfolgszurechnungen oder Konfrontation mit Vergleichskennzahlen) in die vermittlerbezogene Leistungsbeurteilung diesen Motivationsproblemen planorientierter Anreizund Kontrollsysteme begegnet werden kann. Von solchermaßen geschaffenen internen Märkten gehen sowohl intrinsische als auch extrinsische Motivationswirkungen aus.21 Eine Förderung der intrinsischen, d. h. eigenentwickelten Motivation ist insbesondere dann zu erwarten, wenn in der Wahrnehmung der Vertriebsmitarbeiter die Möglichkeit besteht, genau wie freie Marktakteure alle wesentlichen Erfolgskomponenten eigenverantwortlich zu beeinflussen. Die Schaffung eines solchen Gefühls kann über die Wahl einer Bemessungsgrundlage für Provisionszahlungen erfolgen, die als leistungsgerecht und daher fair empfunden wird. So besteht für Vertriebsmitarbeiter in Fällen einer zumindest empfundenen leistungsentsprechenden Vergütung ihrer Absatztätigkeit kein Anlass, sich über Abhängigkeiten zum Produktgeber oder autonomievermindernder Planvorgaben Gedanken zu machen.22 Seitens der Vertriebsmitarbeiter kann jedoch nur von einem Gefühl der Autonomie gesprochen werden. Schließlich bleibt von einer als leistungsgerecht empfundenen 18 Vgl. Altenähr/Dittrich/Shaukat (2009), S. 443. 19 Vgl zusammenfassend Meissner (2000), S. 92–97. 20 Zu diesem und weiteren Beispielen vgl. Kwasniok (2010). 21 Zu Unterscheidung intrinsischer und extrinsischer Motivation vgl. Deci (1971), S. 105; Bass (1985), S. 11. 22 Zur Analyse von Bemessungsgrundlagen, die diesen Zweck erfüllen, vgl. Kwasniok (2012), S. 191–204. 184 Sascha Kwasniok, Hans Meissner Provisionszahlung die Existenz von bereichsübergreifenden Leistungsverflechtungen und Absatzplänen unberührt. Vertriebsmitarbeiter unterliegen daher lediglich einer AutonomieIllusion.23 Neben der Schaffung einer Autonomie-Illusion kann mit der Implementierung fiktiver interner Märkte auch das Ziel verfolgt werden, auf Vertriebsmitarbeiter einen erfolgsbezogenen Marktdruck auszuüben. Diese Gestaltungsmaßnahme zielt insbesondere auf die Erhöhung der extrinsischen, d. h. fremderzeugten Motivation ab, indem die erzielten Vertriebsergebnisse mit positiven oder negativen Anreizen verknüpft werden. Die erzielten Vertriebsergebnisse dienen in diesem Zusammenhang als Grundlage, die Leistungsfähigkeit der Vertriebsmitarbeiter mit den durch unternehmensinterne (z. B. andere Vertriebsmitarbeiter) oder -externe (z. B. andere Vertriebswege) Alternativen gesetzten Standards im Sinne eines sog. Benchmarkings zu konfrontieren.24 Solche Leistungsvergleiche müssen sich nicht auf monetäre Größen (z. B. Prämienumsatz abgesetzter Versicherungsprodukte) beschränken. Vielmehr kann das Benchmarking auch nichtfinanzielle Kennzahlen zum Gegenstand haben, mit denen z. B. zeitliche, kundenorientierte oder qualitätsbezogene Aspekte der Leistungserbringung Eingang in die Leistungsbeurteilung finden.25 Die Motivationswirkung von Benchmarking-Konzepten hängt im Wesentlichen davon ab, inwieweit die zur Leistungsbeurteilung herangezogenen Referenzobjekte von den Betroffenen als vergleichbar akzeptiert werden. Hinsichtlich der Akzeptanz lässt sich die teilweise vorfindbare Meinung nachvollziehen, wonach es nicht unbedingt erforderlich ist, dass Beurteilte und Vergleichsobjekte tatsächlich dieselben Ausgangsvoraussetzungen sowie Rahmenbedingungen aufweisen und damit im eigentlichen Sinn vergleichbar sind. So reicht es mitunter bereits aus, den Betroffenen den Eindruck zu vermitteln, dass die Leistungsvergleiche auf einem systematischen und objektiven Verfahren gründen. In diesem Zusammenhang lässt sich auch die zunehmende Unterlegung von BenchmarkingKonzepten mit formal nachvollziehbaren, teils mathematisch fundierten Analysemethoden erklären, die ein hohes Maß an Objektivität suggerieren.26 Gelingt es, gegenüber Vertriebsmitarbeitern das Gefühl einer Vergleichbarkeit von Referenzobjekten zu erzeugen, die in Wirklichkeit gar nicht gegeben ist, unterliegen diese einer Vergleichbarkeits-Illusion. Kritisch anzumerken bleibt allerdings, dass genau wie die Erzeugung einer Autonomie-Illusion dieses Konzept auf die mangelnde Erkenntnisfähigkeit der Betroffenen spekuliert und damit strenggenommen dem Bild eines aufgeklärten und mündigen Mitarbeiters widerspricht.27 23 Zum Konzept der Autonomie-Illusion vgl. Frese/Glaser (1980), S. 122 . 24 Vgl. z. B. Meissner (2000), S. 221 f.; Frost/Queiȕer (2007), S. 247 25 Vgl. Riegler (2002), Sp. 130 26 Vgl. Walgenbach/Hegele (2000), S. 186. 27 Vgl. Meissner (2000), S. 220. 185 Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis 3 Betrachtung marktorientierter Absatzsteuerungsinstrumente in der Versicherungspraxis 3.1 Ziele und Design der empirischen Untersuchung Unsere empirische Untersuchung verfolgt das Ziel, in der Versicherungspraxis zur Anwendung gelangende Formen einer marktorientierten Vertriebssteuerung zu erheben. Daneben interessiert uns die Frage, mit welcher Intension die entsprechenden Steuerungsinstrumente jeweils eingesetzt werden.28 Grundlage der Betrachtung bilden leitfadengestützte Interviews mit Führungskräften, die in der Versicherungspraxis für Vertriebsaufgaben verantwortlich sind. Die Kontaktdaten der Interviewpartner wurden einerseits durch Internetrecherchen ermittelt. Andererseits wurden die Kontakte in die Versicherungspraxis genutzt, über die der Studiengang Versicherung der DHBW Mannheim verfügt. Im Anschluss an die Kontaktaufnahme wurde unser Forschungsvorhaben vorgestellt sowie der Interviewleitfaden zur Verfügung gestellt. Insgesamt nahmen an der Untersuchung Vertreter von zehn in Deutschland tätigen Versichern teil (vgl. Tab. 1): Tabelle 1: Unternehmen Übersicht der Untersuchungsteilnehmer Funktion der Gesprächspartner A Vorstandsvorsitzender B C D E F G Vertriebsvorstand Vertriebsdirektor Vertriebsvorstand Vertriebsvorstand Vertriebsvorstand Leiter Vorstandsstab Vertrieb und Abteilungsdirektor Vorstandsstab Vertrieb Vertriebsdirektor Vorstandsvorsitzender Vertriebsvorstand H I J Datum und Dauer Ort 06.02.2009, 120 Minuten 20.02.2009, 50 Minuten 21.04.2009, 80 Minuten 11.05.2009, 60 Minuten 03.06.2009, 75 Minuten 21.07.2009, 60 Minuten 31.08.2009, 90 Minuten Stuttgart 25.09.2009, 60 Minuten 28.10.2009, 70 Minuten 09.11.2009, 50 Minuten Dortmund Mannheim Heidelberg Köln/Mannheim29 Wiesbaden Oberursel Frankfurt am Main Bonn Wiesbaden Die Auswertung der so erhobenen Daten erfolgte mit der Methode der qualitativen Inhaltsanalyse. Mit diesem Verfahren werden, sehr verkürzt dargestellt, aus einem Text nach einem bestimmten, z. B. am theoretischen Rahmenkonzept orientierten Suchraster zunächst Daten extrahiert, anschließend strukturiert aufbereitet und abschließend durch Interpretation ausgewertet (vgl. Abb. 1).30 28 Für eine umfassende Darstellung der Untersuchungsmethodik und -design sowie für eine detaillierte Darstellung der Untersuchungsergebnisse vgl. Kwasniok (2012), S 261-320. 29 Dieses Interview wurde telefonisch geführt. 30 Vgl. Mayring (2008); Gläser/Laudel (2009), S. 197–259. 186 Sascha Kwasniok, Hans Meissner auszuwertende Texte (z. B. Gedächtnisprotokolle) Extraktionsergebnisse Anwendung eines geeigneten Suchrasters Abbildung 1: Untersuchungsergebnisse Analyse und Interpretation der extrahierten Daten Vorgehen einer qualitativen Inhaltsanalyse 3.2 Marktorientierte Vertriebssteuerungsinstrumente in der Versicherungspraxis 3.2.1 Verbreitung marktorientierter Vertriebssteuerungsinstrumente Die Ergebnisse unserer Untersuchung deuten grundsätzlich darauf hin, dass bei der Koordination der Schnittstelle zwischen Produktgeber und Vertrieb weniger auf markt- als vielmehr auf planorientierte Steuerungsprinzipien vertraut wird. So unternimmt eine Vielzahl der untersuchten Versicherer den Versuch, durch die Übermittlung aus einer bereichsübergreifenden Vertriebsplanung hervorgehender Vorgaben das Absatzverhalten ihrer Vermittler im Sinne übergeordneter Gesamtziele zu beeinflussen. Die Wahrscheinlichkeit der Erfüllung dieser absatzbezogenen Handlungserwartungen versucht man dabei über die Verknüpfung des Planerfüllungsgrads mit monetären (z. B. Bonifikationen) oder nichtmonetären (z. B. Incentive-Reisen) Anreizen zu erhöhen. Allein Versicherungsunternehmen H verzichtet weitgehend auf eine umfassende Vorgabe von Absatzplänen. Der entsprechende Unternehmensvertreter betont in diesem Zusammenhang: „Bei uns gibt es keine Vorturner, wie etwa Bereichs-, Verkaufs- oder Organisationsleiter, die die Vermittler mit Wochenberichten, Kontrollanrufen, Zielplanungen oder sonstigen Vorgaben malträtieren.“ Die Abstimmung der Schnittstelle zwischen Produktgeber und Absatzeinheit wird mit dem Verzicht auf Absatzvorgaben insofern markttypischen Mechanismen übertragen, als Vertriebsmitarbeiter über ihr Nachfrageverhalten den Anbieterbereich hinsichtlich einer zu erhöhenden Wettbewerbsstärke seiner Versicherungsprodukte unter Druck setzen können. Zwischen internen Versicherungsproduktanbietern wird Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis 187 hierdurch „bis zu einem gewissen Maß eine Konkurrenzsituation erzeugt, und Konkurrenz belebt bekanntermaßen das Geschäft, sehr zum Vorteil unserer Vermittler.“31 Die Konsequenzen dieses generellen Befunds für die im Rahmen der theoretischen Überlegungen betrachteten Ansätze einer marktorientierten Vertriebssteuerung zeigen wir im Folgenden auf. 3.2.2 Ausprägung lateraler Kontrollsysteme Die schwache Ausprägung marktorientierter Prinzipien hinsichtlich der Koordination der Leistungsbeziehung zwischen Produktgeber und Vertrieb zeigt sich auch bei der Ausprägung lateraler Kontrollsysteme. Das betrifft vor allem die Abwanderungsoption. Zwar geben die Versicherer A, B, C, D, F, G, H und I an, dass ihre Absatzeinheiten im Fall einer Konfrontation mit überlegenen Konkurrenzangeboten durch sog. Ventillösungen oder auf der Grundlage von Kooperationen mit externen Marktakteuren prinzipiell über Abwanderungsmöglichkeiten verfügen. Wird allerdings in Betracht gezogen, dass die Einrichtung solcher Abwanderungsmöglichkeiten nach Aussage der Praxisvertreter in erster Linie von der Absicht geleitet ist, bekannte Schwächen im Produktsortiment durch die punktuelle Zusammenarbeit mit in dieser Hinsicht leistungsfähigeren Anbietern des externen Marktes auszugleichen, kann hier von keiner lateralen Kontrolle im eigentlichen Sinn gesprochen werden. Defizite interner Versicherungsproduktanbieter sind der Unternehmensleitung bereits bekannt und werden folglich nicht erst durch Kontroll- und Überwachungsaktivitäten der hierarchisch gleichrangigen Absatzeinheit aufgedeckt. Die Formulierung eines Widerspruchs, d.h. die Artikulation von Unzufriedenheit seitens des Vertriebs mit den angebotenen Versicherungsprodukten vollzieht sich bei den Unternehmen A, B, D, F, G, H und I hauptsächlich im Rahmen regelmäßig stattfindender Produktausschüsse. Diese Ausschüsse setzen sich i. d. R. aus Vertretern der Absatzeinheit, des Produktgebers und der Leitungsebene zusammen, wobei Letzteren aufgrund ihrer hierarchischen Position das letztgültige Entschlussfassungsrecht obliegt. Die Vertreter der Absatzeinheit führen bei dieser Form des Widerspruchs die im Zeitablauf vor allem von dezentralen Vertriebsmitarbeitern vorgebrachten Einwände und Vorschläge bezüglich der Versicherungsproduktgestaltung zusammen und bringen diese in den Produktausschuss ein. Grundlage für die Entscheidung, ob die vorgebrachte produktbezogene Kritik im Rahmen der Produktgestaltung Berücksichtigung findet, sind Überlegungen bezüglich deren grundsätzlicher Umsetzbarkeit sowie zu deren Kosten-Nutzen-Verhältnis. Die Ergebnisse dieser Machbarkeitsstudien und Wirtschaftlichkeitsanalysen bestimmen letztlich den Erfolg dieser Form des vertriebsseitigen Widerspruchs (vgl. Abb. 2). 31 Aussage Vertreter Versicherer H. 188 Sascha Kwasniok, Hans Meissner dezentrale Sammlung produktbezogener Kritikpunkte und Verbesserungsvorschläge durch Vertriebsmitarbeiter Zusammenführung und Einbringung in Produktausschuss Machbarkeitsstudie und Wirtschaftlichkeitsanalyse vertriebsseitig eingebrachter Einwände und Vorschläge positiv negativ Umsetzung vertriebsseitig eingebrachter Einwände und Vorschläge im Rahmen der Produktgestaltung Ablehnung vertriebsseitig eingebrachter Einwände und Vorschläge bezüglich der Produktgestaltung erfolgreicher Widerspruch erfolgloser Widerspruch Abbildung 2: Formulierung von Widerspruch im Rahmen von Produktausschüssen Eine solchermaßen ausgestaltete Widerspruchsoption läuft allerdings streng genommen dem Grundgedanken einer lateralen Kontrolle zuwider. So vollzieht sich hier die Überwachung und Kontrolle der Leistungsfähigkeit des internen Produktprogramms nicht im Rahmen von Transaktionsbeziehungen hierarchisch gleichrangiger Einheiten, sondern im Kontext bereichsübergreifender Abstimmungsprozesse. Dabei ist es vor allem die Bedeutung des Produktsortiments für die Erreichung übergeordneter Unternehmensziele, welche die befragten Praxisvertreter dazu veranlasst, in die zwischen Produktanbieter und Absatzeinheit bestehende Austauschbeziehung steuernd einzugreifen. So muss einerseits, etwa aufgrund von Wirtschaftlichkeitsüberlegungen, nicht jeder von der Absatzseite vorgebrachte Verbesserungsvorschlag zwingend den Interessen des Gesamtunternehmens entsprechen. Andererseits ist es auch vorstellbar, dass die Absatzeinheit Kritikpunkte vorbringt, deren Berücksichtigung im Rahmen der Produktgestaltung zwar die Verbesserung des Gesamtzielerreichungsgrads begünstigt, die aber ohne eine hierarchische Rückendeckung vom Produktanbieter blockiert werden. Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis 189 3.2.3 Ausprägung marktorientierter Motivationssysteme Im Rahmen einer bereichsübergreifenden Absatzplanung kommen bei der Mehrzahl der betrachteten Versicherer marktorientierte Steuerungsprinzipien überwiegend zur Entfaltung von Motivationseffekten zum Einsatz. Wie eingangs beschrieben, können solche Motivationswirkungen durch die Erzeugung einer Autonomie-Illusion sowie durch Leistungsvergleiche im Sinne eines Benchmarkings erzielt werden.32 Als ein Ansatz zur Schaffung einer Autonomie-Illusion kann die insbesondere von den Versicherern B, F, G und I im Rahmen deren Vertriebssteuerung vollzogene Vorgehensweise aufgefasst werden, gegenüber ihren Vermittlern einerseits die Absicht einer ganzheitlichen, d. h. an der individuellen Gesamtbedarfssituation des Kunden orientierten Beratung zu kommunizieren, ihnen andererseits aber gleichzeitig auf einzelne Versicherungssparten oder -produkte bezogene Umsatz- bzw. Stückzahlziele zu übermitteln. So wird in diesen Fällen Vertriebsmitarbeitern nur scheinbar eine Entscheidungsautonomie eingeräumt, die es ihnen dem Idealbild eines ganzheitlichen Beratungsansatzes entsprechend erlaubt, ihre Produktbezugsentscheidung uneingeschränkt an der individuellen Bedarfssituation ihrer jeweiligen Kunden auszurichten.33 Aufgrund des Einsatzes von handlungsbeeinflussenden Absatzplänen und den weiterhin bestehenden Leistungsverflechtungen zum Produktgeber liegt faktisch aber gar keine vollkommen autonome Entscheidungsfindung vor. Unter diesen Voraussetzungen wirkt die Kommunikation eines ganzheitlichen Beratungsansatzes weniger als Reaktion auf veränderte Kundenbedürfnisse, sondern vielmehr als Bestreben, mittels hierarchischer Einflüsse die Ausschöpfung von Absatzmarktpotenzialen, etwa in Gestalt einer Verbesserung der Cross-Selling-Quote, zu unterstützen.34 So stellt sich die Frage, wofür es noch einer zentralen Vorgabe absatzbezogener Planwerte bedarf, wenn die sich aus der kundenindividuellen Bedarfssituation ergebenden Anforderungen an die Art und den Umfang des Versicherungsschutzes, also letztlich Anforderungen des realen externen Marktes, die Nachfrage der Vermittler nach dem Produktgebern lenken sollen.35 Vor allem mit Blick auf diejenigen Mitglieder der Absatzeinheit, die in der Lage sind, diesen Zusammenhang aufzudecken, ist anzuzweifeln, dass eine solchermaßen ausgestaltete Autonomie-Illusion, die letztlich auf die mangelnde Erkenntnisfähigkeit der eigenen Vertriebsmitarbeiter spekuliert und damit per se als fragwürdiges Motivationskonzept angesehen werden muss, über einen längeren Zeitraum aufrechterhalten werden kann. Mit einem Benchmarking der erbrachten Absatzleistung findet vor allem in den Unternehmen A, B, D, G und I ein weiteres Instrument Anwendung, das Vertriebsmitarbeiter auch im Rahmen ihrer durch Absatzvorgaben und Leistungsverflechtungen verminderten Entscheidungsautonomie zu einem unternehmerischen Denken und Handeln motivieren kann. Gegenstand solcher Leistungsvergleiche sind vor allem der erzielte Prämienumsatz anderer Vertriebsteilbereiche oder konkurrierender Vertriebswege (Unternehmen A, B, D, G, I bzw. A, B, G, I) sowie Aspekte der Kundenzufriedenheit (Unternehmen A) oder die 32 Siehe dazu Abschnitt 2.3. 33 Vgl. Köhne/Lange (2009), S. 229. 34 Vgl. von Spannenberg (2011), S. 27 f. 35 Vgl. Schediwy (2006), S. 25. 190 Sascha Kwasniok, Hans Meissner Qualität des erbrachten Geschäfts gemessen anhand der Stornoquoten, d h. der vorzeitigen Vertragskündigung seitens des Kunden (Unternehmen B, D). Die Anwendung von Benchmarking-Konzepten dient in den untersuchten Unternehmen insbesondere dem Zweck, Aufschluss über die relative Leistungsfähigkeit der Vertriebsmitarbeiter zu erhalten. Einzelne Aspekte der Leistungsvergleiche werden gleichzeitig als Grundlage für die Gewährung von Anreizen herangezogen. Besonders verbreitet sind dabei Verkaufswettbewerbe, bei denen die jeweilige Platzierung der Vertriebsmitarbeiter über Ausschüttung und Höhe von Bonifikationen oder über die Teilnahme an Incentive-Reisen entscheidet.36 Es lässt sich vermuten, dass eine solche Anreizgestaltung darauf ausgerichtet ist, die Bereitschaft der Vertriebsmitarbeiter zu erhöhen, das eigene Leistungsniveau kritisch zu überprüfen und ggf. Maßnahmen zu dessen Steigerung einzuleiten.37 Wie in Abschnitt 2.3 gezeigt, hängt die Motivationswirkung von BenchmarkingKonzepten zu einem großen Teil davon ab, inwieweit die zur Leistungsbeurteilung herangezogenen Referenzobjekte von den Betroffenen als vergleichbar akzeptiert werden. Unsere Untersuchung zeigt, dass sich die Unternehmen durchaus mit dieser Problematik konfrontiert sehen. So geben die Praxisvertreter der Versicherer A, B, D und I an, dass die Absatzverantwortlichen der Vertriebsregionen desselben Unternehmens einen regionenbezogenen Leistungsvergleich mit dem Hinweis ablehnen, dass die einzelnen Vertriebsbereiche starke Unterschiede hinsichtlich der Bevölkerungsstruktur und der Kaufkraft aufweisen.38 Wenn den Praxisvertretern diese Problematik absatzbezogener Leistungsvergleiche offensichtlich bekannt ist, stellt sich jedoch die Frage, warum in den betrachteten Versicherungsunternehmen solchermaßen ausgestaltete Benchmarking-Konzepte zur Leistungsbeurteilung überhaupt noch zur Anwendung gelangen. So ist kaum davon auszugehen, dass im Absatzbereich die Einbeziehung inner- und überbetrieblicher Vergleichsdaten die hierdurch beabsichtigten Motivationswirkungen auslöst, wenn entsprechende Kennzahlen von den beurteilten Vertriebsmitarbeitern von vorneherein als nicht vergleichbar abgelehnt werden. Vielmehr ist zu erwarten, dass ein Festhalten an solchen Leistungsbeurteilungssystemen aufgrund des Gefühls einer ungerechten Behandlung zu stark reaktantem Verhalten seitens der Mitarbeiter führt. Unter Verweis auf das mögliche Auftreten solcher Verhaltensweisen ist der unbesehenen Anwendung von Benchmarking-Konzepten im Rahmen der Leistungsbeurteilung eine deutliche Absage zu erteilen.39 3.2.4 Kritische Würdigung der empirischen Ergebnisse Die Ergebnisse unserer Untersuchung lassen insgesamt den Schluss zu, dass die in den betrachteten Versicherungsunternehmen im Rahmen der Absatzsteuerung zur Anwendung gelangenden marktorientierten Prinzipien überwiegend auf Motivationsüberlegungen beruhen. 36 Vgl. Umhau (2003), S. 38. 37 Vgl. hierzu auch Meissner (2000), S. 221 f.; Frost/Queiȕer (2007), S 247; Stern (2007), S. 250. 38 Vgl. zu dieser Problematik auch Krafft (1995), S. 31 f. 39 Vgl. Kwasniok (2012), S.313 f. Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis 191 Dieser Befund lässt sich damit erklären, dass von den Gesprächspartnern mitunter die Auffassung vertreten wird, das Verhalten von Vertriebsmitarbeitern auf der Grundlage planbezogener Absatzvorgaben im Sinne der Unternehmensziele relativ gut steuern zu können. Die hiermit verbundene Beschränkung vermittlerbezogener Entscheidungsspielräume widerspricht jedoch der Vorstellung unternehmerisch denkender und handelnder Vertriebsmitarbeiter. Darüber hinaus wird verkannt, dass zumindest bestimmte Vertriebsmitarbeiter trotz der Übermittlung umfassender Absatzvorgaben über Möglichkeiten verfügen, sich einem hiermit verbundenen planbezogenen Steuerungsdruck zu entziehen. Anzuführen sind in diesem Zusammenhang vor allem Vermittler, die aufgrund der Größe ihres Kundenstamms und den damit verbundenen Einkommensquellen in Form von Bestandsprovisionen nicht auf zusätzliche, an die Planerfüllung geknüpfte Belohnungen angewiesen sind. Daneben sind auch Konstellationen denkbar, in denen Vertriebsmitarbeitern der bewussten Planverfehlung langfristig einen insgesamt höheren Wert beimessen als dem Nutzen, der aus einer am kurzfristigen Verkaufserfolg orientierten Erfüllung von Planvorgaben resultiert. Das ist vor allem dann der Fall, wenn die Produkte des eigenen Produktanbieters solchen von Konkurrenzanbietern preislich oder qualitativ unterlegen sind. Eine solche langfristige Handlungsorientierung von Vertriebsmitarbeitern dokumentiert sich vor allem im Interesse am Aufbau dauerhafter Kundenbeziehungen. So kann es für die Mitglieder der Absatzeinheit in diesem Zusammenhang durchaus vorteilhaft sein, potenzielle Versicherungsnehmer darüber aufzuklären, dass sich ihre Zugriffsmöglichkeiten auf Versicherungsprodukte beschränken, die gegenüber Angeboten des externen Marktes gewisse Defizite hinsichtlich der formulierten Leistungsanforderungen aufweisen. Sofern ein solches Verhalten mit der Erwartung verbunden ist, dass eine gegenüber dem Versicherungsnachfrager an den Tag gelegte Offenheit zum Aufbau einer zukünftige Ertragspotenziale sichernden Reputation beiträgt, die zumindest langfristig in der Lage ist, kurzfristige Einkommensausfälle einer Planverfehlung auszugleichen, verfehlen hierarchisch formulierte Absatzvorgaben zunehmend ihre beabsichtigte Wirkung.40 Schließlich bleibt anzumerken, dass mit der Dominanz hierarchischer Elemente im Rahmen der Absatzsteuerung die Möglichkeit vertan wird, die in bestimmten Teilaspekten produktive Kraft marktorientierter Prinzipien zur Koordination und Kontrolle absatzbezogener Leistungsbeziehungen für übergeordnete Unternehmensinteressen (z. B. Rückkopplung der angebotenen Produkte hinsichtlich deren Marktfähigkeit) zu verwerten.41 4 Zusammenfassung Im vorliegenden Beitrag haben wir einerseits Ansätze einer marktorientierten Absatzsteuerung von Versicherungsunternehmen aus Sicht der Theorie aufgezeigt und andererseits ihre Ausprägungsformen in der Unternehmenspraxis erhoben. Dem Ziel, ein Rahmenkonzept für die systematische Einbringung marktorientierter Prinzipien in die Vertriebssteuerung von Versicherungsunternehmen zu entwickeln, haben wir 40 Vgl. Trigo-Gamarra/Wein (2005), S. 355 f. 41 Zu diesen Eigenschaften siehe Abschnitt 2.2. 192 Sascha Kwasniok, Hans Meissner uns über die gedankliche Trennung in eine Koordinations- und Motivationsdimension genähert. Im Rahmen der Koordinationsdimension haben wir insbesondere die Einsatzmöglichkeiten lateraler Kontrollsysteme beleuchtet. Ein solches Konzept gründet auf der Idee, die Leistungsverflechtung zwischen Produktgeber und Vertrieb dazu nutzen, vor allem auf Seiten der Vertriebsmitarbeiter das Interesse für die Art und die Ergebnisse der Leistungserbringung ihres Transaktionspartners zu schärfen. Insgesamt konnten wir zeigen, dass ein System lateraler Kontrolle unter bestimmten Voraussetzungen in der Lage ist, Leistungsdefizite des Produktgebers zu beheben, ohne dass mit einer konsequenten Anwendung marktorientierter Steuerungsprinzipien nicht vereinbare hierarchische Eingriffe erforderlich sind. Mit der Autonomie-Illusion, d. h. der Suggestion dem freien Markt entsprechender Freiheitsgrade und der Anwendung von Benchmarking, d. h. der Konfrontation von Ergebnissen marktlicher Alternativen im Rahmen der Leistungsbeurteilung haben wir zwei Konzepte aufgezeigt, mit denen die defizitäre Motivationswirkung einer bereichsübergreifenden Absatzplanung zumindest in Teilen aufgehoben werden kann. Kritisch anzumerken ist jedoch, dass beide Ansätze letztlich auf die mangelnde Erkenntnisfähigkeit der Vertriebsmitarbeiter spekulieren und daher in keinem besonders positiven Licht erscheinen. Die Ergebnisse unserer empirischen Untersuchung zeigen schließlich, dass in den betrachteten Versicherungsunternehmen die Anwendung marktorientierter Prinzipien im Rahmen der Absatzsteuerung vor allem mit Motivationsüberlegungen erklärt werden kann. Die bewusste Erzielung von Koordinationswirkungen lässt sich hingegen nur in Einzelfällen feststellen. Gerade in der zielgerichteten Verwirklichung entsprechender Maßnahmen können jedoch für Versicherer Handlungspotenziale für eine Neuausrichtung ihrer mitunter stark planorientiert ausgerichteten Vertriebssteuerungssysteme vermutet werden. So bietet ihre Umsetzung die Möglichkeit, Trägheitstendenzen bei den durch den Vertrieb nachgefragten Produktgebern, denen aufgrund der Gewissheit des Absatzes ihrer Produkte im Kontext planorientierter Vertriebsvorgaben ein gewisser Nährboden bereitet wird, zu begegnen. Literatur Altenähr, Volker/Dittrich, Rainer/Shaukat, Dominik (2009): Monetäre Anreizsysteme als Mittel zur Vertriebssteuerung, in: Versicherungswirtschaft, 64. Jg., S. 443–445. Bass, Bernard M. (1985): Leadership and Performance beyond Expectations, New York. Coase, Ronald H. (1988): The Firm, the Market and the Law, Chicago (Illinois). Deci, Edward L. (1971): Effects of Externally mediated Rewards on Intrinsic Motivation, in: Journal of Personality and Social Psychology, 18. Jg., S. 105–115. Endres, Klaus (2007): Die Gestaltung von Anreizsystemen zur wertorientierten Steuerung von Versicherungskonzernen, Lohmar (zugl.: Köln, Univ., Diss., 2007). Frese, Erich (2004): Interne Märkte, in: Schreyögg, Georg/Werder, Axel von (Hrsg.): Handwörterbuch Unternehmensführung und Organisation, 4. Auflage, Stuttgart, Sp. 552–560. Frese, Erich/Glaser, Horst (1980): Verrechnungspreise in Spartenorganisationen, in: Die Betriebswirtschaft, 40. Jg., S. 109–123. Frese, Erich/Graumann, Matthias/Theuvsen, Ludwig (2012): Grundlagen der Organisation. Entscheidungsorientiertes Konzept der Organisationsgestaltung, 10. Auflage, Wiesbaden. Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis 193 Frese, Erich/Lehmann, Patrick (2002): Der koordinierte Weg zum Kunden – Konzeption einer strategiekonformen Vertriebsorganisation, in: Böhler, Heymo (Hrsg.): Marketing-Management und Unternehmensführung – Festschrift für Professor Dr. Richard Köhler zum 65. Geburtstag, Stuttgart, S. 505–546. Frost, Jetta/Queiȕer, Claudia (2007): Organisation zwischen Markt- und Hierarchieversagen: Öffentliche Güter als neuer Steuerungsimpuls, in: Jansen, Stephan A./Priddat, Birger P./Stehr, Nico (Hrsg.): Die Zukunft des Öffentlichen, Wiesbaden, S. 243–280. Gläser, Jochen/Laudel, Grit (2009): Experteninterviews und qualitative Inhaltsanalyse als Instrumente rekonstruierender Untersuchungen, 3. Auflage, Wiesbaden. Halal, William E. (1994): From Hierarchy to Enterprise: Internal Markets are the New Foundation of Management, in: Academy of Management Executive, 8. Jg., S. 69–83. Hax, Herbert (1965): Die Koordination von Entscheidungen. Ein Beitrag zur betriebswirtschaftlichen Organisationslehre, Köln et. al. (zugl.: Köln, Univ, Habil., 1964). Hirschman, Albert O. (1974): Abwanderung und Widerspruch. Reaktionen auf Leistungsabfall bei Unternehmungen, Organisationen und Staaten, Tübingen. Hirshleifer, Jack (1956): On the Economics of Transfer Pricing, in: The Journal of Business, 29. Jg., S. 172–184. Köhne, Thomas/Lange, Manfred (2009): Zielgruppenorientierte Verkaufskonzepte im Privatkundenbereich, in: Berufsbildungswerk der Deutschen Versicherungswirtschaft (BWV) e. V. (Hrsg.): Marketing und Vertrieb von Versicherungs- und Finanzprodukten für Privatkunden. Fach- und Führungskompetenz für die Assekuranz, Karlsruhe, S. 215–390. Krafft, Manfred (1995): Außendienstentlohnung im Licht der neuen Institutionenlehre, Wiesbaden (zugl.: Kiel, Univ., Diss., 1994). Kwasniok, Sascha (2010): Gedanken zur Gestaltung markterfolgsorientierter Provisionssysteme für Versicherungsvermittler. Konzeptionelle Überlegungen vor dem Hintergrund aktueller Entwicklungen, in: Zeitschrift für Versicherungswesen, 61. Jg., S. 18–23. Kwasniok, Sascha (2012): Marktorientierte Vertriebssteuerung von Versicherungsunternehmungen. Organisationstheoretischer Bezugsrahmen und empirische Betrachtung, Karlsruhe (zugl.: Karlsruhe, Institut für Technologie, Diss., 2012). Lehmann, Patrick (2002): Interne Märkte. Unternehmungssteuerung zwischen Abwanderung und Widerspruch, Wiesbaden (zugl.: Köln, Univ., Diss., 2000). Martini, Jan Thomas (2007): Verrechnungspreise zur Koordination und Erfolgsermittlung, Wiesbaden (zugl.: Bielefeld, Univ., Diss., 2006). Mayring, Philipp (2008): Qualitative Inhaltsanalyse. Grundlagen und Techniken, 10. Auflage, Weinheim. Meissner, Hans (2000): Center-Konzepte. Ein integrierter theoretischer Bezugsrahmen, Wiesbaden (zugl.: Mainz, Univ., Diss., 1999). Meissner, Hans/Kwasniok, Sascha (2008): Marktorientierte Steuerung unternehmenseigener Absatzorgane von Versicherungsunternehmen, in: Himpel, Frank/ Kaluza, Bernd/Wittmann, Jochen (Hrsg.): Spektrum des Produktions- und Innovationsmanagements. Komplexität und Dynamik im Kontext von Interdependenz und Kooperation – Festgabe für Klaus Bellmann zum 65. Geburtstag., Wiesbaden, S. 299–316. Milgrom, Paul R./Roberts, John (1992): Economics, Organization and Management, Englewood Cliffs (New Jersey). Nickel-Waninger, Hartmut (2005): Vertriebsausgliederung: Wem gehört die Marke und wem der Vertrieb?, in: Zeitschrift für Versicherungswesen, 56. Jg., S. 644–647. Rein, Michael (1993): Konsolidierte Grenzplankostenrechnung. Instrument der Konzernplanung und steuerung, Wiesbaden (zugl.: Mannheim, Univ., Diss., 1992). 194 Sascha Kwasniok, Hans Meissner Riegler, Christian (2002): Benchmarking, in: Küpper, Hans-Ulrich/Wagenhofer, Alfred (Hrsg.): Handwörterbuch Unternehmensrechnung und Controlling, 4. Auflage, Stuttgart, Sp. 126–134. Schediwy, Werner (2006): Ganzheitliche Beratung – ein Marketing-Gag oder innere Überzeugung?, in: Effert, Detlef (Hrsg.): Ganzheitliche Beratung bei Banken. Modeerscheinung oder Erfolgskonzept?, Wiesbaden, S. 21–32. Schinnenburg, Stephan (2004): Wertschöpfungspartnerschaften zwischen Ausschließlichkeitsvertrieben und Fremdversicherern – das Modell der Ventillösung, in: Köhne, Thomas (Hrsg.): Strategische Kooperationen in der Versicherungsbranche. Kernkompetenzen, Wertschöpfungspartnerschaften und Unternehmensnetzwerke, Wiesbaden, S. 281–299. Schumann, Jochen/Meyer, Ulrich/Ströbele, Wolfgang (2007): Grundzüge der mikroökonomischen Theorie, 8. Auflage, Berlin et al. Solomons, David (1965): Divisional Performance: Measurement and Control, New York. Spannenberg, Ulrich von (2011): Erfolgreich in der Vorsorgeberatung. Wie Sie durch Konzeptverkauf Ihre Kunden überzeugen und Ihr Einkommen signifikant erhöhen, Wiesbaden. Stern, Hermann J. (2007): Benchmarking im Aufsichtsrat zur Unternehmenssteuerung, in: Zeitschrift für Corporate Governance, 2. Jg., S. 246–250. Trigo-Gamarra, Lucinda/Wein, Thomas (2005): Bessere Beratung der Versicherungsnehmer durch höhere Qualität der Versicherungsvermittler?, in: Schulte, Reinhard (Hrsg.): Ergebnisse der MittelstandsForschung, Münster, S. 351–375. Umhau, Gerd (2003): Vergütungssysteme für die Versicherungsvermittlung im Wandel, Karlsruhe. Walgenbach, Peter/Hegele, Cornelia (2000): Was kann der Apfel von der Birne lernen, oder wozu brauchen Unternehmen Benchmarking?, in: Industrielle Beziehungen, 7. Jg., S. 180–199. Winter, Richard (1986): Pretiale Lenkung bei sicheren und unsicheren Erwartungen, Frankfurt am Main et al. (zugl.: Frankfurt am Main, Univ., Diss., 1986). Development of Information Systems in Manufacturing Olga Levina, Hermann Krallmann Introduction Throughout the development of the human kind manufacturing took an important role. Only with the beginning of using a tool, we see human race on the way to knowledge and intelligence. Material goods were produced to satisfy some concrete need that couldn't have been satisfied by goods that can be found in nature. Craftsmen, people specialized in producing one specific good by themselves with no or little help of some tools, took their processes to the best possible perfection. But they also hid their knowledge to avoid competitiveness and fraud. This policy led to losses in important areas which can't be recovered anymore. Two famous examples are the secret of Stradivariތs making process for string instruments and the components of the “bleu de Chartres” – a blue color made by a guild of glazier for the magnificent cathedral in Chartres, France in 12th century. This age of manufacturing in its original sense of making products “by hand” lasted for a very long time and was only superseded by industrial age some two hundred years ago. Until then, information and knowledge about production process was extremely bound to a specific person. This made a craftsman a very known and important society member. When social hierarchy began to change and land property gave a higher position, in the early medieval age, craftsmen were still accredited. Industrial age brought another change in the social structure. Investors had the financial importance – engineers, mechanical engineers and factory planers followed closely in the hierarchic perception of the society. Production processes were planned in advance, material and information flows were pre-planned for the longest possible time span and workers within the factory had no influence neither on the process nor on the product in which creation they were involved. Cumulated knowledge was again concentrated in the hands of the factory engineer and planer who was represented by inspectors. So quality control and process optimization were seen as side products of this organization, more than to be an important issue and necessity. In the mass production of industrial age no flexible reaction was possible as everything from raw resources and product design, through the occupancy of the machines and workers, to sales and accounting was planned in advance. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_15, © Springer Fachmedien Wiesbaden 2013 196 Olga Levina, Hermann Krallmann Factory workers only had to perform machine supportive tasks and didn't need any education. They have never seen the whole product but only a very small part of an element that will be completed to the product. Not only that these circumstances led to an alienation of factory workers with their production but it also pushed them down in the social opinion and created the so called working class. As the result social gaps and dissatisfaction of workers rose and caused severe social instability. Ultimately mass production the market was flooded with and now manufacturers had to think about a new strategy to attract customers. Meeting basic needs was now not enough, customers wished to express their individuality by consumption. Manufacturers had to react quickly to this development and a need for flexibility and information was absorbed by the developments in information and communication technology. Mutual stimulation of information and communication technology and market demands leads to a new paradigm of “mass individualization” which is strongly connected to an important amount of information to be processed and implement into the processes. More and more manufacturing enterprises are facing problems caused by this shift: where and how to get the information (about customer wishes, new technologies, etc.) and how to proceed this information into already established production processes. Mass production and handcraft are both still present in our industrial landscape. But individualization of products, which is positioned in between these two concepts, takes a more and more important part of the value creation in industrialized countries. From the social point of view, quality and level of life in industrialized countries and the social gap was partly eased by the new working and manufacturing paradigms. Since the quality of products became a necessity to compete on the market and a unique selling proposition for an enterprise, factory workers are now seen as a main force to detect process failures and provide suggestions to enhance the process (Parsons, 1967). To fulfill customer demands a fast reaction to changes in technology and trends is needed. Customer demands also often required small charges and lots, and this leads to a renunciation of the mass market. As a consequence mass production is recommitted to other countries that yet don't have a highly developed information and communication structure and therefore rely on automated production with high initial investments into production technology but therefore also a lower level of needed education of its workers to maintain the value adding processes. Not only that we become more and more dependent on these countries for cheap production of everyday goods, but the social gap deepens again but now on the global and not on the national level. As soon as human started to use tools or some goods which couldn't been found in the nature the age of manufacturing began. Since with the time more man-made products were needed, manufacturing was an activity that was acknowledged by other members of the society. Manufacturing as a process or set of processes is always accompanied by three kinds of flows: material, cost and information flows (Hitomi, 1996). Material flow illustrates the input-output system of production processes: raw materials are given in, processed and assembled and delivered to customers. Information flow originally contained all information needed to realize a product. It covers what materials should be used, how to modify them and in which succession to obtain the desired product. In the consumer-driven market as we observe it today, information becomes a management function to gather the Development of Information Systems in Manufacturing 197 demand and its trend from the market. Information flow also contains the aspects of planning and control of the manufacturing processes (Fulkerson, 2001; Hitomi, 1996, Clement et al. 1995). Material flow invokes the flow of costs and both of them have to follow the production plan which is based on markets needs and trends. This basic structure didn't change throughout the years but what changed is the emphasis put on every one of them in different manufacturing structures. In the following sections these structures will be outlined and the role and kind of information management will be pointed out. Information systems contain information, information processing elements, and actors who carry out those processes (Wu, 1994). This definition will be used in this paper. The article is organized as follows: first of all the stages and historical events that affected the development of manufacturing systems will be described. Then the current situation of global manufacturing is shown and possible social consequences are indicated. In the conclusion the role of information and information systems in the development of manufacturing will be summarized. Craftsmen At the very beginning of the history of manufacturing there was a skilled person who realized that it was possible to build some goods when they were not available in nature. Moreover he or she was able to build one product that some of his socialites needed and could build it in the best way. This was the start of specialized craftsman as the first producer of material goods. Manufacturing remained in the realm of craftsmen for a very long time, even today some narrow areas of production are still performed by craftsmen. This may not be a direct necessity but a special wish of customers who are flooded by mass products with a lack of „personality“. In this kind of industry all components of the end products are built by one artisan or, later, by members of a workshop who was in charge. Moreover there is a good traceability possible, going from raw materials, design, know-how and sales. All of these steps were performed by one person who was also the more or less conscious keeper of the complex knowledge behind all these processes. Manufacturing structures have gone through big development, biggest change being the industrial revolution (Groover, 2001). Until the mid 1840s products were made by small companies containing only few workers. Very often an individual request of a customer preceded the actual production. Often this request was expressed and brought in by the customer him- or herself, containing more or less exact specifications. Customers as well as producers were well aware of the fact that between order and finishing a noticeable time span will pass. Within this time multiple feedbacks loops were ran between producer and customer. The complete design was then finished when the customer approved the product and its quality and paid the arranged price. Later on craftsmen were organized in guilds. These organizations were formed according to the area of trade. They were very rigid groups that determined not only the production processes and tools but also the produced amounts. On the one hand market shares and competitiveness could have been controlled better in this way. But on the other hand 198 Olga Levina, Hermann Krallmann significant progress in innovation and technology was detained by this structure, some loosening was only possible in regions with nationwide trade (Biggs, 2003). First Industrial Revolution Only a very small group of people was aware of how to produce a given material good in the time that was dominated by artisan manufacturing. Therefore customers often have to travel to craftsmen that were able to make the needed good. The main achievement of the first industrial revolution was the possibility to produce different parts of a product in different places by different people. These parts were assembled in a third place by people who don’t necessarily know exactly how to make this product from the beginning but they knew how to assemble it from the single part. This meant that products could be made available faster and even cheaper. Additionally assembling doesn't require such a long educational process and didn't tie up to a membership and no bounds from guilds were to be feared. Before this division of the product in its parts it was only possible to add some luxurious extras like jewels or other kind of decoration to the ordered product since it was made by a artisan with a different specification. Competitiveness was low as benchmarking would have been a much higher cost for the customers than the actual product cost. Information about the market depended on distances and knowledge which was hard to bridge. Information spread for producers was also a very difficult undertaking, as the communication means were poorly developed. First industrial revolution also allowed creating transportation means and ways, constructing first steam-driven machines and processing raw materials. This led to the upcoming of new technologies, new demands and new manufacturing processes. Information in those first variations of a mass production system was carried by people according to rules, plans or maps developed by a production engineer. Most of the production stages of the produced good were situated in a walking distance. Of course the product price was more or less still dictated by the supply, as the competitiveness was held low and actual cost per unit were very high. Second Industrial Revolution In the late 19th century transportation and communication networks were available due to the steel industry and already established railway connections. Electricity and scientific knowledge and deterministic way of thinking allowed industry to develop. Expanding demand for steel nourished by rising demand for availability and transportation pushed production processes to higher efficiency, electricity enabled better working conditions in factories and therefore to higher production rates for day and night production (Onyemelukwe, 2004, Adams, 1984). It was the time when engineering starts to concentrate on solving problems in manufacturing processes. Scientific methods of measuring, control and decision making started to come in use. Other results of the industrialization were higher capital involvement and lower labor input. These requirements were aimed to lower the costs per produced unit and therefore economies of scale, higher capital to labor ratio, emerged as new paradigms of value creation. To push down the costs equipment, people and resources had to be used at nearly Development of Information Systems in Manufacturing 199 full capacity (Batchelor, 1995). Upcoming achievements in science and therefore in technology reassured manufacturers in their believes of predictability and measurably of the world. They realized that production processes were quantitative to a high extent, since they can be measured, controlled, monitored, observed, manipulated and recorded. This was a start of Taylorism, a manufacturing system organization often also referred to as scientific management (Taylor, 1911). Taylorism enabled mass production manufacturing systems and therefore the mass products. This production processing did not only push the product costs down, supported engineering approach to manufacturing but also rose a big question about human factor in manufacturing specifically and for value creation in general. Since even Ford's assembly lines could not work without human assistance, philosophers of that time spoke about alienation of the workers in the labor process (Marx, 1867), as they were seen and employed in the equal way to manufacturing technology as a “production factor”. In mass production all processes, recourses and manufacturing phases have to be planned in advance (Taylor, 1911). Every discontinuity or discrepancy of this plan would stop the production process and cause a very significant financial damage. This is also a reason why mass production paradigms support and encourage big financial and engineering efforts. There is no big need in specific or immediate information provisioning. Most tasks are done and controlled by machines according to the production plan. The production pace is determined and no alternation is allowed since it was not foreseen in the production plan. Control and supervision of human workers as well as the machines, detection of bottlenecks and technical delays were performed by straw bosses or inspectors in the factory hall (Batchelor, 1995, Biggs, 2003 ). A two class society appeared and was stressed within the plant. This gap was widened even more outside when the investors and office workers became visible. Determinism and Information Beginning with the late 18th century advances in natural sciences, like Newton's mechanics, led to a perception that anything obeys some kind of law and can therefore be quantified and planned when a good knowledge of the observed system is available. That is why engineering became more and more popular as it allowed to find a solution by quantitatively describing and calculating given problems. Engineering gained also a lot of success providing machines that were able to finish production processes faster and more effective than humans could. New materials like steel and new demands like transportation and associated communication needs provoked need for fast solutions. These were seen in apparatus which were planned and constructed to provide the exact answer to a posed problem (Cortada, 2003). The whole information flow was conceived and captured in the engineering work instead in the process. Like craftsmen, engineers carried all the needed information for processing a system they developed and like craftsmen they gained a high position and respect in the society. While planners, engineers, and investors were respected, workers in the manufacturing hall not only suffered bad working conditions and monotony of the work processes, they also were despised in the society. Their working outfit , their narrow specialization and therefore lack of deeper knowledge to be able to impact any of 200 Olga Levina, Hermann Krallmann their working steps or product as a whole, deepened the social lack between the working class people and the “others” in the eyes of the society. Mass Customization Henry Ford with the invention of the assembly line in his car factory put the principles of mass customization (Womack, 1991, Chandler, 2004): efficient factor use, standardization, low costs per unit, division of labor and high specialization are the main characteristics of this organization. But this production system with its high investments and high degree of planning was very sensitive to any kind of noise or turbulences from the inside or outside the production system. But still a more important factor for the decrease of popularity of mass production was the saturation of the markets. Mass products were produced at very low costs per unit, through the produced volume of one product kind markets were very good supplied by mass products. This saturation appeared especially due to their affordability for a big range of customers. Since the everyday needs were being able to be satisfied for a relatively small amount of money and were accessible to everyone, this convenience market was soon saturated. One of the main principles of mass production is the efficient use of recourses and this implies also the machine working time. No stop is planned or supported by this manufacturing system, but with more and more saturated market products were meant to be produced for cull as is was cheaper than to stop the line. Additionally customers didn't want to buy products that look and cost the same for everybody. But mass production manufacturing offers no space for variations neither in product design, nor in production volume. These facts played a major role in the decline of Ford's way of manufacturing (Olsen, 2002). In figure1 the different manufacturing types are shown in the context of the degree of product individualization and the complexity of an information system being used for successful production. 201 Development of Information Systems in Manufacturing Individualization Craftsmen Workshop Mass Customization 0 Assembly line Complexity of information systems Human involvement Figure 1: Overview of types of manufacturing and complexity of information system used Demand driven manufacturing During a long time manufacturing was performed by very skilled people, craftsmen, who had to go a long way of knowledge accumulation and technical improvements. They produced on specific, punctual demand, and had a very small range of competitiveness. Customers were the ones to search for the producer and negotiate their design conceptions with the technical feasibility. On the central meeting points for artisans, like fairs, consumers were to buy what was offered by manufacturer. Mass production pushed a big amount of a specific product on the market and didn't take wishes of the customer into account to a big extent as well. But with the rising of technology and educational level in the industrialized world also the living standard of a big share of people rose (Kotha, 1996). Suddenly they were not satisfied by a product everyone has, they wanted to express theirselves by consuming and reflex their personality through the goods they bought. System of mass production couldn't react to this development, so that is why new paradigms of manufacturing systems were suggested. Flexible manufacturing, the overall term of these approaches, allowed a cheaper entrance into the world of mass production (Piller, 2004, Womack, 1991). 202 Olga Levina, Hermann Krallmann Of course mass production is still present in the manufacturing landscape, it will hardly disappear in a short-term future. But it is not as present in our society as it used to be at the time it started. Most monotonous working steps were taken over by machines or robots, while human power was put to control and assist the production process (Pine, 1993). Manufacturing turned out to be a market driven process. Originally something was made “by hand” (manu factum in Latin) because this product was necessarily needed to fulfill a basic need. Now, since mass production assured a supply of basic needs, most of the population in industrial world having a life quality above the survival means, individuality is often expressed by consumption. Now it is the manufacturers to go to the customers to search for their needs. The goal is still to be profitable, but the solution is sought not in machine efficiency but in information about customers and markets. That is why a so called target group is to be analyzed, and the term mass customization comes up to describe this current state. Such an approach requires a production system to be adaptable to the volume to be produced and design changes as well as a good network of suppliers. Information flows start to be the very core of the manufacturing process as anything can not be planned in detail as it used to be in the mass production. Immediate information availability is now the goal to reach for customer oriented manufacturing. Computer aided information proceeding in manufacturing Though manufacturing always has been a very information-intensive process, the core effect of information managing to the economic result of the enterprise was realized quite late (Harrington, 1979). Information sources and ways of managing them changed with the organizational paradigms over the time, but the core process – converting raw materials to a product satisfying a need of the customer – remains. The realm of customers and knowledge needed to finish a material good also changed depending on manufacturing system. With computers starting being in use in the late 1970s information changed its position from a supporting background to a more and more essential recourse for production. Computers with their high calculating capacity and possibility to process and compare multiple variations in a small time range supported individualization and flexibility in manufacturing (Cecelja, 2002). Development in communication technologies and the rising CPU capability enabled the next step of manufacturing processes when the process is guided by incoming and processed information. High prices on the newly upcoming computers detained small and middle enterprises to invest in information technology since its meaning was still underestimated in manufacturing (Cecelja, 2002). Only when the software and hardware products conquered the mass market and their prices began to fall, producers started considering the investment. From the 1980s on it was possible to individually design software products that were now affordable for even small enterprises (Cecelja, 2002). Investments comparing to the ones for mass production kept falling and allowed middle and small enterprises to enter the mass market. In the first step some tasks involved in manufacturing, like computer aided design (CAD), were performed using a computer. But they were not connected with each other. The wish of integrating loosely bounded tasks to enhance business processes led to the concept of computer integrated manufacturing (CIM) (Ránky, 1986). With this approach Development of Information Systems in Manufacturing 203 information was recognized as the driving force behind production processes and an important factor in engineering manufacturing systems. It also plays an important role in integration of production steps and elements of the manufacturing system. For a fast reaction and efficient process development information availability is strongly needed (Gronau, 1993). This need is now satisfied by manufacturing information systems like production planning and systems (PPC), enterprise resource planning systems (ERP), manufacturing execution systems (MES), etc. Whereas in mass production information flows were performed by people, in form of control or quality cards or just by talking to the production engineer or inspector. When a craftsman produces a good, the whole needed information is passed and acquired by him, he is the single information source and sink concerning the manufacturing process from the design, though with some input of the customer, through the production steps until sales and customer relationship management. Information and service need in manufacturing The use of information systems turned out to have a significant impact on production processes (Chandler, 2000, Gurbaxani, 1991). Not only information could be processed faster and more precise, it also allowed producers to make variations of their goods without big financial effort. While customers can now be served in a more individual way, the need for communication and acquisition of new and care of old clients suddenly appeared. Big companies discovered public relation as an important vehicle to acquire customers, social events, sponsoring and advertisement aimed to find and keep clients. The change to a “pull”, customer-driven, market was fulfilled. Manufacturers are now able to satisfy individual wishes to a big extent and customers are ready and able to pay a remarkable price for it. Information about products and companies and especially customers and their requirements became not only necessary but more and more precious. An extra industrial division appeared: the service industry. This is a branch which only deals with information management in any possible kind of form, is now gaining a significant share of gross domestic product in industrialized countries under the name of the third industrial sector (Pitt et al. 1995). Information availability especially in the context of a global market is a significant advantage since not only the amount of products and customers is growing but also the number of competitors. That is why market changes have to be spotted fast and be immediately converted into real products or product variations desired by the customer. Not only customer acquisition and support became remarkable manufacturing processes, market observation and benchmarking are beside accounting, controlling and compliance of a rising importance for a manufacturing enterprise. Additional information that has nothing to do with the actual manufacturing process, became now one of the major and challenging management tasks. Flexibility and the need for information Flexibility often means variety of choices and types. To support all of them in manufacturing a rising amount of information is needed to be processed and analyzed 204 Olga Levina, Hermann Krallmann within the system. As outlined above, the emergence of computers and availability of customized software for relatively low prices favored the development of information carriers and the rising role of the information for manufacturing systems a lot (Cecelja, 2004). First of all information technology is meant to enable transfer and availability of information. Without information no control of the production process is possible. The craftsman was able to allocate and process necessary information to complete his product on his own or with help of some of his apprentices. Mass production processes on the other hand were pre-planned in high detail, hence no significant information flow occurred during the processes. Today’s manufacturing systems have a very wide spread supply chain, go global and often perform only one of the major manufacturing steps within the company itself. Since all the actors involved in a product are spread and the products parts are to arrive to a certain place in a certain time to complete the product, a high level of control is needed. That is where information systems are claimed to play their major role today. Without communication no information can be provided and therefore no irregularity in the process can be detected. One of the basic information needs in manufacturing, is to know when one of the production stages ended and therefore when an other one can start (Onyemelukwe, 2004). In distributed systems the value of this information can rise, especially concerning wide spread manufacturing locations. A spatial spreading of the manufacturing process can make it more flexible and more efficient. But this distributed system also needs more information and communication than a centralized one. The dimension of time in this context becomes more important and essential especially concerning reaction possibilities on any kind of process irregularity. The ability of being “everywhere” in the process is essential in manufacturing to understand and control single procedures and orchestrate them. The enhancement of communication and information technology allowed this development on the one hand, on the other hand information management, availability and reliability as well as consistency of information systems became some of the biggest issues for manufacturing organizations. Standards, one of the achievements and results of mass production, are now to be implemented in the area of information systems and software applications, an important factor for an efficient and reliable communication. A relatively high degree of competitiveness in the software market is still the main constrain on the way to homogeneous applications. On the way to “swarm manufacturing” To combine different components of different manufacturers, to achieve biggest possible flexibility to satisfy customer demands and to supply the ready product as fast and as soon as possible to the market, producers have to come up with new manufacturing paradigms. A very high level of communication and therefore of information spreading is the key to a flexible and effective process. That is why today the idea of smart objects captures the attention of researchers and practitioners. The need of information already led to more detailed level of information carriers. Development of Information Systems in Manufacturing 205 The first step was to mark pallets and boxes containing product components or ready-tomarket products with labels. The information concentration rose when bar code etiquettes were used. These etiquettes can be processed automatically and fast. In addition they can be produced and applied with minimal costs. With the upcoming of 2- and 3D bar code it is possible to store even more information which can be processed in the same short time span. Now that sets of products can be traced and their location detected question about tracing even smaller parts, like single elements of a complex product arise. A possible answer was given by the RFID technology (Poirer, 2006, Schuster, 2007). Not only the tags can be applied on single parts, they can be read and rewritten in an automated way. The amount of information in manufacturing system rose immediately. Suddenly every system element is endowed and confronted with a significant amount of information which has to be first of all found, classified, managed and processed. Dependence on information systems, applications and their management also rises with this development. Questions concerning information access, storage and availability are important not only on a technical level but they also swashed to a social and ethical discussion. Claims for more effectiveness and profitability suddenly made issues of definition of information, its belonging and rights and duties of its holders focus of new discussions. Ethical and legal debates led in the press and in research show that we still are not able to give satisfying answers to them on ethical and philosophical level. But a customer- driven market is not willing to wait for the answers. That is why new research in the direction of distributed systems and ad-hoc networks in manufacturing appears (Raof, 1995, Anderson, 1996). New manufacturing paradigms deal with intelligent parts which can give and receive information about their state and process it. Selforganization is also a huge research field not only for system theorists but also for organization paradigms of manufacturing systems. But self-organization implies new paradigms of control and management of processes and information. Their development and realization is meant to reduce current information overload in manufacturing processes. Information need grows and determines time to market and competitiveness and therefore economical success of the company. This development strongly supports the position of information or more specific, information systems as a production factor (Wu, 1994) and makes it the strongest element in the factory. Conclusion Current research in manufacturing aims towards distributed, self-organizational and possibly self-controlling manufacturing systems (Montgomery, 1996). This development makes the emphasis on information technology and information processing essential. Manufacturing technology, new machines or manufacturing processes are not the main focus for producing enterprises anymore. While information and communication technology still needs some adjustment in the areas of e.g. availability, reliability, etc. and a higher conformance, the gap between original mass production now performed in newly industrializing countries and the flexible individualized mass manufacturing is widening. This might also lead to global economic shift of powers towards the newly industrialized 206 Olga Levina, Hermann Krallmann economies. An amicable cooperation between this two branches should therefore be the guiding policy in economic relations between these two poles to avoid possible social discrepancies. References Anderson, D.M. (1996): Agile Product Development for Mass Customization: How to Develop and Deliver Products for Mass Customization, Niche Markets, JIT, Build-To-Order and Flexible Manufacturing, Irwin Professional, 1996. Adams, C. (1984): Under Control: Life in a Nineteenth-Century Silk Factory (Women in History), Cambridge University Press, 1984. Batchelor, R. (1995): Henry Ford: Mass Production, Modernism and Design (Studies in Design and Material Culture), Manchester Univ Press, 1995. Biggs, L. (2003): The Rational Factory: Architecture, Technology and Work in America's Age of Mass Production (Studies in Industry and Society), Johns Hopkins Univ Press, 2003. Cecelja, F. (2003): Manufacturing Information and Data systems: Analysis, Design and Practice (manufacturing Engineering Series); M Penton Press, London, 2002. Chandler, A.D. (2000): A Nation Transformed by Information: How Information Has Shaped the United States from Colonial Times to the Present, Oxford University Press, 2000. Chandler, A.D. (2004): Scale and Scope: The Dynamics of Industrial Capitalism, Belknap Press, 2004. Cortada, J.W. (2003): The Digital Hand: How Computers Changed the Work of American Manufacturing, Transportation, and Retail Industries, Oxford University Press, 2003. Gronau, N. (1993): Computer-supported workplace for the production manager – a tool for preparing strategic decisions, Computer Integrated Manufacturing Systems, Vol. 6, Nr 3, August 1993. Groover, M.P. (2001): Fundamentals of Modern Manufacturing: Materials, Processes, and Systems, 2nd Ed., Wiley, 2001. Gurbaxani, V., Whang, S. (1991): The impact of information systems on organizations and markets, Communications of the ACM, Volume 34 , Issue 1, January 1991, pp: 59–73. Harrington, J. (1979): Computer Integrated Manufacturing, Krieger Pub, 1979. Hitomi, K. (1996): Manufacturing Systems Engineering: A Unified Approach to Manufacturing Technology, Production Management, and Industrial Economics; Taylor & Francis, 1996. Kotha, S. (1996): From mass production to mass customization: the case of the national bicycle company of Japan, European Management Journal, vol.14, n. 5, 1996, pp.442–450. Marx, K. (1867): Band I: Der Produktionsprocess des Kapitals, Verlag von Otto Meissner, Hamburg 1867 (in German). Montgomery, J. C., Levine, O. (1996): The Transition to Agile Manufacturing: Staying Flexible for Competitive Advantage, Irwin Professional Publishing, 1996. Olsen, B., Cabadas, J. (2002): American Auto Factory (Automotive History and Personalities), Motorbooks, 2002. Development of Information Systems in Manufacturing 207 Onyemelukwe, C. C. (2004): Science of economic development and growth: The Theory of factor proportions; B&T, 2004. Parsons, T. (1967): Sociological Theory and Modern Society, New York, 1967. Piller, F. (2004): Mass customization: Reflections on the state of the concept. International journal of flexible manufacturing systems, Vol.16, nr 4, 2004, pp. 313–334. Joseph, B., Pine, I. (1993): Mass Customization: The New Frontier in Business Competition, Boston, Harvard Business School Press, 1993. Pitt, L.F., Watson, R.T., Kavan, C. B. (1995): Service Quality: A Measure of Information Systems Effectiveness, MIS Quarterly, Vol. 19, No. 2 (Jun., 1995), pp. 173–187. Poirier, C.C., McCollum, D. (2006): RFID Strategic Implementation and ROI: A Practical Roadmap to Success, Ross Publishing, 2006. Ránky, P.G. (1986): Computer Integrated Manufacturing; Prentice Hall International, 1986. Raouf, A., Ben-Daya, M. (1995): Flexible Manufacturing Systems: Recent Developments (Manufacturing Research and Technology), Elsevier Science, 1995. Schuster, E.W., Allen, S.J., Brock, D.L. (2007): Global RFID: The Value of the EPCglobal Network for Supply Chain Management, Springer; 1st Ed., 2007. Taylor, F. (2003): The Principles of Scientific Management, 1911, Routledge, 2003. Womack, J.P., Jones, D.T., Roos, D. (1991): The Machine That Changed the World: The Story of Lean Production, Harper Perennial, Reprint edition, 1991. Wu, B. (1994): Manufacturing Systems Design and Analysis, Springer, 1st Ed., 1994. Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung in der Logistik Markus Mathieu, Klaus Breuer 1 Ausgangslage und Zielsetzung Während sowohl in der wissenschaftlichen Diskussion als auch in der betrieblichen Praxis Probleme bei der Einführung von ERP-Systemen umfassend diskutiert werden, gibt es vergleichsweise wenige Ansätze, die sich mit der Effizienz der Nutzung von ERPSystemen nach der Implementierung befassen (Dery, Hall & Wailes, 2006, S. 230). Mohr (2009, S. 1) stellt in diesem Zusammenhang fest, dass die Anwender oftmals nicht in der Lage sind, mit der Software zufriedenstellend zu arbeiten. Mitarbeiter sehen keinen persönlichen Mehrwert in der Anwendung des Systems und nutzen nur diejenigen Softwarekomponenten, mit denen sie umgehen können (vgl. Hötzel, 2005, S. 12). Aus diesem Grund werden in der Praxis hohe Beträge für Qualifizierungsmaßnahmen ausgegeben. Solche Maßnahmen gelten unstrittig als kritischer Erfolgsfaktor für die effektive und effiziente Nutzung von ERP-Systemen (Umble, Haft & Umble, 2003, S. 246). Obgleich die Relevanz von ERP-Weiterbildungsmaßnahmen in der Literatur ausführlich dokumentiert ist, lassen sich für ihre Gestaltung nur unzureichend Empfehlungen aussprechen, da bisher wenige Erfahrungen für dieses Teilgebiet betrieblicher Weiterbildung dokumentiert sind (Mohr, 2009, S. 4). Das Forschungs- und Entwicklungsprojekt „Kompetenzmanagement in der Logistik: Analyse, Entwicklung und Evaluation“ setzt sich die Ausgestaltung eines evidenzbasierten Kompetenzmanagement-Ansatzes für das ERP-gestützte Aufgabenfeld der dispositiven Auftragsabwicklung zum Ziel. Das betrachtete Aufgabenfeld beschreibt die Planung, Steuerung und Kontrolle der Prozesse zur Leistungserstellung und umfasst neben der Auftragsbearbeitung die Produktionsplanung und -steuerung sowie die Beschaffung (Straube, 2004, S. 155). Die Umsetzung des Vorhabens erfolgt in Kooperation mit einem weltweit agierenden Zulieferer der Automobilindustrie. Die Orientierung auf ein einzelnes Unternehmen ist dadurch begründet, dass Kompetenzmanagement unternehmensspezifisch auszurichten ist (Nienaber, 2007, S. 45). Die Aufarbeitung der einschlägigen Literatur zum Thema Kompetenzmanagement zeigt, dass der Fokus bisheriger Konzepte hauptsächlich auf zwei unterschiedlichen Forschungsfeldern liegt (Lamberty, 2002, S. 369). Zum einen wird Kompetenzmanagement aus der Perspektive der Kognitionswissenschaft, insbesondere der Psychologie und Soziologie, W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_16, © Springer Fachmedien Wiesbaden 2013 210 Markus Mathieu, Klaus Breuer betrachtet. Hier stehen vor allem die individuellen Kompetenzen im Vordergrund. Zum anderen wird Kompetenzmanagement als Disziplin der Organisationswissenschaften, insbesondere der Organisationsentwicklung, strategischen Unternehmensführung und Betriebswirtschaftslehre, verstanden. Dieser Ansatz betrachtet vor allem den strategischen Aufbau und die Aggregation der Kompetenzen sowie deren Verteilung und Prozessausrichtung (North & Reinhardt, 2005, S. 17-18). North und Reinhardt (2005) berücksichtigen in einem praxisorientierten Ansatz sowohl die mitarbeiterbezogene als auch die unternehmensbezogene Sicht (Schröder, 2007, S. 53). Sie definieren Kompetenzmanagement als ein Kernelement wissensorientierter Unternehmensführung, das die Aufgabe hat, „Kompetenzen zu beschreiben, transparent zu machen sowie den Transfer, die Nutzung und Entwicklung der Kompetenzen, orientiert an den persönlichen Zielen des Mitarbeiters sowie den Zielen der Unternehmung, sicherzustellen“ (North & Reinhardt, 2005, S. 16). In Anlehnung an dieses Verständnis werden in diesem Projekt die folgenden drei Bestandteile von Kompetenzmanagement aufgegriffen: • Konzeption arbeitsplatzbezogener Anforderungsprofile • Operationalisierung arbeitsplatzspezifischer Kompetenzen • Zielgerichtete betriebliche Weiterbildung Die drei Facetten evidenzbasierten Kompetenzmanagements werden im Folgenden dargestellt. 2 Bestandteile evidenzbasierten Kompetenzmanagements 2.1 Konzeption arbeitsplatzbezogener Anforderungsprofile Die Konzeption arbeitsplatzbezogener Anforderungsprofile erfordert eine detaillierte Analyse des betrachteten Handlungsfelds. Dafür wurden im Rahmen des Vorhabens zunächst auf der Makroebene funktionale Rollen der intraorganisationalen Supply Chain definiert, um dadurch die Aufgabenfelder der Domäne strukturieren zu können. Funktionale Rollen bündeln nach Jahnke (2006, S. 65ff.) ähnliche Tätigkeiten in einem Unternehmen und können per Vertrag oder formalem Auftrag erworben werden. Die Rollen wurden in Kooperation mit vier Fachexperten des Projektpartners definiert und den Prozessen der intraorganisationalen Supply Chain zugeordnet (vgl. Abbildung 1). Als Referenzmodell dient das Supply Chain Operations Reference- Modell (SCOR-Modell), welches Prozesse systematisch und branchenübergreifend beschreibt. Es unterscheidet in die fünf Basisprozesse der Planung (Plan), Beschaffung (Source), Herstellung (Make), Lieferung (Deliver) und Rücklieferung (Return) (Bolstorff, Rosenbaum & Poluha, 2007, S. 134). Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung 211 Plan Supply Chain Design Employee Source Packaging Engineer Make Material Planner Ramp-up/ Phase out Logistics Logistics Controller Deliver Customer Logistics Employee Production Scheduler Material Handler Receiving Packaging & Dispatch Employee Warehouse Employee Shipping & Distribution Employee Packaging Handling Employee Customs & Foreign Trade Employee Return Abbildung 1: Return Rollen innerhalb der Supply Chain Wir konzentrieren uns im Projekt auf die dispositive Auftragsabwicklung und damit auf die Prozesse der Auftragsbearbeitung, Produktionsplanung und -steuerung sowie Beschaffung. Der Prozess der Auftragsbearbeitung beginnt mit dem Eingang des Kundenauftrags und umfasst die Überprüfung und Anpassung der Auftragsdaten (Straube, 2004, S. 155157). Die Auftragsbearbeitung ist dem Basisprozess Deliver zuzuordnen und kann der Rolle des Kundenlogistikers (Customer Logistics Employee) zugeteilt werden. Diese Rolle ist nach Definition der Fachexperten dafür verantwortlich, die eingehenden Bestellungen der Kunden auf Plausibilität zu überprüfen und den Informations- und Materialfluss zum Kunden zu gewährleisten. Dabei sind die Kundenwünsche unter Beachtung von kostenoptimiertem Ressourceneinsatz umzusetzen. Der zweite zu betrachtende Prozess der Produktionsplanung und -steuerung besteht darin, die zu produzierenden Mengen im Planungszeitraum unter Berücksichtigung der verfügbaren Kapazität festzulegen und die dafür benötigten Mengen an Vor- und Zwischenprodukten zu bestimmen (Kurbel, 2005, S. 7). Dieser Prozess wird der Rolle des Produktionsplaners (Production Scheduler) zugeordnet, welche nach dem Verständnis der Experten die Planung, Sicherstellung und Kontrolle einer effektiven und effizienten Produktion unter Berücksichtigung der mit den Kunden vereinbarten 212 Markus Mathieu, Klaus Breuer Lieferzeitpunkte umfasst. Die Beschaffung der für die Produktion notwendigen Roh-, Hilfsund Betriebsstoffe liegt im Aufgabenbereich des Materialplaners (Material Planner), welcher die benötigten Materialien in der richtigen Menge zum richtigen Zeitpunkt und zum richtigen Ort in gewünschter Qualität unter Berücksichtigung optimaler Bestandsmengen zu beschaffen hat. Im Anschluss an die Definition der funktionalen Rollen auf Makroebene folgte die Erstellung arbeitsplatzbezogener Rollenprofile für die Rollen des Kundenlogistikers, des Produktionsplaners und des Materialplaners. Dazu wurde eine tätigkeitsspezifische Arbeitsprozessanalyse durchgeführt, die sich an der von Knutzen und Hägele (2002, S. 116) entwickelten Arbeitsprozessmatrix orientiert. Im Gegensatz zur bestehenden Methodik wird der Arbeitsprozess ereignisgesteuert abgebildet, so dass alternative Abläufe und Rückschleifen erkennbar sind. Die Analyse der spezifischen Prozesse erfolgte durch leitfadengestützte Experteninterviews mit vier Fachexperten und zwei leitenden Angestellten an zwei verschiedenen Produktionsstandorten des Automobilzulieferers. Zu Beginn des Interviews wurden zunächst die Prozessschritte der dispositiven Auftragsabwicklung erfragt und anschließend die damit verbundenen Tätigkeiten je Teilschritt dokumentiert. I. Basis-Informationen Name der Rolle Funktionsbereich Automotive Process Map Geschäftsprozess II. Position Zweck (Hauptaufgabe) Bezugsgröße (messbare Indikatoren der Rolle) Interne/Externe Kontakte III. Verantwortungsbereiche/Aufgaben Detaillierte Beschreibung der Tätigkeiten IV. Erforderliches Wissen Prozessspezifisches Wissen Technisches Wissen Software-Kenntnisse Fremdsprachenkenntnisse Abbildung 2: Arbeitsplatzbezogenes Anforderungsprofil In einem weiteren Schritt erfolgte die Spezifikation der Tätigkeiten, indem die relevanten Funktionalitäten des zu nutzenden ERP-Systems, Kommunikationsschnittstellen sowie notwendige Voraussetzungen zur Durchführung der Tätigkeit erfasst wurden. Auf Grundlage der Ergebnisse der tätigkeitsspezifischen Arbeitsprozessanalyse wurden arbeitsplatzbe- Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung 213 zogene Anforderungsprofile für die am Planungsprozess beteiligten Rollen erstellt. Abbildung 2 stellt die systematische Struktur der Anforderungsprofile dar. 2.2 Operationalisierung arbeitsplatzspezifischer Kompetenzen Kompetenzen bezeichnen innere Leistungs- und Lernvoraussetzungen einer Person, die sich der direkten Beobachtung und Überprüfung entziehen (Erpenbeck & Rosenstiel, 2007, S. XVIII). Sie stellen ein hypothetisches Konstrukt dar, welches nur indirekt über Indikatoren abgebildet und somit messbar gemacht werden kann (Korossy, 1996, S. 285). Nach Erpenbeck und Rosenstiel (2007, S. XXVII) bestehen zwei kontroverse Positionen, zwischen denen sich die Ansätze zur Erfassung von Kompetenzen bewegen. Auf der einen Seite wird methodologisch nach objektiven Messzugängen gesucht, die eine Kompetenzbeobachtung von außen realisieren und von subjektiven Urteilen unabhängig sind (Marcus & Schuler, 2006, S. 442). Dazu muss die Performanz, als Indikator der beruflichen Handlungskompetenz, anhand von objektiven Maßstäben erfasst und daraus auf die Kompetenzausprägung geschlossen werden (Muellerbuchhof, 2007, S. 50). Unter Performanz werden alle Prozesse oder Resultate von Prozessen subsumiert, die als Realisation von Kompetenz gelten können. Der Zusammenhang zwischen Kompetenz und Performanz besteht darin, dass Kompetenz das Insgesamt aller Verhaltensmöglichkeiten und das dazu notwendige Wissen umfasst, die Performanz dagegen nur bestimmte situations- bzw. anforderungsbezogene Ausschnitte aus der Gesamtkompetenz realisiert (Fischer & Mandl, 1983, S. 266267). Auf der anderen Seite steht die Überzeugung, dass eine objektive Erfassung von Kompetenzen prinzipiell nicht möglich ist. Demzufolge wird nach Messzugängen gesucht, in dessen Rahmen Performanz als Realisation von Kompetenz subjektiv durch Selbst- oder Fremdbeurteilung erfasst wird (Erpenbeck & Rosenstiel, 2007, S. XXVII). Bei der Selbstbeurteilung ist der Proband aufgefordert, die Qualitäten seines eigenen Handelns zu beurteilen. Es wird die Ansicht vertreten, dass die betreffende Person selbst am besten Auskunft über ihre Befähigungen geben kann (Kanning, 2004, S. 95). Neben der Selbstbeurteilung lässt sich Kompetenz über die unstrukturierte oder auch strukturierte Fremdbeurteilung operationalisieren. Dafür kommen Beurteilungen durch Vorgesetzte, Kollegen, unterstellte Mitarbeiter oder unternehmensexterne Beurteiler (bspw. Kunden) in Betracht (Marcus & Schuler, 2006, S. 443-444). Im Rahmen des Projekts wird die tätigkeitsspezifische Performanz1 (Task Performance) anhand objektiver Leistungskriterien abgebildet. Auf eine subjektive Einschätzung wird verzichtet, um Fehler wie das Phänomen des sozial erwünschten Antwortverhaltens, Zustimmungstendenzen oder Verzerrungen der eigenen Wahrnehmung auszuschließen. Tätigkeitsspezifische Performanz wird in Anlehnung an Trapmann (2008, S. 74) als die Bewältigung von Tätigkeiten verstanden, die „zum formalen Gegenstand der Arbeit gehören, direkt ergebnisbezogen sind und jobspezifisch formuliert werden können“. In der weiteren Arbeit wird davon ausgegangen, dass ein multidimensionales Erklärungsmodell tätigkeitsspezifischer Performanz vorliegt, welches neben spezifischem Arbeitsprozesswissen kognitive, metakognitive, motivationale und volitionale Komponenten umfasst. Das Arbeitsprozesswissen schließt diejenigen Kenntnisse und Fähigkeiten ein, die in einem vollständigen Ar1 Der Begriff der aufgabenbezogenen Leistung kann synonym verwendet werden. 214 Markus Mathieu, Klaus Breuer beitsprozess unmittelbare Verwendung finden (Diehl, 2000, S. 175). Ebenso wie die abhängige Variable der tätigkeitsspezifischen Performanz wird das Arbeitsprozesswissen anhand objektiver Leistungskriterien erfasst. Für die Operationalisierung beider Konstrukte wurden in einem zweitägigen Expertenworkshop wissens- und handlungsorientierte Aufgaben für die Auftragsbearbeitung formuliert und der Aufgabensatz anschließend von einem unabhängigen Experten des Softwareanbieters validiert, dessen Produkt im Unternehmen implementiert ist.2 Der Experte hat Erfahrungen in der Einführung des ERP-Systems im Feld der Logistik, der zugehörigen Schulung von Mitarbeitern und der Entwicklung von Testitems für das Zertifizierungsverfahren des Herstellers. Er verfügt damit über eine nahezu ideale Kompetenz für die Begutachtung der entwickelten Rohaufgaben. Insgesamt konnten über diesen Weg 28 wissensorientierte und 9 handlungsorientierte Aufgaben validiert werden. Kognitive, metakognitive, motivationale und volitionale Dimensionen bilden das Konstrukt der Selbstregulation (Breuer & Brahm, 2004, S. 364). Da einzelne Facetten der Selbstregulation per Definition nur subjektiv abgebildet werden können, wird das gesamte Konstrukt über Selbsteinschätzungen erhoben. Mit Hilfe modifizierter Items des State-PostThinking Questionnaire (SPTQ) nach O’Neil und Brown (1997) wird die Dimension kognitiver Strategien erhoben. Die Faktoren Planen und Selbstkontrolle bilden zusammen das Konstrukt der Metakognition ab und werden durch Anpassung der entsprechenden Items des Trait-Self-Regulation Questionnaire (TSRQ) operationalisiert. Anstrengungsbereitschaft und Selbstwirksamkeit erfassen das Konstrukt der Motivation. Während die Dimension der Anstrengungsbereitschaft durch modifizierte Items des TSRQ erfasst wird, erfolgt die Operationalisierung der Selbstwirksamkeit tätigkeits- und computerspezifisch. Beide Faktoren werden durch überarbeitete Items des Task-Specific/Computer-Specific Questionnaire (TSE/CSE) nach Guinea und Webster (2011) erhoben. Die volitionalen Aspekte der Selbstregulation stehen in einem engen Zusammenhang mit der Dimension der Anstrengungsbereitschaft. Da die Anstrengungsbereitschaft dazu beiträgt, die Motivation aufrecht zu erhalten, um die Lösung einer gestellten Aufgabe zu gewährleisten, wird die Dimension der Volition nicht einzeln erfasst (Breuer & Brahm, 2004, S. 365). Im Rahmen eines Pretests wurde die Eignung der einzelnen Items überprüft.3 Dazu wurde die Itemschwierigkeit und die Itemtrennschärfe berechnet sowie eine Distraktorenanalyse durchgeführt. Die Ergebnisse werden im Folgenden dargestellt. Itemschwierigkeit Als Maß für die Itemschwierigkeit wird der Schwierigkeitsindex verwendet, dessen Wertebereich zwischen 0 und 1 liegt. Der gängige Richtwert für die Itemschwierigkeit liegt im 2 Die Bereiche der Produktionsplanung und -steuerung sowie der Beschaffung werden für die Operationalisierung des theoretischen Konstrukts ausgeklammert. 3 Die Durchführung des Pretests erfolgte über eine Online-Befragung an 42 Produktionsstandorten des Automobilzulieferers. Die Rücklaufquote betrug ca. 31%. Für die Interpretation der folgenden Auswertungen ist zu berücksichtigen, dass die Rücklaufquote der vom Unternehmen benannten Experten mit ca. 83% deutlich höher liegt als die Quote der restlichen Probanden (ca. 24%). Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung 215 Bereich von 0,2 bis 0,8 (Bortz & Döring, 2006, S. 219). Innerhalb dieses Bereichs liegen 2/3 der wissensorientierten und rund 4/5 der handlungsorientierten Items. Unterhalb des Grenzwertes von 0,2 liegen acht Items mit dichotomem Antwortformat, während drei Aufgaben als zu leicht zu interpretieren sind. Die durchschnittliche Itemschwierigkeit über alle Items mit dichotomem Antwortformat beträgt 0,40. Für die Items des Arbeitsprozesswissens beträgt die durchschnittliche Schwierigkeit 0,44, während die Items zur Abbildung aufgabenbezogener Leistung mit einem Schwierigkeitsindex von 0,28 im Vergleich schwieriger sind. Die Items zur Operationalisierung selbstregulierten Handelns liegen alle über dem Grenzwert von 0,2, allerdings sind fünf der insgesamt 38 Items als zu leicht zu interpretieren. Die durchschnittliche Itemschwierigkeit aller Items mit mehrstufigem Antwortformat beträgt 0,73. Die stärkste Zustimmung ist für die Items der Anstrengungsbereitschaft festzustellen, hier liegt die Itemschwierigkeit im Durchschnitt bei 0,79. Dagegen fällt die Zustimmung der Items zur Abbildung der computerspezifischen Selbstwirksamkeit mit einem Wert von 0,64 am niedrigsten aus. Itemtrennschärfe Die Trennschärfe der Aufgaben gibt an, in welchem Ausmaß ein einzelnes Item zwischen Personen mit niedriger und hoher Merkmalsausprägung trennt (vgl. Fisseni, 2004, S. 36; Wellenreuther, 2000, S. 285). Zur Berechnung wurde der Trennschärfekoeffizient verwendet, welcher den Zusammenhang einzelner Itemwerte mit dem Testwert über alle Probanden hinweg bestimmt. Der Trennschärfekoeffizient kann einen Wertebereich von -1 bis +1 annehmen (Schmidt-Atzert & Amelang, 2012, S. 119). Liegt der Wert nahe bei 1, werden dichotome Items von Probanden mit hohem Testwert gelöst bzw. von Probanden mit insgesamt niedrigem Testwert nicht gelöst. Mehrstufige Items werden bei einem Wert nahe 1 von Probanden mit einem hohen Testwert symptomatisch beantwortet bzw. von Probanden mit einem niedrigen Testwert nicht symptomatisch beantwortet. Ist die Trennschärfe eines Items nahe bei 0, kann das Item nicht zwischen Probanden mit hoher Merkmalsausprägung und Probanden mit niedriger Merkmalsausprägung differenzieren. Die in der Literatur gängige Mindestausprägung des Trennschärfekoeffizienten beträgt 0,3. Items mit einer kleineren Trennschärfe sind zu modifizieren oder ganz aus dem Test zu entfernen (Bortz & Döring, 2006, S. 220). Die durchschnittliche Trennschärfe der wissensorientierten Items beträgt 0,446. Dagegen liegt der durchschnittliche Trennschärfekoeffizient der handlungsorientierten Items nur bei 0,23. Insgesamt erweisen sich elf dichotome Items aufgrund einer zu geringen Trennschärfe als kritisch und müssen vor Konzeption der Testendform überarbeitet werden. Die Items der Selbstregulation erreichen alle das Minimalerfordernis eines Trennschärfekoeffizienten von 0,3. Die Trennschärfe der Items zur Operationalisierung kognitiver Prozesse liegt in einem Wertebereich von 0,372 bis 0,655. Für die Dimension Planen liegt der Bereich zwischen 0,405 und 0,713, für die Dimension Selbstkontrolle zwischen 0,402 und 0,701, für die Dimension Anstrengungsbereitschaft zwischen 0,521 und 0,787 sowie für die Dimensionen der tätigkeitsspezifischen und computerspezifischen Selbstwirksamkeit zwischen 0,559 und 0,807 bzw. 0,687 und 0,847. 216 Markus Mathieu, Klaus Breuer Distraktorenanalyse Neben der Itemschwierigkeit und Trennschärfe wurden zudem die Antwortalternativen der Mehrfachwahlaufgaben analysiert. Dazu ist zum einen die Trennschärfe aller Antwortalternativen zu analysieren und zum anderen die Häufigkeitsverteilung der Falschantworten zu ermitteln (Schmidt-Atzert & Amelang, 2012, S. 124). Für die Berechnung des Trennschärfekoeffizienten ist zunächst für jede Antwortmöglichkeit eine Indikatorvariable zu bilden. Diese wird mit dem Wert 1 kodiert, sofern der Proband die Antwortalternative gewählt hat. Sofern die Antwortmöglichkeit nicht gewählt wird, ist die Indikatorvariable mit dem Wert 0 zu kodieren (Möltner, Schellberg & Jünger, 2006, S. 7). Die punktbiseriale Korrelation der Indikatorvariablen mit dem Gesamttestwert ergibt dann den Trennschärfekoeffizienten einer Antwortalternative, welcher für alle richtigen und falschen Antwortalternativen zu berechnen ist (vgl. Glug, 2009, S. 173; Schmidt-Atzert & Amelang, 2012, S. 124). Der Trennschärfekoeffizient der richtigen Antwortalternativen muss nach Glug (2009, S. 173) einen positiven Wert annehmen, die Wahl der richtigen Antwortalternative also durch die im Durchschnitt fähigsten Testpersonen erfolgen. Dagegen sollten die Distraktoren nach Lienert und Raatz (1994, S. 125) natürlich negative oder null-nahe Trennschärfekoeffizienten aufweisen, also von Probanden mit einem niedrigen Testergebnis häufiger gewählt werden als von Probanden mit einem hohen Gesamttestwert. Die richtigen Antwortalternativen der wissens- und handlungsorientierten Aufgaben weisen alle eine positive Trennschärfe auf und müssen folglich nicht überarbeitet müssen. Gleiches gilt für alle Falschantworten mit negativem Trennschärfekoeffizienten. Dieses Kriterium wird von 113 der insgesamt 127 Distraktoren erfüllt. Neben der Berechnung der Trennschärfe aller Antwortalternativen wurde die Häufigkeitsverteilung der Distraktoren analysiert. Im Idealfall sollten die Distraktoren denselben Schwierigkeitsgrad aufweisen, also gleich häufig gewählt werden (Glug, 2009, S. 173). Die Gleichverteilung lässt sich durch ein von Michelsen und Müller (1988, S. 121ff.) entwickeltes Verfahren überprüfen. Dazu sind vier kritische Grenzen zu ermitteln, mit deren Hilfe die Beurteilung der Distraktorenhäufigkeit einzelner Falschantworten möglich wird (Lienert & Raatz, 1994, S. 125). Es zeigt sich, dass 48 Distraktoren die Voraussetzung der Gleichverteilung erfüllen. 14 Falschantworten sind möglicherweise gleichverteilt, wobei für 11 Distraktoren eine Unterbesetzung und für 3 Distraktoren eine Überbesetzung nicht ausgeschlossen werden kann. Für insgesamt 28 Falschantworten ist eine Gleichverteilung auszuschließen. Diese sind vor Durchführung der Hauptuntersuchung zu überarbeiten oder zu entfernen. Möglicherweise gleichverteilte Distraktoren werden dagegen nur dann einer Revision unterzogen, wenn die Itemtrennschärfe der entsprechenden Aufgabe unbefriedigend ist. Liegt eine gute oder zumindest befriedigende Itemtrennschärfe vor, können die Distraktoren trotz kleinerer Mängel beibehalten werden (Lienert & Raatz, 1994, S. 104). Basierend auf den Ergebnissen der Item- und Distraktorenanalyse wurden die Aufgaben des Messinstruments im Rahmen eines weiteren Expertenworkshops überarbeitet. Danach kann das Vorliegen eines testtheoretisch hinreichend abgesicherten Instrumentes für die Diagnostik der tätigkeitsspezifischen Kompetenzen unterstellt werden. Die Endversion des Tests konnte in der nachfolgenden Hauptuntersuchung eingesetzt werden. Die neu gewonnenen Daten werden herangezogen, um die Objektivität, Reliabilität und Validität des Messinstruments abschließend zu überprüfen. Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung 217 2.3 Zielgerichtete Weiterbildung in der operativen Logistikplanung Berufliche (Weiterbildungs-) Curricula enthalten Inhalte und Ziele, die für einen bestimmten Bereich der beruflichen (Weiter-) Bildung als erforderlich erachtet und entsprechend in Berufsbildungsprozessen vermittelt werden sollen (Clement, 2001, S. 9). Die thematische Ausgestaltung der Lehrpläne erfolgt auf der Grundlage von Konzeptionierungsprinzipien, die sich nach Reetz und Seyd (2006, S. 228) in das Wissenschaftsprinzip, Situationsprinzip und das Persönlichkeitsprinzip einteilen lassen. Nach dem Wissenschaftsprinzip erfolgt die Auswahl, Anordnung und Sequenzierung der Inhalte durch eine Orientierung an den jeweiligen Fachwissenschaften. Im Gegensatz dazu zielt das Situationsprinzip auf eine Verankerung der Kompetenzentwicklung in authentischen Situationen ab. Es wird beabsichtigt, die Lernenden mit realen bzw. realitätsnahen Herausforderungen zu konfrontieren (Gebbe & Kremer, 2008, o. S.). Ein nach dem Persönlichkeitsprinzip konzipierter Lehrplan reguliert die curriculare Struktur im Hinblick auf die Bedürfnisse und Entwicklungsmöglichkeiten der Lernenden (Reetz & Seyd, 2006, S. 243). Im Unterschied zum Wissenschafts- und Situationsprinzip ist das Persönlichkeitsprinzip nicht ausschlaggebend für die explizite Auswahl und Begründung der Inhalte und Ziele (Rauner, 1999, S. 427-428). Im Rahmen des Forschungs- und Entwicklungsprojekts erfolgt die Strukturierung des Lehrplans nach dem Situationsprinzip, um dadurch die Auseinandersetzung mit berufstypischen Situationen zu fördern. Lipsmeier (2000, S. 63-64) unterscheidet dieses Prinzip in die fünf Varianten Berufsprinzip, Lebensweltprinzip, Handlungsorientierung, Gestaltungsorientierung und Arbeitsprozessorientierung, wobei in der vorliegenden Arbeit das Prinzip der Arbeitsprozessorientierung Anwendung findet. Demnach wird die Idee verfolgt, den Arbeitsplatz und die dort zu bewältigenden Arbeitsprozesse in Weiterbildungsmaßnahmen zu integrieren, um so den aktuellen und sich verändernden Qualifikationsanforderungen besser gerecht zu werden (Dehnbostel, 2002, S. 345). Diesem Ansatz folgend konnten Ziele und Inhalte rollenspezifischer Lehrpläne für das Handlungsfeld der dispositiven Auftragsabwicklung auf Grundlage der Ergebnisse der in Kapitel 2.1 beschriebenen tätigkeitsspezifischen Arbeitsprozessanalyse erarbeitet werden. 3 Zusammenfassung und Perspektive Im Rahmen des Vorhabens „Kompetenzmanagement in der Logistik: Analyse, Entwicklung und Evaluation“ wurden in einem ersten Schritt die Handlungsfelder des Kundenlogistikers, des Produktionsplaners und des Materialplaners analysiert. Zu diesem Zweck wurden zunächst die Prozesse der dispositiven Auftragsabwicklung erfasst und die relevanten Tätigkeiten je Teilprozessschritt dokumentiert. Im Anschluss erfolgte die differenzierte Beschreibung der einzelnen Tätigkeiten. Damit liegt für das Handlungsfeld der dispositiven Auftragsabwicklung eine tätigkeitsspezifische Prozessbeschreibung vor, auf deren Grundlage in einem zweiten Schritt rollenbezogene Anforderungsprofile und entsprechende Weiterbildungs-Curricula entwickelt werden konnten. Die Ergebnisse der Arbeitsprozessanalyse wurden zudem für die Erarbeitung eines objektiven Testverfahrens herangezogen, welches tätigkeitsspezifisches Leistungsvermögen (Performanz) und Arbeitsprozesswissen abbildet. Dazu wurden in einem zweitägigen Expertenworkshop wissens- und handlungsorientierte Aufgaben formuliert und der Aufgabensatz anschließend von einem unabhängigen Experten validiert. Die Items des Leistungstests 218 Markus Mathieu, Klaus Breuer beschränken sich zunächst auf den Kontext der Auftragsbearbeitung, wobei darauf geachtet wurde, dass keine Aspekte des Handlungsfelds unberücksichtigt bleiben oder bestimmte Aspekte in den Testaufgaben überrepräsentiert sind. Im Rahmen einer Voruntersuchung wurde das entwickelte Messinstrument angewendet, der daraus resultierende Datensatz ermöglicht die Überprüfung der Eignung einzelner Aufgaben. Als Kennwerte der Itemanalyse dienen der Schwierigkeitsindex und Trennschärfekoeffizient der Aufgaben sowie die Güte der Distraktoren. Auf Basis der Analyseergebnisse erfolgte die Überarbeitung aller Aufgaben mit unzureichenden Kennwerten, so dass nur geeignete Aufgaben in die Testendform übernommen werden. Der überarbeitete Fragebogen ist im Rahmen einer weiteren Befragung eingesetzt worden. Da die Befragung bei einem größeren Personenkreis durchgeführt worden ist, können ca. 200 bearbeitete Fragebögen zur Analyse herangezogen werden. Dieser Datensatz wird zu Grunde gelegt, um zunächst die Gütemerkmale des Instruments zu verifizieren. Darüber hinaus werden die Zusammenhänge zwischen der abhängigen Variable des tätigkeitsspezifischen Leistungsvermögens (Performanz) und den unabhängigen Variablen der Selbstregulation sowie des Arbeitsprozesswissens analysiert. Auf der Grundlage dieser Ergebnisse können Aussagen zu den individuellen Handlungsund Lernvoraussetzungen der einbezogenen Mitarbeiter getroffen werden. Das bildet die Grundlage für die Ableitung von Aussagen zum Weiterbildungsbedarf der Mitarbeiter. Literatur Bolstorff, P., Rosenbaum, R. & Poluha, R. (2007). Spitzenleistungen im Supply-Chain-Management. Ein Praxishandbuch zur Optimierung mit SCOR. Berlin: Springer. Bortz, J. & Döring, N. (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler (4., überarb. Aufl.). Berlin: Springer. Breuer, K. & Brahm, T. (2004). Die Abbildung von Befähigungen zur Selbstregulation. In M. Wosnitza, A. Frey & R. S. Jäger (Hrsg.), Lernprozess, Lernumgebung und Lerndiagnostik. Wissenschaftliche Beiträge zum Lernen im 21. Jahrhundert (S. 363–374). Landau: VEP. Clement, U. (2001). Systematische Erkenntnis und praktische Erfahrung als curriculare Prinzipien beruflicher Bildung. Gefunden am 09.05.2012 unter http://kobra.bibliothek.uni-kassel.de/bitstream/ urn:nbn:de:hebis:34-2010021732016/1/ClementHabil.pdf Dehnbostel, P. (2002). Dezentrales Lernen als vernetztes und reflexives Lernen im Prozess der Arbeit. In M. Fischer & F. Rauner (Hrsg.), Lernfeld: Arbeitsprozess – Ein Studienbuch zur Kompetenzentwicklung von Fachkräften in gewerblich-technischen Aufgabenbereichen (S. 341–354). Baden-Baden: Nomos. Dery, K., Hall, R. & Wailes, N. (2006). ERPs as ‘technologies-in-practice’: social construction, materiality and the role of organisational factors. New Technology, Work and Employment, 21(3), 229–241. Diehl, T. (2000). Berufliches Arbeitsprozesswissen der staatlich geprüften Techniker – Ergebnisse einer empirischen Untersuchung in der Fachrichtung Elektrotechnik. In J.-P. Pahl, F. Rauner & G. Spöttl (Hrsg.), Berufliches Arbeitsprozesswissen – Ein Forschungsgegenstand der Berufsfeldwissenschaften (S. 175–185). Baden-Baden: Nomos. Erpenbeck, J. & Rosenstiel, L. (2007). Einführung. In J. Erpenbeck, & L. Rosenstiel (Hrsg.), Handbuch Kompetenzmessung – Erkennen, verstehen und bewerten von Kompetenzen in der betrieblichen, pädagogischen und psychologischen Praxis (2., überarb. und erw. Aufl., S. XVII–XLVI). Stuttgart: SchäfferPoeschel. Fischer, P. & Mandl, H. (1983). Förderung von Lernkompetenz und Lernregulation. Zentrale Komponenten der Steuerung und Regulation von Lernprozessen. In L. Kötter & H. Mandel (Hrsg.), Kognitive Prozesse Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung 219 und Unterricht – Jahrbuch für Empirische Erziehungswissenschaft 1983 (S. 263–317). Düsseldorf: Schwann. Fisseni, H.-J. (2004). Lehrbuch der psychologischen Diagnostik. Mit Hinweisen zur Intervention (3., überarb. und erw. Aufl.). Göttingen: Hogrefe. Gebbe, M. & Kremer, H. (2008). Kompetenzentwicklung. Gefunden am 11.05.2012 unter http://groups.unipaderborn.de/kool/ iqhessen/printable/handlung/handlungkompetenz/index.html Glug, I. (2009). Entwicklung und Validierung eines Multiple-Choice-Tests zur Erfassung prozessbezogener naturwissenschaftlicher Grundbildung. Kiel: IPN. Guinea, A. & Webster, J. (2011). Are we talking about the task or the computer? An examination of the associated domains of task-specific and computer self-efficacies. Computers in Human Behaviour, 27(2), 978–987. Hötzel, B. (2005). Change Management within ERP Projects. Gefunden am 06.01.2012 unter http:// www.competence-site.de/project-management-office-pmo/Change-Management-within-ERP-Projects Jahnke, I. (2006). Dynamik sozialer Rollen beim Wissensmanagement: soziotechnische Anforderungen an Communities und Organisationen. Wiesbaden: Dt. Univ.-Verlag. Kanning, U. (2004). Standards der Personaldiagnostik. Berlin: Beuth Verlag. Knutzen, S. & Hägele, T. (2002). Arbeitsorientierte Entwicklung schulischer Lernsituationen. lernen & lehren, 17(67), 115–118. Korossy, K. (1996). Kompetenz und Performanz beim Lösen von Geometrie-Aufgaben. Zeitschrift für experimentelle Psychologie, 43(2), 279–318. Kurbel, K. (2005). Produktionsplanung und -steuerung im Enterprise Resource Planning und Supply Chain Management (6. Aufl.). München: Oldenbourg. Lamberty, T. (2002). Personalentwicklung im Rahmen von Kompetenzmanagement – Ein Praxisbeispiel aus der Siemens AG. In K. Bellmann, J. Freiling, P. Hammann & U. Mildenberger (Hrsg.), Aktionsfelder des Kompetenzmanagements – Ergebnisse des II. Symposiums Strategisches Kompetenz-Management (S. 365–382). Wiesbaden: Dt. Univ.-Verlag. Lienert, A. & Raatz, U. (1994). Testaufbau und Testanalyse (5., völlig neubearb. und erw. Aufl.). Weinheim: Beltz. Lipsmeier, A. (2000). Systematisierungsprinzipien für berufliche Curricula. In A. Lipsmeier & G. Pätzold (Hrsg.), Lernfeldorientierung in Theorie und Praxis. Beiheft 15 zur ZBW (S. 54–71). Stuttgart: Steiner. Marcus, B. & Schuler, H. (2006). Leistungsbeurteilung. In H. Schuler (Hrsg.), Lehrbuch der Personalpsychologie (2., überarb. und erw. Aufl., S.433–469). Göttingen: Hogrefe. Michelsen, U. & Müller, J. (1988). Eingrenzung der Häufigkeit einzelner Ereignisse beim Test auf Gleichverteilung. Ein Instrument zur Distraktorenanalyse. Diagnostica, 34(2), 119–135. Möltner, A., Schellberg, D. & Jünger, J. (2006). Grundlegende quantitative Analysen medizinischer Prüfungen. GMS Zeitschrift für Medizinische Ausbildung, 23(3), 1–11. Mohr, M. (2009). Qualifizierungsstrategien für betriebswirtschaftliche Unternehmenssoftware. Eine empirische Untersuchung bei deutschen Unternehmen. Wiesbaden: Gabler. Muellerbuchhof, R. (2007). Kompetenzmessung und Kompetenzentwicklung – Empirische Studien an technischem Fachpersonal für Instandhaltung im Hochtechnologiebereich. Frankfurt: Peter Lang GmbH. Nienaber, C. (2007). Die Bedeutung des Kompetenzmanagements für die strategische Personalarbeit. In W. Jochmann & S. Gechter (Hrsg.), Strategisches Kompetenzmanagement (S. 25–46). Heidelberg: Springer. North, K. & Reinhardt, K. (2005). Kompetenzmanagement in der Praxis – Mitarbeiterkompetenzen systematisch identifizieren, nutzen und entwickeln – Mit vielen Fallbeispielen. Wiesbaden: Gabler. 220 Markus Mathieu, Klaus Breuer O’Neil, H. & Brown, R. (1997). Differential Effects of Question Formats in Math Assessment on Metacognition and Affect. Gefunden am 14.01.2012 unter http://www.cse.ucla.edu/products/reports/tech449.pdf Rauner, F. (1999). Entwicklungslogisch strukturierte berufliche Curricula: Vom Neuling zur reflektierten Meisterschaft. Zeitschrift für Berufs- und Wirtschaftspädagogik, 95(3), 424–446. Reetz, L. & Seyd, W. (2006). Curriculare Strukturen beruflicher Bildung. In R. Arnold & A. Lipsmeier (Hrsg.), Handbuch der Berufsbildung (2. überarb. und aktual. Aufl., S. 227–259). Wiesbaden: VS Verlag. Schmidt-Atzert, L. & Amelang, M. (2012). Psychologische Diagnostik (5., vollst. überarb. und erw. Aufl.). Berlin: Springer. Schröder, M. (2007). IT-gestützte Kompetenzanalyse als Voraussetzung für ein ganzheitliches Kompetenzmanagement – Eine prozessorientierte Betrachtung. Hamburg: Kovaþ. Straube, F. (2004). E-Logistik. Ganzheitliches Logistikmanagement. Heidelberg: Springer. Trapmann, S. (2008). Mehrdimensionale Studienerfolgsprognose: Die Bedeutung kognitiver, temperamentsbedingter und motivationaler Prädiktoren für verschiedene Kriterien des Studienerfolgs. Berlin: Logos. Umble, E. J., Haft, R. R. & Umble, M. M. (2003). Enterprise resource planning: Implementation procedures and critical success factors. European Journal of Operational Research, 146(2), 241–257. Wellenreuther, M. (2000). Quantitative Forschungsmethoden in der Erziehungswissenschaft: Eine Einführung. Weinheim: Juventa. Environmental Sustainability Practices in Supply Chains Case of North American High-Tech Industry Mark Morrissey, Anshuman Khare Preamble The environment is gaining greater attention as organizations increase efforts to reduce any adverse environmental impact of their operations. These efforts naturally migrate into organizations’ supply chains as much of the energy associated in producing their products is expended by external suppliers and in the need to transport components from suppliers and finished products to markets. This paper looks at what North American high-tech companies are doing within their supply chains to reduce adverse environmental impact starting with the design of products and ending with the management of suppliers. Leading off from current knowledge identified within the literature review, the research explores the use of environmental certification among organizations and their suppliers, collaborative relationships with suppliers to reduce environmental impact in product design and environmental considerations in supplier selection and qualification. The research then looks at the impact of cost or the ability to measure financial results related to environmental initiatives and whether this supports or hinders these initiatives. The environment is receiving a significant amount of attention in the press and discussions precipitated by global warming, extreme weather patterns and public awareness of how the planet is being treated. Making supply chains more environmentally friendly has gained a high level of priority due to this attention (Shukla et al., 2010). This is causing organizations to revisit conventional supply chain strategies to reassess their priorities based on sustainability through what is termed the 3P’s: “people, planet and profit” (Shukla et al., 2010; p 25) but little is being done to understand how supply chains can become environmentally sustainable while still maintaining agility and flexibility. Short product life cycles and changing market demands have forced supply chains to become more flexible through mass customization and high responsiveness (Shukla et al., 2010). Supply chain responsiveness comes from sourcing flexibility through multiple suppliers located close to manufacturing sites; value added manufacturing capabilities, and distribution channels that consider both transportation types and warehouse locations. Each decision in supply chain management is geared towards supply chain agility but it can also affect environmental sustainability factors (Shukla et al., 2010). W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_17, © Springer Fachmedien Wiesbaden 2013 222 Mark Morrissey, Anshuman Khare Companies in the high technology industry design, manufacture and distribute electronic devices, components such as semiconductors, scientific and test equipment and are among the major industries of the economy of the United States and other developed nations (Khiewnavawongsa and Schmidt, 2009). At the same time, electronics account for 8% of the global warming contribution per household and are accountable for 10 to 20% of the total impact on the environment through depletion of non-renewable resources and greenhouse emissions (Neto et al., 2010; p 4468). Alternately, the high technology industry specifically receives a positive effect from environmental sustainability as the industry involves hazardous substances and processes that require a high amount of energy consumption. It is no surprise then that high-tech companies are being pressured towards environmental sustainability through government regulation such as Restriction of Hazardous Substances Directive or RoHS which is a European directive to remove lead and other elements from electronics (Khiewnavawongsa and Schmidt, 2009); other countries such as China, Canada, Japan, South Korea and Switzerland are also proposing similar regulations. Additionally, high-tech companies tend to receive the most requests from customers to adopt ISO14000 certification for environmental management (Khiewnavawongsa and Schmidt, 2009). OPENING REMARKS The aim of the research is to build upon existing knowledge of what organizations are doing pertaining to supply chain sustainability initiatives. The literature review shows that environmental sustainability has caught the attention of supply chain executives in OEM’s and contract manufacturers in the high-tech sector which has resulted in changes to the materials used in products, supplier certification in environmental practices such as ISO14000 and in packaging which is now reusable or reduced. The research further explores how organizations are incorporating environmental sustainability into product design, how they are collaborating with suppliers and the effects on supplier selection. This research compares sustainability to prioritization to supply chain agility, flexibility and profitability. The main question, therefore, is – what is happening within OEM’s and contract manufacturers who produce electronic equipment in North America to incorporate environmental sustainability into the decisions organizations are making in supply chain strategy? The research focused specifically on product design criteria, supplier collaboration in product design and supplier certification. The researchers investigated: 1. How environmental sustainability is incorporated into product design with a focus on the entire product life cycle; 2. How environmental concerns translate into selection of suppliers and supplier collaboration in product design; and The researchers then tied this together with how the strategy allows organizations to operate more environmentally conscious supply chains while at the same time providing a positive impact to the bottom line. This can be seen as a third issue investigated. Environmental Sustainability Practices in Supply Chains 223 Literature The researchers critically assessed the literature review with the purpose of showing how the work relates to existing research on the same subject and how it builds on the current knowledge (White, 2000). The literature review is also used to identify trends or patterns in the existing research and identify the opportunity for continued research that will further develop the trends or patterns. This section provides the reader with an understanding of current research on environmental sustainability. ELEMENTS OF CHANGE IN HIGH TECH INDUSTRY The high-tech industry does not appear to be as toxin producing as other more traditional industries but this perception is flawed when one looks deeper into the materials used in electronic components and devices. For example, a typical 2gm integrated circuit component requires direct inputs from 72 grams of chemicals and secondary materials equaling “630 times that of the chip” (Evans, 2004; p. 110). Thus thinking about how organizations could incorporate sustainability into their supply chains opens a very broad subject. There are many activities organizations could undertake but with varying degrees of benefit. Research into organizational sustainability is increasing rapidly along with a number of higher education programs that focus on organizational sustainability (Pfeffer, 2010). The World Trade Organization is beginning to establish environmental goals for industry in respect of depletion of the ozone layer, gas emissions and waste reduction as discussed at the Rio, Kyoto and Johannesburg Accords (Vachon & Klassen; 2007). For example, the Kyoto Protocol established binding emission reduction targets for industrialized countries while the elimination of “Ozone Depleting Substances (ODS)” was introduced during the Montreal Protocol (Tamiotti et al., 2009; p xiv – xv). Buyers of electronics rank environmental certification, levels of heavy metals and recycled content higher in the importance of product attributes according to a 2009 study conducted by Terra Choice Environmental Marketing (2009; p. 19). A large percentage of the buyers consider cost and performance of environmental electronics the same at 36% and 48% respectively. This shows that environmental considerations are growing in sourcing decisions and as price and performance become of less a concern, environmental considerations acquire increasing say in decision making. The increasing interest in environmental impact in academic circles along with the WTO establishing goals and targets leads the researchers to believe that this will filter down to individual organizations as government and public pressure to incorporate environmental sustainability increases. There is a risk that North American high-tech companies could avoid legislative and market pressure by careful selection of their global supply chains. This would be done by moving the sourcing of less environmentally friendly products or processes to countries with less restrictive legislation or to non-industrialized countries that are not subject to WTO resolutions (Tamiotti et al; 2009; p 49). However, existing research shows that organizational supply chains are increasingly practicing environmental sustainability through the selection of components, material sourcing, packaging, distribution and recycling (Closs et al., 2011). This is working its way up-stream in the supply chains as organizations pull their suppliers into environmental sustainability practices and select them considering environmental certifications and capabilities as well as location. Just-in-Time (JIT) practices are 224 Mark Morrissey, Anshuman Khare being scaled back. For example, Advanced Micro Devices (AMD) assessed the impact associated with increased energy consumption in shipment volume and the increased environmental risk due to potential chemical spills from the additional handling associated with multiple shipments (Trowbridge, 2001). To reduce the risks, AMD has moved away from JIT deliveries of some chemicals to less frequent bulk shipments. Environmentally conscious decisions are also found in the use of reverse logistics where products are returned to the producing organization for disassembly and recycling as well as in the use of reusable containers and packaging (Sarkis et al., 2010). Reusable containers are being designed to use less space in trucks thus allowing more products to be shipped per truckload and reducing the required energy. Organizations are adopting postponement practices in order to be more responsive to market demands and push final assembly closer to the end market (Chopra & Meindl, 2010). The trade-off to postponement practices is an increase in logistics as products are shipped semi-finished to a distribution center and then to the final customer (Closs et al., 2011). The additional shipments and distribution channels consume more energy in moving products from point of manufacture to the customer. To offset this technology is being used to optimize distribution channels and minimize the number of miles trucks drive with less than full loads. This enables more products to be moved to customers while using less energy (Closs et al., 2011) as well to allow greater utilization of assets which has reduced inventories by 8-9% (Facanha & Horvath, 2005; p 28). PRODUCT DESIGN & PRODUCT LIFE CYCLE Research by Carter and Carter (1998), through their work on environmental purchasing, has found that environmental practices such as design for the environment and design for disassembly are positive for vertical integration within supply chains as organizations collaborate to achieve specific objectives and strengthen the entire supply chain. The rising cost of gold has increased the recycling efforts from electronic devices such as printed circuit boards, mobile phones and computers. This new emphasis on recovery is increasing the importance of design that facilitates recycling and allows easier capturing of gold and other precious metals at the end of a product’s life (Hageluken & Corti, 2010). Twelve percent of the world’s gold mining output is consumed within electronics as per the circa gold standard yet the ability to disassemble and recover gold and precious metals is difficult through dismantling and pre-processing stages of recovery (Hageluken & Corti; 2010) which places greater emphasis on the need for OEM’s to collaborate with their component suppliers to design products which can be easily disassembled. The increasing value of gold has driven the volume of electronics being recycled but it was legislation through the WEEE directive that initiated the process. Government agencies are passing legislation forcing organizations, specifically in the high technology sector, to become more environmentally sustainable in the products they produce which includes the design and materials used through legislation such as Restriction of the Use of Certain Hazardous Substances (RoHS) (NMO, 2011). Although this is European legislation its benefits have entered North America as organizations migrate the materials and product designs in order to be compliant, they also standardized the designs regardless of the country of sale resulting in the legislation having spillover effects into North America. Specifications pertaining to environmental performance are also being incorporated into designs as well as material selection (Vachon, 2007). It is becoming more important to understand Environmental Sustainability Practices in Supply Chains 225 how products effect the environment through the total lifecycle from purchase by the customer through to disposal whether it is by contamination of a landfill or by recycling components. An example is how printed circuit boards (PCB’s) are now being designed to be easily disassembled so the components may be reused, recycled or rerouted away from landfill sites (Sarkis et al., 2010). Organizations, in compliance to the WEEE directive, are establishing closed loop supply chains allowing customers to return products to the OEM at the end of the useful life (Neto et al., 2010). Recovery of products by OEM’s leads to the parts being used for refurbishment, re-sale or use for spare parts by maintaining an “end of life” parts supply. Design for environmental sustainability may also extend the product’s life expectancy which reduces the amount of energy involved in manufacturing and delivery relative to the product’s life span (Neto et al., 2010). Design for the environment (DfE) is increasing in importance as organizations find it helps improve their market positions (Bevilacqua et al., 2007) as customers prefer to deal with environmental conscious suppliers. DfE takes into account the impact on the environment through total life cycle of the product where the contributors are excessive energy in manufacturing, and the life expectancy of the product. Organizations are able to incorporate DfE into their products by selecting components with longer life cycle expectancy and modular design allowing for easy repair and upgrading to extend the useful life of the product. Modular design allows for organizations to easily disassemble products down to the individual components and sub-assemblies for re-integration into the supply chain as spare parts and service inventory (Bevilacqua et al., 2007). RoHS compliance supports DfE through the selection of components that reduces the likelihood of heavy metals entering landfills when products are discarded and reduce contamination during manufacturing by such practices as removing the lead from solder paste. RoHS is the European directive adopted in January 2003 that restricts the use of certain heavy metals in electronic products shipped after July 2006. Those materials include lead, mercury, cadmium and brominated flame retardants (Preuss, 2005). Products subject to RoHS legislation include household appliances, IT and telecommunications equipment, consumer products, lighting equipment, electronic tools, leisure and sporting goods, toys and automatic dispensers (Walker, 2011). Although RoHS is a European directive, through standardization, manufacturers have converted all products to be RoHS compliant regardless of country of sale thereby making products sold in other locations such as North America to be RoHS compliant. A revised version, RoHS 2, is being adopted by the European Parliament which will include medical equipment along with monitoring and control products. This version will require manufacturers to identify RoHS compliant products with a “CE” mark to ensure compliance and keep compliance records for ten years (Walker, 2011). Product design is also incorporated into supply chain management through collaborative efforts with suppliers such as Philips Electronics that works with suppliers to design products with improved environmental performance (Vachon, 2007). Organizations are realizing that design improvements which reduce the consumption of raw materials and waste creation while extending product life (Closs et al., 2011) contribute to increased product profitability. 226 Mark Morrissey, Anshuman Khare SELECTION OF SUPPLIERS AND SUPPLIER COLLABORATION IN PRODUCT DESIGN Organizations are working more closely with their suppliers and supply chain partners taking initiatives to develop environmental sustainability within supply chains. This is not happening through government regulation, however market barriers imposed by the WTO has provided some incentive (Man & Burns, 2006). The researchers investigated (a) the factors that continue to drive organizations to incorporate sustainability into supply chains and (b) whether the drive to develop sustainable supply chains influences decisions to select new suppliers. Organizations are turning more to suppliers for environmentally collaborative efforts within the supply chain (Vachon, 2007) and when selecting such suppliers it is important to ensure they are genuinely able to collaborate. Selecting suppliers that are incapable or unwilling to participate in environmentally collaborative initiatives could become barriers to an organization meeting its own sustainability targets. Barriers from suppliers come in the form of adversarial relationships, lack of information and expertise, limited capability and lack of trust. Suppliers may not have sufficient confidence in their customers to make the necessary investments for fear the business relationship may be short term. Lastly the customer may not fully understand the raw materials used in the manufacturing of a product and may be skeptical that the materials are in fact “green” (Khiewnavawongsa & Schmidt, 2009). Supplier certification and audit programs are now incorporating environmental sustainability initiatives to ensure that suppliers are able and willing to use sustainable practices and are already following them to some degree (Vachon, 2007) such as having ISO 14000 certification. Certification and auditing of suppliers helps to reduce the risk associated with having extended global supply chains as cooperation within supply chains range from long distance acquaintance style relationships to more formal partnerships and joint ventures between organizations (Man & Burns, 2006). Additionally, placing requirements on first tier suppliers for environmentally sustainable activities often works up the supply chain to second and third tier suppliers; each level requires its suppliers to meet environmental obligations (Preuss, 2005). This has provided an opportunity for organizations to incorporate environmental sustainability into Total Quality Management (TQM) programs which often involve the entire supply chain as initiatives are horizontally aligned back from the customer. Incorporation into TQM starts with an organization developing an environmental policy and mission statement (Preuss, 2005) which is used to stimulate and develop continuous improvement initiatives. Certification and compliance with sustainable practices includes knowing what materials suppliers are using in the manufacturing of products such as Advanced Micro Devices which is receiving increased requests for data pertaining to chemical content in the semiconductors they produce (Trowbridge, 2001). Unsound activities within an organization’s supply chain can adversely affect its reputation. Duo & Sarkis (2010) provide examples that include contamination of water supplies or destructive processes in manufacturing. According to Duo & Sarkis (2010), certification and audit programs help monitor the performance of suppliers and hold them accountable for their actions. Supplier selection in terms of off-shoring has traditionally been based on the reduction of costs and maximization of profit which includes traditional factors such as Environmental Sustainability Practices in Supply Chains 227 cost, quality and delivery. However, they point out that the location of suppliers’ facilities is becoming more important as environmental sustainability factors enter the decision making process. Traditionally, environmental considerations were limited to compliance with regulations and the perception that organizations are selecting off-shore suppliers who are following the local laws and regulations. This is changing as organizations become more cognizant of environmental concerns and environmental needs gain more attention through performance and practices such as sensitivity to the consumption of resources and controlling pollution during performance while practices relate to policies and procedures designed to protect the environment (Dou & Sarkis, 2010). BOTTOMLINE IMPACT Large organizations such as Hewlett Packard, IBM and Xerox are implementing environmentally sustainable or “green” supply chains (Tsai & Hung, 2009) but the challenge of translating such initiatives to the bottom line in terms of costs or profit drivers still remains. Organizations can gain positive financial benefits from adopting environmentally sustainable practices in the form of reduced waste and removing excess material from their products (Preuss, 2005). Price Waterhouse Coopers found that 70% of CEO’s they surveyed believe corporate social responsibility to be important to profitability (Panayioutou et al., 2009) but quantifying the profitability of sustainability practices remains difficult, making it challenging for organizations to communicate the benefits of social sustainability to their stakeholders. Activity based costing is a way to measure the benefits of environmental sustainability by reducing raw materials and waste (Tsai & Hung, 2009) within the product design. It cannot measure the benefits of collaboration with suppliers and investing in suppliers for joint sustainable initiatives along with organizational reputation. Nonetheless, the savings are possible as Bristol–Myers Squibb realized $8 Million in annual savings and an additional one time savings of $9 Million through the benefits from implementing environmentally sustainable practices with a group of suppliers in Puerto Rico (Closs et al., 2011; p 110). SUMMARY The literature review identifies several areas of knowledge where organizations are incorporating environmental sustainability practices into their supply chains such as gaining environmental certification and incorporating environmental considerations into supplier selection and management. Environmental considerations are being incorporated into product design through DfE allowing for easy disassembly of products once they are returned from customers. Product design now incorporates legislated requirements such as RoHS and the return of products from customers is in compliance with WEEE legislation. More often the useful life of products is extended through modular design allowing for the product to be upgraded at customer sites. Collaboration with suppliers is developing in maturity as organizations require their suppliers to obtain environmental certification which in turn is reflected in collaborative product design. Supplier collaboration is a means to leverage total quality management (TQM) to develop continuous improvement programs in environmental performance. The largest challenge remains the ability to measure financial per- 228 Mark Morrissey, Anshuman Khare formance relative to environmental cost benefits. Organizations believe environmental sustainability is financially beneficial but it remains difficult to quantify. Data Collection – Methodology and Approach The researchers applied a simple methodology using survey instrument that was designed to capture qualitative as well as quantitative information. The researchers then compared and contrasted the data collected from the survey with the existing literature. This method utilized multiple sources of data to develop a larger perspective in which to understand what is happening within high-tech supply chains pertaining to environmental sustainability in North America. The survey: The survey consisted of 24 questions that were split into four sections for capturing some basic company information, information related to product design, supplier selection and profitability. The survey was sent to fifteen organizations. Fourteen responded with completed surveys. Participants: The research participants consisted of representative companies within the high-tech industry who have operations in Canada, USA or Mexico or a combination of the three countries. The companies included nine original equipment manufacturers (OEM’s) who sell their own products both designed and produced by themselves or in conjunction with Contract Manufacturers. Three Contract Manufacturers (CM’s) were then included as they support OEM’s in various areas of the value chain such as design, build, distribution and also repair and service. One representative component manufacturer organization was also included as this organization represents multiple semiconductor manufacturers and supports OEM and CM customers during the design phase of new products. Additionally, one distribution company was selected who works with OEM’s and CM’s during the design phase of new products and is the distribution channel for the supply of electronic components to OEM’s and CM’s. The inclusion of the OEM’s, CM’s, a manufacturers’ representative firm and a distribution firm provides the researchers with a holistic crossreference of the high-tech industry. A total of fourteen organizations provide a good sample size to understand the current activities and initiatives pertaining to environmental sustainability. The size of the participant organizations was measured in annual revenue where six reported revenue over $500M, three reported revenue between $100M and $500M, one each reported revenue of $50M to $100M, $25M to $50M, $15M to $25M and less than $15M. The various sizes of organizations provided the researcher with information on whether organizational size plays a role in the degree of environmental consideration. One organization was not able to disclose revenue citing being a privately held organization. The number of the suppliers that participant companies reported they work with ranged from less than 50 to over 1000 with the average being approximately 400 and the majority of participants reporting in the range of 50 to 500 suppliers. One organization did not report number of suppliers citing confidentiality and the manufacturer representative does not work with suppliers. The participant organizations have operations between Canada, USA and Mexico. Six have operations solely in Canada, one has operations solely in the USA, four have opera- Environmental Sustainability Practices in Supply Chains 229 tions in Canada and the USA and three have operations in all three North American countries. This distribution between the three countries provides the researchers with information pertaining to the impact on environmental sustainability based on location. Making Sense of Data: The data received from research was used to come up with an answer to the research questions identified earlier: 1. 2. 3. How environmental sustainability is incorporated into product design with a focus on the entire product life cycle; How environmental concerns translate into selection of suppliers and supplier collaboration in product design; and How the strategy allows organizations to operate more environmentally conscious supply chains while at the same time providing a positive impact to the bottom line. The last phase of the research was to develop a maturity model. The researchers developed the maturity model based on each of the 24 questions showing the current levels of maturity ranging from “Not Commonly Adopted” through “Emerging Practice” to “Commonly Adopted and Engrained”. A percentage scale was used to illustrate the degree of how the organization had incorporated the practices. The scale ranged from zero percent for “not commonly adopted” to 100% for “commonly adopted and engrained”. The responses to these questions were averaged and are shown on the maturity scale (Figure 1). 230 Mark Morrissey, Anshuman Khare MATURITY LEVEL ACTIVITY Not commonly adopted Environmental certification Importance of environmental sustainability Environmental sustainability mission statement Incorporation into total quality management or continuous improvement programs Environmental legislation observed Legislation impact on product design Total life cycle incorporated into product design Ease of disassembly incorporated into product design Recycling or reuse of components Collaboration with suppliers to incorporate environmental sustainability into product design Partnerships with suppliers to develop environmental sustainability initiatives Suppliers hold environmental certification Environmental certification used as a differentiator or marketing tool Audit suppliers for environmental compliance Environmental compliance taken into account during supplier qualification Dis-qualification of a supplier for a breach of environmental rules or legislation Realized cost benefits related to environmental sustainability initiatives Cost impacting decision to move forward with an environmental initiative Increased supply chain or sourcing costs associated to environmental sustainability decisions Figure 1: The Maturity Model Emerging practice Commonly adopted and engrained Environmental Sustainability Practices in Supply Chains 231 Survey Findings A summary of responses received are presented below in a fashion that they address the research questions mentioned earlier. IMPORTANCE OF ENVIRONMENTAL SUSTAINABILITY All the participants in the survey are Business to Business (B2B) organizations meaning they sell to other companies rather than selling directly to the consumer. Much of the existing literature pertains to organizations that sell to the consumer where environmental consciousness is more prevalent thus increasing the pressure to be more environmentally responsible. Thus this research shows the importance of environmental sustainability to organizations not under direct consumer pressure to adopt sustainability initiatives into their operations. Environmental sustainability is important to all participants as all participants other than one ranked it high with the scores ranging between seven and ten with eight being the average. One participant ranked importance as a four and this came from the participant smallest in size based on the annual revenue under $15M. Environmental Certification: Of the fourteen participants, five reported holding environmental certification. The most common certification is ISO14001 which is a standard for environmental management and deals specifically with management systems and processes. It is a governance system that allows organizations to implement a standardized system to manage their activities and ensure compliance with environmental legislation (International Standards Organization, 2011). Two participants reported also holding ISO20000 and ISO26000 which are standards for social responsibility management that reflect seven core attributes being organization, community, human rights, consumer issues, labour practices, fair operating practices and environment. The standard “promotes common understanding in the field of social responsibility” beyond what is legislated (International Standards Organization, 2011a). One participant reported holding the automotive standard for design and manufacturing. All but one of the OEM participants over $500M in revenue reported having environmental certification plus one participant with over $100M in revenue. The other nine participants reported not holding any environmental certification. The participants with environmental certification ranked the importance of environmental sustainability to be a seven or higher. One participant with ISO14001 reported the implementation of continuous improvement programs as a condition of holding the certification. None of the CM’s reported currently being certified to ISO14001 as the participants currently certified are OEM’s and the distributor participant. One CM did report being in the process of obtaining ISO14001 certification and this is in response to customer requests. Environmental sustainability mission statement: Seven of the fourteen participants have an environmental sustainability mission statement. These participants ranked environmental importance to be at seven or higher and are over $100M in revenue with two ranging between $100M and $500M with the other five being over $500M in revenue per year. All participants reporting to be ISO14000 certified also have an environmental sustainability mission statement. The common themes in the participants’ mission statements are compliance with laws and regulations and continuous improvement with operations. 232 Mark Morrissey, Anshuman Khare Continuous improvement is tied to management processes and policies along with objectives and goals aligned to environmental initiatives Incorporation of environmental sustainability into total quality management or continuous improvement programs: Seven participants reported continuous improvement programs in place where one has annual objectives related to ISO14000 certification and another has internal objectives tied to eliminating waste and reduction of packaging. The third participant has a formal program in place related to a GRI framework. The other seven participants reported no incorporation of sustainability into a total quality management program or alternative program of continuous improvement. The participants reported compliance to IS014000 as continuous improvement. Three participants did report compliance to legislation such as RoHS in response to this question as a quality program. PRODUCT DESIGN Environmental legislation: RoHS compliance was consistent among all participants regardless of size and whether the participant was an OEM or CM. Five participants also reported compliance with REACH legislation, four participants comply with WEEE and one included CARB and LACY compliance. CARB is the acronym for California Air Resources Board which develops regulations pertaining to the effect of consumer products on air quality in the state of California (California Environmental Protection Agency, 2010). The LACY Act is United States legislation that regulates the trade and import of restricted plants and wood products. The act deals with the theft of plants but has also been applied to illegal logging practices (Environmental Investigation Agency, 2007). Impact of environmental legislation on product design: All but two participants reported RoHS compliance as the only environmental legislation influencing their product designs. The two not reporting RoHS compliance did not report on any legislation being adhered to during product design. Both these participants have revenues under $25M. Total life cycle incorporation into product design: Total lifecycle design is clearly not common as no participant reported a strategy on how they manage products from cradle to grave to reduce environmental impact. One participant reported maintaining compliance data on all purchased components thus ensuring compliance with RoHS legislation for reporting purposes. Two other participants reported designing products that would have a useful life of over 25 years to delay the time until the products enter landfill sites. Extending product lifecycles has contributed to increased profitability among organizations through reduced warranty repairs and better reputation. It also aids the environment that the usefulness of the product is increased relative to the energy required to deliver the product to the market (Corbett & Klassen, 2006). Two participants with revenue over $500M allow customers to return products at the end of the life for refurbishment and resale or disposal. There is a benefit in accepting the return of products through the refurbishing, re-selling and for spare parts making the practice more of a win-win practice (Neto et al., 2010). None of the other nine participants indicated that they have any programs in place that addresses disposal or recapture of products at the end of their life cycles. Environmental Sustainability Practices in Supply Chains 233 Ease of disassembly in product design: Ease of disassembly facilitates the reclaiming of precious metals. For example, the price of gold has increased thus yielding a higher return on investment for the effort associated with capturing the gold content of electronic products (Hageluken & Corti, 2010). However, none of the participating companies has incorporated strategies in how precious metals can be more easily captured at the end of the product life cycle. Three participants reported the benefits of press fit and modular design to allow for the product to be more easily dismantled for service and repair purposes. The size of the three participants ranged from $25M to over $500M in revenue. Ability to recycle and reuse components within new products: None of the participants reported that any of their product components are reused at the end of the product life. One participant reported that plastic housings could be recycled but the participant does not actually accept the housing back from customers for recycling. They do allow the resin suppliers to incorporate a quantity of regrind resin in with the virgin resin, which allows for previously used resin to be re-used in new products as opposed to being scrapped. The amount of re-grind resin used is based on the resin manufacturers published guidelines. Two participants reported that products could be returned from the customer at the end of the life which are then refurbished and re-sold. The two participants who allow the return of products have over $500M in annual revenue. Supplier collaboration to incorporate environmental sustainability into product design: The amount of supplier collaboration varies among the participants and is not restricted to any particular size of participant. No participants reported actually collaborating with suppliers during a product design phase to specifically incorporate environmental sustainability. For example, one participant that reported collaborating with suppliers during the design phase stated that the collaboration was focused on design for manufacturability. The participant is beginning to work with suppliers to identify alternate more environmentally friendly materials but this is more in response to customer requests than proactive initiatives. All participants work with their suppliers to ensure RoHS compliant components are provided but design for environment initiatives are not evident beyond compliance with RoHS, CARB and LACY. Supplier collaboration being limited to adherence with legislation is a common theme among all participants as none reported working with suppliers to drive initiatives beyond compliance. One participant, greater than $500M in revenue, reported working with suppliers to maintain traceability of all components for RoHS compliance purposes so that the participant is able to validate that products are RoHS compliant if ever required. This level of validation is expected under RoHS 2 which requires that organizations ensure their products comply through certification and material traceability (Walker, 2011). One other participant, over $500M in revenue, reported working with suppliers to educate them on environmental sustainability and monitors them for performance relative to environmental legislation. The education of suppliers is to support compliance of RoHS and REACH legislated requirements along with broader sustainability initiatives such as ethical mining of minerals used in electronic components, specifically the use of child labour in mining. The education is done through regular supplier business reviews where the organization shares what it is looking for through inspection procedures. The organization also publishes a supplier handbook which is issued to suppliers to inform them of environmental objectives and the expectations to support the objectives. It highlights four guiding principles – customer satisfaction, continuous improvement, innovation and vision. The 234 Mark Morrissey, Anshuman Khare handbook discusses their environmental policy and the requirement of suppliers to follow the policy through compliance to laws and regulations and continually improving environmental performance. SUPPLIER SELECTION Supplier partnerships to develop environmental sustainability initiatives: None of the participants reported any formal supplier partnership programs aimed at improving environmental sustainability. Organizations collaborate with suppliers to develop an agile supply chain responsive to market needs (Christopher, 2005) while the partnerships reported have not extended to sustainability initiatives. Six participants did report more informal relationships with suppliers aimed towards specific objectives. Of these, three specifically stated that supplier collaboration happens in order to ensure compliance with legislation such as RoHS. Moving toward the supplier partnerships, one participant in the $100M to $500M range reported working with suppliers to develop re-usable packaging aimed at reducing the amount of packaging going to landfill sites. Another participant in over $500M in revenue reported requiring suppliers to sign a code of conduct that they comply with the Electronic Industry Citizenship Coalition (EICC). This includes environmental sustainability and compliance, fair treatment of workers, safe work place and business ethics environmental initiatives which are reported on during formal quarterly business reviews. The EICC is a member operated coalition of organizations focused on the sharing of best practices and continuous improvement pertaining to environmental and social responsibility (EICC, 2009). A CM participant reported working with packaging suppliers to design packaging with reduced material or packaging which is re-usable. The same CM reported that OEM customers have not involved them in product design for the environment as product design is often completed along with the components being specified on a Bill of Material before it is sent to the CM’s for assembly. Supplier environmental certification: Five participants in the $25M to more than $500M size in revenue require their suppliers to hold ISO14000 certification. Two of the five also hold ISO14000 certification; one participant reported requiring suppliers to adhere to their own code of conduct pertaining to environmental sustainability. One of the CM participants reported requiring suppliers to be ISO14000 certified. It is generally difficult for any CM to have a form of supplier selection or certification as the suppliers to CM’s are often dictated by the OEM customers leaving the CM with little autonomy to select suppliers themselves. A larger organization, over $500M in revenue, elaborated on the supplier qualification process which includes a code of conduct with eight specific activities suppliers must adhere to which are aligned to environmental sustainability and social responsibility. This includes human rights, child labour, anti-corruption and adherence to local environmental legislation. Environmental certification use as a differentiator or marketing tool: The practice of marketing environmental certification to act as a differentiator or to encourage new customers is very limited. One participant, over $500M in revenue, reported leveraging environmental certification for marketing purposes in attracting new employees during campus recruiting. The CM participant that is currently obtaining ISO14001 certification does not Environmental Sustainability Practices in Supply Chains 235 consider having the certification to be a differentiator but is pursuing the certification to be a “good steward to the environment”. Supplier audits for environmental compliance: Ensuring that suppliers act within legislative compliance is important to reduce risk to extended supply chains as supplier activities that violate regional laws or are perceived to be unfriendly to the environment can damage reputations (Dou & Sarkis, 2010). Seven of the participants, ranging from $25M to $100M and over $500M in revenue, reported auditing suppliers for environmental compliance. Two of them specified that suppliers are audited to ISO14000 certification and one reported utilizing a third party firm to conduct the audit. Three of the seven participants who reported auditing suppliers for environmental performance hold ISO14000 certification themselves. One of the participants, based in California, also holds CARB certification as a requirement to import wood products into California to reduce the emissions of toxic chemicals such as formaldehyde into the air. The participant also holds LACY certification due to their sourcing and use of wood in their products. Environmental compliance as a part of supplier qualification: Seven of the participants reported including environmental compliance as part of the qualification process for new suppliers. Six of the seven participants who audit suppliers for environmental conformance also incorporate environmental compliance as part of the supplier certification. Two additional participants use environmental compliance as part of supplier qualification but do not audit their suppliers for environmental compliance. Supplier disqualification for a breach of environmental rules or legislation: None of the participants reported disqualifying a supplier for breach of environmental rules or legislations. One participant referenced the compliance as part of the supplier qualification process to vet suppliers who may not adhere to legislation. IMPACT ON PROFITABILITY Cost benefits related to environmental sustainability initiatives: Most participants reported not having realized cost savings as a result of environmental sustainability initiatives. Two reported environmentally related savings primarily in the form of reusable or reduced packaging initiatives. One participant reported savings related to refurbishing of capital equipment in lieu of discarding and procuring new equipment. One participant reported savings through programs designed to reduce energy consumption such as powering down lights and computers after work hours. Impact of cost on approval of environmental initiatives: OEM’s will determine return on investment and implement programs with immediate upfront cost allowing for payback in the longer term. CM’s are different in that margins are often so fine there is not much room to incur increased supply chain costs in support of environmental initiatives as stated by the purchasing manager of a contract manufacturer (Preuss, 2005). In determining whether higher costs are prohibitory to implementing environmental sustainability programs, ten of the respondents reported that cost did not prohibit them from moving forward with such programs. Two participants, in the greater than $500M revenue, cited the need for balance between environmental benefit and return on investment. One participant did clarify that the greater the environmental benefit the lesser of a role return on investment 236 Mark Morrissey, Anshuman Khare played in the decision. The other participant elaborated that the organization has invested money up front on programs that will realize a savings at a future time. The exception to all participants is in compliance to legislation. RoHS is an example where the cost of RoHS components was higher than that of non-RoHS components along with the related engineering costs. This is since changing but the participants adopted RoHS compliance so as not to be barred from the European market. Increased supply chain or sourcing costs associated to environmental sustainability: Seven of the fourteen respondents reported that supply chain or sourcing costs increased as a result of adhering to legislated requirements such as RoHS. The revenue size of these participants varied between $100M to $500M and greater than $500M. Smaller participants in size of less than $15M and up to $100M did not report any increase in supply chain or sourcing costs related to environmental sustainability. Revisiting the Research Questions How environmental sustainability is incorporated into product design with a focus on the entire product life cycle: The survey shows that legislated requirements are commonly adopted into product design. All participants reported including environmental legislation in their product design activity and the most common legislation observed is RoHS and WEEE. However, the incorporation of environmental issues in product design beyond simple compliance with legislation is yet to mature as design for environment is not yet a primary factor. The survey has identified that modular design is emerging allowing organizations to extend product life cycles through upgrades on customer sites and extending the useful life of product and returning failed modules to the point of manufacturer for refurbishment and re-use. The design of products to re-capture and use precious materials such as gold and to better dispose of toxic chemicals is not yet a design consideration. Packaging design such as reducing materials and returning packaging to the point of manufacturer is gaining strength as an opportunity to benefit the environment and reduce costs. How environmental concerns translate into selection of suppliers and supplier collaboration in product design: The maturity scale shows that organizations are trending to require suppliers to be environmentally certified and environmental compliance is being taken into consideration during supplier audits. Both are progressing beyond “emerging practices” level but are not quite in the realm of “commonly adopted”. Thus environmental sustainability is developing within supply chains as a result of improved supplier management, while still an “emerging practice” level, and has higher adoption rates than many other activities such as design for the environment. Environmental certification and compliance are maturing as data shows that requirement for suppliers to hold environmental certification is at 36%. Fifty percent of participants stated that suppliers are audited to ensure compliance with environmental policies and practices and 64% take environmental compliance into account during supplier qualification. The most common environmental certification is ISO14001 and suppliers are audited to ISO14001 standards and practices. One participant reported using an external ISO auditing firm initially during the qualification process and to also conduct annual or bi-annual follow on audits to ensure suppliers continue to comply with ISO standards. Another participant has developed environmental criteria to which suppliers are expected to conform and this criterion is also based on ISO Environmental Sustainability Practices in Supply Chains 237 standards. The interesting correlation is that the same number of participants, at 36%, expects their suppliers to have environmental certification which they themselves hold. Two participants who expect suppliers to hold environmental certification are not themselves certified. Supplier collaboration is “emerging” but the practice is limited to ensuring compliance with legislation such as RoHS. The collaboration with suppliers to develop sustainability initiatives beyond legislative compliance has not taken hold as product design is done within the OEM. How the strategy allows organizations to operate more environmental conscious supply chains while providing positive impact to the bottom line: Realized financial benefits and the ability to measure them along with their consideration in the decision making process are yet to mature as per the maturity scale. The survey has confirmed findings from the literature review that the inability to measure financial impact of decisions is resulting in the slow adoption of environmental initiatives with the exception of some minor developments such as the reduction of packaging and related costs as one example. Some cost increases have been forced upon organizations such as the costs associated with being RoHS compliant through modifying production equipment and procurement of higher cost RoHS compliant components from suppliers. Figure 2 shows the percentage of participants who have adopted the different environmental activities discussed and illustrates the degree of adoption. It is clear that legislated requirements are consistently adopted followed by supplier qualification and supplier audits. Their incorporation as part of TQM and design related criteria along with cost benefit are at the low end of adoption. 238 Mark Morrissey, Anshuman Khare 100 90 80 70 60 50 40 30 20 10 0 Figure 2: Percentage adoption of environmental practices Conclusion The survey confirmed the information discussed in the literature review regarding organizations incorporating environmental sustainability into their supply chains. A gap between the literature review and the research data exists as the incorporation of environmental sustainability is still in its infancy and the maturity of adoption varies from one area to another. Certification that incorporates environmental considerations into supplier selection and management is at the highest level of maturity as ISO certification is prevalent. Organizations acquire certification themselves and subsequently require suppliers to obtain certification. Environmental considerations incorporated into product design are primarily driven through legislation such as RoHS but modular design and product life cycle considerations are maturing. Supplier collaboration is not developing as the data shows that organizations are not working with suppliers to develop environmental initiatives or to incorporate environmental sustainability into products through design. Total Quality Management has emerged as an area of opportunity to implement environmental programs and to drive continuous improvement through establishing objectives and benchmarking. The largest challenge to environmental sustainability still remains the ability to measure financial perfor- Environmental Sustainability Practices in Supply Chains 239 mance relative to cost benefits. The data also shows that participating organizations have not been able to directly measure the impact of environmental initiatives on costs nor measure the associated savings. The adoption of RoHS and WEEE by the European Union in 2003 and 2005 respectively, has had a spillover effect to other countries such as Canada and some US states that adopted similar legislation and benefited from the conversion of products to adhere to the European legislation. Under the pressure of legislation that would reduce available markets to OEM’s in the high-tech industry, the OEM’s undertook a radical change to product design from individual semiconductor components up to entire assemblies. Yet, the data shows that, outside of a few initiatives, little has been done beyond that required by legislation to incorporate environmental sustainability into the industry. Product design is progressing to be more modular which extends product life cycles and allows end of life components to be returned to the OEM. This is more influenced by serviceability and market needs than by environmental specific directives. Larger organizations are more likely to incorporate environmental sustainability into their operations. They are more likely to be certified to a standard such as ISO 14001 and to insist suppliers are certified and audit them to ensure compliance. It is likely that larger organizations are more mature in this sense as they have greater resources at their disposal and greater influence over suppliers than smaller companies. Certification such as ISO14001 and the broader sustainability standard ISO26000 are gaining traction as organizations are becoming certified to ensure decisions and processes align with environmental standards. The requirements of ISO certification are also working their way into the supply chains as organizations are beginning to ask their suppliers to be certified. In support of this, larger organizations are certifying and auditing their suppliers to ensure continued compliance. The survey has identified an opportunity to integrate environmental sustainability into continuous improvement programs through TQM as a part of ISO14001 certification. TQM requires organizations to establish a program of continuous improvement around strategic objectives and offers a method of measuring performance and benchmark against internal key performance indicators or external benchmarks. The pillars of such a program could be aligned to the 3P’s: “people, planet and profit”. To support the continuous improvement element of TQM, the data also identified an opportunity for organizations to develop continuous improvement initiatives through the adoption of “lean” principles and practices. Lean could be leveraged by formalizing continuous improvement programs with suppliers to reduce waste in operations, materials consumed, packaging and product movement, all of which would benefit the environment. The lack of ability to measure the financial impact of environmental sustainability is a hindrance to more initiatives being undertaken; primarily the difficulty of measuring associated savings and costs. Along the lines of TQM, there is potential that a GRI framework will allow organizations to develop a standardized financial reporting model but more work is required to develop an acceptable model as measurements would need to be associated with benchmarks for environmental performance. Performance to environmental standards could result in increased profits for organizations as tough standards would force them to improve their technology, processes and products (Kleindorfer et al., 2005). Specifically, 240 Mark Morrissey, Anshuman Khare increased profitability can come from energy conservation and reduced waste, closed loop supply chains as companies dispose of or reuse products for service and spares and design of products to reduce energy consumption during manufacturing (Kleindorfer et al., 2005). The research findings show that the incorporation of environmental sustainability into the supply chains of high-tech companies has so far been limited to compliance with legislated requirements. Beyond legislated directives such as RoHS and WEEE, designs that reflect environment initiatives have not taken hold. Environmental certification such as ISO14001 and social responsibility certification such as ISO26000 is growing and organizations are beginning to ask suppliers to also obtain such certification. Beyond having the certification, incorporating continuous improvements in sustainability is the next logical progression that this research has identified can be accomplished through formalizing under a Total Quality Management program. The introduction of sustainability initiatives within organizations is influenced to a large extent by the organization’s size measured in terms of revenue. Larger organizations are more mature in requiring and implementing environmental sustainability initiatives among their supply chains than are small or medium size organizations. Next Steps This exploratory research shows that there are many interesting aspects of supply chain management that can be investigated to show the impact of environmental practices in supply chain in context of product design, supplier selection and impact on bottom line of an organization. In a future study the researchers plan to explore these factors with a larger sample and also investigate the relationships between the factors and the size of the firm using sophisticated statistical tools and techniques. The literature available shows the way, but the reception of the same in North America has been limited due to various factors. A comparative study with European and Asian supply chains would probably present the researchers with benchmarks that can be utilized in improving the environmental sustainability records of North American supply chains in high-tech industry. References Bevilacqua M., Ciarapica F.E. & Giacchetta G. (2007) Development of a sustainable product lifecycle in manufacturing firms: a case study. International Journal of Production Research. Vol. 45. No. 18–19. pp. 4073–4098. California Environmental Protection Agency (2010) Current Regulations [On Line] Retrieved February 11, 2013 from http://www.eurofins.com/carb-consumer-products-voc.aspx. Carter, C.R. & Carter, J. R. (1998) Inter-organizational determinants of environmental purchasing: initial evidence from the consumer products industries. Decision Science. Vol. 29. No. 3. pp. 659–684. Chopra S. & Meindl P. (2010) Supply Chain Management. 4th edition. Upper Saddle River. Pearson. Christopher M. (2005) Logistics and Supply Chain Management, Creating Value-Added Networks. Third edition. Harlow. Pearson Education Limited. Closs D., Speier C. & Meacham N. (2011) Sustainability to support end–to–end value chains: the role of supply chain management. Academy of Marketing Science. Vol. 39. No. 1. pp. 101–116. Environmental Sustainability Practices in Supply Chains 241 Corbett C. & Klassen R. (2006) Extending the Horizons: Environmental Excellence as Key to Improving Operations. Manufacturing & Service Operations Management. Vol. 8. No. pp. 5–22. Dou Y. & Sarkis J. (2010) A joint location and outsourcing sustainability analysis for a strategic off shoring decision. International Journal of Production Research. Vol. 48. No. 2. pp. 567–592. EICC (2009) Governance. [On Line] Retrieved February 11, 2013 from http://www.eicc.info/ GOVERNANCE.htm Evans, T. (2004) How Green is Silicon Valley? Ecological Sustainability and the High-tech Industry. Berkeley Planning Journal. Vol. 17. No. 1. pp. 109–131. Facanha C. & Horvath A. (2005) Environmental Assessment of Logistics Outsourcing. Journal of Management in Engineering. Vol. 21. No. 1. pp. 27–37. Hageluken C. & Corti C. (2010) Recycling of gold from electronics: Cost-effective use through “Design for Recycling.” Gold Bulletin. Vol. 43. No. 3. pp. 209–220. International Standards Organization (2011) ISO 14000 Essentials. [On Line] Retrieved February 11, 2013 from http://www.iso.org/iso/iso_14000_essentials International Standards Organization (2011a) ISO26000 – Social Responsibility [On Line] Retrieved February 11, 2013 from http://www.iso.org/iso/iso_catalogue/management_and_leadership_standards/ social_responsibility/sr_discovering_iso26000.htm Khiewnavawongsa S. & Schmidt E. (2009). An Essay of Green Supply Chain Management in the Electronics Industry. Review of the Electronic and Industrial Distribution Industries. Vol. 8. No. 1. pp. 14–30. Kleindorfer P., Singhal K., van Wassenhove L. (2005) Sustainable Operations Management. Production and Operations Management. Vol. 14. No. 4. pp. 482–492. Man R. de & Burns Tom R. (2006) Sustainability: Supply chains, partner linkages, and new forms of selfregulation. Human Systems Management. Vol. 25. No. 1. pp. 1–12. NMO (2011) What is RoHS? National Measurement Office [On Line]. Retrieved February 11, 2013 from http://www.bis.gov.uk/nmo/enforcement/rohs-home. Neto J., Walther G., Nunen B. & Spengler T. (2010) From closed-loop supply chains: the WEEE case. International Journal of Production Research. Vol. 48. No. 15. pp. 4463–4481. Panayioutou N., Aravossis K. & Moschou P. (2009) A New Methodology Approach for Measuring Corporate Social Responsibility Performance. Water Air Soil Pollut: Focus. Vol. 9. No. 1 & 2. pp. 129–138. Pfeffer J. (2010) Building Sustainable Organizations: The Human Factor; Academy of Management Perspectives. Vol. 24. No. 1. pp. 34 – 45. Preuss L. (2005) The Green Multiplier A Study of Environmental Protection and the Supply Chain. New York. Palgrave MacMillan. Sarkis J., Helms M. M. & Hervani A. (2010) Reverse Logistics and Social Sustainability. Corporate Social Responsibility and Environmental Management. Vol. 17. No. 6. pp. 337–354. Shukla A, Deshmukh S.G. & Kanda A. (2010) Flexibility and Sustainability of Supply Chains: Are they Together. Global Journal of Flexible Systems Management. Vol. 11. No.1 & 2. pp. 25–38. Tamiotti L., Teh R., Kulacoglu V., Olhoff A., Simmons B., & Abaza H (2009) Trade and Climate Change WTO-UNEP Report. World Trade Organization. Geneva. WTO Publications. Terra Choice Marketing (2009) ecoMarkets Summary Report. Terra Choice Environmental Marketing Inc. Retrieved February 11, 2013 from http://www.terrachoice.com Trowbridge P. (2001) A Case Study of Green Supply-Chain Management at Advanced Micro Devices; Greener Management International (July). Greenleaf Publishing. Vol. 35. pp. 121–135. 242 Mark Morrissey, Anshuman Khare Tsai W., Hung S. (2009) A fuzzy goal programming approach for green supply chain optimization under activity-based costing and performance evaluation with a value chain structure. International Journal of Production Research. Vol. 47. No. 18. pp. 4991–5017. Vachon S. (2007) Green supply chain practices and the selection of environmental technologies. International Journal of Production Research. Vol. 45 No. 18–19. pp. 4357– 4379. Vachon S. & Klassen R.D. (2007) Supply chain management and environmental technologies: the role of integration. International Journal of Production Research. Vol. 45. No. 2. pp. 401–423. Walker J. C. (2011) RoHS Recast. SMT Magazine (February). pp. 18–24. White B. (2000) Dissertation Skills for Business and Management Students. Thomson Learning. Singapore. Interorganizational Learning between Convergence and Cospecialization – A Knowledge-Based Typology of Strategic Alliances Dietrich von der Oelsnitz, Marcus Lorenz 1 Introduction Strategic alliances have fascinated academic research throughout the last decades. As a dominant transactional form, they can create substantial firm value through the transfer, recombination and creation of knowledge. Few firms, however, excel at managing their strategic alliances successfully (Parise and Casher 2003). This is one reason why academic research emphasizes that a superior alliance capability can contribute to a firm-level competitive advantage (Hoang and Rothaermel 2005; Kale and Singh 2007; Simonin 1997). Anand and Khanna (2000), for example, found that firms with a dedicated alliance function achieved higher alliance performance as measured in stock market responses. By developing capabilities to manage alliances, firms can learn to find the right partner, set adequate goals, contract or mitigate hazards. Research on strategic alliances has been curious about a firm’s ability to absorb the partners knowledge (Cohen and Levinthal 1990; Lane and Lubatkin 1998) and the elements of alliance capability, which is the ability to manage a single alliance successfully (Kale and Singh 2007; Schilke and Goerzen 2010). Yet, little is known whether different types of alliances equally benefit from alliance mechanisms. Moreover, several researches witnessed the positive effects of partnerships on the innovative performance (Nooteboom et al. 2007; Rosenkopf and Almeida 2003). Nonetheless, we still lack answers about the learning mechanisms that take place within different types of alliances (Al-Laham et al. 2010). This shortcoming is also stressed by Larsson et al. (1998, p. 298): “While strategic alliances are increasingly being studied quantitatively, few surveys focus on the interorganizational learning that occurs in them”. Especially, the effect of a learning alliance on the post-alliance knowledge base overlap of the partner firms has received little attention so far. The alliance-as-learning thesis predicts that the overlap of alliance partners’ knowledge bases will increase over time. Yet, Mowery et al. (1996) and Nakamura et al. (1996) could not observe a significant overall trend towards convergence. To the contrary, in some alliances the knowledge bases even diverged. Consequently, Mowery et al. (1996, p. 89) considered that “the ‘learning’ that takes place within alliances thus appears to be more complex than most of the literature on this topic suggests“. Building a W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_18, © Springer Fachmedien Wiesbaden 2013 244 Dietrich von der Oelsnitz, Marcus Lorenz knowledge-based typology of strategic alliances, we explore how different alliance types affect the partners’ knowledge bases and the consequences for the alliance management. 2 Learning in Strategic Alliances The knowledge based view emphasizes strategic alliances as an important tactic for organizational learning. A number of scholars have stressed the use of alliances by firms to acquire technology-based capabilities from alliance partners (Dussauge et al. 2000; Simonin 1999). Knowledge acquisition occurs as soon as one firm receives knowledge from a partner and incorporates it into its own knowledge base. In order to understand the knowledge they want to absorb, firms require prior related knowledge (Cohen and Levinthal 1990). If the cognitive distance between the partners’ knowledge is low and the existing cognitive structures prove sufficient, knowledge can be relatively easily assimilated (Zahra and George 2002). According to Nooteboom et al. (2007), we will interpret the cognitive distance between two firms in the following as the relatedness of the technological bases. Excessive cognitive similarity even limits innovation opportunities, as there is little left to learn about. If the cognitive distance is high (e.g. a partnership with a company outside the own industry), a firm has to transform its cognitive structures to some extent in order to absorb the new knowledge. Through the alteration of its cognitive schemes, the company may discover new opportunities to explorative activities. If the cognitive distance is too high, however, bridging the knowledge gap may even prove impossible. After all, collaborations provide the greatest learning potential if partners possess similar basic knowledge but differ in specialized fields (Lane and Lubatkin 1998). Although it seems to be reasonable to interpret strategic alliances as a vehicle for learning, Grant and Baden-Fuller (2004) have argued that knowledge access, rather than inward knowledge transfer, might be the primary motivation for knowledge-based alliances. An example for such a cooperation is the partnership between Daimler-Benz and Swatch, which was built to design the “Smart”. The alliance was not formed to absorb the partners’ knowledge, but to “create value through combining their separate knowledge bases” (Grant and Baden-Fuller 2004, p. 65). The purpose is not to ‘gain’ knowledge from the other, but to compose specialized knowledge in order to set up cooperative specialization. This tendency arises from the limited cognitive capabilities of a firm. Because the cognitive capabilities are limited, learning from what others know would undermine gains from specialized knowledge (Grant and Baden-Fuller 2004). If each company focuses on its area of specialization while having access to external knowledge, it allows leveraging comparative advantages across firms. Thus, having access to cospecialized knowledge outside the own boundaries, firms may increase their efficiency by minimizing cross-learning (Grunwald and Kieser 2007). To get access to each other’s knowledge, both partners must contribute a selected part of their knowledge to the strategic alliance. A joint venture based on a combined stock of specialized knowledge enables both parties to reach a goal that would have been out of reach individually (Buckley et al. 2009). Interorganizational Learning between Convergence and Cospecialization 3 245 The concept of shared mental models While most researchers emphasize the role of resources and dynamic capabilities for the success of strategic alliances, the resource-based view does not provide any insights as to which mechanisms may lead to successful integration of partners’ resources. Because of this shortcoming, an emerging research stream emphasizes the role of social interactions and cognitive processes on alliance performance (e. g. Dyer and Singh 1998; Gulati 1999; Kale et al. 2000). This research stream does not view the lack of complementary resources as the primary reason for alliance failure, but rather the inherent vice of knowledge-sharing routines, decision-making processes, operating systems as well as incompatible cultures (Nahapiet and Ghoshal 1998; Parkhe 1991). Similar resources do not necessarily facilitate the interaction between two companies. In order to recognize and absorb each other’s knowledge, the two firms must also think and behave in similar ways. Only common interpretations, institutional values and routines, which can be fostered by intensive face-to-face communication or cross-training, reduce the threat of misunderstandings (Saxton 1997). For example, Dyer and Nobeoka (2000) showed that Toyota was able to develop a successful knowledge creation network by implementing knowledge sharing routines among its supplier network. Hence, while complementary resources are the primary base for the formation of new relationships, the success of the exchange is strongly influenced by social factors (Gulati 1999; Mesquita et al. 2008). Because most firms build their knowledge in combination with internal and external resources, they must build a shared understanding to acquire external knowledge (Collins and Hitt 2006; Dyer and Singh 1998). By building norms of cooperation and reciprocity, the parties are more willing to share knowledge with each other. We will term this common ground between two or more organizations ‘shared mental models’. According to Lord and Emrich (2001 p. 552) shared mental models are defined as “a socially constructed understanding of the world derived from social exchanges and interactions among multiple individuals in a group or organization”. In the context of interorganizational collaboration, compatible mental models help to build trust to guide interactions across firm-boundaries. The establishment of shared mental models represents an iterative process whereby the partners learn to trust and at the same time learn to learn together. Thus, frequent and intense interaction is the fundamental driver of this process. As mutual trust and openness develops, the intention to cooperate and follow compatible goals is encouraged (Doz 1996). In a system, where information is distributed through social interaction and across firm boundaries, knowledge can then be synthesized into an emergent whole and accessed when needed. Henderson (1994) provides evidence for the pharmaceutical industry that fostering extensive social exchange in a network helped firms to identify and adopt external knowledge more successfully. Consequently, building shared mental models becomes even more important as they facilitate knowledge transfer through the development of a shared perspective which helps to interpret the partners’ knowledge and solve conflicts. Beyond that, trust and reciprocity can enhance the willingness to teach (Szulanski 1996) and counterbalance the diversity among partners. 246 4 Dietrich von der Oelsnitz, Marcus Lorenz Strategies of interorganizational learning An important reason for ineffective alliances is the firms’ poor understanding of learning dynamics within a partnership. Firms often fail to recognize the existence of asymmetric incentives to enter into an alliance, leading to different learning strategies of the partners. In respect to the competition-cooperation dilemma in strategic alliances, literature on interorganizational learning distinguishes three types of learning strategies: unilateral, reciprocal and relational learning. In the following, these three types of learning will be described based on the factors transparency and receptivity. In this paper the term interorganizational learning refers to any addition to a firm’s set of capabilities obtained through interaction with alliance partners. 4.1 Unilateral Learning Lacking the capabilities required to accomplish a certain task in-house, firms may use alliances as a shortcut to achieve the strategic object. Since alliances are often formed between competitors, firms may try to internalize their partners’ know-how as quickly as possible while simultaneously protecting its own competencies (Child 2003; Hamel 1991). Once a firm has learned enough from its partner, it can dissolve the partnership and switch back to its traditional way of developing capabilities in-house. The partnership may even take the form of a learning race, as each firm seeks to absorb the partner’s knowledge as fast as possible (Hamel 1991; Khanna et al. 1998). Accordingly, unilateral learning implies a high receptivity and low transparency. Actors following this aggressive learning strategy may achieve a positive balance of knowledge trade in the short run, yet they are likely to lose their reputation in the overall network over time, making it difficult to find new alliance partners. 4.2 Reciprocal Learning By focusing on the contributions of partners, the learning race view neglects the importance of relational assets (Dyer and Singh 1998). Just as the former Ford president Philip Benton states: “Learning to work together is so hard, it would be foolish to throw all that away because you see another girl across the street” (Sherman 1992, p. 78), it takes relationspecific investments to facilitate knowledge transfer. Rather than viewing it as common behavior, researchers tend to criticize the racing mindset as an exception of alliances gone bad (Grant and Baden-Fuller 2004; Mowery et al. 1996). After all, successful alliances require partners that care about each other’s learning (Hitt et al. 2000). These firms realize that alliance success is a product of both partners achieving their goals. If partners decide to follow a reciprocal learning strategy, the ratio of knowledge sharing will be (almost) balanced. Consequently, reciprocal learning is based on a moderate to high level of transparency and high receptivity (Larsson et al. 1998) where all the partners involved actively try to utilize the partners’ complementary resources to compensate their respective resource deficits. But before the firms are willing to exchange information, especially when the exchange touches on their core knowledge, they want to make sure that their sharing partner is trustworthy. Therefore, firms often choose for a reliable partner in their local network. Interorganizational Learning between Convergence and Cospecialization 247 4.3 Relational learning As the alliance continues, the partners are not only able to transfer the partners’ know-how. With increased trust and mutual understanding, the partners may also develop knowledge sharing routines which enable them to recombine their resources in order to jointly create new knowledge which is beneficial to all of them. Because of the relation-specific investments, the firms can create an additional rent, which could not be generated individually and to which firms outside the network have no access (Lavie 2006). Accordingly, we label a learning strategy in which the partners creatively synthesize their knowledge bases as relational learning (Dyer and Singh 1998; Lubatkin et al. 2001). Whereas the first two learning strategies require partners to act as either student or teacher, relational learning requires partners to work together closely. Thus, the partners do not only need to learn themselves and improve their respective knowledge base. In order to leverage their distinctive knowledge, they also have to learn how to learn together. With repeated joint actions, the partners may realize that either of them holds a potentially important piece of the puzzle and that they can best attain their own strategic goals by working together towards some collective agenda. 5 A knowledge based typology of strategic alliances Firms generally face the challenge of managing different types of alliances likely to impose different demands on a firm’s alliance management capability (Buckley et al. 2009; Parise and Casher 2003). Such differences stem primarily from two factors: the learning intent of the allies and the strategic goal of the alliance. We identified four ideal types of learning alliances. In order to further characterize each of these generic types of knowledge-based alliances, we employ a framework which integrates the characteristics of the partners’ knowledge bases. The knowledge base of a firm comprises the technical characteristics X1, X2,…, XN, which are required to transform inputs and labor into products (Saviotti 1996). 5.1 Type 1: “Learning Race” In learning alliances, the primary objective is to learn from each other by transferring existing knowledge. The desire to learn through an alliance is especially strong if the firms want to acquire capabilities in order to discover new opportunities (Koza and Lewin 1998). Thus, a learning race among alliance partners appears to be engendered by the presence of learning opportunities. Although literature has been skeptical on the relevance of learning races in practice, Hamel (1991) introduced an important concept to understand the dynamics of interorganizational learning by emphasizing a firm’s intention to learn the partners’ skills. Khanna et al. (1998) showed that learning races occur predominately in situations where individual benefits prevail, offering rents that can be earned unilaterally by picking up skills from the partner and applying them to activities outside the scope of the alliance. Beside the direct absorption of knowledge, alliances may also be used as an option to get access to expansion opportunities (Kogut 1991). Pharmaceutical firms, for example, often collaborate with numerous biotechnology firms in one particular field of technology. If the R&D activities of a partner were successful, the firm can internalize the knowledge by in- 248 Dietrich von der Oelsnitz, Marcus Lorenz licensing or acquisition (Folta and O’Brien 2004). Comprising, if knowledge is transferred in a learning race, the knowledge can help the recipient to expand its knowledge base. To be challenged resp. confirmed in future research we propose: Firms following a unilateral learning strategy will mostly broaden their knowledge bases (P 1). The knowledge sharing will occur in the direction of the partner with the higher absorptive capacity (Khanna et al. 1998). Once a firm has learned enough from its partner, it has no incentive to continue due to the costs of staying in the alliance. Consequently, the duration and outcome depends on the relative absorptive capacity of the participating firms (Kumar and Nti 1998; Lane and Lubatkin 1998). This can put considerable stress on the social harmony between partners, preventing necessary relationship-specific investments. While there has been considerable research on the characteristics of the learning partner (Hamel 1991; Kale and Singh 2007; Schilke and Goerzen 2010), little is known about the characteristics of the teaching partner. However, as noted above, knowledge can flow with greater ease from one to the other in cases of similar knowledge. Without prior knowledge, firms are not able to evaluate the new information and, consequently, fail to absorb it. We therefore propose that unilateral learning is only feasible under conditions of a rather low cognitive distance between student and teacher. To be challenged resp. confirmed in future research we propose: A unilateral learning strategy is only successful when the cognitive distance between alliance partners is low (P 2). Since the strategic goal in a learning race alliance is to absorb specific knowledge in order to fill a gap in one’s own knowledge base, firms often team up with partners specialized in a certain field. Thus, it takes only one shirking partner to cause failure for the venture since the partner cannot compensate for the efforts if one firm fails to commit the necessary resources. This may lead the collaborators to commit fewer resources (Amaldoss and Staelin 2010), limiting the relative size of the alliance and thereby the alliance outcome (Inkpen and Beamish 1997). In addition, firms create new knowledge by amplifying the knowledge their members hold. This requires intensive personal interaction and knowledge sharing. However, a company following a unilateral learning strategy allows its partner only very limited access to its resources, inhibiting the partners to achieve higher learning rates. So we propose: Firms following a unilateral learning strategy will have higher failure rates and lower performance rates (P 3). 249 Interorganizational Learning between Convergence and Cospecialization Firm A X1 : XM XN X1 : XM XN XO Product A Firm B XN XO : XY XN XO : XY Product B Figure 1: Unilateral Learning 5.2 Type 2: “Link Alliance” Link alliances are interfirm partnerships to which partners contribute different, but complementary resources (Dussauge et al. 2000; Hennart 1988). This alliance type is consistent with the terms „sequential alliances“ (Park and Russo 1996) or „X-form coalitions“ (Porter and Fuller 1986). Thus, each member actively uses the alliance as a vehicle for learning. Although each firm tries to protect its core knowledge assets, both firms get access to the partner’s knowledge to at least some extent. An example for reciprocal learning is the partnership between Siemens and Sony in the late 1990s. While Siemens needed a small and powerful rechargeable battery for their cell phone S4, Sony was looking for an attractive cell phone to access the fast growing market of GSM technology in Japan. With Sony having already developed a small lithium ion accumulator for their camcorders, the competencies highly complemented each other. Pursuing a reciprocal learning strategy - whether it be to engage in expansion opportunities or to gain skills missing in the own company - will extend their scope of specialization by acquiring new knowledge (Buckley et al. 2009). To be challenged resp. confirmed in future research we suppose: Firms participating in a link alliance will broaden their knowledge bases (P 4). In all alliances, the partners must learn to work together. However, if the two firms are able to achieve a balanced knowledge transfer, the increased stability may even promote the formation of a common language and shared understandings, thus lowering the interpretative barriers that characterize reciprocal learning relationships. As the alliance continues, the partners will become more and more similar, decreasing the likelihood that partners have something new to tell (Mowery et al. 1996). We propose: In a link alliance, the knowledge bases of the partners will converge (P 5). As reciprocal learning offers the opportunity to build up shared mental models, link alliances offer an opportunity for knowledge transfer between firms with larger cognitive 250 Dietrich von der Oelsnitz, Marcus Lorenz distance. Moreover, as the purpose of this alliance type is to assimilate and use new but complementary resources, firms will have to search for partners with different cognitive structures. On the other hand, if the cognitive distance is too large, the partners lack a common ground which is needed to understand each other’s resources. Thus, the partners should have some relatedness between their cognitive schemes but also different knowledge and perspectives so that they can help each other to bridge and connect diverse skills and knowledge (Nooteboom et al. 2007). This leads us to the following proposition: Link alliances will be most successful when cognitive distance between the partners is moderate (P 6). While the partners may create common benefits in the long run, the major goal of reciprocal learning is primarily based on the creation of private benefits which gives both collaborators an incentive for opportunistic behavior. This problem is also reinforced as both allies not only help each other to strengthen their products; as the alliance facilitates both to develop a permanent market presence, they may consequently grow to be direct competitors. (Dussauge and Garrette 1999). Above that, as partner firms contribute dissimilar resources, the ability to value each other’s contribution is limited (Dussauge et al. 2000). Accordingly, although mutual trust is a key prerequisite for reciprocal learning, the stability of the alliance remains crucial (Khanna et al. 1998). We propose: The stability in closing gap alliances is relative low (P 7). Firm A X1 : XL XM X1 : XL XM XN Product A Firm B XM XN : XY XL XM XN : XY Product B Figure 2: Reciprocal Learning 5.3 Type 3: “Scale Alliance” While the previous alliance types deal with the transfer of existing knowledge, the purpose of scale alliances is to jointly create new knowledge. Scale alliances are defined as alliances, in which the partners contribute similar resources for the same stage in the value- Interorganizational Learning between Convergence and Cospecialization 251 chain with the aim at producing economies of scale for those activities that firms carry out in the collaboration (Dussauge et al. 2000; Hennart 1988). This alliance type is otherplace named „integrative alliance“ (Park and Russo 1996) or „Y-form coalition“ (Porter and Fuller 1986). In contrast to reciprocal learning, where partners act as either student or teacher, scale alliances require each member to act as a co-researcher. This may lead similar partners to combine knowledge in ways they had not previously explored and to discover novel combinations within their specialized field of knowledge. Thus, the strategic goal is to maintain or enhance the position in core business, leading to a focused expansion and deepening of the knowledge base (Hoffmann 2007). To be confirmed in future research we propose: In scale alliances, the allies will deepen their knowledge bases (P 8). Whereas firms face the choice of collaborating or waiving a new business opportunity in link alliances, partnering firms in scale alliances face the choice of collaborating or going it alone. In this context, Garrette et al. (2009) showed that weaker firms are rather likely to use partnerships with direct competitors as a strategic tool to envision projects that would otherwise be out of reach for them. In contrast to unilateral and reciprocal learning, a relational learning strategy cannot occur at the single-firm level, but at the alliance level. In order to learn together (e.g. developing a new technology) the partners must not only pool their resources, but also learn how to leverage the benefits from greater quantities in a specific field of knowledge (Lubatkin et al. 2001). To exploit the resources, the incumbents must think and behave in similar ways. By iterating the work contexts, the allies can share their tacit knowledge and develop better heuristics for problem solving. Building a shared context gives rise to cooperative norms and trust which is conducive for open sharing, feedback and constructive criticism. This does not merely require the capability and motivation of one partner but indeed of both parties. The synthesis of knowledge taking place is in fact a resource allocation process to accomplish a specific task in the value-chain. The knowledge profiles of the two firms will consequently converge, as the partners substitute old, yet distinctive resources for the jointly developed component. However, the convergence that takes place is different from the convergence in reciprocal learning, as the allies won’t broaden their knowledge bases but deepen their knowledge in the same field of specialization. Therefore, as shown in figure 3, even if there is no knowledge spillover, the project will bring the participants knowledge bases closer together. So we propose: In scale alliances, the knowledge bases of the partners will converge. The convergence refers to the substitution of old resources for the jointly created resources (P 9). In scale alliances, collaborators earn both private and common benefits. Whereas the common benefits flow from the joint output of the alliance, the private benefits accrue from a firm’s ability to leverage its new knowledge outside the scope of the focal alliance. For example, when General Motors, Daimler Chrysler and BMW jointly developed the hybrid drive technology, each firm applied the new technology in different ways. Thus, as the partners may be competitors outside the scope of the alliance, firms need to carefully balance the cooperative and competitive consequences of scale alliances. On the other hand, scale alliances are especially formed by weaker competitors with the aim to survive. As a result, the allies might be highly interdependent, as the goal of the project can only be achieved when all partners contribute their resources. This leads us to the following propo- 252 Dietrich von der Oelsnitz, Marcus Lorenz sition: The stability in scale alliances is, in relation to other alliance types, relatively high (P 10). Firm A X1 : XM X2 : XM XZ Product A XM : XY XM : XX XZ Product B [XZ] Firm B Figure 3: Relational Learning 5.4 Type 4: “Cospecialization Alliance” Although cospecialization is important in practice, it has been mostly overlooked in alliance research. Because of the rising cost of knowledge integration, this alliance type seems to be especially fruitful in industries where products require a broad range of different knowledge. In contrast to other alliance types, its primary purpose is not to learn from the partner but to configure and coordinate complementary assets and skills from cospecialized partners (Doz and Hamel 1998). As shown in Figure 4, the partner firms contribute knowledge to a focal unit. The new stock of combined knowledge can help both firms to achieve a shared goal that is not attainable by them individually (Buckley et al. 2009; Dussauge and Garrette 1999). An example for this type of alliance is the multinational collaboration IAE International Aero Engines AG, formed by Pratt & Whitney, RollsRoyce, Japanese Aero Engine Corporation and MTU Aero Engines to produce the V2500 jet engine (Mowery et al. 2002). In this multinational collaboration, each of the aircraft engine manufacturers specializes in a specific field to develop and manufacture the engine, while simultaneously restricting information exchange among partners. Because this alliance type is aimed at accessing rather than acquiring the partners knowledge, the knowledge bases remain differentiated from each other (Lubatkin et al. 2001; Mowery et al. 1996; Nakamura et al. 1996). Although some cross-learning is still required, the learning that takes place is more concerned with the management of the alliance itself. For example, when necessary knowledge is not available in the project team, the allies need to develop mechanisms in a kind of meta-learning to localize the needed expertise within the alliance organization (Wegner 1995). The partners only need to learn enough about the other’s resources to realize how to best link and leverage their respective competencies. Consequently, the partners will concentrate on their respective activities, leading to increased knowledge specialization and divergence of knowledge bases over Interorganizational Learning between Convergence and Cospecialization 253 time (Doz and Hamel 1998). Therefore, the alliance will fail if there is no common goal which directs the partners’ activities in the same direction (Lubatkin et al. 2001). So we propose: In a cospecialization alliance, the partners’ knowledge bases will diverge over time (P 11). From a static point of view, cooperative specialization saves one firm from having to duplicate what another firm already knows. Therefore, cooperative specialization can be used at low marginal cost for exploitation activities (March 1991). From a dynamic point of view, exchanging capabilities allows each firm to specialize its development and to support strategies of joint exploration. The results, however, may be quite distinct from other alliance types. Whilst accessing knowledge from external partners, firms may indeed unlearn specific skills in technological areas ceded to the partner firm (Al-Laham et al. 2010; Mowery et al. 2002). This is especially true if the underlying technology is highly modular, thereby allowing specialization in different bodies of knowledge without extensive knowledge transfer (Sanchez and Mahoney 1996). Thus, the ability to coordinate a network of specialists as system integrator becomes important in industries where products require the integration of many components with different knowledge embodied, like automobiles or airplanes. We propose: A high involvement in cospecialization alliances will lead to a decrease in the focal firm’s knowledge base (P 12). Although cospecialized alliances entail the set-up of alliance-specific routines and may possibly put firms at risk of hold-up (Gimeno 2004; Santoro and McGill 2005), we propose that cospecialized alliances are more stable than scale or link alliances as cospecialized alliances need both firms to specialize on a specific task and cross-learning is limited to the interfaces of the modules. The synthesis of knowledge that takes place is a resource allocation process designed to accomplish the alliance task. Thus, this alliance type only creates common benefits and no private benefits. Consequently, no party has an incentive to race. Additionally, when the product can be decomposed into relatively independent components, well established shared mental models even facilitate the establishment of cospecialized alliances in the event of technical distance, thus decreasing the risk of knowledge spillovers. This leads us to the last proposition: In comparison to other alliance types, the stability in a cospecialization alliance is high (P 13). Figure 4: Knowledge Application 254 Dietrich von der Oelsnitz, Marcus Lorenz Table I: Effects of different alliance types on knowledge bases and partner benefits Alliance Type Learning Race Link Alliance Scale Alliance Co-specialization Cooperation / Competition Competition Coopetition Coopetition Cooperation Knowledge base Broadening Broadening Deepening Deepening Benefits Private Private Private & Common Common 6 Conclusion The increasing complexity of technologies as well as shorter product life cycles have led to a more intense competition in many industries. Also, the growing knowledge convergence has led to a higher number of knowledge components from different areas being incorporated into a single product. These factors have encouraged companies to search for complementary resources outside their firm boundaries. While the primary trend in the last two decades has been on refocusing on core activities, access to new and unrelated knowledge from distant areas becomes increasingly important (Grant and Baden-Fuller 2004). Thus, firms must balance between divergence, which creates variance for knowledge creation, and convergence, which selects and synthesizes activities. The need to consider learning and cospecialization as two distinctive access modes to external knowledge poses significant challenges to the management of alliances as many firms often invest simultaneously in multiple alliances. Thus, alliance managers need to pay attention to potential interactions among these investments (Vassolo et al. 2004). Clearer differing the motives of knowledge-based alliances in transfer of existing knowledge, joint creation of new knowledge and access to others knowledge offers new insights in explaining different alliance outcomes. Learning races and unintended knowledge leakage might only occur if one or both partners follow a unilateral learning strategy and the cognitive distance between the partners is low. In contrast, complementary knowledge accession and joint knowledge creation will exert less pressure on the alliance, since the success of the alliance highly depends on the contributions of both allies. Furthermore, we highlighted the importance to build shared mental models (e.g. crosstrainings, interfirm employee transfers) before attempting to leverage external knowledge in scale alliances and cospecialization alliances. While some degree of organizational ability to learn from the partner is essential in each alliance type, we showed that firms will mostly benefit from building partner-specific routines if the partners jointly create new Interorganizational Learning between Convergence and Cospecialization 255 knowledge or apply existing knowledge in order to achieve a common goal. To sum up and point out, we proposed thirteen hypothesis for further research to challenge. What are the management conclusions? Managing alliances means managing relationships of different nature with different partners, leading to different problems and outcomes on the firm and alliance level. Understanding the routes of different alliance outcomes allows a better insight into the specific challenges associated with each type of cooperation. Since the performance of collaborations has often fallen short for expectations, one reason may be that firms treat alliances as homogeneous phenomena (Bamford and Ernst 2002). Our framework may help to understand the different impacts of different alliance types. In scale alliances, for example, when the allies pool similar resources to increase the scale of their innovation, one member can potentially compensate for the lack of effort or competence of another member of the group. The performance in link and cospecialization alliances, in contrast, depends on each partner properly performing his own unique subtasks, because no partner is able to pick up the slack if one of the partners shirks. Furthermore, whereas the partner’s in link alliances are likely to gain additional knowledge, cospezialisation forces the firms to cede certain activities to their alliance partners to reap the benefits of complementary resources. As firms are reluctant to reduce control over resources and activities, it is likely to have a dampening effect on the alliance. References Al-Laham, A./Amburgey, T. L/Baden-Fuller, C. (2010): Who is my partner and how do we dance? Technological collaboration and patenting speed in US biotechnology, in: British Journal of Management, Vol. 21 No. 3: pp. 789–807. Amaldoss, W./Staelin, R. (2010): Cross-function and same-function alliances: how does alliance structure affect the behavior of partnering firms?, in: Management Science, Vol. 56 No. 2: pp. 302–317. Anand, B. N./Khanna, T. (2000): Do firms learn to create value? The case of alliances, in: Strategic Management Journal, Vol. 21 No. 3: pp. 295–315. Bamford, J./Ernst, D. (2002): Managing an alliance portfolio, in: The McKinsey Quarterly, Vol. 3 No. 8: pp. 25–35. Buckley, P. J./Glaister, K. W./Klijn, E./Tan, H. (2009): Knowledge accession and knowledge acquisition in strategic alliances: the impact of supplementary and complementary dimensions, in: British Journal of Management, Vol. 20 No. 4: pp. 598–609. Child, J. (2003): Learning through strategic alliances, in: Child, J./Dierkes, M./Nonaka, J. (eds.): Handbook of organizational learning and knowledge, Oxford University Press, New York, NY, pp: 657–680. Cohen, W. M./Levinthal, D. A. (1990): Absorptive capacity: a new perspective on learning and innovation, in: Administrative Science Quarterly, Vol. 35 No. 1: pp. 128–152. Collins, J. D./Hitt, M. A. (2006): Leveraging tacit knowledge in alliances: the importance of using relational capabilities to build and leverage relational capital, in: Journal of Engineering and Technology Management, Vol. 23 No. 3: pp. 147–167. Doz, Y. (1996): The evolution of cooperation in strategic alliances: initial conditions or learning processes?, in: Strategic Management Journal, Vol. 17 (Summer Special Issue): pp. 55–83. Doz, Y./Hamel, G. (1998): Alliance advantage – the art of creating value through partnering, Harvard Business School Press, Boston, MA. 256 Dietrich von der Oelsnitz, Marcus Lorenz Dussauge, P./Garrette, B. (1999): Cooperative strategy – competing successfully through strategic alliances, Wiley, Chichester. Dussauge, P./Garrette, B./Mitchell, W. (2000): Learning from competing partners: outcomes and durations of scale and link alliances in Europe, North America and Asia, in: Strategic Management Journal, Vol. 21 No. 2: pp. 99–126. Dyer, J. H./Nobeoka, K. (2000): Creating and managing a high-performance knowledge-sharing network: the Toyota case, in: Strategic Management Journal, Vol. 21 No. 3: pp. 345–67. Dyer, J. H./Singh, H. (1998): The relational view: cooperative strategy and sources of interorganizational competitive advantage, in: Academy of Management Review, Vol. 23 No. 4: pp. 660–79. Folta, T. B./O’Brian, J. (2004): Entry in the presence of dueling options, in: Strategic Management Journal, Vol. 25 No. 2: pp. 121–38. Garrette, B./Castañer, X./Dussauge, P. (2009): Horizontal alliances as an alternative to autonomous production: product expansion mode choice in the worldwide aircraft industry 1945–2000, in: Strategic Management Journal, Vol. 30 No. 8: pp. 885–894. Gimeno, J. (2004): Competition within and between networks: the contingent effect of competitive embeddedness on alliance formation, in: Academy of Management Journal, Vol. 47 No. 6: pp. 820–842. Grant, R. M./Baden-Fuller, C. (2004): A knowledge accessing theory of strategic alliances, in: Journal of Management Studies, Vol. 41 No. 1: pp. 61–84. Grunwald, R. and Kieser, A. (2007): Learning to reduce interorganizational learning: an analysis of architectural product innovation in strategic alliances, in: The Journal of Product Innovation Management, Vol. 24 No. 4: pp. 369–391. Gulati, R. (1999): Network location and learning: the influence of network resources and firm capabilities on alliance formation, in: Strategic Management Journal, Vol. 20 No. 5: pp. 397–420. Hamel, G. (1991): Competition for competence and inter-partner learning within international strategic alliances, in: Strategic Management Journal, Vol. 12 Summer Special Issue: pp. 83–103. Henderson, R. M. (1994): The evolution of integrative capability: innovation in cardiovascular drug discovery, in: Industrial and Corporate Change, Vol. 3 No. 3: pp. 607–630. Hitt, M. A./Dacin, M. T./Levitas, E./Arregle, J. L./Borza, A. (2000): Partner selection in emerging and developed market contexts: resource-based and organizational learning perspectives, in: Academy of Management Journal, Vol. 43 No. 3: pp. 449–467. Hoang, H./Rothaermel, F. T. (2005): The effect of general and partner-specific alliance experience on joint R&D project performance, in: Academy of Management Journal, Vol. 48 No. 2: pp. 332–345. Hoffmann, W. H. (2007): Strategies for managing a portfolio of alliances, in: Strategic Management Journal, Vol. 28 No. 8, pp: 827–856. Inkpen, A. C./Beamish, P. W. (1997): Knowledge, bargaining power, and the instability of international joint ventures, in: Academy of Management Review, Vol. 22 No. 1: pp. 177–202. Kale, P./Singh, H. (2007): Building firm capabilities through learning: the role of the alliance learning process in alliance capability and firm-level alliance success, in: Strategic Management Journal, Vol. 28 No. 10: pp. 981–1000. Kale, P./Singh, H./Perlmutter, H. (2000): Learning and protection of proprietary assets in strategic alliances: building relational capital, in: Strategic Management Journal, Vol. 21 No. 2: pp. 217–237. Khanna, T./Gulati, R./Nohria, N. (1998): The dynamics of learning alliances: competition, cooperation, and relative scope, in: Strategic Management Journal, Vol. 19 No. 3: pp. 193–210. Kogut, B. (1991): Ventures and the option to expand and acquire, in: Management Science, Vol. 37 No. 1: pp. 19–33. Interorganizational Learning between Convergence and Cospecialization 257 Koza, M. P./Lewin, A. (1998): The co-evolution of strategic alliances, in: Organization Science, Vol. 9 No. 3: pp. 255–264. Kumar, R./Nti, K. O. (1998): Differential learning and interaction in alliance dynamics: a process and outcome discrepancy model, in: Organization Science, Vol. 9 No. 3: pp. 356–367. Lane, P. J./Lubatkin, M. (1998): Relative absorptive capacity and interorganizational learning, in: Strategic Management Journal, Vol. 19 No. 5: pp. 461–477. Larsson, R./Bengtsson, L./Kenrikson, K./Sparks, J. (1998): “The interorganizational learning dilemma: collective knowledge development in strategic alliance“, in: Organization Science, Vol. 9 No. 3: pp. 285–305. Lavie, D. (2006): The competitive advantage of interconnected firms: an extension of the resource-based view, in: Academy of Management Review, Vol. 31 No. 3: pp. 638–658. Lord, R. G./Emrich, C. G. (2001): Thinking outside the box by looking inside the box: extending the cognitive revolution in leadership researc, in: Leadership Quarterly, Vol. 11 No. 11: pp. 551–579. Lubatkin, M. H./Florin, J./Lane P. (2001): Learning together and apart: a model of reciprocal interfirm learnin, in: Human Relations, Vol. 54 No. 10: pp. 1353–1382. March, J. G. (1991): Exploration and exploitation in organizational learning, in: Organization Science, Vol. 2 No. 1: pp. 71–87. Mesquita, L. F./Anand, J./Brush, T. H. (2008): Comparing the resource-based and relational views: knowledge transfer and spillover in vertical alliances, in: Strategic Management Journal, Vol. 29 No. 9: pp. 913–941. Mowery, D. C., Oxley/J. E. and Silverman, B. S. (1996): Strategic alliances and interfirm knowledge transfer, in: Strategic Management Journal, Vol. 17 No. 1: pp. 77–91. Mowery, D. C./Oxley, J. E./Silverman, B. S. (2002): The two faces of partner specific absortive capacity: learning and cospecialization in strategic alliances, in: Contractor, F. J./Lorange, P. (eds.): Cooperative strategies and alliances, Elsevier, Oxford. Nahapiet, J./Ghoshal, S. (1998): Social capital, intellectual capital, and the organizational advantag“, in: Academy of Management Review, Vol. 23 No. 2: pp. 242–266. Nakamura, M./Shaver, J. M./Yeung, B. (1996): An empirical investigation of joint ventures dynamics: evidence from U.S.-Japan joint ventures, in: International Journal of Industrial Organization, Vol. 14 No. 4: pp. 521–541. Nooteboom, B./Vanhaverbeke, van W./Duysters, G./Gilsing, V./Oord, den A. (2007): Optimal cognitive distance and absorptive capacity, in: Research Policy, Vol. 36 No. 7: pp. 1016–1034. Parise, S./Casher, A. (2003): Alliance portfolios: designing and managing your network of business-partner relationships, in: Academy of Management Executive, Vol. 17 No. 4: pp. 25–39. Park, S. H./Russo, M. V. (1996): When competition eclipses cooperation: an event history analysis of joint venture failure, in: Management Science, Vol. 42 No. 6: pp. 875–890. Parkhe, A. (1991): Interfirm diversity, organizational learning, and longevity in global strategic alliances, in: Journal of International Business Studies, Vol. 22 No. 4: pp. 579–601. Porter, M. E./Fuller, M. B. (1986): Coalitions and global strategy, in: Porter, M. E. (ed.): Competition in Global Industries, Harvard University Press, Boston. Rosenkopf, L./Almeida, P. (2003): Overcoming local search through alliances and mobility, in: Management Science, Vol. 49 No. 6: pp. 751–766. Sanchez, R./Mahoney, J. T. (1996): Modularity, flexibility, and knowledge management in product and organizational design, in: Strategic Management Journal, Vol. 17 Winter Special Issue: pp. 63–76 Santoro, M. D./McGill, J. P. (2005): The effect of uncertainty and asset co-specialization on governance in biotechnology alliances, in: Strategic Management Journal, Vol. 26 No. 13: pp. 1261–1269. 258 Dietrich von der Oelsnitz, Marcus Lorenz Saviotti, P. (1996): Technological evolution, variety and the economy, Elgar, Cheltenham. Saxton, T. (1997): The effects of partner and relationship characteristics on alliance outcomes, in: Academy of Management Journal, Vol. 40 No. 2: pp. 443–462. Schilke, O./Goerzen, A. (2010): Alliance management capability: an investigation of the construct and its measurement, in: Journal of Management, Vol. 36 No. 5: pp. 1192–1219. Simonin, B. L. (1997): The importance of collaborative know-how: an empirical test of the learning organization, in: Academy of Management Journal, Vol. 40 No. 5: pp. 1150–1174. Simonin, B. L. (1999): Ambiguity and the process of knowledge transfer in strategic alliances, in: Strategic Management Journal, Vol. 20 No. 7: pp. 595–623. Sherman, S. (1992): Are strategic alliances working?, in: Fortune, September 21st: pp. 77–78. Szulanski, G. (1996): Exploring internal stickiness: impediments to the transfer of best practices within the firm, in: Strategic Management Journal, Vol. 17 Winter Special Issue: pp. 27–43. Vassolo, R. S., Anand, J. and Folta, T. B. (2004): Non-additivity in portfolio of exploration activities: a real options-based analysis of equity alliances in biotechnology, in: Strategic Management Journal, Vol. 25 No. 12: pp 1045–1061. Wegner, D. M. (1995): A computer network model of human transactive memory, in: Social Cognition, Vol. 13 No. 3: pp. 319–339. Zahra, S. A./George, G. (2002): Absorptive capacity: a review, reconceptualization, and extension, in: Academy of Management Review, Vol.27 No. 2: pp. 185–203. Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen Niko Paech Wie können Unternehmen die absehbar eintretende Situation meistern, dass weitere Zunahmen des Bruttoinlandsproduktes (BIP) weder realistisch noch sinnvoll sind? Im Rahmen dieses Beitrags soll zunächst auf die Essenz zeitgenössischer Wachstumslogiken eingegangen werden. Sodann wird der Blick auf die Postwachstumsökonomik als neue Teildisziplin der Wirtschaftswissenschaften gerichtet. Daran anknüpfend wird die These untermauert, dass eine absolute ökologische Entkopplung wirtschaftlichen Wachstums systematisch nicht möglich ist. Maßnahmen zur Überwindung des zeitgenössischen Wachstumsdogmas können hier nur ohne Anspruch auf Vollständigkeit bearbeitet werden, aber zumindest insoweit, als sie aus betriebswirtschaftlicher Sicht von Belang sind. 1 Eine kleine Geschichte des Wachstums In seiner „Philosophie des Geldes“ hat der deutsche Philosoph und Soziologe Georg Simmel (1900) einprägsam den Zusammenhang zwischen Wachstum und Fortschritt beschrieben. Bis zur Kopernikanischen Wende war das abendländische Weltbild von der Vorstellung beherrscht, dass der Kosmos ein endliches Ganzes darstellt. Wenn nun aber die Dinge, welche von vielen begehrt würden, nicht vermehrt werden könnten, so schreibt Simmel, drohe unweigerlich eine „Menschheitstragödie der Konkurrenz“, die es kraft Fortschritts zu überwinden gelte: „In dem Maße, in dem man weitere Substanzen und Kräfte aus dem noch unokkupierten Vorrat der Natur in die menschliche Nutznießung hineinzieht“, so schreibt Simmel, „werden die bereits okkupierten von der Konkurrenz um sie entlastet“. Damit werden Konflikte zwischen Menschen in solche zwischen Mensch und Natur umgelenkt. „Substanzieller“ Fortschritt besteht gemäß Simmel darin, die Natur mittels technischer Möglichkeiten in ein Füllhorn zu verwandeln. Dieses epochale Unterfangen trägt schon deshalb zur Zivilisierung der Menschheit bei, weil daran im Zuge einer umfassenden und zusehends ausdifferenzierten Arbeitsteilung alle teilhaben können. Die damit vorgegebene, geradezu universelle Entwicklungsrichtung – höher-schneller-weiter-besser-größerbequemer – bindet jene Kräfte, die andernfalls weniger harmlosen Zwecken dienen könnten. Friedlich vereint in geschäftiger Verwertung hackt eine Krähe der anderen kein Auge aus, jedenfalls solange genug für alle da ist. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_19, © Springer Fachmedien Wiesbaden 2013 260 Niko Paech Sollten die Ressourcenquellen je versiegen und schließlich doch Verteilungskonflikte drohen, könnten diese, so führt Simmel weiter aus, mittels „funktionalen“ Fortschritts vermieden werden. Dieser gründet auf einer modernen Geldwirtschaft, insbesondere den damit entfachten Tauschvorgängen. Letztere ermöglichen den „Aufbau einer Welt, die ohne Streit und gegenseitige Verdrängung aneigenbar ist, zu Werten, deren Erwerb und Genuss seitens des einen den anderen nicht ausschließt, sondern tausendmal dem anderen den Weg zu dem gleichen öffnet“. Das Tauschmedium Geld sorgt dafür, dass alle Dinge dorthin gelangen, wo das Maximum des in ihnen schlummernden latenten Wertes genutzt werden kann. „Angenommen, die Welt wäre wirklich ‚weggegeben‘ und alles Tun bestünde in einem bloßen Hin- und Herschieben innerhalb eines objektiv unveränderlichen Wertquantums, so bewirkte dennoch die Form des Tausches gleichsam ein interzellulares Wachstum der Werte“. Die damit einhergehende Herausbildung neuer Motivstrukturen, Verflechtungen und effizienter Arbeitsteilung bettet alles Soziale in ökonomische Beziehungen ein, schafft friedenstiftende Bindungen. Mit anderen Worten: Wer Handelsbeziehungen zum beiderseitigen Nutzen unterhält, führt (meistens) keine Kriege. 2 Postwachstumsökonomik Inzwischen wird aus unterschiedlichen Gründen in Frage gestellt, dass die Wachstumsorientierung moderner Ökonomien fortgesetzt werden kann und sollte. Erstens, so wird argumentiert, scheitere weiteres Wachstum an absehbaren Ressourcenengpässen (Heinberg 2007), zweitens sei es nie ohne ökologische Schäden zu haben (Paech 2012), drittens verringere es nicht per se Verteilungsdisparitäten (Paech 2008) und viertens sorge es nach Erreichen eines bestimmten Wohlstandsniveaus für keine Glückszuwächse (Layard 2005). Basierend auf Forschungsaktivitäten an der Carl von Ossietzky Universität Oldenburg wurden die Begriffe „Postwachstumsökonomik“ (als analytischer Rahmen) und „Postwachstumsökonomie“ (als konkreter ökonomischer Zukunftsentwurf) etwa 2006 in die wissenschaftliche Nachhaltigkeitsdiskussion eingebracht. Seither widmen sich etliche Publikationen, Veranstaltungen und Netzwerke (VÖÖ, Netzwerk Wachstumswende, Netzwerk Suffizienz, Transition Town-Bewegung etc.) dieser Themenstellung, wenngleich mit unterschiedlichen Akzenten und Konkretisierungsgraden. Die Postwachstumsökonomik lässt sich in mancher Hinsicht als Weiterentwicklung einer ersten Welle wachstumskritischer Darlegungen verstehen. Dazu zählen unter anderem Arbeiten von Kohr (1957), Mumford (1967), Georgescu-Roegen (1971), Meadows (1972), Schumacher (1973), Illich (1973), Daly (1977), Hueting (1980) und Gronemeyer (1988). Innerhalb einer zweiten Welle der Wachstumsdebatte lassen sich Beiträge verorten, die unter anderem mit folgenden Begriffen bzw. Titeln assoziiert sind: „Ökosozialismus“ (Sakar 2001), „La decrescita felice“ (Pallante 2005), „Décroissance“ (Latouche 2006), „Degrowth“ (Martinez-Alliez 2009), „Postwachstumsökonomie“ (Paech 2008, 2012), „Managing without Growth“ (Victor 2008), „Prosperity without Growth“ (Jackson 2009), „Vorwärts zur Mäßigung“ (Binswanger 2009), „Exit“ (Miegel 2010), „Plenitude“ (Schor 2010) oder „Postwachstumsgesellschaft“ (Seidl/Zahrnt 2010). Vor diesem Hintergrund richtet die Postwachstumsökonomik den Blick als ökologisch orientierte wirtschaftswissenschaftliche Teildisziplin auf drei Fragestellungen: Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 261 a. Welche Begründungszusammenhänge lassen erkennen, dass ein weiteres Wachstum des Bruttoinlandsproduktes keine Option für das 21. Jahrhundert sein kann? b. Was sind die Ursachen dafür, dass moderne, auf industrieller Fremdversorgung basierende Volkswirtschaften einem Wachstumszwang unterliegen? c. Was sind die Konturen einer Ökonomie jenseits des Wachstumszwangs (Postwachstumsökonomie)? Abbildung 1: Aufbau der Postwachstumsökonomik Quelle: Eigene Im Folgenden sollen die Entkopplungsproblematik und das „Peak Everything“-Phänomen beleuchtet werden, weil es sich hierbei um Wachstumsgrenzen handelt, die aus betriebswirtschaftlicher Sicht besonders relevant sind. 3 Wachstumsgrenzen 3.1 Entkopplung Zuwächse des Bruttoinlandsproduktes (BIP) setzen zusätzliche Produktion voraus, die als Leistung von mindestens einem Anbieter und zu einem Empfänger übertragen werden muss und einen Geldfluss induziert. Der Wertschöpfungszuwachs hat somit eine materielle Entstehungsseite und eine finanzielle Verwendungsseite des zusätzlichen Einkommens. Beide Wirkungen wären ökologisch zu neutralisieren, um die Wirtschaft ohne Verursachung zusätzlicher Umweltschäden wachsen zu lassen. Selbst wenn sich die Entstehung einer geldwerten und damit BIP-relevanten Leistungsübertragung technisch jemals entmaterialisieren ließe – was mit Ausnahme singulärer Laborversuche bislang nicht absehbar ist –, bliebe das Entkopplungsproblem solange ungelöst, wie sich mit dem zusätzlichen Ein- 262 Niko Paech kommen beliebige Güter finanzieren lassen, die nicht vollständig entmaterialisiert sind. Beide Seiten sollen im Folgenden kurz beleuchtet werden. 3.1.1 Entstehungsseite des BIP: Materielle Rebound-Effekte Wie müssten Güter beschaffen sein, die als geldwerte Leistungen von mindestens einem Anbieter zu einem Nachfrager übertragen werden, deren Herstellung, physischer Transfer, Nutzung und Entsorgung jedoch aller Flächen-, Materie- und Energieverbräuche enthoben sind? Bisher ersonnene Green Growth-Lösungen erfüllen diese Voraussetzung offenkundig nicht, ganz gleich ob es sich dabei um Passivhäuser, Elektromobile, Ökotextilien, Photovoltaikanlagen, Bio-Nahrungsmittel, Offshore-Anlagen, Blockheizkraftwerke, Smart Grids, solarthermische Heizungen, Cradle-to-cradle-Getränkeverpackungen, Carsharing, digitale Services etc. handelt. Nichts von alledem kommt ohne physischen Aufwand, insbesondere neue Produktionskapazitäten und Infrastrukturen aus. Könnten die grünen Effizienz- oder Konsistenzlösungen den weniger nachhaltigen Output nicht einfach ersetzen, anstatt eine materielle Addition zu verursachen? Um eine ökologisch entlastende Substitution zu erwirken, reicht es nicht aus, Outputströme zu ersetzen, solange dies mit zusätzlichen materiellen Bestandsgrößen und Flächenverbräuchen (wie bei Passivhäusern oder Anlagen zur Nutzung erneuerbarer Energien) erkauft wird. Die bisherigen Kapazitäten und Infrastrukturen müssten zudem beseitigt werden. Aber wie könnte die Materie ganzer Industrien und Gebäudekomplexe ökologisch neutral verschwinden? Hinzu kommt ein zweites Dilemma: Wie kann das BIP dauerhaft wachsen, wenn jedem grünen Wertschöpfungsgewinn ein Verlust infolge des Rückbaus alter Strukturen entgegenstünde? Dies lässt sich exemplarisch an der deutschen „Energiewende“ nachzeichnen. Zunächst entpuppen sich die momentan von der Green Growth-Gemeinde bestaunten Wertschöpfungsbeiträge der erneuerbaren Energien bei genauerer Betrachtung bestenfalls als Strohfeuereffekt. Nachdem der vorübergehende Aufbau additiver Kapazitäten abgeschlossen ist, reduziert sich der Wertschöpfungsbeitrag auf einen Energiefluss, der vergleichsweise wenig Aufwand an wertschöpfungsträchtigen Inputs verursacht und nicht beliebig gesteigert werden kann – es sei denn, die Produktion neuer Anlagen wird ohne Begrenzung fortgesetzt. Aber dann drohen weitere Umweltschäden: Die schon jetzt unerträglichen Landschaftszerstörungen nähmen entsprechend zu, weil die materiellen Bestandsgrößen expandieren. Daran zeigt sich die Problematik materieller Verlagerungseffekte: „Grüne“ Technologien lösen zumeist ohnehin keine ökologischen Probleme, sondern transformieren diese nur in eine andere physische, räumliche, zeitliche oder systemische Dimension. Deshalb sind die Versuche, Entkopplungserfolge empirisch nachzuweisen, nur so brauchbar wie es gelingt, alle Verlagerungseffekte zu berücksichtigen. Aber wie sollen beispielsweise CO2-Einsparungen mit Landschaftszerstörungen saldiert werden? Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 263 3.1.2 Verwendungsseite des BIP: Finanzielle Rebound-Effekte Selbst wenn entmaterialisierte Produktionszuwächse je möglich wären, müssten die damit unvermeidlich korrespondierenden Einkommenszuwächse ebenfalls ökologisch neutralisiert werden. Aber es erweist sich als schlicht undenkbar, den Warenkorb jener Konsumenten, die das in den grünen Branchen zusätzlich erwirtschaftete Einkommen beziehen, von Gütern freizuhalten, in deren (globalisierte) Produktion fossile Energie und andere Rohstoffe einfließen. Würden diese Personen keine Eigenheime bauen, mit dem Flugzeug reisen, Auto fahren und übliche Konsumaktivitäten in Anspruch nehmen – und zwar mit steigender Tendenz, wenn das verfügbare Einkommen wächst? Ein zweiter finanzieller ReboundEffekte droht, wenn grüne Investitionen den Gesamtoutput erhöhen, weil nicht zeitgleich und im selben Umfang die alten Produktionskapazitäten zurückgebaut werden (die gesamte Wohnfläche nimmt durch Passivhäuser zu, die gesamte Strommenge steigt durch Photovoltaikanlagen), was tendenzielle Preissenkungen verursacht und folglich die Nachfrage erhöht. Es ist nicht einmal auszuschließen, dass davon der fossile Sektor mitprofitiert. Ein dritter finanzieller Rebound-Effekt tritt ein, wenn Effizienzerhöhungen die Betriebskosten bestimmter Objekte (Häuser, Autos, Beleuchtung etc.) reduzieren. Theoretisch ließen sich diese Rebound-Effekte vermeiden, wenn sämtliche Einkommenszuwächse abgeschöpft würden – aber wozu dann überhaupt Wachstum: Was könnte absurder sein, als Wachstum zu erzeugen, um die damit intendierte Wirkung, nämlich Einkommenssteigerungen, im selben Moment zu neutralisieren? Die Behauptung, durch Investitionen in grüne Technologien könne Wirtschaftswachstum mit einer absoluten Senkung von Umweltbelastungen einhergehen, ist also nicht nur falsch, sondern kehrt sich ins genaue Gegenteil um: Aus der Perspektive finanzieller Rebound-Effekte haben grüne Technologien allein unter der Voraussetzung eines nicht wachsenden BIPs überhaupt eine Chance, die Ökosphäre zu entlasten. Und dies ist nicht einmal eine hinreichende Bedingung, weil die materiellen Effekte – insbesondere die unzähligen Verlagerungsmöglichkeiten – auf der Entstehungsseite ebenfalls einzukalkulieren sind. Obendrein beschwört die Entkopplungsstrategie ein moralisches Problem herauf: Das Schicksal der Menschheit würde auf Gedeih und Verderb von einem technischen Fortschritt abhängig, der noch nicht eingetreten ist und dessen zukünftiges Eintreten unbeweisbar ist – ganz zu schweigen davon, dass er womöglich mehr zusätzliche Probleme erzeugt, als er zu lösen imstande ist. Ist ein solches Roulette, das nicht aus Not, sondern allein um der Mehrung eines schon jetzt überbordenden Wohlstandes willen erfolgt, verantwortbar? 3.2 Die materielle Basis weiteren Wachstums schwindet Die auf permanenter Konsum- und Mobilitätssteigerung basierenden Ökonomien weisen eine Achillesferse auf, nämlich den Aufwand an notwendigen Inputs, bei denen es sich um fossile Energieträger und viele andere Ressourcen handelt. Mittlerweile vollzieht sich in etlichen ehemaligen Entwicklungsländern eine „Konsumrevolution“ (Myers/Kent 2005). Die Entstehung einer globalen Mittelschicht, erweitert um mehr als 1,1 Milliarden „neuer Konsumenten“, treibt durch zusätzliche Güternachfrage die Rohstoffpreise nach oben. Gerade weil die Versorgung auf immer längeren Lieferketten beruht, baumelt das nördliche Konsummodell schicksalhaft an den dünnen Fäden der Versorgung mit billigem Öl. Inzwi- 264 Niko Paech schen ist das irdische Fördermaximum („Peak Oil“) für konventionelles Rohöl erreicht. Fatih Birol, Chefökonom der diesbezüglich chronisch optimistischen Internationalen Energieagentur (IEA), ließ jüngst verlauten, dass an Ölquellen vier neue Saudi-Arabien entdeckt werden müssten, um das derzeitige Erdölangebot aufrechterhalten zu können. Entscheidend ist nicht, ob die absoluten Fördermengen sinken, sondern um wie viel höher die Nachfrage ist. Infolge einer rasant nachholenden Entwicklung in den Schwellenländern trifft eine explodierende Nachfrage auf ein stagnierendes Angebot. Dies entfacht absehbar eine Preisdynamik, welche zur Erosion der ökonomischen Basis weiteren Wachstums beiträgt. Die Möglichkeit, dass der Preis für ein Barrel Rohöl in näherer Zukunft auf über 200 US-Dollar steigt, wird mittlerweile selbst von der IEA nicht mehr ausgeschlossen. Hoffnungen darauf, dass der Peak Oil durch sog. „Fracking“ vermieden werden könnte, erweisen sich längst als trügerisch. Dies würde ohnehin bestenfalls einen kurzen Aufschub der Eskalation gewähren. Im Jahr 2010 sorgte eine Studie der Bundeswehr für Furore, welche die ökonomischen Folgen des Peak-Oil-Phänomens auf den Punkt brachte. Von „ökonomischen Tipping Points“ und „Kettenreaktionen“, die das Weltwirtschaftssystem destabilisieren, ist darin zu lesen. Mittelfristig breche das globale Wirtschaftssystem und jede marktwirtschaftlich organisierte Volkswirtschaft zusammen. Ein Systemkollaps sei unumgänglich. Angesichts seines Globalisierungsgrades resultiere daraus für Deutschland auch unabhängig von der eigenen Energiepolitik ein hohes Risiko. Kein Wunder: Wenn die physische Herstellung eines immer größeren Teils der hier konsumierten Güter in China, Indien und Co. erfolgt, wäre die brenzlige Erdölabhängigkeit nicht einmal dadurch zu bändigen, dass hierzulande die Blütenträume einer Energiewende umgesetzt würden. Inzwischen mausert sich Peak Oil längst zum „Peak Everything“ (Heinberg 2007). Neben knappen Ressourcen wie beispielsweise Lithium für Akkus, Neodym für getriebelose Windturbinen oder Coltan für Handys tauchen „Seltene Erden“ in immer mehr Produkten auf, die aus unserem täglichen Leben nicht mehr wegzudenken sind und von deren massenhafter Vermarktung sich moderne Ökonomien längst abhängig gemacht haben. Der Nachfragezuwachs ist auf innovative, zuweilen sogar „grüne“ Technologien zurückzuführen. Mobiltelefone, Computer und Flachbildschirme können ohne Seltene Erden ebenso wenig hergestellt werden wie LED-Lampen, Elektro- und Hybridautos. Ein Hybridfahrzeug enthält bis zu zwölf Kilogramm Seltene Erden. Bei hinreichendem Fremdversorgungsgrad existiert kein gesellschaftliches Teilsystem, Produkt und Infrastrukturelement, welches nicht wenigstens indirekt von fossilen Energieträgern, Seltenen Erden oder knappen Metallen abhängig ist. Die Entfesselung ungeheurer Kaufkraftzuwächse infolge weltweit verzweigter, Kostendifferenzen abschöpfender Herstellungsketten wird folglich mit einer nie dagewesenen Instabilität erkauft. Fremdversorgungsabhängigkeit maximiert das Risiko des sozialen Absturzes, etwa wenn Arbeitsplätze wegfallen, hohe Preise die Kaufkraft senken oder die externe Zufuhr lebensnotwendiger oder kritischer Inputs ausbleibt. Die kommenden Finanz- und Verschuldungskrisen erledigen ein Übriges. Deshalb lässt sich der Nachhaltigkeitsbegriff zusehends als Anforderung an erhöhte „Resilienz“ auslegen. Damit sind Systemeigenschaften und Vorkehrungen gemeint, die den absehbaren Aufprall dämpfen. Auch aus dieser Perspektive zeigt sich, dass sich der Rückbau des nicht zu stabilisierenden Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 265 Fremdversorgungsniveaus als unumgängliche Option erweisen könnte, um die inzwischen erreichte Fallhöhe zu verringern. 4 Wachstumstreiber Wenn von Wachstumszwängen, -treibern oder -imperativen die Rede ist, sollten diese nicht mit Wachstumstheorien verwechselt werden. Erstere liefern Erklärungen dafür, warum moderne, zumal industriell arbeitsteilige Versorgungssysteme ohne Wachstum ökonomisch und sozial nicht zu stabilisieren sind. Letztere befassen sich damit, wie und auf Basis welcher Einflussfaktoren wirtschaftliches Wachstum zustande kommt. Im Folgenden geht es um die Ersteren. Die Vielzahl jener Faktoren darzustellen, die als Wachstumstreiber zu identifizieren wären, würde den vorliegenden Rahmen sprengen. Deshalb soll lediglich auf zwei Grundmuster eingegangen werden, nämlich kulturell und strukturell induzierte Wachstumsdynamiken, die sich nachfrageseitig bzw. angebotsseitig verorten lassen. 4.1 Kulturelle Wachstumstreiber Unter welchen Bedingungen stiftet Konsum Glück? Undifferenziert lässt sich diese Schlüsselfrage schon angesichts des berühmten ersten Gossen’schen Gesetzes nicht beantworten. Dem zufolge nimmt der Nutzen, den eine weitere Einheit eines Konsumgutes stiftet, mit zunehmender Quantität ab. Dies beflügelt ständig neue Steigerungen der konsumtiven Selbstentfaltungsoptionen durch qualitative Veränderungen. Die permanente Neuerfindung der Konsumgesellschaft schützt vor Sättigungserscheinungen und Langeweile. Deshalb erstreckt sich die horizontale und vertikale Expansion des Variantenreichtums auf Produkte, Services, Erlebnisse, Reiseziele, virtuelle Welten, Wellness-Konzepte, die Optimierung des eigenen Körpers oder – sollte die innovative Ideenflut ins Stocken geraten – auf inszenierte Symbolaufladungen, mit denen alter Wein in neuen, nunmehr kulturell aufgewerteten Schläuchen seinen Reiz entfalten kann. Dennoch spricht einiges gegen die Binsenweisheit, dass eine konsumvermittelte Steigerung des individuellen Glücks nur eine Frage des Designs, ansonsten aber nach oben offen ist. Die seit neuestem auch in den Wirtschaftswissenschaften viel beachtete „Glücksforschung“ (Layard 2005) führt zur Einsicht, dass eine Erhöhung des Pro-Kopf-Einkommens nach Erreichen eines bestimmten Niveaus keinen weiteren Zuwachs an Glück stiftet. Eine mögliche Begründung dafür lieferte bereits Hirsch (1976). Ihm zufolge ist der Nutzen vieler Güter symbolischer oder demonstrativer Art, beruht also auf Distinktion, sozialem Prestige oder der Zugehörigkeit zu einer bestimmten gesellschaftlichen Gruppe. Konsum ist somit von einem Wettbewerb geprägt, in dem es um einen höheren Platz innerhalb der sozialen Hierarchie geht und Gewinne für Einzelne nur durch die Verluste von anderen möglich sind. Ein zunächst erheischter Vorsprung erodiert mit der Anzahl jener Personen, die zunächst übertroffen wurden, aber infolge weiteren Wachstums aufholen oder gleichziehen. Bereits die Verteidigung, erst recht aber die Wiedererlangung oder gar Steigerung einer sozialen Position, setzt somit ständig neue Kaufhandlungen voraus – ohne das eigene Wohlbefinden erhöhen zu können. Folglich ist es kein Widerspruch, wenn einerseits an permanenten Konsumsteigerungen festgehalten wird, obwohl anderseits im Nachhinein festgestellt werden kann, dass dies zu keinem anhaltenden Glückszuwachs geführt hat. 266 Niko Paech Die resultierende Dynamik ähnelt einer Rüstungsspirale, da ein immer höherer Konsumaufwand vonnöten ist, um ein bestimmtes, keineswegs steigerbares Glücksniveau aufrechtzuerhalten oder wiederzugewinnen. Mit jedem Wachstumsschub können bestimmte Konsumenten ihren Status verbessern, was sich zulasten der relativen Position anderer auswirkt. Letztere werden damit zu Promotoren und zur politischen Rechtfertigung weiteren Wachstums, das benötigt wird, um deren Anspruch auf nachholende Steigerung der Fremdversorgung zu finanzieren. Dies ist die Basis einer – abgesehen von physischen Grenzen – nie versiegenden Rückkopplungsdynamik, deren Ursache und Folge ökonomisches Wachstum ist. Dabei tritt ein bestimmtes sozialpolitisches Verständnis zutage, nämlich dass eine für wünschenswert erachtete soziale Angleichung durch die Ausweitung verfügbarer Möglichkeiten anzustreben ist. Umverteilungsprobleme werden nach dieser Logik weit umschifft. Stattdessen sollen ökonomische Zuwächse eine Verteilungsmasse generieren, mit der die Ansprüche der Zurückgebliebenen befriedigt werden, ohne den Gewinnern etwas nehmen zu müssen. So werden soziale Belange in einen Wachstumsimperativ transformiert. In abstrakter Betrachtung kann diese Steigerungslogik als das dominante Entwicklungsprinzip moderner Konsumgesellschaften bezeichnet werden. Die nie versiegende Quelle für gesellschaftspolitischen Handlungsbedarf speist sich aus einer Aufdeckung sozialer Differenzen, die sodann in den Imperativ ihrer Beseitigung durch zusätzliches Bewirken und Steigern transformiert werden. So erhält politisches und wirtschaftliches Agieren eine nie zum Ende gelangende, sich fortwährend selbst reproduzierende Legitimation. Genug ist eben nie genug: Wachstum erzeugt Differenzen, deren Beseitigung – ganz gleich auf welchem Niveau – neues Wachstum notwendig macht. 4.2 Strukturelle Wachstumstreiber 4.2.1 Innovationswettbewerb als Wachstumsmotor Die im ersten Abschnitt angesprochene Friedenstifterlogik wirtschaftlichen Wachstums hat auch innerhalb der Dogmenhistorie des strategischen Managements deutliche Spuren hinterlassen. Was Schumpeter (1934) zu Beginn des vergangenen Jahrhunderts ausführlich beschrieb, hat sich zu einem dominanten Wesenszug moderner Marktwirtschaften entwickelt: Die Konkurrenzbeziehungen zwischen Unternehmen lassen sich zu einem Gutteil als Innovationswettbewerb darstellen. Demnach setzen sich innovative Unternehmen mittels „neuer Kombinationen“ von der Konkurrenz ab und weichen damit dem üblicherweise angenommenen Preiswettbewerb aus. Auf einen ähnlichen Zusammenhang haben auch Chamberlin (1933) und Robinson (1933) hingewiesen. Durch die Nichtimitierbarkeit ihrer Leistungen oder Produkte kann eine Unternehmung die auf sie entfallende Nachfrage zu einem Preis bedienen, der überdurchschnittliche Profite erlaubt, zumindest kurzfristig. In der Betriebswirtschaftslehre hat diese Strategieausrichtung, die auch als Eroberung oder Erschließung einer „Nische“ aufgefasst werden kann, durch die Mitte der Achtziger Jahre entstandene „Ressource-based View“ (Schulze 1994, Teece/Pisano/Shuen 1997, Wernerfeld 1984) eine neue theoretische Fundierung erhalten und als Gegenpol zur „Market-based View“ einige Aufmerksamkeit erregt. Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 267 Unter plausiblen Annahmen kann diese Strategieausrichtung allerdings langfristig nur erfolgreich sein, wenn dadurch neue Nachfrage geweckt wird, d.h. Rivalität in Wachstum transformiert wird. Würde nämlich um ein konstantes Quantum an Nachfrage konkurriert, könnten weitere Innovatoren in den Markt eintreten, die ebenfalls unverwechselbar im Sinne vertikaler oder horizontaler Differenzierung sind, und deshalb einen Teil der Nachfrage auf sich ziehen. Dieser Eintrittsprozess würde die Anzahl der Anbieter erhöhen und damit schleichend deren durchschnittlichen Marktanteil verringern. Unter der Annahme zunehmender Skalenerträge existiert eine Obergrenze für die Anzahl profitabel agierender Marktteilnehmer. Sollten danach weitere Newcomer eintreten, wäre ein Verdrängungskampf mit anschließenden Marktaustritten die Konsequenz. Die Möglichkeit, dass sich einzelne Anbieter diesem Mechanismus systematisch mit einer höheren Wahrscheinlichkeit entziehen können als andere, lässt sich ohne Ad-hocAnnahmen kaum begründen. Aus der Sicht eines einzelnen Unternehmens kann ex ante keine Innovationsstrategie existieren, die sicherstellt, quasi automatisch das im Vergleich zu Konkurrenten höchste „aquisitorische Potenzial“ zu erlangen, auf das andere Marktakteure nicht zugreifen könnten. Folglich kann die Differenzierungsstrategie nur dauerhaft erfolgreich sein, wenn damit ein neues Marktsegment, d.h. zusätzliche Nachfrage generiert wird, um die mit niemandem konkurriert werden muss. „Indeed, what is the meaning of the word ‘niche’ but a position that is occupied to avoid competition“ (Mintzberg 1987, S. 15). In manchen Situationen können sich bereits im Markt befindliche Firmen durch strategische Eintrittsbarrieren gegen nachfolgende Wettbewerber schützen. Aber diese zusätzliche Option ändert an der für den vorliegenden Kontext entscheidenden Konsequenz nichts, im Gegenteil: Abgeschottete Märkte lassen Newcomern erst recht keine andere Wahl, als eine neue Nische zu erschließen und damit zusätzliche Nachfrage, folglich Wachstum zu generieren. Unter der Annahme, dass Nichtimitierbarkeit ohnehin nur ein temporär aufrecht zu erhaltenes Attribut ist, könnten zu einem späteren Zeitpunkt Imitatoren in den Markt eintreten, die aufgrund verbesserter Techniken oder Organisationsprinzipien in der Lage sind, das Angebot einer etablierten Firma, die vormals als Differenzierer in Erscheinung trat, hinreichend genau zu kopieren, den Preis zu unterbieten und damit dessen Nachfrage an sich zu reißen. Nun könnte der etablierte Anbieter durch weitere Innovationsaktivitäten versuchen, derartigen Angriffen auszuweichen. Dies würde aber im Fall von Produktinnovationen, also dem Versuch, durch eine Angebotsdifferenzierung abermals Unverwechselbarkeit zu erlangen, bedeuten, ein neues Marktsegment und damit zusätzliche Nachfrage zu erschließen. Folglich hat die Strategie, durch Innovationen äußerliche Unverwechselbarkeit und damit langfristig supra-normale Gewinne zu erzielen, nur dann Aussicht auf Erfolg, wenn sie darauf beruht, aus der Beschränkung einer konstanten Nachfragemenge, um die eine tendenziell zunehmende Anzahl von Firmen konkurriert, auszubrechen. Dies hat Schumpeter (1934, S. 133) ausdrücklich hervorgehoben: „Unser Mann der Tat folgt nicht einfach gegebener Nachfrage. Er nötigt seine Produkte dem Markte auf.“ Innovationswettbewerb, d.h. „schöpferische Zerstörung“, sei aufgrund des Hervorbringens von neuen Konsumgütern der „fundamentale Antrieb, der die kapitalistische Maschine in Bewegung setzt und hält“ (Schumpeter 1950, S. 137), womit nichts anderes gemeint ist, als „der mächtige Sauerteig, der auf lange Sicht die Produktion ausdehnt“ (ebd. S. 140). Keine Unternehmung, die im 268 Niko Paech Kontext des marktwirtschaftlichen Innovationswettbewerbs agiert, kann sich dieser Problematik entziehen, auch dann nicht, wenn sie Nachhaltigkeitsinnovationen anstrebt. 4.2.2 Kapitalverwertung und industrielle Spezialisierung Das prägende Merkmal des industriellen Versorgungssystems besteht im Aufbau funktional hoch ausdifferenzierter – also „langer“ – Wertschöpfungsketten. Dies setzt permanentes Wachstum voraus. Warum? Wenn Leistungserstellung, die vormals an einen Produktionsstandort gebunden war, in möglichst viele isolierte Fertigungsstufen zerlegt wird, erlaubt dies deren flexible und ortsungebundene Verlagerung. So kann jeder isolierte Teilprozess jeweils dorthin verschoben werden, wo durch Spezialisierung, Automatisierung, Energieeinsatz und Größenvorteile die Kosten minimal sind. Somit beruht Wohlstandsmehrung durch industrielle Arbeitsteilung auf einer wachsenden Anzahl zwischengeschalteter Spezialisierungsstufen. Jede davon muss vor Aufnahme der Produktion die benötigten Inputs vorfinanzieren, also investieren, wozu Fremd- und/oder Eigenkapital benötigt wird. Jede am arbeitsteiligen Wertschöpfungsprozess beteiligte Unternehmung muss daher einen entsprechenden Überschuss erwirtschaften, um die Fremdkapitalzinsen und/oder Eigenkapitalrendite zur Deckung des Investitionsrisikos zu erzielen. Letzteres steigt überdies mit zunehmender Komplexität, also Anzahl, Distanz und Anonymität der Produktionsstätten. Die Untergrenze für das insgesamt nötige Wachstum zur Stabilisierung des Wertschöpfungsprozesses wird daher mit jedem weiteren arbeitsteilig integrierten Unternehmen erhöht, dessen Überleben nur bei Erzielung eines hinreichenden Überschusses möglich ist. Hierbei darf nicht die elementare Rolle der Geldschöpfung übersehen werden. Denn die zuvor beschriebene Dynamik wäre nicht oder nur in viel schwächerer Ausprägung denkbar, wenn die Geschäftsbanken nicht ständig neues Geld schöpfen könnten, um die Unternehmen mit Krediten für die Investitionen zu versorgen. Eine derartige Geldschöpfung erfolgt praktisch aus dem Nichts, weil die Banken bei der Kreditvergabe nicht einfach nur die Spareinlagen eins zu eins weitervermitteln, sondern Schulden in Geld verwandeln können (vgl. Huber/Robertson 208, Binswanger 2009). Dieses „Schuldgeldsystem“ setzt der wundersamen Geldvermehrung keine Grenzen und wandelt neues Geld in reales Wachstum um, weil sich daraus das Kapital für produktive Investitionen speist, das wiederum unter Verwertungszwang steht. Eine weitere Begleiterscheinung entgrenzter Wertschöpfungsprozesse besteht darin, dass der dabei eingesetzte technische Fortschritt fortwährend die Arbeitsproduktivität steigert. Deshalb lässt sich jeder einmal erreichte Beschäftigungsstand nach einem Innovationsschub nur beibehalten, wenn die Produktionsmenge hinreichend wächst. 5 Postwachstumsökonomie: Umrisse einer Wirtschaft ohne Wachstum Um eine Wirtschaft ohne Wachstum systematisch und als in sich geschlossenes Konzept zu entwickeln, muss diese darauf beruhen, die zuvor skizzierten strukturellen und kulturellen Wachstumstreiber weitestgehend auszuschalten. Genau daraus speisen sich die Bedingungen für die Postwachstumsökonomie. Kulturelle Wachstumstreiber lassen sich nur – so trivial und zugleich mühsam dies auch erscheinen mag – durch suffiziente Anspruchsaus- Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 269 formungen mildern. Strukturelle Expansionsdynamiken sind nur durch eine tendenzielle Verkürzung oder Entflechtung komplexer Produktionsketten zu mildern, um die Kapitalbedürftigkeit der Versorgung zu mildern. Je weniger spezialisiert und damit tendenziell kapitalintensiv Produktionssysteme sind, desto weniger Kapitalverwertung, die wiederum Wachstum bedeutet, ist nötig. Eine damit einhergehende Reduktion des Fremdversorgungsgrades kann von der Regional- über die Lokal- bis zur Selbstversorgung, also Subsistenz, reichen. Subsistenz als Idealtypus der kapitallosen, dafür aber umso arbeitsintensiven Wertschöpfung ist keine Frage des Entweder-oder, sondern des Mehr-oder-weniger, kann also als Element kombinierter Versorgungsleistungen mit unterschiedlichen Fremdversorgungsgraden in Erscheinung treten. Folglich bedarf es sowohl einer Theorie der Suffizienz als auch der Subsistenz, um die notwendigen Voraussetzungen einer Postwachstumsökonomie herzuleiten. Eine andernorts beschriebene „zeitökonomische Theorie der Suffizienz“ (Paech 2010) soll an dieser Stelle nicht weiter vertieft werden. 5.1 Ansatzpunkte zur Reduktion struktureller Wachstumszwänge Zwecks Überwindung kapitalbedingter Expansionstreiber lassen sich prinzipiell zwei Entwicklungsrichtungen ausmachen, die den Nachhaltigkeitsdiskurs prägen. 1. Institutionelle Perspektive: Marxistische Positionen sowie die Geld- und Bodenreformbewegung orientieren sich an einer institutionellen „Entschärfung“ von Kapitalverwertungszwängen oder -interessen. Während erstere über eine Vergesellschaftung oder demokratische Regulierung von Kapitalbeständen jegliche Profitorientierung ausschalten wollen, thematisieren letztere den Zinseszinseffekt sowie die Abschöpfung von Bodenrenten. Auch der Diskurs um die „Commons“ (Gemeingüter, Allmenden) zielt darauf, Eigentums- und Nutzungsrechte so zu verändern, dass anstelle unternehmerischer Profitmaximierung die unmittelbare Bedürfnisbefriedigung angestrebt wird. Weitere Versuche, über institutionellen Wandel pathologische Kapitalverwertungszwänge einzuhegen, finden sich in Konzepten der Wirtschaftsdemokratie. 2. Substanzielle Perspektive: Weiter reichende Konzepte, die sich unter anderem bei Kohr (1957), Mumford (1967), Georgescu-Roegen (1971), Schumacher (1973) und Illich (1973) finden, begnügen sich nicht mit einer „Zähmung“ oder nur gerechteren Verteilung der Kapitalverwertung, sondern hinterfragen grundsätzlich die Architektur jener Versorgungssysteme, aus denen sich die Notwendigkeit eines bestimmten Kapitaleinsatzes ergibt. Sowohl die Technologie als auch der Grad an industrieller Spezialisierung – folglich ebenso die räumliche Reichweite von Wertschöpfungsketten – werden damit zum Gestaltungsobjekt. Beides beeinflusst maßgeblich den Kapitaleinsatz, und zwar in doppelter Hinsicht, nämlich über die technologisch determinierte Kapitalintensität der Produktion und die Höhe des Outputs. Indem die technische und räumliche Beschaffenheit von Produktionssystemen thematisiert wird, steht weitaus mehr zu Disposition als die bloße Verteilung eines weiterhin zu maximierenden materiellen Wohlstandes oder das Eigentum an Produktionsmitteln, deren Einsatz ansonsten nicht hinterfragt wird. Solange eine Wirtschaft ohne Wachstum (mindestens) bezweckt, ökologische Grenzen einzuhalten, laufen institutionell basierte Konzepte ins Leere, wenn sie an keine substanzi- 270 Niko Paech ellen Kriterien gebunden oder nicht aus diesen direkt hergeleitet sind. Institutioneller Wandel kann aus ökologischer Perspektive nur Mittelcharakter haben, denn veränderte Eigentums-, Verteilungs- oder Demokratieregeln in Bezug auf die Kapitalverwendung lassen per se keine Rückschlüsse auf ökologische Effekte zu. Folglich wären erst konkrete Versorgungsmuster – bezogen auf Produktion und Konsum – zu entwickeln, die substanziell mit der Einhaltung ökologischer Grenzen zu vereinbaren sind, um daran die Eignung und Richtungssicherheit institutioneller Maßnahmen beurteilen zu können. Ein zweiter Grund dafür, substanzielle Bedingungen als Ausgangspunkt einer Postwachstumsökonomie zu betrachten, besteht darin, dass veränderte Versorgungsstrukturen, die unmittelbar zur Senkung des Kapitalbedarfs führen, weitaus sicherer und ursachenadäquater zur Minderung struktureller Wachstumsdynamiken sind: Kapital, das infolge einer weniger mechanisierten und spezialisierten Wertschöpfung gar nicht erst benötigt wird, kann auch keinen wachstumsträchtigen Verwertungszwang entfalten. Deshalb wird im nächsten Abschnitt die Kombination verschiedener Wertschöpfungssysteme zwecks direkter Beeinflussung der Kapital- bzw. Arbeitsintensität ins Visier genommen. 5.2 Idealtypische Wertschöpfungssysteme Zunächst sollen drei idealtypische Versorgungssysteme unterschieden werden: (1) Globale industrielle Arbeitsteilung, (2) Regionalökonomie und (3) moderne Subsistenz. Die Transformation zu einer Postwachstumsökonomie entspräche einem Strukturwandel, der neben einer Ausschöpfung aller Reduktionspotenziale (Suffizienz) die verbliebene Produktion graduell und punktuell vom ersten zum zweiten und dritten Aggregat verlagern würde. Dies setzt einen Rückbau des Industriesektors voraus. Die Konsequenz besteht in einer Reduktion der verfügbaren Erwerbsarbeitszeit, deren Umverteilung damit zu einer entscheidenden Voraussetzung wird. PWÖ = 20 Stunden „normale“ Erwerbsarbeit Kommerzieller Unternehmenssektor Global Lange Produktionsketten Industrielle Spezialisierung Global Sourcing Offshoring Verschleißfestes Design Modularität/Reparabilität Ästhetische Beständigkeit Effizienz/Konsistenz Regional + 20 Stunden „marktfreie“ Versorgungszeit Entkommerzialisierter Sektor Lokal Mittlere Produktionsketten Reparaturdienstleistungen Wartung/Optimierung Subsistenz Renovation/Konversion Eigenproduktion Güterrezyklierung Nutzungsdauerverlängerung Sharing-Services Nutzungsintensivierung Handwerk/Öko-Landbau Regiogeld Output Arbeitsintensität Kapitalintensität Abbildung 2: Idealtypische Versorgungssysteme und deren Anpassung an eine Postwachstumsökonomie Quelle: Eigene Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 271 Diese drei Systeme ergänzen sich nicht nur, sondern können synergetisch zu einer veränderten Wertschöpfungsstruktur verknüpft werden – insbesondere der erste und dritte Bereich. Endnutzer, denen innerhalb konventioneller Wertschöpfungsprozesse nur die Rolle eines Verbrauchers zukommt, können als „Prosumenten“ (Toffler 1980) zur Substitution industrieller Produktion beitragen. Im Unterschied zum traditionellen Subsistenzbegriff sind die im nächsten Abschnitt dargestellten Selbstversorgungspraktiken eng mit industrieller Produktion verzahnt. Insbesondere entkommerzialisierte Nutzungsdauerverlängerung und Nutzungsintensivierung können als nicht-industrielle Verlängerung von Versorgungsketten aufgefasst werden. Durch Hinzufügung marktfreier und eigenständig erbrachter Inputs (Zeit, handwerkliche Tätigkeiten und sozial eingebetteter Leistungsaustausch) werden die in materiellen Gütern gebundenen Nutzenpotenziale maximiert – genauer: sie werden ohne physische Produktion „gestreckt“. Folglich verändern sich Produktlebenszyklen: Die Industriephase wird mit einer daran anknüpfenden Subsistenzphase verzahnt. Produktion, Nutzung und Subsistenz – letztere verstanden als Aktivitäten, die den Bestand an Objekten erhalten und aufwerten – ergänzen sich zu einem mehrphasigen Wertschöpfungsprozess, der sich auf denselben Gegenstand bezieht. Dabei lässt sich die Nutzungsphase insoweit nicht von der Subsistenzphase trennen, als die Letztere sowohl eine achtsame Verwendung zwecks Nutzungsdauerverlängerung als auch soziale Praktiken der Nutzungsintensivierung umfasst. Prosumenten tragen eigenständig zur Bewahrung ihres Güterbestandes bei, so dass der Industrieoutput reduziert werden kann. Letzterer kann damit auch als Input für daran anknüpfende Subsistenzformen aufgefasst werden. Die Integration kreativer Subsistenzleistungen lässt ein kaskadenartiges Wertschöpfungsgefüge entstehen. Dieses erstreckt sich auf eine behutsame Nutzung, Pflege, Wartung, Instandhaltung, modulare Erneuerung sowie eigenständige Reparaturleistung. Danach erfolgen die Weiterverwendung demontierter Bestandteile sowie gegebenenfalls eine Anpassung an andere Verwendungszwecke. Letztere umfasst „Upcycling“-Praktiken, das Zusammenfügen von Einzelteilen mehrerer nicht mehr funktionsfähiger Objekte zu einem brauchbaren Objekt. Die Verwahrung, Veräußerung oder Abgabe demontierter Einzelteile an Sammelstellen und Reparaturwerkstätten schließt daran an. Darüber hinaus besteht die Möglichkeit der Weitergabe noch vollständig funktionsfähiger Güter an sog. „Verschenkmärkte“ oder „Umsonstkaufhäuser“. Zudem können Gebrauchsgüter von mehreren Personen genutzt werden (Nutzungsintensivierung). Diese Nutzungskaskade weist diverse Schnittstellen zu kommerzialisierten Nutzungsbzw. Produktionssystemen auf. Sowohl funktionsfähige Produkte als auch demontierte Einzelteile oder Module lassen sich über den Second-Hand-Einzelhandel, Flohmärkte oder Internet gestützte Intermediäre (eBay, Amazon Marketplace etc.) veräußern. Weiterhin können Instandhaltungs- und Reparaturmaßnahmen, durch welche Prosumenten überfordert wären, von professionellen Handwerksbetrieben übernommen werden. Letztere wären Bestandteile der Regionalökonomien. Deren Rolle besteht zusätzlich darin, produktive Leistungen des Industriesektors auf Basis tendenziell arbeitsintensiverer (somit weniger kapitalintensiver) Herstellungsmethoden und kürzerer Reichweiten der Wertschöpfungsketten zu substituieren. 272 Niko Paech Während der Industriesektor durch eine relativ hohe Energie- und Kapitalintensität gekennzeichnet ist, speist sich die Wertschöpfung der Subsistenzphase fast ausschließlich aus Zeit, handwerklichen Kompetenzen und sozialem Austausch. Mit Blick auf die gesamte Prozesskette wird damit die durchschnittliche Energie- und Kapitalintensität pro Nutzeneinheit gesenkt. Stattdessen steigt die Arbeitsintensität, womit gleichsam die Produktivität des Faktors Arbeit abnimmt – allerdings nur bezogen auf den gesamten Prozess, bestehend aus der Industriephase und die daran anknüpfende (arbeitsintensive) Subsistenzphase. Die höhere Arbeitsintensität muss deshalb nicht die Industriephase tangieren, welche weiterhin – jedoch mit verringerter Outputquantität – durch spezialisierte und relativ kapitalintensive Herstellungsverfahren gekennzeichnet sein kann. Vielmehr ergibt sich die gesteigerte Arbeitsintensität aus einer „handwerklichen“ Verlängerung und Intensivierung der Produktnutzung. Daraus resultiert eine komplementäre Verknüpfung zwischen Industrie- und Subsistenzleistungen. Hinzu kommt eine substitutionale Beziehung zwischen beiden Sektoren. Sie stützt sich darauf, dass eigenständige Produktion, etwa durch Gemeinschaftsgärten, handwerkliche oder künstlerische Herstellung zur unmittelbaren Substitution von Industrieprodukten führen kann. Das Verhältnis zwischen Subsistenz und Regionalökonomie kann sowohl komplementär, wie bereits oben skizziert, als auch substitutional geprägt sein. Dasselbe gilt für die Transformationsbeziehung zwischen industrieller und regionaler Wertschöpfung. Ein komplementäres Verhältnis entsteht dort, wo regionale, handwerklich orientierte Betriebe über Reparatur- und Instandhaltungsservices einen reduzierten Industrieoutput aufwerten. Zudem können Industriegüter durch regionale Produktion substituiert werden (Nahrung, Textilien, bestimmte Ver- und Gebrauchsgüter etc.). 5.3 Moderne Subsistenz Eine neu zu justierende Balance zwischen Selbst- und Fremdversorgung kann unterschiedlichste Formen annehmen. Zwischen den Extremen reiner Subsistenz und globaler Verflechtung existiert ein reichhaltiges Kontinuum unterschiedlicher Fremdversorgungsgrade. Deren Reduzierung bedeutet, von außen bezogene Leistungen durch eigene Produktion punktuell oder graduell zu ersetzen. „Urbane Subsistenz“ (Dahm/Scherhorn 2008) entfaltet ihre Wirkung im unmittelbaren sozialen Umfeld, also auf kommunaler oder regionaler Ebene. Sie basiert auf einer (Re-)Aktivierung der Kompetenz, manuell und kraft eigener Tätigkeiten Bedürfnisse jenseits kommerzieller Märkte zu befriedigen, vor allem mittels handwerklicher Fähigkeiten. Die hierzu benötige Zeit könnte sich aus einem prägnanten Rückbau des industriellen Systems speisen. Durch eine Halbierung der Erwerbsarbeit ließen sich Selbst- und Fremdversorgung so kombinieren, dass sich die Güterversorgung erstens auf ein (bescheideneres) monetäres Einkommen und zweitens, als Ergänzung, auf marktfreie Produktion stützt. Neben ehrenamtlichen, gemeinwesenorientierten, pädagogischen und künstlerischen Betätigungen erstreckt sich urbane Subsistenz auf drei Outputkategorien, durch die sich industrielle Produktion substituieren lässt. 1. Nutzungsintensivierung durch Gemeinschaftsnutzung: Wer sich einen Gebrauchsgegenstand vom Nachbarn leiht, ihm als Gegenleistung ein Brot backt oder das neueste Linux-Update installiert, trägt dazu bei, materielle Produktion durch soziale Beziehungen zu ersetzen. Objekte wie Autos, Waschmaschinen, Gemeinschaftsräume, Gärten, Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 273 Werkzeuge, Digitalkameras etc. sind auf unterschiedliche Weise einer Nutzungsintensivierung zugänglich. Sie können gemeinsam angeschafft werden oder sich im privaten Eigentum einer Person befinden, die das Objekt im Gegenzug für andere Subsistenzleistungen zur Verfügung stellt. Dabei können auch sog. „Commons“ (Ostrom 2011) als Institution geeignet sein. 2. Nutzungsdauerverlängerung: Ein besonderer Stellenwert käme der Pflege, Instandhaltung und Reparatur von Gütern jeglicher Art zu. Wer durch handwerkliche Fähigkeiten oder manuelles Improvisationsgeschick die Nutzungsdauer von Konsumobjekten erhöht – zuweilen reicht schon die achtsame Behandlung, um den frühen Verschleiß zu vermeiden –, substituiert materielle Produktion durch eigene produktive Leistungen, ohne notwendigerweise auf bisherige Konsumfunktionen zu verzichten. Wenn es in hinreichend vielen Gebrauchsgüterkategorien gelänge, die Nutzungsdauer der Objekte durch Erhaltungsmaßnahmen und Reparatur durchschnittlich zu verdoppeln, dann könnte die Produktion neuer Objekte entsprechend halbiert werden. Auf diese Weise würde ein Rückbau der Industriekapazität mit keinem Verlust an Konsumfunktionen der davon betroffenen Güter einhergehen. Tauschringe, Netzwerke der Nachbarschaftshilfe, Verschenkmärkte und „Transition Towns“ sind nur einige Beispiele dafür, dass lokal erbrachte Leistungen über den Eigenverbrauch hinaus einen Leistungstausch auf lokaler Ebene erlauben. 3. Eigenproduktion: Im Nahrungsmittelbereich erweisen sich Hausgärten, Dachgärten, Gemeinschaftsgärten und andere Formen der urbanen Landwirtschaft (vgl. Müller 2011) als dynamischer Trend, der zur Deindustrialisierung dieses Bereichs beitragen kann. Darüber hinaus sind künstlerische und handwerkliche Leistungen möglich, die von der kreativen Wiederverwertung ausrangierter Gegenstände über Holz- oder Metallobjekte in Einzelfertigung bis zur semi-professionellen „Marke Eigenbau“ (Friebe/Ramge 2008) reichen. Durch derartige Subsistenzleistungen kann bewirkt werden, dass eine Halbierung der Industrieproduktion und folglich der monetär entlohnten Erwerbsarbeit nicht per se den materiellen Wohlstand halbiert: Wenn Konsumobjekte länger und gemeinschaftlich genutzt werden, reicht ein Bruchteil der momentanen industriellen Produktion, um dasselbe Quantum an Konsumfunktionen oder „Services“, die diesen Gütern innewohnen, zu extrahieren. Urbane Subsistenz besteht also darin, einen markant reduzierten Industrieoutput durch Hinzufügung eigener Inputs aufzuwerten oder zu „veredeln“. Diese Subsistenzinputs lassen sich den folgenden drei Kategorien zuordnen: a. Handwerkliche Kompetenzen und Improvisationsgeschick, um Potenziale der Eigenproduktion und Nutzungsdauerverlängerung auszuschöpfen b. Eigene Zeit, die aufgewandt werden muss, um handwerkliche, substanzielle, manuelle oder künstlerische Tätigkeiten verrichten zu können c. Soziale Beziehungen, ohne die subsistente Gemeinschaftsnutzungen undenkbar sind Urbane Subsistenz ist das Resultat einer Kombination mehrerer Input- und Outputkategorien. Angenommen, Prosument A lässt sich ein defektes Notebook von Prosument B, der über entsprechendes Geschick verfügt, reparieren und überlässt ihm dafür Bio-Möhren aus dem Gemeinschaftsgarten, an dem er beteiligt ist. Dann gründet diese Transaktion erstens auf sozialen Beziehungen, die Person A sowohl mit B als auch mit der Gartengemein- 274 Niko Paech schaft eingeht, zweitens auf handwerklichen Kompetenzen (A: Gemüseanbau; B: defekte Festplatte erneuern und neues Betriebssystem installieren) und drittens auf eigener Zeit, ohne die beide manuelle Tätigkeiten nicht erbracht werden können. Die Outputs erstrecken sich auf Eigenproduktion (Gemüse), Nutzungsdauerverlängerung (Reparatur des Notebooks) und Gemeinschaftsnutzung (Gartengemeinschaft). Selbstredend sind auch Subsistenzhandlungen naheliegend, die keiner Ausschöpfung der vollständigen Palette denkbarer Subsistenzinputs und -outputs bedürfen. Wer seinen eigenen Garten bewirtschaftet, die Nutzungsdauer seiner Textilien durch eigene Reparaturleistungen steigert oder seine Kinder selbst betreut, statt eine Ganztagsbetreuung zu konsumieren, nutzt keine sozialen Beziehungen, wohl aber Zeit und handwerkliches Können. Die Outputs erstrecken sich in diesem Beispiel auf Nutzungsdauerverlängerung und Eigenproduktion. Insoweit Subsistenzkombinationen im obigen Sinne Industrieoutput ersetzen, senken sie zugleich den Bedarf an monetärem Einkommen. Eine notwendige Bedingung für das Erreichen geringerer Fremdversorgungsniveaus besteht somit in einer Synchronisation von Industrierückbau und kompensierendem Subsistenzaufbau. So ließe sich der Verlust an monetärem Einkommen und industrieller Produktion sozial auffangen – jedoch nicht auf dem vorherigen materiellen Niveau. Deshalb ist dieser Übergang nicht ohne flankierende Suffizienzleistungen denkbar, auf die hier nicht näher eingegangen werden soll. 5.4 Die Rolle der Unternehmen Der Rückbau des industriellen Systems wäre produktionsseitig so zu gestalten, dass die Neuheuerstellung von Gütern, die extrem langlebig und reparaturfreundlich sein müssten, eher eine untergeordnete Rolle spielt. Der Fokus läge auf dem Erhalt, der Um- und Aufwertung vorhandener Produktbestände, etwa durch Renovation, Optimierung, Nutzungsdauerverlängerung oder Nutzungsintensivierung. Produzierende Unternehmen (im physischen Sinne) würden zunehmend – wenngleich nicht vollständig – durch Anbieter abgelöst, die weniger an einer weiteren Expansion der materiellen Objekte als an deren Optimierung und Aufarbeitung orientiert wären. Dies beträfe jene Bereiche der Bestandspflege, mit denen Prosumenten überfordert wären. Kreative Subsistenz und unternehmerische Leistungen könnten sich ergänzen, um gemeinsam einen konstanten Umfang ökonomischer Fluss- und Bestandsgrößen zu ermöglichen. Der Bedarf an Neuproduktion ließe sich damit minimieren. Herman Daly (1992) bezeichnet einen solchen Zustand als „Steady State Economy“. Aus den vorangegangenen Ausführungen lässt sich schlussfolgern, wie Unternehmen zu einer Postwachstumsökonomie beitragen können: • Verkürzung von Wertschöpfungsketten und Stärkung kreativer Subsistenz. • Arbeitszeitmodelle: Maßnahmen, die eine Reduktion und Umverteilung von Arbeitszeit erleichtern, speisen den Subsistenzinput „eigene Zeit“. • Lokale und regionale Beschaffung, um Supply Chains zu entflechten • Unterstützung von und Teilnahme an Regionalwährungssystemen • Direkt- und Regionalvermarktung • Entwicklung modularer, reparabler, an Wiederverwertbarkeit und physischer sowie ästhetischer Langlebigkeit orientierter Produktdesigns, um urbane Subsistenzleistungen zu erleichtern; Abkehr von „geplanter Obsoleszenz“ Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 275 • Prosumenten-Management: Unternehmen könnten über die Herstellung von Produkten und Dienstleistungen hinaus Kurse oder Schulungen anbieten, um Nutzer zu befähigen, Produkte selbsttätig instand zu halten, zu warten und zu reparieren. Durch Renovationsstrategien des Typs „Umbau statt Neubau“ würde aus vorhandenen Gütern und Infrastrukturen weiterer Nutzen extrahiert, indem diese funktional und ästhetisch an gegenwärtige Bedürfnisse angepasst würden und somit möglichst lange im Kreislauf einer effizienten Verwendung verblieben. Märkte für gebrauchte, aufgearbeitete und überholte Güter würden ebenfalls zur Verringerung der Neuproduktion beitragen. Derartige „stoffliche Nullsummenspiele“ (Paech 2005) verkörpern die physisch-materielle Dimension von Wachstumsneutralität. Sie umfassen zwei Perspektiven: • Veränderungen konzentrieren sich auf eine Umnutzung, Aufwertung oder Rekombination der bereits in Anspruch genommenen ökologischen Ressourcen und geschaffenen Objekte. Stoffliche Additionen werden minimiert. • Wenn es punktuell zu einer Addition materieller Objekte oder Inanspruchnahme ökologischer Kapazitäten kommt, muss dies mit einer Subtraktion verbunden sein, durch die andernorts im selben Umfang Ressourcen und Räume freigegeben werden. Unternehmen, die sich an stofflichen Nullsummenspielen orientieren, wären unter anderem erkennbar als: • Instandhalter, die durch Maßnahmen des Erhalts, der Wartung, der vorbeugenden Verschleißminderung und Beratung die Lebensdauer und Funktionsfähigkeit eines möglichst nicht expandierenden Hardwarebestandes sichern; • Reparaturdienstleister, die defekte Güter davor bewahren, vorzeitig ausrangiert zu werden; • Renovierer, die aus vorhandenen Gütern weiteren Nutzen extrahieren, indem sie diese funktional und ästhetisch an gegenwärtige Bedürfnisse anpassen; • Umgestalter, die vorhandene Infrastrukturen und Hardware rekombinieren, konvertieren oder dergestalt umwidmen, dass ihnen neue Nutzungsmöglichkeiten entspringen; • Provider von Dienstleistungen, die in geeigneten Situationen bislang eigentumsgebundene Konsumformen durch Services substituieren; • Intermediäre, die durch eine Senkung der Transaktionskosten des Gebrauchtgüterhandels dafür sorgen, dass Konsum- und Investitionsgüter möglichst lange im Kreislauf einer effizienten Verwendung belassen werden, und schließlich • Designer, die das zukünftig geringere Quantum an neu produzierten materiellen Objekten auf Dauerhaftigkeit und Multifunktionalität ausrichten. 6 Ausblick Der Rückbau des industriellen Komplexes erfordert eine Balance zwischen drei sich ergänzenden Versorgungssystemen sowie angepasste Technologien. Insgesamt kann sich daraus eine mehrfache Wiedereinbettung des Ökonomischen in das Soziale ergeben. Souveräne Prosumenten ersetzen einen Teil des Industrieoutputs mittels substanzieller Schaffenskraft und sozialem Kapital. Sie partizipieren aktiv an einem Wertschöpfungsprozess, dessen erste Phase moderner Industrieproduktion – jedoch in prägnant reduziertem Umfang – entspricht und an die sich eine zweite Subsistenzphase anschließt. Diese Symbiose zwischen hoch 276 Niko Paech spezialisierter und arbeitsintensiver Versorgung kann durch eine Regionalökonomie ergänzt werden. Geringere Distanzen zwischen Nachfrager und regionalen Anbietern führen zur stärkeren Kontrolle der Letzteren. Dies kann die monetären Ansprüche des eingesetzten Kapitals senken, wenn damit gleichzeitig kürzere Distanzen zwischen Kapitalgebern und -nehmern einhergehen. Eine solche Ökonomie der Nähe schafft Transparenz und Vertrauen. Wenn die Produktnachfrager zugleich die Kapitalgeber ihrer regionalen Produzenten sind, können Einflussmöglichkeiten auf die Kapitalverwendung geltend gemacht werden. Dies senkt die Zins- und Renditeansprüche, so dass der Kapitalverwertungs- und somit strukturelle Wachstumsdruck sinken kann. Würden in einer hinreichend kleinräumigen Ökonomie die Kapitalgeber, welche zugleich Abnehmer der Produkte der Kapitalverwender sind, ihre Rendite- bzw. Zinsansprüche erhöhen, müssten sie sich selbst schädigen. Denn den Kapitalverwendern bliebe langfristig nichts anderes übrig, als der erhöhten Zins- bzw. Renditelast durch Preiserhöhungen zu begegnen. Natürlich würde weiterhin eine globalisierte Restindustrie verbleiben, weil sich nicht alle Bedarfe einer modernen Gesellschaft allein durch Regional- und Lokalökonomien befriedigen lassen. Ein Übergang zur Postwachstumsökonomie, der hier nur grob skizziert wurde, kann durch eine Vielzahl institutioneller, insbesondere politischer Maßnahmen flankiert werden, auf die an anderer Stelle eingegangen wurde (vgl. Paech 2012, S. 134ff.). Aber dieses Unterfangen würde auch bei einer erfolgreichen Anwendung der hier vorgeschlagenen Strategien mit einer spürbaren quantitativen Reduktion von Konsum- und Mobilitätsversorgung einhergehen. Deshalb wären politische Entscheidungsträger derzeit noch vollends damit überfordert, der geneigten Wählerschaft mitzuteilen, dass die Wohlstandsparty – zumindest in der gegenwärtigen Ausprägung – beendet ist. Erst im Laufe der nicht mehr abwendbaren Ressourcen-, Finanz- und Umweltkrisen werden sich zwangsläufig Reaktionsmuster herausbilden, die mit einer Postwachstumsökonomie vereinbar sein könnten. Nichtsdestotrotz: Wer schon jetzt vorsorglich postwachstumstaugliche Versorgungspraktiken ins Werk setzt – ganz gleich ob als Prosument oder als Unternehmen –, hat die besten Chancen, den bevorstehenden Kollaps zeitgenössischer Konsumdemokratien gelassen zur Kenntnis zu nehmen. Literatur Binswanger, H. C. (2009): Vorwärts zur Mäßigung, Hamburg. Chamberlin, E. H. (1933): The Theory of Monopolistic Competition, Cambridge. Daly, H. (1977): Steady-State Economics, Washington. Dahm, D./Scherhorn, G. (2008): Urbane Subsistenz, München. Friebe, H./Ramge, T. (2008): Marke Eigenbau, Frankfurt a.M. Georgescu-Roegen, N. (1971): The Entropy Law and the Economic Process, Cambrigde/London. Gronemeyer, M. (1988): Die Macht der Bedürfnisse, Reinbek. Heinberg, R. (2007): Peak Everything: Waking Up to the Century of Declines, Gabriola Island. Hirsch, F. (1976/1980): Social Limits to Growth, Cambridge (erschienen in deutscher Übersetzung als „Die sozialen Grenzen des Wachstums“ im Jahr 1980, Reinbek). Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen 277 Hueting, R. (1980): New scarcity and economic growth, Amsterdam. Huber, J./Roberson, J. (2008): Geldschöpfung in öffentlicher Hand: Der Weg zu einer gerechten Geldordnung im Informationszeitalter, Marburg. Illich, I. (1973/2011): Selbstbegrenzung. Eine politische Kritik der Technik, München. Jackson, T. (2009): Prosperity without Growth: Economics for a Finite Planet, London. Kohr, L. (1957/2002): Das Ende der Großen. Zurück zum menschlichen Maß, Salzburg. Latouche, S. (2006): Le pari de la décroissance, Paris. Layard, R. (2005): Die glückliche Gesellschaft, Frankfurt a. M. Martínez-Alier, J., (2009): Socially Sustainable Economic De-Growth, in: Development and Change 40 (6), S. 1099–1119. Meadows, D./Meadows, D./Zahn, E./Milling, P. (1972): Limits to Growth – A Report for the Club of Rome’s Project on the Predicament of Mankind. London. Miegel, M. (2010): Exit – Wohlstand ohne Wachstum, Berlin. Mintzberg, H. (1987): The Strategy Concept I: Five Ps for Strategy, in: California Management Review, 27, 11–23. Müller, C. (2011) (Hrsg.): Urban Gardening, München. Mumford, L. (1967/1977): Mythos der Maschine. Kultur, Technik und Macht, Frankfurt a.M. Myers, N./Kent, J. (2005): Die neuen Konsumenten in Entwicklungs- und Transformationsländern und der Einfluss ihres Wohlstands auf die Umwelt, in: Natur und Kultur, 6/1, S. 3–22. Ostrom, E. (2011): Was mehr wird, wenn wir teilen, München. Paech, N. (2005/2012): Nachhaltiges Wirtschaften jenseits von Innovationsorientierung und Wachstum, 2. Auflage, Marburg. Paech, N. (2008): Regionalwährungen als Bausteine einer Postwachstumsökonomie, in: Zeitschrift für Sozialökonomie (ZfSÖ) 45/158–159, S. 10–19. Paech, N. (2012): Befreiung vom Überfluss. Auf dem Weg in die Postwachstumsökonomie, München. Pallante, M. (2005): La decrescita felice. La qualità della vita non dipende dal PIL, Roma. Robinson, J. (1933): The Economics of Imperfect Competition, London. Sakar, S. (2001): Die nachhaltige Gesellschaft. Eine kritische Analyse der Systemanalysen, Zürich. Schor, J. B. (2010): Plenitude. The New Economics of True Wealth, New York. Schumacher, E. F. (1973/1977): Die Rückkehr zum menschlichen Maß. Alternativen für Wirtschaft und Technik, Reinbek. Seidl, I./Zahrnt, A. (2010) (Hrsg.): Postwachstumsgesellschaft. Konzepte für die Zukunft, Marburg. Simmel, G. (1900): Philosophie des Geldes, Berlin und München. Stolper, W. F./Samuelson, P. A. (1941): Protection and Real Wages, in: Review of Economic Studies 9, S. 58–73. Schulze, W. (1994): The two Schools of Thought in Resource-based Theory, in: Advances in Strategic Management, 10A, 127–58. Schumacher, E.-F. (1973/2013): Small is Beautiful, München. Schumpeter, J. A. (1934): Theorie der wirtschaftlichen Entwicklung, 4. Aufl., Berlin. Schumpeter, J. A. (1950/1980): Kapitalismus, Sozialismus und Demokratie, 5. Aufl., München. 278 Niko Paech Teece, D. J./Pisano, G./Shuen, A. (1997): Dynamic Capabilities and Strategic Management, in: Strategic Management Journal, 18, 509–533. Toffler, A. (1980): The Thrid Wave, New York. Victor, P. A. (2008): Managing Without Growth: Slower by Design, Not Disaster, Cheltenham. Wernerfeld, B. (1984): A Resource-based View of the Firm, in: Strategic Management Journal, 5, 171–174. Zentrum für Transformation der Bundeswehr (2010): Peak Oil – Sicherheitspolitische Implikationen knapper Ressourcen, Strausberg. Strategic Management of Innovation in Life Science Christian Schäfer Introduction In life science industries development projects for a new chemical entity (NCE) are generally associated with low probabilities of success compared to other industries. At start of development, an innovation project’s rate of success is only 4% to 7%, the time span of a project from start of development to the potential launch of a product being 10 years or even more. Thus, effective management of commercial risk and uncertainty becomes tremendously important. The Pharmaceutical Benchmark Forum in the United States collected industry-wide historical data on the drug development process (Harpum, 2010). The result of this research shows that the total project development costs for a NCE which reaches the market are in the range of $ 1 billion. The actual costs of a successful project are usually significantly lower, but it needs to cover the costs of the multiple other projects which did not finally reach the market. In addition to the low success rates of pure development further uncertainties affect the continuation of a project and its final accomplishment. This mainly aims at commercial risks like the potential competitive landscape a product faces at launch, the uncertainty whether a certain target product profile can be achieved (TPP), pricing, market access risks, and others. All these factors are dynamic over time thus complicating the forecasting of these projects. The TPP may for instance be completely unknown at the start of development. As the development progresses over the years the potential TPP evolves gradually, resulting in success or failure – and there for financial loss. Summarizing the mixture of high and early upfront investments and a high uncertainty about a project’s development and commercial success generates some pressure on strategic forecasting, which aims to show a balanced picture of the project’s opportunities and risks. Here the reliability and transparency of strategic forecasts becomes a key success factor to support senior management in their decision-making process. Oftentimes risk and uncertainty are (closely) intertwined, leading to misinterpretation of forecasts and erroneous decisions. This article discusses the importance of clear definition and classification of risk W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_20, © Springer Fachmedien Wiesbaden 2013 280 Christian Schäfer and uncertainty when creating and presenting a forecast on the commercial attractiveness of a potential product. Patient-Based Forecasting – a Conceptual Overview When it comes to predicting the commercial attractiveness of early stage development projects for which no historic sales data are available, patient based forecasting models are popular tools to make a proper assessment. This model type is the basis for this article. The starting point of this model is epidemiological research. The epidemiological report delivers the market-volume wise basis of patients receiving pharmacotherapy within the development project’s indication. Taking Hypertension as an example, all patients receiving antihypertensive treatment would have to be taken into account, including an estimate on how this number might develop over the next years. The resulting number defines the overall market opportunity. For most indications there are several therapeutic options (classes) available to treat patients. Within the forecast model further assumptions need to be made about the future development of each therapeutic class’ market share. For already established therapeutic classes today’s market share is available in secondary data about the future development of the respective class. It is more challenging to forecast the class share of a new, not yet launched therapeutic class within an established market. In this case quantitative market research results such as conjoint analysis or analogue research support the assumptionmaking process. Further down in the model estimations need to be made about the product’s in-class share within the therapeutic class, about the patient’s willingness to take the drug regularly (compliance) and about the price development over time. By multiplying the base inputs of each column a point forecast for the revenue of each year can be obtained. Table 1 presents a simplified version of a patient-based forecast model. Usually more input rows need to be filled out / are needed to obtain a full assessment of the commercial opportunity. 281 Strategic Management of Innovation in Life Science Table 1: Patient based Forecast’s Assumptions Input Sheet and model flow Scenario I Drug treated Input Patients in Million Input Input Input Input Market Share of therapeutic class Product share within this class Compliant days of therapy: 200 days Price per day of treatment in $ 2012 2013 2014 2017 2018 2019 2020 2021 2022 2023 Base 2011 5,1 5,1 5,2 5,2 2015 5,3 2016 5,3 5,3 5,4 5,4 5,4 5,4 5,5 5,5 Min 0% 0% 0% 0% 3% 8% 11% 14% 15% 16% 17% 17% 17% Base 0% 0% 0% 0% 4% 10% 14% 16% 18% 19% 20% 20% 20% Max 0% 0% 0% 0% 6% 13% 18% 20% 22% 24% 26% 28% 28% Min 0% 0% 0% 0% 100% 90% 70% 68% 55% 50% 48% 48% 48% Base 0% 0% 0% 0% 100% 100% 80% 75% 65% 60% 58% 56% 56% Max 0% 0% 0% 0% 100% 100% 90% 80% 70% 65% 65% 65% 65% Base 0 0 0 0 200 200 200 200 200 200 200 200 200 Min 0 0 0 0 4,8 4,8 4,8 4,8 4,8 4,8 4,8 4,8 4,8 Base 0 0 0 0 5,0 5,2 5,3 5,5 5,6 5,8 6,0 6,1 6,3 Max 0 0 0 0 5,5 5,6 6,0 5,4 6,8 7,0 7,0 7,0 7,0 Clearly Distinguish Uncertainty from Risk To make a risk associated with a forecast transparent we first need to define our understanding of risk. Many articles have been published on the distinction between uncertainty and risk. Knight (1921) established a very helpful and comprehensive distinction between both: “Uncertainty must be taken in sense radically distinct from the familiar notion of risk, from which it has never been properly separated. … The essential fact is that risk means in some cases a quantity susceptible of measurement, while at other times it is something distinctly not of this character; and there are far-reaching and crucial differences in the bearing of the phenomena depending on which of the two is really present and operating. … It will appear that a measurable uncertainty, or risk proper, as we shall use the term, is so far different from an unmeasurable one that it is not in effect an uncertainty at all.” Applying Knight’s definition in early product forecasting the risk of a forecast then is associated with an event, which might either happen or not. It’s a yes/no decision but nothing in between. For instance, the number of competitors a company potentially faces at launch is unknown today. But there are substantial different competitive scenarios possible. A company could be the 1st on market with no competitors for a few years, (maybe) because all other development projects failed. In another scenario it could also be the case that the company launches 3rd to market. Because development projects of competitors might either fail or succeed, the forecast is at risk about this yes/no decision. Further the forecast faces risk when making assumptions about the potential TPP which will be achieved at the end of the product’s development process. Since there are “far-reaching and crucial differences in the bearing” (Knight, 1921) regarding competitive landscape and the potential TPP, the business case is at substantial risk with regard to the market conditions at the time of launch. As discussed further down in this article, risk will be addressed by scenario modeling. 282 Christian Schäfer So how do we now separate uncertainty from risk? Uncertainty within a forecast has nothing to do with an event. It’s more an assessment of the exact future development of input parameters within the model. Generally speaking, for a defined market condition scenario, the brand team has quite a good understanding about the development of the different input parameters over time. Even though the exact levels of class share, in-class share and future price will always be more or less uncertain. So uncertainty is associated with a certain class share or price at a certain point of time in the future. To cover this uncertainty, the forecaster will use a model with a value range, which most likely will cover the true outcome. Usually, the higher the uncertainty about the future development of a model’s input factor such as the class share, the wider the value range that reflects the increasing uncertainty associated with the forecast. Uncertainty is Addressed with Monte Carlo Simulation When populating the forecasting model – like any model that plans for a future point in time – we have to make certain assumptions. These assumptions might be concerned with the development of a therapeutic class’s market share, the price development, or other parameters. Because these are projections into the future, the best we can do is estimate the expected values based on the information available today. We cannot know with certainty what the actual value will be, but based on historical analogues, market research, or expert knowledge, we draw an estimate. To understand the impact of uncertainty associated with the assumptions made for the different input parameters of the forecast model, the usage of the Monte Carlo Simulation is a standard technique. To apply Monte Carlo Simulation within a forecast model, we need to come up with range forecasts for certain input parameters. The bandwidth of this range and the dynamics of the stretch over time reflect the perceived level of uncertainty behind these assumptions. In order to come up with a range forecast for the different layers of the model (see Table 1) it is usually very helpful to discuss these potential ranges and the bandwidth’s mean within the brand team. By doing so, multiple opinions and experiences will be reflected within the assumptions. In a Monte Carlo Simulation, a random value based on the defined range of estimates for each input parameter is selected. During the simulation, a random value is generated for each of the different input levels of the model and for each year, according to the defined range of value. This process is repeated thousands of times and all outcomes are recorded at the same time. The result will be a collection of thousands of different theoretical outcomes drawn from the model, each based on random input value. Now these forecasts are sorted from low to high forecast values. This sorted list of sales forecasts provides the 10th and 90th percentile as well as the mean of the simulated results. The percentiles help to describe the probability of reaching various sales levels. By using a range of possible values instead of a single guess, we create a more realistic picture of what might happen in the future. Sugiyama (2007) gives a well-arranged overview of the application of the Monte Carlo Simulation in business forecasting. Strategic Management of Innovation in Life Science Figure 1: 283 Sales-Range Chart based on Monte Carlo Simulation results The Sales Range Chart in Figure 1 presents the simulated development of sales over time. The black line represents the brand team’s base case, which is based upon the base assumptions of Table 1. The base case (black) is covered by the 90th (green) and 10th (red) percentiles. The 10th percentile represents a 10% chance that sales might be lower than indicated in this line, whereas in 90% of the cases in this scenario, sales will be higher than what is displayed in the red line in this figure. The probability that the true sales will reach a point within the corridor between the green and the red line is 80%. The percentiles split the Sales-Range Chart into 10:80:10 proportions. The closer the red and green lines are to the black one, the more certain the brand team is about the underlying assumption of the forecast. The analysis of the Sales-Range Chart demonstrates that it is relatively unlikely in the simulation that forecast values will drop below the 10th or rise above the 90th percentile. The results of the Monte Carlo Simulation make the uncertainty tangible for decision makers. Based on this information, senior management might make different choices when planning a project. Having more information about uncertainty facilitates a company’s planning of further steps. The simulated mean line (blue) within Figure 1 can be used to benchmark the brand team’s base case assessment (black). The order and deviation of these two lines is interpreted as follows: When the simulated mean is systematically higher than the base assessment, this is an indicator that the brand team’s base case could be considered as too conservative. If the mean is below the base case, the brand team’s opinion shows a tendency of being overly optimistic. When the black and blue lines are more or less at the same level, the forecast reflects a balanced and realistic picture of a product’s commercial potential. Risk is Addressed with Scenario Planning As discussed, risk is associated with a certain event which either happens or not. Generally, two major event types are distinguished which both strongly have an impact on the 284 Christian Schäfer commercial attractiveness of a potential product. These are events which impact the competitive market environment and events which shape the product’s profile. The combination of these two risk types is usually covered by different scenarios. Figure 2 illustrates an example of a Risk-Scenario Matrix. Product's potential TPP Risk-Scenario Matrix best (high efficacy, high safety) base (high efficacy, mod. safety) worse (mod. efficacy, mod. safety) Figure 2: Market environment best (less competitors) base (some competitors) worse (many competitors) Scenario V probability 20% Peak Sales $ 987 Scenario II probability 20% Peak Sale $ 1,126 Scenario I probability 40% Peak Sales $ 754 Scenario IV probabilty 5% Peak Sales $ 883 Scenario III probabilty 15% Peak Sales $446 Risk-Scenario Matrix, including assumed probabilities for the different Scenarios This matrix covers three different cases for potential market environment and TPP. When creating the forecast, usually the brand team decides which competitive situation will reflect the most likely base case, here called Scenario I. For example a base case could assume a TPP which consists of a high efficacy, moderate safety, moderate price and q.d. (once a day) administration profile and 2 more competitors entering the new class. Further assumptions for the best case (Scenario II) and worst case (Scenario III) have to be determined by the team. In the best case scenario for instance a better safety profile compared to the base case and only one other competitor within our class could be assumed. In the worst case (Scenario III) only moderate efficacy and issues with the product’s safety and 3 in-class competitors could be considered. Both assumptions in the worst case scenario negatively impact the product’s commercial opportunities. For a proper project evaluation usually at least Scenarios I, II and III will be calculated. Scenario I reflects the base case, which usually is the one with the highest probability. Further Scenarios II (best case) and III (worst case) are calculated in order to benchmark Scenario I for possible up- and down-side potential. The mixed Scenarios IV and V are optional. For each of the defined scenarios the brand team needs to provide an estimate for the probability that a certain scenario will occur. According to Guthrie & Markland (2010) it helps to “tell participants not to worry about being too precise in their probability assessment but ask them to express probabilities in figures rather than words in order to limit ambiguity”. Depending on a product’s current development phase, it may not always be possible to differentiate the scenarios for different TPPs. For Start of Development projects oftentimes Strategic Management of Innovation in Life Science 285 the same TPP is assumed for all competitors, since it is too early to make wellfounded/informed assumptions about a TPP differentiation. Outputs Used to Sell the Forecast There are different graphical outputs which make the forecast’s inherent risk and uncertainty transparent to senior management. As presented above, the Sales-Range Chart (Figure 1) is very useful to assess the uncertainty of a forecast scenario. The Risk-Scenario Matrix (Figure 2) gives a top line summary about the assumptions, probabilities and peak sales for each stand alone scenario. Peak sales in general are a key figure to anchor a forecast scenario. The Peak Sales-Range Chart shown in Figure 3 comprehensively compares the absolute sales ranges and levels of the different scenarios. The sales range is a result of the Monte Carlo Simulation based on the range inputs for each scenario. The Peak Sales-Range Chart makes the different levels of uncertainty for the assumptions of the scenarios transparent. The upper- and lower edge of each bar represent the 90th and 10th percentiles of the Monte Carlo Simulation’s results for the peak year. Figure 3 shows that the uncertainty linked to Scenarios I, III and IV is rather low compared to the others. Comparing Scenario II and V, the Peak Sales-Range Chart clearly visualizes that Scenario II faces a massive downside threat, whereas Scenario IV shows limited downside potential but a rather huge upside opportunity. Figure 3: Peak Sales-Range Chart, showing base forecast, 10th and 90th percentiles The graphical outputs presented up to this point have focused strongly on top-line peak sales and the related total/overall uncertainty. The Tornado Diagram (Figure 4) is a tool to 286 Christian Schäfer present the sensitivity of a sales prediction to variation impacted by the populated uncertainty ranges within the model. In Figure 4 each row represents the uncertainty associated with a model’s sources of input (see Table 1). In this example the variation of sales in the year 2022, according to the defined min and max values for class share, price, and in-class share model input are presented. The Tornado Diagram is interpreted as follows: the base input assumption on the therapeutic class’ share in Scenario I for the year 2022 is 20%. If this assumption is correct the sales forecast would show $ 754Million. Since the brand team is not very confident about the class share forecast, they defined a range between min 17% and max 28% for the class share. When benchmarking the min and max with the base input, this shows a big upside potential of +8% and a small downside potential of -3% for the class share. The Tornado Diagram translates this uncertainty regarding the class share in 2022 into a sales range figure. If a number close to 28% max becomes reality, the sales would end up at $ 980 Million, the 17% would bring us to about $ 640 Million only. A Tornado Diagram usually ranks the impact factor with the highest uncertainty at the top and cascades down to the uncertainty with the lowest impact on the forecast. The total lengths of each the red and the green bar in Figure 5 reflect the overall uncertainty regarding a certain parameter in US dollars. In a proper Tornado Diagram, 5 to 15 sources of uncertainty are analyzed. The Tornado Diagram provides a quick overview of the leverage effects of certain uncertainties in a forecast scenario and the associated upside or downside effects. Figure 4: Tornado Diagram for sales in year 2022 Scenario I Conclusion A clear distinction between risk and uncertainty helps to transport clear messages to senior management and support their decision-making process. When interpreting a patient-based forecast, it is important to keep in mind that the range output for each scenario reflects the overall uncertainty associated with the defined market and product conditions for this scenario only. The overall development project’s risk and opportunity evolves when comparing the different scenarios. Each scenario needs to be clearly classified regarding competition and TPP within the Risk-Scenario Matrix. To analyze the overall risk of a development project’s forecasts, management needs to compare the different scenarios’ peak sales levels while bearing in mind the probability of each scenario. Strategic Management of Innovation in Life Science 287 Like any forecasting model, the simulation will only be as good as the estimates made by the brand team in the model’s set-up process. It is important to remember that the simulation only represents probabilities and not a certainty. Nevertheless, Monte Carlo simulation is a valuable tool when forecasting an unknown future. By using a Monte Carlo simulation and the basic analyses introduced in this article, a project’s management will be based on structured information on the possible outcomes of a drug development project. The approach offered within this expose for the creation and presentation of a forecast provides the senior management with an informed and comprehensive overview of risks and uncertainties associated with a project. A well-structured and transparent set of forecasts generates confidence and respect for a development project and enables Management to take strategic decisions about high risk innovation projects in life science industries. Literature Guthrie, N., Markland, D. (2010) Assessing Uncertainty in New-Product Forecasts Foresight: The International Journal of Applied Forecasting, Issue 16 (Winter 2010), 32–39. Harpum, P (2010) Portfolio, Programm, and Project Management in the Pharmaceutical and Biotechnological Industries, John Wiley & Sons, Inc, New Jersey. Knight, F. (1921) Risk, Uncertainty and Profit: Schaffner & Marx, Houghton Mifflin, Boston. Sonnenberg, F.A., Beck, J.R. (1993) Markov models in medical decision making: a practical guide, Medical Decision Making, Issue 13 (4), 322–338. Sugiyama, S. (2007). Forecast uncertainty and Monte Carlo Simulation, Foresight: The International Journal of Applied Forecasting, Issue 6 (Spring 2007), 29–37. Betriebswirtschaftslehre und Militärwissenschaft – Widerspruch oder Kooperation? Eine analytische Skizze aus „dogmengeschichtlichem“ Interesse Dietmar Schössler „Historisch und soziologisch bestehen zwischen Wehrordnung und Wirtschaftsordnung mannigfache Zusammenhänge. Die Isolierung der Armee … erklärt sich aus besonderen Gegebenheiten in der Verfassungssituation des 19. und beginnenden 20. Jahrhunderts … Da eine Frontenstellung „Soldat und Bürger“ nicht mehr gegeben ist, mag es nützlich sein, die Menschenführung der Wirtschaft in ihrer Bedeutung für die Streitkräfte zu erörtern … Es ist dann aber ebenso fruchtbar, auch umgekehrt die Frage zu stellen: Welche Lehren kann die Wirtschaft aus den FührungsErfahrungen, -Erkenntnissen und -Methoden der Armee ziehen? Die Armee ist eine der ersten und bedeutendsten Großorganisationen in der modernen Massengesellschaft, die mit der Levée en masse in der französischen Revolution beginnt“ (Schall 1965: 8). „Führungstechnik bedingt Führungskunst und umgekehrt. Die Kunst der Führung schafft sich die Technik, deren sie zu ihrer Entwicklung bedarf, und nur mit einer zweckmäßigen Technik läßt sich die volle Führung entfalten“ (Schall 1965: 8). „Die Konzeption der optimalen Kontrollspanne wurde – wie die meisten Elemente der klassischen Organisationstheorie – am Erfahrungsobjekt der Streitkräfte als dem ältesten Großbetrieb entwickelt. Es stehen sich dabei zwei Denkschulen gegenüber: die Theorie der limitierten Leitungsspanne und die Theorie der Determinanten der Leitungsspanne“ (Hahn 1989: 72). 0 Zur Einführung / erkenntnisleitender Gedankengang Militär und Gesellschaft und deren entsprechende Wissenschaften – Militär-Wissenschaft resp. Staats- und Verwaltungswissenschaft, insbesondere Betriebswirtschaftslehre, haben nie ein problemfreies Verhältnis gehabt. Während in den westlichen Demokratien sich der Bürger an der Militärpolitik zu beteiligen begann, standen sich in Kontinentaleuropa Staat/Militär auf der einen und sich entwickelnde bürgerliche Gesellschaften auf der anderen Seite eher konfrontativ gegenüber. Stehende Massenarmeen, gelenkt von straff organisierten (General-)Stäben und sich ausweitenden Verwaltungsorganisationen: Diese Konstellation schuf eine Atmosphäre, in der sich sowohl eine militärische „Geheimpraxis“ wie auch eine kritische Militärpublizistik entfalten konnte. Die Geheimpraxis von logenhaft organisierten Generalstäben ist dem angelsächsischen Denken fremd. Erst spät werden hier kontinentale Muster nachzuahmen versucht, wobei die preußisch-deutschen Siege (1866, 1870/71) das wichtigste Wehrstruktur-Modell lieferten. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_21, © Springer Fachmedien Wiesbaden 2013 290 Dietmar Schössler In der vorliegenden kleinen Studie suchen wir eine Antwort darauf, wie sich – aus diesem skizzierten Grundmuster heraus – die Beziehungen resp. Nicht-Beziehungen von Betriebswirtschaftslehre (resp. deren fachlichen Vorläufern) und Militärwissenschaft von den Anfängen in der „militärischen Aufklärung“ (military enlightenment) über Perioden jeweiliger Dominanz bzw. Ignoranz bis hin zur heutigen Ideen-Konstellation entfaltet haben. Dabei interessieren uns drei erkenntnisleitende Fragen und deren „tendenzielle“ Beantwortung: (1) „Unvereinbarkeit“ (Inkompatibilität): Woher kommt das verbreitete, ja, dominierende „zivile“ Unbehagen an der Militär-Organisation und mithin auch an der Strategie- und Militärwissenschaft? (2) Inwiefern erhellt oder verdeckt das „Unvereinbarkeits“-Theorem die tatsächlichen Beziehungen von Wirtschafts- und Militär-Wissenschaft? (3) Wie sollte resp. könnte sich das Verhältnis von Betriebswirtschaftslehre und Militärwissenschaft unter „postmodernen“ Vorzeichen weiterentwickeln? (4) In einem abschließenden Teil sei nochmals der Gedankengang rekapituliert – und der vorläufige Befund zusammenfassend skizziert. 1 Woher kommt das „zivile“ Unbehagen an der Militär-Organisation – und mithin auch an der Militär-Wissenschaft? Wir wollen hier von der These ausgehen, daß die Gründe für diese sog. „Inkompatibiltät“ von Militär und Gesellschaft in den gesellschaftlichen Bedingungen des frühen Industriezeitalters liegen: denn aus der Sicht des aufgeklärten Bürgertums mußte die MilitärOrganisation als fortschrittshemmender, dem Geist der entstehenden bürgerlichen Wirtschaftsgesellschaft zutiefst widersprechender Fremdkörper erscheinen. Diesem neuen zivilen Selbstbewußtsein gab etwa Saint-Simon um 1820 Ausdruck: Er wollte die „produktive Klasse“ der Künstler und Industriellen an der Macht sehen. Der Staat , seine Verwaltung und insbesondere sein Militär sollten als die unproduktive Klasse auf die nachgeordneten Ränge verwiesen werden: „heute da die Nationen das Bedürfnis … spüren, so organisiert zu werden, wie es für die Produktion am vorteilhaftesten ist, darf die Klasse derer, die sich ausschließlich dem Soldatenhandwerk widmen, nur klein sein, und sie darf nur noch als untergeordnete Klasse angesehen werden (Saint-Simon 1956: 59 f.). Ironischerweise verlief die Entwicklung des zivil-militärischen Verhältnisses jedoch genau umgekehrt: Während auf der Ebene des „zivilen“ Denkens das Militär zum Anachronismus verfiel, stiegen die Streitkräfte tatsächlich in die „Positivität“ des neuen industriellen Zeitalters ein, ja, sie begannen eigentlich die Spitze dieses Fortschritts einzunehmen. Denn nicht das Militär ahmte zum Zweck der Effizienzsteigerung industrielle, also „bürgerliche“ Organisationsformen und Verhaltensweisen nach. Vielmehr prägte das militärische Organisationsmuster („Division“ seit 1760 in Frankreich, Stab-Linien-Prinzip in Preußen seit 1809) die industriellen Managementmuster (Karst, Beermann, Grosse, 1954). Diese AvantgardeFunktion (Van Doorn, 1965, Janowitz, 1965) ist aber weniger ein Ergebnis fortschrittlichen Reformdenkens als vielmehr die Folge eines Anpassungsdruckes, der sich nach verlorenen Gefechten und Feldzügen einstellt. Betriebswirtschaftslehre und Militärwissenschaft –Widerspruch oder Kooperation? 291 Vorreiter der ganzen Entwicklung ist – ungewollt – der Absolutismus gewesen: die straffen zentralistischen Organisationsformen des Merkantilsystems und des stehenden Heeres haben modernisierend gewirkt, d. h. die bislang übliche Selbstequipierung beim Wehrstand wurde durch die absolutistischen Verwaltungsmaßnahmen überwunden, das ständische System dadurch im Militärbereich aufgelöst (Schössler 1980: 40 ff.). Die Bürokratisierung ist keine geschichtlich einzigartige Situation der Neuzeit. Max Weber hat ausgearbeitet, daß die Bürokratisierung im Militärbereich bestimmten sozialökonomischen Konstellationen entspringt, die in verschiedenen Epochen und unterschiedlichen Kulturkreisen auftreten können (Weber 1964: 722). In einer ersten – und für das 19. Jahrhundert nahezu einzigen – systematischen Aufarbeitung der neuen Militärstruktur konnte der Soziologe Lorenz von Stein 1872 bereits von Selbstverständlichkeiten ausgehen. Ihn wundert es lediglich, daß die bürgerliche Wissenschaft immer noch einen weiten Bogen um die Analyse der Militärorganisation macht: „Während (das Heerwesen) mit einer unwiderstehlichen Gewalt immer tiefer in das Leben des Volkes auf allen Punkten hineindringt … während seine Erfolge (1864 bis 1871! der Verf.) mehr wie je mit dem innersten Leben des ganzen Volkes sich verschmelzen und verbinden, steht es in wissenschaftlicher Beziehung im Wesentlichen noch ganz außerhalb derjenigen Bewegung, der unsere allgemeine Bildung mehr und mehr angehört. Das Heerwesen, so tief es auch in alle Verhältnisse hineingreift, hat sich doch bis auf unsere Zeit von der übrigen Wissenschaft im Wesentlichen abgeschlossen“ (v. Stein 1872: 1 f.). Von Stein folgert aus dieser Zustandsbeschreibung, daß die Wissenschaft für die Lösung dieser Aufgabe verantwortlich ist. Die (Sozial-)Wissenschaft soll das Verständnis des Heerwesens auf die Höhe der allgemeinen Bildung erheben, „und dasselbe in seinen großen und für Staat und Volk entscheidenden Momenten in das Bewußtsein des Letzteren einführen. Und das muß sie, weil es in allen Dingen das Kennzeichen der höheren Civilisation ist, alle großen Fragen und Verhältnisse des Gesamtlebens von demselben Standpunkt in sich aufzunehmen …“ (v. Stein: 1 f.). Von Stein beschließt dieses Plädoyer mit der mobilisierenden Parole: „Was man verstehen und lehren kann, das soll man auch verstehen und lehren …“ (v. Stein: 1f.). 2 Inwiefern erhellt oder verdunkelt das „Unvereinbarkeits“-Theorem die tatsächlichen Beziehungen von Wirtschafts- und MilitärWissenschaft? Solche Diagnose (siehe 1.) trifft genau einen schwachen Punkt der gesellschaftlichen Entwicklung in Deutschland (und in Europa überhaupt): Während sich einerseits eine immer stärkere Durchdringung der Militärorganisation durch Verwaltung, Wissenschaft und Technik abzeichnet, koppelt sich das geistig-politische Leben des Bürgers von diesen Vorgängen ab. Für den heutigen Betrachter liegen die Folgen auf der Hand: (1) Auf der einen Seite vervollkommnet sich die Militärorganisation als Bürokratie modernen Zuschnitts, die unter Zuhilfenahme aller technisch-organisatorischen und wissenschaftlichen Mittel sich zur Vorhut der Industriegesellschaft auszuwachsen beginnt. (2) Hieran im Wesentlichen unbeteiligt, entfaltet sich das geistig-politische Leben des Bürgertums und später der organisierten Arbeiterschaft. 292 Dietmar Schössler (3) Daraus folgt(e): Diese „bürgerliche Indifferenz gegenüber dem Militärwesen“ wirkte „auf die Perpetuierung des esoterischen Charakters von Militärpolitik hin. Insbesondere die Formulierung von Strategien bleibt als Kunst- und Geheimlehre militärischen Führern vorbehalten, womit ein Stück Arkanpraxis deren Epoche überdauert“ (Brandt, v. Friedeburg 1966: 11). (4) Als Restgröße einer militärpolitischen Öffentlichkeit bildeten sich Fachblätter und eine militärwissenschaftliche Literatur heraus. Deren Publikum bestand im Wesentlichen aus demjenigen Teil des aufsteigenden Wirtschaftsbürgertums, das in der Rolle des Reserve-Offiziers eine Orientierungshilfe suchte und sich in äußerlichen Verhaltensformen dem Kodex des aktiven Offiziers anzupassen bemühte. Im somit verläßlich abgeschirmten Bereich des monarchischen Soldatenstaats entfaltet sich die bürokratisch organisierte Militärmaschine zu ihrer höchsten Wirksamkeit. Das Militär, über den bürokratischen Mechanismus zuverlässig an den langen Arm des Herrschers gebunden, übernimmt in der Friedenperiode nach den deutschen Einigungskriegen auch zunehmend innenpolitische Herrschaftsaufgaben. Insbesondere soll über die allgemeine Wehrpflicht die Arbeiterschaft in die Gesellschaft integriert werden, notfalls durch entsprechende Indoktrination. – Hier erweist sich erst die mehrfache Funktion der Bürokratie für den Herrscher: Militär und Verwaltung bedingen sich wechselseitig und bringen sich gegenseitig hervor, weil die gewachsene Problemkomplexität anders nicht mehr zu bewältigen ist. Von einer „Unvereinbarkeit“ der beiden Bereiche kann deshalb nur sehr eingeschränkt gesprochen werden. Es sind die objektiven Sachzwänge, aus denen sich zunehmend ein zivil-militärischer Funktionsverbund herausentwickelt. Das UnvereinbarkeitsTheorem dient also eher der Verschleierung dieses „soziologischen Tatbestands“ – und man darf dahinter handfeste ideologische Erkenntnis-Interessen vermuten. Anhand eines kleinen Arbeitstableaus seien die Wechselbeziehungen von Wirtschaftsund Militär-Wissenschaft für die verschiedenen – „dogmengeschichtlich“ relevanten – Perioden aufgezeigt, wobei es hier natürlich nur um erste Bewertungen und Kommentierungen dieser Relationen gehen kann. Betriebswirtschaftslehre und Militärwissenschaft –Widerspruch oder Kooperation? 1. 18. Jhd. ca. 1750-1800 18. Jhd. ca. 1750-1800 Einfluß der MilitärWissenschaft auf die Wirtschafts-Wissenschaft real = gering offiziell = gering Einfluß der WirtschaftsWissenschaft auf die Militär-Wissenschaft real = (sehr) hoch offiziell = (sehr) hoch 19. Jhd. 19. Jhd. Einfluß der MilitärWissenschaft auf die Wirtschafts-Wissenschaft 2. ca. 1. Hälfte 19. Jhd. real = hoch offiziell = gering 3. ca. 2. Hälfte 19. Jhd. real = sehr hoch offiziell = gering Einfluß der WirtschaftsWissenschaft auf die Militär-Wissenschaft ca. 1. Hälfte 19. Jhd. real = gering offiziell = gering ca. 2. Hälfte 19. Jhd. real = sehr gering offiziell = gering 4. 20. Jhd. 20. Jhd. Einfluß der MilitärWissenschaft auf die Wirtschafts-Wissenschaft real = gering offiziell = gering Tableau: Einfluß der WirtschaftsWissenschaft auf die Militär-Wissenschaft real = hoch offiziell =hoch Einfluß der Militär-Wissenschaft auf die Wirtschafts-Wissenschaft & der Wirtschafts-Wissenschaft auf die Militär-Wissenschaft (1750-2000) 293 294 Dietmar Schössler Kurze Kommentierung des Tableaus (1) 18. Jahrhundert, insbes. ab ca. 1750-1800 Es hat sich in Deutschland/Mitteleuropa eine vitale Militär-Publizistik entwickelt, deren Produkte alle anderen militär-theoretischen Publikationen weit überbieten. Es entfaltet sich in beabsichtigter Parallele zur zivilen Wissenschaft eine „militärische Aufklärung“ (military enlightenment), die mit dem Zusammenbruch des Alten Regimes ebenfalls vernichtet wird. Die Wirtschafts-Wissenschaft befindet sich in den allerersten Anfängen (noch aus dem statisch-deskriptiven Ansatz der französischen Verwaltungswissenschaft heraus); sie vermag noch keinen Einfluß zu entwickeln (Lingenfelder 1999: pass). (2) 19. Jahrhundert, erste Hälfte (ca. 1800 – 1850) Nach dem Kollaps des französischen Imperialismus folgt eine Periode der Erschöpfung und Restauration. Diese Lage widerspiegelt sich in der Wirtschafts-/Kameralwissenschaft ebenso wie in der preußisch-deutschen Kriegs- und Militärwissenschaft, die namentlich von Scharnhorst und seinem Schüler Clausewitz revolutioniert und zunehmend in verhaltensrelevante Dienstvorschriften, Bildungs- und Ausbildungsgänge umgesetzt wurde (allerdings vielfach mit einem „Methodismus“ verbunden, den Clausewitz heftig kritisiert hätte!). (3) 19. Jahrhundert, zweite Hälfte (ca. 1850-1900) Die Spaltung der Gesamtgesellschaft verschärft sich (Bürgerliche Gesellschaft: „Unvereinbarkeits-Theorem usf. Das Unvereinbarkeits-Theorem wirkte sich beispielsweise ganz konkret bei der Einrichtung von Lehrstühlen aus: Kriegs- resp. Militärwissenschaft hatte kaum eine Chance (Vgl. als Beispiel Hans Delbrück!). Real steigen die Streitkräfte zur technisch-organisatorischen Avantgarde der sich entwickelnden Industriegesellschaft auf – offiziell dominiert die „zivile“ Wirtschafts- und Verwaltungswissenschaft; tatsächlich ist jedoch ihr Einfluß noch gering. (Das ändert sich mit dem massiven Aufbau der Handelshochschulen resp. entsprechenden Fakultäten ab 1898 und mit dem Aufwuchs der „Betriebswirtschaftslehre“ als eigenständiges Lehrfach um 1900 ff. (Wöhe, Döring 2010: 13 f.). Eine „Strategie-Gemeinschaft“ (Strategic Community) konnte sich – zum langfristigen Schaden der deutschen Außen-, Wirtschafts- und Sicherheitspolitik – angesichts dieser gesellschaftlichen Spaltung natürlich nicht entwickeln. (4) 20. Jahrhundert Im 20. Jahrhundert setzen sich diese komplexen Relationen von „Wirtschaft“ und „Streitkräften“ (und deren fachwissenschaftliche Entsprechungen) fort: es bleibt zwar eine klare Scheidung in einem institutionell-organisatorischen Sinn. Funktional liegt jedoch eine weitgehende Verflechtung vor, so daß die Frage der zivil-militärischen Beziehungen nicht allein mehr mit juristischen (Wehrverfassung) und historischpolitikwissenschaftlichen Analysen zu beantworten ist. Es müssen jetzt zunehmend technologische und soziologische Variablen einbezogen und in ihrer Wechselwirkung mit den institutionellen und organisatorischen Variablen analysiert werden. In der Literatur wurde zunehmend mit dem übergreifenden Konzept einer allgemeinen „Revolution im Militärwesen“ (z. B. E. C. Sloan 2002) gearbeitet. Ein anderer Terminus mit dem gleichen resp. ähnlichem Erkenntnisobjekt und Erkenntnisinteresse ist der Ansatz Betriebswirtschaftslehre und Militärwissenschaft –Widerspruch oder Kooperation? 295 eines „Militärisch-industriellen Komplexes“. Ein dritter hier infrage kommender Leitbegriff ist das Konzept einer „Strategie-Gemeinschaft“ („Strategic Community“). 3 Wie sollte resp. könnte sich das Verhältnis von Betriebswirtschaftslehre und Militär-Wissenschaft künftig weiterentwickeln? Dieses Verhältnis könnte/sollte sich entlang der in unserer Studie aufgezeigten Linien weiterentfalten: (1) daß die Relationen von „BWL“ und Militärwissenschaft durch offene Diskurse und in der Perzeption eines gegenseitigen Nutzens weiterentwickelt werden; (2) daß die an sich immer noch defizitäre Strategieforschung/Militärwissenschaft die „BWL“ als methodischen Orientierungsrahmen – gewissermaßen als Leitbild einer inzwischen vollentfalteten (Sozial-)Wissenschaft – akzeptiert; (3) daß – umgekehrt – die entfaltete „BWL“ Problembewußtsein dafür entwickelt, die tatsächlich zeitweilig dominierende (Strategie- und) Militärwissenschaft und deren weitreichende Wirkungen auf die Wirtschaftswissenschaft durch entsprechende Forschungsprojekte in den BWL-Kontext einbezieht; (4) und beide Seiten akzeptieren, daß es sehr wohl eine „echte“ Unvereinbarkeit beider Bereiche gibt: jene von der angelsächsischen Militärsoziologie so herausgehobene „Kampfprämisse“ als dem Wesenskern der Militärorganisation; (5) daß jedoch bislang überwiegend mit einem Unvereinbarkeitskonzept gearbeitet wurde, das primär einem Interesse der aufsteigenden bürgerlichen Klasse entstammte und in der zivilen deutschen (Nachkriegs-)Gesellschaft – zumindest latent - weiterwirkt. 4 Zusammenfassung Militärisches Handeln zielt in letzter Instanz auf kollektive Gewaltanwendung. Die Zielvorstellungen der bürgerlichen Gesellschaft leiten sich aus den Prinzipien des friedlichen Warenverkehrs ab. Die Befreiung der Produktion von der Bevormundung durch die feudalstaatliche Obrigkeit führte zu einer Ablehnung militärischer Prinzipien durch die Produzenten überhaupt. Das Berufssoldatentum erschien als „parasitäre Klasse“ (Saint-Simon). Die Schriften von Auguste Comte spiegeln jenes Selbstbewußtsein des sich über den Bereich des Warenverkehrs hinaus politisch emanzipierenden Industriebürgertums. T. Parsons, R. Bendix, R. Dahrendorf u.v.a haben jenen – von den westeuropäischen Nationalstaaten abweichenden – Integrationsprozeß beschrieben, der dem Kompromiß aus obrigkeitlich zugestandener ökonomischer Emanzipation des Bürgertums und dessen Anerkennung des „feudal-militaristischen“ (T. Parsons) Überbaus entsprang. Die aufsteigende deutsche Arbeiterbewegung hat eben diesen vom Bürgertum vollzogenen Integrationsprozeß wiederholt. Indem sich die deutsche Arbeiterbewegung oligarchisierte (R. Michels) resp. bürokratisierte, übernahm sie jenen Wertbezug, der auch der Bourgeoisie erst die Teilhabe am nationalen Aufstiegsprozeß vermittelte. Es kann deshalb festgehalten werden, daß die Inkompatibilitäts-Theorie – bürgerliche Gesellschaft versus Militär – sozialgeschichtlich unhaltbar ist. Max Webers Freiburger 296 Dietmar Schössler Antrittsrede spiegelt schon diese Gespaltenheit: Die „friedlichen“ Zwecke des Warenverkehrs stellten sich nämlich im national-imperialistischen Kontext neuartig dar: zwar büßte wegen der gesteigerten Produktivität des Faktors Arbeit der Krieg seine Erwerbsfunktion im engeren Sinne ein. Aber selbst für die liberale Imperialismus-Kritik – so schon H. Spencer – schien sich wegen des wachsenden staatlichen Interventionismus und der immer stärkeren Bürokratisierung der Industrie Gemeinsames zwischen bürgerlich-industrieller Verfassung und militärischen Organisationsprinzipien anzukündigen. Zwar sind Kriege heute zwischen den „postmodernen“ Gesellschaften etwas unwahrscheinlicher geworden. Doch die damit zusammenhängende Umfunktionierung moderner Militärorganisationen von tatsächlicher zu lediglich angedrohter Gewaltanwendung - sowie ein erweitertes Einsatzspektrum innerhalb der konventionellen Ebene – gründet sich – seit Beginn des Nuklearzeitalters – auf die militärtechnologisch ermöglichte flexible Erwiderung, NATO-Strategie der Flexible Response, jeder Gewaltintensität. Eine gesellschaftlich bedingte Inkompatibilität von „Arbeit“ und „Krieg“ läßt sich deshalb jedoch nicht vorweisen. Dennoch spiegelt sich als eine Art Residualfaktor auch in der (west-)deutschen Nachkriegsgesellschaft jene kritische Haltung, die sich im weitesten Sinne aus dem perzipierten Gegensatz von bürgerlichem Geist und militärischem Ethos ableitet. Literatur Brandt, G.; Friedeburg, L. v.: Aufgaben der Militärpublizistik in der modernen Gesellschaft, Frankfurt 1966. Doorn, J. van: Militärische und industrielle Organisation, in: Matthes, J. (Hrsg.): Soziologie und Gesellschaft in den Niederlanden, Neuwied und Berlin 1965. Hahn, O.: Die optimale Leitungsspanne: wieder entdeckter militärischer Forschungsansatz, in: Der Soldat als Ökonom, Regensburg 1989. Janowitz, M.: Armed Forces in Western Europe: Uniformity and Diversity, in: Archives Européennes de Sociologie, 1965, Heft 2. Karst, H.; Beermann, F.; Grosse, F.: Menschenführung, Personalauslese, Technik in Wirtschaft und Armee, Darmstadt 1954. Lingenfelder, M. (Hrsg.): 100 Jahre Betriebswirtschaftslehre in Deutschland, München 1999. Looss, J.: Die optimale Kontrollspanne als Grundlage organisatorischer Strukturmodelle, Bochum 1977. Parsons, T.: Demokratie und Sozialstruktur in Deutschland vor der Zeit der Nationalsozialisten, in: ders. (Hrsg.): Beiträge zur soziologischen Theorie, Neuwied und Berlin 1964. Saint-Simon, H. de: Über die Gesellschaftsorganisation, in: Ramm, T. (Hrsg.): Der Frühsozialismus, Stuttgart 1956. Schall, W.: Führungstechnik und Führungskunst in Armee und Wirtschaft, Bad Harzburg 1965. Schössler, D.: Militärsoziologie, Königstein/Taunus 1980. Sloan, E. C.: The Revolution in Military Affairs, Montreal&Kingston 2002. Stein, L. v.: Die Lehre vom Heerwesen, 1872, (Neudruck Osnabrück 1967). Weber, M.: Wirtschaft und Gesellschaft, Köln/Berlin 1964. Wittmann, J.: Auftragstaktik, Berlin 2012. Wöhe, G.; Döring, U.: Einführung in die Allgemeine Betriebswirtschaftslehre, 24. Aufl., München 2010. Die Wirtschaftstrends der Zukunft Hermann Simon Durch die anhaltende Krise hat sich unser Blick auf die Zukunft verändert. Dies mag uns verunsichern. Aber wir können diese Entwicklung nicht aufhalten, denn die Welt bleibt nicht stehen. Längerfristige Wirtschaftstrends, die durch die Krise teilweise unterbrochen wurden, setzen sich in der „Nachkrisenzeit“ durch und bestimmen unsere Zukunft. Ein Blick nach vorne lohnt deshalb gerade heute. Viele Megatrends sind jedermann bewusst und schon in vollem Gange. Dazu gehören das Vordringen erneuerbarer Energien, alternative Antriebssysteme bei Automobilen, die Fortschritte in Biotechnologie sowie Medizintechnik – und natürlich der Mega-Megatrend Demographie. Solche großen gesellschaftlichen und politischen Trends sind nicht Gegenstand dieses Beitrages. Mir geht es hier um Entwicklungslinien, die Management und Unternehmensführung sehr konkret betreffen. Die folgenden sechs Wirtschaftstrends haben sich schon teilweise manifestiert, teilweise sind sie erst im Entstehen begriffen. Sie werden sich weiter konkretisieren, beschleunigen und verstärken. Sie beeinflussen die zukünftigen Chancen und Risiken erfolgreicher Unternehmensführung in starkem Maße. Mein Ziel in diesem Beitrag ist es, klare Diagnosen zu stellen und daraus praktische, handfeste Empfehlungen für das Management abzuleiten. Wer sich auf die Wirtschaftstrends unserer Zukunft einstellt und vorausschauend die richtigen Weichen stellt, der wird von den gewonnenen Einsichten profitieren. Die Globalisierung beschleunigt sich Eine Vielzahl von Indikatoren belegt, dass die Globalisierung in den letzten drei Jahrzehnten enorm an Fahrt gewonnen hat. Wie Abbildung 1 zeigt, sind die grenzüberschreitenden Aktivitäten weitaus stärker gewachsen als die landesinterne Wertschöpfung. Und vieles spricht dafür, dass sich dieser Trend fortsetzen und sogar noch verstärken wird. Ich spreche deshalb von beschleunigter Globalisierung. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_22, © Springer Fachmedien Wiesbaden 2013 298 Hermann Simon Index (1980=100) 15.967Bücher zur Globalisierung 1000 943 Tägliche grenzüberschreitende Finanztransaktionen 812 Exporte 594 Internationale Touristen 500 Internationale Flüchtlinge 416 Ausländische Direktinvestitionen 750 500 250 100 0 1980 Abbildung 1: heute 2051 Indikatoren der Globalisierung seit 1980 Die Beschleunigung wird in den weltweiten Pro-Kopf-Exporten sichtbar. Abbildung 2 zeigt die Entwicklung seit 1900: Abbildung 2: Weltexporte pro Kopf der Weltbevölkerung (in US-Dollar) Die Wirtschaftstrends der Zukunft 299 Ausgehend von einem sehr niedrigen Niveau (6 US-Dollar im Jahre 1900) wurden fünfzig Jahre für eine Vervierfachung benötigt. Die beiden Weltkriege zerstörten die internationalen Handelsstrukturen und warfen die Entwicklung der Exporte um Jahrzehnte zurück. In den nächsten 30 Jahren bis 1980 gab es ein sehr starkes Wachstum. Die nächste Verdoppelung auf knapp 1 000 US-Dollar brauchte dann nur noch 20 Jahre. Seit dem Jahr 2000 haben sich die Weltexporte pro Kopf innerhalb von zehn Jahren wiederum mehr als verdoppelt, trotz des bereits hohen Niveaus. In absoluten Zahlen bedeutet diese Entwicklung einen Anstieg des internationalen Güteraustausches von 9,9 Milliarden US-Dollar im Jahre 1900 (damals lag die Weltbevölkerung bei 1,65 Milliarden Menschen) auf 14.904 Milliarden US-Dollar in 2010 (Weltbevölkerung: 6,9 Milliarden Menschen). Das ist eine Steigerung um nahezu das Fünfzehnhundertfache. Der internationale Güteraustausch ist heute fast 1500-mal so hoch wie vor 100 Jahren. Dabei sind Direktinvestitionen und Dienstleistungsexporte (z.B. Finanzdienstleitungen, Softwareentwicklung oder Call Center in Indien) nicht einmal eingerechnet. Wie Abbildung 1 andeutet, würde sich das Wachstum durch deren Einbeziehung nochmals verdoppeln. Es sei ausdrücklich darauf hingewiesen, dass die obigen Zahlen nicht inflationsbereinigt und generell mit Vorsicht zu genießen sind. Es geht uns hier nur um das Aufzeigen von Tendenzen und Größenordnungen. Die Krise von 2008/09 hat diese Trends allenfalls unterbrochen, aber nicht grundsätzlich geändert. Bereits im Jahre 2010 wurde bei vielen Indikatoren der Globalisierung das Vorkrisenniveau wieder erreicht. In diesem Sinne sprechen die Statistiken eine Sprache, wie sie eindeutiger nicht sein kann: Die Globalisierung schreitet ungebremst voran und beschleunigt sich dabei. Die Globalisierung von Unternehmen läuft in typischen Phasen ab. Am Anfang steht der reine Export, dann folgen die Gründung ausländischer Vertriebsgesellschaften und später die Produktion im Ausland. In diesem Prozess internationalisiert sich die Belegschaft. So haben die meisten international aktiven deutschen Unternehmen heute mehr Mitarbeiter im Ausland als in Deutschland. Kann man ein Unternehmen, das 60 oder 80 Prozent seiner Mitarbeiter in anderen Ländern beschäftigt, noch als „deutsch“ bezeichnen? Neuerdings rücken Forschung und Entwicklung an ausländische Standorte nach. Als letzte Phase folgt schließlich die Globalisierung des Managements. Immer mehr Unternehmen treten in das Stadium ein, in dem Mitarbeiter und Führungskräfte aus unterschiedlichen Kulturen im Alltag zusammenarbeiten. Harvard-Professor Howard Gardner, Erfinder des Konzepts der multiplen Intelligenzen, qualifiziert deshalb in seinem Buch „Five Minds for the Future“ den Respekt für andere Kulturen als eine Schlüsselfähigkeit der Zukunft. Wo stehen Deutschland und deutsche Unternehmen in dieser Hinsicht? In vielen Aspekten wie Exportstärke, Wettbewerbsfähigkeit unseres Systems, geostrategische Lage schneiden wir hervorragend ab. Auf anderen Feldern wie Demografie, Management der Zuwanderung, Gewinnung internationaler Talente, Umsetzungsfähigkeit belegen wir allenfalls mittlere, wenn nicht hintere Plätze. Gleichzeitig holen große Länder wie China oder Indien mit rapiden Schritten auf. Insbesondere chinesische Unternehmen erweisen sich als zunehmend gefährliche Konkurrenten für deutsche Mittelständler. 300 Hermann Simon Die Politik nimmt stärkeren Einfluss Die Wirtschaftskrise hat den Trend zur stärkeren Einflussnahme der Politik, vor allem im Finanzsektor, massiv befördert. Unabhängig davon läuft die Maschinerie der staatlichen Intervention seit Jahren mit zunehmender Intensität. Die Einflussnahme wird dabei immer detaillierter (siehe EU-Regelungen) und kann alle Managementinstrumente betreffen (man denke beispielsweise an Vorschriften zur Managementvergütung). Selbst Kerngeschäftsprozesse sind nicht mehr tabu. So schlägt der Yale-Ökonom Shiller unabhängige Finanzberater vor, die vom Staat bezuschusst und pro Beratungsstunde vom Kunden bezahlt werden, aber ansonsten keine weiteren Provisionen erhalten. In einem weiteren Vorschlag verlangt er für Privatleute Kreditversicherungen, die ähnlich wie die Kfz-Versicherung Pflicht sind. Manager werden sich immer stärker mit derartigen Vorschriften herumschlagen müssen. Das Thema Compliance, also die Beachtung und Überwachung von Regeln, Vorschriften, Gesetzen, Verhaltenscodes etc. schränkt die Freiheiten der Unternehmensführung nachhaltig ein. Gleichzeitig verringern sich die Spielräume der Politik auf Grund der exorbitanten Verschuldung. Das Manövrieren in dieser Gemengelage wird zunehmend schwieriger. Damit wird die Fähigkeit des Managements, den politischen Willensbildungsprozess zu beeinflussen und innerhalb verschärfter Rahmenbedingungen zu agieren, wichtiger. Der Lobbyismus wird zu einer Wachstumsbranche der Zukunft. Dort werden zahlreiche neue, anspruchsvolle Arbeitsplätze entstehen. Management und Kapital rücken näher zusammen Eines der großen Themen unserer Zeit ist die Angleichung der Interessen von Eigentümern und angestellten Managern. Das Auseinanderklaffen der Ziele dieser beiden Gruppen, angefacht durch falsche Anreizsysteme, war eine der Hauptursachen der großen Krise. Ein naheliegendes Verfahren zur Angleichung der Interessen besteht darin, Manager verstärkt zu Miteigentümern zu machen. Viele der Probleme der Vergangenheit wurden durch Aktienoptionen ausgelöst, die Manager zu einem Verhalten incentivierten, das letztlich nicht den Interessen der Eigentümer entsprach. Dieser Widerspruch lässt sich am besten durch eine Beteiligung der Manager auflösen. Siemens leistet in dieser Hinsicht Pionierarbeit, indem es von seinen Vorständen verlangt, dass sie Siemens-Aktien in beträchtlicher Höhe erwerben und halten. Der Vorstandsvorsitzende muss das Dreifache seines jährlichen Fixgehaltes von ca. 2 Millionen Euro, also ca. 6 Millionen Euro, normale Vorstände müssen das Doppelte ihres Fixgehaltes von ca. 1 Million Euro, also ca. 2 Millionen Euro, in Siemens-Aktien investieren. Das macht Vorstände zu echten Miteigentümern. Entscheidend ist dabei, dass die zu investierenden Summen groß genug sind, um dem Einzelnen „weh zu tun“. Ein Vorstand, der mehrere Millionen Euro in das von ihm geführte Unternehmen investiert hat, wird ähnliche Präferenzen wie die Aktionäre entwickeln, etwa im Hinblick auf die Vermeidung unkalkulierbarer Risiken. In engem Zusammenhang damit stehen Fragen der Finanzierung. Die Entwicklung von Unternehmen wird wesentlich stärker als bisher von den Finanzierungsmöglichkeiten bestimmt. Kredite sind schwerer zu bekommen, diese Tendenz wird anhalten. Eigenkapital wird gegenüber Fremdkapital deutlich an Bedeutung gewinnen. Das ist eine der bleibenden Folgen der Krise, die aber ohnehin überfällig war. Die offensichtlich falsche Bewertung von Risiken hat zu massiven Fehlallokationen von Kapital und zu unrealistischen Rendite- Die Wirtschaftstrends der Zukunft 301 erwartungen geführt. Wenn Kredit in Zukunft ein knappes Gut wird, so muss vermehrter Eigenkapitaleinsatz die Lücke schließen. Dazu sind Innovationen in diesem Bereich erforderlich. Produktwelten verschieben sich Deutsche Produkte besetzen im weltweiten Wettbewerb vielfach Premiumpositionen. Bei Premium- und Luxusautomobilen haben deutsche Firmen beispielsweise einen globalen Marktanteil von gut 70 Prozent. Auch in Zukunft müssen diese Marktstellungen unbedingt verteidigt werden. Das sollte gelingen, denn diese Positionen sind durch überlegene Leistungen und interne Kompetenzen untermauert. Größer sind die Herausforderungen am unteren Ende der Preisskala. Denn dort entsteht ein neues Segment, das sehr groß zu werden verspricht. Um in diesem „Ultra-Niedrigpreis-Segment“ erfolgreich zu sein, ergeben sich völlig neue Anforderungen an Forschung und Entwicklung, Produktion und Vermarktung. Erste Erfahrungen mit dem indischen Billigauto Tata Nano zeigen, dass deutsche Unternehmen hier durchaus bestehen können. Mit Bosch als größtem sind acht weitere deutsche Zulieferer im Nano vertreten. Sogar der Chef von Tata Auto, Carl-Peter Forster, ist ein Deutscher. Wir müssen in die Lage kommen – und sind dies teilweise schon – die Chinesen bei den Kosten anzugreifen. Die große Herausforderung wird sein, im UltraNiedrigpreis-Segment Geld zu verdienen. Außer im Automobilmarkt sind deutsche Unternehmen in den Luxussegmenten kaum vertreten. Doch auch diese Segmente wachsen stärker als das Mittelpreis-Segment, insbesondere in aufstrebenden Ländern wie China. Die bisherige Vernachlässigung des Luxusgütersegments durch deutsche Firmen muss deshalb korrigiert werden. Aufgrund der explosionsartig gestiegenen Leistungsfähigkeit und den gleichzeitig gesunkenen Kosten der Elektronik steht die Automatisierung nicht nur in der Industrie, sondern auch im Privatbereich vor einem Quantensprung. Wenige wissen, dass die deutschen Unternehmen auf diese Entwicklung bestens vorbereitet sind und sie mit vorantreiben. Das Fundament dieser Führungsrolle liegt darin, dass es hier nicht um reine Informationstechnologie, sondern um die Integration von IT und Mechanik geht. Das Kundenverhalten ändert sich nachhaltig Die Wirtschaftskrise war eine Absatz- und keine Kostenkrise. Die Kunden haben Kaufverweigerung betrieben und ihr Verhalten verändert. Das Vertrauen in die Marktwirtschaft und insbesondere in den Finanzsektor wurde schwer beschädigt. Aus der Verhaltensforschung wissen wir, dass solche Verhaltensänderungen in die Nachkrisenzeit hinein Bestand haben werden. Nach einer derart schwerwiegenden Krise kann es fünf Jahre dauern, bis die Verbraucher das verloren gegangene Vertrauen wieder gewinnen und zu ihren alten Kauf- und Konsumgewohnheiten zurückkehren. Misstrauen und Angst vor der Zukunft, vor allem vor dem Verlust des Arbeitsplatzes, bleiben für viele bestimmend. Harte Nutzen- und Kostenvorteile werden auf lange Zeit eine höhere Bedeutung behalten. Auf leichtfertige Käufe wird eher verzichtet. Spontankäufe hochpreisiger Artikel werden vermieden. Gestauchte Zeitpräferenz, striktere Finanzierung sowie Sicherheit sind weitere Facetten eines veränderten Kundenverhaltens. Diese neuen Gegebenheiten sollten jedoch nicht nur als Bedrohun- 302 Hermann Simon gen, sondern durchaus auch als Chancen verstanden werden, auf die strategische Antworten zu finden sind. Bei diesen kann es sich um erweiterte Garantien oder Probezeiten, großzügige Rücktrittsklauseln, erfolgsabhängige Bezahlung, Tauschgeschäfte, neue Servicemodelle, Vertiefung der Wertschöpfungskette oder ähnliche Maßnahmen handeln. So hat der koreanische Autohersteller Hyundai in den USA mit einer einjährigen Rücknahmegarantie im Falle des Arbeitsplatzverlustes in den Jahren 2009 und 2010 starke Marktanteilsgewinne verbuchen können. Vernetzung nimmt stark zu Das Internet ist bereits weit in die Unternehmensfunktionen vorgedrungen. Dennoch stehen wir wohl erst am Anfang. Die beiden ausschlaggebenden Fähigkeiten des Internets, nämlich die extrem kostengünstige Distribution digitaler Produkte sowie die Vernetzung großer Zahlen von Anbietern und Nachfragern befinden sich geschäftlich betrachtet in einem sehr frühen Stadium. Nur wenige Firmen nutzen die sich diesbezüglich bietenden Potenziale heute im optimalen Umfang. Apple hat die Chancen, die das Internet für die Distribution digitaler Inhalte bietet, am besten verstanden und zu seinen Gunsten genutzt. Integrierte Systeme wie iPod, iPhone, iPad und die dazu gehörigen Applikationen („Apps“) haben das Tor in die Zukunft weit aufgestoßen und können zu Vorbildern für andere Contentanbieter werden. In der Nutzung der Vernetzungsfähigkeit des Internets ist bisher nur Google ein großer wirtschaftlicher Erfolg. Facebook mit fast 600 Millionen Mitgliedern könnte der zweite große Erfolg werden. Jedenfalls deutet die kürzlich von Goldman Sachs getroffene Bewertung mit 50 Milliarden Dollar darauf hin. Dabei ist Facebook nicht einmal das größte soziale Netzwerk der Welt. Diesen Titel beansprucht nämlich der chinesische Dienst qq (gesprochen tschü tschü), der 650 Millionen Nutzer angibt. Wir werden viele neue Ansätze, Modelle, Erfolge und auch Flops sehen. Für traditionelle Anbieter wie Zeitungs- und Buchverlage wird sich die Welt radikal verändern. Das Internet wird langfristig zum wichtigsten Marketing-Informationskanal. Die Herausforderung: Schneller und effektiver umsetzen Angesichts der großen und schnellen Veränderungen stellt sich eine übergeordnete Herausforderung, die effektivere Umsetzung. Obwohl sich in dieser Hinsicht in den letzten Jahren vieles verbessert hat, hapert es nach wie vor in den meisten Unternehmen an einer effektiven und schnellen Realisierung von Plänen und Entscheidungen. Insbesondere die Chinesen erweisen sich uns in dieser Hinsicht als überlegen. Managementeffizienz und effektivität beginnen mit einer besseren Nutzung der knappen Ressource Zeit. Angesichts der Überflutung mit Information werden der Kampf gegen unproduktives Multitasking, der Umgang mit den neuen Kommunikationstools und die Vermeidung von Überorganisation zu noch wichtigeren Fähigkeiten von Managern. Dennoch verlieren hergebrachte Tugenden wie Realitätssinn, Vermeidung großer Fehler und Innovativität nichts von ihrer Bedeutung. Zum Schluss möchte ich es nicht versäumen, vor einem naiven Glauben an Trends zu warnen: Glauben Sie nicht an Trends, sondern betrachten Sie meine hier vorgestellten Vorschläge als Anregungen zum kritischen Nach- und Überdenken. Oft steht die Schrift des Trends an der Wand, man muss sie allerdings erkennen und bedenken. Anforderungen des Technologiemanagements an die Modellierung von Entscheidungssituationen Dieter Specht, Gunnar Berntsen 1 Komplexität als Parameter betriebswirtschaftlicher Entscheidungen Der Begriff der Komplexität ist vielschichtig und mehrdimensional und kann in diesem Zusammenhang als die Gesamtheit aller Merkmale eines Objektes oder Zustandes verstanden werden. Komplexe Entscheidungssituationen sind durch zahlreiche und interdependente Entscheidungsparameter sowie schwierig zu überschauende Konsequenzen einer Entscheidung gekennzeichnet.1 Der Komplexitätsgrad ist dabei von der Anzahl der Elemente und der existierenden Beziehungen, der Unterschiedlichkeit der Elemente und deren Beziehungen und der Anzahl möglicher Zustände im Zeitablauf abhängig.2 Betriebswirtschaftliche Entscheidungen sind heutzutage in der Regel innerhalb einer Umgebung zu treffen, die von indirekten Wirkungen, Beziehungsnetzen und Zeitverzögerungen gekennzeichnet sind. Dennoch wird die Identifikation und Abbildung von Systemzusammenhängen in Entscheidungssituationen häufig auf einfache Ursache-Wirkungsbeziehungen beschränkt und führt im Allgemeinen zu einem fehlerhaften Umgang mit komplexen Systemen, da die tatsächliche Vernetzung der Systemelemente unberücksichtigt bleibt. Der lange Zeit ausreichende unvernetzte Denkansatz stößt in Zeiten hochkomplexer Systeme und miteinander vernetzter Strukturen und Prozesse an seine Grenzen. Das Denken, Planen und Handeln in Zusammenhängen erfordert neuartige instrumentelle Hilfen. Bisherige zur Verfügung stehende systemanalytische Methoden erweisen sich als aufwändig und dennoch nicht adäquat. Zwar stehen moderne Informationstechnologien zur Verfügung, aber die Hoffnung, mit dem Zugang zu mehr Informationen und genaueren Daten bessere Entscheidungen treffen zu können, führt stattdessen nur zu einem Komplexitätsdilemma, denn die gewaltigen Informationsmengen können nicht mehr bewältigt werden und erhöhen die Komplexität.3 1 Vgl. Bliss (2000), S. 3–4 und die dort angegebene Literatur sowie Adam; Rollberg (1995), S. 667 2 Vgl. Dehnen (2004), S. 31 3 Vgl. Vester (2005), S. 15 – 20 W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_23, © Springer Fachmedien Wiesbaden 2013 304 Dieter Specht, Gunnar Berntsen Entscheidend bei der Erfassung eines komplexen Systems sind die Aggregationsebene, die Auswahl der wesentlichen Systemelemente und die Identifikation charakteristischer Beziehungen zwischen den Systemelementen. Insbesondere qualitative Informationen, die für das Verständnis von Systemen häufig eine große Bedeutung haben, bleiben durch die Fokussierung auf messbare Daten oft unberücksichtigt und das Systemverhalten wird in den Entscheidungssituationen nicht realitätsadäquat abgebildet. Exakte Messwerte täuschen eine vermeintliche Richtigkeit vor, die der Veränderlichkeit von Einflussgrößen und der Dynamik der Umwelt nicht gerecht werden. Zur Erfassung von Komplexität ist das Erkennen von Mustern entscheidend, wofür die Beziehungen zwischen den Systemelementen analysiert werden müssen. Systemgerechte Managementmethoden ermöglichen, komplexe Systeme mit wenigen Schlüsselvariablen zu erfassen und dessen Verhalten besser zu verstehen, als es isoliert erfasste exakte Messwerte können.4 2 Theorien zur Modellierung von Unsicherheit und Unschärfe Das Unternehmensumfeld ist durch zunehmende Veränderungen, Turbulenzen und Diskontinuitäten geprägt5 und erfordert eine intensive Auseinandersetzung mit der bestmöglichen Beschreibung zukünftiger Situationen und der gedanklichen Vorwegnahme zukünftigen Handelns.6 Aufgabe der Planung ist die Identifikation geeigneter Maßnahmen zur Beseitigung von Abweichungen des derzeitigen oder erwarteten Zustandes eines Systems von einem angestrebten, durch Ziele beschriebenen Zustandes dieses Systems. Zur Lösungsfindung sind Entscheidungen unter Nutzung der zur Verfügung stehenden Informationen durch den Planer beziehungsweise den Entscheidungsträger zu treffen und durchzusetzen.7 Betriebswirtschaftliche Entscheidungsprobleme beinhalten in der Regel die Gestaltung komplexer realer Systeme. Die vollständige Erfassung und Beschreibung der Elemente und Beziehungen des Realproblems in einem isomorphen8 Realmodell ist einerseits häufig nicht möglich, andererseits nicht immer erforderlich. Durch Abstraktion vom realen System sollten zur Lösungsfindung nur die planungsrelevanten Elemente und Beziehungen in das Modell übertragen werden, wodurch die Abbildung und die Analyse der Zusammenhänge vereinfacht beziehungsweise erst möglich wird. Das Ausmaß der Abstraktion und damit die Komplexität des Modells werden durch die angestrebte Genauigkeit der Problemlösung, den realisierbaren Detaillierungsgrad der relevanten Informationen und die Verhältnismäßigkeit der Kosten für die Informationsbeschaffung bestimmt.9 4 Vgl. Vester (2005), S. 20–21, 26 5 Vgl. Mißler-Behr (2001), S. 10 6 Vgl. Schneeweiß (1991), S. 1–2 7 Vgl. Klein; Scholl (2011), S. 1–2 8 In einem isomorphen oder strukturgleichen Modell steht jedem Element und jeder Beziehung des Originals ein Element beziehungsweise eine Beziehung im Modell gegenüber und umgekehrt. Bleibt die Grundstruktur des Originals erhalten und werden einzelne Bestandteile des Originals zu einem einzigen Bestandteil im Modell zusammengefasst, handelt es sich um ein homomorphes oder strukturähnliches Modell. Vgl. Klein; Scholl (2011), S. 32 9 Vgl. Klein; Scholl (2011), S. 31–32 Anforderungen des Technologiemanagements an die Modellierung 305 Die Entscheidungsprobleme sind durch die Tragweite, die Komplexität und die Strukturiertheit des Problems, die Wirkungsdauer und die Revidierbarkeit der Problemlösung sowie das Ausmaß der Unsicherheit von Umwelteinflüssen und der Dynamik der Umwelt charakterisiert und für die Notwendigkeit und die Erfolgsaussichten der Planung maßgebend.10 Das Wissen, welches in Planungs- und Entscheidungsprozessen Handlungen auslöst, stützt sich auf Informationen. Informationen basieren auf verarbeiteten und interpretierten Daten, haben für den Entscheider einen konkreten Bezug und subjektiven Mehrwert.11 Sie können demzufolge in zweckorientiertes beziehungsweise für Entscheidungen relevantes Wissen verwandelt werden.12 Das Entscheidungsfeld des Entscheidungsträgers umfasst die in einem bestimmten Zeitpunkt wählbaren Handlungsalternativen oder Strategien, die Zustände des Unternehmensumfeldes und die Konsequenzen der jeweiligen Handlungsalternativen bei einem bestimmten Zustand. Zur Beurteilung der Konsequenzen der Handlungsalternativen benötigt der Entscheidungsträger Informationen über den Zustand derjenigen Faktoren, welche das Handlungsergebnis beeinflussen. Die Zustände dieser Faktoren können durch die Vergangenheit, die Gegenwart oder erst durch die Zukunft bedingt sein.13 Viele der Planungs- und Entscheidungssituationen werden in einem Umfeld vollzogen, in welchem die Ziele, die Randbedingungen und die Konsequenzen der möglichen Handlungen nicht genau bekannt sind. 14 In diesen Fällen sind die den Planungs- und Entscheidungsprozessen zugrunde liegenden Informationen unvollkommen. 15 Zur Klassifizierung von unvollkommenen Informationen können die in den Planungs- und Entscheidungsprozessen genutzten Informationen nach ihrer Bestimmtheit in die Bestimmtheitsgrade Sicherheit, Unsicherheit und Unschärfe unterschieden werden. 16 Unter dem Bestimmtheitsgrad ist die Eindeutigkeit der Zuordnung von Attributausprägungen bei der Erfassung und der Beschreibung der Eigenschaften eines Zustandes zu verstehen. Sind alle Attributausprägungen eines Zustandes bekannt, liegt der Bestimmtheitsgrad Sicherheit vor. Unsicherheit bezeichnet Bestimmtheitsgrade, bei denen Unbestimmtheit durch einen Mangel an Informationen besteht und nicht eindeutig entschieden werden kann, ob ein bestimmter Zustand eintritt oder nicht.17 Ist lediglich das Eintreten irgendeines Zustandes bekannt, wird diese Form der Unsicherheit als Ungewissheit bezeichnet. Lassen sich subjektive oder objektive Wahrscheinlichkeiten für das Eintreten verschiedener Zustände angeben, liegt Risiko vor.18 Unschärfe bezeichnet die Unbestimmtheit von Informationen durch einen Mangel an begriffli- 10 Vgl. Klein; Scholl (2011), S. 3 11 Vgl. Gerpott (2002), S. 84–86, Horvath (2009), S. 557 12 Vgl. Wittmann (1959), S. 14 13 Vgl. Bamberg; Coenenberg; Krapp (2008), S. 15, 18–19 14 Vgl. Bellman; Zadeh (1970), S. 141 15 Vgl. Wittmann (1959), S. 26 16 Vgl. Schneeweiß (1991), S. 34–37 17 Vgl. Schneeweiß (1991), S. 31, 34–37 und Biewer (1997), S. 23 18 Vgl. Bamberg; Coenenberg; Krapp (2008), S. 19 306 Dieter Specht, Gunnar Berntsen cher Schärfe.19 Im Unterschied zur Unsicherheit bezieht sich Unschärfe nicht auf das Eintreten von Zuständen, sondern auf die inhaltliche Bestimmung der Zustände selbst.20 Diese Form der Unbestimmtheit resultiert aus dem menschlichen Denken und Urteilen sowie aus der sprachlichen Darstellung von menschlichem Wissen.21 Unschärfe ist kein charakteristisches Merkmal der Dinge selbst, sondern der Repräsentation der Dinge, beispielsweise durch die Sprache.22 Unschärfe kennzeichnet das Verhältnis der vorhandenen Erkenntnis von Dingen und die diese ausdrückenden sprachlichen Formulierungen zur Wirklichkeit, aber nicht die Wirklichkeit selbst.23 Es können drei Arten von Unschärfe unterschieden werden:24 • Linguistische (auch intrinsische, lexikalische) Unschärfe: Hierunter wird die inhaltliche Undefiniertheit von Wörtern und Sätzen der menschlichen Sprache verstanden. Die zur Beschreibung einer Situation verwendeten Ausdrücke sind inhaltlich nicht eindeutig und vom jeweiligen Zusammenhang abhängig. Formulierungen wie „angemessener Gewinn“ oder „vertretbare Kosten“ stellen keine eindeutigen Beschreibungen eines Zustandes dar und erschließen sich erst im Kontext. Häufig findet sich auch eine Kombination der linguistischen Unschärfe mit dem Risikofall der Unsicherheitssituation, beispielsweise „Ein guter Gewinn ist wahrscheinlich“. • Informationale Unschärfe: Diese Art von Unschärfe resultiert aus der Schwierigkeit, eine große Menge von Informationen zu einem klaren Gesamturteil zu verdichten. Es liegen zwar genau definierbare Begriffe vor, allerdings sind zu ihrer umfassenden Beschreibung eine große Anzahl von Eigenschaften notwendig, die durch den Menschen nicht vollständig erfasst und verarbeitet werden können. Beispielsweise wird unter Kreditwürdigkeit die Fähigkeit verstanden, einen Kredit vereinbarungsgemäß zurückzuzahlen. Die Überprüfung des Vorliegens dieser Eigenschaft, welche von einer Vielzahl von Merkmalen beeinflusst wird, gestaltet sich aber sehr schwierig. • Relationale Unschärfe: Bei dieser Art von Unschärfe handelt es sich um Aussagen, bei denen die gegenseitigen Abhängigkeiten der einbezogenen Objekte keinen dichotomen Charakter besitzen. Das heißt, die Beziehungen zwischen den Objekten sind unscharf. Beispiele sind die Formulierungen „viel größer als“, „erheblich teurer als“ oder „ungefähr gleich“. Auch eine Kombination mit der linguistischen Unschärfe ist möglich, zum Beispiel: „Bei schlechter Gewinnerwartung ist die Investitionstätigkeit gering“ oder „Mitarbeiter A ist viel motivierter als Mitarbeiter B“. In Abbildung 1 werden die Ausführungen zu den möglichen Bestimmtheitsgraden der in Planungs- und Entscheidungssituationen zur Verfügung stehenden Informationen zusammenfassend dargestellt. 19 Vgl. Schneeweiß (1991), S. 35. In der Literatur finden sich auch die Begriffe Ungenauigkeit, Vagheit, linguistische Unsicherheit, Fuzziness, Unvollständigkeit oder die dann nicht ausschließlich im entscheidungstheoretischen Sinne verwendeten Begriffe Unsicherheit und Ungewissheit zur Charakterisierung von Informationen, welche durch einen Mangel an begrifflicher Schärfe gekennzeichnet sind. Vgl. Rommelfanger (1988), S. 4, Mißler-Behr (2001), S. 25–26 20 Vgl. Spengler (1999), S. 128 21 Vgl. Winkler (2008), S. 10 22 Vgl. Russell (1923), S. 31 23 Vgl. Schaff (1974), S. 223 24 Vgl. Rommelfanger (1988), S. 4–5 und Zimmermann (1993), S. 4 307 Anforderungen des Technologiemanagements an die Modellierung Sicherheit Bestimmtheit der Informationen Unsicherheit Unbestimmtheit durch einen Mangel an Informationen Bestimmtheitsgrad von Informationen Ungewissheit Risiko Mischformen Iinguistische Unschärfe Unschärfe Unbestimmtheit durch einen Mangel an begrifflicher Schärfe informationale Unschärfe Mischformen relationale Unschärfe Abbildung 1: Bestimmtheitsgrad von Informationen (Quelle: Eigene Darstellung) Eine Vielzahl der anerkannten Theorien zur Modellierung von Unbestimmtheit ist auf einzelne Typen beziehungsweise Ursachen von Unbestimmtheit fokussiert. Dennoch erfolgt die Modellierung einer Unbestimmtheitssituation häufig unabhängig von den Eigenschaften des realen Problems durch dessen Anpassung an die zur Modellierung eingesetzte Theorie anstatt die Theorie anhand der Charakteristik des Realproblems auszuwählen.25 Die Identifikation einer geeigneten Theorie zur bestmöglichen Modellierung einer Unbestimmtheitssituation ist von verschiedenen Kriterien abhängig:26 • den Gründen der Unbestimmtheit, • den Ausprägungen der verfügbaren Informationen bezüglich Art, Menge und Qualität, • der Art der Informationsverarbeitung beziehungsweise der mathematischen Operatoren, die eine Theorie verwendet, • dem Ziel der Modellierung und in diesem Zusammenhang dem vom Empfänger geforderten Ausgabeformat der durch die Theorie zur Verfügung gestellten Informationen. Neben den Gründen der Unbestimmtheit, welche in der Regel die Menge und die Qualität der verfügbaren Informationen bestimmen und auf den Informationsfluss zwischen dem abzubildenden System und der zur Abbildung eingesetzten Theorie einwirken, nimmt auch die Art der vorliegenden Informationen Einfluss auf die Auswahl einer geeigneten Theorie zur Modellierung einer spezifischen Unbestimmtheitssituation. In Abhängigkeit davon, ob 25 Vgl. Zimmermann (1997), S. 90 26 Vgl. hierzu und im Folgenden Zimmermann (1999), S. 289. Zimmermann schränkt ein, dass kein Anspruch auf Vollständigkeit erhoben wird und die Kriterien selbst nicht immer überschneidungsfrei sind. 308 Dieter Specht, Gunnar Berntsen die Informationen in numerischer, linguistischer, intervallwertiger oder symbolischer Form vorliegen, sollten die in den Theorien verfügbaren mathematischen Operatoren und deren Anforderungen an die Skalenniveaus der Eingangsinformationen und auch der Ausgangsinformationen bei der Auswahl Berücksichtigung finden.27 Aus den benannten Kriterien kann ein Klassifikationsschema abgeleitet werden, dessen Dimensionen zur Beschreibung der Unbestimmtheitssituationen und der Unbestimmtheitstheorien herangezogen werden können. Anhand der Übereinstimmungen der Profile in den Dimensionen ergibt sich die für eine spezifische Unbestimmtheitssituation am besten geeignete Theorie.28 Tabelle 1 zeigt das Klassifikationsschema. Tabelle 1: Schema zur Klassifikation von Unbestimmtheitssituationen und -theorien Kriterium Grund der Unbestimmtheit Verfügbare Eingangsinformationen Skalenniveau numerischer Eingangsinformation Informationsverarbeitung Erforderliche Ausgangsinformationen Dimension Unsicherheit (Risiko) Unsicherheit (Ungewissheit) linguistische Unschärfe informationale Unschärfe relationale Unschärfe Mischformen numerisch intervallwertig linguistisch symbolisch nominal ordinal kardinal algorithmisch wissensbasiert heuristisch numerisch intervallwertig linguistisch symbolisch (Quelle: in Anlehnung an Zimmermann (1997), S. 92) 27 Vgl. Zimmermann (2000), S. 194–196 28 Vgl. Zimmermann (2000), S. 197 und Zimmermann (1997), S. 92 Anforderungen des Technologiemanagements an die Modellierung 309 Unsicherheit und Unschärfe sind als nicht vermeidbarer Teil der Umwelt und Realität zu begreifen.29 Unbestimmtheit ist eine von der Situation abhängige Eigenschaft von Systemen oder Phänomenen, die vielfältige Gründe haben kann und zudem von den vorhandenen und erforderlichen Informationen beeinflusst wird. Der Informationsfluss vom zu beschreibenden System beziehungsweise Phänomen über die zur Beschreibung eingesetzte Theorie bis zum Betrachter sollte insbesondere in Bezug auf die Qualität und Quantität der Informationen ein konsistentes System ergeben.30 Zur Modellierung von Unbestimmtheit existieren verschiedene Theorien, zum Beispiel diverse Wahrscheinlichkeitstheorien31, die Möglichkeitstheorie32, die Evidenztheorie33, die Fuzzy Set Theorie34, die Grey Set Theorie35, die Intuitionistic Set Theorie36, die Rough Set Theorie37, das Degree of Surprise Concept38, die Intervallarithmetik39 oder das konvexe Modellieren40. Diese Theorien sind in ihren Eigenschaften nicht überschneidungsfrei oder sind teilweise in anderen Theorien enthalten. Sie unterscheiden sich hinsichtlich ihrer Annahmen über die Menge und die Qualität der zur Verfügung stehenden Eingangsinformationen und der Verarbeitungsweisen der Informationen. Die meisten der Theorien definieren ihr Anwendungsgebiet ausdrücklich oder indirekt durch axiomatische Systeme.41 Keine der existierenden Theorien kann für sich in Anspruch nehmen, alle Arten von Unbestimmtheit angemessen zu modellieren. Dementsprechend sollte die Auswahl einer Theorie zur Modellierung einer spezifischen Unbestimmtheitssituation kontextabhängig erfolgen.42 3 Unsicherheit und Unschärfe im Technologiemanagement Technologien stellen für viele Unternehmen Ressourcen von oberster Bedeutung zur Erzielung von Wettbewerbsvorteilen dar. Der technologische Wandel ist einer der wichtigsten Einflussfaktoren auf die Wettbewerbssituation eines Unternehmens, der die Integration von Strategien und Technologien erfordert.43 Mit neuen Technologien oder technologierelevan 29 Vgl. Zimmermann (1993), S. V–VI 30 Vgl. Zimmermann (2000), S. 197 31 Beispielsweise die Wahrscheinlichkeitstheorien nach Kolmogoroff, Koopman, Bayes oder Qualitative Wahrscheinlichkeiten. Vgl. Zimmermann (1999), S. 299 32 Dubois; Prade (1988) 33 Shafer (1976) 34 Zadeh (1965) 35 Deng (1989) 36 Atanassov (1986) 37 Pawlak (1985) 38 Shackle (1969) 39 Moore (1966) 40 Ben-Haim; Elishakoff (1990) 41 Vgl. Zimmermann (1999), S. 297–299 42 Vgl. Zimmermann (2000), S. 197 43 Vgl. Burgelman; Christensen; Wheelwright (2009), S. 2, 4, 7–8 310 Dieter Specht, Gunnar Berntsen ten Veränderungen der Unternehmensumwelt verbundene Chancen und Risiken für die Wettbewerbsposition eines Unternehmens müssen frühzeitig erkannt und technologische Kompetenzen und Technologiestrategien entsprechend angepasst werden44. Aufgabe des Technologiemanagements ist der systematische Aufbau einer Technologiebasis durch Anstoßung unternehmensinterner Forschungs- und Entwicklungsaktivitäten, die Integration bestehender Technologien sowie Entscheidungen über externe Bezugs- und Verwertungsmöglichkeiten von Technologien.45 Das Technologiemanagement nimmt in Unternehmen eine Querschnittsfunktion ein46 und muss die Kompetenzen verschiedener Funktionsbereiche des Unternehmens, beispielsweise von Forschung und Entwicklung, Produktion sowie Marketing und Vertrieb, aber auch über die Unternehmensgrenzen hinaus die technologische Kompetenz, beispielsweise von Lieferanten, bündeln und integrieren. 47 In diesem Zusammenhang gewinnt das Management von Technologien in Netzwerken, beispielsweise Entwicklungsnetzwerken, Produktionsnetzwerken oder Supply Chain Netzwerken immer mehr an Bedeutung.48 Aus dem zunehmenden Einsatz von Technologien in allen Unternehmensbereichen resultiert eine funktionsübergreifende und unternehmensweite Verteilung technologiebezogener Aktivitäten.49 Um der Bedeutung von Technologien im Unternehmen gerecht zu werden, muss das Technologiemanagement als integrierte und ganzheitliche Aufgabe der Unternehmensführung angesehen werden.50 Abbildung 2 zeigt die Wirkungsbereiche des Technologiemanagements. 44 Vgl. Koller (2002), S. 344–345 45 Vgl. Zahn (1995), S. 16 46 Vgl. Gerpott (2005), S. 65; Schröder (1996), S. 1996 47 Vgl. Zahn (1995), S. 20–21; Schröder (1996), S. 1996 48 Vgl. beispielsweise Schuh, Wellensiek, Nollau (2010), S. 189; Grauer (2010), S. 68; Göpfert, Grünert (2008), S. 211 49 Vgl. Klappert (2006), S. 18 50 Vgl. Bullinger (1996), S. 4-26; Tschirky (1998), S. 194, 226 Anforderungen des Technologiemanagements an die Modellierung Abbildung 2: 311 Technologiemanagement (Quelle: Bullinger (1996), S. 4-26) Der Prozess des Technologiemanagements lässt sich in die Phasen Technologiefrühaufklärung, Technologiestrategieentwicklung, Technologiestrategieumsetzung und Technologiecontrolling unterteilen. 51 Das strategische Management von Technologien ist auf die Erarbeitung von Entscheidungsgrundlagen zur Auswahl von Technologien oder strategischen Technologiefeldern ausgerichtet, die zur Erlangung und Erhaltung der angestrebten Wettbewerbsposition des Unternehmens den größten Zielerreichungsbeitrag leisten sowie die zur Nutzung und Beherrschung der ausgewählten Technologien zielführendsten strategischen Wege aufzeigen.52 Konkrete Entscheidungssituationen innerhalb des Technologiemanagements beinhalten beispielsweise Fragestellungen nach technologischen beziehungsweise technologierelevanten Entwicklungen der Unternehmensumwelt und der Bewertung der technologischen Stärken und Schwächen eines Unternehmens sowie der Bewertung der daraus resultierenden Chancen und Risiken für das Unternehmen, Fragestellungen der Entwicklung eines Technologieleitbildes und der Festlegung strategischer Technologiefelder und technologischer Kernkompetenzen, Fragestellungen zum Aufbau und zur Pflege von Potentialen zur Umsetzung der Technologiestrategien und zur Koordination und Ausrichtung von Handlungen und Entscheidungen entsprechend der technologischen Unternehmensziele.53 51 Vgl. Mieke (2006), S. 10–11 52 Vgl. Tschirky (1998), S. 293–294 53 Vgl. Wolfrum (1994), S. 80–84, Gerpott (2005), S. 59–60 und Bullinger (1996), S. 4-32 – 4-33 312 Dieter Specht, Gunnar Berntsen Eingebunden in die strategische Unternehmensplanung sind die Fragestellungen im Technologiemanagement zunächst wenig strukturiert sowie in einer komplexen Unternehmensumwelt zu beantworten. Das Eintreten bestimmter zukünftiger Ereignisse ist aufgrund der Langfristigkeit des Planungszeitraums mit großer Unsicherheit behaftet. Planungsrelevante Informationen liegen häufig nur in qualitativer Form vor und Zusammenhänge zwischen verschiedenen Einflussfaktoren sowie mögliche Folgen sind unbekannt, unvollständig oder nur unscharf beschreibbar. Viele Bewertungen und Einschätzungen von Situationen und Ergebnissen sind subjektiv.54 Die Vorhersagen bestimmter Entwicklungen erfolgen dann, statt durch genaue Zahlenangaben, mit Hilfe verbaler Formulierungen wie beispielsweise „hoch“, „mittel“ oder „niedrig“.55 Die inhaltserhaltene Verarbeitung dieser unscharfen Informationen gestaltet sich mit den zur Verfügung stehenden scharfen Instrumenten und Methoden schwierig beziehungsweise erfolgt zum Teil auf fragwürdige Weise. Durch die Vielzahl der zu spezifizierenden Variablen und Beziehungen innerhalb der Fragestellungen des Technologiemanagements, ist deren Abbildung mit Hilfe von mathematischen Modellen häufig nur für sehr einfache Probleme möglich.56 Im Unterschied zu den wohlstrukturierten betrieblichen Planungssystemen ist hinsichtlich der Güte der Realitätsabbildung und hinsichtlich der Quantifizierbarkeit und Verlässlichkeit der Planungsergebnisse im Technologiemanagement ein anderes Planungsverständnis und eine hohe Flexibilität des Planungssystems gegenüber sich häufig ändernden Realitätsabbildungen erforderlich.57 Entsprechend des dargestellten Klassifikationsschemas sind die Dimensionen Unsicherheit und Unschärfe des Kriteriums „Grund der Unbestimmtheit“ charakteristisch für die Fragestellungen des Technologiemanagements. Ursächlich sind zum einen der Mangel an Informationen über das tatsächliche Eintreten zukünftiger Ereignisse, wie beispielsweise die Entdeckung neuartiger Technologien oder die Herausbildung neuartiger Kundenanforderungen. Zum anderen sind die komplexen Wirkungsbeziehungen technologischer und technologierelevanter Einflussfaktoren sowie deren inhaltliche Bestimmung selbst begründend für den Mangel an begrifflicher Schärfe im Technologiemanagement, da diese häufig unbekannt sind oder nur unvollständig oder unscharf beschrieben werden können. Dies trifft in der Regel beispielsweise auf Aussagen über das Entwicklungspotential, die Höhe der zu erwartenden Entwicklungskosten oder den Verfügbarkeitszeitpunkt bestimmter Technologien zu. Resultierend aus der Schwierigkeit, nicht alle notwendigen Einflussfaktoren und Wirkungsbeziehungen für die Entscheidungsfindung im Technologiemanagement hinreichend erfassen zu können, müssen die Entscheidungen regelmäßig auf der Basis unvollständiger objektiver Informationen getroffen werden. Unter diesen Bedingungen werden zur Entscheidungsfindung im Technologiemanagement häufig subjektive Informationen in Form von Expertenmeinungen herangezogen. Trotz des Fachwissens basieren die Aussagen von Experten zu einem großen Teil auf Annahmen, die aus Erfahrungen und den zur Verfügung stehenden unvollkommenen objektiven Informationen abgeleitet werden. Die Subjektivität dieser Informationen kann als ein weiterer Grund für Unsicherheit und 54 Vgl. Werners (1993), S. 77 55 Vgl. Spengler (1999), S. 128 56 Vgl. Rommelfanger (1997), S. 175 57 Vgl. Koller (2002), S. 350 Anforderungen des Technologiemanagements an die Modellierung 313 Unschärfe im Technologiemanagement gesehen werden. 58 Als Folge der zunehmenden Komplexität der Problemstellungen des Technologiemanagements sind auch widersprüchliche Informationsmengen hinsichtlich des wahren Verhaltens eines Systems als Auslöser von Unsicherheit und Unschärfe denkbar, deren Ursachen beispielsweise falsche, als solche aber nicht erkannte Informationen, oder Informationen, die auf nicht relevanten Eigenschaften des Betrachtungsobjektes basieren, oder die Verwendung eines ungeeigneten Beschreibungsmodells für die gegebene Situation sein können.59 Als weiteres Kriterium des Klassifikationsschemas zur Beurteilung der Eignung einer Unsicherheitstheorie für die Modellierung einer bestimmten Entscheidungssituation ist die Art der vorliegenden Informationen zu untersuchen. Im Technologiemanagement müssen Fragestellungen in einer komplexen und dynamischen Unternehmensumwelt beantwortet werden. Planungsrelevante Informationen liegen häufig nur in qualitativer Form vor und zahlreiche Bewertungen und Einschätzungen von Situationen und Ergebnissen sind subjektiv und können nur unscharf verbal formuliert werden. Als Mittel der menschlichen Kommunikation sind linguistische, unscharfe Informationen als gegebene und notwendige Informationsart innerhalb der Entscheidungssituationen des Technologiemanagements zu akzeptieren und müssen systematische Berücksichtigung in den Entscheidungsprozessen finden. Neben linguistischen Informationen sind auch numerische Informationen charakteristisch für Entscheidungssituationen im Technologiemanagement. Beispielsweise könnten Zahlen über Patente oder Publikationen auf einem bestimmten technologischen Gebiet, quantitative Beschreibungen über die Eigenschaften einer Technologie oder Prognosen über deren Marktpotential vorliegen. Auch intervallwertige Informationen sind in diesem Zusammenhang denkbar, da einem bestimmten Parameter einer Technologie möglicherweise kein genauer Zahlenwert zugeordnet und nur ein Intervall, in dem die Werte des Parameters schwanken, angegeben werden kann. Werden zur Darstellung von Informationen Symbole, wie Zahlen, Buchstaben, Bilder oder Worte verwendet, ist die Aussagefähigkeit der Informationen von der semantischen Definition der Symbole abhängig.60 Innerhalb der Fragestellungen des Technologiemanagements werden symbolische Informationen vorwiegend in Form von Zahlen und Wörtern der natürlichen Sprache vorliegen, deren Inhalt und Bedeutung durch die numerische beziehungsweise die linguistische Dimension als bereits berücksichtigt angenommen werden soll. Die numerischen Eingangsinformationen können auf verschiedenen Skalenniveaus vorliegen. Aus der Art der untersuchten Eigenschaft eines Objektes ergibt sich, wie gut ihre Ausprägung gemessen werden kann. Durch das Skalenniveau werden die Qualität der Informationen und die Informationsverarbeitungsmöglichkeiten bestimmt. 61 Für die Unbestimmtheitssituation im Technologiemanagement können numerische Eingangsinformationen auf allen Skalenniveaus angenommen werden. In Abhängigkeit von den Rahmenbedingungen, unter denen das Technologiemanagement durchgeführt wird, wie beispielsweise der untersuchten Technologiefelder oder der Branche eines Unternehmens, werden sich die Informationsgehalte der Daten und damit die Bedeutung der Skalenniveaus der Informatio 58 Vgl. Zimmermann (1999), S. 293 59 Vgl. Zimmermann (1999), S. 292 60 Vgl. Zimmermann (1999), S. 294–295 61 Vgl. Backhaus et al. (2011), S. 10–11 314 Dieter Specht, Gunnar Berntsen nen für bestimmte Fragestellungen im Einzelfall unterscheiden. Handelt es sich beispielsweise um Ideen für neuartige Technologien oder noch größtenteils unerforschte Technologien, die in die Betrachtungen einbezogen werden sollen, werden Informationen über die konkreten Ausprägungen der Eigenschaften der Technologie nur auf einem niedrigeren Skalenniveau zu erheben sein, als bei der Betrachtung und Bewertung von Schlüssel- oder Basistechnologien. Werden erfolgreich eingesetzte Technologien einer Branche für Anwendungsfelder in einer anderen Branche untersucht, können auch in diesem Fall Informationen nur auf einem niedrigen Skalenniveau messbar sein, wenn für das neue Anwendungsfeld belastbare und konkrete Informationen fehlen. Die Anforderungen an die Verarbeitung von Informationen leiten sich aus der Art der vorliegenden Eingangsinformationen ab. Grundsätzlich ist es möglich, Informationen von einem höheren Skalenniveau auf ein niedrigeres Skalenniveau zu transformieren, beispielsweise um durch die Bildung von Merkmalsausprägungsklassen die Übersichtlichkeit von Informationen zu erhöhen oder die Analyse von Informationen zu vereinfachen. In der Regel ist mit derartigen Transformationen aber ein Informationsverlust verbunden.62 Obwohl eine umgekehrte Vorgehensweise nicht möglich ist, werden häufig Theorien mit mathematischen Operatoren verwendet, die dem Skalenniveau der zu verarbeitenden numerischen Informationen nicht entsprechen.63 Als relevante Eingangsinformationen innerhalb der Fragestellungen des Technologiemanagements wurden numerische Informationen auf Nominal-, Ordinal-, Intervall- oder Verhältnisskalenniveau sowie intervallwertige und linguistische Informationen identifiziert. Daraus ergibt sich für den Einsatz von Unbestimmtheitstheorien innerhalb der Unbestimmtheitssituationen des Technologiemanagements einerseits die Notwendigkeit über entsprechende mathematische Operatoren zur Verarbeitung numerischer Informationen zu verfügen. Zudem sind Konzepte erforderlich, die Aussagen von Experten in Form von linguistischen Informationen verarbeiten können. In Abhängigkeit vom intendierten Nutzungszwecks der Informationen, beispielsweise als Eingangsgrößen für mechanische oder elektronische Systeme, für mathematische Algorithmen, zur Mustererkennung oder zur Beschreibung und Vorhersage des Verhaltens eines Systems, müssen die Ausgangsinformationen des Informationsverarbeitungsprozesses in einer geeigneten Sprache und auf einem angemessenen Skalenniveau zur Verfügung gestellt werden.64 Adäquate Ausgangsinformationen für die Weiterverarbeitung und die Nutzung als Entscheidungsgrundlage für die Fragestellungen des Technologiemanagements stellen vor allem numerische und linguistische Informationen dar. Nutzer der aus dem Technologiemanagementprozess hervorgehenden Informationen ist in der Regel zunächst die strategische Managementebene, welche anhand von Kennzahlen oder verbalen Beschreibungen über technologische und technologierelevante Entwicklungen der Unternehmensumwelt Entscheidungen über die strategische Ausrichtung eines Unternehmens trifft. Um der Bedeutung der Entscheidungen dieser Managementebene für den Unternehmenserfolg gerecht zu werden, müssen trotz der herrschenden Unbestimmtheit möglichst fundierte Entscheidungen auf der Basis von qualitativ hochwertigen Informationen getroffen werden. Da sich der Aussagegehalt und die mathematischen Verarbeitungsmöglichkeiten von In62 Vgl. Backhaus et al. (2011), S. 11–12 63 Vgl. Zimmermann (1999), S. 296 64 Vgl. Zimmermann (2000), S. 196 Anforderungen des Technologiemanagements an die Modellierung 315 formationen mit steigendem Skalenniveau vergrößern65, sind für die Entscheidungen im Technologiemanagement insbesondere Ausgangsinformationen auf Verhältnisskalenniveau von Bedeutung, in Abhängigkeit der Fragestellung sind aber auch Informationen auf allen anderen Skalenniveaus relevant. 4 Bedeutung und Vorteil der Modellierung unscharfer Modelle für das Technologiemanagement Aus dem vielfältigen und komplexen Zusammenwirken wissenschaftlicher, technischer und ökonomischer Entwicklungen ergibt sich eine wachsende Bedeutung der Unsicherheitsund Unschärfemodellierung. Diese Modellierungsansätze ermöglichen die Verbesserung bestehender Anwendungen und die Erschließung neuer Anwendungen, welche ihrerseits wiederum zur technologischen und ökonomischen Weiterentwicklung beitragen. Die Entwicklungen, beispielsweise in den Bereichen der Informationsverarbeitung, der Automatisierung, der Globalisierung oder der Ökologie, erfordern zunehmend die Bewältigung hochkomplexer Problemstellungen, deren präzise Modellierung und sichere Voraussage in den meisten Fällen unmöglich ist und Vereinfachungen beziehungsweise andere Herangehensweisen notwendig machen.66 Unbestimmtheit wurde in der Wissenschaft lange Zeit vernachlässigt. Wissenschaftliche Erkenntnisse mussten bis in die Anfänge des 19. Jahrhunderts messbar und in Zahlen ausdrückbar sein, um als solche anerkannt zu werden. Mit dem Aufkommen und der Akzeptanz der Statistischen Mechanik als berechtigtes wissenschaftliches Fachgebiet erlangte auch Unbestimmtheit zunehmend Beachtung und wurde in einigen wissenschaftlichen Fragestellungen als nützlich anerkannt.67 Bis heute ist die wahrscheinlichkeitstheoretische Auffassung und Präsentation von Unbestimmtheit unter Wissenschaftlern, Technikern und Philosophen vorherrschend.68 Seit der Mitte des 19. Jahrhunderts wurde erkannt, dass mit Hilfe von Wahrscheinlichkeitstheorie und Statistik nicht alle Aspekte von Unbestimmtheit angemessen modelliert werden können und es wurde begonnen, die verschiedenen nichtwahrscheinlichkeitstheoretischen Erscheinungsformen von Unbestimmtheit und deren Nutzen in der Wissenschaft, im Ingenieurwesen und in anderen Gebieten zu erforschen.69 Trotz gleichzeitigen Aufkommens der Computertechnologie in dieser Zeit und den sich daraus eröffnenden neuen methodischen Möglichkeiten im Umgang mit bisher unlösbaren komplexen Problemstellungen, sahen einige Forscher die Notwendigkeit radikal neuer Methoden, die auf grundlegend neuen Konzepten und mathematischen Theorien basieren.70 Hauptsächlich auf komplexe technologische Anwendungen ausgerichtet, entstanden insbe 65 Vgl. Backhaus et al. (2011), S. 11 66 Vgl. Biewer (1997), S. 25, 28 67 Vgl. Klir (1997), S. 27 68 Vgl. Ben-Haim (1997), S. 25. Die Anfänge der mathematischen Wahrscheinlichkeitstheorie finden sich im Jahr 1654, ihre endgültige Ausprägung fand sie im Jahr 1933 durch A. N. Kolmogorov. Vgl. Mammitzsch (1999), S. 241 69 Vgl. Klir (1997), S. 27 70 Vgl. Klir (1997), S. 28 316 Dieter Specht, Gunnar Berntsen sondere in den letzten Jahrzehnten Methoden zur Quantifizierung von Unbestimmtheit, die nicht auf der Wahrscheinlichkeitstheorie begründet sind.71 Viele der in der Vergangenheit eingesetzten Techniken zur Analyse ökonomischer und sozialer Systeme sind Adaptierungen von Methoden zur Auseinandersetzung mit Systemen, welche im Wesentlichen durch die Gesetze der Mechanik, des Elektromagnetismus und der Thermodynamik beherrscht werden. Deren bemerkenswerter Erfolg führte zu dem Glauben, dass die gleichen oder ähnliche Techniken mit vergleichbarer Effektivität zur Analyse soziotechnischer Systeme eingesetzt werden könnten. Gleichzeitig steigerte die zunehmende Effektivität der Computersimulationstechniken zur Analyse physikalischer Systeme die Beliebtheit des Einsatzes computerbasierter ökonometrischer Modelle für Voraussagen, volkswirtschaftliche Planungen und Managementzwecke. Ein wesentliches Merkmal soziotechnischer Systeme ist aber gerade das schwer vorhersagbare Verhalten der Systembestandteile und des Systems. Damit verbunden ist die Problematik das Verhaltens soziotechnischer Systeme überhaupt quantitativ, analog zu den mechanistischen Systemen, in Form von Differential- und Integralgleichungen beschreiben zu können.72 Zadeh beschreibt den Zusammenhang zwischen hoher Präzision und hoher Komplexität in einem Inkompatibilitätsprinzip, nach dem die Fähigkeit, präzise und bedeutsame Aussagen über das Verhalten eines Systems zu machen, sich umso mehr verringert, je mehr die Komplexität des Systems wächst, bis sich schließlich Präzision und Bedeutsamkeit ab einem bestimmten Punkt gegenseitig nahezu völlig ausschließen. Die Lösung eines Problems wird umso unschärfer, je genauer ein Problem der realen Welt betrachtet wird.73 Die konventionellen präzisen Methoden der Systemanalyse und der Computersimulation erweisen sich als außerstande, die große Komplexität menschlicher Denk- und Entscheidungsprozesse zu bewältigen und bedeutsame Aussagen über das Verhalten soziotechnischer Systeme zu machen.74 Ein analoger Zusammenhang kann im Sinne einer Kompensationsbeziehung auch zwischen Unsicherheit und Unschärfe festgestellt werden. Unschärfe erzwingt nicht das Setzen von Grenzen, für deren präzise Bestimmung und Begründung das notwendige Wissen fehlt. Je unschärfer ein Problem definiert ist, umso wahrscheinlicher gelingt im Allgemeinen dessen robuste Modellierung.75 Einerseits ist Unschärfe ein Grundphänomen jedes Systems sprachlicher Repräsentation.76 Die Produktion einer verbalen Äußerung ist ein komplexer Prozess, bei dem durch den Rückgriff auf aktuelles und gespeichertes Wissen die Äußerung inhaltlich festgelegt und anschließend der Inhalt in eine sprachliche Struktur umgewandelt wird.77 Allerdings erfordert die genaue inhaltliche Beschreibung eines Begriffes das Bewusstsein für alle grundsätzlich möglichen sprachlichen Bedeutungsstrukturen dieses Be71 Vgl. Ben-Haim (1997), S. 11 72 Vgl. Zadeh (1973), S. 28 73 Vgl. Zadeh (1973), S. 28 74 Vgl. Zadeh (1975), S. 201 75 Vgl. Biewer (1997), S. 28–29 76 Vgl. Russell (1923), S. 89 77 Vgl. Busemann (1993), S. 8, 11 Anforderungen des Technologiemanagements an die Modellierung 317 griffes. Die Unkenntnis über die Vielzahl dieser Bedeutungsstrukturen führt zur Bildung unscharfer Informationen.78 Andererseits ist die natürliche Sprache der Ausgangspunkt für die Entwicklung und Formalisierung abstrakter Konzepte und Ideen. Deren Aussagen wären bedeutungslos, wenn diese sich nicht mindestens auf theoretische Weise in natürlicher Sprache darstellen ließen. Allerdings können starre und komplexe mathematische Ausdrücke diese Konzepte nur eingeschränkter beschreiben, als es die natürliche Sprache kann und die ihr inhärente Unschärfe nicht angemessen erfassen. 79 Unschärfe kann erkenntnisfördernd wirken und der adäquate Ausdruck unvollkommenen Wissens sein.80 Erst durch die Akzeptanz von Methoden mit annäherndem Charakter wird eine aussagekräftige Analyse der für die Anwendung konventioneller quantitativer Methoden zu komplexen oder zu ungenau bestimmten Systeme möglich.81 Vester veranschaulicht in einem Beispiel zur Mustererkennung beeindruckend das Potential von Unschärfe. Ein zunächst unscharf erscheinendes Bild aus unterschiedlich hellen Quadraten zeigt einen menschlichen Kopf. Allerdings lässt sich auch mit Hilfe einer akribisch betriebenen Analyse der Details, wie die Anzahl und die Größe der Quadrate sowie die Abstufungen der Grauwerte, nicht erkennen, wessen Gesichtszüge sich hinter der Unschärfe des Bildes verbergen. Die Analyse des Systems erfolgt in diesem Fall mit der falschen wissenschaftlichen Methode. Es genügt nicht, nur die Details des Systems zu erfassen. Werden die Trennlinien der Quadrate durch die Betrachtung des Bildes aus einer größeren Entfernung unscharf, treten die Beziehungen zwischen den Details in den Vordergrund und die Funktionen der einzelnen Komponenten des Systems, wie Augen oder Mund, werden erkennbar. Fehlende Teile der wahrgenommenen Wirklichkeit werden vom Gehirn ergänzt. Durch die Konzentration auf die Systemzusammenhänge ist zur Beschreibung des Systems nur noch ein Bruchteil der Informationen erforderlich. Aus waagerechten und senkrechten Linien sowie Graustufenwertsprüngen werden Kurven und Flächenverhältnisse, welche die Gesichtszüge von Abraham Lincoln wiedergeben.82 Abbildung 3 zeigt dieses Bild. 78 Vgl. Zimmermann (1992), S. 343–344 79 Vgl. Goodman; Nguyen (1985), S. 5, 13 80 Vgl. Biewer (1997), S. 17 81 Vgl. Zadeh (1975), S. 201 82 Vgl. Vester (2005), S. 54–55 318 Abbildung 3: Dieter Specht, Gunnar Berntsen Abraham Lincoln (Quelle: Vester (2005), S. 54) Das Beispiel zeigt, dass durch die Erfassung unscharfer Informationen und die Konzentration auf wenige Systemparameter komplexe Systeme abgebildet werden können. In der Realität erweisen sich die meisten Beziehungen zwischen zwei Variablen als nicht-linear und nicht mathematisierbar. Nur durch die Berücksichtigung qualitativer, nicht messbarer Größen bei der Modellierung realer Systeme kann die tatsächliche Abbildung der Wirklichkeit gelingen.83 Die genaue Voraussage der Entwicklung komplexer Systeme erweist sich als Wunschdenken. Innerhalb eines begrenzten Zeithorizontes, beispielsweise in Wachstumsphasen, sind auch in komplexen Systemen Prognosen möglich. Diese täuschen dem Unkundigen aber eine deterministische Entwicklung vor. Die Berücksichtigung von Unschärfe garantiert im Gegensatz zu präzisen Modellen, welche auch bei falschen Annahmen noch präzise erscheinen, dass gegebenenfalls weniger exakte, dafür aber niemals falsche Konzepte der Realität abgebildet werden.84 Der Komplexität technologischer Entscheidungen und der Unsicherheit über zukünftige technologische Entwicklungen begegnen Experten und Entscheidungsträger in der Regel durch Unschärfe in den Formulierungen über mögliche zukünftige Zustände innerhalb der Fragestellungen des Technologiemanagements. Die Formulierungen basieren häufig nur auf verbal und qualitativ beschreibbaren menschlichen Wahrnehmungen und Einschätzungen. Andererseits können auch quantitative Informationen aus technischen Prozessen oder ökonomischen Untersuchungen existieren, die sich nur durch Intervalle und nicht durch reelle Zahlen ausdrücken lassen. Diese Sachverhalte sind mit dem weit verbreiteten Bestreben der Formulierung von deterministischen Modellen schwierig zu vereinbaren und ma83 Vgl. Vester (2005), S. 181, 257 84 Vgl. Vester (2005), S. 256–257 Anforderungen des Technologiemanagements an die Modellierung 319 chen eine angemessene Transformation dieser Informationen in vermeintlich exakte Daten erforderlich. Müssen Entscheidungen unter Berücksichtigung unsicherer zukünftiger Entwicklungen getroffenen werden, stellen die Prognose und die Quantifizierung von relevanten Daten für die Entscheidungsfindung weitere Herausforderungen dar. Die klassische Entscheidungstheorie greift in diesen Fällen auf mittlere Werte für Verteilungen beziehungsweise für unscharfe Größen zurück. Dieser Ansatz erweist sich insbesondere bei einer vorsätzlichen Modellierung der Verteilungen im Hinblick auf die Erzeugung eines operablen Modells als fragwürdig und führt zu scheinbar optimalen Lösungen, welche für die realen Probleme keine adäquaten Lösungen darstellen.85 Anhand des Klassifikationsschemas konnten die Anforderungen zur Modellierung der Unbestimmtheit innerhalb der Fragestellungen des Technologiemanagements aufgezeigt werden. Für den Erfolg der Modellierung entscheidend ist die Wahl einer entsprechend der Problemstellungen und der Zielsetzungen adäquaten Präzision und Sprache.86 Der Wissensstand erlaubt oftmals keine präzisen Aussagen. Werden in diesen Fällen dennoch präzise Aussagen formuliert, entsteht der Eindruck exakt bekannter Wirkungszusammenhänge. Der tatsächliche Wissensstand wird aber ungenauer widergespiegelt als durch unscharfe Aussagen. Andererseits kann unscharfes Wissen den Anforderungen einer konkreten Problemstellung vollkommen genügen beziehungsweise die Nutzung unscharfen Wissens durch Vereinfachung von Zusammenhängen und Komplexitätsreduktion eine Problemlösung erst möglich machen.87 Mit dem Schlüsselkonzept der Linguistischen Variable verfügt die Fuzzy Set Theorie über eine effektive Methode zur Ausnutzung der Toleranz von Unschärfe und Unsicherheit bei den Fragestellungen des Technologiemanagements zur Erzielung lenkbarer, robuster und wirtschaftlicher Problemlösungsmodelle. 88 Die Fuzzy Set Theorie bietet geeignete Instrumente zur Modellierung und Handhabung von Wissen, welches nicht nur auf bewiesenen Theorien, sondern zu einem Großteil auf verbal formulierten Erfahrungen basiert.89 Mit der Fuzzy Set Theorie gelingt die Verbindung der Darstellung von Informationen auf sprachlicher Ebene in Form von linguistischen Werten und Wenn-Dann-Regeln einerseits und der numerischen Darstellung von Informationen in Form von Zahlen, Messwerten und Kennfeldern andererseits. Durch die sprachliche Darstellung können Informationen aus unscharfen Bewertungen und Expertenwissen in einer dem menschlichen Informationsverarbeitungsprozess adäquaten Weise inhaltserhaltend verarbeitet werden und in verständlicher und leicht modifizierbarer Form abgebildet werden.90 Die Integration der Fuzzy Set Theorie in das Technologiemanagement kann zur Verbesserung der Entscheidungsgrundlagen für technologische Fragestellungen in Unternehmen beitragen. Mit Hilfe der Konzepte der Fuzzy Set Theorie können die Qualität und die Quantität der im Technologiemanagementprozess verarbeiteten Informationen erhöht werden. 85 Vgl. Rommelfanger; Eickemeier (2002), S. 13–14 86 Vgl. Schaff (1974), S. 242 87 Vgl. Biewer (1997), S. 16–18 88 Vgl. Zadeh (1995), S. 809 89 Vgl. Rommelfanger (1997), S. 176 90 Vgl. Pfeiffer et al. (2002), S. 520 320 Dieter Specht, Gunnar Berntsen Die verfügbaren Informationen können mit der von Experten und Entscheidungsträgern gesehenen Genauigkeit in die Entscheidungsprozesse Eingang finden. Eine Modifikation der verfügbaren Informationen, um diese in scharfen Modellen verarbeiten zu können, ist nicht erforderlich. Dadurch kann die Reduzierung oder Verfälschung der Aussagekraft der Informationen vermieden werden. Gegebenenfalls gelingt mit Hilfe der Fuzzy Set Theorie erst die Verarbeitung und Nutzung von verfügbaren Informationen, die zuvor bei der Entscheidungsfindung nicht berücksichtigt werden konnten. Literatur Adam, D.; Rollberg, R. (1995): Komplexitätskosten. In: Die Betriebswirtschaft (DBW), 55. Jg., 1995, H. 5, S. 667–670. Atanassov, K. T. (1986): Intuitionistic fuzzy sets. In: Fuzzy sets and systems. 1986, Volume 20, Issue 1, pp. 87 – 96. Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (2011): Multivariate Analysemethoden: Eine anwendungsorientierte Einführung. 13. Auflage, Berlin und Heidelberg 2011. Bamberg, G.; Coenenberg, A. G.; Krapp, M. (2008): Betriebswirtschaftliche Entscheidungslehre. 14. Auflage, München 2008. Bellman, R.; Zadeh, L. A. (1970): Decision-making in a fuzzy environment. In: Management Science. 1970, Volume 17, Number 4, pp.141–164. Ben-Haim, Y.; Elishakoff, I. (1990): Convex Models of Uncertainty in Applied Mechanics. Amsterdam 1990. Ben-Haim, Y. (1997): Beyond Maximum Entropy: Exploring the Structure of Uncertainty. In: Natke, H. G.; Ben-Haim, Y. (ed.): Uncertainty: Models and Measures. Berlin 1997, S. 11–26. Biewer, B. (1997): Fuzzy-Methoden: Praxisrelevante Rechenmodelle und Fuzzy-Programmiersprachen. Berlin u.a. 1997. Bliss, C. (2000): Management von Komplexität: Ein integrativer, systemtheoretischer Ansatz zur Komplexitätsreduktion. Wiesbaden. Bullinger, H.-J. (1996): Technologiemanagement. In: Eversheim, W.; Schuh, G.: Produktion und Management: Betriebshütte Teil 1. Berlin u.a. 1996, S. 4-26 – 4-54. Burgelman, R. A.; Christensen, C. M.; Wheelwright, S. C. (2009): Strategic Management of Technology and Innovation. 5. Auflage, Boston u. a. 2009. Busemann, S. (1993): Generierung natürlicher Sprache. In: Görz, G. (Hrsg.) Einführung in die Künstliche Intelligenz. München u.a. 1993, S. 783–814. Dehnen, K. (2004): Strategisches Komplexitätsmanagement in der Produktentwicklung. Diss. Münster, Hamburg. Deng, J. L. (1989). Introduction to Grey System Theory. In: Journal of Grey System. 1989, Issue 1, pp. 1– 24. Dubois, D.; Prade, H. (1988): Possibility Theory: An Approach to Computerized Processing of Uncertainty. New York u.a. 1988. Gerpott, T. J. (2002): Information. In: Specht, D.; Möhrle, M. G. (2002): Gabler Lexikon Technologiemanagement: Management von Innovationen und neuen Technologien im Unternehmen. Wiesbaden 2002. Gerpott, T. J. (2005): Strategisches Technologie- und Innovationsmanagement. 2. Auflage, Stuttgart 2005. Anforderungen des Technologiemanagements an die Modellierung 321 Goodman, I. R.; Nguyen, H. T. (1985): Uncertainty Models for Knowledge-Based Systems: A unified Approach tot he Measurement of Uncertainty. Amsterdam u. a. 1985. Grauer, M. (2010): Methodik zur Gestaltung globaler Produktionsverbünde. In: ZWF: Zeitschrift für wirtschaftlichen Fabrikbetrieb. 2010, Heft 1–2, S. 68–72. Göpfert, I.; Grünert, M. (2008): Collaborative Controlling in der Automobilindustrie. In: Controlling: Zeitschrift für erfolgsorientierte Unternehmensführung. 2008, Heft 4/5, S. 211–218. Horvath, P. (2009): Controlling. 11. Auflage, München 2009. Klappert, S. (2006): Systembildendes Technologie-Controlling. Diss. Aachen 2006. Klein, R.; Scholl, A. (2011): Planung und Entscheidung: Konzepte, Modelle und Methoden einer modernen betriebswirtschaftlichen Entscheidungsanalyse. 2. Auflage, München 2011. Klir, G. J. (1997): Uncertainty Theories, Measures, and Principles: An Overview of Personal Views and Contributions. In: Natke, H. G.; Ben-Haim, Y. (ed.): Uncertainty: Models and Measures. Berlin 1997, S. 27–43. Koller, H. (2002): Technologiefrühaufklärung. In: Specht, D.; Möhrle, M. (Hrsg.): Gabler-Lexikon Technologie-Management: Management von Innovationen und neuen Technologien im Unternehmen. Wiesbaden 2002, S. 344–351. Mammitzsch, V. (1999): Fuzzy Theorie als Alternative zur Stochastik – Was heißt hier: Eine Alternative?. In: Seising, R. (Hrsg.): Fuzzy Theorie und Stochastik: Modelle und Anwendungen in der Diskussion. Braunschweig/Wiesbaden 1999, S. 239–243. Mieke, C.: Technologiefrühaufklärung in Netzwerken. Deutscher Universitäts-Verlag, Wiesbaden 2006. Mißler-Behr, M. (2001): Fuzzybasierte Controllinginstrumente: Entwicklung von unscharfen Ansätzen. Wiesbaden 2001. Moore, R. E. (1966): Interval Analysis. Englewood Cliff 1966. Pawlak, Z. (1982): Rough sets. In: International Journal of Information and Computer Sciences. 1982, Vol. 11, No. 5, pp. 341–356. Pfeiffer, B. – M.; Jäkel, J.; Kroll, A.; Kuhn, C.; Kuntze, H. – B.; Lehmann, U.; Slawinski, T.; Tews, V. (2002): Erfolgreiche Anwendungen von Fuzzy Logik und Fuzzy Control (Teil 2). In: at – Automatisierungstechnik. 2002, Band 50, Heft 11, S. 511–521. Rommelfanger, H. (1988): Entscheiden bei Unschärfe: Fuzzy Decision Support-Systeme. Berlin u.a. 1988. Rommelfanger, H. (1997): Regelbasierte Entscheidungsunterstützung mit Fuzzy-Logik. In: Biethahn, J.; Hönerloh A.; Kuhl, J.; Nissen, V. (Hrsg): Fuzzy Set-Theorie in betriebswirtschaftlichen Anwendungen. München 1997, S. 175–190. Rommelfanger, H.; Eickemeier, S. H. (2002): Entscheidungstheorie: Klassische Konzepte und FuzzyErweiterungen. Berlin u.a. 2002. Russel, B. (1923): Vagueness. In: Australian Journal of Psychology an Philosophy. 1923, Volume 1, Issue 2, pp. 84–92. Schaff, A. (1974): Unscharfe Ausdrücke und die Grenzen ihrer Präzisierung. In: Schaff, A. (Hrsg.): Sprache und Erkenntnis und Essays über die Philosophie der Sprache. Reinbek (bei Hamburg) 1974, S. 220–243. Schneeweiß, Ch. (1991): Planung 1: Systemanalytische und entscheidungstheoretische Grundlagen. Berlin u.a. 1991. Schröder, H.-H. (1996): Technologiemanagements. In: Kern, W.; Schröder, H.-H.; Weber, J. (Hrsg.): Handwörterbuch der Produktionswirtschaft. 2. Auflage, Stuttgart 1995, S. 1994–2011. Schuh, G.; Wellensiek, M.; Nollau, S. (2010): Erfolgreiche Technologieentwicklung im Unternehmensnetzwerk: Herausforderungen in der Auftragsentwicklung von Technologien durch virtuelle Technolo- 322 Dieter Specht, Gunnar Berntsen gieentwicklung bewältigen. In: ZWF: Zeitschrift für wirtschaftlichen Fabrikbetrieb. 2010, Heft 3, S. 189193. Shackle, G. L. S. (1969): Decision, Order and Time in Human Affairs. 2nd Edition, Cambridge 1969. Shafer, G. A. (1976): Mathematical Theory of Evidence. Princeton 1976. Spengler, T. (1999): Grundlagen und Ansätze der strategischen Personalplanung mit vagen Informationen. Habil. Frankfurt (Main), München u.a. 1999. Tschirky, H. (1998): Konzept und Aufgaben des Integrierten Technologie-Managements. In: Tschirky, H.; Koruna, S. (Hrsg.): Technologie-Management: Idee und Praxis. Zürich 1998, S. 193–394. Vester, F. (2005): Die Kunst vernetzt zu denken: Ideen und Werkzeuge für einen neuen Umgang mit Komplexität. München. Werners, B. (1993): Unterstützung der strategischen Technologieplanung durch wissensbasierte Systeme. Aachen 1993. Wittmann, W. (1959): Unternehmung und unvollkommene Information: Unternehmerische Voraussicht – Ungewißheit und Planung. Köln u.a. 1959. Wolfrum, B. (1994): Strategisches Technologiemanagement. Gabler Verlag, 2. Auflage, Wiesbaden 1994. Zadeh, L. A. (1965): Fuzzy Sets. In: Information and Control. 1965, Volume 8, Issue 3, pp. 338–353. Zadeh, L. A. (1973): Outline of a new approach to the analysis of complex systems and decision processes. In: IEEE Transactions on Systems, Man and Cybernetics. 1973, Volume SMC-3, Issue 1, pp. 28–44. Zadeh, L. A. (1975): The Concept of a Linguistic Variable and its Application to Approximate Reasoning-I. In: Information Sciences. 1975, Volume 8, Issue 3, pp. 199–249. Zadeh, L. A. (1995): Discussion: Probability Theory and Fuzzy Logic Are Complementary Rather Than Competitive. In: Klir, G. J.; Yuan, B. (eds.): Fuzzy Sets, Fuzzy Logic and Fuzzy Systems: Selected Papers by Lotfi A. Zadeh. New York 1995, pp. 805–810. Zahn, E. (1995): Gegenstand und Zweck des Technologiemanagements. In: Zahn, E. (Hrsg.): Handbuch Technologiemanagement. Stuttgart 1995, S. 3–32. Zimmermann, H.-J. (1992): Die Formulierung und Lösung schlecht-strukturierter Entscheidungsprobleme. In: Gál, T.; Burkard, R. E.; Beckmann, M. J. (Hrsg.): Grundlagen des Operations Research: Spieltheorie, Dynamische Optimierung, Lagerhaltung, Warteschlangentheorie, Simulation, Unscharfe Entscheidungen. 3. Auflage, Berlin u.a. 1992. Zimmermann, H.-J. (1993): Fuzzy Technologien: Prinzipien, Werkzeuge, Potentiale. Düsseldorf 1993. Zimmermann, H.-J. (1997): Uncertainty Modelling and Fuzzy Sets. In: Natke, H. G.; Ben-Haim, Y. (ed.): Uncertainty: Models and Measures. Berlin 1997, S. 84–100. Zimmermann, H.-J. (1999): Zur Modellierung von Unsicherheit realer Probleme. In: Seising, R. (Hrsg.): Fuzzy Theorie und Stochastik: Modelle und Anwendungen in der Diskussion. Braunschweig u.a. 1999, S. 287–301. Zimmermann, H.-J. (2000): An application-oriented view of modelling uncertainty. In: European Journal of Operational Research. 2000, Volume 122, Issue 2, pp. 190–198. Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion Marion Steven, René Blank 1 Einleitung Die Zunahme der Weltbevölkerung und eine Intensivierung des Konsumverhaltens erfordern einen wachsenden Umfang der industriellen Produktion. Potentiell katastrophale Langzeitfolgen einer damit verbundenen Steigerung der Umweltbelastung1 sowie begrenzt verfügbare Ressourcen machen eine ressourcenschonende, schadstoffarme Gütererzeugung mehr denn je notwendig. Für die Analyse und Beurteilung der Gütererzeugung aus betriebswirtschaftlicher Perspektive kommt der Produktivität als Schlüsselkennzahl zentrale Bedeutung zu. 2 Formal beschreibt sie das Verhältnis zwischen dem innerhalb eines bestimmten Betrachtungszeitraums hergestellten Output und dem zu seiner Erzeugung eingesetzten Input einer Produktionseinheit:3 (1) Produktivität = Output Input . Für Zwecke der Messung wird die Produktivität als statistische Größe aufgefasst,4 d.h. ex post unter Verwendung konkreter Daten für den Output und Input ermittelt. Um sie dagegen ex ante zum Zweck der Planung oder Entscheidungsfindung zu bestimmen, muss der kausale Zusammenhang zwischen Output und Input berücksichtigt werden. Damit wird eine Inkorporation produktionstheoretischer Aussagen in die Grunddefinition der Produktivität (1) erforderlich, die Gegenstand des vorliegenden Beitrags ist. Für diese Überlegungen wird die Produktionsfunktion vom Typ B nach Erich Gutenberg aufgrund ihrer weiten Verbreitung und großen Bedeutung für die Analyse und Erklärung industrieller Produkti- 1 Vgl. Randers (2012), S. 81 i.V.m. S. 149; Stern (2007), S. 65 ff. u. S. 196 ff. 2 Vgl. Gutenberg (1987), S. 27 ff. i.V.m. Gutenberg (1983), S. 9. 3 Vgl. Steven (2007), S. 534. Diese allgemeine Form wird auch als Grunddefinition der Produktivität bezeichnet: Vgl. Egbers (2012), S. 43; Reuss (1960), S. 5. 4 Grundsätzliche Überlegungen hierzu finden sich bei Reuss (1960), S. 7 ff. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_24, © Springer Fachmedien Wiesbaden 2013 324 Marion Steven, René Blank onsprozesse5 gewählt. Dadurch lassen sich Möglichkeiten und Grenzen einer Beeinflussung der Produktivität und die Entwicklung ihrer Höhe in Abhängigkeit von den identifizierten Einflussfaktoren aufzeigen und dieses Wissen als Grundlage der betrieblichen Entscheidungsfindung nutzen. Gegenstand des zweiten Kapitels sind die Explikation der Grunddefinition der Produktivität (1) sowie formale Grundlagen der Produktionsfunktion vom Typ B. Sie bilden den Ausgangspunkt für die Verknüpfung von Produktivität und Produktionstheorie, die im dritten Kapitel durchgeführt wird. Die dort hergeleiteten Ergebnisse werden im Rahmen des vierten Kapitels zur Analyse des Unterschieds verwendet, der zwischen der Produktivität als (rein) realgüterwirtschaftlicher Größe einerseits bzw. monetärer Größe andererseits existiert. Der Beitrag schließt im fünften Kapitel mit einer Zusammenfassung der Ergebnisse und einem Ausblick auf weiteren Forschungsbedarf. 2 Grundlagen 2.1 Der Produktivitätsbegriff Die Produktivität transportiert drei verschiedene Aussagen: (1) Sie konstatiert der betrachteten Produktionseinheit implizit die Fähigkeit zur Produktion (Feststellung einer Eigenschaft). (2) Sie bildet die Grundlage für eine Beurteilung, wie rationell eine Produktionseinheit ihre Fähigkeit zur Produktion ausübt (Fundament eines Werturteils). (3) Sie bringt in Form der Grunddefinition ein Kriterium für diese Beurteilung zum Ausdruck (Bereitstellung einer Maßgröße).6 Bei der konkreten Formulierung der Maßgröße ergibt sich die Schwierigkeit, dass sowohl auf der Output- als auch Inputseite inkommensurable Realgütermengen auftreten (können), die in geeigneter Weise zu verdichten sind.7 Häufig wird eine sehr einfache Form der Verdichtung gewählt, indem die Realgütermengen mit ihren (aktuellen) Preisen bewertet und sowohl output- als auch inputseitig summiert werden.8 Dadurch degeneriert die Produktivität jedoch zum Synonym zur Profitabilität bzw. (wertmäßigen) Wirtschaftlichkeit, formal beschrieben als9 5 Albach (1989), S. 239 bezeichnet sie als „Basis der [nun tradierten] betriebswirtschaftlichen Produktionstheorie“. Noch Dyckhoff/Müser/Renner (2012) betten ihre (formale) Erklärung des Produktionsanlaufs in die Tradition der Produktionstheorie von Gutenberg. 6 Für eine ähnliche, inhaltlich jedoch enger gefasste Bedeutungsanalyse aus volkswirtschaftlicher Perspektive vgl. bereits Sombart (1928), S. 6 f. 7 Zum Aggregationsproblem vgl. grundlegend Hoth (1956), S. 71 ff. 8 Vgl. Nebl (2007), S. 20 f.; Prengel (2007), S. 49 f.; Gutenberg (1987), S. 29. 9 Vgl. Dellmann/Pedell (1994), S. 19 f.; Bohr (1993), Sp. 2186; Reuss (1960), S. 6., implizit auch Laßmann (1975), Sp. 3167. Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion (2) (wertmäßig e) Wirtschaf tlichkeit = 325 bewerteter Output bewerteter Input , sodass ihre eigenständige Berechnung und Analyse in diesem Fall obsolet ist.10 Zudem wird die Beurteilung der Produktionseinheit im o.g. Sinne verfälscht, sofern Preiseffekte die Relation zwischen Output und Input überlagern.11 Selbst die Verwendung konstanter Preise eines bestimmten Basisjahres12 kann diesen Mangel nicht vollständig heilen, denn mittels monetärer Bewertung der Realgütermengen wird eine Gewichtung derart vorgenommenen, dass die Höhe der Produktivität stärker durch eine (marginale) Änderung der Produktionsmenge umsatzstarker als umsatzschwacher Produkte und der Einsatzmenge kostenintensiver als kostengünstiger Produktionsfaktoren beeinflusst wird. Eine Transponierung von der Mengen- in die Wertbetrachtung wirkt sich somit stets auf die Beurteilung der Produktionseinheit aus. Es besteht sogar die Möglichkeit, dass einer Gütererzeugung ggü. einer insgesamt ressourcenschonenden Alternative eine höhere Produktivität zugeordnet wird, falls bei ersterer ein deutlicher Mehrverbrauch an kostengünstigen durch geringe Einsparungen an kostenintensiven Produktionsfaktoren überkompensiert wird. Für die Konzeption des Produktivitätsmaßes kann jedoch auf eine monetäre Bewertung der Realgütermengen verzichtet werden. 13 Hierzu sind in einem ersten Schritt Teilproduktivitäten – im Folgenden als partielle Faktorproduktivitäten ȡij bezeichnet – zu bestimmen, die das Verhältnis der Produktionsmenge xj des Produkts j (j = 1, …, J) zur Einsatzmenge ri (i = 1, …, I) des Produktionsfaktors i beschreiben:14 (3) ρ ij = xj ri , (i = 1, ..., I ; j = 1, ..., J ) . Damit die Produktivität eine Produktionsalternative (Aktivität) μ = (r1 , ..., rI ; x1 , ..., x J ) vollständig erfasst, d.h. sämtliche erzeugten Produktionsmengen einer Produktionseinheit und die zu ihrer Herstellung benötigten Einsatzmengen an Produktionsfaktoren berücksichtigt, sind die I · J partiellen Faktorproduktivitäten (3) in einem zweiten Schritt zu verdichten. Dazu wird mittels einer geeigneten Vorschrift f Ρ ($) ihr Vektor 10 Vgl. auch Corsten (2008), S. 632. Diesbezüglich schreibt Egbers (2012), S. 46 trefflich: „Stimmen Produktivitätsbegriff und Wirtschaftlichkeitsbegriff überein, wird die Betrachtung der Produktivität im Prinzip überflüssig.“ 11 Vgl. Corsten (2008), S. 632; Kneip (2007), S. 20 f.; Laßmann (1975), Sp. 3167 und Bellmann (2003), S. 8 mit einer anschaulichen Beispielrechnung. 12 Vgl. statt vieler Dellmann/Pedell (1994), S. 4 u. S. 18; Hoth (1956), S. 61 f. 13 Eine verbreitete Variante dieser Konzeption des Produktivitätsmaßes findet sich in der Zielfunktion des Grundmodells der Data Envelopment Analysis nach Charnes/Cooper/Rhodes (1978), S. 430. Sie wird im Folgenden nicht vertieft. 14 Vgl. die Beispiele bei Egbers (2012), S. 44 f. oder explizit Jung (2006), S. 30. Häufig wird in Teilproduktivitäten der gesamte Output der Produktionseinheit angesetzt. Kritisch hierzu Kneip (2007), S. 15. 326 Marion Steven, René Blank & ρ = ( ȡ11 , ..., ȡ1J , ȡ 21 , ..., ȡ 2 J , ..., ρ I 1 , ..., ρ IJ ) auf die Produktivität ȇ als einzelne, positive reelle Zahl abgebildet:15 & & & (4) f Ρ : ρ f Ρ (ρ , ς ) = Ρ , Ρ ∈ ℜ + . Zu den Vertretern einer derartigen Vorschrift zählen bspw. verschiedene Mittelwertfunktionen. 16 Damit die Verdichtungsvorschrift wohldefiniert ist, muss eine Gewichtung der einzelnen partiellen Faktorproduktivitäten mit Skalenfaktoren ς ij vorgenommen werden, sofern deren Dimensionen heterogen sind.17 Die Kehrwerte der partiellen Faktorproduktivitäten (3) entsprechen den Produktionskoeffizienten. Über eine Vermeidung der Monetarisierung der Produktivität hinaus bildet das Produktivitätsmaß (4) insofern einen geeigneten Anknüpfungspunkt zur Inkorporation produktionstheoretischer Aussagen. 2.2 Die Produktionsfunktion vom Typ B Erich Gutenberg beschäftigt sich im Rahmen seiner produktionstheoretischen Überlegungen mit der Analyse und Erklärung industrieller Produktionsprozesse innerhalb eines kurzfristigen Betrachtungszeitraums.18 Dazu unterteilt er die Produktionsfaktoren in zwei Subklassen:19 (1) Verbrauchsfaktoren werden bei ihrer erstmaligen Verwendung im Produktionsprozess vollständig aufgewendet. Hierzu zählen vor allem Werkstoffe, die den Ausgangspunkt für die Produktion bilden und schließlich direkt oder indirekt in die Produkte eingehen. (2) Gebrauchsfaktoren dagegen lassen sich als ein „Reservoir künftiger Leistungsabgaben“20 verstehen, das zum Vollzug der Produktion beansprucht werden muss und sich erst nach ihrer wiederholten Durchführung erschöpft. Hierzu zählen insbesondere Anlagen, die Verrichtungen maschineller Art an Werkstoffen ausführen. 15 Für allgemeine Ausführungen zur Informationsverdichtung im Rahmen der Entscheidungstheorie vgl. Dyckhoff (1985), S. 198 f. Sie gelten hier analog, da jede Aktivität einer Handlungsalternative des verantwortlichen Entscheidungsträgers entspricht und die resultierenden partiellen Faktorproduktivitäten Handlungskonsequenzen, d.h. Ergebnisse repräsentieren. 16 Dikow (2006), S. 75 und Bleischwitz (1998), S. 57 verwenden das (gewogene) harmonische Mittel. Für eine konkretere, aber noch allgemeine Verdichtungsvorschrift vgl. Dyckhoff (1985), S. 202. 17 Die Verdichtung inkommensurabler Größen unter Verwendung von Skalenfaktoren ist auch Gegenstand der Data Envelopment Analysis, dort auf Ebene der Realgütermengen. Vgl. dazu bspw. Dyckhoff/Allen (1999), S. 417 i.V.m. S. 420. Das Problem der Festlegung der Skalenfaktoren soll für die nachstehenden Überlegungen ausgeblendet werden. 18 Vgl. grundlegend Gutenberg (1983), S. 298 ff. Mit 'kurzfristig' ist meint, dass der Prozess der Auswahl von Produktionsfaktoren als abgeschlossen gilt und die Frage nach der optimalen Kombination ihrer Einsatzmengen zur Erzeugung eines Produkts im Vordergrund steht. 19 Vgl. im Folgenden Gutenberg (1983), S. 326 ff.; auch Fandel (2010), S. 165; Küpper (1980), S. 20 und die dort angeführte Literatur; Menrad (1965), S. 34 f. 20 Menrad (1965), S. 35. Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion 327 In stark disaggregierter Sichtweise rückt Gutenberg Aggregate, d.h. Gruppen funktionsgleicher Anlagen,21 ins Zentrum seiner Überlegungen und untersucht dort Anpassungsprozesse an schwankende Produktionsanforderungen. 22 Dabei unterstellt er, dass dem Entscheidungsträger folgende Handlungsalternativen in isolierter bzw. kombinierter Form zur Verfügung stehen: Die Variation der Anzahl genutzter Anlagen ml (l = 1, …, L) eines Aggregats l zwischen 0 und dem vorhandenen Bestand Ml (quantitative Anpassung), die Änderung ihrer Einsatzzeit tl im Intervall [t l ; tl ] (zeitliche Anpassung) sowie der Intensität vl – gemessen als Produktionsmenge je Zeiteinheit und Anlage23 – im Intervall [vl ; vl ] (intensitätsmäßige Anpassung). 24 Eine Sonderform der Kombination von zeitlicher und intensitätsmäßiger Anpassung ist das Intensitätssplitting, bei dem während einer determinierten Einsatzzeit mit (zwei) wechselnden Intensitäten gearbeitet wird.25 Die Festlegung der Entscheidungsvariablen ml, tl und vl bestimmt zum einen die Höhe der am Aggregat l und innerhalb des Betrachtungszeitraums bearbeiteten Produktionsmenge x (ml, tl, vl) über (5) x(ml , t l , v l ) = ml ⋅ t l ⋅ v l , (l = 1, ..., L ) und zum anderen die Einsatzmenge rkl (ml, tl, vl) (k = 1, …, K) der dabei aufgewendeten Verbrauchsfaktoren k:26 (6) rkl (ml , t l , v l ) = a kl (v l ) ⋅ ml ⋅ t l ⋅ v l , (k = 1, ..., K ; l = 1, ..., L ) . Charakteristisches Element zur Formulierung des Faktorverbrauchs ist die Verbrauchsfunktion akl (vl). Sie bildet den notwendigen Einsatz des Verbrauchsfaktors k am Aggregat l je Einheit Produktionsmenge in Abhängigkeit von der intensitätsmäßigen Anpassung ab. Der Verlauf von Verbrauchsfunktionen kann grundsätzlich unterschiedlicher Gestalt sein, wird i.d.R. jedoch als stetig und streng konvex angenommen.27 Dann existiert eine Intensität v kl* als innerer Punkt oder Randpunkt des Intervalls [vl ; vl ] , bei der die Verbrauchsfunktion ihr Minimum annimmt.28 Das Gleichungssystem bestehend aus den Leistungsfunktionen (5) und Faktoreinsatzfunktionen (6) stellt die Gutenberg-Produktionsfunktion, auch als Produktionsfunktion vom 21 Vgl. Fandel (2010), S. 165 i.V.m. S. 167. 22 Vgl. Steven (1994), S. 1499 und die dort angeführte Literatur. 23 Vgl. Gutenberg (1983), S. 330; Krelle (1969), S. 43. 24 Vgl. ausführlicher Fandel (2010), S. 169 ff.; Gutenberg (1983), S. 354 ff. Die Beschränkung zulässiger Werte der Entscheidungsvariablen ml, tl und vl sei im Folgenden stets vorausgesetzt und wird nicht wiederholt explizit angeführt. 25 Vgl. Steven (1998), S. 156 f.; Kistner/Sonntag (1993), S. 1305. 26 Vgl. Kistner/Sonntag (1993), S. 1301 mit Bezug auf ein einzelnes Aggregat. 27 Vgl. Dinkelbach/Rosenberg (2004), S. 179 und die dort angeführte Literatur; Steven (1994), S. 1500; in grafischer Betrachtung vgl. Kistner (1993), S. 143. 28 Vgl. Dinkelbach/Rosenberg (2004), S. 179. 328 Marion Steven, René Blank Typ B bezeichnet,29 dar.30 Gutenberg nutzt sie zur Fundierung kostentheoretischer Überlegungen.31 Obwohl er der „Produktivität [als] Grundphänomen der betriebswirtschaftlichen Analyse des Produktionsprozesses“32 hohe Bedeutung beimisst, unterlässt er ihre Analyse auf Basis der dargestellten formalen Zusammenhänge.33 Diese ist Gegenstand des folgenden Kapitels. 3 Die Produktivität in der Gutenberg-Produktionsfunktion In Gutenbergs differenzierter Sicht auf die Produktionsfaktoren sind Gebrauchsfaktoren das Medium des industriellen Produktionsprozesses: An ihnen erfolgt der Einsatz von Verbrauchsfaktoren zur Erzeugung der Produktionsmenge. Aggregate stellen somit die Produktionseinheiten dar, die bezüglich ihrer Produktivität beurteilt werden sollen. Dazu ist es erforderlich, die partiellen Faktorproduktivitäten der an einem Aggregat eingesetzten Verbrauchsfaktoren zunächst zu ermitteln und anschließend sinnvoll zur (aggregatbezogenen) Produktivität zu verdichten. Überlegungen hierzu sind Gegenstand von Abschnitt 3.1. Um auf eine Beurteilung der Produktivität der gesamten Unternehmung oder eines Teilbereichs schließen zu können, sind die aggregatbezogenen Urteile zusammenzufassen. In Abschnitt 3.2 wird sich mit dieser aggregatübergreifenden Produktivität befasst. Die wesentlichen Ergebnisse der Analyse sind in Abschnitt 3.3 zusammengetragen. 3.1 Aggregatbezogene Produktivität 3.1.1 Identifikation partieller Faktorproduktivitäten von Verbrauchsfaktoren und Feststellung ihrer Einflussfaktoren Die Verbrauchsfunktion stellt gemäß ihrer Definition eine funktionale Erweiterung des Produktionskoeffizienten dar. 34 Ihr Reziprok beschreibt insofern die partielle Faktorproduktivität ȡkl (vl) des Verbrauchsfaktors k am Aggregat l in Abhängigkeit von der intensitätsmäßigen Anpassung. Einsetzen der Leistungsfunktion (5) und Faktoreinsatzfunktion (6) in die Definition der partiellen Faktorproduktivität (3) bestätigt vorstehende Aussage, da gilt:35 29 Vgl. statt vieler Bellmann (2003), S. 79; Gutenberg (1983), S. 326. 30 Vgl. sinngemäß Knolmayer (1983), S. 1123; Gutenberg (1989), S. 131. 31 Vgl. sinngemäß Steven/Zapp (2009), S. 62; Kistner/Sonntag (1993), S. 1297. 32 Gutenberg (1983), S. 9. 33 Für kritische Worte in diesem Zusammenhang vgl. auch Fricke (1961), S. 170 ff. Überlegungen zur Produktivität finden sich erst mit Gutenberg (1987), S. 27 ff., jedoch ohne Bezug zur Produktionsfunktion vom Typ B. 34 Vgl. Steven (1998), S. 131 f.; Knolmayer (1983), S. 1123. 35 Vgl. Krelle (1969), S. 80. 329 Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion (7) ρ kl (v l ) = x(ml , t l , v l ) 1 = , (k = 1, ..., K ; l = 1, ..., L ) . rkl (ml , t l , v l ) a kl (v l ) Ihre Höhe ist nur durch eine Variation der Intensität innerhalb des zulässigen Intervalls beeinflussbar. Quantitative und zeitliche Anpassung führen dagegen zu konstanten partiellen Faktorproduktivitäten sämtlicher Verbrauchsfaktoren an einem Aggregat.36 Da die einzelnen Anpassungsformen gemäß der Leistungsfunktion (5) für die Erzeugung einer bestimmten Produktionsmenge substituierbar sind, 37 kann diese somit mit unterschiedlich hohen partiellen Faktorproduktivitäten verbunden sein. In Abhängigkeit von deren konkretem Verlauf sowie der Explikation der Verdichtungsvorschrift (4) können Entscheidungen über die Fahrweise des betrachteten Aggregats insofern Einfluss auf seine Produktivität nehmen. Prinzipiell besteht daher die Möglichkeit, die Fahrweise eines Aggregats an der Produktivität als zu maximierenden statt an den Kosten als zu minimierenden Zielgröße zu orientieren, d.h. ein Problem der folgenden Form zu lösen: & & (8) max Ρl (v l ) = f Ρ (ρ l (v l ), ς ) ≥ x s.d. ml ⋅ t l ⋅ v l l a kl (v l ) ⋅ ml ⋅ t l ⋅ v l ml ∈ {0, 1, ..., M l }; ≤ rkl (k = 1, ..., K ) v l ∈ [v l ; v l ]; t l ∈ [t l ; t l ]. & Dabei beschreibt ȇl (vl) die Produktivität des Aggregats l im Sinne der Definition (4), ρ l (v l ) = ( ȡ1l (v l ), ..., ȡ Kl (v l )) den Vektor partieller Faktorproduktivitäten ȡkl (vl) über alle Verbrauchsfaktoren k, x die mindestens zu erzeugende Produktionsmenge und rkl den verfügbaren Bestand des Verbrauchsfaktors k am Aggregat l. 3.1.2 Idealtypische Verlaufsformen partieller Faktorproduktivitäten von Verbrauchsfaktoren Das Ergebnis des Maximierungsproblems (8) wird maßgeblich durch den konkreten Verlauf der partiellen Faktorproduktivitäten aller K betrachteten Verbrauchsfaktoren am Aggregat l beeinflusst. Abbildung 1 zeigt in isolierter Perspektive ihre idealtypischen Verlaufsformen bei rein intensitätsmäßiger Anpassung.38 Für Verbrauchsfaktoren k , deren streng konvexe Verbrauchsfunktion ausgehend von der minimalen Intensität vl bei Erhöhung der Intensität vl zunächst streng monoton fällt und 36 Dies lässt sich auch aus den Ausführungen von Dinkelbach/Rosenberg (2004), S. 177 und Steven (1994), S. 1499 ableiten. 37 Vgl. Steven (1998), S. 130 f.; Knolmayer (1983), S. 1124 und die dort angeführte Literatur. 38 Die gezeigten Verläufe sind abgeleitet aus den idealtypischen Verbrauchsfunktionen, die sich bei Steven (1998), S. 144 bzw. Kistner (1993), S. 143 finden. Für die Fälle, dass sich die Intensität zugeschalteter Betriebsmittel nur in diskreten Stufen ändern lässt bzw. zusätzlich je Stufe in einem bestimmten Bereich stetig variiert werden kann, lassen sich die Verläufe der zugehörigen partiellen Faktorproduktivitäten aus dem in Abbildung 1 gezeigten Verlauf deduzieren. Sie werden daher nicht gesondert betrachtet. 330 Marion Steven, René Blank nach dem Erreichen der verbrauchsminimalen Intensität v k*l ∈ [v l ; vl ] bis zur maximalen Intensität vl schließlich streng monoton steigt, ergibt sich der gezeigte nichtlineare Verlauf ihrer partiellen Faktorproduktivität. Diese erreicht an der Stelle des Verbrauchminimums ihr Maximum, in dessen Umgebung ihr Verlauf konkav gekrümmt ist. Das Krümmungsverhalten ändert sich an den Wendestellen v klWL bzw. v klWR . θ kl v l θ k6 l v l θ k! l v l vl vl v WL v *k6 l v WR k6 l k6 l vl zulässiger Bereich intensitätsmäßiger Anpassung Abbildung 1: Idealtypische Verläufe der partiellen Faktorproduktivität eines Verbrauchsfaktors bei rein intensitätsmäßiger Anpassung Die konvex gekrümmten Bereiche lassen sich jedoch nicht durch Anwendung des Intensitätssplittings zur Verbesserung der partiellen Faktorproduktivität vermeiden. Denn auf Ebene der beschriebenen Verbrauchsfunktion führt jede Konvexkombination zweier Aktivitäten, die mit der Intensität vl1 bzw. v l2 (mit v l1 ≠ v l2 ) realisiert werden, zu einem Produktionskoeffizienten, dessen Wert oberhalb der Verbrauchsfunktion liegt: ( ) ( ) ( ) (9) a kl λ ⋅ v l1 + (1 − λ ) ⋅ v l2 < λ ⋅ a kl v l1 + (1 − λ ) ⋅ a kl v l2 ( ) λ ∈ [0; 1] , k = 1, ..., K ≤ K ; l = 1, ..., L . 331 Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion Somit folgt für die zugehörige partielle Faktorproduktivität: (10) 1 a kl λ ⋅ v + (1 − λ ) ⋅ v l2 > ρ kl > ( ) (λ ⋅ v + (1 − λ )⋅ v ) 1 l ⇔ 1 l 2 l 1 λ ⋅ a kl v + (1 − λ ) ⋅ a kl v l2 1 λ 1− λ + 1 ρ kl v l ρ kl v l2 ( ) ( ) λ ∈ [0; 1] , ( ) 1 l ( ) (k = 1, ..., K ≤ K ; l = 1, ..., L ). Die betrachtete Verlaufsform lässt sich insbesondere für den Produktionsfaktor Energie und zahlreiche Betriebsstoffe, d.h. Werkstoffe, die für den Betrieb der Anlagen benötigt werden und insofern nur indirekt in das Produkt eingehen,39 nachweisen.40 Für andere Verbrauchsfaktorarten kann der zugehörige idealtypische Verlauf ihrer partiellen Faktorproduktivität über dem Intervall zulässiger Intensitäten [vl ; vl ] lediglich dem linken Ast (bspw. für menschliche Arbeitskraft, sofern ihr Einsatz in Form von Arbeitsstunden erfasst wird) oder dem rechten Ast (bspw. für Schmierstoffe an Motoren) der in Abbildung 1 gezeigten nichtlinearen partiellen Faktorproduktivität entsprechen. In diesen Fällen wird das jeweilige Maximum bei Wahl der maximalen vl bzw. minimalen Intensität vl erreicht. Für den in Abbildung 1 ebenfalls gezeigten Verbrauchsfaktor k gilt der Sonderfall, dass die Verbrauchsfunktion und damit der Verlauf ihrer partiellen Faktorproduktivität unabhängig von der Intensität und somit auch bei intensitätsmäßiger Anpassung konstant ist. Dies lässt sich für Werkstoffe feststellen, deren Verbrauch je Einheit Endprodukt durch eine Stücklistenbeziehung eindeutig festgelegt ist (Bauteile in Montageprozessen), d.h. deren Einsatzmenge in einem limitationalen Verhältnis41 zur Produktionsmenge steht. Da sich in den Grenzen der Produktionsfunktion vom Typ B somit keine Handlungsalternativen feststellen lassen, mit denen Einfluss auf derartige partielle Faktorproduktivitäten genommen werden kann, stellen sie in der Zielfunktion des Maximierungsproblems (8) ein Fixum dar. Die optimale Lösung des betrachteten Maximierungsproblems wird also ausschließlich durch Verbrauchsfaktoren determiniert, die lediglich indirekt in das Produkt einfließen. Innerhalb eines kurzfristigen Betrachtungszeitraums und unter den Annahmen zur Produktionsfunktion vom Typ B stellen diese insofern den einzigen Anknüpfungspunkt für aggregatbezogene Produktivitätsverbesserungen dar. Langfristig betrachtet sind dagegen auch Stücklistenbeziehungen nicht determiniert, da sie im Rahmen der Produktentwicklung fixiert werden. So ergeben sich bereits in dieser frühen Phase des Produktlebenszyklus Ansatzpunkte für eine Verbesserung der aggregatbezogenen Produktivität. Ihre theoretische 39 Vgl. Steven (1998), S. 3. 40 Vgl. für diese und folgende Beispiele Steven (1998), S. 145. 41 Zur Abgrenzung limitationaler und substitutionaler Verbrauchsfaktoren im Rahmen der Produktionsfunktion vom Typ B vgl. insb. Danø (1965), S. 165 ff. 332 Marion Steven, René Blank Analyse bedarf einer anderen Basis als der statischen Produktionsfunktion vom Typ B und wird daher nicht vertieft. 3.1.3 Bestimmung der aggregatbezogenen Produktivität mittels partieller Faktorproduktivitäten von Verbrauchsfaktoren Neben den konkreten Verlaufsformen der partiellen Faktorproduktivitäten am betrachteten Aggregat wird das Ergebnis des Maximierungsproblems (8) maßgeblich durch die festgelegte Verdichtungsvorschrift beeinflusst, mittels der die aggregatbezogene Produktivität über das System partieller Faktorproduktivitäten bestimmt wird. Die Werte partieller Faktorproduktivitäten verschiedener Verbrauchsfaktoren, die ihre individuell produktivste Verwendung an einem Aggregat bei unterschiedlichen Intensitäten realisieren, entwickeln sich für ein bestimmtes Intervall von Intensitäten gegenläufig. Die Verdichtungsvorschrift bringt somit den Grad an Kompensation zwischen diesen gegenläufigen Werten zum Ausdruck, der grundsätzlich zwischen den Grenzen der vollen Kompensation & (11) Ρl (v l ) = f Ρl (ρ l (v l )) = max ρ kl (v l ) k und der unzulässigen Kompensation & (12) Ρl (v l ) = f Ρl (ρ l (v l )) = min ρ kl (v l ) k liegt.42 Abbildung 2 zeigt diesen Zusammenhang am Beispiel zweier Verbrauchsfaktoren. In Abbildung 2 (II) ist ersichtlich, dass sich das Maximum der aggregatbezogenen Produktivität in Abhängigkeit von der Verdichtungsvorschrift mit unterschiedlichen Fahrweisen des Aggregats, speziell für voneinander abweichende Intensitäten, realisieren lässt. Neben dem in Abbildung 2 (II) gezeigten Minimum- oder Maximum-Operator (11) bzw. (12) sowie dem gewichteten arithmetischen Mittel über sämtliche partielle Faktorproduktivitäten kann die Verdichtungsvorschrift zahlreiche andere explizite Formen annehmen.43 42 Vgl. Dyckhoff (1985), S. 196 i.V.m. S. 202. In der Verdichtungsvorschrift manifestiert sich somit das ökonomische Grundprinzip des Denkens in Austauschraten. In Bezug auf den Umweltschutz vgl. dazu Steven (1994), S. 1496. 43 Vgl. bspw. Dyckhoff (1985), S. 202 ff. 333 Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion I θ kl v l θ k6 l v l θ k! l v l * eff v l v k! l v l * vl eff v k6 l v l II Π l vl vl min θ kl v l k Abbildung 2: vl K 1 · ι · θ v K k 1 k kl l vl vl max θ kl v l k (I) Interdependenz partieller Faktorproduktivitäten zweier Verbrauchsfaktoren und (II) Möglichkeiten der Verdichtung zur aggregatbezogenen Produktivität 334 Marion Steven, René Blank Die Festlegung der Verdichtungsvorschrift sollte von gewisser Permanenz sein, damit die Produktivität als Kennzahl sinnvoll angewendet werden kann 44 und darüber hinaus ihre Intention nicht konterkarieren: Die Werte der partiellen Faktorproduktivitäten der Verbrauchsfaktoren k und k in Abbildung 2 (I) verlaufen im Intervall v k*l ; v l ] gleichgerichtet. Offensichtlich ist damit jeder Intensität vlIE ∈ v k*l ; vl ] eine dominierte Aktivität zugeordnet, da sich die partiellen Faktorproduktivitäten sämtlicher Verbrauchsfaktoren durch die Wahl einer Intensität vl, mit v k*l vl < vlIE , erhöhen lassen. Intensitäten, denen dagegen keine dominierte Aktivität eff zugeordnet ist, heißen effiziente Intensitäten. Ihr Intervall v l ; v leff ist im allgemeinen Fall dadurch gekennzeichnet, dass innerhalb der Intervallgrenzen die partiellen Faktorproduktivitäten mindestens zweier Verbrauchsfaktoren gegenläufig sind (im Beispiel v l ; v k*l ).45 Es wird aufgespannt durch die minimale und maximale verbrauchsminimale Intensität aller Verbrauchsfaktoren, die sich am betrachteten Aggregat feststellen lassen:46 ( ( [ [ ] ] eff (13) v l = min v kl* , (l = 1, ..., L ) k (14) v leff = max v kl* , (l = 1, ..., L ) . k Damit lässt sich als allgemeines Anforderungskriterium an Verdichtungsvorschriften formulieren, dass sie nicht die Möglichkeit bieten dürfen, eine Intensität außerhalb des Intervalls effizienter Intensitäten als Lösung des Maximierungsproblems (8) zu bestimmen (es sei denn, ihre Wahl ist aufgrund der Ausschöpfung zeitlicher und quantitativer Anpassung notwendig zur Herstellung von x). Andernfalls kann die Produktivität ihrer Aufgabe nicht gerecht werden, die Grundlage zur Analyse und Beurteilung der Gütererzeugung einer Produktionseinheit hinsichtlich ihrer Ressourcenschonung bzw. Ergiebigkeit zu bilden. Eine tiefer gehende Auseinandersetzung mit (weiteren) Anforderungskriterien an die Ausgestaltung der Verdichtungsvorschrift im Sinne der Definition (4) soll hier nicht erfolgen und bleibt Gegenstand zukünftiger Forschungsarbeiten. In Bezug auf die aggregatbezogene Produktivität lässt sich insgesamt feststellen: Ihre Höhe ist – in bestimmten Grenzen – im Rahmen von Entscheidungen über die Fahrweise des Aggregats beeinflussbar. Dabei kommt Verbrauchsfaktoren, die lediglich indirekt in das Produkt einfließen, besondere Bedeutung zu, da hauptsächlich bei ihnen die intensitätsmäßige Anpassung zu einer Änderung der partiellen Faktorproduktivität führt. Im kurzfristigen Betrachtungszeitraum (quasi) unbeeinflussbare Faktoren, die die Höhe der aggregatbezogenen Produktivität ebenfalls bestimmen, sind dagegen die einzelnen Verbrauchsfunktionen, deren konkreter Verlauf bereits im Rahmen der Konstruktionsphase des Aggre- 44 Für allgemeine Anforderungen an Kennzahlen vgl. Kneip (2007), S. 48 ff. und die dort angeführte Literatur; Steven (2007), S. 530. 45 Vgl. Dinkelbach/Rosenberg (2004), S. 179 f.; Krelle (1969), S. 45 für eine Definition effizienter Intensitäten auf Ebene der Verbrauchsfunktion. 46 Vgl. Kloock (1998), S. 300 f.; nach Krelle (1969), S. 45 f. bildet stets die maximale Intensität die obere Grenze des Intervalls effizienter Intensitäten. Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion 335 gats determiniert wird47 sowie die festgelegte Verdichtungsvorschrift, die zur Anwendung der Produktivität als Kennzahl über einen längeren Zeitraum konstant bleiben muss. 3.2 Aggregatübergreifende Produktivität Für die Bestimmung der Produktivität der gesamten Unternehmung oder eines Teilbereichs ist zu berücksichtigen, dass Verbrauchsfaktoren ggf. an mehreren Aggregaten eingesetzt & & & werden. Ihre gesamte Einsatzmenge rk (m , t , v ) 48 ergibt sich dann additiv aus den Einsatzmengen an den verschiedenen Aggregaten:49 L & & & (15) rk (m, t , v ) = ¦ rkl (ml , t l , v l ) , (k = 1, ..., K ) . l =1 Einsetzen der Leistungsfunktion (5) und der Faktoreinsatzfunktion (15) in die Definition der partiellen Faktorproduktivität (3) liefert: & (16) ρ k (v ) = x(ml , t l , vl ) L ¦ rkl (ml , tl , vl ) l =1 = 1 L ¦ akl (vl ) , (k = 1, ..., K ) . l =1 & Die Höhe der aggregatübergreifenden partiellen Faktorproduktivität ρ k (v ) des Verbrauchsfaktors k ist analog zu ihrem aggregatbezogenen Pendant lediglich durch intensitätsmäßige Anpassung beeinflussbar. Kurzfristig nicht steuerbare Einflussgrößen sind die konkreten Verlaufsformen sämtlicher Verbrauchsfunktionen des betrachteten Verbrauchsfaktors an den einzelnen Aggregaten. Da die aggregatübergreifende partielle Faktorproduktivität des Verbrauchsfaktors k eine Funktion in L Intensitäten darstellt, beschreibt sie ein Gebirge im ℜ L +1 . Ihr (globales) Maximum wird genau dann erreicht, wenn an den einzelnen Aggregaten jeweils die in Bezug auf den betrachteten Verbrauchsfaktor verbrauchsminimale Inten* sität gewählt wird, d.h. an der Stelle ( v k*1 , …, v kL ).50 Ausnahmen bilden hier wiederum Verbrauchsfaktoren, deren Einsatzmengen aufgrund einer Stücklistenbeziehung zur Produktionsmenge des Produkts determiniert und deren aggregatübergreifende partielle Faktorproduktivitäten damit unabhängig von den Intensitäten an den verschiedenen Aggregaten konstant sind. Diese beschreiben insofern eine Hyperebene im ℜ L +1 . 47 Verbrauchsfunktionen sind abhängig von den technischen Eigenschaften der Anlage: vgl. hierzu Fandel (2010), S. 167; Kistner/Sonntag (1993), S. 1301 f. Diese werden für die Entwicklung der Produktionsfunktion vom Typ B jedoch als konstant angenommen: Vgl. hierzu grundlegend Gutenberg (1983), S. 331. & 48 & m = (m1 , ..., m L ) beschreibt den Vektor der genutzten Anlagen über sämtliche Aggregate l, t = (t1 , ..., t L ) & ihre Einsatzzeit und v = (v1 , ..., v L ) ihre Intensität. 49 Vgl. Gutenberg (1989), S. 132. Sofern ein Verbrauchsfaktor k am Aggregat l nicht eingesetzt wird, sei rkl (ml, tl, vl) = 0. 50 Der Nenner von der partiellen Faktorproduktivität (16) stellt als Summe (streng) konvexer Funktionen ebenfalls eine konvexe Funktion dar und besitzt somit ein (globales) Minimum. Vgl. dazu Sydsæter et al. (2008), S. 59. 336 Marion Steven, René Blank Soll die Fahrweise der Aggregate an der (aggregatübergreifenden) Produktivität orientiert werden, ist in Analogie zum Maximierungsproblem (8) nun folgendes mathematisches Programm zu lösen: & & & & (17) max ΡΛ (v ) = f Ρ (ρ Λ (v ), ς ) Λ s.d. ml ⋅ t l ⋅ v l ≥ x ¦ a kl (v l )⋅ ml ⋅ t l ⋅ vl ≤ rk L l =1 ml ∈ {0, 1, ..., M l }; (l = 1, ..., L ) (k = 1, ..., K ) v l ∈ [v l ; v l ]; t l ∈ [t l ; t l ] , (l = 1, ..., L ) . & ΡΛ (v ) beschreibt dabei die aggregatübergreifende Produktivität (der oder & & Unternehmung & eines ihrer Teilbereiche) im Sinne der Definition (4), ρ Λ (v ) = (ρ 1 (v ), ..., ρ K (v )) den Vektor der aggregatübergreifenden partiellen Faktorproduktivitäten über alle Verbrauchsfaktoren k und rk den insgesamt verfügbaren Bestand des Verbrauchsfaktors k. In der Gesamtsicht können die Werte aggregatübergreifender partieller Faktorproduktivitäten verschiedener Verbrauchsfaktoren nun auch dadurch zum Ausgleich gelangen, dass an einzelnen Aggregaten jeweils unterschiedliche Verbrauchsfaktoren ihrer produktivsten Verwendung zugeführt werden. Gegenüber der aggregatbezogenen Betrachtung bestehen für den Entscheidungsträger so mit den Intensitäten der zusätzlich betrachteten Aggregate weitere Möglichkeiten zur Gestaltung der Kompensation zwischen gegenläufigen Werten partieller Faktorproduktivitäten verschiedener Verbrauchsfaktoren. 3.3 Erkenntniswert der Inkorporation produktionstheoretischer Aussagen in die Produktivität Die vorstehenden Überlegungen zeigen exemplarisch in der Tradition der Produktionstheorie von Gutenberg, welche Erkenntnisse durch eine Inkorporation produktionstheoretischer Aussagen in die Produktivität generiert werden können: Zum einem lassen sich steuerbare und nicht-steuerbare Einflussfaktoren auf die Höhe der Produktivität in analytischer Perspektive identifizieren. Unter der Voraussetzung, dass das betrachtete Produktionsmodell den Produktionsprozess adäquat abbildet, können praktische Bemühungen zur Produktivitätsverbesserung insofern unterstützt werden, als hierzu die zielführenden Handlungsalternativen eingegrenzt werden. Auf Basis der Produktionsfunktion vom Typ B, d.h. in statischer Perspektive, ist dies die intensitätsmäßige Anpassung. Hinweise auf die Relevanz von Entscheidungen im Rahmen der Konstruktionsphase der Anlagen bzw. Produktentwurfsphase finden sich ebenfalls. Zum anderen lassen sich Aussagen über die Eigenschaften des betrachteten Produktivitätsmaßes (4) formulieren. Hierzu zählen etwa die Beschränkung seines Wertebereichs auf endliche, positive reelle Zahlen im Intervall zwischen der insgesamt maximal und minimal realisierbaren partiellen Faktorproduktivität oder seine Abhängigkeit von der gewählten Verdichtungsvorschrift. Bezüglich letzterer bietet die formale Analyse die Möglichkeit, die Eignung einer konkreten Ausprägung zur Beurteilung einer Produktionseinheit hinsichtlich Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion 337 ihrer Ressourcenschonung zu verifizieren. Dazu sind entsprechende Anforderungskriterien zunächst zu definieren und schließlich zu überprüfen. Die Maximierungsprobleme (8) und (17) zeigen überdies die Komplexität auf, die mit der Gestaltung der Produktivität im Kontext der Planung und Entscheidungsfindung verbunden sein kann: In theoretischer Sicht gilt es ein mathematisches Programmierungsmodell mit nichtlinearer Zielfunktion und nicht-linearen Restriktionen zu lösen, das neben stetig variierbaren Entscheidungsvariablen auch solche enthält, die nur ganzzahlige Werte annehmen dürfen. Je nach Verdichtungsvorschrift ist die Zielfunktion zudem in Extrempunkten nicht differenzierbar,51 sodass ein (globales) Maximum ggf. nicht bestimmt werden kann. Für die Optimierung der aggregatübergreifenden Produktivität tritt erschwerend hinzu, dass eine mehrgipflige, (L+1)-dimensionale Zielfunktion betrachtet wird, für die Extremwertanalysen ggü. Funktionen des ℜ 2 anspruchsvollerer Methodik bedürfen.52 Die abstrakte und einfache Formulierung der Grunddefinition der Produktivität (1) verbirgt insofern, dass – bei ihrer Konkretisierung als realgüterwirtschaftliche Größe im Sinne der Definition (4) – für den Kontext der Planung und Entscheidungsfindung komplexe Kalküle resultieren. Dies ist besonders aus praktischer Perspektive gravierend, da dort – außerhalb der vereinfachenden Annahmen, die der Produktionsfunktion vom Typ B zugrunde liegen – deutlich mehr mittelbare und unmittelbare Einflussfaktoren auf die Höhe der Produktivität existieren,53 deren Wirkungsrichtung und -intensität sowie Interdependenzen untereinander für eine solide, produktivitäts-orientierte Planung und Entscheidungsfindung zu berücksichtigen sind. Der Wechsel von einer retrospektiven, statistischen Berechnung hin zu einer prospektiven, analytischen Gestaltung der Produktivität ist daher mit einer ungleich höheren Herausforderung verbunden. Zu ihrer Bewältigung sind zukünftige Forschungsarbeiten notwendig, sofern die Produktivität nicht ausweichend als monetäre Größe – folgend als monetarisierte Produktivität bezeichnet – konzipiert werden soll. 54 Damit verbundene Konsequenzen werden im folgenden Kapitel analysiert. 4 Analyse des Effekts einer Monetarisierung der Produktivität Aufgrund der Vermengung leistungswirtschaftlicher und monetärer Einflussfaktoren steht die monetarisierte ggü. der realgüterwirtschaftlichen Produktivität in engerem Bezug zum finanziellen Erfolg der Unternehmung, an dem sich unternehmerische Entscheidungen 51 Siehe hierzu den Verlauf der Zielfunktion für den Minimum- bzw. Maximum-Operator, der in Abbildung 2 (II) gezeigt ist. 52 Für eine entsprechende Einführung vgl. z.B. Sydsæter et al. (2008), S. 103 ff. 53 Vgl. etwa den umfangreichen Überblick bei Nebl (2007), S. 27 ff. (jedoch in Bezug auf die monetarisierte Produktivität). Eine abschließende Quantifizierung von Ursache-Wirkungs-Beziehungen sowie von Interdependenzen zwischen den Einflussfaktoren bleibt – vermutlich fehlenden Wissens über die formalen Zusammenhänge geschuldet – aus. 54 Prengel (2007), S. 55 ff. und Dikow (2006), S. 160 ff. greifen zur Berechnung der Produktivität auf Daten des betrieblichen Rechnungswesen zurück. Die Produktivität lässt sich ex ante insofern durch Einsetzen geplanter Werte aus z.B. der Kosten- und Leistungsrechnung einfach bestimmen. 338 Marion Steven, René Blank letztlich orientieren. Diesem grundsätzlichen Vorteil55 wurden in Abschnitt 2.1 bereits die Nachteile einer Monetarisierung der Produktivität in allgemeiner Form gegenübergestellt. Aufbauend auf den Ergebnissen des dritten Kapitels ist es nun möglich, den Effekt einer Monetarisierung der Produktivität in analytischer Form zu bestimmen. Seine Analyse unter verschiedenen Annahmen bezüglich des Zusammenhangs zwischen Preis und Realgütermenge ist Gegenstand der Abschnitte 4.1 und 4.2. Daran anknüpfend wird in Abschnitt 4.3 untersucht, welche Konsequenzen eine Orientierung unternehmerischer Entscheidungen am finanziellen Erfolg der Unternehmung für den Aspekt der Ressourcenschonung – der mit der realgüterwirtschaftlichen Produktivität zum Ausdruck kommt – hat. 4.1 Mengen-unabhängige Beschaffungs- und Absatzpreise Zunächst sei unterstellt, dass der Absatzpreis y des Produkts und die Beschaffungspreise qk der einzelnen Verbrauchsfaktoren unabhängig von der abgesetzten bzw. beschafften Realgütermenge sind. Eine Bewertung der Realgütermengen auf Ebene der partiellen Faktorproduktivität führt dann bspw. in der aggregatbezogenen Betrachtung zu: (18) Ȧkl (v l ) = y ⋅ x(ml , t l , v l ) y = ⋅ ρ kl (v l ) , (k = 1, ..., K ; l = 1, ..., L ) . q k ⋅ rkl (ml , t l , v l ) q k Die rein auf der Mengenebene definierte partielle Faktorproduktivität des Verbrauchsfaktors k unterscheidet sich von ihrem wertmäßigen Pendant Ȧkl (vl) ausschließlich durch eine multiplikative Konstante, die das Verhältnis des Absatzpreises zum Beschaffungspreis des betrachteten Verbrauchsfaktors beschreibt. Diese Konstante ist für Unternehmungen, die mit ihrem Produkt Gewinn erwirtschaften (d.h. im 'Normalfall'), größer eins.56 Damit gilt: (19) Ȧ kl (v l ) > ρ kl (v l ) , (k = 1, ..., K ; l = 1, ..., L ) . Sofern auf Ebene der monetarisierten und realgüterwirtschaftlichen partiellen Faktorproduktivitäten eine identische Verdichtungsvorschrift zur Bestimmung der (monetarisierten) Produktivität verwendet wird, resultiert eine Bewertung der Realgütermengen mit ihren Preisen also in einer größeren Maßzahl. Diese Überschätzung der Beurteilungsgrundlage dafür, wie rationell eine Produktionseinheit ihre Fähigkeit zur Produktion ausübt, ist auch inhaltlich begründbar: Im Fall der Monetarisierung der Produktivität fließt neben dem leistungswirtschaftlichen Erfolg der Unternehmung auch ihr finanzieller Erfolg (der im 'Normalfall' existiert) in die Beurteilung ein. Isoliert betrachtet ist diese Überschätzung unerheblich, falls die monetarisierten Produktivitäten einer bestimmten Produktionseinheit verschiedener Zeitpunkte miteinander verglichen werden und dabei Änderungen in der Preisstruktur durch Verwendung von Festpreisen ausgeblendet werden. In diesem Fall sind Produktivitätsänderungen allein auf einen geänderten leistungswirtschaftlichen Erfolg zurückzuführen. Für inter- oder intrabetrieb55 Eine derart gelagerte positive Würdigung findet sich bei Dikow (2006), S. 20. 56 Regelmäßig deutlich größer eins, da lediglich ein Verbrauchsfaktor unter vielen betrachtet wird. Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion 339 liche Vergleiche gilt dies indes nur, falls die Preisstruktur für die zu vergleichenden Produktionseinheiten identisch ist,57 d.h. die multiplikativen Konstanten des Systems (18) für alle Produktionseinheiten gleich sind. Die Vermengung der beiden Erfolgsebenen kann neben einer Überschätzung der Beurteilungsgrundlage jedoch auch Einfluss auf unternehmerische Entscheidungen nehmen. Wird bspw. die Zielfunktion des Maximierungsproblems (8) substituiert durch & (20) max ȇlȦ (vl ) = f ȇ (ωl (vl )) , Ȧ l & mit ω l (v l ) = (ω1l (v l ), ..., ω Kl (v l )) , so findet c.p. gegenüber der Verwendung der ursprünglichen Zielfunktion eine stärkere Orientierung der optimalen Intensität an geringwertigen Verbrauchsfaktoren statt: Je niedriger der Beschaffungspreis eines Verbrauchsfaktors ist, desto größer ist die multiplikative Konstante, in der sich Ȧkl (vl) und ȡkl (vl) gemäß Definition (18) voneinander unterscheiden. Da jedoch Preise (auch) die Knappheit eines Gutes widerspiegeln, 58 erscheint es nicht plausibel, die Beurteilung einer Gütererzeugung hinsichtlich ihrer Ressourcenschonung an weniger knappen Gütern zu orientieren. Insgesamt zeigen sich bereits für den einfachsten Fall des kausalen Zusammenhangs zwischen Preis und Menge starke Mängel einer Monetarisierung der Produktivität. 4.2 Rabattstaffelungen und Preis-Absatz-Funktionen Sind die Preise der Verbrauchsfaktoren bzw. Produkte abhängig von der beschafften bzw. abgesetzten Menge, so soll für die korrekte Bewertung der Produktions- und Einsatzmengen mit diesen Preisen vereinfachend59 unterstellt werden, dass sich innerhalb des Betrachtungszeitraums die erzeugte und abgesetzte sowie eingesetzte und beschaffte Menge entsprechen. Andernfalls stünden Preis und Menge in keinem vollständigen kausalen Zusammenhang zueinander.60 Angenommen, ab dem Bezug von Rk Mengeneinheiten des Verbrauchsfaktors k lässt sich ein prozentualer Preisabschlag δ k für sämtliche beschafften Mengeneinheiten realisieren, d.h. & & & für 0 ≤ rk (m, t , v ) < R k & & & °q k (21) q k (m, t , v ) = ® & & & rk (m, t , v ) ≥ R k °̄q k ⋅ (1 − δ k ) für 57 In allgemeiner Form erkennt dieses Problem bereits Kneip (2007), S. 4. 58 Dies gilt jedoch eingeschränkt nur für individuell nutzbare Güter. So etwa Bellmann (1996), S. 131. 59 Der kompliziertere Weg führt über eine Bewertung der Bestandsveränderungen. Gemäß Bredt (1952), S. 174 erfordert dieser eine Separation der Produktivität für den Bereich der Produktion und des Absatzes. Letztere fällt jedoch nicht unter das im vorliegenden Beitrag vertretene Produktivitätsverständnis. 60 Im Folgenden wird daher keine unterschiedliche Notation für erzeugte bzw. abgesetzte oder eingesetzte bzw. beschaffte Realgütermengen verwendet. 340 Marion Steven, René Blank und der Absatzpreis y (x) sei eine allgemeine Funktion der abgesetzten Menge. Dann führt eine Bewertung der Realgütermengen auf Ebene der partiellen Faktorproduktivität in Anlehnung an Definition (18) zu: & & & y (x ) für 0 ≤ rk (m, t , v ) < R k ° & & & ° q (22) ω kl (m, t , v ) = ρ kl (v l ) = ® k & & & y (x ) ° rk (m, t , v ) ≥ R k . für ( ) ¯° q k ⋅ 1 − δ k Die Kritikpunkte aus dem vorausgegangenen Abschnitt – Überschätzung des Beurteilungskriteriums und Übergewichtung geringwertiger Verbrauchsfaktoren – lassen sich auch für diesen komplexeren Zusammenhang zwischen Preisen und Mengen feststellen. Die Höhe der jeweiligen Effekte ist jedoch abhängig von den konkreten Funktionen auf Seite des Absatzes bzw. der Beschaffung. Für eine lineare Preis-Absatz-Funktion zeigt Abbildung 3 den Unterschied zwischen partieller Faktorproduktivität und ihrem monetarisierten Pendant: θ k6 l v l ; π k6 l m Ϛ , Ϛt , Ϛ v θ k6 l v l π k6 l m Ϛ , Ϛt ,Ϛv zeitliche Anpassung Abbildung 3: r k6 l ml , t l , v l Rk intensitätsmäßiger Anpassung (Monetarisierte) partielle Faktorproduktivität eines Verbrauchsfaktors Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion 341 Obwohl es bei der zeitlichen Anpassung lediglich zu einer Ausdehnung der Produktion kommt, ohne dass sich die Relationen zwischen den Einsatzmengen der Verbrauchsfaktoren oder die Relationen zwischen Produktionsmenge und einzelnen Einsatzmengen ändern, ist die monetarisierte partielle Faktorproduktivität in diesem Bereich aufgrund der Interdependenz zwischen Absatzpreis und -menge nicht konstant. Die Einbeziehung derartiger Mikrostrukturen in die Analyse erlaubt somit die Identifikation eines weiteren Mangels einer Monetarisierung der Produktivität: Funktionale Zusammenhänge, die zwar nicht die Ebene des leistungswirtschaftlichen Erfolgs, jedoch des finanziellen Erfolgs der Unternehmung betreffen, führen zu einer verzerrten Beurteilung der Produktionseinheit im Sinne der Produktivität – ähnlich der Vermengung beider Erfolgsebenen im Zeitverlauf, wobei keine konstanten Preise eines bestimmten Basisjahres zur Bewertung der Realgütermengen verwendet werden. Hinzu kommt, dass die aggregatbezogene monetarisierte partielle Faktorproduktivität (22) aufgrund der Rabattstaffelung abhängig ist von der Fahrweise sämtlicher Aggregate der Unternehmung. Selbst bei unveränderter Fahrweise des betrachteten Aggregats l und Konstanz der zu bearbeitenden Produktionsmenge kann sich daher seine monetarisierte Produktivität ändern. Dies ist der Fall, falls durch einen Mehrverbrauch an anderen Aggregaten – d.h. einer dortigen Verschlechterung (!) der entsprechenden partiellen Faktorproduktivität – die Schwelle Rk im Rahmen der Beschaffung überschritten werden muss, der Rabatt realisiert werden kann und die Sprungstelle der monetarisierten partiellen Faktorproduktivität erreicht wird. Insgesamt lassen sich im Rahmen einer Verallgemeinerung der Annahmen des vorherigen Abschnitts weitere Mängel einer Monetarisierung der Produktivität feststellen. Ihr Aussagehalt ist somit als beschränkt einzustufen, da durch die Vermengung leistungswirtschaftlicher und finanzieller Erfolgskomponenten die Intention der Produktivität konterkariert wird: Die Vorbereitung eines Urteils darüber, wie rationell eine Produktionseinheit ihre Fähigkeit zur Produktion ausübt, wird getrübt durch Einflüsse, die den Bereich der Beschaffung und des Absatzes einer Unternehmung betreffen. Diese sind z.T. zudem exogen, d.h. nicht durch Mitarbeiter der Unternehmung beeinflussbar. 4.3 Konsequenzen einer Orientierung an monetären Größen für die Ressourcenschonung In der Marktwirtschaft orientieren sich unternehmerische Entscheidungen letztlich am finanziellen Erfolg der Unternehmung.61 Zwar sind die Entwicklungen des Unternehmensgewinns und der Produktivität c.p. positiv korreliert, da nach einer Produktivitätsverbesserung ein bestimmter Output mit geringerem Input erzeugt werden kann und somit die variablen Kosten der Produktion sinken.62 Die vorstehenden Überlegungen haben jedoch bereits gezeigt, dass es ggü. der optimalen Lösung eines produktivitäts-orientierten Kalküls zu Abweichungen kommen kann, sofern zusätzlich Preisinformationen für die Entscheidungsfindung berücksichtigt werden. So kann sich die optimale Lösung des Maximierungsprob61 Vgl. statt vieler Dellmann/Pedell (1994), S. 1 u. S. 3; ähnlich Bellmann (1996), S. 135. 62 Vgl. Steven (2007), S. 534. 342 Marion Steven, René Blank lems (8) von denen unterscheiden, die bei Substitution der Zielfunktion durch (20) oder durch die Minimierung der entscheidungsabhängigen Kosten C l (m l , t l , v l ) K (23) min C l (m l , t l , v l ) = ¦ rkl (m l , t l , v l ) ⋅ q k + m l ⋅ c l k =1 resultieren. Dabei beschreibt cl die sprungfixen Kosten, die für die Zuschaltung einer Anlage des Aggregats l anfallen.63 Fällt die Entscheidung bezüglich der Fahrweise eines Aggregats mit einer Orientierung an der Zielfunktion (23), so lässt sich das nicht ausgeschöpfte Potential zur Produktivitätssteigerung ǻȇl für den betrachteten situativen Kontext analytisch angeben als Differenz zwischen der optimalen Lösung des Maximierungsproblems (8) Ρl* und der aggregatbezogenen Produktivität ΡlCl ($ ) , die bei Realisation der optimalen Lösung zur Zielfunktion (23) resultiert: (24) ǻȇl = ȇl* − ȇlCl ($ ) . Ein bloßer Appell an die Unternehmung, zum Zwecke des Umweltschutzes der produktivitäts-orientierten Lösung Ρl* Vorrang ggü. der kosten-orientierten Lösung ΡlCl ($ ) zu gewähren, würde eine Änderung des unternehmerischen Zielsystems verlangen. Gemeint ist damit nicht einmal die Ausübung unternehmerischer Verantwortung in Bezug auf die Nutzung natürlicher Ressourcen im Sinne einer Einschränkung der Produktionsmöglichkeiten durch (teilweisen) Verzicht auf ihre Ausbeutung. 64 Eine Orientierung an der Produktivität als prioritärem Ziel verlangt weniger: Die optimale Nutzung von (natürlichen) Ressourcen, gegebenenfalls unter Inkaufnahme von Gewinneinbußen gegenüber dem status quo. Sofern die Bereitschaft dazu nicht existiert und das Ziel der Ressourcenschonung dennoch (latent) in das unternehmerische Zielsystem integriert werden soll, müssen exogen – d.h. auf Ebene der Politik – generierte Anreize zur Ausschöpfung des Produktivitätssteigerungspotentials finanzielle Konsequenzen haben. Weizsäcker/Hargroves/Smith schlagen in diesem Kontext eine langfristig angelegte ökologische Steuerreform vor, nach der Preise für Produktionsfaktoren etwa in dem Umfang anzuheben sind, wie im Branchen- oder Landesdurchschnitt (partielle) Produktivitätssteigerungen festgestellt werden. Jede Nicht-Ausschöpfung eines vorhandenen Produktivitätssteigerungspotentials geht damit (unmittelbar) zu Lasten des finanziellen Unternehmungserfolgs.65 Politische Instrumente dieser Art mögen in ihrer Auswirkung drastisch sein, mit ihnen gelingt jedoch über einen Umweg die Priorisierung der Ressourcenschonung im Rahmen unternehmerischer Entscheidungen. Damit einhergehend gewinnen produktivitätsorientierte Entscheidungskalküle an Bedeutung. Ein kritisches Moment stellt in diesem Zusammenhang die formale Definition der Produktivität dar, die von Unternehmen ledig63 Zur Vereinfachung der Zielfunktion wird von Überstundenzuschlägen abstrahiert. Vgl. hierzu bspw. Steven (1998), S. 137 f. 64 Vgl. in ethischer Perspektive so Wagner (1990), S. 301 f. 65 Vgl. Weizsäcker/Hargroves/Smith (2010), S. 312 ff. Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion 343 lich als Zielwert adaptiert wird und unternehmerische Entscheidungen maßgeblich beeinflusst. In diesem Kapitel sind mit Rückgriff auf eine (produktions-)theoretische Fundierung die Vorteile einer realgüterwirtschaftlichen ggü. einer monetarisierten Produktivität verdeutlicht worden. Wie die Überlegungen in Kapitel 2 und 3 gezeigt haben, existieren für diese Ausrichtung jedoch noch zahlreiche Möglichkeiten zur Konkretisierung, deren theoretisch fundierte Evaluation zukünftigen Forschungsarbeiten überlassen bleibt. 5 Zusammenfassung und Ausblick Produktivitätsverbesserungen sind zweckdienlich zur Entschärfung des globalen Verzehrs von (knappen) Ressourcen. Eine enge Orientierung an der Grunddefinition der Produktivität (1) erlaubt es jedoch nur, ex post statistische Aussagen über eine Veränderung der Produktivität zu treffen. Zur Einbindung in die quantitativ-orientierte betriebliche Planung und Entscheidungsfindung fehlt ihre Einbettung in Ursache-Wirkungs-Gefüge. Die zum Gegenstand des Beitrags erhobene Explikation der formalen Darstellung der Produktivität durch Rückgriff auf produktionstheoretische Konzepte erlaubt diesbezüglich Abhilfe und führt die wissenschaftliche Durchdringung der „Produktivität [als] Grundphänomen der betriebswirtschaftlichen Analyse des Produktionsprozesses“ 66 in analytischer Perspektive fort. Als Grundlage hierfür dient eine realgüterwirtschaftliche Definition der Produktivität, die sich als Verdichtung partieller Faktorproduktivitäten zu einer einzelnen reellen Zahl darstellt. Der verfolgte Forschungsansatz erlaubt zum einen die durch Theorie gestützte Identifikation von Einflussfaktoren (Handlungsalternativen und Zustände) fernab der originär betrachteten Produktions- und Faktoreinsatzmengen und die Feststellung von Interdependenzen im Ursache-Wirkungs-Gefüge, von denen die Höhe der Produktivität abhängt. Im Denkrahmen der Produktionstheorie von Gutenberg sind dies die intensitätsmäßige Anpassung als aktiv zu beeinflussende Steuergröße und die Verlaufsformen der einzelnen partiellen Faktorproduktivitäten sowie ihre Verdichtungsvorschrift als Determinanten. Es wird gezeigt, dass die Konzentration auf einen rationellen Einsatz von Verbrauchsfaktoren, die lediglich indirekt in das Produkt einfließen, ausreichend für eine Verbesserung der aggregatbezogenen bzw. -übergreifenden Produktivität ist, da die Einsatzmengen der übrigen Verbrauchsfaktoren in einem kurzfristig determinierten Verhältnis zur Produktionsmenge stehen. Interdependenzen zeigen sich in Form gegenläufiger Werte partieller Faktorproduktivitäten von Verbrauchsfaktoren bei Variation der Intensität eines Aggregats. Durch die Verknüpfung von Produktivität und Produktionstheorie gelingt im Modellrahmen die eindeutige Quantifizierung ihrer Abhängigkeit von der Wahl einer bestimmten Handlungsalternative. Unter den Prämissen der betrachteten Produktionstheorie können so Handlungsempfehlungen für die betriebliche Entscheidungsfindung eruiert werden, die eine Maximierung der Produktivität (zum Zwecke der Ressourcenschonung) zum Ziel hat. Dabei zeigt sich jedoch, dass entsprechende Kalküle zur Entscheidungsunterstützung bereits unter den vereinfachenden Annahmen, die der Produktionsfunktion vom Typ B zugrunde liegen, einen hohen Komplexitätsgrad erreichen. Für praktische Zwecke, für die ggü. einer theoretischen Abstraktion wesentlich mehr Einflussfaktoren und ihre Interdependenzen zu be66 Gutenberg (1983), S. 9. 344 Marion Steven, René Blank rücksichtigen sind, fehlt es insofern an (alternativen) Kalkülen zur Planung und Optimierung der Produktivität unter Berücksichtigung wesentlicher Einflussfaktoren. Mit Hilfe des verfolgten Forschungsansatzes können zum anderen unterschiedliche Formulierungen der Produktivität hinsichtlich ihrer Eignung evaluiert werden, inwiefern mit ihnen festzustellen ist, wie rationell eine Produktionseinheit ihre Fähigkeit zur Produktion ausübt. Unter Rückgriff auf das hergeleitete formale Instrumentarium zeigt sich, dass durch eine Monetarisierung der Produktivität ihre Intention konterkariert wird: Der Einfluss finanzieller Erfolgskomponenten bewirkt, dass die Höhe der Produktivität im 'Normalfall' überschätzt wird, hierauf geringwertige Verbrauchsfaktoren (und damit tendenziell weniger knappe Ressourcen) einen zu stark gewichteten Einfluss ausüben und Änderungen ihrer Höhe selbst dann festgestellt werden können, wenn es lediglich zu einer Ausdehnung der Produktion kommt und die Mengenverhältnisse zwischen einzelnen Realgütern keine Veränderung erfahren. Infolgedessen ist aus theoretischer Perspektive Produktivitätskennzahlen, für die eine Bewertung der Realgütermengen zum Zwecke der Aggregation inkommensurabler Größen erfolgt, nur ein stark eingeschränkter Aussagehalt zu attestieren. Die im Rahmen des Beitrags fokussierte realgüterwirtschaftliche Definition der Produktivität weist diese aufgezeigten Mängel nicht auf. Sie wird für einen ersten Zugang jedoch bewusst abstrakt gehalten, sodass eine analoge Evaluation der Eignung verschiedener Konkretisierungen noch aussteht. Als grundlegendes Problem stellt sich dabei heraus, dass für die Definition partieller Faktorproduktivitäten – auf denen die Produktivität beruht – das klassische Verständnis von Produktionsfaktoren als zu minimierenden und Produkten als zu maximierenden Realgütern zugrunde gelegt wird, da ihr Wert ansonsten nicht sinnvoll interpretierbar ist. Recyclate, denen eine wichtige Rolle im Kontext des Umweltschutzes und speziell der Ressourcenschonung zugeschrieben wird,67 können als zu maximierende Produktionsfaktoren insofern nicht für die Berechnung der Produktivität berücksichtigt werden.68 Eine entsprechende Erweiterung des Produktivitätsverständnisses ist damit ebenso notwendig wie eine intensiv geführte Diskussion um die konkrete Formulierung der Produktivität als Kennzahl, d.h. die Evaluierung unterschiedlicher Verdichtungsvorschriften bezüglich (zu modifizierender) partieller Faktorproduktivitäten. Als Fundament bietet sich hierzu die Ausweitung der Analyse auf die Inkorporation weiterer (Produktions)Theorien an. Derartige Forschungsbemühungen bleiben jedoch zweckfrei, sofern produktivitäts-orientierten Entscheidungen in praxi geringe Bedeutung zukommt. Zur Legitimation der aufgezeigten Forschungsaufgaben sind daher parallel wirtschaftspolitische Instrumentarien zu entwickeln und praktisch durchzusetzen, die eine Priorisierung derartiger Entscheidungen fördern. Die Produktivität ist somit an der Schnittstelle von Produktionswirtschaft, Umweltmanagement und Wirtschaftspolitik verortet. Der skizzierte ausstehende Forschungsbedarf zeigt, dass ihre wissenschaftliche Durchdringung noch nicht abgeschlossen ist und motiviert den Jubilar vielleicht zu einer Teilnahme an seiner Bewältigung. 67 Vgl. nur Weizsäcker/Hargroves/Smith (2010), S. 54 ff. 68 Vgl. in einem erweiterten Kontext Dyckhoff/Allen (1999), S. 433. Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion 345 Literatur Albach, H.: Die Betriebswirtschaftslehre: Eine Wissenschaft, in: Albach, H. (Hrsg.), Zur Theorie der Unternehmung – Schriften und Reden von Erich Gutenberg; Aus dem Nachlass, Springer-Verlag, Berlin et al., 1989, S. 213–266. Bellmann, K.: Grundlagen der Produktionswirtschaft, Fachbuch Verlag Winkler, Edingen, 3. Auflage, 2003. Bellmann, K.: Ökologieorientierte Gestaltung industrieller Potentiale und Prozesse, in: Krallmann, H. (Hrsg.), Herausforderung Umweltmanagement – Zur Harmonisierung des Spannungsfeldes zwischen Ökonomie und Ökologie, Duncker & Humblot, Berlin, 1996, S. 129–152. Bleischwitz, R.: Ressourcenproduktivität – Innovationen für Umwelt und Beschäftigung, Springer-Verlag, Berlin et al., 1998. Bohr, K.: Wirtschaftlichkeit, in: Chmielewicz, K. / Schweitzer, M. (Hrsg.), Handwörterbuch des Rechnungswesens, Schäffer-Poeschel Verlag, Stuttgart, 3. Auflage, 1993, Sp. 2182–2188. Bredt, O.: Produktivität – Inhalt und Sinn des Begriffes, Beurteilungsmaßstab und wirtschaftliche Bedeutung, in: Rationalisierung 3, 1952, S. 173–178. Charnes, A. / Cooper, W. W. / Rhodes, E.: Measuring the efficiency of decision making units, in: European Journal of Operational Research 2, 1978, S. 429–444. Corsten, H.: Produktivität, in: Woll, A. (Hrsg.), Wirtschaftslexikon, Oldenbourg Wissenschaftsverlag, München, 10. Auflage, 2008, S. 631–632. Danø, S.: A Note on Factor Substitution in Industrial Production Processes, in: Unternehmensforschung 9, 1965, S. 164–168. Dellmann, K. / Pedell, K. L. (Hrsg.): Controlling von Produktivität, Wirtschaftlichkeit und Ergebnis, Schäffer-Poeschel Verlag, Stuttgart, 1994. Dikow, A.: Messung und Bewertung der Unternehmensproduktivität in mittelständischen Industrieunternehmen – Theoretische Grundlagen und praktische Anwendungen, Shaker Verlag, Aachen, 2006. Dinkelbach, W. / Rosenberg, O.: Erfolgs- und umweltorientierte Produktionstheorie, Springer-Verlag, Berlin et al., 5. Auflage, 2004. Dyckhoff, H.: Kompensation bei Entscheidungskriterien – Risiko-, Ziel-, Egalitäts-, Zeit- und andere Präferenzen, in: OR Spektrum 7, 1985, S. 195–207. Dyckhoff, H. / Allen, K.: Theoretische Begründung einer Effizienzanalyse mittels Data Envelopment Analysis (DEA), in: Zeitschrift für betriebswirtschaftliche Forschung 51, 1999, S. 411–436. Dyckhoff, H. / Müser, M. / Renner, T.: Ansätze einer Produktionstheorie des Serienanlaufs, in: Zeitschrift für Betriebswirtschaft 82, 2012, S. 1427–1456. Egbers, A.: Produktivität logistischer Dienstleistungen – Entwicklung und Anwendung mehrstufiger DEAVerfahren, Verlag Dr. Kovaþ, Hamburg, 2012. Fandel, G.: Produktions- und Kostentheorie, Springer, Berlin / Heidelberg, 8. Auflage, 2010. Fricke, R.: Die Grundlagen der Produktivitätstheorie, Vittorio Klostermann, Frankfurt a. M., 1961. Gutenberg, E.: Die Theorie der Unternehmung, in: Albach, H. (Hrsg.), Zur Theorie der Unternehmung – Schriften und Reden von Erich Gutenberg; Aus dem Nachlass, Springer-Verlag, Berlin et al., 1989, S. 119–210. Gutenberg, E.: Einführung in die Betriebswirtschaftslehre, Gabler, Wiesbaden, 1987. Gutenberg, E.: Grundlagen der Betriebswirtschaftslehre – Erster Band: Die Produktion, Springer-Verlag, Berlin / Heidelberg / New York, 24. Auflage, 1983. 346 Marion Steven, René Blank Hoth, H. M.: Beitrag zur Klärung des Produktivitätsbegriffes und zur Produktivitätsmessung im Industriebetrieb, Zentral-Verlag für Dissertationen Triltsch, Düsseldorf, 1956. Jung, H.: Allgemeine Betriebswirtschaftslehre, Oldenbourg Verlag, München / Wien, 10. Auflage, 2006. Kistner, K.-P.: Produktions- und Kostentheorie, Physica-Verlag, Heidelberg, 2. Auflage, 1993. Kistner, K.-P. / Sonntag, S.: Ansätze einer Theorie der Gutenberg-Produktionsfunktion, in: Zeitschrift für Betriebswirtschaft 63, 1993, S. 1297–1329. Kloock, J: Produktion, in: Bitz, M. / Dellmann, K. / Domsch, M. / Wagner, F. W. (Hrsg.), Vahlens Kompendium der Betriebswirtschaftslehre (Band 1), Verlag Franz Vahlen, München, 4. Auflage, 1998, S. 275–328. Kneip, T.: Produktivität und Performance Measurement – Messung der gesamtbetrieblichen Produktivitätsentwicklung und Aufbau eines wertschöpfungsorientierten Performance-Measurement-Systems, WiKuVerlag, Duisburg / Köln, 2007. Knolmayer, G.: Der Einfluß von Anpassungsmöglichkeiten auf die Isoquanten in GutenbergProduktionsmodellen, in: Zeitschrift für Betriebswirtschaft 53, 1983, S. 1122–1147. Krelle, W.: Produktionstheorie – Teil I der Preistheorie, J. C. B. Mohr (Paul Siebeck), Tübingen, 2. Auflage, 1969. Küpper, H.-U.: Interdependenzen zwischen Produktionstheorie und der Organisation des Produktionsprozesses, Duncker & Humblot, Berlin, 1980. Laßmann, G.: Produktivität, in: Grochla, E. / Wittmann, W. (Hrsg.), Handwörterbuch der Betriebswirtschaft (Band 2), Poeschel Verlag, Stuttgart, 4. Auflage, 1975, Sp. 3164–3169. Menrad, S.: Der Kostenbegriff – Eine Untersuchung über den Gegenstand der Kostenrechnung, Duncker & Humblot, Berlin, 1965. Nebl, T.: Produktionswirtschaft, Oldenbourg Verlag, München / Wien, 6. Auflage, 2007. Prengel, A.: Analyse und Systematisierung von Interdependenzen der betrieblichen Ergiebigkeitsgrößen, Shaker Verlag, Aachen, 2007. Randers, J.: 2052 – Der neue Bericht an den Club of Rome; Eine globale Prognose für die nächsten 40 Jahre, Oekom Verlag, München, 2012. Reuss, G. E.: Produktivitätsanalyse – Ökonomische Grundlagen und statistische Methodik, Kyklos-Verlag (J. C. B. Mohr (Paul Siebeck)), Basel (Tübingen), 1960. Sombart, W.: Produktivität, in: Weltwirtschaftliches Archiv 28, 1928, Heft 2, S. 1–32. Stern, N.: The Economics of Climate Change – The Stern Review, Cambridge University Press, Cambridge et al., 2007. Steven, M.: Handbuch Produktion: Theorie – Management – Logistik – Controlling, Kohlhammer, Stuttgart, 2007. Steven, M.: Produktionstheorie, Gabler, Wiesbaden, 1998. Steven, M.: Die Einbeziehung des Umweltfaktors in die Gutenberg-Produktionsfunktion, in: Zeitschrift für Betriebswirtschaft 64, 1994, S. 1491–1512. Steven, M. / Zapp, S.: Warum Gutenberg keine Effizienz benötigt, in: Wirtschaftswissenschaftliches Studium 38, 2009, Heft 2, S. 62–67. Sydsæter, K. / Hammond, P. / Seierstad, A. / Strøm, A.: Further Mathematics for Economic Analysis, FT Prentice Hall, Harlow et al., 2. Auflage, 2008. Wagner, G. R.: „Unternehmensethik“ im Lichte der ökologischen Herausforderungen, in: Czap, H. (Hrsg.), Unternehmensstrategien im sozio-ökonomischen Wandel, Duncker & Humblot, Berlin, 1990, S. 295–316. Weizsäcker, E. U. von / Hargroves, K. / Smith, M.: Faktor Fünf – Die Formel für nachhaltiges Wachstum, Droemer Verlag, München, 2010. Nutzung von verborgenen Unternehmensressourcen in Krisensituationen Horst Wildemann Krisensituationen in der Wirtschaft Deutschland weist hinter Frankreich, das für fast jede dritte Unternehmensinsolvenz Europas verantwortlich ist (30,1 %), den zweithöchsten Anteil an Unternehmenszusammenbrüchen in Europa aus. Etwa ein Fünftel (18,5 %) aller Insolvenzen Westeuropas betrafen im Jahr 2009 deutsche Unternehmen. Skandinavische Länder (Dänemark, Finnland, Norwegen und Schweden) sind für etwa ein Achtel der Unternehmensinsolvenzen verantwortlich (11,7 %). Den Beneluxstaaten (11,1 %) und Großbritannien (11,0 %) sind jeweils ein Neuntel der insolventen Unternehmen zuzuordnen (vgl. Creditreform e.V. 2011). In der nachfolgenden Abbildung 1 wird die Entwicklung und Verteilung von Unternehmensinsolvenzen in Deutschland aufgezeigt. Dabei ist zusätzlich zu erkennen, dass vor allem Unternehmen mit einer Mitarbeiterzahl von unter 100 Beschäftigten insolvenzgefährdend sind. 34.000 32.687 32.000 30.000 29.160 31.998 101 und mehr Mitarbeiter 1% 29.291 Unbekannt 17% 28.000 26.000 2.000 83% 0 2007 2008 2009 2010 Anzahl der Unternehmensinsolvenzen in Deutschland Abbildung 1: Weniger als 100 Mitarbeiter Entwicklung & Verteilung der Unternehmensinsolvenzen Quelle: Statistisches Bundesamt (2011); Institut für Mittelstandsforschung Bonn (2011) W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_25, © Springer Fachmedien Wiesbaden 2013 348 Horst Wildemann Im Jahr 2011 haben 30.099 deutsche Unternehmen Insolvenz angemeldet (vgl. Statistisches Bundesamt 2012). Einigen Unternehmen gelingt die Umkehr ihrer negativen Entwicklung in eine langfristig stabile Marktposition durch gezielte strategische und operative Eingriffe. Notwendige Kredite für Investitionen und Restrukturierung werden jedoch oftmals nur unter verschärften Bedingungen verlängert oder gewährt. Die Basel-II Regelung hat besonders die Situation der kleinen und mittleren Unternehmen (KMUs) hinsichtlich Vergabeentscheidung und Zinshöhe negativ beeinflusst. Der zunehmende Druck durch die Kapitalmärkte zwingt Unternehmen zielgerichteter zu agieren. (vgl. Kraus 2005, 17) Auch gerade weil Unternehmen stets bedeutenden Wettbewerbsveränderungen unterzogen werden, haben diese sich im Wettbewerb mit verschiedenen Maßnahmen zu positionieren. (vgl. Bellmann; Gerster 2006, 53f) Da KMUs als verlängerte Werkbank für Großunternehmen fungieren, unterliegen diese bereits außerhalb einer Krisenphase dem Zwang der Leistungssteigerung, um dem ständig steigenden Kosten- und Lieferdruck gerecht werden zu können (vgl. Seefelder 2007, S. 1ff.). Gründe für die Insolvenzen sind dabei unterschiedlichster Natur. Dennoch ist die Basis der Unternehmensinsolvenz eine Krisensituation, die in ihrer stärksten Ausprägung für das Unternehmen existenzgefährdend ist (vgl. Krystek et al. 2007, S. 25). Der Ursprung des Begriffs Krise liegt in dem griechischen Wort krísis und bedeutet kämpfen, streiten, scheiden, beurteilen oder entscheiden (vgl. Brunner et al. 1982, S. 6). Das Wort Krise geht demnach immer mit einem Entscheidungsmoment einher, der den bestehenden Status entweder negativ oder positiv verändert (vgl. Krystek 1987, S. 3). Der Begriff für Unternehmenskrisen in der Wirtschaft entstand letztlich im 19. Jahrhundert in Frankreich. Die konjunkturelle Krise wurde damals im französischen Raum mit La crise commerciale bezeichnet. Die volkswirtschaftliche Betrachtung des Krisenbegriffs wurde Mitte des 20. Jahrhunderts konkretisiert (vgl. Brunner et al. 1982, S. 7). Aufgrund unterschiedlicher Auslegungen erfuhr der Ausdruck zahlreiche Interpretationen. Den Anfang machte HÖHN, der eine Unternehmenskrise als eine Situation beschreibt, die den Bestand und das Leben eines Unternehmens nachhaltig gefährdet. Mit dieser Definition gelang ihm eine erste Präzisierung des Begriffs (vgl. Höhn 1974). Sämtliche Definitionen der unterschiedlichsten Autoren haben die Existenzgefährdung als Kernaspekt einer Krise. Für MÜLLER existiert jedoch erst dann eine Krise, wenn der Fortbestand des Unternehmens in Gefahr ist. Somit besteht keine Unternehmenskrise, wenn lediglich vereinzelte Diskrepanzen in der Zielerreichung und Unternehmensentwicklung vorherrschen (vgl. Müller 1986, S. 33). Der Faktor begrenzte Entscheidungszeit und der daraus resultierende Entscheidungsdruck auf fokale Unternehmen hängt vom jeweiligen Unternehmenszustand ab (vgl. Krystek 1987, S. 6). Daher kann die Entscheidungszeit als ein Element der Unternehmenskrise ausgelegt werden. Unter diesen Gesichtspunkten wird den verborgenen Ressourcen im Unternehmen eine Schlüsselrolle bei der Krisenbewältigung beigemessen. Bei verborgenen Ressourcen handelt es sich üblicherweise um Werte, die stets vorhanden sind. Eine einheitliche Verwendung und Definition des Begriffs verborgene Ressourcen existiert weder in der englisch- noch in der deutschsprachigen Literatur. Vielmehr werden dort verschiedene Begriffe weitgehend synonym verwendet, beispielsweise Intangibles, Intangible Assets, Intellectual Capital, Wissenskapital, immaterielle Ressourcen, immaterielle Güter, immaterielle Vermögenswerte oder intellektuelles Kapital (vgl. Horváth; Möller 2004, S. 225). Gemäß der HLEG (European High Level Expert Group on the Intangible Economy) werden verborgene Ressourcen als nicht-materielle Faktoren definiert, die einen Beitrag zur Unternehmensleistung hinsichtlich der Produktion von Gütern oder der Bereitstellung von Nutzung von verborgenen Unternehmensressourcen in Krisensituationen 349 Dienstleistungen, in der Gegenwart oder Zukunft generieren, so dass Unternehmungen oder Individuen, die die Verwendung der Faktoren betreiben, einen Nutzen daraus ziehen (vgl. Eustace; Bianchi 2001, S. 31). Im Gegensatz zu immateriellen Faktoren, weisen materielle Güter eine begrenzte Lebensdauer auf, welche innerhalb dieser Lebenszeit konstant Leistungen abgeben (vgl. Bellmann 1991, S. 100f). Diese Abgrenzung und Definition von verborgenen Ressourcen bietet sich aus drei Gründen an. Erstens hat sie Gültigkeit für alle verborgenen Ressourcen. Zweitens distanziert sie sich von einer negativen Abgrenzung gegenüber materiellen Werten. Und drittens verdeutlicht die Definition die Bedeutung des zukünftigen Nutzens der verborgenen Ressourcen für das Unternehmen. Das Verständnis der verborgenen Ressourcen Bei den verborgenen Ressourcen handelt es sich also um Vermögenswerte, welche aufgrund ihrer immateriellen Beschaffenheit monetär nur schwer erfassbar und bewertbar sind. Kompetente Mitarbeiter, langfristige Kunden- und Lieferantenbeziehungen sowie optimierte Organisationsstrukturen können nicht direkt quantitativ bewertet werden, sind aber unumstrittene Treiber des Unternehmenserfolges. Immaterielle Werte zeichnen sich durch ein hohes Maß an Flexibilität aus und tragen somit zur weiteren Dynamisierung des Wettbewerbs bei. Erstaunliche Unternehmensentwicklungen der letzten Jahre sind ohne die Betrachtung immaterieller Ressourcen oftmals nicht zu erklären (vgl. KPMG AG Wirtschaftsprüfungsgesellschaft 2008, S. 5). Eine Quantifizierung erfolgt meist erst beim Verkauf des Unternehmens. In der Bilanz des kaufenden Unternehmens können sie als ein Teil des derivativen Firmenwertes, auch Goodwill genannt, wiedergefunden werden (vgl. Hinterhuber 2006, S. 6). Abbildung 2 stellt die Nutzungszusammenhänge der internen, verborgenen Ressourcen im Gesamtkonzept visuell dar. 350 Horst Wildemann Ganzheitlichkeit Produkte & Produktprogramm • Bewertung und Optimierung bestehender Produkte • Bewertung und Optimierung des bestehenden Produktprogrammes •… Organisation & Prozesse Problemorientierung- Lizenzen & Patente Ideen & Innovationen • Optimierung • Bewertung der bestehender bestehenden Organiden Lizenzen sation und Patente • Hebung der • Bestimmung in den Prodes Wertes zessen von Ideen in bestehenden der PatentanPotenziale meldung •… •… Transparenz Schnelligkeit Kunden- Lieferantenbeziehung beziehung Nachhaltigkeit Gesellschafter & Kapitalgeber Mitarbeiter & Führung • Bewertung • Ermittlung • Ermittlung des • Bewertung von im Unterdes Wertes Wertes des des vorhannehmen bedes bestehen- bestehenden denen stehenden den KundenLieferantenHumankapiIdeen für zustammes stammes tals kunftsfähige • Bestimmung • Bestimmung • Ableitung des Produkte der Beziehder BeziehMitarbeiter• Bewertung ungsintensität ungsintensität potenzials des bestehen- • … •… •… den Innovationspotenzials •… • Gesellschafterzuschüsse • Mezzaninekapitel • Bankkredite •… Marke • Image • Bekanntheit • … Nachhaltige Unternehmensgestaltung Frühzeitige Krisenprävention Situationsspezifisches Turnaround-Management Abbildung 2: Nutzung von Unternehmensressourcen Quelle: Eigene Darstellung Die Nutzung der verborgenen Unternehmensressourcen zur Ableitung einer nachhaltigen Gestaltung der Unternehmensbereiche in Bezug auf eine frühzeitige und kontinuierliche Krisenprävention basiert auf fünf wesentlichen Leitlinien. Elementar ist die Ganzheitlichkeit der Bereichsgestaltung. Die ganzheitliche Betrachtung des Unternehmens, sowohl der expliziten Unternehmenswerte als auch der verborgenen Unternehmensressourcen ist erforderlich, um ein umfassendes Konzept als Weg aus der Krise zu gestalten. Hierbei sind Lösungsvorschläge für die bestehenden Probleme einzuarbeiten. Transparenz schafft einen grundsätzlichen Überblick über die verborgenen Unternehmensressourcen sowie deren Wert. In einer Unternehmenskrise ist zudem schnelles Handeln erforderlich. Durch situationsspezifische Handlungsempfehlungen wird der Aufwand und damit die Geschwindigkeit der Planung und Umsetzung erhöht. Eine übergreifende Nachhaltigkeit gewährleistet dabei den langfristigen Unternehmensfortbestand. Die spezifischen Merkmale von KMUs hinsichtlich der Organisationsstruktur, der Führungspersönlichkeiten sowie des Marktzugangs können sich sowohl positiv als auch negativ auf den Sanierungsprozess auswirken. Entscheidend ist, dass die Spezifika erkannt und nachhaltig für einen schnellen und erfolgreichen Turnaround genutzt werden. Die Nutzung verborgener Ressourcen bietet sich vor allem für KMUs an, da sie nicht über dieselbe Markt- und Finanzkraft wie Großunternehmen verfügen. Nutzung von verborgenen Unternehmensressourcen in Krisensituationen 351 Die Nutzung von verborgenen Ressourcen Verborgene Ressourcen können einen erheblichen Anteil zur Unternehmenssanierung beitragen. Neben der Weiterentwicklung in der Krise zur Unterstützung der Sanierung, können verborgene Ressourcen auch direkt für den Turnaround des Unternehmens eingesetzt werden. Die Messung und Bewertung verborgenen Vermögens ist in der Literatur ein viel diskutiertes Thema. Hier stellt sich bereits zu Beginn der Sanierung die entscheidende Frage, ob das zu prüfende Unternehmen nachhaltig lebensfähig ist (vgl. Böckenförde 1991, S. 208). In den letzten Jahren gab es viele Publikationen über Ansätze und Methoden, die zur Beschreibung und Bewertung verborgener Ressourcen außerhalb der Bilanz dienten. Diese Beschreibungen unterteilen sich generell in deduktiv/summarische und induktiv/analytische Ansätze. Allgemein lassen sich die deduktiv/summarischen Ansätze als Bezifferungsversuch der Marktwert-Buchwert-Lücke darstellen. Diese Lücke beschreibt die Tatsache, dass sich der Marktwert der meisten Unternehmen vom Buchwert der Finanzhaltung essentiell unterscheidet. Es wird angenommen, dass die Differenz zwischen Markt- und tatsächlichem Buchwert den immateriellen Vermögensgegenständen entspricht. Bekannte Ansätze sind der Market to Book Ratio und Weiterentwicklungen dieses Verfahrens wie z.B. der Tobin’s Q sowie der Calculated Intangible Value (CIV) (vgl. Stewart 1997, S. 225). Deduktiv abgeleitete Faktoren bewerten die Ausgangsgrößen in monetärer Form (vgl. North 2010, S. 188). Dies geschieht auf dem Grundprinzip der freien Marktwirtschaft, dem Angebot und der Nachfrage, und hat zum Vorteil, dass es ein relativ hohes Maß an Objektivität bietet (vgl. Becker; Steiner 2005, S. 24). In marktwertorientierte Verfahren, die auf einer summarischen Bewertung basieren, können verborgene Ressourcen nicht getrennt voneinander bewertet werden (vgl. Picot; Neuburger 2005, S. 80). Induktiv/analytische Ansätze hingegen beschreiben und bewerten verborgene Ressourcen und versuchen dabei, Einfluss auf diese zu nehmen und sie zu verändern. Zu diesen Ansätzen zählen der IC-Index und die Balanced Scorecard. Der Skandia-Navigator, der Intangible-Asset Monitor (Sveiby) und der Intellectual Capital Navigator (Stewart) lassen sich den Wissensbilanzmodellen zuordnen (vgl. Alwert 2005, S. 26). Die meisten dieser Verfahren beschränken sich bei ihrer Bewertung auf nicht-monetäre Faktoren. Quantitative Verfahren beachten mathematisch darstellbare Faktoren. Subjektive Merkmale werden außen vor gelassen. Qualitative Verfahren berücksichtigen auch Kriterien, die sich nur schwer quantifizieren lassen. Indem sie subjektive Daten miteinbeziehen sind sie flexibler auslegbar. Dadurch ist es möglich, auf Grundlage von plausibler Argumentation, Thesen zur sinnvollen Bewertung zu finden (vgl. Janker; Lasch 2004, S. 115; vgl. Koppelmann 2004, S. 262). Die Abbildung 3 bietet einen Überblick über Verfahren zur Bewertung von immateriellen Vermögenswerten, listet einige der in der Literatur genannten Verfahren auf und gliedert sie nach zwei Eigenschaften. Zum einen nach der Fähigkeit des Verfahrens, einen Vermögenswert mittels eines monetären Wertes zu bewerten. Und zum anderen danach, ob einzelne Ressourcen der Unternehmung oder die Unternehmung als Ganzes dargestellt wird. So beschreibt zum Beispiel der Economic Value Added (EVA) Ansatz die immateriellen Vermögenswerte eines Unternehmens im Ganzen und untergliedert sie nicht in einzelne Ressourcen. Außerdem wird beim EVA-Ansatz ein monetärer Wert zur Bewertung der Gesamtheit der verborgenen Ressourcen bestimmt. Der EVA lässt sich vereinfacht berechnen als Geschäftsergebnis nach Steuern abzüglich der Kapitalkosten. Obwohl der EVA als Methode nicht für die Messung verborgener Ressourcen eines Unternehmens entwickelt wurde und dies nie zum Ziel hatte, existiert doch eine indirekte Verbindung zwischen EVA und immateriellen Ver- 352 Horst Wildemann mögenswerten, sofern angenommen wird, dass das Management verborgener Ressourcen die Höhe des immateriellen Kapitals beeinflusst. Infolgedessen wird er teilweise als Kennzahl verwendet (vgl. Andriessen 2004, S. 293; Alwert 2005, S. 28). Betrachtung einzelner Komponenten Verschiedene Wissensbilanzmodelle: (1) Wissensbilanz- Made in Germany (2) Intangible Asset Monitor (3) Intellectual Capital Statement LV Betrachtung als Ganzes RAVE HVA Strategy Maps BSC ABC ICIndex Liahona H.O.M. E.S. VCS CIV EVA Market to Book Value Ermittlung eines monetären Wertes Beschreibung mit Indikatoren = Messverfahren mit Bewertung = Messverfahren ohne Bewertung Abkürzungen: EVA: Economic Value Added HVA: Holistic Value Approach BSC: Balanced-Scorecard CIV: Calculated Intangible Value Abbildung 3: RAVE: Real Asset Value Enhancer LV: Lif etime Value-Ansätze VCS: Value Chain Scoreboard ABC: Activity Based Costing Bewertungsansätze für immaterielle Vermögenswerte Quelle: Alwert 2005, S. 26 Einige wichtige Methoden sind jedoch nicht in Abbildung 3 dargestellt. Beispielsweise fehlen Herangehensweisen zur Beschreibung der internen verborgenen Ressource Mitarbeiter & Führung, wie das Human Capital Market Value (HCMV), das Workonomics-Prinzip oder das Human Ressource Accounting. Bewertungskonzepte zur Bestimmung des Wertes von geistigem Eigentum, wie Marken oder Lizenzen & Patente, sind gleichermaßen nicht Bestandteil der Illustration. Darunter fallen Methoden wie das Konzept des kundenorientierten Markenwertes, Indikatoren zur Bestimmung des Patentwertes und die Marktbewer- Nutzung von verborgenen Unternehmensressourcen in Krisensituationen 353 tung nach YOUNG & RUBICAM. Der Bezug zwischen Methoden zur Unternehmenssanierung und den verborgenen Ressourcen ist durchweg möglich, aber nicht immer sofort eindeutig darstellbar. Grund hierfür ist vor allem die Veränderlichkeit der Methoden über die Krisenphasen hinweg. Je latenter und bedrohlicher die Unternehmenskrise wird, desto schwieriger ist die Verknüpfung von Methode und Ressource. In der Liquiditätskrise steht die Beschaffung monetärer Mittel im Vordergrund. Eine nachhaltige Sanierung des Unternehmens ist nachrangig und wird daher sekundär verfolgt. Die Methoden selbst können grundsätzlich in jeder Krisenphase eingesetzt werden. Eine Nutzenmaximierung ist aber meist nur in einer bestimmten Phase möglich. Somit kann in der Liquiditätskrise durchaus eine Methode zur Strategiefindung angewandt werden, welche sich jedoch kurzfristig nicht auf die verfügbaren Finanzmittel des Unternehmens auswirken wird. Ebenso besteht in der Strategiekrise die Möglichkeit Gesellschaftsanteile zu veräußern, obwohl dafür noch keine Notwendigkeit besteht. Für eine erfolgreiche Sanierung ist jedoch die reine Fokussierung auf verborgene Ressourcen nicht ausreichend. Hier ist zusätzlich ein umfassender Methoden- und Strategieeinsatz nötig, der die verborgenen Ressourcen unterstützt. Somit bedingt eine erfolgreiche Sanierung weitere, notwendige Erfolgsfaktoren. Grundsätzlich sind Erfolgsfaktoren je nach ihrer Ausprägung maßgeblich für den Erfolg oder Misserfolg unternehmerischen Handels verantwortlich (vgl. Pinkwart et al. 2005, S. 199). Sie stehen mit den verborgenen Ressourcen, die nicht oder nur ungenau quantifiziert werden können, aber in Abhängigkeit ihrer Kombination und Ausprägung einen Mehrwert stiften, in einer wechselseitigen Beziehung und bedingen sich zum Teil gegenseitig. Zu den Erfolgsfaktoren zählen unter anderem die Berücksichtigung der Unternehmenssituation, die Branchenzugehörigkeit sowie weitere individuelle, unternehmensspezifische Faktoren. Zahlreiche Ansätze in der Literatur bilden den Turnaround-Prozess zur Sanierung ab (vgl. Faulhaber; Grabow 2009, S. 20; vgl. Kelber 2004, S. 122f.; vgl. Bibeault 1982, S. 92; vgl. Chowdhury 2002, S. 256; vgl. Lenahan 1999, S. 15; vgl. Fetterman 2003, S. 9ff.). Sie weisen alle einen vier- oder fünfgliedrigen Aufbau auf, sind im Kern ähnlich und inhaltlich sowie zeitlich interdependent (vgl. Chowdhury 2002, S. 256). Nach FAULHABER umfasst der Turnaround-Prozess die Crash-Phase, den Restrukturierungsbeginn, die Durchsetzung der Restrukturierung sowie die Neuausrichtung und deren Sicherung. In den Phasen 1 und 2 hat die Sicherstellung der Liquidität die oberste Priorität. Daraufhin wird in den Phasen 2 und 3 das Turnaround-Konzept erstellt. Daran anschließend folgen in Phase 3 und 4 die Umsetzung der Restrukturierung und die Etablierung des neuausgerichteten Unternehmenskonzepts. In der nachfolgenden Abbildung werden die Phasen gemäß FAULHABER aufgezeigt und die Schritte innerhalb der Phasen beschrieben. Die Einleitung von Maßnahmen basiert auf dem Erkennen einer möglichen Unternehmenskrise (vgl. Meusel 2009, S. 11). Unternehmen, die sich in einer Krisensituation befinden, durchlaufen im Vorfeld einer Insolvenz die drei Phasen Strategiekrise, Ertragskrise und Liquiditätskrise. Diese sind gekennzeichnet durch eine Verschlechterung der Erfolgspotenziale, dem Unterschreiten von Erfolgszielen beziehungsweise eine angespannte Liquiditätssituation. Je weiter eine Krise fortgeschritten ist, desto deutlicher die spürbaren Signale und desto limitierter der Handlungsspielraum. Jede Krisenphase kann mithilfe geeigneter Früherkennungsinstrumente und der fallspezifischen Ausprägung von Indikatoren identifiziert werden. Handlungsoptionen, welche den Turnaround vollziehen vermögen, sind an die Krisensituation und den damit einhergehenden Handlungsdruck anzupassen oder auszuwählen. Folglich ist eine krisenphasenspezifische Anpassung des TurnaroundManagements notwendig. 354 Horst Wildemann Die Erzielung eines situationsspezifischen Turnaround Auf Grund der Komplexität, welche diese Situationen annehmen können, ist jedoch keine allgemeingültige Vorgehensweise definierbar. Totalitäres Ziel des Turnaround-Managements ist die nachhaltige Ausgestaltung des Unternehmens. Hierbei gilt es das Augenmerk auf die bereits im Unternehmen vorhanden verborgenen Ressourcen zu legen und diese gezielt einzusetzen. Je nach Krisenart und -verlauf verändern sich auch der Modus der Umstrukturierung und die nötige Intensität des Turnarounds. So durchlaufen in ihrer Existenz bedrohte Unternehmen alle Phasen des Turnaround-Managements, während andere, die rechtzeitig auf Warnsignale geachtet haben, Phasen schneller durchlaufen oder sogar ganzheitlich außer Acht lassen können (vgl. Bibeault 1982, S. 91). Handlungsspielraum Strategischer Turnaround Taktischer Turnaround Operativer Turnaround Strategiekrise Ertragskrise Erzwungener Turnaround Liquiditätskrise Zeit Abbildung 4: Insolvenz Turnaround in den jeweiligen Krisenphasen Quelle: ohne Angabe Insgesamt unterscheiden PINKWART und KOLB (2000) vier Turnaround-Arten, die zugeordnet zu den einzelnen Krisenphasen der Abbildung 4 entnommen werden können. Die Unterscheidungskriterien belaufen sich auf die noch verfügbare Reaktionszeit, die einsetzbaren Analyse- und Planungsinstrumente und die Kombination aus kurz-, mittel- und langfristigen Korrekturmaßnahmen (vgl. Pinkwart 2000, S. 6ff.). Die Bewertung von verborgenen Ressourcen in Krisenphasen kann durch ein Vorgehens- und ein Bewertungsmodell realisiert werden. Die erste Komponente dieses Modells beinhaltet die Einflussgrößen. Diese setzen sich aus der aktuellen Situation des Unternehmens sowie die spezifisch ausgeprägte Relevanz der Ressourcen zusammen. Die zweite Komponente, die Ressourcenbewertung, beinhaltet einen Bewertungskatalog aller Ressourcen. Die Ressourcenausprägung wird flankiert mit den Einflussgrößen die Ressourcenbewertung. Die Methodenempfehlung 355 Nutzung von verborgenen Unternehmensressourcen in Krisensituationen Analyse der verborgenen Ressourcen Ressourcenrelevanz Unternehmenssituation zur Nutzung der verborgenen Ressourcen ist in strategische und operative Ansätze aufzugliedern. Symptome Typologisierung 1.Schwellenwerte 2.Quantitative Indikatoren 3.Qualitative Indikatoren Keine Krise Strategiekrise Nutzwertanalyse Ertragskrise Liquiditätskrise • Ressource 1 • Ressource 2 1.Weniger wichtig 2.Gleich wichtig 3.Wichtiger als •… Kundenbeziehung gering Quantitative Einschätzung hoch Organisation & Prozesse gering hoch gering hoch gering hoch gering hoch gering hoch Lieferantenbeziehung gering Qualitative Einschätzung Priorisierung • Ressource 3 Produkte & Produktprogramm Bewertungskatalog: Handlungsdruck hoch Ideen & Innovationen Lizenzen & Patente gering hoch Potenziale und Defizite Mitarbeiter & Führung Marke gering hoch Gesellschafter & Kapitalgeber Typenspezifische Handlungsempfehlung inklusiver Methodenwahl Strategische Methodenempfehlung Abbildung 5: Operative Methodenempfehlung Turnaround-Modell zur Nutzung von verborgenen Unternehmensressourcen Quelle: Eigene Darstellung Die Unternehmenssituation lässt sich durch verschiedene Kriterien abbilden (vergleiche Abbildung 5). Auf Basis der illustrierten Kennzahlen findet eine Typologisierung der aktuellen Situation eines Unternehmens statt. Weiterhin fließt die Relevanz der Ressourcen als weitere Einflussgröße in das Modell ein. Die Ausprägung der Relevanzen variiert von Unternehmen zu Unternehmen. Daher ist eine individuelle Analyse dieser Größe notwendig. Die Kombination von Ressourcenrelevanz und der Einschätzung der Ressourcenausprägung in einem definierten Bewertungskatalog ermöglicht qualifizierte Aussagen über bestehende Potenziale und Defizite eines Unternehmens zu treffen. Hieraus können zudem Handlungsoptionen abgeleitet werden. Der Handlungsdruck, diese umzusetzen, wird durch 356 Horst Wildemann die Typologisierung und damit der Unternehmenssituation induziert. Die Unternehmenssituation wird innerhalb der Typologisierung abgebildet und fußt auf Schwellenwerten sowie quantitativen und qualitativen Indikatoren. Auf Basis der aufgezeigten Faktoren findet eine Typologisierung in die Klassen keine Krise, Strategie-, Ertrags- und Liquiditätskrise statt. Je nach Ausprägung der Typologisierung erfährt das Unternehmen unterschiedlich hohen Handlungsdruck. Ist ein Unternehmen in der Liquiditätskrise positioniert, gilt es primär langangelegte Investitionen in flüssige Mittel umzuwandeln, um die Liquidität vorübergehend zu erhöhen. Demgegenüber besitzt ein Unternehmen in der Strategiekrise weitreichendere Spielräume um die Geschäftstätigkeit nachhaltig zu sichern. Zur umfänglichen Analyse der verborgenen Ressourcen ist die Relevanz der Ressource für das jeweilige Unternehmen ein bedeutsamer Faktor. Dabei wird die Relevanz der Ressource innerhalb des Unternehmens definiert. Kernelement der Analyse der verborgenen Ressourcen stellt ein Bewertungskatalog dar, der aus Bewertungskriterien in Form von Fragen und Kennzahlen bestehen kann. Ziel ist die objektive Ermittlung einer qualitativen und quantitativen Einschätzung von Sachverhalten im Unternehmen. Die Analyse der verborgenen Ressourcen wirkt sich auf das Scoreboard aus. Je nach Einschätzung der jeweiligen Fragen und Kennzahlen innerhalb des Bewertungskatalogs, ist die jeweilige Ressource ausgeprägt. Schwächer ausgeprägte Ressourcen weisen Potenziale oder Defizite auf, die es fallspezifisch auszuschöpfen oder zu überwinden gilt. Typenspezifische Handlungsempfehlungen erfolgen daher auf Basis der Unternehmenssituation, Relevanz der Ressource und des Scoreboards. Mit zunehmendem Krisenfortschritt erhöht sich der Handlungsdruck auf ein Unternehmen. Dies bedeutet im Umkehrschluss eine Reduktion möglicher Handlungsoptionen und erfordert deren Priorisierung. Mit zunehmendem Handlungsdruck werden daher entweder nur die relevantesten verborgenen Ressourcen zur Überwindung der Krise genutzt oder die irrelevantesten auf Outsourcing-Potenziale untersucht. Eine frühzeitige Krisenprävention und die Nutzung von strategischen sowie operativen Methoden sind für KMUs essentiell, um nachhaltig und langfristig erfolgreich zu agieren. Literatur Alwert, K. (2005): Wissensbilanzen – Im Spannungsfeld zwischen Forschung und Praxis. In: Kai Mertins, Alwert Kay und Peter Heisig (Hg.): Wissensbilanzen. Intellektuelles Kapital erfolgreich nutzen und entwickeln; mit 16 Tabellen. Berlin [u.a.]: Springer, S. 19–39. Andriessen, D. (2004): Making sense of intellectual capital. Designing a method for the valuation of intangibles. Amsterdam, Boston: Elsevier. Becker, D.; Steiner, A. (2005): Immaterielles Vermögen erfolgreich managen – Status Quo und Entwicklung. In: ZfCM – Zeitschrift für Controlling & Management 49 (Sonderheft 3), S. 20–28. Bellmann, K. (1991): Latente ökonomische Ressourcen in der Nutzungsdauer von Gebrauchsgütern, In: Peter Milling (Hg.): Systemmanagement und Managementsysteme, Duncker & Humblot, Berlin, S. 99-123 Bellmann, K.; Gerster B. (2006): Netzwerkmanagement kleiner und mittlerer Unternehmen. Eine theoretische und empirische Untersuchung. In: Thorsten Blecker (Hg.): Wertschöpfungsnetzwerke, Erich Schmidt Verlag GmbH & Co., S. 53-68. Bibeault, D. B. (1982): Corporate turnaround. How managers turn losers into winners. New York; Montréal: McGraw-Hill. Böckenförde, B. (1991): Unternehmenssanierung. Stuttgart: Schäffer, Verl. für Wirtschaft und Steuern. Nutzung von verborgenen Unternehmensressourcen in Krisensituationen 357 Brunner, O.; Conze, W.; Koselleck, R. (1982): Geschichtliche Grundbegriffe. Historisches Lexikon zur politisch-sozialen Sprache in Deutschland. Stuttgart: Klett-Cotta. Chowdhury, S. D. (2002): Turnarounds. A stage theory perspective. In: Canadian Journal of Administrative Science 19 (3), S. 249–266. Creditreform e.V. (2011): Kriseneffekte beim Eigenkapital. Die Folgen der Rezession für die Kapitalausstattung des Mittelstandes. In: Creditreform Wirtschaftsforschung 4 (11), S. 1–5. Eustace, C.; Bianchi, P. (2001): The intangible economy impact and policy issues. Report of the High Level Expert Group on the Intangible Economy. Luxembourg: Office for Official Publications of the European Communities. Faulhaber, P.; Grabow, H.-J. (2009): Turnaround-Management in der Praxis. Umbruchphasen nutzen - neue Stärken entwickeln. 4. Aufl. Frankfurt; New York: Campus-Verlag. Fetterman, W. H. (2003): The Team Approach to Turnarounds. Employing Financial and Operational Expertise. In: The Journal of Private Equity 6 (3), S. 9–12. Hinterhuber, H. H. (Hg.) (2006): Kundenorientierte Unternehmensführung. Kundenorientierung, Kundenzufriedenheit, Kundenbindung. 5. Aufl. Wiesbaden: Gabler. Höhn, R. (1974): Unternehmensführung ist Krisenmanagement. In: Blick durch die Wirtschaft, 1974. Horváth, P.; Möller, K. (Hg.) (2004): Intangibles in der Unternehmenssteuerung. Strategien und Instrumente zur Wertsteigerung des immateriellen Kapitals. München: Vahlen. Janker, C. G. (2004): Multivariate Lieferantenbewertung. Empirisch gestützte Konzeption eines anforderungsgerechten Bewertungssystems. 1. Aufl. Wiesbaden: Dt. Univ.-Verl. Kelber, F. (2004): Turnaround-Management von dotcoms. Lohmar: Eul Verlag. Koppelmann, U. (2004): Beschaffungsmarketing. 4. Aufl. Berlin [u.a.]: Springer. KPMG AG Wirtschaftsprüfungsgesellschaft (Hg.) (2008): Patente, Marken, Verträge, Kundenbeziehungen – Werttreiber des 21. Jahrhunderts. Online verfügbar unter http://www.kpmg.de/docs/ StudiePatente_211207.pdf. Kraus, R. (2005): Strategisches Wertschöpfungsdesign. Ein konzeptioneller Ansatz zur innovativen Gestaltung der Wertschöpfung. Wiesbaden: Gabler. Krystek, U. (1987): Unternehmungskrisen. Beschreibung, Vermeidung und Bewältigung überlebenskritischer Prozesse in Unternehmungen. Wiesbaden: Gabler. Krystek, U.; Moldenhauer, R.; Angster, E. (2007): Handbuch Krisen- und Restrukturierungsmanagement. Generelle Konzepte, Spezialprobleme, Praxisberichte. Stuttgart: Kohlhammer. Lenahan, T. (1999): Turnaround management. Oxford; Boston, Mass: Butterworth Heinemann. Meusel, D. (2009): Turnaround-Management: Die Rolle der Finanzpartner und Investoren. Die Rolle der Finanzpartner und Investoren. Hamburg: Igel-Verlag. Müller, R. (1986): Krisenmanagement in der Unternehmung. Vorgehen, Maßnahmen und Organisation. 2. Aufl. Frankfurt am Main u.a: Lang. North, K. (2010): Wissensorientierte Unternehmensführung. Wertschöpfung durch Wissen. 5. Aufl. Wiesbaden: Gabler. Picot, A.; Neuburger, R. (2005): Controlling von Wissen. In: ZfCM – Zeitschrift für Controlling & Management 49 (Sonderheft 3), S. 76–84. Pinkwart, A. (2000): Marketing-Strategien für den Unternehmens-Turnaround. In: Jörn-Axel Meyer (Hg.): Jahrbuch der KMU-Forschung 2000. Marketing in kleinen und mittleren Unternehmen. München: Vahlen, S. 165–182. 358 Horst Wildemann Pinkwart, A.; Kolb, S.; Heinemann, D. (2005): Unternehmen aus der Krise führen. Die TurnaroundBalanced-Scorecard als ganzheitliches Konzept zur Wiederherstellung des Unternehmenserfolgs von kleinen und mittleren Unternehmen. Stuttgart: Deutscher Sparkassenverlag. Seefelder, G. (2007): Unternehmenssanierung. Zerschlagung vermeiden, Ursachen analysieren, Konzepte finden, Chancen erkennen. 2. Aufl. Stuttgart: Schäffer-Poeschel. Statistisches Bundesamt (Hg.) (2011): Bruttoinlandsprodukt 2010 für Deutschland. Begleitmaterial zur Pressekonferenz am 12. Januar 2011 in Wiesbaden. Bundesministerium des Innern. Online verfügbar unter http://www.orghandbuch.de/cln_110/nn_414074/OrganisationsHandbuch/DE/6__MethodenTechniken/ 65__Bewertungsverfahren/651__Quantitative/quantitative-node.html?__nnn=true. Statistisches Bundesamt (Hg.) (2012): Bruttoinlandsprodukt für Deutschland 2010. Online verfügbar unter https://www.destatis.de/DE/PresseService/Presse/Pressekonferenzen/2011/BIP2010/Pressebroschuere_BI P2010.pdf?__blob=publicationFile. Stewart, T. A. (1997): Intellectual capital. The new wealth of organizations. New York: Doubleday / Currency. Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009 Jan Wirsam 1 Introduction Previously, along with increasing awareness and consensus being noted, that companies not only achieve business success, but also that the interests of its employees, society and the environment should be integrated into corporate activities (Figge et al., 2002). Many companies have adopted these socio-economic responsibility issues (Corporate Social Responsibility) already, by environmental and social standards in their management processes and integration into the value chain (Loew et al., 2004). Normally they document this commitment in the form of sustainability reports. The central idea of this study is to provide a comprehensive overview of the sustainability reporting of DAX companies in Germany. DAX® is the blue chip index of the German stock exchange. It contains the largest market capitalization and exchange turnover of 30 German companies (the headquarters are based in Germany) from all business sectors. 2 Methodology and Aim of Research The applied methodology is a comparison of the reports by defined parameters. A short content analysis will allow further findings. The reports will be clustered based on established certification authorities like the Global Reporting Initiative (GRI-Guidelines 2006). The guidelines of the Global Reporting Initiative (GRI) establish criteria for the concept and content of sustainability reports. The GRI is a network of corporate and employee representatives, civil society, investors and auditors. Since 1997, this group is working on the continuous development of guidelines for CSR-reporting. The GRI guidelines are the only international framework for CSR-reporting. The initial guidelines were submitted in 1999 and have been revised several times. The results presented will contain an overview of the reports regarding basic factors. In conclusion we demonstrate a transparency on the key aspects of the CSR-reports of the DAX-30-companies. The study presents data on the questions of who is reporting how much and in what form. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_26, © Springer Fachmedien Wiesbaden 2013 360 Jan Wirsam To collect the data, research was conducted by internet. The results of this search for sustainability reporting have been verified partly by telephone interviews and e-mail communication with individual companies. 3 Relevance of Sustainability Reports Nowadays the sustainability report can be called a standard tool of internal and external communications of the DAX-30 companies, which underlines the importance of the sustainable development of corporate governance. The existence of a sustainability report is of course no guarantee that a company really follows a sustainable strategy (Müller, 2007). For large listed companies sustainability reports are increasingly a tool for investors as well as non-financial external stake holders. They also provide an ecological and social "balance" in addition to the financial reports and allow insights of the quantity and quality of their activities (Daub 2005). The intention for sustainable coverage may vary. A sustainability report in any case creates transparency and allows the assessment of business activity (Kolk, 2004). To improve the reliability and accuracy of information supplied on this, several guidelines and standards of auditing are now available. In context of the present study the guidelines of the Global Reporting Initiative and the directives of the UN Global Compact will be recognized (Adams et al., 2004). 4 Awareness of Sustainability Reports by the DAX-30-Companies Out of the 30 companies listed on the DAX (as of January 2010), 26 published a report corresponding to sustainability. These CSR-reports are available in all business sectors. Tab. 1 provides an overview. In each case the latest report of a company was analysed. The data for the development of sustainability reporting in the company, the details of the quality of the data, the applied standards and attestations and further statements were aspects of the analysis of the sustainability reports and the websites of the companies. Some direct inquiries of the companies were added. 361 Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009 Table 1: CSR-Reproting of the DAX30-companies Part 1 Sector Adidas AG Allianz SE BASF SE Bayer AG Beiersdorf AG BMW AG (St) Commerzbank AG Daimler AG Deutsche Bank AG Deutsche Börse AG Deutsche Lufthansa AG Deutsche Post AG Deutsche Telekom AG E.ON AG Report Title Sport SPORT MATTERS Sustainability Performance Review 2008 Insurance Allianz Sustainability Report Chemical Report 2008. Economic, environmental and social performance Pharma Sustainability Report 2008 Cosmetics Sustainability Report 2008 Automotive Sustainable Value Report 2008 Banking Corporate Responsibility Report 2009 Automotive Sustainable Report 2009 Banking Corporate Social Responsibility Report 2008 Banking Corporate Responsibility 2008 Aviation Balance. Key data on sustainability at Lufthansa. Issue 2009 Transportation Sustainability Report 2009 Telecommunicatio The 2009 Corporate n Responsibility Report Energy CR Reporting 2008 Fresenius SE Medical (Vz) Medical Fresenius Medical Care no report available no report available Report Type Sustainability Year Pages Mar 09 69 SustainSep 09 ability Integrated Mar 09 257 Sustainability Sustainability Sustainability Sustainability Jun 09 118 Apr 09 264 Sep 09 114 Dec 09 98 Sustainability Sustainability Mar 09 72 May 09 115 Sustainability Sustainability Mar 09 36 May 09 121 Sustainability Sustainability Apr 09 58 Jul 09 66 Sustainability May 09 131 362 Jan Wirsam Table 1 (Continuation) Sector Report Title Chemical Sustainability Report 2008 no report available Corporate/Sustainability Report 2008 Corporate Responsibility Online Report 2009 Management Report on Sustainability Henkel KGaA (Vz) Infineon AG K+S AG IT Chemical Linde AG Chemical MAN SE (St) Automotive Merck KGaA Pharma Metro AG (St) Münchener Rück AG Retail Insurance RWE AG (St) Energy Salzgitter AG Heavy Industries SAP AG Software Siemens AG Electronic ThyssenKrupp AG Volkswagen AG (Vz) Heavy Industries Automotive 5 Year Pages Feb 09 38 Sustainability Mar 09 129 Sustainability Community and Social Community and Social Sustainability Sustainability Oct 09 116 Nov 09 17 Jul 09 74 Jul 08 83 Sustainability Apr 09 SAP 2008 Sustainability Report Sustainability Report 2008 Annual Report 07/08 Sustainability Sustainability Integrated May 09 Sustainability Report 2009/2010 Sustainability Corporate Responsibility Report 2009 Sustainability Report 2007 Sustainability (2006); various updates until 2009 Our Sustainability. Status 2008 no report available Report Type Sustainability Sep 07 30 Jun 09 178 Apr 09 260 Sep 09 66 Title, Focus, Scope of the CSR-reports Regarding the choice of titles for their publications, the DAX-companies show only little creativity. They give their CSR reports mainly the names CSR Report or Sustainability Report. An exception is the report of Lufthansa, which is called „Balance”. Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009 363 The investigation has revealed that it has become the standard for listed companies to publish sustainability reports in addition to the annual business and financial reports. Distinctions were therefore made in the analysis between pure CSR-reporting (in Tab. 1 labelled as “Sustainability”), built-in reports (Annual Report and Sustainability Report will be consolidated into one report, labelled as integrated) and reports that only contain some aspects such as social and health (as Health and Social labelled). Examples for companies that provide an integrated report are BASF and ThyssenKrupp. These companies have their sustainability reports integrated in their annual reports. A few companies did not report on all aspects of CSR. MAN and Merck focus their reports on social and health issues. No reports were available at the moment of research of Infinieon, Fresenius, Fresenius Medical Care and Salzgitter. The average CSR-report has around 109 pages. The most extensive reports are provided by the chemical and pharmaceutical industries. With 264 pages, Beiersdorf provided the most extensive report. MAN compiled its report on only 17 pages. An almost year-by-year reporting is recognisable. Almost all companies have published sustainability reports in 2009. Only Metro AG published a version from previous years. It is assumed that the year-by-year reporting will be established as standard. 6 Ways of Publication Different media and formats of reporting were used by the companies (See Tab. 2). The key question is whether the information will be offered exclusively on the Internet (usually retrievable as PDF-or HTML-document), or whether there is a printed version. The major companies position is that a printed copy of the report is not necessary and the cost of shipping could be waived. Currently, sustainability reports were offered via print and internet by about 75% of the examined companies. The trend is apparent that the companies have not increased the provision of hard-copy versions. Not increasing the provision of hardcopy versions appears to be the trend. Few companies go so far and stop the distribution of paper-based exemplars/copies. SAP and Munich Re published their sustainability report solely on the Internet. It is not to be expected that sustainability reporting via Internet will replace the printed reports. Rather the internet-based way of publication and the classic way should be combined and coordinated. 7 Reporting Guidelines and Auditing Standards Information on guidelines and standards that allow a comparison were established using the guidelines of the Global Reporting Initiative (GRI) and the United Nations Global Compact. The GRI guidelines are currently the only global policy framework for the content of sustainability reports (Moneva et al., 2006). In the year 2009 nearly 75% (19 of 26) of the DAX-CSR-reports oriented themselves on the GRI guidelines. BASF, Bayer, Daimler, Deutsche Telekom and Volkswagen received an A+ ranking, which means a full compliance with the GRI guidelines. 364 Jan Wirsam Furthermore, 10 of the DAX companies explicitly follow the guidelines of the UNGlobal Compact. The UN-Global Compact is an initiative to encourage businesses worldwide to adopt sustainable and socially responsible policies, and to report on their implementation. It is a principle based framework stating ten principles in the areas of anticorruption, human rights, labour and the environment (Williams, 2008). The external review and attestation of the sustainability reports is not yet a standard. Only a few reports have been fully and extensively reviewed by audit firms, some reports were commented on by independent research institutions. 8 Structure and Content The structure of the CSR report demonstrates that it is an absolute top priority by the companies. The introduction of a sustainability report, usually starts with a CEO message, which provides the intention of the report and the strategy of the company. Based on the introduction, various aspects of reporting follow. Ideally, these are based on the requirements of the GRI reporting guidelines. This typically includes: • • • • • • Vision and strategy of the company, including CEO-message Organization Profile Report Parameters Governance, commitments and engagement Performance indicators (economic, environmental and social) Information on reporting In accordance with the scale and quality of data a company can then evaluate the report, either externally or internally with appropriate endorsements. Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009 Table 2: Adidas AG 365 CSR-Reporting of the DAX30-companies Part 2 Guidelines GRIGlobal Ranking Compact no inforno information mation Media Content PDF, Internet, no hard copy HTML, summary as PDF CEO Message, 2008 Issues, Performance Data, Progress and Targets, Glossary, Contact CEO Message, Our Strategy, Core Issues, Our stakeholders, Our Performance, Sustainable financial Services, Climate Change, Demographic Change, Microinsurance, Health, Studies and Publications, Allianz Knowledge CEO Message, Management analysis, Corporate Governance, Consolidated Financial Statements, Supplementary Information on Oil and Gas Producing Activities, Information Service CEO Message, Strategy and Management, Focus Issues, Performance Report, Further Information CEO Message, Economics, Products, Environmental Protection, Employees, Society, Dialog, Global Reporting Initiative CEO Message, Sustainability Management, Economics, Product responsibility, Group-wide environmental protection, Employees, Society, Key facts and figures CEO Message, Editorial, The new Commerzbank, Market & Customers, Environment, Employees, Society, Corporate responsibility at major Group companies, Commerzank sustainability performance, Commerzbank CR programme, GRI Content Index, Glossary Allianz SE B (self declared) yes BASF SE A+ (GRI checked) yes PDF Bayer AG A+ (GRI checked) yes PDF, Print, HTML Beiersdorf AG undeclared no information PDF BMW AG (St) A (GRI checked) yes PDF, Print Commerzbank AG A (GRI checked) yes PDF, Print 366 Jan Wirsam Table 2 (Continuation) Daimler AG Guidelines Global GRI-Ranking Compact A+ (GRI yes checked) Deutsche Bank AG A (GRI checked) yes Deutsche Börse AG no information no information no information no informaDeutsche Lufthansa AG tion Deutsche Post B+ (self AG declared) no information Deutsche Telekom AG A+ (GRI checked) no information E.ON AG undeclared yes Fresenius SE (Vz) Fresenius Medical Care no report available no report available Media Content PDF, Print CEO message, The company, Managing Sustainability, Economy, Environmental protection, innovation and safety, Employees, Customers and society, PDF, Print CEO message, Dialog, Sustainability, Corporate Volunteering, Social Investments, Art, Education, Supplementary Information PDF, Print CEO message, Overview of Deutsche Börse, Corporate Citizenship, Environment, Employees, Economy PDF, Print CEO message, The Lufthansa Group, Our business, Social responsibility, Environment, Corporate citizenship, SWISS PDF, Print CEO message, Achievements, Challenges, sustainability ratings PDF, Print CEO message, Responsible corporate governance, Supplier relationships, Responsibility begins at home, Infrastructure and broadband networks, Customer solutions, Facts and figures PDF CEO message, CR-Reporting, CR-Management, CR-Dialog, CR-Marketplace, CREnvironment, CR-Community, Careers-Work Environment, CR-Reporting Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009 367 Table 2 (Continuation) Media Content Guidelines Global GRI-Ranking Compact no informa- PDF, Print CEO message, Sustainability Henkel KGaA B (self (Vz) declared) tion Council, Sustainability Strategy, Values and management, Sustainability stewardship, Sustainable brands and techniques, Production and logistics, Employees and jobs, Social engagement, Stakeholder dialogue Infineon AG no report available K+S AG undeclared no informa- PDF, Print CEO message, Sustainable tion Management and Growth, The K+S Group, Economy, Ecology, Social Responsibility, Governance Structures, Appendix Linde AG undeclared no informa- PDF About this report, Fundamention tals, Fields of Action, Divisions, Roadmap, GRI Index MAN SE (St) no information no informa- PDF, Print Management Report on tion Sustainability Merck KGaA B (self yes PDF, Print CEO message, Company prodeclared) file, Leadership and values, Responsibility for pharmaceutical products, Responsibility for chemical products, Responsibility for employees, Responsibility for the environment, Responsibility for the community, Our Goals, Facts and Figures Metro AG (St) no information no informa- PDF, Print CEO message, Company, Suption ply Chain and products, Customer Service, Environment, Employees, Social Commitment, Key figures, Objectives C (self no informa- HTML Strategy, Challenges, Economy, Münchener Rück AG declared) tion Ecology, Society, Employees, Facts 368 Jan Wirsam Table 2 (Continuation) Media Content Guidelines Global GRI-Ranking Compact RWE AG (St) no information no informa- PDF, Print Our Goal: More Growth with tion lower Carbon emissions, Status report: Strategy and Management, Energy and Climate, Marketplace, Workplace, Community, Key Figures Salzgitter AG no report available SAP AG B+ (GRI no informa- HTML CEO message, About SAP, checked) tion Stakeholder Engagement and Materiality, Employees, Social Investment, Environment, Corporate Governance, Products and Services for Sustainability, About this Report Siemens AG undeclared Yes PDF, Print CEO message, Profile, Framework, In Focus, Management, Key figures, Goals, Evaluation, Indices ThyssenKrupp no information no informa- PDF, Print part of the general report AG tion A+ (GRI no informa- PDF, Print CEO message, Strategy and Volkswagen AG (Vz) checked) tion Management, Ambitions, Key Indicators 9 Recapitulation In summary, almost all DAX companies provide sustainability reports. Only Fresenius, Fresenius Medical Care, Infinieon and Salzgitter have not provided any eco-social publications. Quality of presentation and scope of the reports vary. Some reports, like those from Deutsche Bank, Deutsche Börse, Commerzbank or MAN, focus more on good activities than on the really important environmental improvements in the core business. Adidas, Allianz, BMW, Deutsche Post, Henkel, RWE on the other hand inform very comprehensively, mostly very systematically and sometimes self critically, using measurable criteria about strategies, products, goals and achievements. In many cases, however, the credibility could be improved, due to not only the lack of data, but also because of the absence of external examinations (MacLean et al., 2007). A more comprehensive external audit of the reports should evolve in the coming years and Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009 369 become a standard. Transparency is not achieved by collecting a lot of data but by selecting on the right one. This requires more standardisation and an external audit. 10 Conclusion The encouraging result of this study is that the majority of the DAX companies provide sustainability reports. Measured by the total number of enterprises of all, the integrated reporting increases, regarding economic, social and environmental aspects of business activities. Most of the DAX-CSR-reports comply with the worldwide accepted GRIguidelines. So far, however, there are no legal obligations to demand sustainability-reports. Only some countries have legal regulations for the integration of non-financial indicators in the annual reports. It is urgently necessary, that national and international discussions on the reporting of sustainability issues are more intense and become more results-oriented. The present study contributes to this debate by a quantified picture of the status quo of the DAX-submit sustainability reports. References Journal Article: Adams, CA and Evans, R (2004). Accountability, Completeness, Credibility and the Audit Expectations Gap, in: Journal of corporate citizenship, Vol. 14, Summer 2004, p. 97–115. Daub, C-H (2007). Assessing the quality of sustainability reporting: an alternative methodological approach, in: Journal of Cleaner Production, Volume 15, Issue 1, 2007, p. 75–85. Figge, F and Hahn, T and Schaltegger, S and Wagner, M (2002). The Sustainability Balanced Scorecard – linking sustainability management to business strategy, in Business Strategy and the Environment, Vol. 11, 2002, p. 269–284. Kolk, A (2004). A decade of sustainability reporting: developments and significance, in: International Journal of Environment and Sustainable Development, Volume 3, Issue 1, 2004, p. 51–64. MacLean, R and Rebernak, K (2007). Closing the Credibility Gap: The Challenges of Corporate Responsibility Reporting, in: Environmental Quality Management, 2007, p. 1–6. Moneva, JM and Archel, P and Correa, C (2006). GRI and the camouflaging of corporate unsustainability, in: Accounting Forum, Volume 30, Issue 2, June 2006, p. 121–137. Book: Loew, T and Ankele, K and Braun, S and Clausen, J (2004). Bedeutung der CSR-Diskussion für Nachhaltigkeit und die Anforderungen an Unternehmen, Berlin: IÖW. Book chapter: Williams, OF. (2008). The UN Global Compact: The challenge and the promise, in: Flynn, G (ed.) Leadership and Business Ethics. Springer, 2008, p. 229–251. 370 Jan Wirsam Internet: GRI-Guidelines (2006). Sustainability Reporting Guidelines. Version globalreporting.org/ReportingFramework/G3Guidelines/ (10.1.2010). 3.0 in: http://www. Müller, U (2007). Greenwash in Zeiten des Klimawandels, online: http://www.lobbycontrol.de/download/ greenwash-studie.pdf (10.1.2010). Sustainability Reports (online, 10.01.2010): Adidas AG: http://www.adidas-group.com/en/SER2007/gri_index.asp Allianz SE https://www.allianz.com/static-resources/en/about_allianz/sustainability/media/documents/ sustainable_development_summary_report_2009.pdf BASF SE http://www.bericht.basf.com/2008/de/serviceseiten/willkommen.html Bayer AG http://www.sustainability2008.bayer.com/en/Sustainable-Development-Report-2008.pdfx Beiersdorf AG http://www.nachhaltigkeit.beiersdorf.de/Our-Way/About-this-Report/Download-Center.aspx?l=2 BMW AG (St) http://www.bmwgroup.com/bmwgroup_prod/e/0_0_www_bmwgroup_com/verantwortung/publikationen/ sustainable_value_report_2008/_pdf/SVR_2008_engl_Gesamtversion.pdf Commerzbank AG https://www.commerzbank.com/media/konzern/engagement/CR_Bericht_2009_EN.pdf Daimler AG http://sustainability2009.daimler.com Deutsche Bank AG http://www.db.com/csr/en/download/DBF_CSR08_EN_72dpi.pdf Deutsche Börse AG http://deutsche-boerse.com/dbag/dispatch/de/kir/gdb_navigation/about_us/12_Corporate_Responsibility Deutsche Lufthansa AG http://verantwortung.lufthansa.com/de.html Deutsche Post AG http://www.dp-dhl.de/sustainabilityreport/2008/servicepages/welcome.html Deutsche Telekom AG http://www.telekom.com/cr-report E.ON AG http://www.eon.com/de/unternehmen/29268.jsp Henkel KGaA (Vz) http://www.henkel.com/cps/rde/xchg/henkel_com/hs.xsl/sustainability.htm Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009 371 K+S AG http://www.k-plus-s.com/export/sites/k-plus-s.com/de/pdf/2009/ub2008.pdf Linde AG http://cr_report_2009_en.linde.com/linde/en/home.html MAN SE (St) http://www.man.de/MAN-Downloadgalleries/All/1Unternehmen/Nachhaltigkeit/MAN_NB_2008_d_s.pdf Merck KgaA http://www.merck.de/company.merck.de/en/images/Merck_CR_Report_2009_EN_tcm82_42348.pdf Metro AG (St) http://www.metrogroup.de/multimedia/microsite/Nachhaltigkeitsbericht-2007/pdf/NHB2007-en.pdf Münchener Rück AG http://www.munichre.com/sustainability/en/homepage/default.aspx RWE AG (St) http://www.rwe.com/web/cms/mediablob/en/346190/data/238424/56203/rwe/responsibility/key-data/ gri-record-2008/blob.pdf SAP AG http://www.sapsustainabilityreport.com/ Siemens AG http://w1.siemens.com/responsibility/report/08/pool/en/sustainability_report_2008.pdf ThyssenKrupp AG http://www.thyssenkrupp.com/de/engagement/index.html Volkswagen AG (Vz) http://www.sustainabilityreport2009.volkswagenag.com Networks, Anomy and Open Innovation: Some Conceptual Views Jochen Wittmann 1 Introduction Technological, political, economic and environmental discontinuities cause rising uncertainty, volatility and environmental complexity. They intensify change as well as competition in the free market systems. Organizations and entrepreneurs face new challenges to survive in highly competitive markets with their goods and services. Perlitz and Löbler (1985) empirically analyze the causes of innovation and underline that “willingness to innovate presupposes crisis” (Perlitz and Löbler, 1995: 100). Innovations seem to be a core approach to retaining competitiveness, despite critics who favor other strategies without focus on innovation and growth (Jackson 2011, Paech 2012). Fischer emphasizes the outstanding roles of pioneers and open innovation in innovation processes (Fischer 2008). Bellmann and Haritz (2001) underline the advantages of (innovation) networks for timelimited endeavors in contrast to traditional, monolithic organizations in dynamic environments. But on the one side network participants risk substitution and diffusion of competencies through cooperation and coordination (Bellmann 2001), which influence the nature of the bonds as well as the structure of the network and cause uncertainty (Johanson and Mattson 1991). On the other side external volatility and ambiguity lead to the erosion of rule and principle compliance inside organizations including networks (Ouchi 1991) and can cause anomic behavior by their members (Faßauer and Schirmer 2006), which can strengthen as well as weaken the network. Freiling et al. (2008) emphasize that firm competitiveness in markets is influenced by non-homogeneous availability of competences and resources, which is obvious in turbulent, fluid environments. These environmental conditions lead to the necessity of permanent adaptation of competencies in enterprises. The evolution of networks seems a valuable field of analyses to understand the necessary competence development and motivation of network participants to master anomy and to innovate. W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_27, © Springer Fachmedien Wiesbaden 2013 374 2 Jochen Wittmann Basics of networks 2.1 Tenets of networks Networks are a form of coordination between market and hierarchy, which are traditional terms of transaction theory (Bellmann 2001). “A network is a form of economic organisation between market and hierarchy, which is characterised by the realisation of competitive advantages and a polycentric structure, and is strategically led by one or more enterprises. The chiefly stable relations within the network of independent enterprises are marked more by cooperation and reciprocity than by competition” (Sydow, 1993: 82). Other authors like Ouchi (1991) argue that between market and hierarchy the clan or club as social group is a valuable form of coordination and cooperation beside networks (Ouchi 1991; Weder 1993), where common values and beliefs as well as traditions characterize the mode of control. Mildenberger (1998) as well as Kohlsdorf (2008) underline the significance of common cultural understanding and identity for networks, too. Cooperation inside inter-organisational networks makes the coordination of competencies necessary on a trust-based mode of coordination. Tugendhat (1994) identifies cooperation as norm-based and norm-conforming to three core prerequisites: no harm, support and no betrayal to cooperation partners. Further on an esprit de corps, trust and strong cultural cohesion and identity are necessary, because the control of norm-conforming behavior is very difficult. Bellmann identifies several characteristics of networks (Bellmann 2001): - Project oriented (time-limited) cooperation; - Core and complementary competencies: Complementary competences overarch and connect the core competencies of the participants as a conditio sine qua non of cooperation in networks to optimize the network performance (“economies of skills”). - Heterarchical networking: situational and problem focused participants have changing leadership roles as focal primi inter pares inside the network, which prevents a dominant hierarchical leadership. - Holonic partnership between partial autonomous and economic independent network participants, so called holons. - Cooperation and competition: network partners often participate in other networks, which also have competitive relations to the network (coopetition). Transaction theory grounds the connection of transaction costs and modes of interaction on the one side and the specificity of goods and services on the other side. It classifies the forms of interaction between market and hierarchy, which mirrors on the one side the independency and on the other side the dependency (see Figure 1). Networks, Anomy and Open Innovation: Some Conceptual Views Figure 1: 375 Transaction costs in context of specificity and forms of interaction (Bellmann, 2001: 42) 2.2 Basics of competency Network cohesion and performance heavily depends on competencies and their permanent adaptation in fluid, uncertain environments. “Competencies mean a repeatable non-random ability to render competitive output. This ability is based on knowledge channeled by rules and patterns” (Freiling et al., 2008: 1151). Bellmann differentiates between core and complementary competencies, which often have comprehensive characteristics, like logistics or governance modes (Bellmann 2001). Coordination and interaction, especially within networks, depend on communication (Luhmann 1995). On the lowest level the exchange of signals and data is relevant (see Table 1). In a further procedure information is the transformation of data and signals through interpretation. The next level of communication is knowledge/expertise, which is naturally based on information. Knowledge (management) is the basis of competence and the build-up relevant to competence management. Innovation is also defined as result of knowledge generating processes (Bellmann and Haritz 2001). 376 Jochen Wittmann The core differentiation of knowledge is explicit and implicit/tacit knowledge, which is a prerequisite for competence build-up. Tacit knowledge is unique for the enterprise and core for competencies. According to Frost and Osterloh the existence of implicit (tacit) and explicit knowledge refers to motivation and organization (cited in Mühlbacher 2007). The last step of communication is the exchange of competencies, which are based on knowledge advantages. For example, innovativeness is a competency and the results are innovations (Mühlbacher 2007). Learning effects often lead to knowledge evolution and the build-up of especially (complementary) competencies of the network as a whole and the different network partners. Table 1: Content of interaction 2.3 Cooperation and competition in context of competence development The diffusion and substitution of competencies can replace cooperation with competition inside the network and force the network participants to upgrade their competencies. Haritz and Mack (2008) exemplify a model with two players inside a network, where incentives for developing of competencies are discussed and game theoretically argued. They distinguish between an individual and a collective level of competence development inside a network, where benefits of cooperation depend on the one side on the will to transfer tacit and/or explicit knowledge and on the other side on the specificity of own competencies combined with the willingness of learning (Haritz and Mack 2008). Competencies by the network participants have limitative, additional or substitutional character. E.g., the packaging competency of an OEM has a limitative character, the competency of a coating supplier can have on the one side an additional character, if additional innovative colors or innovative paint shops are ordered, which add the product Networks, Anomy and Open Innovation: Some Conceptual Views 377 programme, and on the other side substitutional character, if the colors are easily replaceable by competitors. The competition inside networks and the low level of binding lead to attractiveness for outsiders to compete with network participants for replacement. Therefore it is necessary to have a look at the creation of networks – the evolutionary process. 2.4 Evolution process of networks The evolution process of networks clarifies the composition of networks, which is comparable with a network life-cycle. Mildenberger (1998) defines the network foundation and dissolution as external activities and decision points outside the network evolution process in the narrower sense, which is out of interest for the network creation. He describes the evolution of entrepreneurial (production) networks in a wider sense, which covers several stages (Mildenberger 1998): network foundation, self-description, selfconstitution, autopoiesis (self-maintaining) and network dissolution. In the phase of network foundation lone acting enterprises under market conditions (microscopic chaos) recognize growing common interest in cooperation with other lone acting enterprises. In the stages of self-description, self-constitution and autopoiesis the network builds up an acting entity and a common intent/target, which lead at the end of the day to a network identity and culture (Kohlsdorf 2008). As long as the total benefit of the network and its participants is sufficient as long as the network interactions and relations are stable and attractive. The positive sum game (win-win situation) [Competency C(x+y) > C x + C y] is a prerequisite for network cohesion and identity, which can change into a zero-sum game (win-lose situation) [C(x+y) = C x + C y], when the competence level and the benefits erode (Jehle and Stüllenberg 2001). In the case of a (rapid) diffusion and obsolescence of (core & complementary) competencies of network partners, the benefits of the network are endangered. Simultaneously the attractiveness declines and the entrance and exit barriers of the network drop. The dissolution of the network or one of the network participants is the consequence of shrinking competencies and lowering of the competitive position. The leaving relevant enterprise is back in the macroscopic chaos according to Mildenberger (1998). Here seems to be a fuzzy spectrum, which needs to be defined clearly and further clarification. What is the right definition about the spectrum outside of the network’s inner environment (Mildenberger 1998) and how do enterprises behave there in context of pressure to innovate? 3 The phenomenon of “anomy” as network condition 3.1 Basics of anomy The deviation of norm-conforming behavior inside networks has different reasons as described. Especially in fluid environments the effectiveness of norms is low because of uncertainty and ambiguity, which is also relevant in context of the characteristics of networks with their lower entry and exit barriers in comparison to hierarchical 378 Jochen Wittmann organizations. Hereby it is necessary to introduce the term ‘anomy’. In the sociological context it originally has a negative connotation and is in use by criminology (Trotha 1980). Different definitions are available: - Anomy is a mismatch caused by a decline of (social) rules (Durkheim 1897, 1977). - The limited access to resources of a collective, like an enterprise or a network, motivates individuals or collectives to anomic (non-norm conforming/non-standard) behavior (Merton 1949). - Faßauer and Schirmer (2006) transfer the concept of anomy to performance management and define anomy as low effectiveness of explicit and implicit new norms of performance accomplishment. A strong differentiation to other terms like chaos and anarchy is necessary in order to remain in a clear setting for further analyses. The microscopic and macroscopic chaos according to Mildenberger (1998) includes enterprises, which act under market conditions and do not comply with traditional definitions of chaos. Anarchy according to Hobbes means the state of disorder and a second form of anarchy by Kronman accepts property rights but lacks transactional insecurity because of missing overarching institutions (cited in Weder 1993). In the context of this paper anomy is used with a neutral connotation relating on the nonstandard behavior and reduction of cooperation/coordination within collectives caused by a change of norms or a lack of resources. The reasons for this could be internal or external factors, which can be induced voluntarily as well as coercively based on economic and other reasons as well. Non-norm conforming behavior is also the result of under – or overqualification and the non-realization of objections/requirements. 3.2 Strategies of adaptation in context of anomy According to Merton (1949) there are five strategies of adaptation to overcome anomy. He distinguishes between the strategies of conformity, innovation, ritualism, retreatism and rebellion. In analogy to the concept of Merton the modes of adaptation transfer to the network and its participants, where the network identity is equivalent to Merton’s cultural goals of the society and the (performance) level of individual and collective competencies inside a network are equivalent of Merton’s institutionalized means of the society. The differentiation of the types is the acceptance (+), the rejection (-) of network identity and of meeting the level of network competencies or the exit of the network and the build-up of (completely) new competencies (+-) (see Table 2). 379 Networks, Anomy and Open Innovation: Some Conceptual Views Table 2: Strategies of adaptation Strategy of adaptation Network identity Level of competencies Conformity + + Innovation + - Rituali