+ PWÖ - Institut für Logistik und Unternehmensführung

Transcription

+ PWÖ - Institut für Logistik und Unternehmensführung
Kompetenz, Interdisziplinarität
und Komplexität in der Betriebswirtschaftslehre
Wolfgang Kersten • Jochen Wittmann (Hrsg.)
Kompetenz,
Interdisziplinarität
und Komplexität in
der Betriebswirtschaftslehre
Festgabe für Klaus Bellmann
zum 70. Geburtstag
Herausgeber
Wolfgang Kersten
Hamburg, Deutschland
ISBN 978-3-658-03461-0
DOI 10.1007/978-3-658-03462-7
Jochen Wittmann
Weissach, Deutschland
ISBN 978-3-658-03462-7 (eBook)
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;
detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Springer Gabler
© Springer Fachmedien Wiesbaden 2013
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das
gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk
berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der
Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann
benutzt werden dürften.
Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier
Springer Gabler ist eine Marke von Springer DE. Springer DE ist Teil der Fachverlagsgruppe Springer
Science+Business Media.
www.springer-gabler.de
Univ.-Prof. Dipl.-Ing. Dr. rer. pol. Klaus Bellmann
Grußwort
Es ist schön und zugleich beruhigend, dass es in Zeiten, in denen Wissenschaftler sich primär an Zeitschriftenrankings orientieren, noch möglich ist, die akademische Tradition zu
bewahren, eine Festschrift für einen sehr geschätzten Kollegen herauszugeben.
Mit Klaus Bellmann wird ein Wissenschaftler geehrt, der ursprünglich ein Studium der
Elektrotechnik absolvierte und dann über das Industrieseminar der Universität Mannheim,
das Institut für Physikalische Technologie, das er dann von 1974–1990 leitete, den Weg in
die Betriebswirtschaftslehre fand.
Sowohl in der Forschung als auch in der Lehre war Klaus Bellmann sehr breit aufgestellt,
was sich in seinen Publikationen deutlich niederschlägt. Neben seinen Forschungsarbeiten
zu Fragen der Beschaffung und Produktion bildete der Netzwerkansatz einen Schwerpunkt
seiner wissenschaftlichen Tätigkeit, und zwar nicht nur als Forschungsparadigma, sondern
insbesondere bei konkreten Problemen in Beschaffungs-, Produktions- und Technologienetzwerken. Mit letzteren schlägt er gleichzeitig eine Brücke zu dem Forschungsfeld des
Innovations- und Technologiemanagement, dem er mit seinem technologischen Background kreative Impulse zu geben vermochte. Nicht zuletzt sei anzumerken, dass Klaus
Bellmann zu den Forschern zählt, die den Bereich der Ökologie in seiner Bedeutung frühzeitig erkannten. Bereits in den 1970er und 1980er Jahren griff er Fragen des Recycling und
der Produktlebensdauer auf.
In der Kommission für Produktionswirtschaft ist er bereits seit seiner Zeit als wissenschaftlicher Mitarbeiter bei Herrn Kollegen von Kortzfleisch aktiv und als Kollege und
Diskussionspartner immer gerne gesehen. Als Vorsitzender der Kommission für Produktionswirtschaft möchte ich ihm im Namen aller Kommissionsmitglieder weiterhin Gesundheit und Freude wünschen – ad multos annos.
Hans Corsten
Vorsitzender der wissenschaftlichen Kommission für Produktionswirtschaft
im Verband der Hochschullehrer für Betriebswirtschaft e. V.
Grußwort
Festschriften haben im deutschen Sprachraum eine große akademische Tradition. Schüler,
Freunde und Fachkollegen ehren damit einen herausragenden Gelehrten zu einem runden
Geburtstag. Das Gewicht dieser Auszeichnung lässt sich beispielsweise daran erkennen,
dass das Konzept der Festschrift auch in der angelsächsischen Universitätswelt übernommen wurde. Interessanterweise wird sie dort auch so genannt. Mehr als einmal habe ich
über berühmte Fachkollegen den Satz „his former students and colleagues prepared a festschrift for him“ gehört. Er wird im Tonfall des höchsten Respekts ausgesprochen, denn es
ist klar, dass eine solche Anerkennung keinem gewöhnlichen Professor zuteilwird. Die
Festschrift ist ein Synonym für außerordentlichen akademischen Einfluss, große Verdienste
in der Entwicklung des Faches und eine besondere Förderung des wissenschaftlichen
Nachwuchses.
Klaus Bellmann hat dem Fach Betriebswirtschaft als Quereinsteiger aus der Technologie
viele wichtige Impulse gegeben. Seine Beiträge zum Produktions- und Logistikmanagement, zum Qualitäts- und Umweltmanagement, zur Steuerung von Forschung und Entwicklung, Produktionsnetzwerken und komplexe Systeme haben das Fach geprägt und weisen in
die Zukunft. Gerade auch in der wissenschaftlichen Kommission „Technologie, Innovation
und Entrepreneurship“ war und ist Klaus Bellmann aktiv und als Fachkollege, Ratgeber
und Freund geschätzt. Stellvertretend für die über 200 in dieser Kommission organisierten
Wissenschaftler möchte ich nun auch über Klaus Bellmann den Satz „his former students
and colleagues prepared a festschrift for him“ sagen – und zwar im vollen Bewusstsein der
oben skizzierten Bedeutung.
Alles Gute zum 70. Geburtstag!
Nikolaus Franke
Vorsitzender der wissenschaftlichen Kommission Technologie, Innovation
und Entrepreneurship im Verband der Hochschullehrer für Betriebswirtschaft e. V.
Grußwort
Das Thema Nachhaltigkeitsmanagement ist zurzeit in aller Munde. Die ersten Klimaveränderungen sind auch in Deutschland spürbar. So werden einzelne Teile des Landes überschwemmt, während nicht weit davon entfernt fast Dürre herrscht. Dabei ist dies eigentlich
kein lokales oder regionales Problem, sondern eine globale Herausforderung. Die großräumige Verflechtung der Wetter- und Klimaereignisse ist den Menschen dabei oft einsichtiger, als die internationale und globale Verknüpfung von Produktionssystemen. Die Nachhaltigkeitsherausforderungen entlang der Wertschöpfungskette stellen dabei eine stetige
Herausforderung dar.
In diesem Kontext ist es bemerkenswert, dass Prof. Dr. Bellmann bereits früh entsprechende Fragen in seinem wissenschaftlichen Werk bearbeitet. Dabei sind zwei Stränge zu
würdigen. Einerseits geht es um die Wirkung umweltpolitischer Instrumente, deren Einsatz
einerseits für Unternehmen Kosten verursacht, andererseits aber auch einen Ausgleich von
Wettbewerbsnachteilen bedeuten kann.
In diesem Zusammenhang kommt der Gestaltung von Produkten eine ebenso große Bedeutung zu wie der Planung von Produktionsnetzwerken. Damit ist das zweite zentrale
Forschungsfeld von Prof. Dr. Bellmann angesprochen, in dem er sich auch der Verknüpfung dieser beiden Aspekte gewidmet hat, die zudem von zentraler Bedeutung für die Umweltwirkungen sowohl der Produkte selbst als auch der damit verbundenen Produktionsprozesse sind.
Der Jubilar gehört damit zu den wenigen Vertretern der deutschen Betriebswirtschaftslehre, die sich bereits früh mit solchen Fragestellungen beschäftigt haben. Insofern bleibt dem
Jubilar Gesundheit und Wohlergehen zu wünschen, so dass er weiterhin in diesem Sinne
wirken kann.
Stefan Seuring
Vorsitzender der wissenschaftlichen Kommission Nachhaltigkeitsmanagement im
Verband der Hochschullehrer für Betriebswirtschaft e. V.
Vorwort der Herausgeber
Der vorliegende Sammelband erscheint als Festgabe zum 70. Geburtstag von Univ.-Prof.
Dr. Klaus Bellmann, emeritierter Inhaber des Lehrstuhls für Allgemeine Betriebswirtschaftslehre und Produktionswirtschaft sowie Co-Direktor des Center of Market-Oriented
Product and Production Management (CMPP) an der Johannes Gutenberg-Universität
Mainz.
Akademische Schüler und deren Schüler, Kollegen und Freunde danken mit ihren Beiträgen dem Jubilar, der wissenschaftlicher Förderer, hilfsbereiter Kollege und Forschungspartner sowie vielen ein väterlicher Ratgeber und Freund war und ist.
Die erste Festgabe zum 60. Geburtstag von Klaus Bellmann stand unter dem Titel „Perspektiven und Facetten der Produktionswirtschaft – Schwerpunkte der Mainzer Forschung“.
Zu seinem 65. Geburtstag erschien die Festgabe zu dem Themenkreis „Spektrum des Produktions- und Innovationsmanagements: Komplexität und Dynamik im Kontext von Interdependenz und Kooperation“. Die zum 70. Geburtstag nun vorliegende dritte Festgabe geht
über den Rahmen der Produktionswirtschaft sowie des Produkt- und Innovationsmanagements deutlich hinaus. Sie fokussiert auf wichtige thematische Eckpfeiler und Leitlinien des
wissenschaftlichen Werkes und Wirkens von Klaus Bellmann: „Kompetenz, Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre“.
Betriebswirtschaftslehre verstanden als (praxeologische) Kunstlehre im Schmalenbachschen Sinne zielt ähnlich der operativen Kunst der Militärwissenschaften, auf die bereits
sein Doktorvater und wissenschaftlicher Förderer, Univ.-Prof. Dr. Gert-Harald v.
Kortzfleisch, frühzeitig hingewiesen hat, auf die sachgerechte Vorbereitung und Unterstützung von Entscheidungen der Führung in Unternehmungen ab. Diese betriebswirtschaftliche Sicht steht nicht konträr, sondern komplementär zur quantitativ-wissenschaftlichen
Betriebswirtschaftslehre, die Planungen und Führungsentscheidungen auf Basis von Kalkülen rational gestalten will. Beiden Ansätzen steht Klaus Bellmann, diplomierter Elektrotechnikingenieur an der TU Darmstadt und ausgebildeter Reservestabsoffizier der Bundesluftwaffe, von Beginn seiner wissenschaftlichen Karriere an sehr nahe.
Führungs- und Managemententscheidungen in zunehmend unsicheren, dynamischen und
komplexen Umwelten treffen auf inflexible und daher zur Disposition stehende Strukturen,
Prozesse und Steuerungskonzeptionen. Der Entwurf und die Gestaltung von funktionsübergreifenden und interdisziplinären Theorien, Konzepten, Ansätzen und Instrumenten zur
Anpassung an bzw. Reduktion von Umweltkomplexität sowie der Auf- und Ausbau von
Kern- und Komplementärkompetenzen bilden hierfür wesentliche Lösungshilfen.
Diesen Anspruch hat sich Klaus Bellmann in seinen theoretischen und anwendungsorientierten Forschungen und Lehrtätigkeiten stets in beeindruckender Weise selbst gestellt und
erfüllt. Sein Forschungsprojekt „Strukturierungs- und Steuerungsaspekte in hochkomplexen
heterarchischen Unternehmensnetzwerken“ oder sein Engagement im Arbeitskreis „Strategisches Kompetenzmanagement“ sollen hier als Beispiele dienen.
Die Beiträge dieser Festgabe ließen sich leicht zu je einem Drittel den drei Themenbereichen Kompetenz, Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre zu-
XIV
Vorwort der Herausgeber
ordnen. Dies wäre aber nicht im Sinne des Jubilars, da dies eine vorweggenommene, subjektiv einschränkende Komplexitätsreduktion darstellen würde und somit gewissermaßen
„bias“-verdächtig wäre. Viel zu ganzheitlich ist seine Sichtweise, und die vielfältigen Perspektiven der Autorinnen und Autoren sind geeignet, dieses Wissenschaftsverständnis weiträumig auszuleuchten. Die Herausgeber überlassen es deshalb den Lesern, bei der Lektüre
ihre eigene Sichtweise zu Kompetenz, Interdisziplinarität und Komplexität in der Betriebswirtschaftslehre zu entwickeln, um neue Perspektiven für sich zu gewinnen. Um dies uneingeschränkt zu ermöglichen, haben wir eine rein namensalphabetische Reihenfolge aller
Beiträge gewählt.
In der Rubrik „Nachlese“ finden sich bislang unveröffentlichte Reminiszenzen zur akademischen Feierstunde anlässlich des 65. Geburtstags des Jubilars an der Johannes Gutenberg-Universität Mainz am 06. Juni 2008. Kulinarisch und ökonomisch an der molekularen
Küche Interessierte, die nach Einschätzung des Jubilars signifikante Effektivitäts- und Effizienzgewinne in den Fertigungsbereich „Küche“ aus Sicht eines „Produktionswirtschaftlers“ einbringen kann, wenden sich bitte direkt an ihn zwecks Gedanken- und Erfahrungsaustauschs.
Allen Autorinnen und Autoren dieses Sammelbandes danken wir sehr herzlich für ihre
Ideen, die sie in vielfältigen interessanten Beiträgen zu Ehren des Jubilars in diesem Sammelband niedergelegt haben – ohne ihren Einsatz und ihre Termintreue gedankt wäre dieses
Buch nicht zustande gekommen. Die Festgabe wurde großzügig finanziell unterstützt von
den Schülern des Jubilars sowie den Unternehmen Böhringer Ingelheim GmbH, Ingelheim
am Rhein, Dr. Ing. h.c. F. Porsche AG, Stuttgart, Ricoh Deutschland GmbH, Hannover,
Xelios Consult GmbH, Frankfurt am Main. Über die Festgabe hinaus konnte so anlässlich
des Geburtstages von Klaus Bellmann der Fachbereichsbibliothek Rechts- und Wirtschaftswissenschaften der Johannes Gutenberg-Universität Mainz eine Geldspende für den
Bucherwerb zur Verfügung gestellt werden. Frau Dr. Valérie Schüller sei für ihre administrative Unterstützung gedankt und Herrn Prodekan, Univ.-Prof. Dr. Roland Euler, für die
wohlwollende Begleitung des Vorhabens.
Für die problemfreie Abwicklung der verlagsseitigen Angelegenheiten sind die Herausgeber Frau Marta Schmidt und Frau Nicole Schweitzer vom Verlag Springer Gabler, Wiesbaden, zu Dank verpflichtet. Herr Jens Ossadnik, Lektorat „Rund um Text“, hat die trotz
Formatierungsvorgaben der Herausgeber durchaus vielfältigen Formatinterpretationen der
Autorenschaft durch hohe Professionalität bei den Satzarbeiten dankenswerterweise gemeistert. Dank schulden wir ebenfalls Frau Stephanie Richter und Frau Anja Meister für
ihre vielfältige Sekretariatsunterstützung bei der Vorbereitung des Sammelbandes.
Wir wünschen Klaus Bellmann im Namen aller Autorinnen und Autoren, Schüler und
Kollegen für die kommenden Jahre viel Glück, stets gute Gesundheit, uneingeschränkte
Tatkraft, anregende Entspannung im Kreise seiner um einen Enkel erweiterten, geschätzten
Familie und die Entdeckung immer wieder neuer Perspektiven! Dabei gilt es nach wie vor,
neue Gipfel zu erklimmen:
Zu seiner geplanten Bergtour auf die Tiroler Wildspitze (3.768 m ü. A.) wünschen wir
ihm deshalb ebenfalls gutes Gelingen!
Wolfgang Kersten – Jochen Wittmann
Inhaltsverzeichnis
Grußwort Hans Corsten .................................................................................................. VII
Grußwort Nikolaus Franke..............................................................................................
IX
Grußwort Stefan Seuring .................................................................................................
XI
Vorwort der Herausgeber ................................................................................................ XIII
Inhaltsverzeichnis .......................................................................................................... XV
Autorenverzeichnis ....................................................................................................... XIX
Dienstleistungsmodularisierung: Entwurf zweier alternativer
Modellierungsvorschläge
Hans Corsten, Hagen Salewski......................................................................................................
1
Innovationen – Plattformen erleichtern den Weg!
Joachim Fischer ............................................................................................................................
17
On the Firm’s Raison d’Être and Competence-based Nature of the Firm
Jörg Freiling..................................................................................................................................
29
Conceptualizing the Capability of Supplier Sustainability Risk Management
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter ..................................................................
39
XVI
Inhaltsverzeichnis
Complexity and Robustness Influence on Production Performance –
A Theoretical Framework
Regina Grussenmeyer, Thorsten Blecker .......................................................................................
57
Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt
Sylke Heusinger von Waldegge......................................................................................................
71
Industrielles Beschaffungsmanagement im Spannungsfeld zwischen
Herausforderung und Relevanz
Frank Himpel.................................................................................................................................
87
Der Wert der Werte
Überlegungen im Ausgang von Goethes „Werther“
Jochen Hörisch ..............................................................................................................................
93
Airport Facility Management – im Spannungsfeld zwischen
Aufgabenkomplexität und Effizienzanspruch
Guido Kaupe, Eva Engel ............................................................................................................... 103
Zielorientiertes Risikomanagement bei Einsatzorganisationen
Eva-Maria Kern, Thomas Hartung ................................................................................................ 113
Implementierung eines Supply Chain Risk Managements
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach ............................................. 133
E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer
Informationstechnologien
Dagmar Kessler ............................................................................................................................. 149
Achtsamkeit in Organisationen: Vom Stressmanagement über das achtsame
Interagieren und Führen zur bewussten Gestaltung von Veränderungsprozessen
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer ...................................................................... 163
Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis –
Theoretische Überlegungen und empirische Ergebnisse
Sascha Kwasniok, Hans Meissner ................................................................................................. 179
Development of Information Systems in Manufacturing
Olga Levina, Hermann Krallmann ................................................................................................ 195
Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte
Auftragsabwicklung in der Logistik
Markus Mathieu, Klaus Breuer ..................................................................................................... 209
Inhaltsverzeichnis
XVII
Environmental Sustainability Practices in Supply Chains
Case of North American High-Tech Industry
Mark Morrissey, Anshuman Khare ................................................................................................ 221
Interorganizational Learning between Convergence and Cospecialization –
A Knowledge-Based Typology of Strategic Alliances
Dietrich von der Oelsnitz, Marcus Lorenz ..................................................................................... 243
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
Niko Paech .................................................................................................................................... 259
Strategic Management of Innovation in Life Science
Christian Schäfer ........................................................................................................................... 279
Betriebswirtschaftslehre und Militärwissenschaft – Widerspruch oder Kooperation?
Eine analytische Skizze aus „dogmengeschichtlichem“ Interesse
Dietmar Schössler.......................................................................................................................... 289
Die Wirtschaftstrends der Zukunft
Hermann Simon ............................................................................................................................. 297
Anforderungen des Technologiemanagements an die Modellierung von
Entscheidungssituationen
Dieter Specht, Gunnar Berntsen .................................................................................................... 303
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
Marion Steven, René Blank............................................................................................................ 323
Nutzung von verborgenen Unternehmensressourcen in Krisensituationen
Horst Wildemann ........................................................................................................................... 347
Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period
from 2007-2009
Jan Wirsam .................................................................................................................................... 359
Networks, Anomy and Open Innovation: Some Conceptual Views
Jochen Wittmann ........................................................................................................................... 373
Nachlese.......................................................................................................................... 387
Grußwort des Präsidenten zur Emeritierung von Prof. Bellmann
Georg Krausch .............................................................................................................................. 389
XVIII
Inhaltsverzeichnis
Professor Dr. Klaus Bellmann eine Melange zum Geburtstag:
Kurzfassung und Abrundung der Laudatio zum 65er
Eva-Maria Kern............................................................................................................................. 391
Auf dem Weg zur Eggszellenz
Klaus Bellmann ............................................................................................................................. 395
Wissenschaftliche Veröffentlichungen
Univ.-Prof. Dipl.-Ing. Dr. rer. pol. Klaus Bellmann ................................................... 407
Autorenverzeichnis
B
Prof. Dr. Klaus BELLMANN
Johannes Gutenberg-Universität Mainz
Co-Direktor des Center of Market-Oriented Product and Production Management
Jakob-Welder-Weg 9
D - 55099 Mainz
bellmann@uni-mainz.de
http://www.cmpp.de/
Gunnar BERNTSEN
Brandenburgische Technische Universität Cottbus
Institut für Produktionsforschung
Lehrstuhl für Produktionswirtschaft
Siemens-Halske-Ring 6
D - 03046 Cottbus
berntsen@prodwi.tu-cottbus.de
http://www.prodwi.tu-cottbus.de/
Professor Dr. med. Andrea BERZLANOVICH
Medizinische Universität Wien
Department für Gerichtliche Medizin
Sensengasse 2
A - 1090 Wien
andrea.berzlanovich@meduniwien.ac.at
http://www.meduniwien.ac.at/gerichtsmedizin/
René BLANK
Ruhr-Universität Bochum
Lehrstuhl für Produktionswirtschaft
Universitätsstraße 150
D - 44801 Bochum
rene.blank@rub.de
http://www.prowi.ruhr-uni-bochum.de/
XX
Autorenverzeichnis
Professor Dr. Thorsten BLECKER
Technische Universität Hamburg-Harburg
Institut für Logistik und Unternehmensführung
Schwarzenbergstraße 95
D - 21073 Hamburg
blecker@ieee.org
http://www.logu.tu-harburg.de/
Professor Dr. Klaus BREUER
Johannes Gutenberg-Universität Mainz
Lehrstuhl für Wirtschaftspädagogik
Jakob-Welder-Weg 9
D - 55099 Mainz
klaus.breuer@uni-mainz.de
http://www.wipaed.uni-mainz.de/
C
Professor Dr. Hans CORSTEN
Vorsitzender der
Wissenschaftlichen Kommission für Produktionswirtschaft
im Verband der Hochschullehrer für Betriebswirtschaft e.V.
Technische Universität Kaiserslautern
Lehrstuhl für Produktionswirtschaft
Gottlieb-Daimler-Straße, Geb. 42
D - 67663 Kaiserslautern
corsten@wiwi.uni-kl.de
http://produktion.wiwi.uni-kl.de/
E
Eva ENGEL
Rechnungswesensysteme und -services der Fraport AG
Flughafen Frankfurt/Main
D - 60547 Frankfurt am Main
e.engel@fraport.de
http://www.fraport.de/
F
Max FESER
Technische Universität Hamburg-Harburg
Institut für Logistik und Unternehmensführung
Schwarzenbergstraße 95
D - 21073 Hamburg
max.feser@tuhh.de
http://www.logu.tu-harburg.de/
XXI
Autorenverzeichnis
Professor Dr. Joachim FISCHER
Universität Paderborn
Fakultät Wirtschaftswissenschaften
Schwerpunkt Wirtschaftsinformatik 1
Betriebswirtschaftliche Informationssysteme
Warburger Straße 100
D - 33098 Paderborn
joachim.fischer@notes.uni-paderborn.de
http://winfo1-www.uni-paderborn.de/
Professor Dr. Nikolaus FRANKE
Vorsitzender der
Wissenschaftlichen Kommission für Technologie, Innovation und Entrepreneurship
im Verband der Hochschullehrer für Betriebswirtschaft e.V.
Wirtschaftsuniversität Wien
Institut für Entrepreneurship und Innovation
Augasse 2-6
A - 1090 Wien
nikolaus.franke@wu.ac.at
http://www.wu.ac.at/
Professor Dr. Jörg FREILING
Universität Bremen
Fachbereich Wirtschaftswissenschaft
Lehrstuhl für Mittelstand, Existenzgründung und Entrepreneurship (LEMEX)
Wilhelm-Herbst-Straße 5
D - 28359 Bremen
freiling@uni-bremen.de
http://www.lemex.uni-bremen.de/de/
G
Jörg H. GRIMM
Universität St. Gallen
Forschungszentrum für Supply Chain Management,
Logistik & Verkehr
Lehrstuhl für Logistikmanagement (LOG-HSG)
Dufourstrasse 40a
CH - 9000 St. Gallen
joerg.grimm@unisg.ch
http://www.logistik.unisg.ch/
Regina GRUSSENMEYER
Technische Universität Hamburg-Harburg
Institut für Logistik und Unternehmensführung
Schwarzenbergstraße 95
D - 21073 Hamburg
regina@grussenmeyer.eu
http://web.logu.tu-harburg.de/
XXII
Autorenverzeichnis
H
Professor Dr. Thomas HARTUNG
Prodekan des Fachbereichs Wirtschafts- und Organisationswissenschaften
Universität der Bundeswehr München
Professur für Versicherungswirtschaft
Werner-Heisenberg-Weg 39
D - 85577 Neubiberg
thomas.hartung@unibw.de
http://www.unibw.de/wow6_4/
Dr. Sylke HEUSINGER VON WALDEGGE
Product Charging Manager
Strategy & Program Office
Schaeffler Technologies AG & Co. KG
Industriestraße 1-3
D - 91074 Herzogenaurach
Sylke.von.Waldegge@schaeffler.com
http://www.schaeffler.de
Professor Dr. habil. Frank HIMPEL
Hochschule Anhalt
Logistikmanagement
Strenzfelder Allee 28
D – 06406 Bernburg
http://www.hs-anhalt.de/
Professor Dr. Jochen HÖRISCH
Seminar für Deutsche Philologie
Universität Mannheim
Neuere Germanistik II
D - 68131 Mannheim
hoerisch@rumms.uni-mannheim.de
http://germanistik.uni-mannheim.de
Assistenz-Professor Dr. Joerg S. HOFSTETTER
Universität St. Gallen
Forschungszentrum für Supply Chain Management,
Logistik & Verkehr
Lehrstuhl für Logistikmanagement (LOG-HSG)
Dufourstrasse 40a
CH - 9000 St. Gallen
joerg.hofstetter@unisg.ch
http://www.logistik.unisg.ch/
XXIII
Autorenverzeichnis
K
Dr. Guido KAUPE
Leiter Rechnungswesensysteme und -services der Fraport AG
Geschäftsführer der Energy Air GmbH
Flughafen Frankfurt/Main
D - 60547 Frankfurt am Main
g.kaupe@fraport.de
http://www.fraport.de/
Professor Dr. Eva-Maria KERN, MBA
Dekanin des Fachbereichs Wirtschafts- und Organisationswissenschaften
Universität der Bundeswehr München
Professur für Wissensmanagement und Geschäftsprozessgestaltung
Werner-Heisenberg-Weg 39
D - 85577 Neubiberg
eva-maria.kern@unibw.de
http://www.unibw.de/wow5_5/
Professor Dr. Dr. h.c. Wolfgang KERSTEN
Technische Universität Hamburg-Harburg
Institut für Logistik und Unternehmensführung
Schwarzenbergstraße 95
D - 21073 Hamburg
logu@tu-harburg.de
http://www.logu.tu-harburg.de/
Prof. Dr. Dagmar KESSLER
Fachhochschule Worms
Studiengang Wirtschaftsinformatik
Erenburgerstraße 19
D - 67549 Worms
kessler@fh-worms.de,
http://www.fh-worms.de
Professor Dr. Anshuman KHARE
Stipendiat der Alexander von Humboldt-Stiftung
bei Professor Dr. Klaus Bellmann
Athabasca University
Faculty of Business
Operations Management & Sustainable Development Chair
22 Sir Winston Churchill Avenue
St. Albert, AB T8N 1B4
Kanada
anshuman@athabascau.ca
http://www.mba.athabascau.ca/
XXIV
Autorenverzeichnis
Markus KLOTZBACH
Technische Universität Hamburg-Harburg
Institut für Logistik und Unternehmensführung
Schwarzenbergstraße 95
D - 21073 Hamburg
markus.klotzbach@tuhh.de
http://www.logu.tu-harburg.de/
Prof. Dr. phil. Dr. habil. med. Niko KOHLS
Hochschule Coburg
Bereich Integrative Gesundheitsförderung
Samueli Scholar Brain, Mind & Healing Program
Friedrich-Streib-Straße 2
D - 96450 Coburg
niko.kohls@hs-coburg.de
http://www.hs-coburg.de/
Professor Dr. Hermann KRALLMANN
Technische Universität Berlin
Institut für Wirtschaftsinformatik und Quantitative Methoden
Fachgebiet Systemanalyse und EDV
Franklinstraße 28/29
D - 10587 Berlin
hkr@sysedv.tu-berlin.de
http://www.sysedv.tu-berlin.de/
Professor Dr. Georg KRAUSCH
Präsident
Johannes Gutenberg-Universität Mainz
D - 55099 Mainz
praesident@uni-mainz.de
www.uni-mainz.de
Dr. Sascha KWASNIOK
Berater Betriebsorganisation
Alte Leipziger Lebensversicherung a.G.
Alte-Leipziger-Platz 1
D - 61440 Oberursel
sascha.kwasniok@alte-leipziger.de
http://www.alte-leipziger.de/
XXV
Autorenverzeichnis
L
Dr. Olga LEVINA
Technische Universität Berlin
Institut für Wirtschaftsinformatik und Quantitative Methoden
Fachgebiet Systemanalyse und EDV
Franklinstraße 28/29
D - 10587 Berlin
olga.levina.1@tu-berlin.de
http://www.sysedv.tu-berlin.de/
Dr. Marcus LORENZ
Technische Universität Braunschweig
Department Wirtschaftswissenschaften
Institut für Unternehmensführung
Lehrstuhl für Organisation und Führung
Abt-Jerusalem-Straße 4
D - 38106 Braunschweig
c.charcholla@tu-braunschweig.de
http://www.tu-braunschweig.de
M
Markus MATHIEU
Johannes Gutenberg-Universität Mainz
Lehrstuhl für Wirtschaftspädagogik
Jakob-Welder-Weg 9
D - 55099 Mainz
markus.mathieu@uni-mainz.de
http://www.wipaed.uni-mainz.de/
Professor Dr. Hans MEISSNER
Fachleiter für den Bereich Versicherungen
Duale Hochschule Baden-Württemberg Mannheim
Coblitzallee 1-9
D - 68163 Mannheim
meissner@dhbw-mannheim.de
http://www.dhbw-mannheim.de/
Mark MORRISSEY
mark_morrissey_12@hotmail.com
XXVI
Autorenverzeichnis
O
Professor Dr. Dietrich VON DER OELSNITZ
Technische Universität Braunschweig
Department Wirtschaftswissenschaften
Institut für Unternehmensführung
Lehrstuhl für Organisation und Führung
Abt-Jerusalem-Straße 4
D - 38106 Braunschweig
c.charcholla@tu-braunschweig.de
http://www.tu-braunschweig.de
P
Professor Dr. Niko PAECH
Universität Oldenburg
Lehrstuhl Produktion und Umwelt
Fakultät II - Informatik, Wirtschafts- und Rechtswissenschaften
Institut für Betriebswirtschaftslehre und Wirtschaftspädagogik
D - 26111 Oldenburg
niko.paech@uni-oldenburg.de
http://www.uni-oldenburg.de
S
Hagen SALEWSKI
Technische Universität Kaiserslautern
Lehrstuhl für Produktionswirtschaft
Gottlieb-Daimler-Straße, Geb. 42
D - 67663 Kaiserslautern
salewski@wiwi.uni-kl.de
http://produktion.wiwi.uni-kl.de/
Dr. Sebastian SAUER
Ludwig-Maximilians-Universität München
GRP - Generation Research Program
Associated Researcher
Prof.-Max-Lange-Platz 11
D - 83646 Bad Tölz
sauer@grp.hwz.uni-muenchen.de
http://www.grp.hwz.uni-muenchen.de/
Dr. Christian SCHÄFER
Director Global Forecasting & Strategic Process
Böhringer Ingelheim GmbH
Binger Strasse 173
D - 55216 Ingelheim am Rhein
Christian.h.schaefer@t-online.de
http://www.boehringer-ingelheim.de
XXVII
Autorenverzeichnis
Professor Dr. habil. Dietmar SCHÖSSLER
Universität der Bundeswehr München
Fakultät für Sozialwissenschaften
Werner-Heisenberg-Weg 39
D - 85577 Neubiberg
dietmar.schoessler@unibw-muenchen.de
http://www.unibw.de
Dr. Meike SCHRÖDER
Technische Universität Hamburg-Harburg
Institut für Logistik und Unternehmensführung
Schwarzenbergstraße 95
D - 21073 Hamburg
meike.schroeder@tuhh.de
http://www.logu.tu-harburg.de/
Professor Dr. Stefan SEURING
Vorsitzender der
Wissenschaftlichen Kommission für Nachhaltigkeitsmanagement
im Verband der Hochschullehrer für Betriebswirtschaft e.V.
Universität Kassel
Institut für Betriebswirtschaftslehre
Fachgebiet Supply Chain Management
Untere Königsstraße 71
D - 34117 Kassel
seuring@uni-kassel.de
http://www.uni-kassel.de
Professor Dr. Dr. h.c. mult. Hermann SIMON
Chairman
Simon-Kucher & Partners
Strategy & Marketing Consultants
Willy-Brandt-Allee 13
D – 53113 Bonn
hermann.simon@simon-kucher.com
http://www.simon-kucher.com/
Professor Dr.-Ing. habil. Dieter SPECHT
Brandenburgische Technische Universität Cottbus
Institut für Produktionsforschung
Lehrstuhl für Produktionswirtschaft
Siemens-Halske-Ring 6
D - 03046 Cottbus
info@prodwi.tu-cottbus.de
http://www.prodwi.tu-cottbus.de/
XXVIII
Autorenverzeichnis
Professor Dr. Marion STEVEN
Ruhr-Universität Bochum
Lehrstuhl für Produktionswirtschaft
Universitätsstraße 150
D - 44801 Bochum
marion.steven@rub.de
http://www.prowi.ruhr-uni-bochum.de/
Professor Dr. Wolfgang STÖLZLE
Universität St. Gallen
Forschungszentrum für Supply Chain Management,
Logistik & Verkehr
Lehrstuhl für Logistikmanagement (LOG-HSG)
Dufourstrasse 40a
CH - 9000 St. Gallen
wolfgang.stoelzle@unisg.ch
http://www.logistik.unisg.ch/
W
Professor Dr. Dr. h.c. mult. Horst WILDEMANN
Technische Universität München
Lehrstuhl für Betriebswirtschaftslehre – Unternehmensführung, Logistik und Produktion
Leopoldstraße 145
D - 80804 München
wisekretariate@wi.tum.de
http://www.bwl.wi.tum.de/
Dr. Jan WIRSAM
Ricoh Deutschland GmbH
Ricoh Document Center
Georg-Kohl-Straße 42
D - 74336 Brackenheim
janwirsam@gmx.de
http://www.ricoh-documentcenter.de/
Dr. Jochen WITTMANN
General Manager
Dr. Ing. h.c. F. Porsche Aktiengesellschaft
Entwicklungszentrum
Porschestraße
D - 71287 Weissach
jochenwittmann@yahoo.com
http://www.porsche.com/
Dienstleistungsmodularisierung: Entwurf zweier alternativer
Modellierungsvorschläge
Hans Corsten, Hagen Salewski
1
Problemstellung
Der Begriff der Dienstleistungen wird in der Literatur kontrovers diskutiert.1 Ohne auf
diese Diskussion einzugehen, sollen Dienstleistungen in diesem Beitrag als Problemlösungen verstanden werden2, deren Produktion durch die Integration eines externen Produktionsfaktors gekennzeichnet ist.
Ein Nachfragerbedürfnis wird dabei als ein individuelles Problem des Nachfragers und
die Bedürfnisbefriedigung als eine von ihm akzeptierte Problemlösung charakterisiert, die
vom Produzenten, ggf. unter aktiver Beteiligung des Nachfragers, gefunden wird. Ein Problem ergibt sich für ein Wirtschaftssubjekt aus einer als negativ empfundenen, nichttolerierbaren Diskrepanz zwischen dem aktuellen Ist-Zustand und dem Soll-Zustand eines Betrachtungsobjektes (externer Faktor) aus seinem Verfügungsbereich. Wird die Leistung am
Nachfrager selbst erbracht, dann wird von einer personenbezogenen Dienstleistung gesprochen. Eine Dienstleistung konkretisiert sich dann als nutzenstiftende Transformation von
problematischen Eigenschaften des externen Faktors in Richtung des Soll-Zustandes.3
Die Modularisierung von Dienstleistungen wird insbesondere im Spannungsfeld von
Standardisierung und Individualisierung in der Literatur thematisiert.4 Diese sind jedoch
nicht als Gegensätze zu interpretieren, sondern sie bilden die Eckpunkte eines Kontinuums.
Bei einer Individualisierung zielt das Leistungsangebot eines Anbieters auf die individuellen Wünsche des Nachfragers ab, die er möglichst gut befriedigen möchte.5. Es liegt somit
eine differenzierte Marktbearbeitung vor, die Chancen für eine verstärkte Kundenbindung
1
Vgl. zu einem Überblick Corsten/Gössinger 2007, S. 21 ff.
2
Vgl. z. B. Kern 1979, Sp. 1434 ff.
3
Vgl. auch Corsten/Gössinger 2004, S. 255 ff.
4
Vgl. z. B. Jacob 1995, S. 35 ff.; Schackmann 2003, S. 9 ff.
5
Vgl. Mayer 1993, S. 36.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_1,
© Springer Fachmedien Wiesbaden 2013
2
Hans Corsten, Hagen Salewski
auf der Grundlage einer erhöhten Leistungsattraktivität zur Schaffung eines Preisspielraumes sowie eine Errichtung von Markteintrittsbarrieren eröffnet.6
Bei der Standardisierung7 erfolgt eine Vereinheitlichung von Leistungen (Einheitslösung), um so die Vielfalt der Leistungen zu reduzieren (undifferenzierte Marktbearbeitung),
d. h., sie zielt auf die Gemeinsamkeiten der Nachfragerwünsche ab.8
Eine Standardisierung von Prozessen geht in der Regel zumindest mit einer Standardisierung von Teilleistungen einher und ist nur in dem Umfang durchführbar, wie die
Nachfragerwünsche vor der Erbringung einer Leistung durch den Anbieter antizipierbar
sind. Trotz der (teilweise restringierenden) Einwirkungen des externen Produktionsfaktors
auf den Dienstleistungserstellungsprozess lassen sich einzeln Aktivitäten und Sequenzen
standardisieren.
Die Standardisierung bewirkt folglich eine Einschränkung des Leistungsspektrums des
Anbieters und ist mit Kostenvorteilen verbunden, die sich generell auf Erfahrungskurveneffekte sowie Senkung der Umrüst- und Koordinationskosten zurückführen lassen. Darüber
hinaus geht die Standardisierung mit einer Reduzierung von Unsicherheiten und der Realisation von Zeitvorteilen (wenn es sich nicht um Zeitvertreibungsangebote handelt) einher9
und bewirkt somit eine erhöhte Transparenz und Vereinfachung.
Die Modularisierung zielt darauf ab, die Standardisierung und Individualisierung gleichermaßen zu berücksichtigen.10 Hierbei wird der Dienstleistungserstellungsprozess in
Teilleistungen zerlegt, die dann flexibel miteinander kombiniert werden können, um so ein
Spektrum heterogener Kundenbedürfnisse zu befriedigen.11 Die Kombination der Module
darf dabei aber nicht willkürlich erfolgen, sondern es sind die Wechselwirkungen zwischen
den Modulen zu beachten. Vor diesem Hintergrund lässt sich die Modularisierung als eine
Dekomposition eines Systems in abgeschlossene und weitgehend voneinander unabhängige
Teilsysteme beschreiben.12 Diese Teilsysteme werden als Module bezeichnet, die dann auf
der Grundlage standardisierter Schnittstellen in unterschiedlicher Weise miteinander kombiniert werden können.13 Um diese Schnittstellen zu handhaben, müssen Regeln für eine
gemeinsame Aufgabenerfüllung formuliert, definierte Verantwortlichkeiten sowie Informations- und Kommunikationswege geschaffen werden.
6
Vgl. Schnäbele 1997, S. 38.
7
Vgl. Levitt 1972, S. 47 ff., Levitt 1976, S. 63 ff.
8
Mayer 1993, S. 42 ff. spricht von einer Befriedigung von Durchschnittswünschen, d. h., es geht um die
Feststellung von Gemeinsamkeiten in der Anspruchsstruktur der Nachfrager.
9
Vgl. Büttgen/Ludwig 1997, S. 29 ff.
10
Zu einer Systematisierung in Abhängigkeit von der Eingriffstiefe des Nachfragers in den Leistungserstellungsprozess vgl. Lampel/Mintzberg 1996, S. 25 f.
11
Vgl. Stauss 2006, S. 324.
12
Vgl. z. B. Burr 2002, S. 120 f.
13
Vgl. Baldwin/Clark 1997, S. 125; Sanchez 1996, S. 126 ff.
Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge
3
Der Modularisierung werden in der Literatur generell die folgenden Vorteile zugesprochen:14
-
Komplexitätsreduktion,
Kostensenkung in der Produktion,
Verkürzung der Produktentwicklungsleistungen und
Erhöhung der Angebotsvielfalt.
Im Folgenden sollen zwei Modelle zur Gestaltung von modularen Dienstleistungen abgeleitet werden. Ziel dieser Modelle ist es, jeweils die Elemente einer Dienstleistung so in Module zu zerlegen, dass dabei die Koordinationskosten, die bei der Nutzung des modularen
Systems entstehen, minimiert werden. Die gemeinsame (Daten-)Basis beider Ansätze, auf
die zunächst im folgenden Abschnitt fokussiert werden soll, ist die strukturierte Erfassung
der Interdependenzkosten zwischen den Leistungselementen.
2
Design Structure Matrizen als Modellierungsgrundlage
Als Grundlage quantitativer Ansätze zur Dienstleistungsmodularisierung lassen sich die
sogenannten Design Structure Matrizen (DSM) heranziehen, die von Steward15 entwickelt
wurden, um Zusammenhänge in komplexen Systemen zu veranschaulichen. Den Einsatzschwerpunkt von DSM bildet die Konfiguration physischer Produkte im Maschinenbau.16
Ihr Einsatz zur Gestaltung von Dienstleistungen wurde erstmals von Burr17 vorgeschlagen,
jedoch nicht konkret modelliert.
Im Rahmen der Modularisierung von Dienstleistungen erfassen DSM die Abhängigkeiten
zwischen den einzelnen (standardisierten) Leistungselementen, aus denen sich die betrachtete Dienstleistung zusammensetzt. Diese Abhängigkeiten werden als Zahlenwert in der
DSM dargestellt und können, je nach Anwendung der DSM und Ermittlungsart der konkreten Werte, auf unterschiedliche Art und Weise interpretiert werden. Im Folgenden werden
die Elemente der DSM als Koordinationskosten interpretiert, weil bei arbeitsteiliger Dienstleistungserstellung durch (mehrere) Anbieter und (mehrere) Nachfrager das Problem der
Erstellung von kompatiblen Leistungselementen, die unabhängig voneinander erstellt werden können, virulent wird.18 Um die Kompatibilität sicherzustellen, sind grundsätzlich die
beiden folgenden Vorgehensweisen denkbar:
- vor Erstellung der Leistungselemente wird durch Einsatz von Koordinationsinstrumenten
eine Kompatibilität herbeigeführt, oder
- es werden bei Auftreten von Inkompatibilitäten entsprechende Korrekturmaßnahmen
ergriffen.
14
Vgl. Burr 2002, S. 147 ff.; Meyer/DeTore 1999, S. 65; Sanchez 1999, S. 95 ff.
15
Erstmals erwähnt von Steward 1965, S. 345 und ausführlicher in Steward 1981, S. 11 ff.
16
Für einen Überblick über den Einsatz von DSM im Produktdesign und darüber hinaus vgl. Browning
2001, S. 292 ff., Eppinger/Browning 2012, S. 1 ff.
17
Vgl. Burr 2002, S. 128 ff.
18
Vgl. Gaitanides 2007, S. 93 ff.
4
Hans Corsten, Hagen Salewski
Beide Vorgehensweisen verursachen Kosten, die als Koordinationskosten bezeichnet werden sollen. Sie sind Opportunitätskosten eines nicht erfüllten Koordinationsbedarfs. Zur
Veranschaulichung ist in Abbildung 1 die Design Structure Matrix eines Behandlungsprozesses in der Notfallaufnahme eines Krankenhauses dargestellt.19
A B C D E
F G H
I
J
K L M
Ankunft A
0
2
2
0
1
0
0
2
0
0
2
0
0
Aufnahme B
2
0
2
5
2
0
0
2
1
0
1
1
0
Ersteinschätzung C
0
1
0
2
2
1
0
2
1
1
2
0
0
Röntgen D
1
0
3
0
3
3
3
3
2
1
1
0
4
Diagnose E
2
0
2
2
0
2
3
4
2
1
2
0
3
Bruch richten F
1
0
0
0
2
0
3
0
0
1
0
1
0
Gipsen G
0
0
1
1
2
3
0
2
0
1
1
1
0
Konsil H
1
0
1
1
3
2
3
0
3
1
1
0
5
OP-Terminierung I
0
0
1
1
2
0
4
2
0
3
3
1
0
OP-Aufklärung J
2
0
0
0
0
1
1
1
2
0
1
0
1
Bettensuche K
1
1
0
0
0
1
1
2
4
2
0
0
2
Verlegung L
1
2
1
1
1
2
3
0
1
1
6
0
3
Gips öffnen M 1
1
2
3
3
4
4
4
0
1
0
0
0
Abbildung 1:
Beispiel einer Design Structure Matrix
Grundsätzlich lassen sich die Beziehungsarten, die zwischen den Leistungselementen
existieren, in drei Klassen unterteilen:
- Unabhängigkeit: es bestehen keine direkten Abhängigkeiten zwischen den Leistungselementen (z. B. zwischen F und I in Abbildung 1). Die Erstellung der Leistungselemente
muss nicht koordiniert werden.
- Einseitige Abhängigkeiten (Dependenzen): ein Leistungselement beeinflußt die Erstellung des anderen, wird von diesem aber nicht selbst beeinflusst (z. B. zwischen D und J).
Der Koordinationsbedarf kann aufgelöst werden, wenn zunächst die Parameter von Leistungselement D bestimmt werden.
19
In der Design Structure Matrix des Beispiels sind zeilenweise die Koordinationskosten, die durch das
Leistungselement bei anderen Leistungselementen erzeugt werden, dargestellt, wohingegen spaltenweise
die durch die Koordination mit anderen Leistungselementen verursachten Kosten dargestellt sind.
Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge
5
- Wechselseitige Abhängigkeiten (Interdependenzen): beide Leistungselemente beeinflussen sich gegenseitig (z. B. zwischen M und H), wobei die Stärke des Einflusses variieren
kann. Die Koordination zwischen den beiden Leistungselementen kann minimiert werden, wenn der höhere Koordinationsbedarf aufgelöst wird, also bei Erstellung von H die
Vorgaben durch M berücksichtigt werden und der niedrigere Koordinationsbedarf wirksam wird.
Existiert bei einer Dienstleistung die Möglichkeit, dass die Leistung durch Kombinationen
von Leistungselementen erstellt und somit individualisiert wird, dann weist die Dienstleistung mehrere denkbare Dienstleistungspfade auf, wobei jeder Pfad eine mögliche Erstellungsalternative beschreibt. Pfadspezifische DSM lassen sich aus einer Gesamtdienstleistungs-DSM ableiten, indem Beziehungen zu Leistungselementen, die nicht Bestandteil des
Pfades sind, mit Null bewertet werden. Ferner wird im Folgenden angenommen, dass sich
die möglichen Dienstleistungspfade erfassen lassen und ihre Ausführungswahrscheinlichkeiten ermittelt werden können.20
3
Modellierung als Zuordnungsproblem
An die Modellierung der koordinationskostenoptimalen Zuordnung aller Leistungselemente
zu Modulen werden die folgenden Anforderungen formuliert:
- Die Koordination der einem Modul zugeordneten Leistungselemente erfolgt ausschließlich durch einen Modulverantwortlichen, wodurch die Koordinationskomplexität sinkt.
Hierdurch wird der Koordinationsbedarf innerhalb des Moduls durch einen von der Modulgröße abhängigen Koordinationsbedarf ersetzt. Das kleinste denkbare Modul besteht
aus genau einem Leistungselement, die maximale Anzahl der Leistungselemente eines
Moduls ist durch die Koordinationskapazität des Modulverantwortlichen restringiert.21
Die durch den modulinternen Koordinationsbedarf verursachten Kosten werden als intermodulare Koordinationskosten bezeichnet.
- Zwischen den einzelnen Modulen besteht eine direkte Hierarchie, durch die die Reihenfolge der Auflösung von Abhängigkeiten bestimmt wird.
- Die direkten Koordinationskosten zwischen zwei Modulen ergeben sich aus der Summe
der nicht aufgelösten Abhängigkeiten der Leistungselemente, die unterschiedlichen Modulen zugeordnet sind. Sie hängen damit sowohl von der Modulhierarchie als auch von
der Zuordnung der Leistungselemente zu den einzelnen Modulen ab.
- Die Summe aller wirksamen Koordinationskosten entspricht dann der Summe aller
Koordinationskosten, die zwischen allen Modulen wirksam werden. Diese werden als direkte intermodulare Koordinationskosten bezeichnet.
- Daneben existieren indirekte intermodulare Koordinationskosten, die durch die Komplexität der intermodularen Koordination beeinflußt werden.
20
Vgl. Corsten/Gössinger/Salewski 2012, S. 6 ff.
21
Vgl. Picot/Freudenberg 1998, S. 77.
6
Hans Corsten, Hagen Salewski
Um die beschriebenen Anforderungen in einem Optimierungsmodell adäquat modellieren
zu können, sind die folgenden Annahmen zu treffen:
- Die indirekten intermodularen Koordinationskosten lassen sich in eine geordnete Menge
von Kostenklassen unterteilen, die nach der Anzahl der Koordinationsvorgänge zwischen
allen Modulen, d. h. der Anzahl aller wirksamen Koordinationsbedarfe, deren Stärke größer Null ist, geordnet sind. Da die Anwendung von Koordinationsinstrumenten mit Kosten verbunden ist, die in der Regel mit der Komplexität ansteigen, werden die Kostenklassen mit einer größeren Anzahl maximaler Koordinationsvorgänge mit höheren Kosten versehen. Die kleinste definierte Kostenklasse hat ein Maximum von Null Koordinationsvorgängen, wodurch keine Koordinationskosten entstehen.
- Analoge Überlegungen gelten für die intramodularen Koordinationskosten, die sich ebenfalls in Kostenklassen einteilen lassen, die durch die Anzahl der Leistungselemente bestimmt werden, die einem Modul zugeordnet sind. Die kleinste zulässige Größe muss
Null Leistungselemente sein, damit die Lösungsgüte des Optimierungsmodells nicht
durch eine Vorgabe der Modulanzahl22 beeinflusst wird.
Hierdurch lassen sich beliebige Kostenfunktionen in diskreter Form darstellen. In Abhängigkeit von der Anzahl der Kostenklassen kann dies mit beliebiger Genauigkeit erfolgen,
wobei der Lösungsaufwand mit jeder weiteren Kostenklasse ansteigt.
Damit lässt sich ein quadratisches Zuordnungsproblem modellieren, das durch x v.m ∈ {0,1}
eine Zuordnung von ( v = 1, , V ) Leistungselementen zu ( m = 1, , M; M < V ) Modulen beschreibt:23
ª M-1 M V V
º M I
P
J
»+
Min! K = ¦ p p ⋅ « ¦¦¦¦ ( x v.m ⋅ x v′.m′ ⋅ a p.v.v′ ) + ¦ ( d j.p ⋅ cinter
)
( b m.i ⋅ cintra
)
j
i
« m =1 m′ = v =1 v′ =1
» ¦¦
p =1
j=1
m =1 i =1
¬« m +1
¼» direkte intermodulare
Koordinationskosten
indirekte intermodulare
Koordinationskosten
(1)
intramodulare
Koordinationskosten
u.d.B.d.
M
¦x
v.m
=1
∀v ∈ V
(2)
m =1
22
Die Anzahl der Leistungselemente dividiert durch die kleinste definierte Modulgröße ergibt die maximal
mögliche Modulanzahl.
23
Vgl. Corsten/Salewski 2013, S. 100 ff.
Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge
I
¦b
7
=1
∀m ∈ M
(3a)
≤ Siintra ⋅ b m.i + Ω ⋅ (1 − b m.i )
∀m ∈ M, i ∈ I
(3b)
∀m ∈ M, i > 1
(3c)
∀m ∈ M, i = 1
(3d)
∀p ∈ P
(4a)
∀j ∈ J, p ∈ P
(4b)
∀p ∈ P, j > 1
(4c)
0 ≤ ¦¦¦¦ ( x v.m ⋅ x v′.m′ ⋅ f ≥ (a p.v.v′ ) )
∀p ∈ P, j = 1
(4d)
x v.m ∈ {0,1}
∀v ∈ V, m ∈ M
(5a)
b m.i ∈ {0,1}
∀m ∈ M, i ∈ I
(5b)
d j.p ∈ {0,1}
∀j ∈ J, p ∈ P
(5c)
m.i
i =1
V
¦x
v.m
v =1
V
b m.i ⋅ ( Siintra
−1 + 1) ≤ ¦ x v.m
v =1
V
0 ≤ ¦ x v.m
v =1
J
¦d
j.p
=1
j=1
M-1 M
V
V
¦¦¦¦ ( x
m =1 m ′ = v =1 v ′ =1
m +1
v.m
⋅ x v′.m′ ⋅ f ≥ (a p.v.v′ ) ) ≤ Sjinter ⋅ d j.p + Ω ⋅ (1 − d j.p )
M-1 M
V
V
≥
d j.p ⋅ ( Sjinter
−1 + 1) ≤ ¦¦¦¦ ( x v.m ⋅ x v ′.m′ ⋅ f (a p.v.v′ ) )
m =1 m ′ = v =1 v ′ =1
m +1
M-1 M
V
V
m =1 m ′ = v =1 v ′ =1
m +1
8
Hans Corsten, Hagen Salewski
Ziel dieser Zuordnung ist die Minimierung der Koordinationskosten über alle Pfade (1), die
sich aus
- den direkt wirksamen intermodularen Koordinationskosten a p.v.v′ zwischen den Leistungselementen v und v′ eines Pfades, ablesbar aus den pfadspezifischen Design Structure Matrizen A des Problems,
- den modulgrößenabhängigen intramodularen Koordinationskosten und
- den von der Anzahl der intermodularen Koordinationsvorgänge abhängigen, pfadspezifischen indirekten intermodularen Koordinationskosten
zusammensetzen. Die pfadspezifischen Kostenelemente werden mit der PfadausführungsP
wahrscheinlichkeit p gewichtet, wobei gilt: ¦ p p = 1 .
p =1
Jedes Leistungselement wird genau einem Modul zugeordnet (2). Die intermodularen
Koordinationskosten sind die Summe aller Koordinationskosten, die durch Koordinationsbedarfe zwischen den Leistungselementen v und v′ entstehen, wenn die Leistungselemente unterschiedlichen Module zugeordnet sind ( m ≠ m ′ ) und ihre Abhängigkeit nicht bereits
durch die Modulhierarchie berücksichtigt wurden ( m ′ > m ) . Jedes Modul m wird durch
die binäre Zuordnungsvariable b m.i genau einer modulgrößenabhängigen Kostenklasse
( i = 1, , I )
zugeordnet (3a), wobei sowohl die Maximalgröße ( 0 ≤ S1intra ≤ ≤ Si intra ≤ ≤ SIintra ) jeder Kostenklasse (3b) als auch das Minimum24 jeder Klasse (3c und 3d) berücksichtigt wird.
Die indirekten intermodularen Koordinationskostenklassen ( j = 1, , J) werden analog
hierzu für jeden berücksichtigten Pfad durch die binären Zuordnungsvariablen d j.p zugewiesen (4a bis 4d), wobei jedoch eine Modifikation der DSM mit der Funktion f ≥ (a p.v.v′ )
vorgenommen wird. Sie nimmt den Wert f ≥ (a p.v.v′ ) = 1 genau dann an, wenn zwischen v
und v′ Koordinationskosten anfallen. Die maximale Größe jeder Klasse ist durch
0 ≤ S1inter ≤ ≤ Sjinter ≤ ... ≤ SJ inter gegeben.
Das vorgestellte Modell ist ein verallgemeinertes quadratisches Zuordnungsproblem mit
quadratischen Nebenbedingungen (QPQC) und fällt in die Klasse der NP-vollständigen
Optimierungsprobleme. Das vorgestellte Modell lässt sich für kleine Probleminstanzen mit
24
Das Minimum einer Kostenklasse i > 1 ist durch Siintra
−1 + 1 gegeben und das Minimum der ersten Kostenklasse beträgt Null.
Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge
9
Hilfe von quadratischen Solvern lösen. Eine Verkürzung der Lösungszeit lässt sich durch eine
Linearisierung des Modells mit Hilfe der Reformulation-Linearization-Technik (RLT)25
realisieren. Hierzu werden die quadratischen Terme in der Zielfunktion und in den Nebenbedingungen durch die zusätzlichen Entscheidungsvariablen y v.v′.m.m′ = x v.m ⋅ x v′.m′ ersetzt
und die Nebenbedingungen 6a bis 6c ergänzt.
M
¦y
∀v, v′, m
(6a)
y v.m.v′.m′ = y v′.m′.v.m
∀v, v′, m, m′
(6b)
y v.m.v′.m′ ≥ 0
∀v, v′, m, m′
(6c)
m ′=1
4
v.m.v ′.m ′
= x v.m
Modellierung als Flussproblem
Bei der Modellierung des Dienstleistungsmodularisierungsproblems als Zuordnungsproblem wächst die Anzahl der Entscheidungsvariablen mit zunehmender Anzahl von berücksichtigten Teilleistungen und Modulen exponentiell, weshalb sich nur sehr kleine Probleminstanzen lösen lassen. Neben der Anwendung von (Meta-)Heuristiken zur Lösung des
Problems kann eine alternative Modellierung die Rechenzeiten beschleunigen, weil andere
Lösungsverfahren möglich werden. Im Folgenden soll daher, ausgehend von den im vorherigen Abschnitt abgeleiteten Anforderungen, das Dienstleistungsmodularisierungsproblem
als Flussproblem modelliert werden, das der Lösung mit einem Branch-and-PriceAlgorithmus26 zugänglich gemacht werden kann.
Zur Veranschaulichung eines wesentlichen Teils des Modells dient der ungerichtete
Graph einer kleinen Probleminstanz mit drei Leistungselementen und drei Modulen in
Abbildung 2.
Der Graph ist durch die Kantenmengen A, B und C in drei Teile gegliedert, wobei die
Knoten mit der Kennzeichnung „M“ die Kantenmengen A und B sowie die Knoten mit der
Kennzeichnung „V“, die Kantenmengen B und C miteinander verknüpfen. Die Kanten und
Knoten werden dabei auf folgende Weise interpretiert:
- Jede Kante der Kantenmenge A verbindet den Quellknoten 0 mit einem Knoten M m.i und
repräsentiert damit die Zuordnung des Moduls m zur intermodularen Koordinationskostenklasse i. Hierzu sind die Kanten in A mit dem Kostenklassenfaktor giA gewichtet, und
der Fluss durch diese Kante ist durch die Kapazität κi restringiert. Der Kostenfaktor entspricht den Kosten der jeweiligen direkten Koordinationskostenklasse ( ci intra im Zuord25
Vgl. allgemein zur RLT Sherali/Adam 1999, S. 297 ff. und zur Anwendung auf das verallgemeinerte
quadratische Zuordnungsproblem Hahn et al. 2008, S. 352 ff.
26
Barnhard et al. 1998, S. 316 ff.
10
Hans Corsten, Hagen Salewski
nungsmodell) und der Kapazität der maximalen Größe dieser Kostenklasse ( Si intra im Zuordnungsmodell).
- Die Kanten der Kantenmenge B verbinden die Knoten M m.i mit den Knoten Vm.v und
realisieren damit die Zuordnung der Teilleistungen v zu den Modulen m . Sie sind mit
keinen Kosten verbunden, und die Kapazität jeder Kante in B ist Eins.
- Die Kanten der Kantenmenge C repräsentieren die direkten Koordinationsbedarfe zwischen den Leistungselementen. Diese Kanten verbinden zwei Knoten der Knotenmenge
Vm.v miteinander, wenn beide Knoten unterschiedliche Module und unterschiedliche
Leistungselemente repräsentieren. Sie sind mit dem Faktor g Ck gewichtet, der den Werten
der direkten Koordinationskosten entspricht und direkt aus der DSM ermittelt wird. Die
Kapazität dieser Kanten ist ebenfalls Eins.
Zur Formulierung eines Optimierungsmodells müssen die Kantenmengen in Teilmengen
zerlegt werden:
A m = {a (m −1)⋅I +1 , ... ,a (m −1)⋅I + I }
∀m ∈ M
BM
m = {b (m −1)⋅ V ⋅ I +1 , ... ,b (m −1)⋅ V ⋅ I + V ⋅I }
∀m ∈ M
BVv = {b V⋅r + v | r = 0,1, ... , M ⋅ I − 1}
∀v ∈ V
{
}
BiI = b r +1 , ... ,b r + V | r = (m − 1) ⋅ M ⋅ I + (i − 1) ⋅ V , m ∈ M
{
} {
}
V
M
V
M
°­ Bv Bm1 Bv2 Bm2 ½°
BC = ® 1
¾
°¿
¯°| v1 > v 2 ∧ m 2 > m1
∀i ∈ I
∀v1 , v 2 ∈ V; m1 , m 2 ∈ M
Die (Teil-)Menge
- A m enthält alle a-Kanten, die dem Modul m ∈ M zugeordnet werden und den Knoten
der Menge M m.i für beliebige i ∈ I mit dem Knoten 0 verbinden.
- BM
m enthält die b-Kanten, die dem Modul m zugeordnet werden und die Knoten der
Menge M m.i für beliebige i mit den Knoten der Menge Vm.v für beliebige Leistungselemente v ∈ V verbinden.
- BVv enthält alle b-Kanten, die dem Leistungselement v zugeordnet werden und die Knotenmenge Vm.v für beliebige m mit der entsprechenden Knotenmenge M m.i verbinden.
- BiI enthält alle b-Kanten, die durch den Knoten der Menge M m.i mit der Kostenklasse
i ∈ I für beliebige m ∈ M gepaart sind.
Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge
11
- BCk enthält jeweils die Menge aller b-Kanten, die mit einem der beiden Knoten Vm.v und
Vm′.v′ verbunden sind und zusätzlich durch eine Kante k ∈ C verknüpft sind.
Abbildung 2:
Beispielnetzwerk mit drei Modulen und drei intermodularen Koordinationskostenklassen
12
Hans Corsten, Hagen Salewski
Das Dienstleistungsmodularisierungsproblem kann dann als Flussproblem dargestellt
werden:
§
·
(7)
Min! K = ¦ ¦ g iA ⋅ a i + ¦ g Ck ⋅ c k + ¦ p p ¨ ¦ g Dj ⋅ d j.p ¸
m∈M i∈A m
k∈B
p∈P
J
©j∈
¹
intramodulare
Koordinationskosten
direkte intermodulare
Koordinationskosten
indirekte intermodulare
Koordinationskosten
u.d.B.d.
¦a
i
≤1
¦a
i
⋅ κi ≥
∀m ∈ M
(8)
∀m ∈ M
(9a)
∀m ∈ M, i ∈ A m , o ∈ BiI
(9b)
i∈Am
¦b
o
o∈BM
m
i∈A m
a i ≥ bo
¦b
o
=1
∀v ∈ V
(10)
o
≤ ck + 1
∀k ∈ C
(11)
≤1
∀p ∈ P
(12a)
∀p ∈ P
(12b)
a i ∈ {0,1}
∀i ∈ A
(13a)
b o ∈ {0,1}
∀o ∈ B
(13b)
o∈BV
v
¦b
o∈BCk
¦d
j.p
¦d
j.p
j∈J
o∈O
⋅ γ o ≥ ¦ c k ⋅ f ≥ ( g Ck.p )
k∈B
Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge
13
c k ∈ {0,1}
∀k ∈ C
(13c)
d j.p ∈ {0,1}
∀j ∈ J, p ∈ P
(13d)
In der Zielfunktion wird die Summe aller drei Koordinationskosten minimiert (7), und jedes
Modul wird genau einer intramodularen Koordinationskostenklasse zugeordnet (8). Die
maximale Modulgröße wird berücksichtigt (9a), indem alle Kanten der Menge B, die der
gleichen intramodularen Koordinationskostenklasse zugeordnet sind, gezählt werden. Die
Verbindung der Kantenmengen A und B erfolgt zusätzlich durch Ungleichung 9b, die eine
Aktivierung der a-Kanten sicherstellt, wenn eine entsprechende b-Kante aktiv ist. Jedes
Leistungselement wird genau einem Modul zugeordnet (10), und die intermodularen Koordinationskosten zwischen zwei Leistungselementen werden nur dann berücksichtigt
( ck = 1 ), wenn sie unterschiedlichen Modulen zugeordnet sind27 (11). Die Zuordnung zu
einer indirekten intermodularen Koordinationskostenklasse erfolgt für jeden Pfad eindeutig
(12a), wobei die Anzahl der Koordinationsvorgänge analog zur Modellierung des Zuordnungsproblems durch eine Transformationsfunktion28 berücksichtigt wird (12b).
5
Ausblick
Die beiden vorgestellten Modelle eignen sich grundsätzlich für die kostenoptimale Zuordnung von Leistungselementen zu Modulen und vermögen somit die Modularisierung von
Dienstleistungen zu unterstützen. Alle vorgestellten Modelle wurden erfolgreich implementiert und mit Hilfe von Standardsolvern gelöst. Hierbei dominierte das mit Hilfe der
Reformulation Linearization Technik modellierte Zuordnungsproblem hinsichtlich der
Lösungsgeschwindigkeit alle anderen Implementierungen. In einem nächsten Schritt soll
das Flussmodell mit Hilfe eines Branch-and-Price-Algorithmus gelöst werden, mit dem
Ziel, so die Lösungszeiten weiter zu reduzieren. Bei größeren Probleminstanzen wird dennoch der Gebrauch von Metaheuristiken notwendig sein, um zumindest gute Lösungen des
Dienstleistungsmodularisierungsproblems in akzeptabler Zeit zu berechnen.
27
Im Kantenpaar BCk gilt dann für beide o ∈ BCk : b 0 = 1 .
28
In der Transformationsfunktion f ≥ werden die pfadspezifischen intermodularen Koordinationskosten
g Ck.p berücksichtigt, die aus der Pfaddefinition und der DSM generiert werden können. In Bezug zur ZielP
funktion gilt:
¦p
p=1
p
⋅ g Ck.p = g Ck .
14
Hans Corsten, Hagen Salewski
Literatur
Baldwin, C.Y.; Clark, K.B: Sun Wars. Competition within a Modular Cluster 1985–1990, in: D.B. Yoffie
(Hrsg.), Competition in the Age of Digital Convergence, Boston 1997, S. 123–157.
Barnhart, C.; Johnson, E.L.; Nemhauser, G.L.; Savelsbergh, M.V.P.; Vance, P.H.: Branch-and-Price. Column
Generation for Solving Huge Integer Programs, in: Operations Research, Vol. 46 (1998), S. 316–329.
Browning, T.R.: Applying the Design Structure Matrix to System Decomposition and Integration Problems
– A Review and New Directions, in: IEEE Transactions on Engineering Management, Vol. 48 (2001), S.
292–306.
Burr, W.: Service Engineering bei technischen Dienstleistungen. Eine ökonomische Analyse der Modularisierung, Leistungstiefengestaltung und Systembündelung, Wiesbaden 2002.
Büttgen, M.; Ludwig, M: Mass-Customization von Dienstleistungen, in: R. Köhler (Hrsg.), Arbeitspapier
des Instituts für Markt- und Distributionsforschung der Universität zu Köln, Köln 1997.
Corsten, H.; Gössinger, R: Gestaltung der Output-Flexibilität in Dienstleistungsunternehmungen. Eine
produktionstheoretische Analyse, in: A. Braßler; H. Corsten (Hrsg.), Entwicklungen im Produktionsmanagement, München 2004, S. 251–257.
Corsten, H.; Gössinger, R.: Dienstleistungsmanagement, 5. Aufl., München/Wien 2007.
Corsten, H.; Gössinger, R.; Salewski, H.: Simultaneous Multi-path Service Modularisation. An Approach
on the Basis of Design Structure Matrices, in: H. Corsten (Hrsg.), Schriften zum Produktionsmanagement
Nr. 93, Kaiserslautern 2012.
Corsten, H.; Salewski, H.: Dienstleistungsmodularisierung im Krankenhaus. Theoretischer Rahmen und
Anwendung, in: R.B. Bouncken; M.A. Pfannstiel; A.J. Reuschl, (Hrsg.), Dienstleistungsmanagement im
Krankenhaus I. Prozesse, Produktivität und Diversität, Berlin et al. 2013, S. 95–115.
Eppinger, S.D.; Browning, T.R.: Design Structure Matrix Methods and Applications, Cambridge/London
2012.
Gaitanides, M.: Prozessorganisation. Entwicklung, Ansätze und Programme des Managements von Geschäftsprozessen, 2. Aufl., München 2007.
Hahn, P.M.; Bum-Jin, K.; Guignard, M.; MacGregor Smith, J.; Zhu, Y.-R.: An Algorithm for the Generalized Quadratic Assignment Problem, in: Computational Optimization and Applications, Vol. 40 (2008),
S. 351–372.
Jacob, F.: Produktindividualisierung. Ein Ansatz zur innovativen Leistungsgestaltung im Business-toBusiness-Bereich, Wiesbaden 1995.
Kern, W.: Produkte, Problemlösungen als, in: W. Kern (Hrsg.), Handwörterbuch der Produktionswirtschaft,
Stuttgart 1979, Sp. 1433–1441.
Lampel, J.; Mintzberg, H.: Customizing Customization, in: Sloan Management Review, Vol. 38 (1996),
Fall, S. 21–30.
Levitt, T.: Production-line Approach to Service, in: Harvard Business Review, Vol. 50 (1972), Nr. 9/10, S.
41–52.
Levitt, T.: The Industrialization of Service, in: Harvard Business Review, Vol. 54 (1976), Nr. 9/10, S. 63–74.
Mayer, R.: Strategien erfolgreicher Produktgestaltung. Individualisierung und Standardisierung, Wiesbaden
1993.
Meyer, M.H.; De Tore, A.: Perspective. Creating a Platform-Based Approach for Developing New Services, in: Journal of Product Innovation Management, Vol. 18 (2001), S. 188–204.
Sanchez, R.: Strategic Product Creation. Managing New Interactions of Technology, Markets, and Organizations, in: European Management Journal, Vol. 14 (1996), H. 2, S. 121–138.
Dienstleistungsmodularisierung: Entwurf zweier alternativer Modellierungsvorschläge
15
Sanchez, R.: Modular Architecture in the Marketing Process, in: Journal of Marketing, Vol. 63 (1999),
Special Issue, S. 92–111.
Schackmann, J.: Ökonomisch vorteilhafte Individualisierung und Personalisierung. Eine Analyse unter
besonderer Berücksichtigung der Informationstechnologie und des Electronic Commerce, Hamburg 2003
Schnäbele, P.: Mass Customized Marketing. Effiziente Individualisierung von Vermarktungsobjekten und prozessen, Wiesbaden 1997.
Sherali, H.D.; Adams, W.P.: A Reformulation-Linearization Technique for Solving Discrete and Continuous Nonconvex Problems, Dordrecht et al., 1999.
Stauss, B.: Plattformstrategie im Dienstleistungsbereich, in: H.-J. Bullinger; A.-W. Scheer (Hrsg.), Service
Engineering. Entwicklung und Gestaltung innovativer Dienstleistungen, 2. Aufl., Berlin et al. 2006, S.
321–340.
Steward, D.V.: Partitioning and Tearing Systems of Equations, in: Journal of the Society for Industrial and
Applied Mathematics Series B. Numerical Analysis, Vol. 2 (1965), S. 345–365.
Steward, D.V.: Systems Analysis and Management. Structure, Strategy and Design, New York/Princeton
1981.
Innovationen – Plattformen erleichtern den Weg!
Joachim Fischer
1
Ausgangslage
Innovationen werden als Königsweg aus der wirtschaftlichen Stagnation angesehen und
von den Unternehmen gefordert. Allerdings zeigt die historische Erfahrung, dass Innovationen von Unternehmen oft vorgelagert eine „radikale“ Plattforminnovation voraussetzen,
die dann von ihnen für Anwendungen genutzt werden kann.
Als „Plattform“ wird im folgenden eine verlässliche und auf Dauer angelegte technologische und geschäftliche Basisinnovation bezeichnet, die Kooperationspartner zur Entwicklung von komplementären eigenen Produkten veranlasst. Diese wird von dem Plattformentwickler
• technologisch durch Informationen über Schnittstellen, Dienste und Qualitätssicherung
und
• wirtschaftlich durch einen gesicherten Markt oder Subventionen gefördert.
Nur auf Basis solcher Plattformen sind Eisenbahnen, Elektrizität, Radio und Fernsehen
sowie Internet, Mobiltelefonie und Navigationsgeräte zur Erfolgsgeschichte geworden.
Angesichts des Renditedrucks fehlt den Unternehmen sonst der Mut zu langwierigen und
aufwändigen Investitionen in Innovationen. Die technologischen Wege müssen in der Regel durch Pioniere (Staat oder – oft in dessen Auftrag – Leitunternehmen) erst erschlossen,
die Renditen gesichert werden. Ist beides gegeben, entwickeln kaufmännisch agierende
Unternehmen Anwendungen.
In den letzten Jahren ist der Staat immer seltener „Wegbereiter“ oder ebnet nur „Sackgassen“. Beispiele sind der Transrapid und IT-Projekte wie die Elektronische Gesundheitskarte
(vgl. Mertens (2009), (2012)).
Vielleicht deshalb wird in der betriebswirtschaftlichen Literatur zum Forschungs- und
Entwicklungsmanagement das Schumpeter-Leitbild des „schöpferischen Unternehmers“
vertreten, der aus sich heraus den technologischen und wirtschaftlichen Fortschritt aktiv
voran treibt. Allerdings gibt es in D kaum Beispiele, bei denen Innovationen (z. B. Elektrizität, Hörfunk, Fernsehen) ohne staatlich abgesicherte Plattformen erfolgreich waren.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_2,
© Springer Fachmedien Wiesbaden 2013
18
Joachim Fischer
Die sich verschärfenden Probleme in den Gesellschaften der Industrieländer (u.a. Vergreisung, Staatsverschuldung), der Transfer von deren Lebensstil aufgrund des wirtschaftlichen Fortschritt in die bevölkerungsstarken BRICS-Gesellschaften (u.a. Ressourcenverknappung, Umweltverschmutzung, globale Erwärmung) sowie die altbekannten Probleme
der III. Welt (Ernährung, Gesundheit, Bildung) erfordern durchgreifende Innovationen im
Gemeinwesen, die nur schwer ohne den „Wegbereiter Staat“ denkbar sind.
Probleme
D/EU/J/USA
& BRICS
III. Welt
• Drogen
• Korruption
• Steuerflucht
• Ressourcenverknappung
• Umweltverschmutzung
• Globale Erwärmung
• Korruption
• Bevölkerungswachstum
• Ernährung
• Gesundheit
• Bildung
• Umweltschonende,
massentaugliche Mobilität (Roller, Busse)
• Sozialversicherungen
• Handybasierte, bankenunabhängige Bezahlsysteme
• Ressourcenschonende,
dezentrale Energieerzeugung
• Infrastrukturschonende Verkehrsmittel
• Vergreisung
• Kostendruck
Sozialversicherungen
• Staatsverschuldung
• Mängel Bildungssystem
Erforderliche
Innovationen
• Altersgerechte
Haustechnik
(Robotik,
Sensorik)
• Vernetztes
Gesundheitssystem (Telemedizin)
• Integriertes kontrolliertes Bankensystem
• Smart Energy Grids
• Smart Homes – Standards
• Smart Mobility – Infrastruktur
• Low Cost Solarkoch- /
-kühlgeräte
• Low Cost Trinkwasserreinigung
• Low Cost Verhütung
• Precision Farming
• Vernetztes Bildungs- & Bibliothekssystem
• Integrierte institutionenübergreifende Finanz- &Steuerbuchhaltung
Abbildung 1:
Gesellschaftliche Problemfelder und Innovationen (Auswahl)
Innovationen – Plattformen erleichtern den Weg!
2
19
Erwartete Eigenschaften von Plattformen
2.1 Schaffen gewinnsichernder Initialnachfrage
Für „radikale Innovationen“, d.h. solche die gänzlich neue Produkte und somit Märkte
schaffen, bedarf es erfahrungsgemäß akzeptierter und pragmatischer Plattformen, die von
vertrauenswürdigen staatlichen oder privaten Institutionen technologisch entwickelt und bis
zur Produktionsreife gebracht werden. Auf diesen entwickeln Unternehmen Applikationen,
sobald Initialnachfrager (z. B. staatliche Institutionen) mit Rücksicht auf die hohen Kosten
zu Lernkurvenbeginn gewinnsichernde Preise gewährleisten.
Erst wenn die resultierenden Produkte bei Fortschreiten der Lernkurve zu akzeptablen
Preisen angeboten werden können und sich selbst tragende Märkte aufgrund der Kundennutzenvorteile bilden, werden Unternehmen selbständig auf Märkten initiativ. Ohne diese
Prämissen sind auch technisch führende Unternehmen überfordert
• mit der Realisierung von Technologien (Beispiel: off-shore Windparks) ,
• mit der Verbreitung von Technologien (Beispiel: Gesundheitskarte),
• mit dem Aufbau von Märkten für staatlich gewollte und subventionierte Technologien
(Beispiel: Alternative Energien).
Existiert keine Plattform zögern die Unternehmen nach dem Motto „Hannemann, geh du
voran“, da Fehlallokationen drohen.
2.2 Schaffen stabiler Technik-Schnittstellen
Technologiefelder wie „E-Mobilität“ (ähnlich „Smart Home“, „Smart Grid“), die Implikationen auf eine Vielzahl von Branchen (z. B. Automobil, Energie, Haustechnik) und Infrastrukturkomponenten (z. B. Parkplätze mit Ladestationen & E-Netzen, Stecker) haben,
überfordern in ihren Interdependenzen nach anfänglicher Euphorie Unternehmen und Verbände, so lange nicht eine Institution eine beherrschbare und sichere Technik für diese
Interdependenz- = Schnittstellen etabliert und deren Weiterentwicklung zumindestens für
den Lebenshorizont der Infrastruktur organisiert.
2.3 Sichern gegen Überraschungen
Überraschungen sind subjektiv unerwartete Ereignisse. Sie resultieren aus eigener Kreativität oder der von Wettbewerbern sowie aus diversen soziopolitischen Umsystemquellen.
Überraschungen können wie ein „Blitz aus heiterem Himmel“ kommen. Häufiger sind
Überraschungen, bei denen erwartete Ereignisse mit anderen Folgen, zu anderen Zeiten
auftreten, länger dauern oder stärker wirken (Weick / Sutcliffe (2003), S. 48ff).
Plattformen sollen nach der Erwartung der Akteure sachliche oder zeitliche Überraschungen und deren technische und wirtschaftliche Folgen ausschalten oder zumindest
reduzieren. Bellmann / Haritz (2001, S. 278) sprechen von Reduktion technologischer Unsicherheit und Marktintransparenz (Setzen von Standards).
Allerdings ist deren regionale und zeitliche Reichweite zu beachten:
20
Joachim Fischer
Nationale Plattformen sichern nur bei national abgrenzbaren Systemen gegen Überraschungen ab. Zum Beispiel wurden Frankreich und Deutschland mit ihren nationalen Plattformen für Kommunikationsnetze (z. B. Minitel – F) durch die globale Entwicklung des
Internet überrascht und haben in der Folge einen Teil ihrer einschlägigen Industrie eingebüßt.
Das Überraschungspotential eines Systems wird in dessen Komplexität gemessen
(Wohland (1997), S.12). Sie ist das Maß für die Vielfalt, die jede Systemoperation für die
Folgeoperation erzeugt. Von Plattformen verspricht man sich daher Komplexitätsreduktion.
2.4 Entscheidungen integrieren
In einer Welt voller Komplexität streben „gekürte Entscheidungsträger“ nach jemandem,
der zum einen die Zahl Quantität und Qualität der von ihnen zu treffenden technischen
Entscheidungen und der zu berücksichtigenden Randbedingungen reduziert, zum anderen
die wirtschaftlichen Folgen kalkulierbar macht. Plattformen sollen Entscheidungen hinsichtlich Technologien und Märkten in allen Innovationsphasen der beteiligten Unternehmen und Institutionen integrieren, d. h. auf Basis einer integeren und aktuellen Informationsbasis, einer abgestimmten Begriffswelt sowie offen artikulierter Ziele inhaltlich und
zeitlich koppeln.
3 Wege zu Innovationsplattformen
Einzelunternehmerische Innovationen aus reinem schöpferischen Unternehmertum (im
Sinne Schumpeters) ohne staatliche Initialnachfrage waren noch vor zwanzig Jahren eher
selten, häufig ließen sich „ganz zivile“ Produkte letztlich auf staatliche (z. B. militärische)
technische Anforderungen und Nachfrage zurückführen.
Beispiel: Kärcher Hochdruckreiniger zur ABC- Kampfstoffreinigung von Fahrzeugen.
Staatliche Initialnachfrage in eine nachhaltige zivile Nachfrage überzuleiten war für Produkte zwar schwierig, da staatliche (speziell militärische) Technikanforderungen und die
Preis- und Kostentoleranz sich wesentlich von denen ziviler Kunden unterschieden, gelang
aber für die zugrundeliegende Plattform.
In gewinnträchtigen Bereichen wurden zunehmend Plattformen privat geschaffen (z. B.
IBM / Microsoft). Hinzu kommen private Initiativen aus idealistischen Motiven (z. B.
Wikipedia, Linux).
Zurzeit fehlen speziell in traditionellen Branchen Plattformen und gefährden deren Existenz zumindest in der bisherigen Form. Es gilt Stillstände aufgrund von
• egoistischen Zukunftsängsten und daher Widerständen vieler Stände (z. B. Ärzte, Apotheker) und Gewerke (z. B. im Bauhandwerk, Verlage),
• Investitions- und Risikoscheu
zu überwinden.
21
Innovationen – Plattformen erleichtern den Weg!
Branche
Zukunftstechnol Risiken bei
Widerstandsträger in D
ogien mit
fehlender
erforderlicher
Plattform
Plattform
• Mobile Payment • Proprietäre Lö• Geldautomatenhersteller
(Internet)
sungen Branchen- • Banken & Verbände
fremder (Google, • Einzelhandel & VerbänAmazon)
de
Banken
Gesundheitsbe
reich
Medien /
Bildung
Energie- /
Haustechnik
Mobilität
Abbildung 2:
• Elektronische
• Kostenexplosion
Gesundheitskarim Gesundheitste
weisen
• Elektronische
• Verschwinden
Skripte / Medien
traditioneller Ver• Abrechnungs- /
lage
Bezahlsysteme
• Fehlinvestitionen
in kurzlebige
Hard- / Software
• SmartHome
• Gefährdung der
• Smart Grid
Energiewende
• Telematik
• Gefährdung der
• E-Mobilität
deutschen Auto• Brennstoffzelle /
mobilindustrie
Wasserstoff
• Ärzte
• Krankenversicherungen
• Föderalismus
• Zeitungsverleger
• Lehrbuchverlage
• Energieversorger
• Baugewerke in D
• Automobilhersteller
• Kfz-Handwerk
Durch fehlende Plattformen gefährdete Branchen in D
3.1 Plattformen schaffen
Plattformen bilden eine verlässliche und auf Dauer ausgelegte technologische und geschäftliche Basis für kooperierende Unternehmen und Personen, die
• zum einen Unternehmen zur Entwicklung von komplementären eigenen Produkten veranlasst, die von dem Plattformproduzenten durch Informationen über Schnittstellen, Dienste
und Qualitätssicherung gefördert wird,
• zum anderen zur Nutzung der resultierenden Produkte motiviert und somit eine profitable, dauerhafte Nachfrage schafft.
Um Plattformen zu schaffen, sind der technische Wissensstand und die wirtschaftlichen
Interessen potenzieller Partner und Wettbewerber zu identifizieren und hinsichtlich Komplementaritäten und Konflikten zu analysieren. Ziel ist es, eine technisch und wirtschaftlich
kräftige Gemeinde aus Produzenten und Nutzern aufzubauen. Dabei existieren Spannungsfelder z. B. hinsichtlich der
• ein- oder beidseitigen Exklusivität für ausgewählte (Auswahlkriterien?) oder Offenheit
der Plattform für Produzenten oder Nutzer,
• technischen Abstufung der Plattformeigenschaften für Produzenten- oder Nutzerklassen,
22
Joachim Fischer
• technischen Mitbestimmung der Plattformeigenschaften durch Produzenten oder Nutzer,
• Nutzungsentgelte für Produzenten oder Nutzer und deren Bemessungsgrundlage.
Kommerzielle Nutzer betrachten in D die (vermuteten oder tatsächlichen) Wirkungen auf
die Branchenstrukturen, scheuen Vorreiterrollen und entscheiden sich oft für eine konservative Lösung. Private Nutzer konzentrieren sich auf ihren eigenen Vorteil und sind oft
experimentierfreudiger.
3.2 Innovationsgemeinden etablieren
Technologisch oder fachlich revolutionäre Plattformen werden heute meist von privaten
Netzwerken (Wikipedia, LINUX) oder Unternehmen (Google) geschaffen und erweitern
sich „tintenklecksartig“ in Quantität und Qualität. Offenbar fehlt staatlichen Institutionen
zur Zeit die Motivation und die technologische und finanzielle Kraft, die sie zu Zeiten des
Kalten Krieges und des auf schnelle Lösungen drängenden Militärs hatten. Allerdings sind
private Plattformen weniger nachhaltig für den Innovationsprozess als staatliche, da deren
rechtliche Normierungsmacht und finanzielle Nachfragekraft fehlt.
Unterschieden werden in der Folge staatliche „Normen“ von privaten „Standards“.
Bei privaten Plattformen (z. B. Smartphone-Betriebssystemen) existieren oft mehrere Alternativen, die mit technischen und wirtschaftlichen Eigenschaften um Gemeinden von Produzenten und Nutzern werben.
23
Innovationen – Plattformen erleichtern den Weg!
Beispiele
Kennzeichen
Vor- /
Nachteile
Abbildung 3:
3.2.1
Private Standards
IOS/ITunes(Apple), Android
(Google), Skype
Alternative Vorschläge auf
dem Markt; Käufer wählen
aus
+ Eigeninteresse des
Plattformbereitstellers an
Komplementärprodukten
- Gefahr der Monopolbildung
(Microsoft, Google) / The
winner takes it all
- Follower schlagen oft Pioniere
(Google vs. Yahoo, Microsoft
vs. Apple, Android vs.
Iphone?)
- Gewinnträchtigkeit dominiert
Gemeinnutz
- Billige Lösungen (.pdf)
dominieren fortschrittliche
Technik (OpenDoc),
- Keep it simple & successful
(KISS) dominiert
- Bildet sich rechtzeitig keine
Lösung heraus, gehen ganze
Branchen „über den Jordan“
(Musik-, Zeitungsverlage)
Staatliche Normen
Internet, WWWeb, GSM
Vorgelagerte Debatten, dann
Verankerung von Normen
+ Rechtliche Normierungsmacht
+ Finanzielle Nachfragekraft
- Zeitbedarf
- Lobbyistendruck und
Zeitbedarf der Debatten
- Fehlinvestitionen im Vertrauen
auf staatliche Normierungskraft
(Gesundheitskarte)
- Durchdachte technische
Lösungen mit oft zu hohem
Implementierungsaufwand (z.
B. EDIFACT)
- Betrachten oft geschäftliche
Aspekte zu wenig
Private Standards oder staatliche Normen
Gemeindezentrum – Alternativen
Das Gemeindezentrum sorgt für eine technische Weiterentwicklung der Plattform und die
dazu notwendigen Willensbildungsprozesse unter den „Jüngern“ sowie das Marketing, um
ein möglichst starkes Netzwerk von Produzenten und Nutzern zu etablieren:
Beim Normen – Zentrum versucht eine staatliche oder ähnliche Institution (z. B. ein Industrieverband) eine Norm zu entwickeln und diesen dann für einen Gültigkeitsraum (z. B.
EU) verabschieden zu lassen. Aufgrund der faktischen wirtschaftlichen „Macht der Norm“
entschließen sich Produzenten von Soft- und Hardware für diese Plattform Applikationen
anzubieten.
24
Joachim Fischer
Beispiel: BMECAT – XML basiertes Austauschformat für Katalogdaten vom Bundesverband für Materialwirtschaft, Einkauf und Logistik.
Früher bildeten häufig technische „Zentralämter“ der Bundesbehörden oder staatlicher
Monopolunternehmen, oft unterstützt durch technische Hochschulen, solche Normenzentren.
Beim Markt-Zentrum versucht meist ein Unternehmen eine Plattform zu entwickeln und
diese mit seiner Marktmacht als Standard zu etablieren. Aufgrund der Einsatzvorteile im
Nutzernetzwerk entsteht ein Netzprodukt.
Beispiel: IBM für die Microsoft PC-Betriebssystemfamilie WINDOWS
Beim „Guru“ – Zentrum baut eine charismatische Persönlichkeit mit visionären Innovationen eine Plattform auf.
Beispiel: Steve Jobs mit iTunes.
Der „Guru“ kann kommerziell (Gates, Jobs) oder idealistisch (Torvald) motiviert sein.
In einem Demokratischen Gremium versuchen Privatpersonen und Unternehmen nach
demokratischen Regeln einen Standard zu entwickeln, deren Rechte durch eine gemeinnützige Stiftung gehalten werden.
Beispiel: LINUX mit den Initialpersonen Stallmann und Torvalds.
Ein Plattformzentrum hat in allen Phasen und Aspekten des Inventions- und Innovationsprozesses den Vorteil einer einheitlichen und stringenten Willensbildung, allerdings den
Nachteil Mitwirkungsrechte und -willen der Gemeinde und damit deren Kreativität einzuschränken.
3.2.2
Plattformpartner
Zu unterscheiden sind zwei Typen von Plattformpartnern:
• „Jünger“, die z. B. aus idealistischen, wissenschaftlichen oder kommerziellen Motiven an
der Erweiterung der Plattform arbeiten.
• „Produzenten“, die für eine existierende Plattform Applikationen entwickeln und anbieten.
Noch vor wenigen Jahrzehnten wurden Normen von staatlichen Institutionen unterstützt
durch eine Auswahl von Instituten, Verbänden und Unternehmen initiiert und weiter entwickelt. Seit der Staat weitgehend auf Marktkräfte vertraut, entwickeln Unternehmen Plattformen, die ihrerseits „Jünger“ in Kooperationen um sich scharen.
In der virtuellen Welt sind bemerkenswert viele Privatpersonen bereit, an der Entwicklung von Plattformen aus idealistischen Motivation zu arbeiten und erzielen qualitativ hervorragende Ergebnisse (Beispiele: LINUX, Wikipedia). Versuche von Unternehmen, diese
Entwicklungen zu dominieren oder sich anzueignen, sind mehrfach gescheitert. Zur Finanzierung wurden Stiftungen gegründet, die von nutzenden Unternehmen dotiert werden.
25
Innovationen – Plattformen erleichtern den Weg!
Herkömmlich
Kommerziell
Virtuelle Welt
Zentrum
Staatliches
Normenzentrum
Marktzentrum
Demokratisches
Gremium
Jünger
Ausgewählte
Institute, Verbände,
Unternehmen
Beauftragte
Unternehmen
Idealisten
Produzenten
Unternehmen
zunächst für staatliche Kunden, dann
für
Privatpersonen &
Unternehmen,
geleitet durch Technologie- & Vermarktungsplattform
Engagierte
Privatpersonen
Nutzer
Zunächst staatliche
Institutionen, dann
kommerzielle
Zunächst
kommerzielle, dann
private Nutzer
Private „Freaks“,
dann Konsumenten
und Unternehmen
Abbildung 4:
Typische Organisationsformen von Plattformen
Die Verbreitung von Plattformen hängt von den Nutzervorteilen und damit von den Applikationen und deren Produzenten ab. Während herkömmlich staatliche Institutionen als
Initialnutzer das „Lehrgeld“ bezahlten, sind private Nutzer und Produzenten kosten- und
zeitbewusster. APPLE hat mit seinem Smartphone und deren „Apps“ gezeigt, dass es mit
benutzerfreundlichen
• Entwicklungs-,
• Qualitätssicherungs- und
• Vermarktungsplattformen (iTunes)
auch kommerziell gelingen kann, rasch eine große Anzahl von Applikationen für unterschiedlichste Anwendungen sowohl durch Privatpersonen als auch durch Unternehmen zu
produzieren.
Ähnliche Erfolge sind mit sich entwickelnder Technik für den Bereich der Sensorik (z. B.
Quantify yourself – Gemeinde) und Aktorik (z. B. 3D-Drucken) zu erwarten. Die Aktorik
wird auf den Plattformen den Übergang von virtuellen Produkten zu materiellen Gütern
ermöglichen, die Sensorik die Brücke von der realen in die virtuelle Welt schlagen.
Jünger sollen die Schwachstellen einer Plattform durchleuchten und Verbesserungen und
Entwicklungsmöglichkeiten vorschlagen, die dann in Plattformversionen etabliert werden.
Produzenten werden oft mit finanziellen Zuschüssen oder Absatzgarantien dazu bewegt, die
Potenziale einer Plattform auszuloten und kontinuierlich innovative Applikationen zu entwickeln. Angesichts der Vielzahl der im Netz entstehenden „Communities“ für alle denkbaren Interessensfelder und der begrenzten Anzahl technischer Talente ist die Gewinnung
26
Joachim Fischer
von Jüngern und Produzenten eine anspruchsvolle Aufgabe im Spannungsfeld von technischer Faszination und Kommerz.
Ziel ist es, eine Plattform auf einer Technologie- und Anwendungsdomäne zu etablieren
und durch die Talente ihrer „Jünger“ und „Produzenten“ einen kaum einholbaren technischen und geschäftlichen Vorsprung zu verschaffen. Danach strebende Unternehmen präsentieren im Web Prototypen mit dem Ziel einer Gemeinde, warten die Produzenten- und
Nutzerreaktionen ab, entwickeln die Prototypen dann weiter oder verzichten darauf (z. B.
Google mit „Wave“, „Catalogs“, „Jaiku“, „Buzz“).
3.3 Technologie orchestrieren
Viele Plattformen nutzen eine dirigistische Konfiguration und Koordination der Produktund Produktionstechnik durch das Gemeindezentrum, um
• die Betriebssicherheit, Qualität und Datenschutz & Datensicherheit zu gewährleisten,
• die Zukunft der Investitionen der Gemeindemitglieder zu sichern,
• das Vertrauen der Mitglieder in die Gemeinde zu stärken und langfristig zu sichern.
Um die Attraktivität der Plattform perspektivisch zu stärken, werden z. B. „TechnikRoadmaps“ präsentiert. Einige Plattformen bieten nach Jünger- und Produzentenklassen
abgestufte Phasenmodelle mit definierten Alpha- / Betaphasen an, um diesen Spielwiesen
für mögliche Plattformevolutionen zu bieten.
3.4 Geschäftsmodell choreografieren
Übergreifendes Ziel des Geschäftsmodells ist es, allen Mitgliedern der Gemeinde zu ermöglichen, mit ihren technischen und geschäftlichen Potenzialen am Erfolg der Gemeinde
teilzuhaben. Da
1. die Nutzer der Plattform meist mehr an den Applikationen als an der Plattform interessiert sind,
2. die Produzenten wenig Interesse an kostenintensiven, durch Plattformänderungen induzierten Applikationsvarianten haben,
3. das Zentrum und die Jünger durch Sortimentskomplettierung den Geschäftserfolg absichern wollen,
entstehen Spannungsfelder zwischen Produzenten und Gemeindezentrum samt „Jüngern“.
Während staatliche Normen nicht auf den geschäftlichen Erfolg angewiesen sind, sondern die Verbreitung durch Normierungsmacht erzwingen, ist für private Standards der
kommerzielle Erfolg zwingend. Da dort die Gemeindemitglieder autonom agieren und
miteinander konkurrieren, ist eine Choreografie der geschäftlichen Schritte in der Gemeinde erforderlich. Dies bedarf einer Koordination der absatzpolitischen Instrumente (Preis,
Werbung, Vertriebswege und Werbung). Z. B. arbeitet APPLE mit der Vermarktungsplattform iTunes, die u. a. Ethikanforderungen und Preiskategorien vorgibt.
Innovationen – Plattformen erleichtern den Weg!
4
27
Zusammenfassung
Staatliche Normen waren jahrzehntelang die Basis und der Treiber des Innovationsprozesses (nicht nur) in der deutschen Wirtschaft. Oft initiiert durch Interessensverbände, durch
staatliche Stellen mit ihrer rechtlichen Macht und wirtschaftlichen Kraft institutionalisiert,
haben Unternehmen auf dieser gesicherten Grundlage dann Anwendungen für staatliche
und private Kunden entwickelt und vermarktet.
Seit einiger Zeit fehlen staatlichen Stellen in D dazu die technologischen und wirtschaftlichen Mittel, vielleicht auch (z. B. aufgrund einiger Fehlschläge und dem „Marktglauben“)
der Willen, so dass mangels Investitionssicherheit in vielen Lebensbereichen der Fortschritt
nur stockend vorankommt.
Private Plattformen können dies zum Teil kompensieren, vor allem in gewinnträchtigen
konsumentennahen Bereichen. Dort wurden mit ihrer Hilfe meist auf Basis des Internet
beachtenswerte Netze und Applikationen geschaffen. Ob dies auch auf den großen gesellschaftlichen Problemfelder gelingt, bleibt abzuwarten.
Literatur
Bellmann, K. / Mildenberger, U. / Haritz, A.: Management von Technologienetzwerken, in: Kaluza, B./
Blecker, Th. (Hrsg.): Produktions- und Logistikmanagement in Virtuellen Unternehmen und
Unternehmensnetzwerken, Berlin – Heidelberg – New York 2000, S. 119–146.
Bellmann, K. / Haritz, A.: Innovationen in Netzwerken, in: Blecker, Th. / Gemünden, H.G. (Hrsg.):
Innovatives Produktions- und Technologiemanagement, Berlin – Heidelberg – New York 2001, S. 271 –
298.
Brockhoff, K: Forschung und Entwicklung – Planung und Kontrolle, 3. Aufl. München – Wien 1992.
Dueck, G.: Abschied vom Homo Oeconomicus, Frankfurt / M. 2008.
Dueck, G.: Aufbrechen! – Warum wir eine Exzellenzgesellschaft werden müssen, Frankfurt/ M. 2010.
Eisele, J.: Google: Scheitern als Geschäftsmodell, in: Zeit-Online 2.03.2011.
Fischer, J./ Lange, U.: Invention und Innovation – (nicht immer) zwei Seiten einer Medaille, in:
Amelingmeyer, J. / Harland, P.E. (Hrsg.): Technologie- und Innovationsmanagement – Festschrift für
Prof. Dr. Günter Specht, Wiesbaden 2005, S. 367–380.
Iansinti, M. / Levien, R.: Keystone Advantage: What the New Dynamics of Business Ecosystems Mean for
Strategy, Innovation and Sustainibility, Harvard Business School Press 2004.
Mertens, P.: Schwierigkeiten mit IT – Projekten der Öffentlichen Verwaltung – Neuere Entwicklungen, in:
Informatik-Spektrum 32 (2009), 1, 42–49.
Mertens, P.: Schwierigkeiten mit IT – Projekten der Öffentlichen Verwaltung – Neuere Entwicklungen, in:
Informatik-Spektrum 35 (2012), 6, 433–446.
Osterwalder, A. / Pigneur, Y.: Business Model Generation, Hoboken / New Jersey 2010.
Scheer, C./ Deelmann, T. / Loos, P.: Geschäftsmodell und internetbasierte Geschäftsmodelle –
Begriffsbestimmung und Teilnehmermodell, Arbeitspapier Univ. Mainz 2003.
Specht, D. / Möhrle, M.G. (Hrsg.): Handbuch Technologiemanagement, Wiesbaden 2002.
Specht, G. / Beckmann, C. / Amelingmeyer, J.: F&E-Management – Kompetenz im Innovationsmanagement, Stuttgart 2002.
Stähler, P.: Geschäftsmodelle in der digitalen Ökonomie, Köln 2011.
28
Joachim Fischer
Teece, D. J.: Business Models, Business Strategy and Innovation, in: Long Range Planning 43 (2010), S.
172–194.
Weick, K. E. / Sutcliffe, K. M. Das Unerwartete managen – Wie Unternehmen aus Extremsituationen
lernen, Stuttgart 2003.
Wirtz, B.W.: Business Model Management: Design-Instrumente – Sucess Factors, Wiesbaden 2010.
Wohland, G.: Jenseits von Taylor – Virtuelles Unternehmen, Fraktale Organisation, Arbeitspapier
Darmstadt 1997.
On the Firm’s Raison d’Être and Competence-based Nature
of the Firm
Jörg Freiling
Introduction
Transaction cost theory tells us that firms are an integral part of the market process for they
help economic agents to cope with highest degrees of uncertainty and specificity
(Williamson, 1985). There is no point to question this understanding. However, we should
note that this point of view only refers to one issue in connection with uncertainty in the
market process: the negative impact of uncertainty, i.e. the risk. Firms exist because they
provide economic agents with a governance mode that is sufficient to cope with most
complex challenges of risk.
Is this the only reason why firms exist? This paper argues that the firm’s raison d’être
rests on at least one additional argument transaction cost theory necessarily neglects due to
its basic ambitions and antecedents. Therefore, we leave thinking in terms of transaction
cost theory and new institutional economics to demonstrate the potential of theories that do
not belong to the market equilibrium cluster. Theories that adopt market process thinking,
namely market process theory (Mises, 1949; Kirzner, 1973; Hayek, 1978), shed light on
business opportunities. Unfortunately, market process theory is, by now, a theory that
focuses on the market as the basic ontological level and not on the firm itself. Competencebased theory, however, is able to write the ‘missing chapter’ (Boettke, 1994) of market
process theory that is about the nature of the firm. We adopt the respective branch of the
‘competence-based theory of the firm’ (Foss and Ishikawa, 2007; Freiling et al., 2008) to
develop the basic view that firms exist due to their particular organizational ambiance that
provides the firm with a superior potential of coordination and motivation compared to
alternate institutions of the market. Therefore, the ambition of this paper is to address the
following research question: Besides protecting the firm from opportunism, what is the
competence-based nature of the firm?
To this end, the paper proceeds as follows: In the next section, we outline basic
approaches to the theory of the firm and, particularly, the cornerstones of CbTF as the
theory to be employed. Next, we develop the argument of the organizational ambiance by
reviewing the literature of the resource, knowledge, capability, and competence research. In
the main step we present the notion of the organizational ambiance in the light of CbTF.
Finally, a brief outlook finishes the paper.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_3,
© Springer Fachmedien Wiesbaden 2013
30
Jörg Freiling
CbTF and its Positioning the Organization and Management Theory
There are several approaches in literature to structure the enormous variety of theories that
belong to organization and management studies (e.g. Astley and Van de Ven, 1983). The
taxonomy of Burrell and Morgan (1979), however, belongs to the most prominent ones.
Burrell and Morgan use two criteria to finally identify four different paradigms: first, the
question of subjectivism versus objectivism and, second, the sociology of regulation versus
the one of radical change. Although many theories do not adopt a clear ‘either/or logic’ in
the face of the two dimensions, the separation is useful to understand basic viewpoints. In
particular we can recognize that many traditional approaches employed in business research
belong to the ‘functional paradigm’ that adopts a more static and objectivist position. The
rather deterministic view of the relationship between the organization and the environment
often implies the adoption of an ‘optimization logic’.
However, whenever we want to understand the role of firms in recent times,
environmental and corporate change plays a pivotal role. These changes are often driven by
proactive agents that try to improve their situation. Entrepreneurial behaviour is core to
understand the business reality. If we do not totally disagree with this viewpoint, then we
need to consider more subjectivist positions, based on radical or incremental change,
seriously. This implies employing approaches in particular of the interpretive paradigm
according to Burrell and Morgan (1979).
The interpretive paradigm itself is a cluster of quite different theories of several
disciplines (e.g. sociology, economics) with a common core. Market process theory (e.g.
Hayek, 1945; Kirzner, 1973) belongs to this paradigm and addresses evolutionary processes
of the market triggered by the use of knowledge. Market process theory conceptualizes
people as more or less alert agents (Mises, 1949; Kirzner, 1973; Lachmann, 1986) who
strive for their own advantage and try to modify the actual set of targets, means, and
alternatives for own purposes. When transaction cost theory argues that firms are ‘safe
ports in troubled seas’ of uncertainty and opportunistic behaviour, market process theory
focuses the opportunities in connection with uncertainty.
CbTF, however, is a theoretical program based on market process theory and shares the
same antecedents. CbTF adopts thinking in terms of proactively generating and exploiting
opportunities while, in contrast to the Austrian School of market process theory, intending
to understand the nature of the firm. As a (re-conceptualized) branch of the resource-based
school of strategy (Freiling et al., 2008), CbTF focuses on firm-specific and firmaddressable resources, knowledge, capabilities, and competences (Sanchez et al., 1996;
Freiling et al. 2008) and, thanks to its subjectivist nature, posits that every firm has a very
particular set of available resources (idiosyncrasy argument). As a first result, one
competence-based response to the nature of the firm is that every firm has, to some extent,
its own very nature. This, however, does not imply that we cannot find any commonalities
when researching the nature of the firm as an institution. We come back to this issue later
on.
What is the particular profile of CbTF? It makes sense commencing with the basic
antecedents that Freiling et al. (2008) conceptualized against the concept of research
programs of Lakatos (1970), here in particular the hard core assumptions. In a nutshell, the
set of assumptions contains (Freiling et al., 2008):
On the Firm’s Raison d’Être and Competence-based Nature of the Firm
31
• subjectivism – people (and organizations) differ in what they are, what they know, what
they want, and what they can; the states are not steady but subject to permanent changes,
• radical uncertainty – knowledge is rather incomplete, so that not only knowledge exist
the agents roughly know but do not long for, but also knowledge that is completely
unknown from decision-makers and, finally, there is knowledge relevant to decisions that
does not yet exist,
• methodological individualism – organizational phenomena (like culture or organizational
learning) exist but can only be explained by tracing them back to the actions of
individuals,
• moderate voluntarism – as for the relationship between the firm and the environment,
firms are embedded in their market and social environment, but for every firm managerial
discretion exists to alter at least parts of this environment for own purposes (Freiling,
2008),
• ‘homo agens’ – different from the ‘homo oeconomicus’, people act proactively and
constantly look out for opportunities to move to more favourable positions by taking the
chances of the managerial discretion in the sense of moderate voluntarism,
• relevance of time – whatever happens over time, the chronological order is decisive and
every decision made in the past has implications for later decision-making so that lock-in
und lock-out effects create organizational commitment and maybe path dependence.
Notably, the CbTF is an evolutionary theory and adopts the typical reasoning in terms of
variation, selection, and retention – well known from evolutionary theory. Belonging to the
range of theories of capability and competence research (Sanchez, 2001; Teece et al., 1997;
Sanchez and Heene, 2004; Helfat et al., 2007), CbTF does not (solely) focus on explaining
sustaining competitive advantage but the existence, nature, essence, and the boundaries of
the firm (Freiling, 2004). Therefore, CbTF is much more an organization theory than a
management approach. However, CbTF adopts the causal mechanisms developed in the
realm of resource and competence research. Among them, we find particularly the so-called
isolating mechanisms (Rumelt, 1984; Dierickx and Cool, 1989) that create a protected area
of the firm in the face of competitors’ attacks. There is a considerable and infinite number
of isolating factors. To name but a few, asset interconnectedness, social complexity, tacit
knowledge, routines, and causal ambiguity (Dierickx and Cool, 1989) belong to the most
prominent causal factors. Most notably, these mechanisms offer protection from
unfavourable forces of competition and can, at the same time, trigger the development of
resources and competences within the firm. As a consequence, they are relevant to the
‘ambiance notion’ as outlined initially. We need to come back to this issue when explaining
the competence-based nature of the firm below.
The Organizational Ambiance in the Mirror of Previous Research
The idea that firms are more than only strongholds against the negative impact of
uncertainty in economic decision-making is not new to management and organization
studies. Among the protagonists of classic theory, List (1841) argues within the debate on
his ‘law of the confederation of the productive forces’ that taking advantage of the division
of labour requires institutional solutions to integrate the divided work alertly. Just in
research on resources and competences we can find some hints why firms can be superior
modes of coordination and motivation. In her seminal work, Penrose (1959: 25) concludes:
32
Jörg Freiling
A firm is more than an administrative unit; it is also a collection of productive resources the
disposal of which between different uses and over time is determined by administrative decision.
(…) The essential difference between economic activity inside the firm and economic activity in
the ‘market’ is that the former is carried on within an administrative organization, while the latter is
not.
Although we need to clarify what an administrative organization is made of, one can
recognize that certain principles work in firms different compared to alternate institutions.
In this sense, what makes the difference between firms and markets? One response to this
question is the availability of so-called ‘higher order organizing principles’ of the firm, as
formulated by Kogut and Zander (1992 & 1996). These principles are a first indication that
coordination in firms differs from other institutions: Basically, they rest on social
procedures that coordinate and recreate relations among employees (Kogut and Zander,
1992). By employing these principles knowledge can be used in a structured way to
facilitate value-added activities.
This aspect, however, is rather close to Foss’ (1996) consideration that firms exist due to
a more efficient coordination of learning activities compared to other institutions: firms
obviously learn faster and/or better. The issues raised by Wilkens et al. (2004) point in a
similar direction. Referring to Rouse and Daellenbach (2002) as well as Helfat and Peteraf
(2003) and based on empirical fieldwork they conclude that in case of causally ambiguous
relations among people in organizations joint interpretations develop that lead to collective
minds.
Similarly, Hodgson (1998) makes an interesting suggestion by pointing out the firm’s
capacity to protect and develop competences in the organization. He recognizes the
capacity of the firm as an institution to amalgamate and integrate the individual
perceptions, preferences, abilities, and actions of its personnel.
Obviously, firms offer a specific background for the purpose of economic coordination.
However, this is not the whole truth, since the potential of motivation is different from
markets (Osterloh et al., 1999). We can demonstrate this by the transfer of tacit knowledge
as a backbone of competence building and leveraging. In markets there is simply no
incentive to share tacit knowledge among the economic agents. Facing the incentive
structure of the price mechanism as the dominant coordination mode in markets, this would
not pay off in any regard. The price mechanism rests on extrinsic motivation. However, the
transfer of tacit knowledge can only work in case of intrinsic motivation for the transfer
cannot be measured in an unambiguous manner. In firms, however, the situation is quite
different (Freiling, 2004). People work together in teams, create a mutual understanding
and, sometimes, also care to a certain extent for each other. A transfer of tacit knowledge
takes place in different ways—sometimes simply because people work together and
observe the other team members, sometimes because of explicit decisions by the bearer of
the knowledge. This motivation differential is one key to answer the question about the
nature of the firm.
The findings contribute to a preliminary understanding of the specific ‘organizational
ambiance’ of a firm and its ‘raison d’être’. In contrast to transaction cost theory, these
considerations not only focus on coordination and transaction but on value-added activities
as well. CbTF is able to integrate these two issues. Understanding the fertile background
offered by firms as institutions requires going some steps further.
On the Firm’s Raison d’Être and Competence-based Nature of the Firm
33
The Competence-based Nature of the Firm and the Organizational
Ambiance
As yet, we already dealt with the term of the organizational ambiance several times without
clarifying exactly what this construct means. Basically, the organizational ambiance is a
rather complex phenomenon that can be explained by referring to the isolating mechanisms
as mentioned above.
Resource-based reasoning suggests that the firm’s core resources and competences, that
might constitute sustaining competitive advantages, are protected by structural factors.
However, what are these structural factors that make a difference in coordination and
motivation vis-à-vis markets as the most important point of reference in the theory of the
firm? Compared to markets, firms are characterized by decisive differences as for the
relationships among people. Whereas in markets the price mechanism coordinates
economic agents and does not necessitate higher degrees of interaction, the coordination in
firms can best be described by borrowing the concept of ‘social complexity’ (Barney,
1991). Social complexity rests on a magnitude of different relationships among people in
firms and the dynamics associated with it. Among others, Barney (1991) traces back the
social complexity to interpersonal relations in firms and the organizational culture. He
claims that social complexity protects the firm from imitation activities of their rivals.
There is no reason to question this viewpoint. However, the social complexity of personal
relationships in firms is a factor that might go beyond creating an environment that is ‘only’
protecting. More than that, socially complex relationships among people in firms constitute
a net of ties that allow for communication and mutual learning. So to speak, this
environment is fertile and nurturing for resource development, as well. The ties develop
over time and change in quality – and maybe quantity, too. Notably, these relationships rest
on long-time couplings of people and are, therefore, stable but not static. Instead, the more
people get in touch with each other, the more they will learn from colleagues and the more
a mutual understanding develops. Insofar we cannot really understand the emergence and
the very nature of organizational culture without referring to these interpersonal
relationships.
More generally, phenomena such as economies of learning or higher order organizing
principles (see the previous section) do not appear from nowhere but are the result of
interconnected assets. Dierickx and Cool (1989) stress the connections among all the assets
available to a firm. We share this point of view with the explicit amendment that people and
the relationships among people in firms matter. However, this differentiation brings us one
step further in our reasoning. We can differ among diverse asset structures and ties in the
firm. Some of them are more visible, some of them are rather invisible, implicit, deeply
embedded in the organization, and ‘sticky’ (Szulanski, 2003). Accordingly, it is useful to
differ among surface structures and the deeply embedded structural elements, the deep
structures, of a firm.
Surface structures consist of the formal organization, i.e. operational and structural
organization (the structure of the divisions and the strategic business units, the formal
responsibilities, the definition of the business processes and the like). These organizational
elements are visible, formalized, and often rather easily manageable and changeable. The
opposite holds true in case of the deep structures. When people live together for a long
34
Jörg Freiling
time, often with an open end horizon of collaboration, they develop a kind of ‘glue’ that
keeps them together in groups. As a consequence, common principles and norms develop
how to organize the cooperation. Sometimes a certain ‘slang’ emerges that represents
common attitudes and interpretations among the people involved. The same holds true for
the logics employed within an organization. We share the view of Sanchez et al. (1996: 10)
who regard the strategic logic of a firm as follows:
Strategic logic refers to the rationale(s) employed (explicitly or implicitly) by decision makers in
the firm (…). All employees within a firm have at least some degree of discretion in the allocation
of resources. (…) Thus, the strategic logic of the firm is not an exclusive creation of top managers.
(…) Subsequent interpretations by other employees (…) require the adoption by each decision
maker of a rationale for deciding (…). (…) the firm’s strategic logic (…) resides at all levels of the
firm (…).
According to that, also these logics and routines belong to the informal structural elements
that are deeply embedded in the organization. Most notably, the dynamic interplay of the
above mentioned structural elements creates, step by step, an identity of groups of people
and, finally, of organizations. The shared values, however, that emerge this way, become
more and more taken-for-granted and create the core of an organizational culture—as e.g.
conceptualized in the sense of Schein (2004).
Why are all these considerations relevant to the topic of this paper? The answer is that we
cannot explain the very nature of the organizational ambiance as the cornerstone argument
of this paper on the nature of the firm without both the surface and the deep structures. To
understand why the firm is chosen as an institution both surface and, in particular, deep
structures play a role. The main argument is that these structural elements with the
reinforcing ties in the run of events form a specific environment that is different from
market and hybrids. The discussion on the isolating mechanisms reveals that this
environment is equipped with protection forces that ensure the state of the ‘crown jewels’
of the firm, namely the core resources and competences (Montgomery, 1995). The dynamic
interplay of interconnectedness of assets, social complexity, the use of routines and tacit
knowledge make imitation and substitution of critical resources and competences by rivals
less likely. This, however, is only one side of the coin. For an understanding of the
organizational ambiance as a reason why firms exist it is not less important that resources
and competences can be built and developed. To this end, firms need a fertile environment
fostering processes of resource and competence building. In this respect, the surface and
deep structures, the strong and weak ties of the resource endowment matter significantly to
generate and identify and, later, to exploit available business opportunities.
Why is this so? The organizational ambiance consists of hygiene factors that foster
knowledge sharing and knowledge integration. These hygiene factors are manifold. Among
them, the most important elements are organizational culture, routines, and governance
mechanisms employed in firms. We introduce the three elements in more detail.
First, firms need sense-making principles. As long as the people are not aware of why
collaboration among the staff members is useful and do not know why they should unfold
their individual potential for the firm, processes of resource and competence building will
not come to a desirable end. Among the sense-making elements we cannot over-estimate
the role of organizational culture. As Crossan et al. (1999) as well as Fichtner and Freiling
(2008) demonstrate, organizational culture plays a pivotal role in case of learning processes
On the Firm’s Raison d’Être and Competence-based Nature of the Firm
35
and competence building. Organizational culture, thus, not only triggers motivation but
enables coordination as well.
Second, routines are regular and predictable patterns of activity that are made up of a
sequence of coordinated actions by individuals (Grant, 1991) and connote a menu of
previously learned patterns of action (Winter, 1995). According to Grant (1996), routines
permit the integration of specialized knowledge without the need for communicating it.
Insofar routines allow for sophisticated ways of coordination due to the use of existing and
proven patterns. It is part of their very nature to structure and integrate knowledge and to
support the transfer of it. Routines are more than organized process structures due to the
fact that they are deeply embedded in people’s minds.
Third, among the hygiene factors we need to consider the role of governance mechanisms
employed in firms. It goes without saying that governance mechanisms are employed in
every institution, be it a market, a relationship or a firm. However, the particular
mechanisms in use differ in quality when we compare firms and markets. Formal modes,
such as contracts, are indispensable to our understanding of markets and many kinds of
hybrids. They are relevant to firms as well as the notion of the firm as a nexus of contracts
(Fama, 1980) suggests. However, governance modes in firms are a system of interrelated
mechanisms that enable and foster coordination and motivation. Formal governance modes
(e.g. contracts, commands, monitoring systems) stand side by side with informal ones (e.g.
trust, commitment).
To summarize the considerations, the organizational ambiance is made of a rich set of
social ties among the people who belong to a firm and interrelated assets. The interrelations
undergo permanent improvements and adaptations to provide the firm with a higher degree
of competitiveness. Due to the open end horizon, the couplings are stable and form a
structure that consists of both surface and deeply rooted elements. This net of personal and
functional relations builds the organizational ambiance that provides the firm with an
atmosphere of familiarity. People know each other quite well in organizations due to
interactions and numerous social contacts. They learn how to use the considerable structural
complexity the organizational ambiance consists of. Although causal ambiguity (Lippman
and Rumelt, 1982) might exist, we have to differ between the internal opacity of firms and
the external opacity which is significantly higher. Thus, the consequence of causal
ambiguity is that people in firms are not aware of any detail as for the coordination
mechanisms and potentials of their particular firm. However, they have an idea how to
utilize the existing structures of the ambiance. More than that, via internal knowledge
transfer processes that are fostered by the management of the firm the possibility of making
the best of the ambiance available to the firm works better over time. Oppositely, external
parties, in particular rivals, are not fully aware of these personal and functional ties. They
only get a rather sketchy and incomplete understanding of the firm they observe. As rivals
they are usually not integrated in processes of knowledge transfer but, at best, of knowledge
diffusion. Insofar, the organizational ambiance unfolds a potential to protect the firm from
outside attacks on the firm’s ‘crown jewels’.
Moreover, the ambiance provides the firm with a fertile environment for the purpose of
resource and competence building. This potential grows over time. The more people
employ this ambiance to the desired ends, the more knowledge will be embedded in the
36
Jörg Freiling
firm’s deep structures and will improve coordination. The more the ambiance brings people
together and creates common sense, the sooner the motivation of the people in firms
increases. So to speak, utilizing the organizational ambiance improves the potential of
coordination and motivation in the sense of ‘learning by doing’. Moldaschl and Fischer
(2004) coined the term ‘generative resources’ to address that some types of resources are
means for action that are created and augmented in use. This exactly holds true for the
organizational ambiance as the centrepiece of this paper.
Thus, the ambiance allows for a both protecting and nurturing environment for resource
and competence management that provides the firm as an institution with both a differential
of coordination and a differential of motivation vis-à-vis alternate institutional modes. To
regard firms as a net of stable, not static personal and functional relationships goes beyond
viewing firms as a nexus of contracts and as a fortress against the threat of opportunistic
behaviour of economic agents in competition. The ambiance, in this sense, is basic in order
to capitalize on the division of labour. Notably, the ambiance should not be regarded as a
purely rational result of managerial action. Admittedly, the ambiance is, often to a large
extent, consciously developed by means of resource and competence management.
However, we should not under-estimate the role of emergent processes for the purpose of
developing the ambiance. In this sense, the ambiance can be adequately understood as a
generative resource. This, however, does not imply that every move is always a step
forward into the direction of improved competitiveness.
Outlook
Having stressed the role of firms as institutions, we extended the typical notion of firms as
safe ports in the face of the negative impact of uncertainty by showing that firms allow for
exploring and exploiting the opportunities of the market process as well. By employing
CbTF as market process theory’s pendant on the level of organization theory, we were in a
position to address this particular role of firms. The organizational ambiance as a construct
was introduced. Notably, this ambiance provides the firm with a protection belt and
catalytic forces to improve the firm’s asset endowment. In this sense, we need empirical
work in order to specify the particular structure of the organizational ambiance. By now, we
can only use causal concepts of resource and competence research such as the isolating
mechanisms. As the ambiance belongs to the rather ‘sticky’ factors of the firm, we are well
advised to take care when selecting adequate empirical methods. It seems that typical
means of qualitative and quantitative empirical research are not fully appropriate to
investigate the nature of the ambiance. Maybe approaches from clinical research are
required to further our understanding of the construct under investigation.
Until now, we primarily addressed the nature and essence of the firm. By now, we did not
clarify that, first, there may be some common patterns of firms that are fundamentally
different from alternate institutions while, second, every firm is equipped with a specific
nature. Competence research already stressed idiosyncrasies of firms. CbTF shares this
point of view, in particular by assuming subjectivism. Insofar, the organizational ambiance
of every firm is to some extent idiosyncratic. This fact is basic to our understanding of the
nature of the firm – and different from the viewpoint of new institutional economics.
On the Firm’s Raison d’Être and Competence-based Nature of the Firm
37
References
Astley, W.G., Van de Ven, A.H. (1983). ‘Central perspectives and debates in organization theory’.
Administrative Science Quarterly 28: 245–273.
Barney, J.B. (1991). ‘Firm resources and sustained competitive advantage’. Journal of Management 17/1:
99–120.
Boettke, P. (1994). ‘Alternative paths forward for austrian economics’ in The Elgar Companion to Austrian
economics. Boettke, P. (ed), 601–615. Aldershot: Elgar.
Burrell, G., Morgan, G. (1979). Sociological paradigms and organisational analysis. London et al.:
Heinemann.
Crossan, M.M., Lane, H.W., White, R.E. (1999). ‘An organizational learning framework: From intuition to
institution’. Academy of Management Review 24(3): 522–537.
Dierickx, I. and Cool, K. (1989). ‘Asset stock accumulation and sustainability of competitive advantage’.
Management Science 35: 1504–1511.
Fama, E.F. (1980). ‘Agency problems and the theory of the firm’. Journal of Political Economy 88: 288–
307.
Fichtner, H., Freiling, J. (2008). ‚Organizational Culture, Organizational Ambiance & Competences: A
Competence-based Theory of the Firm’. SSRN Working Paper, available at SSRN:
http://ssrn.com/abstract=1113860 (March 27, 2008).
Foss, N.J. (1996). ‘The emerging competence perspective’ in Towards a competence theory of the firm. N.J.
Foss and C. Knudsen (eds): 1–12. London, New York: Brunner-Routledge.
Foss, N.J., Ishikawa, I. (2007). ‘Towards a Dynamic Resource-based View’. Organization Studies 28(5):
749–772.
Freiling, J. (2004). ‘A Competence-based Theory of the Firm’. Management Revue 15(1): 27–52.
Freiling, J. (2008). ‘RBV and the Road to the Control of External Organizations’. Management Revue
19(1–2): 33–52.
Freiling, J., Gersch, M., Goeke, C. (2008). ‘On the Path Towards a Competence-based Theory of the Firm’.
Organization Studies 29(8–9): 1143–1164.
Grant, R.M. (1991). ‘The Resource-Based Theory of Competitive Advantage’. California Management
Review 33(3): 114–135.
Grant, R.M. (1996). ‘Toward a Knowledge-based Theory of the Firm’. Strategic Management Journal 17:
109–122.
Hayek, F.A. (1945). ‘The Use of Knowledge in Society’. American Economic Review 35 (September):
519–530.
Hayek, F.A. von (1978). ‘Competition as a discovery problem’ in New Studies in Philosophy, Politics,
Economics, and the History of Ideas. London: Routledge.
Helfat, C., Finkelstein, S., Mitchell, W., Peteraf, M.A., Singh, H., Teece, D.J., Winter, S.G. (2007).
Dynamic Capabilities, Malden: Blackwell.
Helfat, C., Peteraf, M. (2003). ‘The dynamic resource-based view’. Strategic Management Journal 24: 997–
1010.
Hodgson, G.M. (1998). ‘Competence and Contract in the Theory of the Firm’. Journal of Economic
Behavior and Organization 35: 179–201.
Kirzner, I.M. (1973). Competition and Entrepreneurship. Chicago: University Press.
38
Jörg Freiling
Kogut, B., Zander, U. (1992). ‘Knowledge of the firm: Combinative capabilities, and the replication of
technology’. Organization Science 3: 383–397.
Kogut, B., Zander, U. (1996): ‘What Firms Do? Coordination, Identity, and Learning’. Organization
Science 7: 502–518.
Lachmann, L.M. (1986). The Market as an Economic Process. Oxford/New York: Basil Blackwell.
Lakatos, I. (1970). ‘Falsification and the Methodology of Scientific Research Programmes’ in Criticism and
the Growth of Knowledge. I. Lakatos, A. Musgrave (eds), 91–195, Cambridge: Cambridge University
Press.
Lippman, S., Rumelt, R.P. (1982). ’Uncertain Imitability: An Analysis of Interfirm Differences in
Efficiency under Competition’, Bell Journal of Economics 13: 418–438.
List, F. (1841/1909). ‘Das nationale System der Politischen Ökonomie’. Stuttgart, Tübingen. English
edition: ‘The National System of Political Economy’. London: Longmans, Green & Co.
Mises, L. von (1949). Human action. Irvington-on-Hudson/NY: Free Market Books.
Moldaschl, M., Fischer, D. (2004). ‘Beyond the Management View’, Management Revue 15(1): 122–151.
Montgomery, C.A. (1995). ‘Of Diamonds and Rust: A New Look at Resources’. in Resource-Based and
Evolutionary Theories of the Firm. Montgomery, C.A. (ed), 251–268. Boston: Kluwer.
Osterloh, M., Frey, B.S., Frost, J. (1999). ‘Was kann das Unternehmen besser als der Markt?’ Zeitschrift für
Betriebswirtschaft 69: 1245–1262.
Penrose, E.T. (1959). ‘The theory of the growth of the firm’. 1st edn. Oxford: Basil Blackwell.
Rouse, M.J., Daellenbach, U.S. (2002). ‘More Thinking on Research Methods for the Resource-Based
Perspective’. Strategic Management Journal, 23(10): 963–969.
Rumelt, R.P. (1984). ‘Towards a strategic theory of the firm’. in Competitive strategic management. R.B.
Lamb (ed.), 556–570. Englewood Cliffs: Prentice-Hall.
Sanchez, R., Heene, A. (2004). The New Strategic Management, New York: Wiley.
Sanchez, R., Heene, A., Thomas, H. (1996). ‘Towards the theory and practice of competence based
competition’ in Dynamics of competence-based competition. Sanchez, R., Heene, A., Thomas, H. (eds),
1–35. Oxford: Pergamon.
Sanchez, R. (2001). ‘Building Blocks for Strategy Theory: Resources, Dynamic Capabilities and
Competences’ in Rethinking Strategy. Volberda, H., Elfring, T. (eds) 143–157. London: Sage.
Schein, E.H. (2004). Organizational culture and leadership (3rd ed.), San Francisco: Jossey Bass Wiley.
Szulanski, G. (2003). Sticky knowledge: Barriers to knowing in the firm. London: Sage.
Teece, D.J., Pisano, G., Shuen, A. (1997). ‘Dynamic capabilities and strategic management’. Strategic
Management Journal 18(7): 509–533.
Wilkens, U., Menzel, D., Pawlowsky, P. (2004). ’Inside the black-box: Analysing the generation of core
competencies and dynamic capabilities by exploring collective minds’. Management Revue 15(1): 8–26.
Williamson, O.E. (1985). The Economic Institutions of Capitalism. New York: Free Press.
Winter, S.G. (1995). ‘Four Rs of Profitability: Rents, Resources, Routines, and Replication’. in ResourceBased and Evolutionary Theories of the Firm. Montgomery, C.A. (ed), 147–178. Boston: Kluwer.
Conceptualizing the Capability of Supplier Sustainability
Risk Management1
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
1
Introduction
External stakeholders have built up high expectations on “sustainability”, putting firms
under constant watch by non-governmental organizations, media, etc. (Bellmann, 1999;
Kudla & Stölzle, 2011). Stakeholders usually do not differentiate between a firm’s and its
suppliers’ operations. They hold the focal firm responsible for all practices involved in the
making of the product, including any potential sustainability concern (Koplin, Seuring &
Mesterharm, 2007; Rao, 2002). Suppliers not complying with the firm's promised
standards, norms, or values are likely to cause damaged brand reputation, decreased brand
value, or destroyed consumer confidence. Nike and Mattel are prominent examples of
brands that suffered from non-compliant suppliers and faced media campaigns, consumer
boycotts and partially declining sales (Locke & Romis, 2007; Wagner et al., 2009).
Firms specify their sustainability commitment in corporate sustainability standards that
often voluntarily go beyond the law (Bansal & Hunter, 2003). Those corporate
sustainability standards are frequently represented in so called 'codes of conducts', which
also become a contractual element between firms, suppliers and their suppliers upstream
supply chain (Jiang, 2009). After the contractual implementation, firms still face the risk
that their suppliers, and also further sub-suppliers in the upstream supply chain, do not
comply with the issued corporate sustainability standards (Egels-Zandén, 2007; Hoejmose
& Adrien-Kirby, 2012).
Consequently, firms need to establish effective supplier management practices to drive
supply chain partners' compliance with firms' corporate sustainability standards. The
literature emphasizes that currently firms possess too little resources to control their entire
supply chains (Foerstl, Reuter, Hartmann & Blome, 2010; Grimm, Hofstetter, Müggler &
Peters, 2011): Firstly, related practices such as supplier assessment, development and
continuous monitoring are very time and cost consuming. Moreover, firms' supply bases
may include thousands of suppliers – a number that increases accordingly with existing
value-adding steps by further indirect sub-suppliers in the supply chain. For example,
1
This article advances a paper presented at the 71st Annual Meeting of the Academy of Management by
Grimm, Hofstetter and Röthig (2011).
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_4,
© Springer Fachmedien Wiesbaden 2013
40
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
Hewlett-Packard sources directly from approximately 1’000 production suppliers and
50’000 non-production suppliers, which are located in six different continents and more
than 45 countries (HP, 2012).
In this context, research has recently emphasized the importance of an effective risk
management in order to successfully manage suppliers with respect to sustainability factors
(Carter & Rogers, 2008; Cousins et al., 2004; Spence & Bourlakis, 2009; Teuscher et al.,
2006). Moreover, the literature highlights the value that an organizational capability of
'supplier sustainability risk management' might provide to focal firms seeking to improve
sustainability performance in their supply chains, and particularly, to increase compliance
levels at their suppliers’ sites (Foerstl et al., 2010; Grimm et al., 2011). It could enable a
rigorous prioritization of sustainability risks in supply chains that allows firms to
implement supplier management practices of different scale in accordance with the
prioritized risks. This might enable an efficient usage of limited resources by means of an
appropriate processing of the respective practices to drive suppliers’ compliance with firm's
issued corporate sustainability standards (Foerstl et al., 2010; Grimm et al., 2011).
Moreover, addressing sustainability risks in supply chains can positively affect firms’
economic factors by reducing the risk of reputational damages and enhancing further
operational performance (Foerstl et al., 2010; Reuter et al., 2010).
The concept of risk management has rarely been considered in sustainability and supply
chain research (Carter & Rogers, 2008; Foerstl et al., 2010). Further knowledge for a
comprehensive conceptualization of a 'supplier sustainability risk management' capability is
required. Reviewing the current literature reveals that past research had a strong qualitative
focus, whereas no measurement instruments yet exist that can indicate the maturity of a
firm’s 'supplier sustainability risk management' capability.
The overall goal of this article is twofold. Firstly, we seek to strengthen the general
understanding of 'supplier sustainability risk management' by deriving a respective
conceptualization. Secondly, we aim for the development of a measurement instrument that
can give practitioners an estimation of their current capability maturity. The maturity
evaluation of the 'supplier sustainability risk management' capability might consequently
indicate where to invest resources in order to develop the focused capability, ultimately
enabling them to reduce sustainability risks in supply chains.
To achieve this objective, the remainder of this paper is organized as follows: Firstly, we
review the literature on risk management within the context of “general” supply chain
management, followed by a specific sustainability focus, that is, risk management within
the sustainable supply chain management context. Consequently, this enables us to derive
an initial conceptualization of the capability of 'supplier sustainability risk management'.
Based on the conceptualization, we propose a measurement instrument that allows
conducting a maturity evaluation of the targeted capability. The paper ends with a
discussion of managerial implications.
Conceptualizing the Capability of Supplier Sustainability Risk Management
2
41
Literature Review
2.1 ‘General’ Risk Management in Supply Chains
The term ‘risk’ describes the exposure to an event with an uncertain outcome (Holton,
2004). Uncertainty about the outcome implies that the result could be either as expected,
better, worse, or entirely different than expected (Khan & Burnes, 2007). Often only the
negative component of risk is considered (Gray & Wiedemann, 1999; Rao & Goldsby,
2009). Correspondingly, risk management is the discipline for dealing with this uncertainty
(Sadgrove, 2008). It emerged from the handling of “economic risk in early capitalism” and
from “natural hazard research” (Gray & Wiedemann, 1999: 203) but was soon applied in
quality management (Sadgrove, 2008), finance and strategic management (Jüttner, 2005).
Risk management is a technical approach, which evaluates risks in a step-by-step process
through estimating probabilities (Gray & Wiedemann, 1999). Although varying process
elements can be found in literature, there is a general agreement on three essential steps of
risk management: (1) risk identification, (2) risk assessment and (3) risk control. The first
step serves to determine all possible risks that might occur, the second step quantifies and
prioritizes the identified risks and the third step includes deciding on and implementing
appropriate risk mitigation strategies (Khan & Burnes, 2007; Paulsson, 2004; White, 1995).
In an ideal case, these steps are undertaken in a sequential and continuous process
(Sadgrove, 2008).
During the last decade the systematic approach of risk management has expanded into the
field of supply chain management (e.g. Jüttner, 2005; Kersten & Blecker, 2006; Khan &
Burnes, 2007; Rao & Goldsby, 2009). In the supply chain context, risks have been defined
as any disturbance to the flows of material, capital and information that might negatively
affect one or more participants of the supply chain (Kersten et al., 2006; Pfohl, Köhler &
Thomas, 2010). Therefore, they refer to events such as delivery delay, breakdown of IT
systems, or the loss of a supplier (Jüttner, 2005; Pfohl et al., 2010). The threat of
opportunistic behavior in (cooperative) buyer-supplier-relationships, interpreted by Seiter
(2006: 110) as the “breaking of explicit or implicit agreements between the partners within
the supply chain”, has found minor attention in literature (Spekman & Davis, 2004; Seiter,
2006).2
Focusing on supply chains, various instruments have been suggested to identify, assess
and manage supply chain risks. Rao and Goldsby (2009) propose the initial development of
a supply chain map “as a reasonable starting point” for identifying hazards within a firm's
supply chain. In a first step, it increases transparency by identifying supply chain members
and respective material, financial and information flows. Depending on the specific purpose
and the level of detail, such maps can help to detect critical suppliers: They visualize
information, for example on channel dynamics relating to suppliers’ relative size and
power; and they help to illustrate entire supply chains with potential bottlenecks (Gardner
& Cooper, 2003).
2
For a detailed typology of occurring risks in supply chains, see Rao and Goldsby (2009) or Wagner and
Bode (2006).
42
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
Zsidisin, Ellram, Carter and Cavinato (2004) analyze different supply risk assessment
approaches, concluding that all underlying procedures aim to evaluate the probability and
impact of possible negative events in supply chains. This is supported by Jüttner (2005),
who found “Risk likelihood/Impact”-analysis to be a commonly used assessment tool in
supply chain risk management.
Khan and Burnes (2007: 208) give an overview of the risk management measures in the
supply chain context that are especially directed towards suppliers:
− Supplier quality, auditing and certification programs,
− Supplier development and improvement programs, and
− Communication and early involvement of suppliers in strategic decisions.
Furthermore, Chen and Paulraj (2004: 125) argue, that supply base reduction is “a required
element of contemporary supply chain management” as it frees up coordination efforts,
ultimately enabling improved trust due to more frequent communication and therefore
supporting long-term relationships with suppliers. According to Seiter (2006), a continuous
partner selection and assessment process is an effective instrument to reduce the risk of
opportunistic behavior between supply chain partners.
2.2 Risk Management for Supply Chains in the Context of
Sustainability
Earlier work in the field of sustainability has suggested that environmental and social
initiatives can serve as a risk mitigation strategy to avoid reputational damage (Welford &
Frost, 2006; Peters et al. 2011). However, detailed advice on their effective implementation
in supply chains is still missing (Millington, 2008; Schneider & Schwerk, 2010). Scholars
have only recently started to recognize the relevance of risk management approaches for
reducing sustainability risks and assuring suppliers’ compliance with sustainability
standards (Carter & Rogers, 2008; Cousins et al., 2004; Foerstl et al., 2010; Reuter et al.,
2010; Spence & Bourlakis, 2009; Teuscher et al., 2006).
Carter and Rogers (2008: 365) identify “the concept of risk and the management of risk
(...) as a reoccurring theme in the sustainability literature” and therefore consider it to be a
critical aspect of successfully improving social and environmental performance in firm's
supply chains. Moreover, Carter and Rogers (2008) show that firms increasingly recognize
the relevance of sustainability risks for their business. For example, Hewlett-Packard
assesses the social and environmental risks of their supply base for prioritization and
General Electric examines suppliers’ potential human rights threats (Carter & Rogers,
2008).
The body of sustainable supply chain management literature identifies various
approaches that are appropriate to mitigate sustainability risks, including evaluation,
monitoring, sanctions (e.g. delisting) and training of suppliers. Commonly used measures
for assessments are supplier evaluation schemes with an extended set of criteria, referring
to environmental and social aspects, or supplier self-assessments asking how suppliers deal
with sustainability issues (Kudla & Stölzle, 2011). The suppliers’ social and environmental
performance then serves as a prerequisite to be considered for orders and services by the
Conceptualizing the Capability of Supplier Sustainability Risk Management
43
firm. Furthermore, comprehensive audits are needed for a successful implementation of
sustainability standards (Kudla & Klaas-Wissing, 2012).
Cousins et al. (2004) develop a conceptual model, which describes the scope and the type
of environment-related supplier initiatives that firms might undertake in relation to the risks
perceived by managers and to the level of strategic purchasing. A firm is more likely to
engage in proactive initiatives, if managers perceive potential losses (e.g. financial or social
loss) as high, and if the purchasing function is relatively advanced. Based on their model,
the authors suggest four generic types of environment-related supplier initiatives: “Why
bother?”, “No choice!”, “Enthusiasts” and “Go first” (Cousins et al., 2004: 560), the last
one being the most proactive. Firms that fall into this category follow risk mitigating
approaches such as supplier-assessments, approved supplier list, training programs,
purchasing environmental champion and use management information systems for tracking
data (Cousins et al., 2004). Similarly, Spence & Bourlakis (2009) describe how supplier
self-assessment questionnaires can be used to analyze the sustainability performance of new
suppliers and to prioritize them according to their risk of non-compliance into high,
medium and low risk suppliers. Suppliers’ initial non-compliance is not an unusual case
and should not lead to suppliers’ immediate rejection. Instead, “a program of corrective
action is agreed and monitored” (p. 296) to improve suppliers’ sustainability performance
(Spence & Bourlakis, 2009).
Teuscher et al. (2006) identify internal and external economic, ecological and social risks
within a firm’s supply chain and illustrate how risk management helps to establish a
sustainable supply chain. Importantly, the authors recommend the establishment of a solid
partnership between the firm and its suppliers, as they find that “accountable partners help
to minimize risks” (p. 3). Multiple activities are suggested for this purpose, e.g. the
mapping of the supply chain and risks, setting targets and defining measures, evaluating the
sustainability practices of business partners, focusing on accountable suppliers and auditing
suppliers.
Foerstl et al. (2010) and Reuter et al. (2010) conduct multiple case study research in the
chemical industry to explore how firms identify, assess and handle sustainability risks
emerging from their suppliers. The authors outline that sustainability risk management is
integrated into the supplier management processes and argue that supplier sustainability
risk management capabilities (Foerstl et al., 2010: 118) can be a source of competitive
advantage. As for risk identification, all of the studied firms use supplier-self assessment
questionnaires and maintain a supplier data base. In addition, externally acquired
information was attained. The majority of the studied firms relied on a likelihood-businessimpact-analysis when assessing the risks of their suppliers, and accordingly, based their
prioritization on the suppliers’ criticality. The authors particularly pinpoint on the
advantage of one approach, which solely aims to evaluate the probability of noncompliance and gives no attention to the strategic importance of suppliers, due to the fact
that “stakeholders will condemn any kind of misconduct irrespective of spend volume with
a particular supplier or strategic relevance to the buyer. The actions of any supplier may
thus pose a reputational risk to the buying firm” (Reuter et al., 2010: 57). The firms
calculate the likelihood of suppliers’ non-compliance by using risk indicators such as
properties of supplied goods, geographic location, production process and results of the
44
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
supplier self-assessment. The strategies to mitigate sustainability risks and improve
suppliers’ compliance are similar across the studied firms:
− Firstly, sustainability criteria are included in the supplier selection process and acts as a
“gate-keeper” (Foerstl et al., 2010: 124) for new suppliers, i.e. compliance with mustmeet-criteria is required to be considered for further cooperation.
− Secondly, all the firms engage in supplier development if non-compliance occurs within
their established supply base. During a predefined time-frame suppliers are supported to
re-meet the minimum sustainability requirements.
− Thirdly, relationships with established suppliers, who repeatedly violate the firms’
sustainability standards and fail to implement corrective actions, are terminated. The
second strategy is preferred over the third, as competition between suppliers is fostered
and each termination would increase the dependence on the remaining suppliers leading
to higher risks for the goal of economic sustainability (Foerstl et al., 2010; Reuter et al.,
2010).
Other recent research in the field of sustainability have proposed similar approaches for
achieving suppliers’ compliance (e.g. Andersen & Skjoett-Larsen, 2009; Boyd, Spekman,
Kamauff & Werhane, 2007; Schneider & Schwerk, 2010), however, without referring to
any formal risk management procedure. For example, Boyd et al. (2007) argue that accurate
sustainability information is needed to achieve compliance. Therefore, they suggest process
mapping “to show the entire flow of goods through the pipeline from the simplest raw
material to the most complex subassembly” (p. 349), collecting data on each firm participating in the process and conducting audits. Furthermore, Boyd et al. (2007) recommend
the termination of supplier relationships if trust is missing and differences exist between the
suppliers’ sustainability values and that of the supplied firm. Nevertheless, they also
mention that it is important to help suppliers’ in adopting sustainability initiatives.
Furthermore, Schneider and Schwerk (2010) as well as Andersen and Skjoett-Larsen (2009)
underline the importance of supplier selection based on social and environmental criteria.
Besides increasing the suppliers’ engagement for sustainability issues (Schneider &
Schwerk, 2010), this approach enables a more efficient use of valuable resources used for
supplier development (Andersen & Skjoett-Larsen, 2009). Accordingly, supplier
questionnaires can be used for data-gathering on the sustainability performance of
suppliers. The resulting information builds the basis for benchmarking suppliers and helps
to identify areas for continuous improvement strategies (Keating et al., 2008).
Commonly, it is argued that closer, trusting and long-term relationships can help to
achieve compliance, e.g. by working closely with suppliers’ management and building
sustainability knowledge over time (Andersen & Skjoett-Larsen, 2009; Egels-Zandén,
2007; Schneider & Schwerk, 2010). Therefore supply base reduction is necessary, as
collaborative approaches are resource-consuming and therefore cannot be pursued with a
large number of suppliers (Egels-Zandén, 2007; Schneider & Schwerk, 2010; Welford &
Frost, 2006).
Table 1 summarizes the various risk management practices, which we identified within
our review of relevant supply chain and sustainability literature. In the following section we
consequently seek to structure the identified elements and conceptualize a comprehensive
‘supplier sustainability risk management’ capability.
45
Conceptualizing the Capability of Supplier Sustainability Risk Management
Table 1:
Risk management practices covered in supply chain and sustainability literature
Study
Risk management practices
Chen and Paulraj (2004) Supply base reduction
Cousins et al. (2004)
Zsidisin et al. (2004)
Jüttner (2005)
Seiter (2006)
Teuscher et al. (2006)
Boyd et al. (2007)
Egels-Zandén (2007)
Carter and Rogers
(2008)
Keating et al. (2008)
Seuring and Müller
(2008)
Method
Measure
development
Supplier assessment, approved supplier list, Conceptual
training programs, data tracking
Risk probability and impact-analysis
Case study
Risk likelihood and impact-analysis
Conceptual, survey
Supplier selection
Survey
Supply chain mapping, partner evaluation, Case study
supplier selection, audits, partnership
approach
Supply chain mapping, audits, supplier
Theoretical
development, supplier de-selection
Supplier base reduction, long-term
Case studies
relationship
Supplier sustainability risk assessment and Conceptual
prioritization
Supplier questionnaires, information data Case study
base, supplier improvement strategies
Supplier evaluation, monitoring, sanctions Literature review
(e.g. de-listing), supplier training, supplier
evaluation schemes / self-assessment
Supplier selection, long-term relationship Case study
Andersen and SkjoettLarsen (2009)
Rao and Goldsby (2009) Supply chain mapping
Spence and Bourlakis
Supplier self-assessment questionnaires,
(2009)
supplier prioritization, supplier
development
Foerstl et al. (2010),
Supplier self-assessment questionnaires,
Reuter et al. (2010)
supplier data base, supplier selection,
probability (and impact)-analysis, supplier
de-selection, supplier development
Schneider and Schwerk Supplier selection, long-term relationship
(2010)
Literature review
Case study
Case studies
Literature review,
case studies
46
3
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
Conceptualization of the Capability of ‘Supplier Sustainability Risk
Management’
As the literature review showed, risk management approaches are commonly based on a
sequential process, which is composed of three steps, i.e. identification, assessment and
control of risks. Our literature review further indicated various fragmented risk
management practices and approaches, which we subsequently compose to a comprehensive conceptualization of the ‘supplier sustainability risk management capability’ along the
three aforementioned steps.
3.1 Risk Identification
For a comprehensive risk management, it is crucial that a firm acknowledges the equal
damage potential of all suppliers and sub-suppliers to its reputation (Reuter et al., 2010).
Therefore, literature highlights the significance of having an accurate understanding of the
sustainability risks of each supplier and sub-supplier (Boyd et al., 2007). A supply chain
map can be helpful for visualizing and simplifying large-sized and complex supply chains
(Gardner & Cooper, 2003; Rao & Goldsby, 2009). It is a typical supply chain risk
management tool (Jüttner, 2005) that can be adapted to locate suppliers with a potentially
critical sustainability performance (Teuscher et al., 2006; Boyd et al., 2007). Since any
supplier in the network can be a source of risk to the firm’s reputation (Reuter et al., 2010),
the effort should be made to build a detailed map of the entire supply chain, including as
many suppliers as possible from tier-1 to tier-n suppliers (Gardner & Cooper, 2003).
Supplier self-assessment questionnaires, which include environmental and social
minimum requirements and ask suppliers how they handle sustainability issues, are
instruments used for identifying the sustainability risks of each (new or established) direct
supplier in more detail (Foerstl et al., 2010; Keating et al., 2008; Reuter et al., 2010;
Seuring & Müller, 2008; Spence & Bourlakis, 2009). Furthermore, externally acquired
information on the sustainability performance or the reputation of a supplier can give
valuable input for risk identification (Foerstl et al., 2010).
To enable continuous risk identification, it has been argued that it is beneficial to build up
a data base with the sustainability information collected from mapping the supply chain,
supplier questionnaires, supplier audits and monitoring or external sources (Boyd et al.,
2007). If updated regularly, such a data base could track developments of the supply base
regarding sustainability risks (Cousins et al., 2004; Foerstl et al., 2010) and therefore help
to identify risky changes early, which is essential for eliminating the causes of undesired
incidents proactively (Kersten et al., 2006).
3.2 Risk Assessment
The preceding literature review indicated that the general assessment technique for risks
consists of a likelihood-impact-analysis (Zsidisin et al., 2004; Jüttner, 2005). However,
Reuter et al. (2010) have argued that effective risk management in the sustainability context
is solely based on the probability of suppliers’ non-compliance since any supplier −
independent of his strategic importance − could be a risk to the firms’ reputation. Thus, an
Conceptualizing the Capability of Supplier Sustainability Risk Management
47
impact assessment, which is strongly geared to factors such as revenue-share or order
volume with a particular supplier, could falsify the resulting risks.
Besides the supplier questionnaires and information from the data base, aspects such as
the production process, the properties of the good and the geographic location should be
considered to assess the probability of non-compliance (Foerstl et al., 2010,). Depending on
the industry and sustainability standards, these aspects can vary, but according to Reuter et
al. (2010) the geographic location can serve as a distinct risk indicator, since especially
suppliers from developing countries tend to show a poorer sustainability performance.
Based on the assessment, suppliers are prioritized according to their risk of noncompliance, e.g. into high, medium and low risk (Carter & Rogers, 2008; Spence &
Bourlakis, 2009). The prioritization of suppliers helps the firm in deciding on the suppliers’
need for development and control measures, i.e. what approaches could successfully reduce
the risk of non-compliance. This enables a more efficient use of resources, which is
important regarding the large number of suppliers a firm usually depends on (Andersen &
Skjoett-Larsen, 2009; Foerstl et al., 2010; Reuter et al., 2010).
3.3 Risk Control
After having prioritized the suppliers, the firm needs to choose appropriate strategies and
operational measures to avoid the risks arising from any identified poor sustainability
performance. The literature review revealed five approaches well rooted within traditional
supplier management that constitute the last step in the risk management process.
Supplier base reduction for partnership approach. Partnership approaches and closer
long-term relationships with suppliers have been identified as an effective way to reduce
sustainability-related risks and increase suppliers’ compliance (e.g. Andersen & SkjoettLarsen, 2009; Cousins et al., 2004; Egels-Zandén, 2007; Jiang, 2009; Schneider &
Schwerk, 2010; Teuscher et al., 2006). Since such a strategy requires more time and
resources, supplier base reduction, i.e. the focus on fewer suppliers, is essential (e.g. Chen
& Paulraj, 2004; Schneider & Schwerk, 2010; Welford & Frost, 2006).
Supplier selection based on sustainability criteria. The risk of non-compliance can be
reduced by including sustainability criteria in the supplier selection process (Seiter, 2006).
If minimum requirements for social and environmental performance cannot be met by a
new supplier, this supplier should not be considered for further cooperation (Foerstl et al.,
2010; Reuter et al., 2010; Schneider & Schwerk, 2010). Risky suppliers are hindered from
entering the supply base and, thus, important resources can be saved (Andersen & SkjoettLarsen, 2009). Furthermore, standards integrated into the supplier selection process are
more likely to be complied to as future sustainability is expected to be higher (Rao, 2004;
Schneider & Schwerk, 2010). Supplier selection can also include established suppliers.
Relationships with suppliers violating sustainability standards and failing to meet minimum
requirements over a longer period should be terminated whenever possible (Andersen &
Skjoett-Larsen, 2009; Boyd et al., 2007; Foerstl et al., 2010; Teuscher et al., 2006).
Supplier development. A way to proactively eliminate non-compliance is investing time
and money in suppliers to help them develop capacity for meeting sustainability
requirements (Boyd et al., 2007; Spence & Bourlakis, 2009). Predominantly applied
48
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
concepts in supplier development include training, knowledge-transfer, or corrective actionplans to alter the practices of critical suppliers (Krause & Ellram, 1997; Schneider &
Schwerk, 2010; Teuscher et al., 2006). Above average supplier development efforts should
be dedicated to suppliers having particularly high risk of non-compliance (Reuter et al.,
2010).
Supplier auditing. First-party audits (i.e. supplier self-assessments) and third-party audits
(i.e. conducted by independent auditing companies) are commonly used instruments to
monitor (direct) suppliers’ sustainability performance (Kortelainen, 2008; Teuscher et al.,
2006). They help identifying problems, such as non-compliance, and tracking the impact of
applied risk mitigation measures, e.g. supplier development (Teuscher et al., 2006). Spence
and Bourlakis (2009: 294) remark that audits should respect a supplier’s characteristics, e.g.
size, because especially small suppliers “are unlikely to have the same levels of formal or
written procedures in place”. Matching audits help increasing the effectiveness of
information gathering as some suppliers have been found to cheat in order to hide critical
aspects from external parties (Welford & Frost, 2006; Jiang, 2009). Conducting regular
audits beyond tier-1 suppliers based on previous risk identification and assessments
measures allows better observation of the sustainability performance (and risks) of the
entire supply chain.
Sanctions. The fifth measure identified to reduce risk of non-compliant behavior in the
supply chain is sanctions. Although the effectiveness of sanctions is controversially debated
in academia (Seiter, 2006), the threat of reducing order volumes is a commonly used
sanction in business practice (Schneider & Schwerk, 2010). Foerstl et al. (2010) and Reuter
et al. (2010) describe how firms put the relationship with non-compliant suppliers on hold
to avoid purchasing from suppliers that fail to meet minimum sustainability requirements
and to keep purchasing personnel from conflicts of interest, e.g. asking for price reductions
to overlook their non-compliance.
3.4 ‘Supplier Sustainability Risk Management’ Process Framework
Based on the preceding discussion, we consequently propose a ‘supplier sustainability risk
management’ process framework as illustrated in figure 1. Risks emerge from the
uncertainty about the sustainability performance of the firm’s suppliers. Possible
performance outcomes range from full compliance with the sustainability standards of the
firm to the worst case of complete non-compliance. In an ideal case, the respective risk
management approach is a systematic process, which is composed of three steps, i.e.
identification, assessment and control of risks (see previous sections 3.1.-3.3.). The three
steps are complementary and carried out in a continuous process (Khan & Burnes, 2007;
Sadgrove, 2008). The impact of implemented risk mitigation measures is therefore
monitored through the recurring identification and assessment procedures and the overall
risk management can only be as effective as to the degree each step and its according tasks
are adopted by a firm. Accordingly, we define the corresponding capability of ‘supplier
sustainability risk management’ as firm’s ability to continuously and systematically
identify, assess, and control the risks emerging from the economic, environmental and
social performance of a firm’s suppliers in relation to the firm’s defined sustainability
standards.
Conceptualizing the Capability of Supplier Sustainability Risk Management
Figure 1:
4
49
‘Supplier sustainability risk management’ process framework
Maturity Evaluation for the Capability of ‘Supplier Sustainability
Risk Management’
Based on our previous discussions of relevant literature and capability conceptualization,
we subsequently derive a corresponding maturity evaluation scheme providing practitioners
with an indication how ‘mature’ their firm’s capability is developed. The measurement
instrument for this maturity evaluation might pinpoint on areas for improvement and might
indicate where firms should invest to enhance their capability of ‘supplier sustainability risk
management’.
Identification. Within the identification phase, a firm seeks to detect all sustainability
risks arising from its suppliers as a prerequisite to become able to actively manage them.
The firm might use different tools, such as a supply chain map or supplier self-assessment
questionnaires (e.g. Keating et al., 2008; Khan & Burnes, 2007; Rao & Goldsby, 2009;
Spence & Bourlakis, 2009; White, 1995). Accordingly, we propose the following maturity
evaluation elements to measure the ‘identification dimension’ of firm’s ‘supplier
sustainability risk management’ capability as summarized by table 2.
50
Table 2:
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
Risk identification
Step
Identification of
sustainability
risks emerging
from suppliers
Evaluation elements*
We believe that any (sub-)supplier has
equal damage potential to our reputation.
We have a detailed understanding of who
are our sub-suppliers beyond the tier-1
level all the way up to the exploitation of
raw materials.
We build a very detailed supply chain map
from tier-1 to tier-n suppliers.
We use supplier self-assessment
questionnaires, in which suppliers evaluate
their handling of sustainability issues.
We consider external information on
suppliers’ sustainability risks (e.g. NGO
reports, press articles).
We maintain a supplier data base, which
includes continuously updated
sustainability information (risky supplier
products, potential previous noncompliance to sustainability standards,
over-all sustainability performance, dates
and results of previous audits, etc.)
Source
Inspired by Foerstl et
al. (2010); Reuter et
al. (2010)
Inspired by Boyd et
al. (2007); Gardner
and Cooper (2003)
Inspired by Keating
et al. (2008); Seuring
and Müller (2008)
Inspired by Foerstl et
al. (2010)
Inspired by Cousins
et al. (2004); Foerstl
et al. (2010)
* Evaluation based on a seven-point Likert-scale with 1 “not at all” to 7 “to the fullest extent”
Assessment. Once the sustainability risks are identified, the probability of supplier noncompliance to the firm’s sustainability standards is evaluated and prioritized within the
'assessment' phase (e.g. Carter & Rogers, 2008; Foerstl et al. 2010; Khan & Burnes, 2007;
Reuter et al., 2010; Spence & Bourlakis, 2009). Accordingly, we propose the following
maturity evaluation elements to measure the ‘assessment dimension’ of firm’s ‘supplier
sustainability risk management’ capability as summarized by table 3.
51
Conceptualizing the Capability of Supplier Sustainability Risk Management
Table 3:
Risk assessment
Step
Evaluation elements*
Source
Assess and
prioritize
suppliers’ risk of
non-compliance
We assess the probability of suppliers’ non- Inspired by Foerstl et al.
compliance to our sustainability standards,
(2010); Reuter et al.
independent from our revenue-share with their (2010)
company.
We consider different sustainability risk
factors to assess the suppliers’ probability of
non-compliance, e.g. the suppliers’
geographic location, the production process,
the properties of the supplied good, etc.
We prioritize suppliers based on their risk of Inspired by Foerstl et al.
non-compliance to our sustainability standards (2010); Carter and
to determine appropriate risk mitigation
Rogers (2008); Reuter
approaches.
et al. (2010); Spence
and Bourlakis (2009)
* Evaluation based on a seven-point Likert-scale with 1 “not at all” to 7 “to the fullest extent”
Control. Based on the prioritization, strategic and operational measures allow reducing
the identified sustainability risks. These might include a supplier selection process based on
sustainability criteria, periodical audits, a partnership approach to suppliers, the
development of suppliers, and sanctions (e.g. Foerstl et al., 2010; Paulsson, 2004;
Schneider & Schwerk, 2010; Seiter, 2006). Accordingly, we propose the following maturity
evaluation elements to measure the ‘control dimension’ of firm’s ‘supplier sustainability
risk management’ capability as summarized by table 4.
Table 4:
Risk control
Step
Control elements
#1: Supplier base
reduction
#2: Supplier
selection
Evaluation elements*
Source
We pursue to rely on a relatively small
number of suppliers to enable a partnershipapproach.
New suppliers are only considered for further
cooperation if they meet our minimum
sustainability requirements.
Adopted from Chen and
Paulraj (2004)
Inspired by Foerstl et al.
(2010); Reuter et al.
(2010); Seuring and
Müller (2008)
If a supplier repeatedly violates our minimum Inspired by Boyd et al.
sustainability requirements, cooperation is
(2007); Foerstl et al.
terminated.
(2010)
52
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
Table 4 (Continuation)
Step
#3: Supplier
development
#4: Supplier
auditing
#5: Sanctions
Evaluation elements*
We develop our suppliers to help them meet
our sustainability requirements, e.g. through
trainings, corrective action plans, knowledgetransfer, etc.
We put more supplier development efforts
into suppliers that have a higher risk of noncompliance.
We engage in supplier development with
(sub-)suppliers beyond the tier-1 level.
We regularly audit our direct suppliers to
discover non-compliance to sustainability
standards.
We regularly audit our direct suppliers to
track the development of suppliers’
sustainability performance.
We regularly audit (sub-)suppliers beyond
the tier-1 level.
We put more effort into auditing suppliers
that have a higher risk of non-compliance.
We match the auditing procedure with the
suppliers’ characteristics (e.g. size, supplied
product, etc.) to gain as much relevant
information about sustainability factors as
possible.
If minor violations of our sustainability
standards occur, we reduce our order volume
with the supplier.
If major violations of our sustainability
standards occur, the supplier is put on hold
until improvements have been made.
Source
Inspired by Boyd et al.
(2007); Spence and
Bourlakis (2009)
Inspired by Reuter et al.
(2010)
Inspired by Kortelainen
(2008); Seuring and
Müller (2008)
Inspired by Spence and
Bourlakis (2009);
Keating et al. (2008)
Inspired by Schneider
and Schwerk (2010)
Inspired by Foerstl et al.
(2010); Reuter et al.
(2010)
* Evaluation based on a seven-point Likert-scale with 1 “not at all” to 7 “to the fullest extent”
5
Managerial Implications
Beside the structural set-up of supplier management practices improving sustainability in
firms’ supply chains, our previous discussion highlighted the importance of a
corresponding organizational ‘supplier sustainability risk management’ capability. We
argued that only the presence of such a capability enables the efficient usage of firms’ scare
resources. For practitioners seeking to build up their own ‘supplier sustainability risk
management’ capability, the outlined framework pinpoints on respective key elements.
Conceptualizing the Capability of Supplier Sustainability Risk Management
53
Furthermore, the proposed maturity evaluation scheme provides a starting point to initiate
the necessary steps.
Risk identification for sustainability non-compliance should not be restricted to the tier-1
supplier level or suppliers with high sourcing volumes only. Also smaller suppliers and
sub-suppliers with non-compliant practices could affect the focal firm’s reputation or lead
to further economic and legal consequences. To enable an effective risk identification, a
detailed understanding of critical supply chain paths − all the way up to the raw materials −
should be developed. Mapping and visualizing the supply chain paths including
information about origin and critical production processes serve as an initial step. The
integration of experienced sourcing experts with profound supply chain and process
knowledge is key. Cross-functional collaboration between sourcing and sustainability
departments allows overcoming sourcing experts’ frequently limited awareness of
sustainability risks (Grimm et al., 2011).
Prioritization based on previously identified sustainability risks allows to handle the
scarcity of organizational resources (i.e. budget, manpower etc.). Risk assessment is
commonly based on the consideration of the ‘probability of non-compliance’ and the
potential resulting ‘business impact’. In cases when the determination of probabilities and
business impact must rely on subjective perceptions, the inclusion of multiple internal
stakeholders and the consideration of various decision criteria still allows a sound
prioritization.
Appropriate risk control measures − corresponding to the preceding prioritization −
should be integrated into firms’ supplier management. This allows investing more efforts
into the management of those suppliers, which are more likely to be non-compliant with
firms’ corporate sustainability standards and might cause high business impact. For
example, a firm might choose 2nd party audits (i.e. conducted by the firm itself) for “lowrisk” suppliers, whereas “high-risk” suppliers must additionally undergo 3rd party audits
(i.e. conducted by an independent auditor). Similarly, supplier development efforts could
be aligned with the level of compliance that is expected: For minor non-compliance,
awareness-rising workshops might be sufficient, while major issues could require extensive
trainings or improvement programs.
Overall, addressing and responding to sustainability risks in supply chains suggest a
positive influence on focal firms’ economic performance by reducing the risk of
reputational damages and enhancing further operational performance.
References
Andersen, M., & Skjoett-Larsen, T. 2009. Corporate social responsibility in global supply chains. Supply
Chain Management: An International Journal, 14: 75–86.
Bansal, P., & Hunter, T. 2003. Strategic explanations for the early adoption of ISO 14001. Journal of
Business Ethics, 46(3): 289–299.
Bellmann, K. 1999. Betriebliches Umweltmanagement im Spannungsfeld von Politik, Wissenschaft und
unternehmerischer Praxis. In: K. Bellmann (Ed.), Betriebliches Umweltmanagement in Deutschland: eine
Positionsbestimmung aus Sicht von Politik, Wissenschaft und Praxis: 3–18. Wiesbaden: DUV.
54
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
Boyd, D. E., Spekman, R. E., Kamauff, J. W., & Werhane, P. 2007. Corporate social responsibility in
global supply chains: A procedural justice perspectiv. Long Range Planning, 40: 341–356.
Carter, C. R., & Rogers, D. S. 2008. A framework of sustainable supply chain management: Moving
towards new theory. International Journal of Physical Distribution & Logistics Management , 38(5):
360–387.
Chen, I. J., & Paulraj, A. 2004. Towards a theory of supply chain management: The constructs and
measurements. Journal of Operations Management, 22: 119–150.
Cousins, P. D., Lamming, R. C., & Bowen, F. 2004. The role of risk in environment-related supplier
initiatives. International Journal of Operations & Production Management, 24: 554–565.
Egels-Zandén, N. 2007. Suppliers’ compliance with MNCs’ codes of conduct: Behind the scenes at Chinese
toy suppliers. Journal of Business Ethics, 75: 45–62.
Foerstl, K., Reuter, C., Hartmann, E., & Blome, C. 2010. Managing supplier sustainability risks in a
dynamically changing environment – Sustainable supplier management in the chemical industry. Journal
of Purchasing & Supply Management, 16: 118–130.
Gardner, J. T., & Cooper, M. C. 2003. Strategic supply chain mapping approaches. Journal of Business
Logistics, 24(2): 37–64.
Gray, P. C. R., & Wiedemann, P. M. 1999. Risk management and sustainable development: Mutual lessons
from approaches to the use of indicators. Journal of Risk Research, 2: 201–218.
Grimm, J. H., Hofstetter, J. S., Müggler, M., & Peters, N. J. 2011. Institutionalizing proactive sustainability
standards in supply chains: Which institutional entrepreneurship capabilities matter? In A. Marcus, P.
Shrivastava, S. Sharma, & S. Pogutz (Eds.), Cross-Sector Leadership for the Green Economy. Integrating
Research and Practice on Sustainable Enterprise: 177–193. New York: Palgrave Macmillan.
Grimm, J. H., Hofstetter, J. S. & Röthig, J. 2011. Developing a measure for the capability of ‘sustainable
supplier risk management’. Paper presented at the 2011 Annual Meeting of Academy of Management,
August 12-16, 2011, San Antonio.
Hoejmose, S. U. & Adrien-Kirby, A. J. 2012. Socially and environmentally responsible procurement: A
literature review and future research agenda of a managerial issue in the 21st century. Journal of
Purchasing and Supply Management, 18(4): 232–242.
Holton, G. A. 2004. Defining risk. Financial Analysts Journal, 60(6): 19–25.
HP 2012. FY11 Global Citizenship Report – Supply chain responsibility. Retrieved
May 8, 2013, from http://www8.hp.com/us/en/pdf/hp_fy11_gcr_supply_chain_responsibility_
tcm_245_1357693.pdf.
Jiang, B. 2009. Implementing supplier codes of conduct in global supply chains: Process explanations from
theoretic and empirical perspectives. Journal of Business Ethics, 85(1): 77–92.
Jüttner, U. 2005. Supply chain risk management: Understanding the business requirements from a
practitioner perspective. The International Journal of Logistics Management, 16(1): 120–141.
Keating, B., Quazi, A., Kriz, A., & Coltman, T. 2008. In pursuit of a sustainable supply chain: insights from
Westpac Banking Corporation. Supply Chain Management: An International Journal, 13: 3175–3179.
Kersten, W., & Blecker, Th. (Eds.). 2006. Managing risks in supply chains. Berlin: Erich Schmidt Verlag.
Kersten, W., Böger, M., Hohrath, Ph., & Späth, H. 2006. Supply chain risk management: Development of a
theoretical and empirical framework. In W. Kersten & Th. Blecker (Eds.), Managing risks in supply
chains: 3–17. Berlin: Erich Schmidt Verlag.
Khan, O., & Burnes, B. 2007. Risk and supply chain management: Creating a research agenda. The
International Journal of Logistics Management, 18: 197–216.
Conceptualizing the Capability of Supplier Sustainability Risk Management
55
Koplin, J., Seuring, S., & Mesterharm, M. 2007. Incorporating sustainability into supply management in the
automotive industry – The case of the Volkswagen AG. Journal of Cleaner Production, 15(11-12): 1053–
1062.
Kortelainen, K. 2008. Global supply chains and social requirements: Case studies of labour condition
auditing in the people’s Republic of China. Business Strategy and the Environment, 17: 431–443.
Krause, D. R., & Ellram, L. M. 1997. Success factors in supplier development. International Journal of
Physical Distribution & Logistics Management, 27: 39–52.
Kudla, N. L. & Klaas-Wissing, T. 2012. Sustainability in shipper-logistics service provider relationships: A
tentative taxonomy based on agency theory and stimulus-response analysis. Journal of Purchasing and
Supply Management, 18(4): 218–231.
Kudla, N.L. & Stölzle, W. 2011. Sustainability Supply Chain Management Research: A structured
Literature Review. Die Unternehmung (Swiss Journal of Business Research and Practice), 65(3): 261–
300.
Lee, S.-Y. 2008. Drivers for the participation of small and medium-sized suppliers in green supply chain
initiatives. Supply Chain Management: An International Journal, 13(3): 185–198.
Locke, R., & Romis, M. 2007. Improving work conditions in a global supply chain. MIT Sloan
Management Review, 48(2): 54–62.
Millington, A. 2008. Responsibility in the supply chain. In A. Crane, A. McWilliams, J. Moon & D. S.
Siegel (Eds.), The Oxford handbook of corporate responsibility: 363–383. New York: Oxford University
Press.
Paulsson, U. 2004. Supply chain risk management. In C. Brindley (Ed.), Supply chain risk: 79–97.
Aldershot: Ashgate.
Peters, N. J., Hofstetter, J. S., & Hoffmann, V. H. 2011. Institutional entrepreneurship capabilities for
interorganizational sustainable supply chain strategies. The International Journal of Logistics
Management, 22(1): 52–86.
Pfohl, H.-Ch., Köhler, H., & Thomas, D. 2010. State of the art in supply chain risk management research:
Empirical and conceptual findings and a roadmap for the implementation in practice. Logistics Research,
2: 33–44.
Rao, P. 2002. Greening the supply chain: A new initiative in South East Asia. International Journal of
Operations & Production Management, 22(5/6): 632–655.
Rao, S., & Goldsby, Th. J. 2009. Supply chain risks: A review and typology. The International Journal of
Logistics Management, 20: 97–123.
Reuter, C., Foerstl, K., Hartmann, E., & Blome, C. 2010. Sustainable global supplier management: The role
of dynamic capabilities in achieving competitive advantage. Journal of Supply Chain Management,
46(2): 45–63.
Sadgrove, K. 2008. The complete guide to business risk management (2nd ed.). Aldershot: Gower.
Schneider, A.-M., & Schwerk, A. 2010. Corporate social responsibility in Chinese supplier firms.
Zeitschrift für Betriebswirtschaft, Special Issue 1: 39–59.
Seiter, M. 2006. Risk management in supply chains behavioural risks: The underestimated force. In W.
Kersten & Th. Blecker (Eds.), Managing risks in supply chains: 110–121. Berlin: Erich Schmidt Verlag.
Seuring, S., & Müller, M. 2008. From a literature review to a conceptual framework for sustainable supply
chain management. Journal of Cleaner Production, 16: 1699–1710.
Spekman, R. E., & Davis, E. W. 2004. Risky business: Expanding the discussion on risk and the extended
enterprise. International Journal of Physical Distribution & Logistics Management, 34: 414–433.
56
Jörg H. Grimm, Wolfgang Stölzle, Joerg S. Hofstetter
Spence, L., & Bourlakis, M. 2009. The evolution from corporate social responsibility to supply chain
responsibility: The case of Waitrose. Supply Chain Management: An International Journal, 14: 291–302.
Teuscher, P., Grüninger, B., & Ferdinand, N. 2006. Risk management in sustainable supply chain
management (SSCM): Lessons learnt from the case of GMO-free soybeans. Corporate Social
Responsibility and Environmental Management, 13: 1–10.
Wagner, St. M., & Bode, Ch. 2006. An empirical investigation into supply chain vulnerability experienced
by German firms. In W. Kersten & Th. Blecker (Eds.), Managing risks in supply chains: 79–96. Berlin:
Erich Schmidt Verlag.
Wagner, T., Lutz, R. J., & Weitz, B. A. 2009. Corporate hypocrisy: Overcoming the threat of inconsistent
corporate social responsibility perceptions. Journal of Marketing, 73(6): 77–91.
Welford, R., & Frost, S. 2006. Corporate social responsibility in Asian supply chains. Corporate Social
Responsibility and Environmental Management, 13: 166–176.
White, D. 1995. Application of system thinking to risk management: A review of the literature.
Management Decision, 33(10): 35–45.
Zsidisin, G. A., Ellram, L. M., Carter, J. R., & Cavinato, J. L. 2004. An analysis of supply risk assessment
techniques. International Journal of Physical Distribution & Logistics Management, 34: 397–413.
Complexity and Robustness Influence on Production
Performance – A Theoretical Framework
Regina Grussenmeyer, Thorsten Blecker
1
Introduction
Different trends such as globalization, shortened product life cycles or high variability influence today’s production systems [1, 2]. A consequence of these trends is a rising complexity in production [3, 4] as well as increasing costs and decreasing flexibility [5]. Moreover, companies react on a volatile, challenging environment by creating complex structures [6]. These developments influence all business units and thus, especially affect company’s production.
In order to be competitive, a production has to be able to react flexible, quick and on individual customer requirements and changing environmental conditions since production
flexibility is a key success factor [7, 8]. At the same time the optimization and improvement
of robustness enables an increased performance of the value adding steps [9, 10, 11].
In literature and practice statements regarding the importance of the research on complexity, flexibility and robustness in production systems can be found (e.g. [12, 13 or 14]).
However, to our knowledge, only one article directly addresses their linkage by formulating
design requirements for changing conventional production systems [15].
Nevertheless we think that it is first of all important to know the interdependencies of
those factors before dealing with handling methodologies. In this article, we validate a
before developed conceptual framework that shows those interdependencies between the
factors complexity, flexibility, performance, robustness and stability in production environments.
2
Key characteristics of production systems
Recent production and operations related publications consider several main characteristics
as primarily influencing modern manufacturing systems. Those are: flexibility, stability,
robustness, and complexity. These factors are considered as basic characteristics of manufacturing. Furthermore, performance as the general result measure of production systems
will be included as factor as well. However, those characteristics have not been investigated
scientifically on the same level; flexibility and complexity have been common research
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_5,
© Springer Fachmedien Wiesbaden 2013
58
Regina Grussenmeyer, Thorsten Blecker
fields in science for decades, whilst robustness and stability are quite emerging topics.
Since the research is rather spread, we will only focus on the narrow field of production.
For our production focus, we will follow the production definition in the narrow sense,
which means that the factors operating, resource, work, and material are combined to products in the manufacturing process [16, 17]. Regarding the literature analysis of the terms
complexity, flexibility, robustness and, stability, we will directly limit it to the production /
manufacturing field. Furthermore, we will exclude all continuing processes, we will focus
on the manufacturing of discrete products. We will now give the definitions of the variables
we work with in order to ensure overall comprehensibility.
Complexity: In manufacturing, complexity is the variability, connectivity and functionality of the different elements of a production system as well as their dynamic change over
time. The product, the production plan, and the vertical integration thus influence the degree of complexity [18, 19, 20].
Stability: Stability is the reliability of the production systems. So it is the characteristic of
a stable production process, that fulfills planned achievements under certain constraints in a
certain time. Therefore, a stable production is a system where no breakdowns occur. At the
same time, a stable system has no big variance regarding the reference value, so it is deviation-free [21, 22, 23, 24].
Flexibility: Flexibility is the ability of a production system to quickly cope with and leverage changing conditions (e.g. in product, process or capacity utilization), or instability
(e.g. machine interruptions) with low effort, cost-performance reduction or penalties for
non-fulfillment [25, 26].
Robustness: Generally, robustness is the ability of a system, to “maintain its functionalities against external and internal perturbations”[27]. For a production environment this
means, that robust production processes are inured to short-term turbulences by meeting
their defined targets, such as e.g. delivery dates [15].
Performance: The alignment of considerations regarding robustness and complexity
should lead to an improvement in the supply chain performance, which can be measured in
various ways [28]. In production, performance is tightly linked to four terms (efficiency,
effectiveness, productivity, and profitability), which [29] analyzed more detailed. In order
to measure the performance of the production system, we rely basically on four different
indicators which have been presented by [29].
3
Linking Complexity, Flexibility, Stability, Robustness, and
Performance
In this chapter, we will show how the four characteristics we described are linked within a
production system. The according propositions are described in a previous article [30]. For
the path model development we followed the strategy of [31] basing in on a theoretical
deduction.
We choose the path analysis for modeling the interdependencies of the production characteristics complexity, flexibility, and robustness as well as their influence on performance.
Complexity and Robustness Influence on Production Performance
59
By this means, it is possible to detect relationships of manifest and latent variables [32].
The developed framework is shown in figure 1.
Figure 1:
Interdependencies Framework [30]
The main findings of this interdependencies framework can be seen as two major aspects:
(1) the mediating nature of robustness and (2) the moderating effects of complexity. The
first facet is very interesting, since the literature on robustness is not very broad and [30]
could now give a meaningful differentiation between stability, flexibility and robustness and
how they are linked to each other. The moderating character of complexity has been defined
before, but has never been connected to the other main factors of production systems.
4
Content Validation
The described indicators for the variables [30] will be validated in this chapter. First there
will be a description of the used methodology and afterwards we delineate the results of the
validation.
A. Methodology
The measurement of a construct includes two quality aspects – validity and reliability [33].
Especially for multi-item measures [34] the content validity is crucial. For our manuscript
we follow the approach of [31] who states that content validity is more meaningful as e.g.
high alphas. Content validity avoids the deletion of useful indicators, like research face in
the domain sampling approach [35] for convergence or discriminant validity.
In literature, different approaches to identify content validity exist, such as the LawsheApproach [36], the Moore-Benbasat-Technique [37] or the Best-Worst Scaling Methodology
[38], Cohens Kappar and the Inter Judgement Agreement. Since the Best-Worst Scaling
bases on a latent dimension, such as importance or degree of interest [39], it does not comply
with our requirements. The Lawshe-Approach as well is not suitable, since it does not enable
an individual classification performed by the judges [36]. Furthermore, the calculation of
Cohens kappa [40] or the inter judgement agreement is not possible due to a panel with more
than two participants. Therefore, we use the Moore-Benbasat-Technique. As suggested by
60
Regina Grussenmeyer, Thorstcn Bleeker
[41] we asked the judges to sort indicators into certain categories. For each item, 20 judges
(consisting out of 5 researchers, practitioners, consultants and Master stodents each) indicated what characteristic they perceived that item would measure. This range of backgrounds
was chosen to ensure that a range of perceptions would be included in the analysis, like [37]
suggests.
Due to the selection of participants in different occupational areas, objectivity was tried
to be achieved. The participants received a letter with the description of the validation procedure and a questionnaire including all chosen indicators. To receive a reliable result, the
indicators were sorted alphabetically and split in 4 blocks. Those blocks were scrambled and
given to the participant groups. Therefore the effect of answering the first indicators more
attentive then the last was reduced An extract of the survey is depicted in Fig. 2.
f
Efficiency
~
~
~
= ~
.e
~
!
~
!
~
.t
i~
c
U
~
Lot Size
Mean time between failure
Figure 2:
Survey QuestkJns Extract
For the content validation the indicators were listed in different rows and were to be assigned to the variables, which were listed in the columns by checking in that specific spot.
Since in the path model interrelations were detected, it is possible that some indicators will
be assigned to more than one variable due to the connection between the two variables.
Therefore multiple allocations were possible. Additionally it was possible to not assign an
indicator to any variable and therefore not answer for that specific indicator by checking the
boxnla.
After an answering period of about a week and an extension of four days, fifteen experts
have sent back their questionnaire. The answers were transferred into a table and the frequency of the assignment of an indicator to a variable was counted. More precisely, the item
placement ratio of Moore-Benbasat was calculated by counting all the indicators that are
correctly sorted into the target characteristic by each of the judges. In other words, because
each item was included in the pool explicitly to measure a particular underlying construct, a
measurement was taken of the overall frequency with all judges placed items within the
intended theoretical construct. The formula for the Item placement ratio or the Total Hit
Ratio is as follows [37].
Hit Ratio
= Correctly sorted items
Total number Of items
(1)
61
Complexity and Robustness Influence on Production Performance
Item placement ratios (Fonnula I) exceeding the level of 0.70 are considered acceptable to
evidence content validity [42].
Furthermore, according to [37] validity can be assumed if an indicator is always assigned
to a variable. Vice Versa discriminant validity can be expected if an indicator is never allocated to a variable. To evaluate the results the following formula was used:
percentage per i and c
=
number check marksic
number of answers
number check markstc
number participants number check marks in n/~
(2)
Fonnula 2 shows the percentage of answers that assigned Indicator (i) to the Variable/Category (c) [37]. The recommended level of 0.60is considered acceptable for this measure [43].
B. Implementation
First of all, the Hit Ratio was calculated.
Table 1:
Hit Ratio Calculation
Variable
f
IDdieator
I
~
I
8
5
J
1
"8
~
01:
Number of indicators
6
7
0
4
9
Correctly sorted indicators
48
60
0
44
77
Hit ratio
0.53
0.57
1.0
0.73
0.57
The overall hit ratio is with 0.59 too low to assume content validity, however this is
mainly due to the Stability, Flexibility and Complexity variables. Robustness and Performance were validated.
In order to now select the indicators that do not necessarily fit well into the operationa1ization of the path model, we applied the second fonnula. If 60 percent of the participants
assigned an indicator to a certain category, validity is assumed. The following table (Table I)
is the result of the formula earlier described and beholds the percentages for every categoryindicator combination, with which the participants assigned the indicator to the category.
The percentages above the 60 percent threshold are highlighted in bold and with shading.
The list of indicators is given alphabetically, in order to avoid any bias.
62
Table 2:
Regina Grussenmeyer, Thorsten Blecker
Percentage of assignment per variable & indicator
Adaption costs of the system after failure
0.08
0.83
Complexity
Performance
Robustness
Flexibility
Indicator
Stability
Variable
0.17
0.25
0.25
Defect item quota
0.43
0.14
0.21
0.64
0.07
Effectivness
0.23
0.15
0.15
0.77
0.08
Efficiency
0.36
0.14
0.07
0.71
0.21
Inventory
0.38
0.62
0.15
0.23
0.15
Interfaces (number, dissimilarity/variety, dynamic)
0.21
0.57
0.29
0.29
1.00
Level of domain egoisms
0.11
0.11
0.11
0.56
0.56
Level of lack of expertise
0.62
0.38
0.23
0.69
0.15
Level of lack of motivation
0.50
0.36
0.21
0.79
0.07
Level of mechanization
0.50
0.42
0.42
0.83
0.58
Lot size
0.09
0.91
0.09
0.55
0.27
Number of different processes
Number of different information and
communication systems
Number of involved employees
0.27
0.47
0.13
0.20
1.00
0.14
0.50
0.14
0.29
0.71
0.14
0.29
0.14
0.57
0.79
Number/Duration of failures
0.67
0.07
0.60
0.67
0.07
Mean time between failure
Probability of production continuation after system
adaption (Mean time to repair)
Probability of total breakdown
0.38
0.15
0.54
0.46
0.23
0.36
0.64
0.36
0.29
0.29
0.50
0.21
0.43
0.36
0.29
Productivity
0.43
0.21
0.21
1.00
0.21
Products (number, dissimilarity, dynamic)
0.07
0.67
0.07
0.20
0.80
Profitability
0.09
0.27
0.00
0.91
0.09
Set up time
0.14
0.86
0.07
0.64
0.07
Utilization of Machines (idle/ unproductive time)
0.27
0.27
0.07
0.80
0.00
Variance of production output
0.67
0.27
0.33
0.53
0.20
Variance of throughput time
0.67
0.40
0.47
0.40
0.33
Waiting time
0.31
0.54
0.08
0.69
0.00
The validation confirmed a few indicators of complexity. Those were number of different
processes, number of involved employees, number of different information and communication systems as well as the number of intersections and products.
Complexity and Robustness Influence on Production Performance
63
Indicators, supposed to measure complexity, which have not been validated, are level of
mechanization (58%), level of domain egoisms (56%), and level of lack of motivation (7%)
or expertise (15%). It seems that the connection to the complexity of planning was not recognized by the survey participants. Also 6 of 15 participants did not give any link at all to
the indicator level of domain egoisms. Therefore the 56% of this indicator are not a representative amount. The level of mechanization is only marginal below the 60 percent threshold, so with continuation of questioning that indicator might get validated. Concluding, all
validated complexity indicators are shown in the following figure 3.
Number of different information and
communication systems
Products (number, dissimilarity, dynamic)
Complexity
Interfaces (number, dissimilarity/variety,
dynamic)
Level of mechanization
Number of different Processes
Number of involved employees
Figure 3:
Selected complexity indicators after validation
As expected, the indicators lot size (91%), set up time (86%), adaption costs of the system (83%), probability of continuation of production after adaption of the system (64%) and
inventory (62%) were assigned to flexibility. The indicators waiting time (54%) and utilization of the machine (27%) were not validated. The non-validation might be due to the fact
that the effect is indirect, since the possibility of adding new products or variations is given if
the utilization is low. A similar reason is possible for the connection between work in process and waiting times due to poor adaptations. Additionally the indicator products were
validated for flexibility. The indicator products can be seen as part of the market and product
flexibility, because it influences the ease of adapting to market demand. Fig. 4 shows the
validated flexibility indicators.
For robustness no indicators were validated. This fits our expectations, as robustness was
seen as a not-measurable variable, since it results out of stability and flexibility.
64
Regina Grussenmeyer, Thorsten Blecker
Adaption costs of the system
Stock of inventory
Products (number, dissimilarity, dynamic)
Flexibility
Set up time
Lot size
Probability of continuing production after
adaption of the system
Figure 4:
Selected flexibility indicators after validation
For stability the indicators number and duration of failures, variances of throughput time
and production output were assigned as expected. Additionally was the indicator level of
lack of expertise validated which might result out of the assumption that an inexperienced or
unfit employee might make more mistakes. Those mistakes might afterwards lead to failures
or disrupted processes and therefore to instability. The defect item quota was not validated.
This could be a result of the participant’s opinion in which quality is not a measure or characteristic of stability. Further probability and extent of failure as well as the probability of a
total failure were not validated. Fig. 5 shows all validated indicators of stability.
Variences of throughput time
Stability
Variences of production output
Number / duration of failures
Level of lack of expertise
Figure 5:
Selected stability indicators after validation
One very interesting finding regarding the performance validation is that many indicators
were validated and assigned for performance. All expected indicators (Efficiency (77%),
Effectiveness (83%), Productivity (100%) and Profitability (64%). were validated. The additional indicators can be assumed to result from the interconnections between the other variables and performance. Therefore they will not be included. Fig. 6 illustrates all validated
performance indicators.
Complexity and Robustness Influence on Production Performance
65
Profitability
Performance
Productivity
Efficiency
Effectiveness
Figure 6:
Selected performance indicators after validation
Figure 7:
Interdependencies framework including indicators
Summarizing the validation and the theoretically developed framework, we can provide
Fig. 7 as final result for investigating the interdependencies of complexity and robustness
and their influence on production performance.
66
Regina Grussenmeyer, Thorsten Blecker
According to the finally selected indicators, we elaborated an updated overall hit ratio
which shows improved item placement ratios. The actualized hit ratio improved to 0.71
which fits to the required level of 0.70 as minimum for path model content validity.
Table 3:
Updated Hit Ratio Calculation
Complexity
Robustness
Flexibility
Stability
Indicator
Performance
Variable
Number of indicators
3
5
0
4
Correctly sorted indicators
30
49
0
44
6
69
Hit ratio
0.67
0.65
1.0
0.73
0.77
Since the two variables stability and flexibility remained lower than the required value of
0.70, we asked the experts why they did not align the given indicators to the variables. They
stated that it was due to the fact that for them the difference between stability and flexibility
in terms of measurement were not clear. After explaining them in detail where there is the
difference between those two variables, the interviewed experts agreed on our propositions.
5
Summary
Our research study provides some insights regarding the different main characteristics of
modern production systems. This supports companies when they are on the verge of considering only one factor individually without including its influence on the other production
variables. The detected interdependencies were derived theoretically and intrinsically logical from a literature analysis. Finally, we performed an external validation of our interdependencies framework regarding the convergent validity of the indicators measuring the
variables.
Regarding our framework, we were able to validate the measurement of the variables
through the indicators. Especially our theoretically derived latency of robustness has been
confirmed. However, many indicators were assigned to performance additionally to the
expected variables. Thus a connection between the other variables and performance as described in the path model is probable. Further research is necessary to complete the path
model in which the intensity of the interrelations of the model is being assessed.
Concluding, the interrelations of the variables complexity, flexibility, robustness, and
stability as well as their influence on the performance of a production system were shown in
a path model. This provides new insights on how these variables affects the others and the
performance of the system. As a result companies can better plan changes in their production
and are not surprised by unexpected negative outcomes due to the change of one variable
and its relation to another.
Further research should focus on the validation of the framework itself. This especially
affects proof of the propositions we developed. This might be by some case studies or a
Complexity and Robustness Influence on Production Performance
67
survey. Case studies could support or not support the propositions while a survey with a
certain amount of participants could give the potential of generalization and as well highlight additional information such as trade-offs or the real relation of flexibility, stability and
robustness.
References
[1] R. Kuivanen, “The future of manufacturing industry in Europe,” International Journal of Productivity
and Performance Management, pp. 488–493, 57 (6) 2008.
[2] H. Arndt, Supply Chain Management: Optimierung logistischer Prozesse, 4th ed., Wiesbaden: Gabler,
2008.
[3] S. Samy and H. ElMaraghy, “Complexity mapping of the product and assembly system,” Assembly
Automation, pp. 135–151, 32 (2) 2012.
[4] S. Krumm and K. Schopf, “Komplexität beherrschen,” in VDI-Bericht 1905, Düsseldorf, VDI, 2005,
pp. 45-51.
[5] M. Govil and J.-M. Proth, Supply chain design and management: strategic and tactical perspectives,
San Diego: Academic Press, 2002.
[6] D. Ashmos, D. Duchon and R. McDaniel, “Organizational responses to complexity: the effect on,”
Journal of Organizational Change Management, pp. 577-595, 13 6 2000.
[7] Y. Mehrjerdi, “Excellent supply chain management,” Assembly Automation, pp. 52–60, (29) 1 2009.
[8] N. Kuschinsky, Stabilisierung von Hersteller-Lieferantenbeziehungen als pfadabhängiger Organisa-
tionsprozess, Frankfurt am Main: Peter Lang GmbH, 2008.
[9] Y. Meepetchdee and N. Shah, “Logistical network design with robustness and complexity
considerations,” International Journal of Physical Distribution & Logistics Management, pp. 201–222,
37 (3) 2007.
[10] A. Shukla, V. A. Lalit and V. Venkatasubramanian, “Optimizing efficiency-robustness trade-offs in
supply chain design under uncertainty due to disruptions,” Journal of Physical Distribution & Logistics
Management, pp. 623–647, 41 (6) 2011.
[11] M. Kleiner, Untersuchung zur Aktualisierung der Forschungsfelder für das Rahmenkonzept
“Forschung für die Produktion von morgen", Dortmund, 2007.
[12] K. Lorentzen, T. Maschek, R. Richter and J. Deuse, “Entwicklung einer Variabilitätstypologie,”
Zeitschrift für wirtschaftlichen Fabrikbetrieb, pp. 214-218, 106 (4) 2011.
[13] H. Wildemann, “Neue Montagekonzepte,” Zeitschrift für wirtschaftlichen Fabrikbetrieb, pp. 316-322,
105 (4) 2010.
[14] Spörer, Uta (Fraunhofer IML & ThyssenKrupp), “Fraunhofer IML,” 2012. [Online]. Available:
www.lfo.tu-dortmund.de. [Accessed 25 6 2012].
[15] M.
Lindemann and N. Gronau, “Gestaltung marktorientierter Produktionssysteme,”
Weiterentwicklung der Produktion, Specht, Ed., Heidelberg, Springer, 2009, pp. 43-60.
in
[16] R. K. Rajput, A textbook of manufacturing technology (manufacturing processes), New Dehli:
Laxami, 2007.
[17] M. Lehmann and H. Moog, Betriebswirtschaftliches Rechnungswesen, Berlin Heidelberg: Springer
Verlag, 1996.
[18] P. Stonebraker and J. Liao, “Supply chain integration: exploring product and environmental
contingencies,” Supply Chain Management: An International Journal, pp. 34–43, 11 (1) 2006.
68
Regina Grussenmeyer, Thorsten Blecker
[19] T. Blecker and N. Abdelkafi, “Complexity and variety in mass customization systems: analysis and
recommendations,” Management Decision, pp. 908–929, 44 (7) 2006.
[20] S. Schmidt, Die Diffusion komplexer Produkte und Systeme, Wiesbaden: Gabler Verlag, 2009.
[21] W. Ip, S. Chan and C. Lam, “Modeling supply chain performance and stability,” Industrial
Management & Data Systems, pp. 1332–1354, 111 (8) 2011.
[22] Z. Ma, “Towards a unified definition for reliability, survivability and resilience,” Aerospace
Conference, 2010 IEEE, pp. 1-12, 6-13 3 2010.
[23] G. Müller and L. Friedrich, Stabilität und Zuverlässigkeit von Fertigungsprozessen, Berlin: VEB
Verlag Technik, 1977.
[24] C. Wolff, Stabilität und Flexibilität von Kooperationen, Wiesbaden: Deutscher Universitätsverlag,
2005.
[25] R. Beach, A. Muhlemann, D. Price, A. Paterson and J. Sharp, “A review of manufacturing flexibility,”
European Journal of Operational Research, pp. 41-57, 1 April 2000.
[26] Y. P. Gupta and T. M. Somers, “The measurement of manufacturing flexibility,” European Journalof
Operational Research, pp. 166-182, 1992.
[27] H. Kitano, “Biological Robustness,” Nature Reviews – Genetics, pp. 826-837, 5 2004.
[28] C. Caplice and Y. Sheffi, “A review and evaluation of logistics metrics,” The International Journal of
Logistics, pp. 11-28, 5 (2) 1994.
[29] T. Grünberg, “Performance improvement – towards a method for finding and prioritising potential
performance improvement areas in manufacturing operations,” International Journal of Productivity
and Performance Management, pp. 52–71, 2004.
[30] L. Stark, R. Grussenmeyer, T. Blecker, S. Böhm and S. Wagner, “Linking production characteristics
into a theoretical framework,” Hamburg International Conference on Logistics, 2012.
[31] J. Rossiter, “The C-OAR-SE procedure for scale development in marketing,” International Journal of
Research in Marketing, pp. 305–335, 2002.
[32] C. Schendera, Datenmanagement und Datenanalyse mit dem SAS-System, München: Oldenbourg
Wissenschaftsverlag GmbH, 2004.
[33] G. J. Churchill, “A paradigm for developing better measures of marketing constructs,” Journal of
Marketing Research, pp. 64–73, XVI (February) 1979.
[34] J. Jacoby, “Consumer research: a state of the art review,” Journal of Marketing, pp. 87–96, 42 (April)
1978.
[35] J. Nunally, Psychometric Theory, New York: Mc-Graw-Hill, 1967.
[36] C. Lawshe, “A Quantitative Approach to Content Validity,” in Content Validity II, Bowling Green
State University, 1975.
[37] G. C. Moore and I. Benbasat, “Development of an Instrument to Measure the Perceptions of Adoptin
an Information Technology Innovation,” Information Systems Research, pp. 192–222, 1991.
[38] A. Marley and J. Louviere, “Some probabilistic models of best, worst, and best-worst choices,” Journal
of Mathematical Psychology, pp. 464–480, 49 (6) 2005.
[39] T. Coltman, T. Devinney and B. Keating, “Best-Worst scaling approach to predict customer choice for
3PL services,” Journal of Business Logistics, pp. 139–152, 32 (2) 2011.
[40] S. Boon-itt and H. Paul, “A study of supply chain integration in Thai automotive industry,”
Management Research News, pp. 194–205, 29 (4) 2006.
[41] F. Davis, “Perceived usefulness, perceived ease of use, and user acceptance of information
technology,” MIS Quarterly, pp. 319–340, 13 (3) 1989.
Complexity and Robustness Influence on Production Performance
69
[42] X. Li, T. Goldsby and C. Holsapple, “Supply chain agility: scale development,” The International
Journal of Logistics Management, pp. 408–424, 20 (3) 2009.
[43] W. Perreault and L. Leigh, “Reliability of nominal data based on qualitative judgements,” Journal of
Marketing Research, pp. 135–148, 1989.
[44] F. Davis, R. Bagozzi and P. Warshaw, “User acceptance of computer technology: a comparison of two
theoretical models,” Management Science, pp. 982–1003, 35 (8) 1989.
Interkulturelle Kompetenz und ihre Bedeutung in der
Geschäftswelt
Sylke Heusinger von Waldegge
1
Einleitung
Mit der zunehmenden Globalisierung zahlreicher Unternehmen mit weltweiten Tochterunternehmen oder Jointventures wird interkulturelles Verständnis immer wichtiger. In dem
Maße, in dem sich Organisationen in globale Märkte aufstellen, werden auch Stellen von
Personal- und Führungskräfte international besetzt. Aufgrund der nationalen Unterschiede
hinsichtlich der Gesetzgebung und anderen volkswirtschaftlichen Rahmenbedingungen, der
Sprache und der Kultur, werden zusätzliche Anforderungen an die Führungskräfte hinsichtlich Führungsform und des Führungsstils gestellt.1 Auf allen Ebenen des Unternehmens,
beginnend von der Konzernspitze bis auf Arbeitsebene, gibt es mögliche interkulturelle
Berührungspunkte. Insbesondere in der Interaktion mit Kunden und Lieferanten anderer
kultureller Herkunft werden von den deutschen Führungskräften nicht mehr nur Fachkompetenzen, sondern auch soziale Kompetenzen und im speziellen interkulturelle Kompetenzen gefordert. Die verschiedenen Faktoren wie Religion, Zeitauffassung und Sprache in den
Kulturbereichen beeinflussen die Unternehmens- und Verhandlungsführung. Ebenso wichtig sind für Mitarbeiter ausländischer Projekte bzw. Mitarbeiter in Auslandseinsätzen die
Kenntnisse der politisch-administrativen Verhaltensmuster und Kontakte in die Politik des
Gastlandes.
Auch bei Entsendungen von Mitarbeitern ins Ausland werden diese kulturellen Unterschiede zu einer persönlichen Herausforderung für die entsendeten Mitarbeiter. Und die
Zahl der Entsendungen steigt. Doch was verbirgt sich hinter dem Begriff interkulturelle
Kompetenz? Und wie lässt sich interkulturelle Kompetenz verstehen?
2
Begriffserklärung von interkultureller Kompetenz
Bei der interkulturellen Kompetenz steht die erfolgreiche Kommunikation zwischen verschiedenen Kulturen im Mittelpunkt der Betrachtung. Es geht um die Fähigkeit, sich an
fremde Kulturen anzupassen und in ihr effektiv zu handeln. Ziel ist das gegenseitige besse1
Vgl. Scheffler, E.: Konzern Management: Betriebswirtschaftliche und rechtliche Grundlagen der Konzernführungspraxis, 2. Aufl., München 2005, S. 59.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_6,
© Springer Fachmedien Wiesbaden 2013
72
Sylke Heusinger von Waldegge
re Verstehen und besser verstanden werden und der Abbau von Vorurteilen. Mit Hilfe der
interkulturellen Kompetenz können anhand von Merkmalen die Unterschiede zwischen der
eigenen und der fremden Kultur erkannt und Handlungsstrategien abgeleitet werden.2
„Wichtig sind dabei die emotionale Kompetenz und die interkulturelle Sensibilität, die es
uns erlauben, die Konzepte der Wahrnehmung, des Denkens, Fühlens und Handelns der
Fremdkultur bei unserem Handeln zu berücksichtigen. Die eigenen Erfahrungen der interkulturell kompetenten Person werden in diesem Moment zurückgestellt und es besteht die
Bereitschaft Stereotype und Vorurteile zu revidieren und Neues zu erlernen.“3
Die interkulturelle Kompetenz unterstützt einerseits eigene Ziele zu erreichen und andererseits befähigt sie, die Ziele des Gegenübers zu respektieren und die Umgangsformen
einzuhalten, die dem Anderen wichtig sind. Es geht nicht allein um Toleranz, sondern um
gegenseitiges Verständnis.
3
Beschreibung der Kulturstandards von Deutschland, der VR China
und den USA
Jede Kultur entwickelt eigene Standards für Denken, Handeln, Fühlen, Wahrnehmen und
Werten. Sie prägen das Arbeits- und Kommunikationsverhalten ebenso wie Bekleidungsund Essgewohnheiten, zwischenmenschliche und familiäre Beziehungen, Sitten und Gebräuche.4 Um weitere kulturelle Unterschiede hervorzuheben, wird folgend das Konzept
der Kulturstandards von Alexander Thomas5 vorgestellt. Es stammt aus dem Bereich der
kulturvergleichenden und interkulturellen Psychologie. Diese Standards entstanden über
Interviews mit Menschen, die über langjährige Erfahrung in der interkulturellen Interaktion
und Kommunikation verfügen (überwiegend Fach- und Führungskräfte). Dabei wurden
zentrale Allgemeingültigkeiten für Deutschland, der VR China und den USA identifiziert,
die im folgenden Text erläutert werden.6
Der repräsentative Deutsche ist sach- und regelorientiert. Der Deutsche möchte schnell
zum Kern des Problems vordringen, statt sich mit einer angenehmen Gesprächsatmosphäre
aufzuhalten. Das ist ein gravierender Unterschied zu Kulturen, die viel Wert auf Small Talk
legen. Smalltalk ist in vielen Ländern die Einleitung zum Verhandlungsgespräch. Einige
Menschen reagieren ungeduldig und empfinden die entspannte Konversation als Zeitverschwendung. Dagegen ist in China, Japan, Indien und den arabischen Ländern ein Beziehungsaufbau durch die Konversation essenziell für Geschäftsverhandlungen. Weiterhin
wird Deutschland als ein stark „verrechtlichtes“ Land gesehen. Das prägt auch die Kultur
des Geschäftslebens. Schriftliche Verträge und Vereinbarungen werden bis auf Punkt und
2
Vgl. Weber u. a.: Internationales Personalmanagement, 2. Aufl., Wiesbaden 2001, S. 176ff.
3
Institut für Interkulturelle Kompetenz
kompetenz.html (Abruf am 03.05.2013).
4
Vgl. Henze, J.: Kulturelle Sensibilisierung – Asia-Mix, Interkulturelles Training der Ceikom für die
Schaeffler Gruppe, 27.09.2011.
und
Didaktik
e.V.
http://www.ikud.de/interkulturelle-
5
Vgl. Thomas, A.: Grundlagen der interkulturellen Psychologie, Nordhausen: Bautz 2005, S. 46f.
6
Vgl. ebenda, S. 46f. Vgl. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, Band 1: Grundlagen und Praxisfelder, Göttingen 2003, S. 25f.
73
Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt
Komma eingehalten. Der Verstoß des Anderen dagegen führt zu starkem Vertrauensverlust.
Andere Kulturen legen diese Regelorientierung aber auch als mangelnde Flexibilität aus.
Für nahezu alle Deutschen ist der Zeitplan ein festes Korsett. Abweichungen sind nicht
vorgesehen, da sie ein Zeichen für Unzuverlässigkeit sind. Gerade hier sind Konflikte und
Missverständnisse absehbar, wenn der Geschäftspartner den Plan nur als grobe Richtlinie
ansieht. Ein Drittel der Deutschen trennt Berufs- und Privatleben strikt und verbringt keine
Freizeit mit den Arbeitskollegen. Zugleich sind Deutsche geprägt vom „schwachen Kontext“ als Kommunikationsstil. Die Betonung liegt eher auf dem „was“, als „wie“ gesprochen wird. Ebenso spricht der Deutsche gerne direkt Probleme an und erwartet, dass sein
Gesprächspartner kritikfähig ist. Er agiert als Individualist und hat gelernt, auch mal gegen
den Strom zu schwimmen. Wichtig sind ihm die eigene Meinung, die Selbständigkeit und
die Betonung des Einzelmenschen unabhängig von der Gruppenzugehörigkeit.7
Tabelle 1:
•
•
•
•
•
•
Deutsche, chinesische und US-amerikanische Kulturstandards nach A. Thomas
Deutschland
Sachorientierung
Regelorientierung
Zeitplanung
Trennung von
Persönlichkeits- und
Lebensbereichen
„schwacher Kontext“
als
Kommunikationsstil
Individualismus
•
•
•
•
•
•
•
VR China
Danwei-System (Clanund Cliquenbeziehung)
Hierarchieorientierung
List und Taktik
Soziale Harmonie
Etikette
Bürokratie
Guanxi-System
(Beziehungsnetzwerke)
•
•
•
•
•
•
•
•
•
USA
Patriotismus
Gleichheitsdenken
Handlungsorientierung
Leistungsorientierung
Bedürfnis nach sozialer
Anerkennung
Interpersonale
Distanzminimierung
zwischengeschlechtlich
e Beziehungsmuster
Gelassenheit
Individualismus
Quelle: Vgl. Thomas, A.: Grundlagen der interkulturellen Psychologie, a. a. O., 2005, S. 46f.
Der repräsentative Chinese ist durch das Danwei-System geprägt. Um China zu verstehen, ist es notwendig, die Danwei (Arbeitseinheit) als grundlegende Sozialstruktur der
chinesischen Gesellschaft zu betrachten. Danweis bestehen seit der Gründung der Volksrepublik (VR) China und decken heute in der VR China den kompletten Lebensbereich der
Bevölkerung ab. Auf dem Land kann Danwei die Dorfgemeinde sein. In der Stadt ist es die
Fabrik oder die Universität. Sie dominiert nicht nur das Arbeits-, sondern auch das Privatleben, z. B. Wohnung, Freizeit, Kindergarten, Schule, Studium, Beruf, Entlohnung,
Gesundheits- und Altersversorgung. Der chinesische Betrieb ist nicht mit dem westlichen
Betriebstyp zu vergleichen, da er weitgehend soziale, administrative und politische Aufgaben zu erfüllen hat und aufgrund seines Danwei-Charakters eine der zentralen gesellschaftlichen Institutionen in China ist. Er ist eine ökonomisch und soziale ,,Einheit“, die neben
seiner wirtschaftlichen Funktion auch für jedes Mitglied wie eine ,,große Familie“ funktio7
Vgl. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, a. a. O., 2003, S. 25ff. Vgl. http://www.qm-aktuell.com/page.asp?his=2833.2835.7975 (Abruf
am 25.04.2013).
74
Sylke Heusinger von Waldegge
niert. Fast alle wichtigen Entscheidungen werden von der Danwei getroffen und als Individuum verliert der Einzelne die Bedeutung. Neben dem Primat der Gemeinschaft gibt es
eine Macht von Ritualen und Traditionen. Chinesen sind sehr hierarchiebewusst und halten
sich streng an bestehende Strukturen. Während in Deutschland das Zusammenleben wesentlich durch bestehende Regeln organisiert wird, erfolgt dies in China durch hierarchische
Strukturen. Jeder hält sich an die für seine Statusgruppe festgelegten Verhaltensregeln,
Rechte und Pflichten und hinterfragt sie nicht. Die Akzeptanz einer Person erfolgt in China
in erster Linie aufgrund ihrer Position und nicht so sehr aufgrund ihrer Kompetenz. Weiterhin wird dem Chinesen nachgesagt, List und Taktik anzuwenden, um den Gegner durch
Einfallsreichtum zu überlisten. Das Hauptziel ist es aber nicht dem Gegner zu schaden,
sondern kriegerische Auseinandersetzungen zu vermeiden. List und Taktik darf nicht als
Hinterlistigkeit verstanden werden. Es zählt mehr die konfuzianische Ethik als der kurzfristige Vorteil. Die in China gelebte soziale Harmonie bedeutet nicht, dass alle Menschen in
China gleich behandelt werden. Die soziale Harmonie bedeutet vielmehr die soziale Einbindung des Einzelnen in das gesellschaftliche Gefüge. Ebenso wird Harmonie über bestimmte Umgangsformen gewahrt, durch sogenannte Etikette. Bescheidenheit und Höflichkeit sind Umgangsformen, die konfliktreichen Situationen vorbeugen und das Gleichgewicht aufrecht erhalten sollen. Die Bürokratie in China ist für deutsche Geschäftsleute
schwer zu verstehen. Es ist ein hierarchisch strukturiertes Machtgefüge mit dem sich daraus
ergebenden Verhalten chinesischer Geschäftspartner. Das Guanxi-System ist allgegenwärtig. Guanxi steht für das Netzwerk persönlicher Beziehungen, von dessen Wirken in China
kaum eine Entscheidung unbeeinflusst bleibt. Guanxi kann als ein endloser Zyklus von
Gefälligkeiten betrachtet werden. Gegenseitige Gefälligkeiten sind der entscheidende Faktor zum Erhalt des Guanxi-Netzes. Die Ablehnung einer Gegenleistung wird als eine unverzeihliche Beleidigung angesehen. Je mehr von jemandem erbeten wird, desto mehr steht
dieser bei dem Gönner in der Schuld. Das Beziehungsnetz wird unter Chinesen für Ausländer kaum bemerkbar eingesetzt. Beziehungen können daraus resultieren, dass zwei Personen im selben Dorf gewohnt oder an derselben Universität studiert haben.8
Der repräsentative Amerikaner ist patriotisch und stolz auf seine Nation. Europäer betrachten diesen Nationalstolz der Amerikaner skeptisch, da sie ihn oft für überzogen halten.
Der Patriotismus ist im Kontext einer hauptsächlich aus Einwanderern bestehenden Gesellschaft zu verstehen. Dadurch unterscheidet er sich von entsprechenden Erscheinungen in
europäischen Nationalstaaten. In diesem Zusammenhang erfüllt Patriotismus auch oder
hauptsächlich die Funktion, Menschen aus unterschiedlichen, teilweise auch gegeneinander
feindlich eingestellten Kulturkreisen, die Integration zu erleichtern. Amerikaner sind von
der Idee der Chancengleichheit und der damit verbundenen Möglichkeit zu Aufstieg und
Karriere überzeugt. Das betrifft sowohl das Geschlecht, als auch die Herkunft, das Alter
oder die Hautfarbe. Die starke Handlungsorientierung der Amerikaner korreliert mit ihrer
Leistungsorientierung. Handeln und aktiv zu sein ist in den amerikanischen Kulturstan8
Vgl. Henze, J.: Kulturelle Sensibilisierung – Asia-Mix, a. a. O. Vgl. http://www.chinaknigge.de/2008/10/hierarchieorientierung.html (Abruf am 04.04.2013); Vgl. Poerner, M.: Business
Knigge China: Die Darstellung Chinas in interkultureller Ratgeberliteratur, Frankfurt am Main 2009, S.
42ff.;
Vgl.
http://www.computerwoche.de/a/erp-einfuehrung-in-china-zwischen-jinshui-undguanxi,1233412 (Abruf am 01.03.2012); Vgl. SinaLingua, Erfolg in China, Interkulturelles Training für
die Schaeffler Gruppe, 4.10.2012.
Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt
75
dards wichtiger, als alle Risiken abzuwägen. Effizienz und Effektivität haben den absoluten
Vorrang und bestimmen auch die soziale Stellung. Ein Amerikaner hat ein starkes Bedürfnis nach sozialer Anerkennung und ist stets bemüht, ein „nice guy“ zu sein. Er will bei
seinen Mitmenschen ankommen, möchte gut mit anderen auskommen und geschätzt werden. Die soziale Anerkennung ist für die Selbstachtung notwendig und muss durch die
Gesellschaft ständig bestätigt werden. Amerikaner sind deshalb auf positive Reaktionen in
Form von Komplimenten oder freundlichen Gesten angewiesen. Im US-amerikanischen
Kontext haben Erstbegegnungen in der Regel eine Distanzminimierung zum Ziel. D. h.
beim Zusammentreffen von Personen sollen durch spezifische beziehungsorientierte Verhaltensregeln die soziale und emotionale Distanz abgebaut werden. Respekt und Höflichkeit vor den Mitmenschen bei gleichzeitiger Lässigkeit im sprachlichen Umgang bestimmen sowohl das Freizeit- als auch das Berufsleben. Was die zentrale zwischengeschlechtliche Beziehung anbelangt, so gibt es selten Freundschaften zwischen Männern und Frauen.
Durch ihre Gelassenheit sind Amerikaner häufig sehr viel offener für Veränderungen und
können flexibler mit neuen Situationen umgehen. Bei aller Lockerheit im persönlichen
Umgang werden Regeln der Höflichkeit, Zuverlässigkeit und Pünktlichkeit auch im Geschäftsleben gerne gewahrt. In China erscheint trotz der einsetzenden Verwestlichung unverständlich was an Individualismus insbesondere in den USA vorgelebt wird.9
4
Das Entstehen von kulturellen Überschneidungssituationen
Die im vorhergehenden Kapitel beschriebenen Kulturstandards für Deutschland, China und
die USA lassen vermuten, wie schwierig sich Verhandlungen zwischen den Menschen der
verschiedenen Kulturen gestalten können. Ohne Kenntnis über die Verhaltensnormen anderer Länder können Verhandlungen ohne Absicht ergebnislos ausgehen.
Beide Seiten handeln aus eigenkulturellen Verständnis heraus und befinden sich in der
Interaktion in einer kulturellen Überschneidungssituation. In dieser Situation ist ein interkulturelles Verhalten erforderlich, damit beide Seiten zu ihrem Recht kommen. Sympathie
und Interesse entsteht, wenn eine Ausgeglichenheit zwischen Fremden und Eigenem hergestellt wird und somit ein Austausch auf gleicher Augenhöhe ermöglicht wird. Dabei treten
das Eigene und das Fremde in eine wechselseitige Beziehung miteinander und das Fremde
gewinnt für das Eigene an Bedeutung. Dies kann in positiver als auch negativer Hinsicht
stattfinden. Um kulturelle Überschneidungssituationen positiv zu gestalten und eine Ausgeglichenheit zwischen Fremdem und Eigenem herzustellen und somit einen Austausch zu
ermöglichen, ist interkulturelle Handlungskompetenz gefordert.10
9
Vgl. Elder, St.: Interkulturelles Training USA der Culture Waves Intercultural Consulting and Training
für die Schaeffler Gruppe, 04.07. 2011.Vgl. Slate, E., Schroll-Machl, S.: Beruflich in den USA, Trainingsprogramm für Manager, Fach- und Führungskräfte, Göttingen 2009, S. 41.
10
Vgl. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, a. a. O., 2003, S. 46f.
76
Sylke Heusinger von Waldegge
Das Eigene
Eigenkultur
Abbildung 1:
Das Fremde
entstandenes
Interkulturelle
Fremdkultur
Kulturelle Überschneidungssituation in Anlehnung an A. Thomas
Quelle: Vgl. Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und
Kooperation, a. a. O., 2003, S. 46.
Interkulturelle Handlungskompetenz ist eine Fähigkeit, die erlernt werden kann, wobei
einige Fertigkeiten aber auch als allgemeine Kompetenzen angesehen werden können und
sind nicht von Grund auf neu zu erlernen. Doch um welche Fertigkeiten geht es, wenn von
interkultureller Kompetenz gesprochen wird?
5
Das Set an Fähigkeiten von interkultureller Kompetenz
Interkulturelle Kompetenz wird als ein Spektrum von Wissen, Fähigkeiten und Fertigkeiten
dargestellt, die die interkulturell kompetente Person dazu befähigen, in interkulturellen
Überschneidungssituationen (wenn das Eigene und das Fremde in eine wechselseitige Beziehung miteinander treten) in einer effektiven und angemessenen Weise zu handeln. Mit
dem Wissen um interkulturelle Kompetenz sind Menschen einerseits in der Lage, eigene
Ziele zu erreichen (Effektivität), andererseits aber auch bereit bzw. fähig, die Ziele des
Verhandlungspartners zu achten sowie Umgangsregeln zu befolgen, die dem Partner wichtig sind (Angemessenheit). Zu den Fähigkeiten von interkultureller Kompetenz zählen in
Anlehnung an A. Thomas die folgend beschriebenen11:
• Empathie
Empathie ist die Fähigkeit, sich in die Gedanken, Gefühle und Bedürfnisse eines anderen
Menschen einzufühlen und so deren Verhalten und Handlungen nachvollziehen zu können.
• Ambiguitätstoleranz
Im interkulturellen Lernen gibt es kein „richtig“ oder „falsch“, sondern immer eine Vielzahl möglicher Perspektiven, in denen sich kulturelle und individuelle Muster überlappen. Interkulturelle Kompetenz bedeutet auch, solche Ambiguitäten zu akzeptieren und
auszuhalten.
11
Vgl. http://www.metrionconsulting.de/node/62 (Abruf am 01.03.2013); Vgl. Straub, J.: Lerntheoretische
Grundlagen, in: Wiedemann, A.; Straub, J.; Nothnagel, S. (Hrsg.): Wie lehrt man interkulturelle Kompetenz? Theorien, Methoden und Praxis in der Hochschulausbildung, Bielefeld 2010, S.31-98, S. 31.
77
Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt
• Perspektivenwechsel
Perspektivenwechsel ist eine Technik bzw. Fähigkeit, bei der man sich in die Rolle und
Position eines anderen hineinversetzt und versucht, die Welt (und sich selber) aus dessen
Sicht zu sehen und damit das Denken und Verstehen des Anderen besser zu begreifen.
Selbstreflexion
Empathie
(Angemessenheit, Feedback)
(Beobachtung,
Wahrnehmung)
Kommunikation
(Sprache,
Körpersprache)
Ambiguitätstoleranz
(Stressmananagement,
Konfliktbewältigung,
Angstfreiheit)
Offenheit
(Toleranz, Flexibilität, Integrationsfähigkeit, Gemeinsamkeiten,
Umgang mit Frust)
Perspektivenwechsel
(Strategien zum Umgang, Rollendistanz)
länderspezifische
Kenntnisse
(Kulturstandards, Kulturprozesse,
Kulturkonzepte)
Transkulturelles Hintergrundwissen
(Anerkennung, Wertschätzung)
Abbildung 2:
Fähigkeiten interkultureller Kompetenz
Quelle: Eigene Darstellung
• Offenheit
Offenheit in interkulturellen Kontexten heißt, z. B. zu akzeptieren, dass Menschen unterschiedliche Werte, andere Maßstäbe und Empfindungen haben. Offenheit ist gleichzeitig
auch ein wichtiger Bausteine für Kreativität und Erfindungsvermögen im Umgang kulturfremden Situationen.
• Transkulturelles Hintergrundwissen
Transkulturelles Hintergrundwissen ist die Kenntnis rund um die Kultur, deren verschiedene Weltanschauungen, Lebensbedingungen und soziokulturelle Konzepte.
• Länderspezifische Kenntnisse
In diesem Zusammenhang ist die interkulturelle Landeskunde zu verstehen. Dazu zählen
länderspezifische Kenntnisse wie Begrüßungsrituale, Kommunikationsstile, Politik, Geschichte etc.
• Kommunikation
Kommunikation ist die wichtigste Form der sozialen Interaktion und von zentraler Bedeutung in interkulturellen Begegnungen. Die Kenntnis um kulturspezifische unterschiedliche Konventionen des Kommunizierens (insbesondere non- und paraberbal) und
Kommunikationsstile vermindern das Risiko für Missverständnisse. „Unabhängig vom
Grad der fremdsprachlichen Performanz sind für eine effektive interkulturelle Kommunikation ein hohes Maß an grundlegender kommunikativer Kompetenz, sozialer Aufgeschlossenheit, kommunikativer Beweglichkeit und Flexibilität sowie kommunikativer
78
Sylke Heusinger von Waldegge
Variantenreichtum, Expressivität, eine ausgesprochene Sensibilität für Zwischentöne sowie die Fähigkeit und Bereitschaft zum Zuhören wesentliche Voraussetzungen“.12
• Selbstreflexion
Selbstreflexion ist eine grundlegend menschliche Fähigkeit sich weiter zu entwickeln, das
eigene Denken und Handeln situationsbezogen zu hinterfragen, auf den Prüfstein zu stellen, ein realistisches Selbstbild mit Stärken und Schwächen zu analysieren und auch alternative Handlungsoptionen zu durchdenken.
6
Die Methoden der Kulturvermittlung
Empirische Untersuchungen belegen, dass interkulturelle Trainings die interkulturelle
Kompetenz jedes Einzelnen fördert und somit für ein international tätiges Unternehmen
generell einen wichtigen Erfolgsfaktor darstellen kann.13 Insbesondere vor einem Auslandsaufenthalt hilft ein interkulturelles Training, um eine Anpassung an die Gastlandkultur
zu erreichen und ein Gefühl der Isolation zu vermeiden.14
Fähigkeiten und Eigenschaften, die einen Handelnden in die Lage versetzen, mit Angehörigen anderer Kulturen erfolgreich umzugehen, oder die sich doch zumindest als förderlich
für Interaktionen mit Angehörigen anderer Kulturen erweisen, werden in interkulturellen
Trainings gezielt angesprochen. Mit dem Training soll die interkulturelle Kompetenz international tätiger Mitarbeiter entwickelt werden, so dass sie den Verlauf der kulturellen Anpassung positiv beeinflussen kann.15
Beim Training informieren erfahrene Auslandsmanager oder idealerweise Personen aus
dem Gastland aus erster Hand den Kursteilnehmer über die Situation und Probleme in der
für sie fremden Umgebung bzw. Situation. Im Mittelpunkt steht dabei neben konkreten
Empfehlungen und Leitlinien eine vorbereitende Kontaktaufnahme mit der Kultur des Gastlandes.16
Ziele der Schulung sind:
- die Sensibilisierung, das Verhalten der anderen Kultur in Ursachen und Zusammenhängen wahrzunehmen.
- Erfahrungen im Umgang mit der anderen Kultur zu beurteilen, einzuordnen und für sich
positiv weiterzuverarbeiten.
- Stärken des Verhaltens der anderen Kultur zu erkennen und für die eigene Arbeit
einzusetzen.17
12
Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation, a. a. O., 2003, S. 113f.
13
Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, München
2004, S. 875.
14
Vgl. Weber u.a. 2001: Internationales Personalmanagement, a. a. O., 2001, S. 176.
15
Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004,
S. 871.
16
Vgl. ebenda, S. 873.
17
Vgl. Henze, J.: Kulturelle Sensibilisierung – Asia-Mix, a. a. O.
79
Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt
Das Training sollte die kognitive, affektive und behaviorale Lernebene ansprechen, um
einzelne Komponenten interkultureller Kompetenz zu fördern und herauszubilden. Wichtig
ist auch, dass sich die einzelnen Bereiche interkultureller Kompetenz gegenseitig beeinflussen und wechselseitig bedingen. Insgesamt geht es bei dem Modell interkultureller Handlungskompetenz um ein theoretisches Modell, dessen Zielvorgaben und Idealzustände in
der Fülle im Normalfall nicht vollkommen erfüllt werden können.
Methoden der Kulturvermittlung werden in experimentelle Kulturvermittlung und in eine
didaktische Kulturvermittlung unterschieden. Die experimentelle Kulturvermittlung setzt
dabei auf Erfahrung, die während des Kurses selbst gewonnen wird (z. B. mit Hilfe von
Selbsterfahrungstechniken, interkultureller Workshops, Simulationstrainings). Im interkulturellen Training haben neben den eher komplexen Methoden des experimentellen Lernens
auch die klassischen didaktischen Instrumente und Methoden ihren Platz, wie z. B. Lektüre,
Vorträge, Diskussionen, audiovisuelle Medien. Neben den zwei Vermittlungsformen werden zwei Dimensionen unterschieden, die spezifische Kulturvermittlung und die generelle
Kulturvermittlung.18
Gerade der erfahrungsbezogene Ansatz weist dem Trainer eine zentrale Rolle als Kulturmittler und Mediator zu. Er sollte in der Lage sein, gruppendynamische Prozesse zu
steuern, schwierige Situationen zu erkennen und zu beleuchten. Er muss, wie die Chinesen
sagen, „den Ton auf der Hand spüren“. Fingerspitzengefühl benötigt der Trainer vor allem,
wenn es darum geht, auch heftige Emotionen der Teilnehmer zu kanalisieren und für seine
didaktischen Zwecke produktiv werden zu lassen.
Tabelle 2:
Methoden der Kulturvermittlung
Experimentelle
(erfahrungsbezogene)
Kulturvermittlung
Didaktische
Kulturvermittlung
•
•
•
•
•
•
•
•
Generelle
Kulturvermittlung
Interkultureller Workshop
Selbsterfahrungstechniken
Traditionelles HumanRelationship Training
Generelle Kultursimulation
Contrast American Simulation
Albatros-Übung
Traditionelle akademische Kurse
Kulturelle Selbsterfahrung über
Video
Spezifische
Kulturvermittlung
• Bikulturelles RelationsTraining
• Bikultureller Workshop
• Verhaltensmusteransatz
• Landeskunde und
Sprachtraining
• Kultur-Assimilator
Quelle: Scholz, C.: Personalmanagement, a. a. O., 2000, S. 534.
Mit zunehmender Integration und Interaktion mit der Gastlandkultur sowie längerer Aufenthaltsdauer steigen die zu empfehlende Intensität und Dauer des Trainings. Die Aufenthaltsdauer hängt von der Art des Einsatzes ab. Bei einer Dienstreise bleibt der Mitarbeiter
kurzfristig im Ausland. Der Anstellungsvertrag im Inland bleibt bestehen und der Mitarbeiter ist nur einem kurzen Zeitraum der fremden Kultur ausgesetzt. Bei einer Abordnung
18
Vgl. Scholz, C.: Personalmanagement, 5. Aufl., München 2000, S. 534.
80
Sylke Heusinger von Waldegge
kommt es zu einem Aufenthalt von wenigen Wochen bis zu ca. zwei Jahren mit einer besonderen Vereinbarung zwischen Arbeitgeber und Mitarbeiter. Dagegen ist die Entsendung mit etwa drei Jahren einer Versetzung gleichzusetzen, bei der der Mitarbeiter seine
Tätigkeit nicht mehr unabhängig von lokalen Vorschriften und dort geltenden
diziplinarischen Regelungen ausüben kann. I. d. R. hat der Mitarbeiter einen Rückkehranspruch. 19
Die Herausforderung in einer fremden Kultur für einen längeren Zeitraum zu leben und
zu arbeiten ist sehr groß (z. B. neue Arbeitsaufgaben, Klima, Ernährung, Lebensrhytmus,
Wohnsituation, Freizeitmöglichkeiten, Schule für Kinder, soziale Regeln). Nicht jeder
Mitarbeiter kommt gleich mit den einhergehenden Veränderungen der Lebensituation im
Gastland zurecht. Dennoch lernen beide Seiten, der entsandte Mitarbeiter und der Mitarbeiter der Organisation im Entsendungsland, voneinander.
Für Entsendungen gibt es Anreize, die in der Entgeltgestaltung verhandelt werden. Um
diese international möglichst einheitlich zu gestalten, werden ähnliche Postionen bzw. Stellen relativ ähnlich entlohnt. Dabei erhalten die Entsandten je nach Gastland und Entsendungsdauer eine Reihe von Zulagen, die der Kompensation entsendungsbedingter zusätzlicher Belastungen und finanzieller Nachteile dienen. Die Auslastungszulage ist in der folgenden Tabelle nach Ländern aufsteigend gruppiert. Länder mit einer geringen Erschwernis
im Geschäfts- und Privatleben haben keine bzw. eine geringe Auslastungszulage. Für Länder mit der höchsten Erschwernis wird eine Auslastungszulage bis 40% des Grundgehaltes
vorgeschlagen.20
19
Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004,
S. 878f.
20
Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004,
S. 888.
81
Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt
Tabelle 3:
Länderklassifikation zur Bestimmung von Auslandszulagen
Kennzeichen der
Ländergruppe
A keine Erschwernis
B geringste
Erschwernis
C geringste
Erschwernis
D geringste
Erschwernis
E geringe Erschwernis
F mittelgroße
Erschwernis
G große Erschwernis
H sehr hohe
Erschwernis
I höchste Erschwernis
Auslastungszulage
(in % des Grundgehalts)
Länderbeispiele
EU-Länder, USA
Australien, Neuseeland, Singapur
Südafrika
0
Chile, Türkei, Tunesien, Ungarn
10
Argentinien, Malaysia, Marokko,
Slowenien
Ägypten, Brasilien, Polen, Thailand
GUS, Indien (Städte) Japan, Republik Kongo
VR China (Städte), Kasachstan,
Libyen, Saudi-Arabien
Iran, Kolumbien, Nigeria,
Uzbekistan
VR China (Provinz), Bangladesch,
Indien (Provinz), Mozambique
5
15
20
25
30
35
40
Quelle: Deutsche Gesellschaft für Personalführung 1995, S.77, zit. nach Zentes, J.; Swoboda, B.; Morschett, D.: Internationales
Wertschöpfungsmanagement, München 2004, S. 889.
7
Das Phasenmodell kultureller Anpassung im Auslandseinsatz
Für den einzelnen Mitarbeiter bedeutet eine Entsendung zunächst eine Anpassungsleistung
an eine neue Kultur zu erbringen. In der wissenschaftlichen Literatur existiert eine Vielzahl
von Phasenmodellen, die den Anpassungsverlauf von entsandten Mitarbeitern bei einem
Auslandsaufenthalt beschreiben. Es ist nötig, dass sich der im Gastland tätige Mitarbeiter
anpasst, da es ein wesentliches Ziel der effektiven Aufgabenerfüllung ist.
In der Einsatzphase im Ausland werden i. d. R. unterschiedliche Phasen der kulturellen
Anpassung durchlaufen. Der Prozess der Anpassung sieht bei den fast allen Menschen
ähnlich aus und kann durch das Anpassungsphasenkonzept von Hofstede21, das auf die
Arbeiten von Danckwortt zurückgeht, wie folgt beschrieben werden:
- In der ersten Beobachtungsphase und Phase der Euphorie nimmt der Mitarbeiter nur das
positiv Erwartete wahr. Diese Phase dauert die ersten Wochen des Auslandsaufenthaltes
an. Die ersten Kontakte sind schnell geknüpft und organisatorische Dinge hat das
Unternehmen übernommen.
- Es folgt die Auseinandersetzungsphase, da für den Mitarbeiter die ersten Schwierigkeiten auftreten. Er erkennt die Normalitätsregeln der Zielkultur nicht und es kann zu
21
Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004,
S. 882. Vgl. Hofstede, G.: Lokales Denken, globales Handeln, Interkulturelle Zusammenarbeit und globales Management, 2. Aufl., München 2001, S. 259.
82
Sylke Heusinger von Waldegge
Missverständnissen kommen. Zum Beispiel verhalten sich Kollegen nicht wie erwartet.
Es kommt zum sogenannten Kulturschock. Der entsandte Mitarbeiter muss sich
hinsichtlich der Umgebung (Klima, anderes Essen) anpassen und er beginnt zum anderen
seine Familie und den Freundeskreis in der fremden Stadt zu vermissen. Zunehmend
werden an den Neuankömmling die gleichen Maßstäbe wie an die Mitarbeiter des
Gastlandes gestellt. In dieser Phase ist die Abbruchwahrscheinlichkeit am größten.
- Sobald der Mitarbeiter beginnt die Unterschiede zu akzeptieren und auszuhalten, beginnt
die Akkulturation in der Verfestigungsphase. Die Sprachkenntnisse haben sich verbessert und die Ursachen der Missverständnisse werden nachvollziehbar. Der Mitarbeiter
beginnt sich sukzessive an die fremde Kultur anzupassen, ohne eigene Werte aufzugeben.
Der Mitarbeiter tendiert zur Übernahme fremdkulturspezifischer Verhaltensmerkmale.
- Die letzte Phase, die Aufbruchphase, beginnt mit der Planung der Rückkehr ins Heimatland. Hier können starke emotionale Schwankungen auftreten, durch Verlustempfindungen der kennen- und zu schätzengelernten Kultur bis über die Unsicherheit über
die private und berufliche Situation nach der Rückkehr.
positiv
….
Zeit
negativ
Phase
Abbildung 3:
1
Euphorie
2
Kulturschock
3
Akkulturation
4
Rückkehr
Verlauf der kulturellen Anpassung in Anlehnung an Hofstede
Quelle: Vgl. Hofstede, G.: Lokales Denken, globales Handeln, Interkulturelle Zusammenarbeit und globales
Management, a. a. O., 2001, S. 259.
Diese Phasenbeschreibung zeigt die Wichtigkeit der Antizipation der Verunsicherung der
eigenen Identität, die bei interkulturellen Kontakten zu erwarten ist.22 „Eine Antizipation
dieser Konflikte bereits vor der Ausreise kann die Bedrohung des eigenen Wertesystems
22
Vgl. Erl, A.; Gymnich, M.: Interkulturelle Kompetenzen: Erfolgreich kommunizieren zwischen den
Kulturen, Stuttgart 2010, S. 66.
Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt
83
und der eigenen Identität als weniger verunsichernd wirken lassen und somit zu einer Verringerung des anfänglichen Kulturschocks führen.“23
Die Planung der Rückkehr des Mitarbeiters in das Heimatland beginnt in der Regel sechs
Monate vor der Abreise. Die Reintegration in der Rückkehrphase ist nach einer Entsendung
ebenso wichtig wie die Vorbereitung der Entsendung. Es gibt in vielen Firmen Mentoren,
die über die gesamte Entsendungszeit bis einschließlich der Rückkehr den Mitarbeiter mit
regelmäßigen Gesprächen betreuen.
Die Rückkehrphase, die sog. Repatriierungsphase werden nach K. Hirsch24 in folgende
verschiedene Phasen unterschieden:
- Die erste Phase, der naiven Integration, ist geprägt von einer optimistischen und euphorischen Grundstimmung des Entsandten durch die Freude bald wieder zu Hause zu sein
und Freunde und Familie zu treffen.
- Nach ca. sechs Monaten nach der Rückkehr folgt der Re-Integrationsschock. Es treten
wie in der Auseinandersetzungsphase des Anpassungsphasenkonzeptes Missverständnisse mit Kollegen oder allgemein im Alltag auf. Diese ersten Schwierigkeiten und
Probleme sind nicht so leicht zu überwinden. Es fehlt dem Zurückgekehrten das
Zugehörigkeitsgefühl und Unzufriedenheit und Enttäuschung nehmen zu.
- Die zweite Phase scheint nach ca. zwölf Monaten überwunden, wenn der Rückkehrer die
Realität akzeptiert und eine realistische Erwartungshaltung aufgebaut hat. In der nun
dritten Phase der Integration passt sich dieser an seine ursprüngliche Umgebung und
Situation wieder an und beginnt sich zu integrieren.
Diese Phasenerläuterung zeigt, dass der Erfolg und der Misserfolg einer Entsendung stark
von den Erwartungen des Entsendeten abhängen kann. Ebenso nehmen die Erwartungen
des Unternehmens eine bedeutende Rolle ein. Mentorenprogramme helfen beim richtigen
Umgang mit den Erwartungshaltungen.25 Ebenso helfen Austauschforen, Internetplattformen mit Erfahrungsberichten von Entsandten, interkulturelle Trainings und Sprachtrainings
für die gesamte Familie in der Zeit.
8
Schlussfolgerung
Die Auslandsentsendung ist eine Maßnahme der Personalentwicklung und die Investition in
einen Mitarbeiter ist dabei erheblich. Die hohen Kosten entstehen auf Grund von
Anreizsystemen wie Gehalt, Wohnungszuschüsse, Dienstwagen, Flugkosten für Heimaturlaub, spezielle Krankenversicherungen mit Option von Operationen in Deutschland, Schul-
23
Hoppe, A.: So war ich nicht, so bin ich nicht! Vom Einfluss des kulturellen Umfelds auf die eigene
Identität, in: Kumbier, D.; Schulz von Thun, F. (Hrsg.): Interkulturelle Kommunikation: Methoden, Modelle, Beispiele, Reinbek bei Hamburg 2006, S. 170-186, S. 185.
24
Vgl. Hirsch, K.: Reintegration von Auslandsmitarbeitern, in: Bergemann, N.; Sourisseaux, A.L.J. (Hrsg.):
Interkulturelles Management, 2. Aufl., Heidelberg 1996, S.285-298, S. 291f.
25
Vgl. Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, , a. a. O.,
2004, S. 883.
84
Sylke Heusinger von Waldegge
gebühren für die Kinder.26 Kennzeichnende Probleme bei Entsendungen sind hohe Abbruchquoten und „das Absitzen der Zeit“. Schätzungsweise liegen die Kosten pro Abbruch
drei- bis viermal so hoch wie das Jahresgehalt des entsandten Mitarbeiters. 27
Daher spielt nicht nur in der Personalentwicklung, sondern auch in der Personalauswahl
die interkulturelle Kompetenz der Bewerber zunehmend eine wichtige Rolle. Die interkulturelle Kompetenz hat daher ihre besondere Rolle in der Geschäftswelt gefunden. Sie wird
immer mehr zu einer Schlüsselqualifikation für Manager und Mitarbeiter, die unabhängig
von einer spezifischen Ausbildung in vielen Berufen gefordert sind.
Literatur
Elder, St.: Interkulturelles Training USA der Culture Waves Intercultural Consulting and Training für die
Schaeffler Gruppe, 04.07. 2011.
Erl, A., Gymnich, M.: Interkulturelle Kompetenzen: Erfolgreich kommunizieren zwischen den Kulturen,
Stuttgart 2010.
Henze, J.: Kulturelle Sensibilisierung – Asia-Mix, Interkulturelles Training der Ceikom für die Schaeffler
Gruppe, 27.09.2011.
Hirsch, K.: Reintegration von Auslandsmitarbeitern, in: Bergemann, N.; Sourisseaux, A.L.J. (Hrsg.): Interkulturelles Management, 2. Aufl., Heidelberg 1996, S.285–298.
Hofstede, G.: Lokales Denken, globales Handeln, Interkulturelle Zusammenarbeit und globales Management, 2. Aufl., München 2001.
Hoppe, A.: So war ich nicht, so bin ich nicht! Vom Einfluss des kulturellen Umfelds auf die eigene Identität, in: Kumbier, D.; Schulz von Thun, F. (Hrsg.): Interkulturelle Kommunikation: Methoden, Modelle,
Beispiele, Reinbek bei Hamburg 2006, S. 170–186.
http://www.qm-aktuell.com/page.asp?his=2833.2835.7975 (Abruf am 25.04.2013).
http://www.china-knigge.de/2008/10/hierarchieorientierung.html (Abruf am 04.04.2013).
http://www.computerwoche.de/a/erp-einfuehrung-in-china-zwischen-jinshui-und-guanxi,1233412
(Abruf am 01.03.2012).
http://www.metrionconsulting.de/node/62 (Abruf am 01.03.2013).
Institut für Interkulturelle Kompetenz und Didaktik e.V. http://www.ikud.de/interkulturelle-kompetenz.html
(Abruf am 03.05.2013).
Poerner, M.: Business Knigge China: Die Darstellung Chinas in interkultureller Ratgeberliteratur, Frankfurt
am Main 2009.
Scheffler, E.: Konzern Management: Betriebswirtschaftliche und rechtliche Grundlagen der Konzernführungspraxis, 2. Aufl., München 2005.
Scholz, C.: Personalmanagement, 5. Aufl., München 2000.
SinaLingua, Erfolg in China, Interkulturelles Training für die Schaeffler Gruppe, 4.10.2012.
26
Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004, S.
880.
27
Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, a. a. O., 2004, S.
882.
Interkulturelle Kompetenz und ihre Bedeutung in der Geschäftswelt
85
Slate, E., Schroll-Machl, S.: Beruflich in den USA, Trainingsprogramm für Manager, Fach- und
Führungskräfte, Göttingen 2009.
Straub, J.: Lerntheoretische Grundlagen, in: Wiedemann, A.; Straub, J.; Nothnagel, S. (Hrsg.): Wie lehrt
man interkulturelle Kompetenz? Theorien, Methoden und Praxis in der Hochschulausbildung , Bielefeld
2010, S. 31–98.
Thomas, A.: Grundlagen der interkulturellen Psychologie, Nordhausen: Bautz 2005.
Thomas, A.; Kinast, E. U.; Schroll-Machl, S.: Handbuch Interkulturelle Kommunikation und Kooperation,
Band 1: Grundlagen und Praxisfelder, Göttingen 2003.
Weber u.a. 2001: Internationales Personalmanagement, 2. Aufl., Wiesbaden 2001.
Zentes, J.; Swoboda, B.; Morschett, D.: Internationales Wertschöpfungsmanagement, München 2004.
Industrielles Beschaffungsmanagement
im Spannungsfeld zwischen Herausforderung und Relevanz1
Frank Himpel
Themenöffnung und Vorbemerkung
Bereits im Römischen Reich vor rund 2000 Jahren waren Fragen der Beschaffung und der
Beschaffungslogistik virulent. Die in Mogontiacum stationierten römischen Legionen verfügten über ein ausgeklügeltes Supply Chain Management, denn die Waren der damaligen
Zeit, die im Römischen Reich überhaupt verfügbar waren, konnten grundsätzlich auch in
Mogontiacum zur Verfügung gestellt werden.
Auch die betriebswirtschaftliche Forschung greift Fragen der Beschaffung seit ihren Anfängen auf. So haben zum Beispiel Schär (1911), Nicklisch (1912), Gutenberg (1928) und
Weber (1931) Sichten der Betriebswirtschaft konzeptualisiert, die sich in ihrem Kern auch
in heutigen Beschaffungskonzepten wiederfinden. Dazu gehört bspw. die Interpretation der
Beschaffungsabteilung als Koordinationszentrum für Wertschöpfung bis hin zur Interpretation der Beschaffungsfunktion als „taktgebendes“ Informationszentrum im Supply Chain
Management.
Ausgangssituation für das industrielle Beschaffungsmanagement
Die Beschaffung ist für industrielle Leistungsanbieter in den vergangenen 10 bis 15 Jahren
zu einem strategischen Gegenstandsbereich geworden. Zunächst fokussiert auf das Begriffskonzept der Strategie (altgriechisch von „strataegeo“), lässt sich strategische Orientierung in ihrem Grundsatz wie folgt interpretieren:
„Das eigene Denken und Handeln an übergeordneten Zielen ausrichten und sich dabei nicht durch
vordergründige Dringlichkeiten, d.h. Augenblicksvorteile und -nachteile ablenken lassen.“ 2
1
Dieser Beitrag basiert in modifizierter Form auf dem Manuskript zu einem Vortrag, den der Autor an der
Johannes Gutenberg-Universität Mainz gehalten hat. Für inhaltliche Impulse und Anregungen dankt der
Autor herzlich dem Jubilar Klaus Bellmann.
Gleichsam dankt der Autor auch den Herren Univ.-Prof. Dr. Klaus Breuer sowie Univ.-Prof. (em.) Dr.
Herbert Kargl für wertvolle Hinweise, die über den Kontext des hier angesprochenen Vortrags hinausgehen.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_7,
© Springer Fachmedien Wiesbaden 2013
88
Frank Himpel
In dieser Sicht rücken also Fragen der Orientierung an Ursache-Wirkungs-(Ursache-)
Beziehungen in den Mittelpunkt der Betrachtung. Gestaltungsfragen zum industriellen
Beschaffungsmanagement weisen i.d.S. zunehmend strategischen Charakter auf. Hierfür
können mehrere Ursachen angeführt werden, von denen hier nur vier typologisiert werden:
Der Anteil des Beschaffungsvolumens am Umsatz von Industrieunternehmen steigt seit
rund 20 Jahren kontinuierlich und beträgt in einzelnen Branchen inzwischen durchaus rund
90%. Der Internationalisierungsgrad der Beschaffung von Industrieunternehmen steigt seit
20 Jahren kontinuierlich und beträgt vereinzelt inzwischen durchaus auch rund 90%. Die
Kontraktion von Entwicklungszyklen für neue Produkte bindet die Kompetenzen von Lieferanten viel früher als bis vor wenigen Jahren noch üblich in industrielle Entwicklungsprozesse ein, weshalb die Schnittstelle Beschaffung-Entwicklung besonders bedeutsam wird
(dieses nicht zuletzt auch im Kontext der Schärfung von eigenen (Kern-)Kompetenzen).
Die auf saturierten Käufermärkten vorherrschende Volatilität in der Kundennachfrage
schlägt sich deshalb von der Absatzseite aus kommend u.a. nieder in zeitlich instabileren
Hersteller-Lieferanten-Beziehungen, weshalb Fragen des strategischen Aufbaus von (potentiellen) Lieferanten und des Aufbaus einer geeigneten „Lieferantenbasis“ erfolgskritisch
werden; traditionelle Hersteller-Lieferanten-Relationen werden dadurch mitunter destabilisiert. Vor diesem Hintergrund stellen sich mehrere Herausforderungen an das industrielle
Beschaffungsmanagement. Zunächst fokussiert auf das Begriffskonzept der Beschaffung,
lässt sich Beschaffungsmanagement wie folgt interpretieren:
„Beschaffung umfasst alle Prozesse zur Versorgung des Unternehmens mit (…) Material, Dienstleistungen, Rechten sowie Maschinen und Anlagen aus unternehmensexternen Quellen (…). Beschaffungsmanagement beinhaltet die entsprechenden Planungs-, Steuerungs- und Kontrollprozesse.“ 3
Strategische Herausforderungen an die Beschaffung
Vor dem Hintergrund der Hauptzielsetzung des industriellen Beschaffungsmanagements,
nämlich der langfristigen Sicherstellung der Faktorversorgung des Unternehmens mit sämtlichen für die Produktion erforderlichen Einsatzfaktoren (Ausnahme: Kapital und Personal),
emergieren zahlreiche (Gestaltungs-)Probleme, mit denen das industrielle Beschaffungsmanagement aus Sicht eines abnehmenden industriellen Leistungsanbieters gegenwärtig
konfrontiert ist. In einer Typologie lassen sich drei Hauptproblemfelder herausschälen:
Gestaltung des (interorganisationalen) Schnittstellenportfolios, Gestaltung des (Markt-)
Kontaktflächenportfolios und Gestaltung des (Kern-)Kompetenzportfolios.
Strategisches Beschaffungsmanagement als Gestaltung des Schnittstellenportfolios: Primär sind interorganisationale Schnittstellen geeignet auf die strategischen Herausforderungen auszurichten, und zwar sowohl in klassisch-vertikaler Richtung (i.e. HerstellerLieferant), als auch in horizontaler Richtung (i.e. Hersteller-Hersteller). Innovative Formen
2
Wüthrich, H.: Neuland des strategischen Denkens, zugl.: St. Gallen, Univ., Ha-bil.-Schr., Wiesbaden
1991, S. 15.
3
Kaufmann, L.: Internationales Beschaffungsmanagement, zugl.: Gießen, Univ., Habil.-Schr., Wiesbaden
2011, S. 39 f.
Industrielles Beschaffungsmanagement im Spannungsfeld zwischen Herausforderung und Relevanz
89
der interorganisationalen Kooperation diffundieren gleichsam in dieses Gestaltungsfeld, so
bspw. Betreibermodelle.
Strategisches Beschaffungsmanagement als Gestaltung des (Markt-) Kontaktflächenportfolios: Aus der Sicht eines Leistungen abnehmenden Herstellers wird seine Transparenz
über die 2nd-tier-Lieferantenbasis der (System-)Lieferanten zunehmend geringer, weshalb
sein innerter „Durchgriff“ auf die Lieferantenbasis vglw. geringer und quasi-simultan seine
Abhängigkeit vom (System-)Lieferanten vglw. stärker wird. Hersteller stärken in dieser
Sicht primär neben ihrem Lieferantenmanagement ihr Markenmanagement, da die Bindung
des Herstellers an die Absatzmärkte existentielle Bedeutung hat. Andernfalls könnten (System-)Lieferanten an den Herstellern vorbei auf dessen Absatzmärkte vordringen (z.B. Automobilproduktion ohne Marke).
Strategisches Beschaffungsmanagement als Gestaltung des (Kern-) Kompetenzportfolios:
Die Hervorbringung von Produkten für saturierte Käufermärkte im weltweiten Maßstab
erfordert aufgrund der Vielschichtigkeit der Bedarfe und der Volatilität in der Marktnachfrage u.a. die Fokussierung auf Kernkompetenzen und die Auslagerung von Nicht-(Kern-)
Kompetenzen auf entsprechende Lieferanten, die i.S.v. Wertschöpfungspartnern gemeinschaftlich die Wertschöpfungsleistung erbringen. Dabei ist die Definition von Kernkompetenzen für industrielle Leistungsanbieter keinesfalls trivial und oftmals nur in Abstimmung
mit (System-)Lieferanten zu vollziehen. In der Folge werden Werke eines Herstellers genauso behandelt wie die Produktionsstätten von Lieferanten (insbesondere mit Blick auf
Kapitalallokation, Kapazitätsallokation und Faktorausstattung der Infrastruktur). Dieses
vollzieht sich regelmäßig im Übergang von der strategischen auf die taktische (Entscheidungs-)Ebene; die Gestaltung des Kapazitätsportfolios ist also nicht mehr als rein strategische Aufgabe zu interpretieren, weshalb z.B. auch Standort(verlagerungs-)fragen zu taktischen Herausforderungen werden.
Lösungszugänge zur Adressierung der Herausforderungen
Die Gestaltung der Schnittstellen-, (Markt-)Macht- und (Kern-)Kompetenzportfolios kann
das strategische industrielle Beschaffungsmanagement vollziehen über Maßnahmen, die
primär die Koordinationsleistung betreffen. In seinem Kern dreht es sich hierbei um die
Konzeptualisierung von Maßnahmen, welche die Orchestration von Wertschöpfung für
Absatzmärkte unter Einbindung einer Mehrzahl von Akteuren auf vertikalen und horizontalen Wertschöpfungsstufen geeignet organisieren. Hierfür lassen sich aus Sicht von industriellen Leistungsanbietern mehrere Alternativen ableiten, um die Zusammenarbeit mit Lieferanten im vorbeschriebenen Sinn zu beeinflussen. In einer Typologie lassen sich drei hauptsächliche Lösungszugänge konzeptualisieren: Einkaufskooperation bzw. Beschaffungsnetzwerk, Outsourcing und Akquisition.
Kooperation auf horizontaler (Hersteller-)Ebene in entsprechenden Einkaufskooperationen bzw. Beschaffungsnetzwerken (begrifflich auch: hybrides Strukturdesign): Horizontale
Kooperationen dieser Art bieten neben primär operativ anschlagenden ökonomischen
Performanzeffekten (z.B. Kostenvorteile durch konsolidierte Beschaffung) auch das Poten-
90
Frank Himpel
tial, Schnittstellen der Abnehmer in Entsprechung von beschaffungs- und absatzmarktseitigen Herausforderungen verbessert zu gestalten und strategisch zu durchmustern.4
Outsourcing der Beschaffungsfunktion auf externe Dienstleister (begrifflich auch:
marktliches Strukturdesign): Analog des Outsourcing im IT-Bereich werden primär operative Beschaffungstätigkeiten an externe Dienstleister ausgelagert, die z.T. auch strategischtaktische Aufgaben sukzessive übernehmen können.5 Auf Seiten des Herstellers verbleibt
lediglich ein „Kernbereich“, der die strategische, grundsätzliche Ausrichtung und Koordination der Outsourcing-Partner koordiniert.
Akquisition auf horizontaler (Hersteller-)Ebene durch Zusammenlegung und Integration
der Beschaffungsfunktion in gemeinsamen Beschaffungsbereichen (begrifflich auch: hierarchisches Strukturdesign): Während Einkaufskooperationen bzw. Beschaffungsnetzwerke
Lösungszugänge zur Koordination von Beschaffungstätigkeiten darstellen, die nicht durch
auf Dauer angelegte Integration in die Unternehmenshierarchie vollzogen werden sollen,
hebt die Akquisitionslösung explizit auf diesen Integrationsaspekt ab. Wenngleich Synergien durch Akquisition beim Zusammengehen von industriellen Leistungsanbietern nicht
primär durch Beschaffungsüberlegungen motiviert sind, sondern z.B. aufgrund von absatzmarktbezogenen Überlegungen, die eine verbesserte Kapitalamortisation mit sich bringen,
spielen entsprechende Effekte aus dem Beschaffungsbereich in der Plausibilisierung von
Akquisitionsplanungen durchaus eine große Rolle.
Relativierung der Lösungszugänge in kritisch-reflektivem Diskurs
Um die drei skizzierten Lösungszugänge mit Blick auf ihre Eignung zu relativieren, also
ausdrücklich nicht umfassend zu bewerten, lassen sich mehrere Kriterien anführen. Diese
orientieren sich idealerweise daran, inwieweit es gelingt, die aktuellen Probleme bzw. strategischen Herausforderungen verbessert in den Griff zu bekommen. Insofern spannt sich
also gedanklich eine Matrix auf, in der die Eignung der drei skizzierten Lösungszugänge
jeweils bezogen wird auf Fragen der Gestaltung von (interorganisationalen) Schnittstellen-,
(Markt-)Kontaktflächen- und (Kern-)Kompetenzportfolios.
Im Grundsatz lassen sich nur Vor- und Nachteile der skizzierten Lösungszugänge abschätzen und, in unterschiedlicher Form bewertet, in grobe Eignungskategorien typisieren.
Entscheidend im weiteren Fortgang ist, dass eine Entscheidung für oder gegen eine der
Lösungszugänge nach kritisch-reflektiven Abwägungen zu treffen ist.
Letztlich erscheint die strategische Positionierung eines industriellen Leistungsanbieters
und seine Auswahl der hier skizzierten Lösungszugänge als unternehmensindividuelles
Abwägungsfeld, bei dem unternehmensspezifische Chancen-/Risikoprofile zu realisieren
4
Das Begriffsverständnis von „optimieren“ rekurriert i.d.S. darauf, dass die Grenzen bestehender Systeme
akzeptiert werden, wohingegen „gestalten“ durchaus auf das Denken in grundsätzlicher Neujustierung
der Interaktionsrelationierungen gerichtet sein kann.
5
Im realpraxeologischen Sinnzusammenhang siehe bspw. das Konzept „Sourcing of the Future“ der USamerikanischen Unternehmensberatung A.T. Kearney oder das ehemalige Konzept von „Hoechst
Procurement International“.
Industrielles Beschaffungsmanagement im Spannungsfeld zwischen Herausforderung und Relevanz
91
sind. Hier erscheint es unzweckmäßig, generische, immer gültige, normativ-deklaratorische
Setzungen formulieren zu wollen.
Wettbewerbsrechtliche, -theoretische und -politische Aspekte sind im Einzelfall darüber
hinaus, neben der rein ökonomischen Sicht auf die Plausibilität, einer Entscheidung für
oder gegen einen der Lösungszugänge mit in die Abwägungsentscheidung einzubeziehen.
Die konkrete Orchestrierungsform ist abhängig vom Aggregationsniveau der Analyse, also
bspw. auch von den Beschaffungsobjektkategorien. In der konkreten Anwendung wirken
zudem auch „weiche“ Verhaltensantezedenzen, die in die sachrationale Analyselogik diffundieren und mitunter auch mit dieser interferieren können.
Pointierter Exkurs als Zusammenfassung
Die vorgestellten Lösungszugänge zur Adressierung der strategischen Herausforderungen
an ein modernes industrielles Beschaffungsmanagement sind ihrem Wesen nach nicht
grundständig neu. In Bezug auf die Metapher zum Römischen Reich zu Beginn der Überlegungen lässt sich – pointiert und mit einem Augenzwinkern formuliert – nämlich analysieren, dass auch Legionen des Römischen Reichs ihre Beschaffungsbedarfe gepoolt und im
Rahmen von Handelsbeziehungen mit Germanen in der Provinz Germania Superior konsolidiert haben (analog der Vorstellung von Einkaufskooperationen), dass die an den Außengrenzen des Römischen Reichs sesshaften Gallier ihre Beschaffungsbedarfe an Wildschweinen auf den für die Wildschweinjagd aufgrund von entsprechender „Kompetenzausstattung“ besonders prädestinierten Obelix ausgelagert haben (analog der Vorstellung vom
Outsourcing), und dass deshalb vielleicht auch der „Wunsch“ der Römer um Julius Cäsar
nach „Akquisition“ des gallischen Dorfes zur dauerhaften Sicherung der Kompetenzausstattung zur Wildschweinjagd mithin besonders stark ausgeprägt war (analog der Vorstellung
von der Akquisition).
Literatur
Kaufmann, L.: Internationales Beschaffungsmanagement, zugl.: Gießen, Univ., Habil.Schr., Wiesbaden 2011.
Wüthrich, H.: Neuland des strategischen Denkens, zugl.: St. Gallen, Univ., Habil.-Schr.,
Wiesbaden 1991.
Der Wert der Werte
Überlegungen im Ausgang von Goethes „Werther“
Jochen Hörisch
1
Werther
Goethe kannte sich in ökonomisch-finanziellen Sphären glänzend aus. Kein Wunder: war er
doch Sohn eines reichen Kaufmanns, der gut von den Zinsen seines Vermögens leben
konnte, überdies bemerkenswert aufmerksamer Leser der nationalökonomischen Fachliteratur seiner Zeit (Adam Smith voran!) und nicht zuletzt langjähriger Finanzminister, der die
Steuerprivilegien des Adels stark eingeschränkt und damit den Haushalt des kleinen, aber
feinen Landes Sachsen-Weimar saniert hatte. Zu seiner hohen volkswirtschaftlichen Fachkompetenz trug aber vor allem auch der Umstand bei, dass er nicht „nur“ Finanz-, sondern
auch Kultusminister war – und der beste Schriftsteller (nicht nur!) seiner Epoche sowieso.
Deshalb ist es nicht erstaunlich, dass Goethes Werke fast durchweg von der Begegnung
kultureller, ästhetischer und ethischer Werte einerseits mit ökonomischen Werten andererseits handeln. Das gilt auch von seinem 1795 erschienenen Bildungsroman Wilhelm Meisters Lehrjahre. Darin findet sich eine Szene, in der Wilhelm, der theatralisch Schweifende,
einen Brief seines Jugendfreundes und jetzigen Schwagers Werner erhält, der wie er selbst
und wie sein Autor Sohn eines reichen Kaufmanns ist und ihn an ihr altes Projekt erinnert,
gemeinsam einträgliche Geschäfte voranzutreiben. Konkret schlägt Werner vor, Wilhelm
solle ein abgewirtschaftetes und deshalb preiswert zu erwerbendes Gut verwalten, es in
Stand setzen und dann mit Gewinn verkaufen. In dem Brief heißt es: „Wir rechnen auf
Dich, daß Du dahin ziehst, den Verbesserungen vorstehst, und so kann, um nicht zu viel zu
sagen, das Gut in einigen Jahren um ein Drittel an Wert steigen; man verkauft es wieder,
sucht ein größeres, verbessert und handelt wieder, und dazu bist Du der Mann. (…).“
Wilhelm könnte durchaus der Mann für solche Geschäfte sein. Immerhin managt er einigermaßen erfolgreich eine ganze Theaterkompanie. Dennoch ist er von Werners Vorschlag
nicht angetan: „So gut dieser Brief geschrieben war, und so viel ökonomische Weisheit er
enthalten mochte, mißfiel er doch Wilhelmen auf mehr als eine Weise. Das Lob, das er über
seine fingierten statistischen, technologischen und ruralischen Kenntnisse erhielt, war ihm
ein stiller Vorwurf, und das Ideal, das ihm sein Schwager vom Glück des bürgerlichen
Lebens vorzeichnete, reizte ihn keineswegs; vielmehr ward er durch einen heimlichen Geist
des Widerspruchs mit Heftigkeit auf die entgegengesetzte Seite getrieben“ (Goethe 1981, S.
288f.). Das heißt pointiert ausgedrückt: Der Wertbegriff ist nicht homogen, sondern nur
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_8,
© Springer Fachmedien Wiesbaden 2013
94
Jochen Hörisch
homophon; kennt er doch „entgegengesetzte Seiten“. Die „ökonomische Weisheit“, die in
diesem Fall darin besteht, zukünftige Gewinnchancen auf dem Immobilienmarkt präzise
einzuschätzen, ist mit den weisen Einsichten, die Wilhelm im Prozess seiner theatralischen
Sendung zu erlangen hofft, nicht in Übereinstimmung zu bringen. Denn Wilhelm stellt eine
Wertfrage, die man heute als Frage nach der Work-Life-Balance charakterisieren würde:
Wie viel Wert lege ich auf ökonomisch-finanzielle Werte? Vertragen sie sich mit ästhetisch-ethischen Werten? An welchen Werten muss ich mich orientieren, wenn mein Leben
lebens- und liebenswert sein soll? Worauf muss ich verzichten, wenn ich nicht auf Reichtum verzichten will?
Mit einem Wort: Wilhelm stellt die Wertfrage, nämlich die Frage nach dem Wert von
Werten. Damit erweist er sich als würdiger, wenn auch weniger leidenschaftlicher Nachfolge Werthers, der durch den Nachdruck, mit dem er Wertfragen stellt, seinem Namen alle
Ehre macht (Gutbrodt 1995, S. 579–630). Angeführt seien nur einige der Passagen, die
deutlich machen, dass Werther einen sprechenden Namen hat. Als der junge Karrierejurist
Lotte begegnet, begrüßt sie ihn mit der Anrede ‚Vetter‘. Und Werther antwortet: „‚Vetter?‘
sagte ich, indem ich ihr die Hand reichte, ‚glauben Sie, daß ich des Glücks wert sei, mit
Ihnen verwandt zu sein?‘“ (22)1 Lotte, von der Werther sagt, dass sie ihm „in so wenig
Augenblicken so wert geworden war“ (26) wie nichts anderes auf dieser Welt, sorgt durch
ihre schiere Gegenwart für rasante semantisch-emotionale Wertsteigerungen auch der Orte,
an denen sie zusammen mit Werther geweilt hat. „Nach einem Wege von anderthalb Stunden kamen wir gegen die Stadt zurück, an den Brunnen, der mir so wert und nun tausendmal werter ist.“ (35) Dass es sich hier um Werte jenseits der profanen Ökonomie handelt,
versteht sich von selbst. Zu den reizvollen Implikationen der Liebes-Wert-Logik gehört es,
dass der Liebende, der die Geliebte zum absoluten Wert (v)erklärt, seinerseits eine Wertsteigerung erfährt, sich werter als je zuvor fühlt, wenn er zurückgeliebt wird: „Und wie
wert ich mir selbst werde, wie ich – dir darf ich's wohl sagen, du hast Sinn für so etwas –
wie ich mich selbst anbete, seitdem sie mich liebt!“ (38)
Nun ist die Wertlogik der Liebe (und der Selbstliebe!) aber nicht schlicht die Alternative
zur ökonomischen Wertlogik. Die „entgegengesetzten Seiten“ des Wertbegriffs haben mehr
miteinander gemein, als es zuerst den Anschein hat. Auch in Liebesdingen gilt, dass nur das
Knappe wertvoll ist. Und Lotte ist ein knappes Liebesgut, ist sie doch schon einem Mann
versprochen, der da Albert heißt und dessen Namen mit dem seines verspäteten Konkurrenten die Buchstaben „ert“ teilt, die auf Wert verweisen. Lotte wirft auf die irritierende Verwandtschaft der ökonomischen wie der erotischen Wertlogik einen nüchternen Blick, wenn
sie sich selbst ausdrücklich als „Besitz“ und „Eigentum eines andern“ bezeichnet und dabei
gar sich selbst versachlicht, von sich als „das“ und nicht als „die“ sprechend. „‚Warum
denn mich, Werther? just mich, das Eigentum eines andern? just das? Ich fürchte, ich fürchte, es ist nur die Unmöglichkeit, mich zu besitzen, die Ihnen diesen Wunsch so reizend
macht.‘ – Er zog seine Hand aus der ihrigen, indem er sie mit einem starren, unwilligen
Blick ansah. ‚Weise!‘ rief er, ‚sehr weise! hat vielleicht Albert diese Anmerkung gemacht?
Politisch! sehr politisch!‘ – ‚Es kann sie jeder machen.‘ versetzte sie drauf. ‚Und sollte
1
Seitenangaben in Klammern beziehen sich auf die Ausgabe von Die Leiden des jungen Werther im Rahmen der Hamburger Ausgabe, Bd. 6. München 1981.
Der Wert der Werte: Überlegungen im Ausgang von Goethes „Werther“
95
denn in der weiten Welt kein Mädchen sein, das die Wünsche Ihres Herzens erfüllte? Gewinnen Sie's über sich, suchen Sie darnach, und ich schwöre Ihnen, Sie werden sie finden;
denn schon lange ängstigt mich, für Sie und uns, die Einschränkung, in die Sie sich diese Zeit
her selbst gebannt haben. Gewinnen Sie es über sich, eine Reise wird Sie, muß Sie zerstreuen!
Suchen Sie, finden Sie einen werten Gegenstand Ihrer Liebe, und kehren Sie zurück, und
lassen Sie uns zusammen die Seligkeit einer wahren Freundschaft genießen.‘ (102 f.)
Lauter ökonomische Begriffe im Liebesdiskurs der begehrten Frau: besitzen, gewinnen,
Eigentum, werter Gegenstand. Werther kann nicht glauben, dass die von ihm so leidenschaftlich geliebte Frau tatsächlich so schnöde, nämlich so politökonomisch denkt. Ihre
politischen, sehr politischen, analytischen, kalkulierenden Worte muss ihr Albert souffliert
haben. Denn viel nüchterner als dieser unsentimentale Charakter kann man nicht argumentieren: Ein Liebesobjekt, in Lottes Worten ein „werter Gegenstand“, kann durch einen anderen Gegenstand, der ebenso viel wert ist, ersetzt werden. Das ökonomische Wertgesetz
der Äquivalenz herrscht auch in der Sphäre der Liebe. Genau dies kann Werther nicht akzeptieren. Denn für ihn ist offenbar, dass es Werte gibt, die tausendmal werter sind als
Werte, zu denen es ein Äquivalent gibt. Nun gehört es zu den Subtilitäten von Goethes Text
(und genau diese Subtilität verleiht Goethes Schriften einen Wert, der sie werter macht als
andere hochliterarische Texte), dass er leidenschaftlich auf der Inkompatibilität von ökonomischen und transökonomischen Werten besteht – und genau diese Inkompatibilität
negiert. Schon vor den nüchternen Worten, die ausgerechnet das unvergleichliche Liebesobjekt spricht, bemüht Werther nämlich zum zweiten Mal die seinem Namen völlig homophone Formel „tausendmal werter“. Diesmal gilt sie nicht von einem Brunnen, sondern,
subtil, sehr subtil, von einer „blaßroten Schleife“ und „zwei Büchelchen in Duodez“, die er
an seinem Geburtstag, dem 28. August (der bekanntlich auch Goethes Geburtstag ist), von
Lotte und Albert zum Geschenk erhält. „Am 28. August. / Es ist wahr, wenn meine Krankheit zu heilen wäre, so würden diese Menschen es tun. Heute ist mein Geburtstag, und in
aller Frühe empfange ich ein Päckchen von Alberten. Mir fällt beim Eröffnen sogleich eine
der blaßroten Schleifen in die Augen, die Lotte vor hatte, als ich sie kennen lernte, und um
die ich sie seither etlichemal gebeten hatte. Es waren zwei Büchelchen in Duodez dabei, der
kleine Wetsteinische Homer, eine Ausgabe, nach der ich so oft verlangt, um mich auf dem
Spaziergange mit dem Ernestischen nicht zu schleppen. Sieh! so kommen sie meinen Wünschen zuvor, so suchen sie alle die kleinen Gefälligkeiten der Freundschaft auf, die tausendmal werter sind als jene blendenden Geschenke, wodurch uns die Eitelkeit des Gebers
erniedrigt. Ich küsse diese Schleife tausendmal.“ (54)
Das ist nun ein atemberaubendes Arrangement. Zwei Freunde schenken Werther zwei
Dinge, von denen eines zweiteilig ist: ein Textil und einen Text, nämlich eine zweibändige
Homerausgabe, von der ausdrücklich festgehalten wird, dass sie im Duodezformat gedruckt
ist. Sie ersetzt eine zweite, unhandlichere Homer-Ausgabe. Und die Formel, hier handele es
sich um etwas, das „tausenmal werter“ ist als anderes, fällt zum zweiten Mal. Was nichts
anderes heißt als dies: Schon vor den analytisch kühlen Worten Lottes, Werther solle sich
einen anderen werten Gegenstand seines Begehrens suchen, musste Werther, ohne sich
davon transparente Rechenschaft abzulegen, die Erfahrung machen, dass noch das vermeintlich Inkompatible Äquivalente hat. Das, was tausendmal werter ist als alles andere, ist
kein Wert über allen anderen Werten; das, was tausendmal werter ist als alles andere, gibt
es (mindestens) zweimal. Lotte selbst ist ja, als Werther sie kennenlernt, bereits eine Ersatz-
96
Jochen Hörisch
figur. Muss sie doch als älteste in der Geschwisterreihe die Funktion der verstorbenen Mutter
übernehmen, was sie Werther nicht weniger wert macht. „‚Lotte!‘ rief ich aus, indem ich
mich vor sie hinwarf, ihre Hand nahm und mit tausend Tränen netzte, ‚Lotte! der Segen Gottes ruht über dir und der Geist deiner Mutter!‘ – ‚Wenn Sie sie gekannt hätten,‘ sagte sie,
indem sie mir die Hand drückte, – ‚sie war wert, von Ihnen gekannt zu sein!‘ – Ich glaubte zu
vergehen. Nie war ein größeres, stolzeres Wort über mich ausgesprochen worden.“ (58)
Gegen Ende des Passionsromans, der den meisten Goethe-Lesern tausendmal werter
schien als andere Goethe-Werke, kommt das Wort ‚wert/er‘ immer seltener vor. Es hat
seinen Wert wenn nicht verloren, so doch verschoben. Diese Verschiebung ist wert, bedacht
zu werden. Werther hat schmerzlich erfahren müssen, dass eine allzu emphatische Semantik des Liebeswerts und des Liebenswerten sich in Paradoxien (der Liebe und der Selbstliebe, des Authentischen und des Supplements, des unverwechselbar Persönlichen und des
austauschbar Sachlichen) verstrickt. Und Werthers Schöpfer Goethe ist nicht davor zurückgescheut, noch das Unverwechselbare, Individuellste, Liebenswerteste als ersetzbar zu
denken. In dem damals nicht publizierbaren, weil grob obszönen „mikroskosmischen Drama“ Hanswursts Hochzeit, das Goethe kurz nach dem Erscheinen von Werthers Leiden
schrieb, spricht der Titelheld in unüberbietbar zynischen Worten über den funktionalen
Wert des heißen, leidenschaftlichen „lieben Wertherischen Bluts“:
Mir ist das liebe Wertherische Blut
Immer zu einem Probierhengst gut
Den laß ich mit meinem Weib spazieren
Vor ihren Augen sich abbranlieren
Und hinten drein komm ich bei Nacht
Und vögle sie daß alles kracht. (Goethe 1985, S. 586)
Das sind Verse aus derselben Feder, die auch Werthers Leiden niederschrieb. Leidenschaftliche Liebe und Sex gehören zu zwei unterschiedlichen Wertsphären. Liebe kann man nicht
kaufen, Sex schon. Dennoch gehören beide Sphären, die der Ökonomie und die der Liebe,
zusammen. Auch wenn die libidoökonomischen Reflexionen des Werther-Romans nicht so
brutal ausfallen wie von Hanswurst, ist doch unverkennbar, dass auch in Goethes frühem
Roman der emphatische Wertbegriff die Sphäre wechselt. Er kommt gegen Ende nicht
mehr erotologisch, sondern ökologisch daher. „Man möchte rasend werden, Wilhelm, daß
es Menschen geben soll ohne Sinn und Gefühl an dem wenigen, was auf Erden noch einen
Wert hat.“ (80) Folgt die beredte Klage über die Abholzung der Nussbäume – um ihrer
ökonomischen Verwertbarkeit willen. Werthers Leiden sind – nun eben Wert-Leiden;
Werther erträgt nicht, dass es Menschen ohne Sinn und Gefühl für das gibt, was auf Erden
noch einen Wert hat, die Liebe oder die Natur dies- und jenseits aller ökonomischen Werte.
Kein Wunder, dass dieser Roman Goethes bis heute sein mit Abstand populärster ist. Denn
die Konflikte um das rechte Verständnis dessen, was eigentlich Wert hat, hören auch im
Zeitalter der globalen Wert-Ökonomie nicht auf aufzuhören.
2
Werte
Wilhelm Meister ist der ernüchterte Nachfolger Werthers. Ihm, der nicht eine, sondern viele
Frauen liebt (unter anderen Mariane, Philine, Aurelie, Therese, Natalie, um von Mignon zu
schweigen) und dem auch deshalb die Formel nicht zur Verfügung steht, etwas oder eine
Der Wert der Werte: Überlegungen im Ausgang von Goethes „Werther“
97
sei tausendmal werter als alle(s) andere(n), kultiviert ein abgeklärtes Verhältnis zu Wertfragen. Dazu trägt bei, dass ihm an emphatischen Verteidigern ästhetischer gegen ökonomische Werte aufgefallen ist, wie ökonomisch sie ihrerseits denken. „Nicht ebenso leicht
konnte er die Aufführung der übrigen Schauspieler […] mit seinen Begriffen vereinigen.
Geschäftig im Müßiggange, schienen sie an ihren Beruf und Zweck am wenigsten zu denken; über den poetischen Wert eines Stückes hörte er sie niemals reden und weder richtig
noch unrichtig darüber urteilen; es war immer nur die Frage: ‚Was wird das Stück machen?
Ist es ein Zugstück? Wie lange wird es spielen? Wie oft kann es wohl gegeben werden?‘
und was Fragen und Bemerkungen dieser Art mehr waren. (Goethe 1981, S. 59f.). Auch die
Kunst geht nach Brot, wie Goethe mit Lessing wusste. Der Streit um das rechte Verständnis
des Wertbegriffs dauert bis heute an.
„Wert“ – wir wissen es alle – ist ein vieldeutiger Begriff. Es gehört zu den Stärken der
Wirtschaftstheorie, dass sie diesem oszillierenden Wort eine klare, nämlich numerische
Fassung zu geben vermag. Ökonomische Werte (etwa die von Waren, Dienstleistungen,
Risiken, Gewinnen etc.) lassen sich quantifizieren. Preise sind die klare numerische Fassung von Werten. Das macht sie so faszinierend und zugleich so anfällig für kulturkritische
Einwände. Diese Konserve ist 49 Cent wert, diese Menge Trüffel 100 Euro. Dieser gepanschte Rotwein kostet 1,99 Euro, diese Flasche Chateau d‫ތ‬Yquem kostet 2.000 Euro. Die
Arbeit eines Chauffeurs ist 35.000 Euro per annum wert, die des Managers, den er kutschiert, 3,5 Millionen Euro. Dieses Bild von Max Ernst ist eine Million Dollar wert. Wenn
sich herausstellt, dass der Gutachter, der die Echtheit dieses Gemäldes zertifizierte und
dafür mit einer ansehnliche Summe ent- beziehungsweise belohnt wurde (im Fall der festzustellenden Nichtauthentizität des Gemäldes wäre auch das Gutachten nur einen Bruchteil
wert), danebenlag (selbstredend besten Gewissens, der höhere Wert eines positiven Gutachtens hat beim Diktum „Das ist ein echter Max Ernst“ gewiss keine Rolle gespielt), sinkt der
Wert des Gemäldes um circa 99 Prozent. Auch um ökonomische Werte ist es ersichtlich
seltsam bestellt. Dennoch: Sie lassen sich berechnen, sie lassen sich zählen.
Andere Werte nicht. Sie kann man nicht eigentlich berechnen und zählen, von ihnen
muss man erzählen. Wie großartig der Urlaub war – darüber gibt die Geldsumme, die er
gekostet hat, allenfalls unvollständig Auskunft, das kann man bestenfalls erzählen. Ein
romantisches Liebesabenteuer kann unendlich viel wertvoller sein als bezahlter Sex. Was
eigentlich lebens- und liebenswert ist, kann nicht mit einer Zahl ausgedrückt werden. So
will es die romantische Sicht, so will es Werther. Es gehört schon beeindruckende Kaltblütigkeit dazu, ihr zu widersprechen und sich dadurch dem Risiko auszusetzen, massiv Sympathien zu verlieren. Wissenschaft aber ist abstrakt, berechnend, kalt und kaltblütig, sonst
ist sie keine Wissenschaft. Und also besteht sie darauf, dass man auch den Wert eines Lebens oder einer Liebe berechnen kann. Risiko- und Kapitallebensversicherungen tun dies
am laufenden Band; und klare Brautpreise sind in den Sphären der Vormoderne, die doch
als romantischer gilt als die kalte Moderne, um von der coolen Spät- und Postmoderne zu
schweigen, verbreitet.
Zählen und erzählen sind – nicht nur etymologisch – nah verwandte Worte. Das heißt
aber auch, dass sie, wie bei nahen Verwandten nicht unüblich, in einem Spannungsverhältnis zueinander stehen. Beide bringen nur ein unvollständiges Verständnis für die Binnenlogik der anderen, der zählenden beziehungsweise erzählenden, Seite auf. Man kann Buchstaben und Worte zählen, hat damit aber nicht begriffen, was sie uns zu sagen haben. Und
98
Jochen Hörisch
man kann erzählend zu paraphrasieren versuchen, was eine Zahl über einen ökonomischen
Wert verrät, wird damit aber an der Börse wenig Erfolg haben, wenn man mit vielen anderen vor der Entscheidung kaufen oder verkaufen steht. Das Erzählen ist einfach zu zeitaufwendig und unpräzise, um wirklich wirtschaftstauglich zu sein. Was wiederum nicht ausschließt, dass eine gute Story über ein Start-up-Unternehmen dessen Börsenkurs erheblich
beflügeln kann.
Transökonomische und ökonomische Werte hängen zusammen, sie hätten sich viel zu erzählen beziehungsweise vorzurechnen und können doch nicht recht zusammenkommen.
Luhmanns Systemtheorie kann dieses Dilemma plausibel erklären. Selbstredend weiß auch
die Systemtheorie, dass alles mit allem zusammenhängt – aber sich eben deshalb in modernen, funktional ausdifferenzierten Subsystemen unterschiedliche Codes gegeneinander
immunisieren. Jedes dieser Subsysteme (wie Justiz, Wirtschaft, Religion, Wissenschaft
etc.) hat seine spezifische Leitunterscheidung (etwa Recht/Unrecht; zahlen/nicht-zahlen;
transzendent/immanent; wahr/falsch) und einen orientierenden positiven Leitwert (Gerechtigkeit, Gewinn, Transzendenz, Wahrheit). Was so abstrakt klingt, lässt sich handfest illustrieren. Natürlich kann ein Richter von der Schönheit der Angeklagten bezaubert sein. Er
darf ihr aber, wenn sie denn schuldig ist, nicht um ihrer Schönheit willen einen Strafnachlass gewähren oder sie gar freisprechen. Und natürlich kann der gutachtende Wissenschaftler bestechlich sein, er darf es aber nicht sein, und er wird mit Sicherheit nicht in sein Gutachten schreiben, dass er zum Schluss kommt, dieses Max-Ernst-Bild sei echt oder Atomkraftwerke seien unter allen Umständen sicher, weil ihm ein Galerist oder die AKWIndustrie eine extrem hohe Zuwendung für den Fall versprochen hat, dass er zu genau diesem Schluss kommt.
Dass es Codevermischungen bei erotisch affizierbaren Richtern, bestechlichen Gutachtern und in vielen weiteren Kontexten gibt, wird keiner bestreiten. Aber fast alle Bewohner
in korruptionsaversen modernen Gesellschaften werden sie verurteilen. Und doch auch
nicht. Denn gerade im Hinblick auf Werte wünschen sich viele aus nur allzu plausiblen
Gründen, dass sich außerökonomische Werte möglichst bruchlos und unbeschädigt in ökonomische Werte übersetzen lassen. Doch genau dies ist offenbar nicht der Fall. Das Wirtschafts- und Finanzsystem kann mit ethischen, religiösen, ökologischen, ästhetischen und
vielen weiteren Werten kaum etwas anfangen. Auf moralische Appelle („Beutet nicht
aus!“) reagiert es einigermaßen hilflos. Werte vor oder nach der Ökonomie liefern für das
Wirtschaftssystem keine distinkten Signale. Wirtschaft nimmt moralische Appelle, ethische
Werte, ökologische Bedenken oder religiöse Einsprüche zumeist nur als irritierendes Rauschen wahr. Am Sonntag darf man nicht arbeiten, also darf auch Geld am Sonntag nicht für
uns arbeiten und keine Zinsen abwerfen – was genau will die christliche Religion der Wirtschaft damit sagen, wie können Banken dafür sorgen, dass Zinsen nur von Montag bis
Samstag, nicht aber am Sonntag anfallen?
Es ist leicht, zu bedauern oder auch scharf zu kritisieren, dass das Wirtschaftssystem extrem unsensibel für höhere Werte ist. Man sollte sich aber vergegenwärtigen, dass Immunisierung gegen Werte aus anderen Systemen und Sphären kein exklusives Merkmal nur der
Wirtschaft ist. Auch Kunst kann wenig mit dem Appell anfangen „stelle alles wissenschaftlich richtig dar“ oder „mache nur Aussagen, die falsifizierbar sind“. Wissenschaft muss es
als Zumutung ablehnen, nur schöne und ästhetisch ansprechende Resultate zu liefern oder
gar selbst auf Schönheit statt auf Wahrheit zu setzen. Justiz muss gegenüber religiösen
Der Wert der Werte: Überlegungen im Ausgang von Goethes „Werther“
99
Werten indifferent sein, ja das Rechtssystem muss religiöse Wertansprüche ablehnen, wenn
es Recht sichern will, also Äußerungen wie „wir haben die Offenbarungswahrheit und der
hat sich dem Recht zu fügen“ verwerfen. Umgekehrt werden sich religiöse Menschen von
wertbasierten juristischen Hinweisen wie „die katholische Kirche sei eindeutig antidemokratisch verfasst und deshalb eigentlich verfassungswidrig“ nicht erfreuen lassen.
Kurzum: Werte aus anderen Systemen sind für das jeweilige System nur dann wirklich,
also funktional relevant, wenn sie in die eigenen Werte konvertierbar sind. Aufgeklärter,
gar atheistischer Spott über den Glauben an die Muttergottes wird Religion nicht erreichen,
ein Hinweis auf das Wort Jesu an seine Mutter Maria „Weib, was habe ich mit dir zu schaffen?“ (Joh. 2,4) lässt sich, da aus wertvollster neutestamentarischer Quelle stammend, hingegen nicht ignorieren. Die Kritik, ein Gerichtsurteil sei nicht so elegant formuliert wie eine
Passage aus einem Gedicht Goethes, erreicht das Rechtssystem nicht und erschüttert es
schon gar nicht; der Hinweis, es widerspreche diesem oder jenem Gesetzes-Paragraphen,
kann hingegen die Revision des Urteils erzwingen. Das Kompliment an einen Wissenschaftler, er schreibe elegant, ist nur dann nicht vergiftet, wenn dabei nicht die Botschaft
mitschwingt, die Eleganz ginge zu Lasten der spröden Wissenschaftlichkeit. Diese schlichte
Überlegung hat weitreichende Konsequenzen für das Verhältnis von ökonomischen und
außerökonomischen Werten. „Wirtschaftsethik“ – das klingt gut, das leuchtet ein, das muss
sein, zumal nach den Krisen und Skandalen der letzten Jahre. Aber Wirtschaftsethik ist eine
traurige Wissenschaft. Denn sie muss geradezu systematisch von Geschichten einer verfehlten Begegnung Rechenschaft geben. Wirtschaft und Ethik sind Königskinder, die nicht
recht zueinander kommen können. Und das nicht etwa deshalb, weil führende Wirtschaftssubjekte wie Unternehmer, Manager, Banker oder PR-Leute stets signifikant schlechtere
Menschen wären als ihre Mitarbeiter oder als Beamte und Bauern und Bischöfe oder Leiter
eines volkseigenen Betriebes oder einer Odenwaldschule.
Dennoch gilt, dass Wirtschaft als besonders moralferne Sphäre wahrgenommen wird. Zwar
müssen sich auch Kirchen und Reformschulen, Kunst und Politik, Wissenschaft und Sport
ethisch-moralisch begründete Einsprüche gefallen lassen. Aber die sind meist nicht system-,
sondern personenbezogen: Dieser Bischof hat Kinder geprügelt und das dann systematisch
geleugnet, dieser Schulleiter hat Kinder missbraucht, dieser Künstler hat sich mit einem Diktator gemein gemacht, dieser Politiker, Wissenschaftler oder Schiedsrichter war korrupt. Natürlich gilt das – in den letzten Jahren verstärkt – auch für Führungsfiguren der Wirtschaftsund Bankensphäre: Dieser Manager hat nach der von ihm zu verantwortenden Pleite eine
Riesenabfindung erhalten, jener Banker hat seinen Kunden Schrottpapiere angedreht. Dennoch bleibt die Differenz: Die Wirtschafts- und Finanzsphäre gilt unabhängig vom Verhalten einzelner Personen als amoralisch. Für den Fußballfan bleibt Fußball die schönste Nebensache der Welt, auch wenn sich herausstellt, dass mehrere Schiedsrichter Spiele manipuliert haben und es noch edlere Charaktere gibt als den Präsidenten des Deutschen Fußballbundes. Und Kunst und Kultur bleiben ein hoher Wert, auch wenn mehr als nur ein
Künstler einen sittlich verwerflichen Lebenswandel pflegt. Das Wirtschaftssystem aber
wird von vielen unabhängig vom Fehlverhalten Einzelner als moralfern wahrgenommen.
So erstaunlich ist das nicht. Denn diese Wahrnehmung ist gerechtfertigt. Moderne Wirtschaft ist offensiv moralfern. Ob vormoderne Wirtschaftsformen, die zum Beispiel auf
Sklaverei, Leibeigenschaft, Lehnswesen, Anerbrecht oder Zunftwesen beruhende Formen
des Wirtschaftens in moralisch-ethischer Hinsicht überzeugender waren, sei in diesem
100
Jochen Hörisch
Kontext dahingestellt – sie taten aber und verstanden sich selbst wohl so, als entsprächen
sie Gottes Willen oder der natürlich-moralischen Ordnung der Dinge. Hochgradig aufschlussreich ist es deshalb, dass sich moderne Marktökonomie von vormoderner Wirtschaft
auch dadurch unterscheidet, dass sie anders als diese gar nicht erst den Anspruch erhebt,
hohen moralischen Maßstäben oder gar Tugendidealen zu entsprechen. Spätestens mit
Mandevilles Fable of the bees (1705) und Adam Smiths The Wealth of Nations (1774) ist
die Mainstream-Selbstbeschreibung des Wirtschaftssystems von (moralisch beeindruckender!) Offenheit: Der Bäcker, Schuster, Maurer, Banker schert sich nicht um Moral und
Tugend, wenn er Brötchen backt, Schuhe herstellt, ein Haus baut oder Geld verleiht; er
handelt nicht aus Nächstenliebe, sondern aus Eigennutz. Und das ist auch gut so. Denn die
Entkoppelung des Wirtschaftens von den Anforderungen des tradierten Tugendkataloges
setzt eine ungeheure Produktivität frei. Und so gilt: Privat vices become public benefits (um
den schnell berühmt beziehungsweise berühmt-berüchtigt gewordenen Untertitel der von
Mandevilles Bienenfabel zu zitieren). Es zahlt sich nicht für alle, aber doch für viele, ja für
die meisten aus, wenn das System Wirtschaft die Imperative von Tugend, Moral, Ethik und
Religion ignoriert oder nicht einmal ignoriert. Nicht alle sagen das so klar und deutlich, so
kaltblütig und rücksichtslos wie Milton Friedman in seinem berüchtigten Essay im New
York Times Magazine vom 13.9.1970 über die Verantwortung der Wirtschaft fürs große
Ganze: „The social responsibility of business is to increase its profits.“ Ein Vergleich zwischen einer staatssozialistischen Planwirtschaft einerseits, die sich an sympathischen Werten und tugendhaften Geboten wie Gleichheit, Solidarität, Gerechtigkeit und Ausbeutungsverbot orientiert, und einem Kapitalismus andererseits, der Eigennutz, Profitgier und Ausblendung des Allgemeinwohls zulässt, fällt eindeutig aus. Die Sowjetunion und die USA,
die DDR und die BRD, Nord- und Südkorea, China zur Zeit von Mao und in der Zeit nach
Mao: Zugunsten einer moralischen Steuerung von Wirtschaftsprozessen fallen diese Vergleiche nicht aus. Amoralität zahlt sich ökonomisch aus.
Nun ist dieses Resultat schwer zu ertragen. Und dies aus vielfältigen Gründen. Um nur
die drei wichtigsten zu nennen: Erstens ist die Kritikbedürftigkeit auch der siegreichen
Seite im Vergleich moralfreier Kapitalismus versus moralgesteuerter Staatssozialismus
unbestreitbar. Kapitalistische Marktwirtschaft funktioniert besser als moralgesteuerte
Kommandowirtschaft, aber ersichtlich nicht rundum gut. Arbeitslosigkeit, Inflation, Bankenkrisen, ökologische Verwerfungen, Kollaps der sozialen Sicherungssysteme, extreme
Einkommens- und Vermögensdifferenzen, psychische Verelendung und viele weitere
Stichworte mehr zeigen die Grenzen moralfreien Wirtschaftens an. Zweitens: Auch wer
gute Gründe zu haben glaubt, eine Entkoppelung zwischen dem Wirtschafts- und Finanzsystem und dem Code der Moral für geboten, weil produktiv zu halten, wird zur Kenntnis
nehmen müssen, dass nicht alle auf der Höhe seiner Einsichten sind und sich weiterhin auf
der Grundlage des fast allseits beliebten Moralcodes verständigen – also gierige Manager,
zynische Unternehmer und Banker mit Casinomentalität „böse“ finden. Im gar nicht so
seltenen Extremfall gibt es dann Revolten und Revolutionen aller Art. Und die sind in aller
Regel teuer; sie kennen systematisch mehr Verlierer als Sieger. Drittens: Moralität ins moralferne Wirtschafts- und Finanzsystem einzubinden, lohnt sich, weil es sich rechnet – so
ein verbreitetes, wenn nicht das beliebteste Argument von Wirtschaftsethikern. Weil die
meisten Leute nun einmal nicht anders können, als die Welt unter moralischen Kategorien
wahrzunehmen, hat es üble ökonomische Konsequenzen für eine auf das Vertrauen ihrer
Kunden angewiesene Versicherung, wenn sie mit einem Großbordell verwechselbar wird,
Der Wert der Werte: Überlegungen im Ausgang von Goethes „Werther“
101
oder für ein Unternehmen, wenn sich herumspricht, dass ihre Produkte aus Profitgier unsicher und für ihre Nutzer bedrohlich sind.
Gerade der letztgenannte Aspekt zeigt die Ambivalenzen im Verhältnis von moralischen
und wirtschaftlichen Werten an. Moral fungiert hier eben nicht als hierarchiehöchster Supercode, sondern als ein ökonomierelevanter Wert unter anderen – wie etwa Material-,
Transport- und Lohnkosten, gutes Design oder raffinierte PR. Dafür aber funktioniert das
Rendezvous zwischen moralischen und ökonomischen Werten in diesem Fall einigermaßen. Und dies einfach deshalb, weil sich der Wert der Werte, nämlich der ökonomische
Wert moralischer Werte berechnen und in Preisen auszählen lässt. Kosten und Preise aber
sind – anders als rein moralische, religiöse, ästhetische oder kulturelle Wertappelle – Signale, die das Wirtschaftssystem versteht, sogar glänzend versteht. Was nichts anderes heißt als
dies: Ethik als Reflexionssystem der Moral muss eben die Moral belehren, sich auf das
moralferne bis von Moral entkoppelte Wirtschaften einzulassen. Konkret: Umweltschutz ist
ein hoher Wert, gerade deshalb müssen Verschmutzungsrechte an internationalen Börsen
gehandelt werden. Korruption ist moralisch verwerflich, aber in der Wirtschaftssphäre
verbreitet; deshalb muss das Wirtschaftssystem lernen, die Korruption zu korrumpieren.
Ausbeutung steht nicht als hoher Wert im Tugendkatalog, deshalb muss Wirtschaft lernen,
sie zu hegen, weil es sonst nicht hinreichend viele kaufkräftigen Konsumenten gibt. Kurzum: Nichts ist für Moral verheerender als Kontaktverbot mit dem Bösen. Unterhalb des
Niveaus von „sympathy for the devil“ ist produktives Wirtschaften nicht zu haben. Das
weiß Goethe, wenn er Mephisto die goldenen beziehungsweise dunkel leuchtenden Worte
sprechen lässt, er sei ein Teil von jener Kraft, die stets das Böse will und (deshalb!) stets
das Gute schafft. Der Speer nur heilt die Wunde, der sie schlug.
Literatur
Goethe, Johann Wolfgang von
1981: Wilhelm Meisters Lehrjahre, in: Goethe: Werke, Hamburger Ausgabe Bd. 7, München
1985: Hanswursts Hochzeit oder der Lauf der Welt – Ein mikrokosmisches Drama, in: Goethe: Sämtliche
Werke (Frankfurter Ausgabe) 40 Bände, Abt. I/Band 4, hg. v. Dieter Borchmeyer, Frankfurt am Main
Fritz Gutbrodt
1995: The Worth of Werther – Goethe's Literary Marketing; in: MLN – Volume 110, Number 3 (1995),
S. 579–630
Mit freundlicher Genehmigung des Autors für den Zweitabdruck, früher erschienen in:
Annette Kehnel (Hrsg): Erfolg und Werte: Wirtschaft und Kultur im Gespräch – Band 3,
Frankfurt/Main 2011, S. 179-192. Weitere Veröffentlichung in: Hörisch, Jochen, ,Man
muss dran glauben – Die Theologie der Märkte‘ (Fink Verlag München), 2013.
Airport Facility Management –
im Spannungsfeld zwischen Aufgabenkomplexität und
Effizienzanspruch
Guido Kaupe, Eva Engel
1
Struktureller Wandel im Airport-Business
Das Airport Business in Europa erlebt aktuell einen Veränderungsprozess, der maßgeblich
durch zwei Haupteinflussfaktoren voran getrieben wird. Einerseits befindet sich Europa
noch immer in einer wirtschaftlich schwierigen Situation, andererseits erleben europäische
Flag-Carrier (klassische Linien-Airlines) verstärkt Konkurrenz von außereuropäischen
Airlines auf interkontinentalen, so genannten Interkont-Strecken.
Die schwächelnde Weltwirtschaft, aber vor allem auch die europäische Finanz- und Wirtschaftskrise führen zu einer sich abkühlenden Wirtschaftstätigkeit innerhalb Europas und
zwischen den Kontinenten. Diese schwächelnde Wirtschaft spiegelt sich aufgrund stagnierender oder auch in Teilen zurück gehender internationaler Warenströme auch in der Luftfahrtindustrie wider und führt infolge dessen zu stagnierenden oder negativen Fracht- und
Passagierentwicklungen.
Neben den bereits seit längerer Zeit etablierten Low Cost-Carriern entsteht ein zusätzlicher Preisdruck, der insbesondere im europäischen Bereich die Margen für Ticketpreise
sinken lässt. Darüber hinaus verschärft sich diese Situation aber auch durch einen steigenden Wettbewerb auf den sogenannten Interkont-Strecken. Diese Strecken von Europa nach
Amerika oder Fernost waren bisher die margenstärksten und damit lukrativsten Ziele der
etablierten europäischen Airlines (wie z.B. Deutsche Lufthansa, Air France/KLM, British
Airways). Geringe Margen auf innereuropäischen Strecken wurden durch diese hochmargigen Interkont-Strecken kompensiert. Seit einigen Jahren expandieren v.a. Airlines aus
der Golfregion (wie z.B. Etihad oder Emirates) extrem und bieten vermehrt auf den
Interkont-Strecken Flugreisen an, die bisher nahezu ausschließlich von den Home-Carriern
angeboten wurden.
Die Reaktion der Deutschen Lufthansa auf den verstärkten Konkurrenzdruck sind sogenannte Cost-Cutting-Projekte. Im Jahr 2012 hat die Deutsche Lufthansa das Projekt „SCORE“ gestartet, mit dessen Hilfe wegbrechende Erlöseinnahmen durch Ausgabenreduzierungen auf der Aufwandsseite kompensiert werden sollen.1 Die Fraport AG, als Flughafenbe1
Vgl. Deutsche Lufthansa: Geschäftsbericht 2011, S. 11.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_9,
© Springer Fachmedien Wiesbaden 2013
104
Guido Kaupe, Eva Engel
treiber und Infrastrukturdienstleister, kann auf diese wirtschaftlichen Entwicklungen weniger flexibel reagieren, da sich der Hauptkostenblock aus fixen Kosten zusammensetzt. Ein
klassisches Phänomen großer Infrastrukturanbieter. Gerade aus diesem Grund ist es wichtig, die Effizienz und Effektivität der Leistungserbringung in jedem einzelnen Geschäftsund Servicebereich immer wieder zu hinterfragen. Vor diesem Hintergrund versucht der
vorliegende Artikel, sich mit der Aufgabenkomplexität und dem Effizienzanspruch im
Airport Facility Management auseinanderzusetzen. Ziel ist es, eine Steuerungsebene zu
definieren, die die effiziente Ausrichtung in Bezug auf wirtschaftliche und strategische Fragestellungen unterstützt.
Die primären, direkt am Markt tätigen Serviceeinheiten des Flughafenbetreibers, wie z.
Bsp. das Groundhandling sehen sich bereits seit mehreren Jahren dem zunehmenden Kostendruck des Marktes, nicht zuletzt durch die Marktöffnungsbestrebungen der EU, ausgesetzt. Diese Entwicklung ging an den internen, sekundären Serviceeinheiten des Flughafens
bisher vorbei.
Lag der Fokus in der Vergangenheit innerhalb dieser Serviceeinheiten primär auf einer
aufbauorganisatorischen Steuerung, so ist nun eine wirtschaftliche und strategische Detailsteuerung auf Produktebene von Nöten. Bei einer hochkomplexen Wirtschaftseinheit wie
der eines Flughafens und eines hochkomplexen Wirtschaftsstandorts wie der eines internationalen Hubflughafens ist die Herausforderung, somit weder im Detail zu versinken und
enorme Aufwände für das Controlling zu produzieren noch die Entscheidungsebenen so
global zu steuern, dass den operativen Belangen eines internationalen Hubs mit entsprechenden hohen prozessualen Qualitätsansprüchen unter Umständen nicht entsprechend
Rechnung getragen wird.
Die bisherige Strategie bestand darin, alle an den Facility Management Dienstleister
gestellten Aufgaben und Anforderungen zu realisieren, getreu nach dem Motto, der Kunde
bestellt, der Servicedienstleister liefert. Sämtliche unternehmensinternen Dienstleistungen
wurden so erbracht, dass alle Anforderungen entsprechend der gesetzlichen Anforderungen,
aber vor allem gemäß der Kundenwünsche bestmöglich erfüllt wurden. Hieraus resultierten
permanent steigende operative Aufwendungen. Die tiefgreifenden Veränderungen im
externen Umfeld führen nun dazu, daß dieser Ansatz grundsätzlich überdacht und überarbeitet werden muß.
2
Implikationen des Airport Facility Management
2.1 Tätigkeitsbezogene Implikationen
Facility Management (FM) bezeichnet die Verwaltung und Bewirtschaftung von Gebäuden,
Anlagen und Einrichtungen. Gebäude, Liegenschaften und betriebliche Abläufe werden im
FM dabei ganzheitlich, d.h. über den gesamten Lebenszyklus der Immobilie betrachtet.2
DIN 15221-1 definiert die Prozesse des Facility Management als solche, die zur
2
Zur Abgrenzung der Begrifflichkeiten Facility Management und Property Management vgl. Bogenstätter,
Ulrich: Property Management und Facility Management, Oldenbourg Wissenschaftsverlag GmbH, 2008,
S. 2ff.
Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch
105
Unterstützung und Verbesserung der Effektivität der Hauptaktivität der Organisation dienen
und somit klassische sekundäre Serviceprozesse darstellen3. Das Ziel einer koordinierten
Abwicklung der Facility Management Prozesse ist es, die Betriebs- und Bewirtschaftungskosten dauerhaft zu senken, Fixkosten zu flexibilisieren, die technische Verfügbarkeit der Anlagen zu sichern, sowie den Wert von Gebäuden und Anlagen langfristig
zu erhalten.
Die Anforderungen an einen modernen Facility Manager haben sich zu dem in der nahen
Vergangenheit fundamental geändert und den klassischen Gebäudebetreiber zu einem
professionellen Facility Management-Dienstleister weiterentwickelt. Die Schlagworte
seiner Tätigkeit heißen Kundenorientierung, Effizienz, Wirtschaftlichkeit und Ressourcenschonung.
Neben Kundenorientierung im Sinne einer transparenten Leistungserbringung und dem
Vorhalten eines zentralen Ansprechpartners für das gesamte Dienstleistungsspektrum
müssen die Prozesse eines modernen Facility Managers auch dem Postulat der Effizienz
und der Wirtschaftlichkeit genügen. In der Forderung nach einer Ressourcenschonung
wird erwartet, dass die Immobilien oder die Anlagen die Nachhaltigkeitsziele des
Unternehmens erfüllen.
Der operative Aufwand des Airport Facility Managers stellt in den leistungsempfangenden Bereichen eine nicht unerhebliche Kostenposition dar. Aus diesem Grund lässt sich
zusammenfassend sagen, dass die Verwaltung und Bewirtschaftung von Gebäuden,
Anlagen und Einrichtungen eines börsennotierten und damit wirtschaftlich agierenden
Unternehmens stets das Ziel der kostenoptimierten Leistungserbingung zu verfolgen hat. Im
Zuge dieser wirtschaftlichen Leistungserbringung müssen jedoch flughafenspezifische und
extern-induzierte Implikationen Berücksichtigung finden.
2.2 Airport-spezifische und extern induzierte Implikationen
Flughafen-spezifische Implikationen lassen sich aus den grundlegenden Anforderungen
eines internationalen Luftverkehrsdrehkreuzes ableiten. Der Flughafen Frankfurt nimmt
mit 57,5 Mio. Passagieren Platz 3 der passagierstärksten Flughäfen Europas ein. Er hat mit
einem Umsteigeranteil von 55% den höchsten Anteil an Transferpassagieren aller
europäischen Flughäfen. Im Sommerflugplan 2013 fliegen 107 Fluggesellschaften von
Frankfurt aus 295 Ziele in 107 Ländern an.4
Oberstes Ziel des Airport Facility Managers ist es deshalb, die Funktionsfähigkeit des
Flughafens möglichst störungsfrei aufrecht zu erhalten. Treten flug- und passagierbeeinflussende Störfälle auf, dann ist es die Aufgabe des Servicebereichs, diese Probleme möglichst ad hoc und ohne zeitliche Verzögerungen zu beseitigen. Diese Anforderung ist umso
wichtiger, je näher das Problem am Passagierprozess liegt und je mehr eine Hochverfügbarkeit von Dienst- und/oder Unterstützungsleistungen gefordert wird. Längerfristige Verzögerungen können zu erheblichen Regressforderungen seitens der Airlines und/oder der
3
DIN EN 15221-1 Facility Management – Teil 1 Begriffe; Deutsche Fassung EN 15221-1:2006, S. 5.
4
Fraport AG: Zahlen, Daten, Fakten 2013.
106
Guido Kaupe, Eva Engel
betroffenen Passagiere führen. Der Airport Facility Manager muss vor diesem Hintergrund
den kontinuierlichen Betrieb von Anlagen mit Hochverfügbarkeitsstatus gewährleisten.
Neben den Anforderungen an die Hochverfügbarkeit einzelner Anlagen liegt die Kernkompetenz des Airport Facility Managers in der Instandhaltung flughafenspezifischer Immobilien und/oder Anlagen. Hierzu ist ein Spezial-Know-how erforderlich, welches sich
klassischen Facility Managern entzieht. Dieses Spezial-Know-how wird beispielsweise für
die Instandhaltung von Fluggastbrücken, Landebahnbefeuerungen, Spezialimmobilien (z.B.
Tower der Deutschen Flugsicherung) oder Spezialfahrzeugen (z.B. Flugzeugschlepper)
benötigt. Dieses spezielle, flughafen-spezifische Know-how kann als Alleinstellungsmerkmal innerhalb Deutschlands beschrieben werden, da die Anlagen und Prozesse in dieser
Größe und Komplexität in ihrer Gesamtheit mit keinem anderen deutschen Flughafen verglichen werden können. Zum Teil sind diese technischen Anlagen in ihrer Anzahlhäufung,
Komplexität und Dimensionierung selbst einzigartig in Europa.
Zur Darstellung des Aufgabenspektrums eines Airport Facility Managers ist es hilfreich, einen Auszug der am Flughafen Frankfurt/Main zu bewirtschaftenden Immobilien,
Flächen und Anlagen aufzuzeigen:
•
•
•
•
•
•
•
•
•
•
•
1.625 ha Gesamtfläche des Flughafens,
6,7 km² Vorfeldfläche,
428 Gebäude sowie 2 Terminals mit über 2,4 Mio. m² Bruttogeschoßfläche (BGF),
1.427 Sanitärräume,
allein 450.000 Leuchten im Terminal 1,
150 km Fahrstraßen,
9,4 Mio. m² Grünflächen,
16.000 Fahrzeuge und Spezialgeräte
70.000 gebäudetechnische Anlagen
ca. 1.400 km Kabelnetz
Passagier-Transport-System etc.
Der FM-Bereich der Fraport AG erbringt dabei ein sehr breites und heterogenes
Leistungsspektrum. Das technische Gebäudemanagement der Terminals und Service
&Verwaltungsgebäude erbringt dabei alle technischen Serviceleistungen (Betreiber), ist
verantwortlich für die Störungsbeseitigung, das Management der technischen Anlagen
(Betrieb & Instandhaltung), die Sicherstellung des Betriebs und der Verfügbarkeit aller
technischen Anlagen. Der Bereich trägt die Gesamtverantwortung für die technische
Sicherheit und für die Technikräume auch für die Verkehrssicherungspflicht, ebenso wie
für die Optimierung des Gebäudebetriebs. In den Standortdienstleistungen sind die
Bereiche Materialwirtschaft, Postdienste, Tankdienste, Fahrdienst, Car-Pool und Airport
Print Center gebündelt. Die Einheit des technischen Anlagenmanagement umfasst die Bereiche Airfieldtechnik, Anlagentechnik, Passagier-Transport-Systeme, sowie der Serviceleistungen Flächenreinigungs- und Grünflächenmanagement und Winterdienst. Die
Gebäudereinigung und das Technische Management Center sind noch einmal einem
gesonderten Bereich zugeordnet. Der Betrieb der Fahrzeugwerkstätten wird durch den
Bereich der Fahrzeugtechnik sichergestellt. Der sich auch um das Wartungsmanagement,
die Instandsetzung, Umbauten, sowie die technische Fahrzeugbeschaffung, Fahrzeugdokumentation, und um Garantie- und Kulanzarbeiten kümmert.
Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch
107
Übergreifend nimmt der Bereich Airport Facility Management innerhalb der Fraport AG
die Betreiberverantwortung für die Gebäude, Anlagen und Einrichtungen des Unternehmens wahr.5 „Der Airport Facility Manager steht in der unternehmensweiten Organisationsverantwortung für den technischen und baulichen Betrieb.“ 6
Der FM-Bereich der Fraport AG umfasst damit rund 1.000 Mitarbeiter und verursacht einen
operativen Aufwand von ca. 200 Mio. EUR p.a. Aus diesen Zahlen und auf Basis der
beschriebenen Implikationen ist ersichtlich, welche Komplexität dieser Bereich besitzt und
welche Anforderungen diese Komplexität an die Struktur der Steuerungsinstrumente stellt.
Wie beschrieben gibt es hier unterschiedliche Anforderungen seitens des Betriebs und der
kaufmännischen Steuerung.
3
Produktspezifische Differenzierung von Facility-ManagementLeistungen
3.1 Anforderungen an die Produktstruktur
Für eine wirksame Steuerung der Effizienz eines Facility-Managements-Dienstleisters
müssen neben den betrieblichen Steuerungsaspekten, die auch den Vorgaben der Wahrnehmung der Betreiberverantwortung genügen müssen, zusätzliche wirtschaftliche und
strategische Aspekte berücksichtigt werden. Neben den beschriebenen Anforderungen an
die Leistungen des Airport Facility Managers in Bezug auf die Sicherstellung eines kontinuierlichen Betriebs hochverfügbarer Anlagen gibt es weitere, extern induzierte Anforderungen. Für den Betrieb von Gebäuden und komplexen Anlagen müssen gesetzliche Anforderungen, Anforderungen der Hersteller, sowie der Stand der Technik berücksichtigt werden. Diese umfangreichen gesetzlichen Rahmenbedingungen sind bei der Wahrnehmung
der sogenannten Betreiberverantwortung zu berücksichtigen.
Für die konkrete betriebliche Steuerung heißt das, daß der Betrieb an einer Produktstruktur interessiert ist, die eine betriebliche Steuerung der Prozesse ermöglicht und darüber
hinaus auch eine Dokumentation der durchgeführten Tätigkeiten sicher stellt. Bei der
Fraport AG sind dazu aktuell rund 3.900 Produkte/Materialstämme definiert und
systemtechnisch abgebildet (SAP-PM). Diese dienen auch als Basis für die Mitarbeiterdispositon und mittels der Rückmeldung der durch die Mitarbeiter mitgeführten mobilen
Geräten (Handhelds) erfolgt eine direkte systemische Dokumentation auf Produktebene.
Für eine wirtschaftliche Steuerung im Sinne eines wirksamen FM-Controllings ist die
betriebliche Produktwelt mit seinen 3.900 Produkten jedoch zu kleinteilig und nicht
zielführend.
Im Rahmen der wirtschaftlichen Steuerung wird im Facility Management am Flughafen
zwischen zwei grundlegenden Tätigkeiten unterschieden:
5
Für einen Überblick über gesetzliche Anforderungen der Anlagensicherheit sowie dem Erfordernis der
Nachweisführung vgl. die Ausführungen von Hanke, Bernd: Controlling der Facility ManagementAnforderungen, in: Schrammel, Florian et al.: Facility Management – Recht und Organisation, Werner
Verlag 2013, S. 159-205.
6
Mai, Herbert; Schneider, Christoph: Betreiberrichtlinie der Fraport AG, Stand: 01.01.2013, S. 10.
108
Guido Kaupe, Eva Engel
• Instandhalten und Betreiben von Gebäuden, Anlagen und Infrastruktur
• Services (Dienstleistungen)
Die Tätigkeiten haben unterschiedliche Steuerungsaspekte und Kostentreiber. Instandhaltungsprozesse gliedern sich in zwei Teilbereiche, die regelmäßige Instandhaltung (RIH)
mit den Tätigkeiten Bedienen, Inspizieren und Warten, welche auf Maßnahmenebene planbar sind und die unregelmäßige Instandhaltung (UIH) mit den Tätigkeiten Entstören und
Instandsetzen, welche zwar in Summe in Form eines Budgets planbar sind, aber dafür nicht
auf Maßnahmenebene. Die RIH wird primär durch sogenannte Muss-Vorgaben bestimmt,
welche durch gesetzliche Vorgaben, behördliche Auflagen, herstellerbedingte Vorgaben
und dem Stand der Technik bedingt sind, um die Betriebssicherheit des Gebäudes oder
einer Anlage zu gewährleisten und damit überhaupt die Nutzbarkeit herzustellen. Unter
unregelmäßiger Instandhaltung versteht man reaktive Instandhaltung, welche Störungen
und Schäden behebt.
Auf der anderen Seite steht das Tätigkeitsfeld der Serviceerbringung, welches primär
kundengetrieben ist, d.h. diesbezüglich ist nur eine Nachfragesteuerung möglich. Je mehr
Menge nachgefragt wird, je schneller die gewünschten Reaktions- und Bearbeitungszeiten
sind, desto mehr Aufwand und somit Kosten entstehen. Für ein wirksames Kostencontrolling ist es daher unerlässlich, diese Unterschiede im Steuerungsaspekt zu berücksichtigen.
Benötigt wird dafür allerdings eine Ebene, die aggregiert genug ist zum Steuern und differenziert genug ist, um den Produktverantwortlichen entsprechend sinnvolle Steuerungshinweise geben zu können.
Zusätzlich ist es nötig, neben einer reinen Kosten- und Mengenbetrachtung (Anzahl Anlagen, Quadratmeter der betreuten Fläche) die Korrelation der beiden Größen zueinander
im Blick zu haben, um bei gleichzeitigen Schwankungen beider Größen stets auch eine
Indikation der nachhaltigen Effizienz zu erfassen. Dies ist generell über eine Kennzahlenbetrachtung in Form eines Kosten/Mengen-Durchschnitts oder eines eingesetztes Personal/Mengen-Durchschnitts möglich.
Neben der betrieblichen Dokumentationspflicht im Rahmen der Betreiberverantwortung
und den klassischen Dokumentationspflichten im Rahmen der ordnungsgemäßen Buchführung, bedürfen behördenabrechnungsrelevante Sachverhalte einer gesonderten Dokumentation (Kalkulationsdokumentation) im Facility Management am Flughafen. Dies kommt
insbesondere im Rahmen der Nebenkostenabrechnung zur Geltung, wovon die regelmäßige
Instandhaltung des Facility Management einen Teilkostenblock darstellt. Die Kostenentlastung der Instandhaltungsaufträge erfolgt dabei direkt auf die Gebäudekostenstelle. Bei über
400 betreuten Gebäuden auf dem Flughafen-Campus, ist diese Zahlenbasis jedoch für ein
übergreifendes FM-Controlling ebenfalls zu differenziert, zumal damit nur ca. 50% des
operativen Aufwands des Facility Managements des Flughafens betrachtet wären.
3.2 Produktclusterstruktur zur Ableitung strategischer Entscheidungen
Fremdvergabe oder Oursourcing ermöglicht es grundsätzlich in vielen Bereichen die
Betriebskosten zu reduzieren, Fixkosten zu flexibilisieren, sowie den Bereich auf sein
Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch
109
Kerngeschäft auszurichten7. Der Bezug von Teilen, Teilbereichen oder ganzen Gewerken in
Fremdleistung ist weitverbreitet im Facility Management und hängt davon ab, welche
strategische Ausrichtung im Unternehmen dazu vorherrscht. Von intelligenter Ausrichtung
der Fremdvergabe8 bzw. des Outsourcings spricht man dabei, wenn die Fremdvergabe
dem Unternehmen hilft sich auf seine Kernkompetenzen zu fokusieren und diese nicht
wahllos erfolgt und nachhaltig bei gleicher Qualität Kosten reduziert.
In Bezug auf die Betreiberverantwortung muss bei Outsourcings oder der Fremdvergabe
zwingend beachtet werden, dass eine wirksame Delegation stattgefunden hat, da ansonsten
die Problematik bestehen kann, dass sämtliche Pflichten beim ursprünglich Verantwortlichen verbleiben. Auch die Prozesskosten in Bezug auf Kontrolle, Bündelung der internen
Anforderungen, intern vorzuhaltendes Fachwissen zur fachlichen und sachlichen Kontrolle
der Fremdleistung und Reibungsverluste, die sich aus einer Fremdvergabe ergeben sollten,
tunlichst mit berücksichtigt werden, um einen tatsächlichen Einspareffekt zu erreichen.
Um diese Ziele zu erreichen, bedarf es einer entsprechenden Detaillierung, aber gleichzeitig einer Verdichtung von Aufgaben und Tätigkeiten, die zum einen eine strategische
Bewertung zulassen und zum anderen mit marktähnlichen Produkten oder Produktgruppen
vergleichbar sind, um Benchmarks zu ermöglichen. Nicht zuletzt muss die gewählte Struktur mit Hilfe einfacherer Anpassungen auf mehreren Unternehmensebenen kommunizierbar
sein.
4
Controllinginstrumente im Airport Facility Management
4.1 Verdichtung der operativen Detailebene
Auch wenn die betriebliche Produktstruktur in ihrer Filigranität eine essentielle
Voraussetzung zur Sicherstellung der wahr genommenen Betreiberverantwortung ist, so ist
diese Detailtiefe aus Sicht einer kaufmännischen Steuerung nicht sinnvoll. Der extrem hohe
Detaillierungsgrad ist für eine Produktionsplanung und -steuerung hilfreich, verhindert
jedoch den Blick auf eine übergeordnete Steuerung des Bereichs. Strategische Entscheidungen auf der untersten Produktionsebene zu treffen, ist deshalb nicht zielführend.
Andererseits liefert eine Steuerung auf Basis aufbauorganisatorischer Strukturen keine
Erkenntnisse darüber, wie effizient einzelne Produktbereiche arbeiten. Aus diesem Grund
ist es hilfreich, eine Produktstruktur zu definieren, auf deren Basis strategische Entscheidungen vorbereitet werden können und andererseits sich die wirtschaftliche Effizienz
beurteilen lässt. Diese Vorgehensweise setzt auch eine geänderte Philosophie im Selbstverständnis des Servicebereichs voraus.
Die Produktebene liefert, wie beschrieben, den erforderlichen Detaillierungsgrad zur
Kalkulation von Produkten und Dienstleistungen auf SLA- und SAP-Ebene sowie zur
7
Vgl. Gruber, Xaver F: Fremdleistungscontrolling in der Instandhaltung in: Biedermann, Hubert (Hrsg.):
Instandhaltungscontrolling und Budgetierung im Wandel: Planung, Kontrolle und Koordination der Instandhaltung, 2005, S. 184.
8
Vgl. Kalaitzis, Dimitrios: Instandhaltungscontrolling, S. 105.
110
Guido Kaupe, Eva Engel
Darstellung der operativen Steuerung auf Auftragsebene (SAP-PM). Die Produktebene
dient ebenso zur Durchführung produktspezifischer Benchmarks. Für eine kaufmännische
Steuerung (SAP-FI/AA, SAP-CO) ist jedoch eine aggregiertere Ebene erforderlich.
Für strategische Managemententscheidungen ist es daher nötig, Dienstleistungen und
Tätigkeiten in Produktclustern zu bündeln und zu verdichten, um eine Produktivitäts- und
Kostenbewertung vornehmen zu können und daraus Make-or-Buy Entscheidungen ableiten
zu können, bzw. eine managementorientierte Steuerung oberhalb der operativen Ebene
einführen zu können. Die Verdichtung erleichtert auch die Kommunikation an das TopManagement, insbesondere zu den Fragen: „Was macht ihr, wie macht ihr es, in welcher
Qualität und wie/was kann man da(s) steuern?“. Zu diesem Zweck erfolgt die Einführung
einer produkt(cluster)orientierten Steuerung. Der erste Schritt ist dabei die Verdichtung der
Produkte zu Produktclustern und der zweite Schritt der Aufbau eines produkt(cluster)orientierten Kennzahlenreportings.
Bei der Definition von Produktclustern werden zur einfachen Umsetzung die folgenden
Aspekte berücksichtigt: Die Clusterung leitet sich aus der vorhandenen aufbau-organisatorischen Struktur ab. Die Cluster sind homogen, überschneidungsfrei und in sich geschlossen.
Jedes Cluster kann einer Organisationseinheit, sowie einem Abteilungsleiter eindeutig
zugeordnet werden. Kostenstellen können eindeutig Clustern zugeordnet werden, sei es in
einer 1:1- oder n:1-Beziehung.
4.2 Instrumente zur wirtschaftlichen Steuerung
Für eine Beurteilung der Wirtschaftlichkeit und zur wirksamen Steuerung ist es erforderlich, alle Aspekte die auf ein Produktcluster wirken darzustellen und zu berücksichtigen.
Ein Produktcluster-Reporting hat dabei das Ziel, zum einen den Zusammenhang
zwischen Steuerung und Qualität transparent darzustellen, und zum anderen einen
Überblick über alle wesentlichen Einflussfaktoren auf den operativen Aufwand des Clusters
zu liefern. Zusätzlich ist es sinnvoll, wenn das Reporting eine Darstellung der Verteilung
von Eigen- zu Fremdleistung je Cluster beinhaltet, um zu erkennen, in welchem Rahmen
bereits eine externe Beschaffung stattfindet bzw. welche Komponenten das jeweilige
Cluster wie beeinflussen.
Eine kennzahlenorientierte Produktclusterung ist insbesondere im Rahmen der jährlichen
Planung hilfreich, um bei Mengen- und Aufwandsänderungen eine effektive Steuerung mit
Hilfe von Vergleichen zu vorangegangenen Perioden zu gewährleisten. Dabei werden
sowohl der operative Aufwand, wie auch die Anzahl der Vollzeitäquivalente des jeweiligen
Clusters zu einem adäquaten Wert-/Kostentreiber ins Verhältnis gesetzt. Letztendlich lassen
sich aus der intertemporären Entwicklung dieser Kennzahlen Steuerungsansätze ableiten
und die nachhaltige Effizienz der Leistungserbringung bewerten.
4.3 Instrumente zur strategischen Steuerung
Mit Hilfe der Produktclusterung ist auch eine Basis geschaffen, um strategische Entscheidungen treffen zu können. Die Struktur hat einen ausreichenden Detailierungsgrad auf der
einen Seite, ist aber auf der anderen Seite immer noch aggregiert genug, um strategische
Entscheidungen treffen zu können.
Airport Facility Management – im Spannungsfeld zwischen Aufgabenkomplexität und Effizienzanspruch
111
Die strategische Bewertung erfolgt dann auf zwei Betrachtungsebenen. Zum einen liegt
der Fokus auf den flughafen-spezifischen Kernkompetenzen des Airport Facility Managers
und zum anderen auf der Kostenoptimierung der jeweiligen Leistungserbringung. Somit
erfolgt im ersten Schritt eine Bewertung der vorhanden Produktcluster in Hinblick auf ihre
strategische Bedeutung.
Die strategische Bewertung erfolgt anhand von Kriterien, die prüfen, ob die Leistung wesentlicher Bestandteil des Hauptprozesses der Unternehmung ist, die Leistung eine Kernkompetenz des Bereichs darstellt oder es Anforderungen an Verfügbarkeit oder andere
Qualitätskomponenten gibt, die für eine interne Erbringung der Leistung sprechen. Im
zweiten Schritt erfolgt dann bei den Clustern mit geringerer strategischer Bedeutung eine
Bewertung hinsichtlich des wirtschaftlichen Vorteils, sowie der Opportunitätskosten, wie z.
Bsp. erhöhter Schnittstellenkosten eines möglichen Fremdbezugs. Auf dieser Grundlage
kann eine ausgewogene Make-or-Buy-Strategie aufgebaut werden, da zahlreiche Leistungen auch von anderen Marktanbietern erbracht werden könnten.
Bezogen auf das Airport Facility Management ist die wesentliche Aufgabe die Aufrechterhaltung des Flughafenbetriebs. Das derzeit breite und kleinteilige Leistungsspektrum,
dient schwerpunktmäßig der Aufrechterhaltung und Sicherstellung des Flughafenbetriebs
(Immobilien und Anlagen). Im Hinblick auf eine künftige anforderungsgerechte Fokussierung der Aufgabenstellungen ist eine permanente Überprüfung und ggf. Neujustierung der
Leistungserbringung in Bezug auf eine optimale Fertigungstiefe notwendig. Hinsichtlich
des eingangs beschriebenen Kostendrucks auf die Servicebereiche des Flughafens leitet
sich aus diesen strategischen Entscheidungen eine grundlegende Überarbeitung des Geschäftsmodells des Airport Facility Managements ab.
5
Grenzen der strategischen Weiterentwicklung von Airport Facility
Management-Leistungen
Der Kostenverlauf in der Nutzungsphase einer Anlage oder eines Gebäudes wird unter dem
Blickwinkel einer Lebenszykluskostenperspektive maßgebend von der Anlagen- und Technikentscheidung in der Konzeptions- und Bauphase beeinflusst. Dies ist nicht unwesentlich,
wenn es darum geht, inwieweit Effizienzpotentiale überhaupt gehoben werden können und
welche effizienzeinschränkenden Parameter bereits durch diese vorgelagerten Entscheidungen unumstößlich sind. Gerade bei Facility Management Leistungen, die hohe Instandhaltungskomponenten aufweisen, kann es sein, dass durch den reinen Blick auf die Investitionsvolumina überproportionale Kostenverläufe in der Betriebsphase weitgehend außer
Acht bleiben. Wichtig ist es, bei Investitionsentscheidungen neben den Realisierungskosten
auch die Betriebskosten adäquat zu berücksichtigen, um eine Investitionsentscheidung aus
einer kostenminimalen Produktlebenszykluskostenbetrachtung abzuleiten. Vor diesem
Hintergrund werden große Anforderungen an eine Lebenszyklusbetrachtung gestellt, aus
der sich letztendlich auch die Instandhaltungsstrategie ableiten muss.
Eine weitere Herausforderung eines Infrastrukturanbieters ist es, dass die Leistungen des
Facility Management im Wesentlichen verkehrsunabhängig sind. Bei starken Schwankungen im Verkehrsaufkommen kann es sein, dass tatsächlich technische Notwendigkeiten durch die ausschließliche finanzfokussierte Effizienzbrille in den Hintergrund gedrängt
werden. Denn bei allem Effizienzbestreben steht die Verantwortung des Airport Facility
112
Guido Kaupe, Eva Engel
Managers im Vordergrund, die limitierten finanziellen Mittel so einzusetzen, dass auch
weiterhin die Betreiberverantwortung und die Betriebssicherheit sichergestellt werden.
Im Rahmen dieser limitierten Mittel sollten somit mit höchster Priorität gesetzliche
Anforderungen an das Facility Management erfüllt werden. Im Anschluss daran erfolgen
unregelmäßige und nicht geplante Instandhaltungsleistungen und erst in letzter Konsequenz
werden Maßnahmen erfüllt oder umgesetzt, die zur Steigerung der Kundenzufriedenheit
beitragen (z.B. Malerarbeiten, Schönheitsreparaturen in Betriebsgebäuden oder Terminals).
Dies ist eine Gratwanderung, die regelmäßig beachtet und nachjustuiert werden muss.
Im Zuge einer strategischen Neuausrichtung des Airport Facility Managers liegt der
langfristige Fokus auf effizienter Leistungserbringung flughafenspezifischer Kernkompetenzen im FM-Bereich. Rein serviceorientierte Dienstleistungen sind permanent zu
hinterfragen und ggf. weiterzuentwickeln. Gerade in Unternehmen mit öffentlichen Wurzeln und einer starken Arbeitnehmervertretung liegt es in der Führungsverantwortung des
Managements, dabei für alle Beteiligten vernünftige und sinnvolle Lösungsansätze zu
finden. Nur diese Vorgehensweise führt dazu, dass eine nachhaltige Steigerung der
Effizienz und Effektivität des FM-Dienstleisters auch wirklich erreicht werden kann.
Literatur
Bogenstätter, Ulrich: Property Management und Facility Management, Oldenbourg Wissenschaftsverlag
GmbH, 2008.
Deutsche Lufthansa: Geschäftsbericht 2011.
DIN Deutsches Institut für Normung e.V., DIN EN 15221-1 Facility Management – Teil 1 Begriffe; Deutsche Fassung EN 15221-1:2006.
Gruber, Xaver F.; Fremdleistungscontrolling in der Instandhaltung, in: Biedermann, Hubert (Hrsg.):
Instandhaltungscontrolling und Budgetierung im Wandel: Planung, Kontrolle und Koordination der Instandhaltung, 2005.
Fraport AG: Zahlen, Daten, Fakten 2013.
Hanke, Bernd; Controlling der Facility Management-Anforderungen, in: Schrammel, Florian et al.: Facility
Management – Recht und Organisation, Werner Verlag 2013, S. 159–205.
Kalaitzis, Dimitrios (Hrsg.): Instandhaltungscontrolling, Köln 2006.
Mai, Herbert; Schneider, Christoph: Betreiberrichtlinie der Fraport AG, Stand: 01.01.2013.
Zielorientiertes Risikomanagement bei
Einsatzorganisationen
Eva-Maria Kern, Thomas Hartung
1
Einleitung
Katastrophenhilfe, das Löschen von Großbränden, Bekämpfung von Terrorismus und organisierter Kriminalität, Auslandseinsätze: die Palette der durch Einsatzorganisationen wie
Technisches Hilfswerk (THW), Feuerwehr, Polizei, Rettung und Bundeswehr erbrachten
Leistungen umfasst ein weites Spektrum. Gemäß ihrem Auftrag verfügen diese Einsatzorganisationen über ein spezifisches Fähigkeitspotenzial, das im Einsatzfall abrufbereit sein
muss. Da in der Regel die Rahmenbedingungen eines Einsatzes kaum denen eines anderen
gleichen, ist die konkret erforderliche Leistungserstellung nicht vollständig planbar. Dabei
nimmt die Planbarkeit mit steigender Komplexität und Dynamik der Einsatzlage dramatisch
ab. Hinzu kommt die Notwendigkeit einer situationsabhängigen Kooperation mit anderen
Einsatzorganisationen.
Risikomanagement stellt für Einsatzorganisationen einen unverzichtbaren Bestandteil ihres Aufgabenspektrums dar. Sie können selbst als risikopolitisches Instrument gesehen
werden, wobei die Qualität ihrer Einsatzleistung von ihrer kontinuierlichen Funktionsfähigkeit und strukturellen Stabilität abhängt. Somit spielen zwei „Niveauebenen“ des Risikomanagements für Einsatzorganisationen eine Rolle:
•
•
Die Bevölkerung ist unterschiedlichsten Bedrohungen ausgesetzt. Einsatzorganisationen müssen entsprechend aufgestellt und ausgerichtet sein, auf diese Bedrohungen zu
reagieren (strategisches Risikomanagement).
Die Leistungserstellung von Einsatzorganisationen erfolgt meist in „Hochrisikosituationen“. Dies erfordert ein entsprechend geplantes und strukturiertes Vorgehen in Einsatzsituationen sowie die Unterstützung mit geeigneten Risikomanagement-Tools im
Sinne eines operativen Risikomanagements.
Wenn auch Einsatzorganisationen mit Risikomanagement an sich kein Neuland betreten, ist
trotzdem oftmals ein nur punktueller Umgang mit Risiken zu beobachten, die mit speziellen
Einsatzszenarien oder Gefährdungslagen in Verbindung stehen.1 Beispiele für solche Sze1
Vgl. beispielsweise die Risikobeurteilung des Polizeidepartements Zürich in dessen Strategischem Plan
2010 - 2014, S. 31-32.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_10,
© Springer Fachmedien Wiesbaden 2013
114
Eva-Maria Kern, Thomas Hartung
narien können Großveranstaltungen, wie etwa Olympische Spiele bzw. Fußballweltmeisterschaften, oder Katastrophenereignisse, wie etwa terroristische Anschläge, sein. Der Fokus
ist dann schwerpunktmäßig auf das operative Risikomanagement gerichtet. Zu wenig konzeptualisiert wurde bislang aber ein durchgängiger Ansatz für das einsatzorganisationale
Risikomanagement, der insbesondere das strategische und das operative Risikomanagement
miteinander verbindet.
Ziel des vorliegenden Beitrages ist es, einen Risikomanagementansatz für Einsatzorganisationen vorzustellen, der deren spezifischen Charakteristika Rechnung trägt. Basis dafür
ist die Darstellung der Besonderheiten der Leistungserstellung von Einsatzorganisationen.
Darauf aufbauend und ausgehend vom betrieblichen Zielsystem erfolgt die Ableitung eines
geeigneten einsatzorganisationalen Zielsystems. Danach wird die Relevanz von Risikomanagement für Einsatzorganisationen erläutert. Dazu wird auf deren spezifisches Risikoportfolio eingegangen und ausgeführt, wie das Auftragserfüllungspotenzial von Einsatzorganisationen durch Risikomanagement verbessert werden kann. Darauf aufbauend werden Ansatzpunkte für ein Risikomanagement von Einsatzorganisationen skizziert. Der Beitrag
schließt mit einem Fazit.
2
Leistungserstellung und Zielsystem bei Einsatzorganisationen
Ausgangspunkt für Risikomanagement stellt das Zielsystem von Organisationen dar, dessen
Ausgestaltung von den organisationsspezifischen Charakteristika bestimmt wird. Im Folgenden wird ein einsatzorganisationales Zielsystem abgeleitet und vorgestellt.
2.1 Besonderheiten der Leistungserstellung von Einsatzorganisationen
Bevor im folgenden Abschnitt die Spezifika der Leistungserstellung von Einsatzorganisationen herausgearbeitet werden, muss der Begriff Einsatzorganisation, wie er im vorliegenden Beitrag verstanden wird, definiert und eingeordnet werden. Hierzu kann konstatiert
werden, dass bisher in der Literatur keine eindeutige und differenzierende Definition von
„Einsatzorganisation“ vorliegt. Dies hängt damit zusammen, dass Einsatzorganisationen in
der Betriebswirtschaftslehre als solches bis dato nicht selektiv als besondere bzw. eigenständige Organisationsform untersucht werden, sondern aufgrund ihrer organisationalen
Charakteristika unterschiedlichen Forschungskontexten zugeordnet werden.2 So werden
Einsatzorganisationen in der NPO-Forschung3 als eines von vielen möglichen Beispielen
angeführt oder exemplarisch z. B. aus der Perspektive der öffentlichen Verwaltung4 oder
der Hochrisikoforschung5 näher beleuchtet. Zudem existieren Veröffentlichungen, die sich
2
Eine Ausnahme bildet Bruderer, der in seiner Dissertation Organisationsformen sozio-technischer Systeme mit Milizcharakter bearbeitet (vgl. Bruderer, 1978)
3
Vgl. z. B. Badelt et al., 2007, S. 3
4
Vgl. z. B. Hilgers, 2008, der öffentliches Performance Management im Anwendungsfeld Feuerwehr
behandelt.
5
Vgl. z. B. Mistele, 2007, der im Rahmen seiner Arbeit empirisch Rettungsdienste, Spezialeinheiten der
Polizei und Feuerwehreinheiten untersucht, um zu Aussagen über Faktoren des verlässlichen Handelns zu
kommen.
Zielorientiertes Risikomanagement bei Einsatzorganisationen
115
speziell auf einzelne Einsatzorganisationen wie z. B. Feuerwehr, Rettung, Polizei, THW
oder Militär konzentrieren. 6
Ebenso wird in der Praxis von Einsatzorganisationen gesprochen; aber auch hier haben
sich weitere, durchaus ähnliche Begrifflichkeiten etabliert, die jedoch bei genauerer Betrachtung nur in Teilen deckungsgleich sind. In Deutschland wird z. B. die Bezeichnung
Behörden und Organisationen mit Sicherheitsaufgaben (BOS) für jene Organisationen
verwendet, die mit Aufgaben der inneren Gefahrenabwehr betraut sind. Zudem hat sich der
Begriff Blaulichtorganisationen eingebürgert, unter dem im allgemeinen Polizei, Feuerwehr
und Rettungsdienst verstanden werden. Auch Bezeichnungen wie Zivil- und Katastrophenschutzorganisationen oder Hilfsorganisationen werden verwendet.
Im vorliegenden Beitrag werden Einsatzorganisationen als Organisationen verstanden,
deren Zweck, d. h. Auftrag, eine Leistungserbringung in dringlichen Situationen zur Erhaltung und Wiederherstellung der normalen Lebensführung oder gar des menschlichen Überlebens darstellt.7 Für das Verständnis der weiteren Ausführungen relevant ist die Tatsache,
dass die hier betrachteten Einsatzorganisationen über sogenannte Einsatzkräfte verfügen,
die ihren regelmäßigen Aufenthaltsort durch „Ausrücken“ verlassen und ihre Einsatzleistungen für den Bürger vor Ort erbringen.
Ausgehend von diesem Einsatzorganisationsverständnis wird nachstehend die Leistungserstellung von Einsatzorganisationen dargestellt. Vom Grundsatz her sind Einsatzorganisationen Dienstleister, weswegen sich als Ausgangsbasis für die Beschreibung ihrer Leistungserstellung Modelle der Dienstleistungsproduktion eignen. Allerdings müssen dabei
spezifische Charakteristika der Einsatzorganisationen berücksichtigt werden. Die Ausführungen werden anhand der konstitutiven Merkmale von Dienstleistungen, der Potenzial-,
Prozess- und Ergebnisorientierung, strukturiert, die sich an den Phasen der Dienstleistungserstellung orientieren (siehe Abbildung 1).8
Die Potenzialorientierung der Dienstleistung zeigt sich in der Fähigkeit und Bereitschaft
eines Dienstleistungsanbieters, die dienstleistende Tätigkeit auszuüben.9 Bei Einsatzorganisationen ist dies die Phase der Herstellung bzw. des Erhalts der Einsatzfähigkeit. Hierbei
muss einerseits die personelle Einsatzbereitschaft gewährleistet werden, d. h. das Personal
muss entsprechend ausgebildet und in Übung gehalten werden. Andererseits ist das für den
Einsatzfall erforderliche Material funktionsfähig zu erhalten (materielle Einsatzbereitschaft). Da es beim Übergang zur eigentlichen Leistungserbringung, d. h. dem Einsatz, zu
einem Wechsel der Organisationsstruktur kommt, weil für die Einsatzdurchführung spezifische Einsatzstrukturen, Prozesse und (Führungs-)Verfahren erforderlich sind, ist es zudem
wesentlich, deren Funktionsfähigkeit sicherzustellen.
6
Vgl. z. B. Hellmich, 2010, der sich mit Qualitätsmanagement im Rettungsdienst befasst.
7
Vgl. Bruderer, 1978, S. 6
8
Vgl. hierzu Bruhn / Meffert, 2012, S. 25; Hartmann 2012, S. 15
9
Vgl. Hilke, 1989, S. 11
116
Abbildung 1:
Eva-Maria Kern, Thomas Hartung
Leistungserstellung von Einsatzorganisationen aus Dienstleistungssicht
Ein weiteres Merkmal ist, dass die Leistungserbringung nicht wie bei „normalen Dienstleistern“ regelmäßig bzw. relativ standardisiert verläuft. Die Herausbildung von Lerneffekten
gemäß der klassischen Lernkurve ist demzufolge nur eingeschränkt möglich. Das Personal
kann sich Einsatzerfahrung lediglich punktuell über Einsätze erwerben, vielmehr spielt für
den Potenzialerhalt regelmäßige Übungstätigkeit eine große Rolle.10 Dies ist umso wichtiger, je weniger oft einzelne Personen in den Einsatz gehen bzw. je komplexer die zu erwartenden Einsatzlagen sind. Einen besonderen Extremfall stellt dabei das Militär dar, das sich
nicht fortwährend in kriegerischen bzw. friedensstiftenden oder -erhaltenden Einsätzen
befindet, die den Einsatz des gesamten militärischen Fähigkeitsspektrums erfordern, und
dennoch gewährleisten muss, bei Bedarf alle erforderlichen Fähigkeiten zur Verfügung zu
stellen. Die besondere Herausforderung bei der Herstellung und dem Erhalt der Einsatzbereitschaft besteht darin, dass im Idealfall für alle im Umfang des Auftrags liegenden Einsatzszenarien und -lagen Fähigkeiten vorgehalten werden müssen, die zu jedem beliebigen
Zeitpunkt abgerufen werden können.
Aus prozessorientierter Perspektive stellt der konkrete Einsatz die eigentliche Dienstleistungserstellung dar, d. h. die eigentliche Einsatzleistung wird als Endleistung gegenüber
dem Bürger am Einsatzort erbracht11. Der externe Faktor kann somit der Bürger selbst (z.
B. bei einer Verletztenbergung durch die Feuerwehr) sein, oder aber ein in dessen Besitz
befindliches Gut (z. B. ein Haus, in dem ein Brand ausgebrochen ist). Besonders bedeutsam
ist die Tatsache, dass sich die Produktionsfaktoren eines Einsatzes nie vollständig im Verfügungsbereich und damit Verantwortungsbereich einer Einsatzorganisation befinden. Zeitpunkt, Umfang, Ausmaß und Fortgang der nachfrageorientierten Leistungserbringung sind
10
Vgl. Mistele, 2007, S. 5
11
Vgl. Goebel et al., 1998, S. 72
Zielorientiertes Risikomanagement bei Einsatzorganisationen
117
situationsbezogen und damit überwiegend fremdbestimmt.12 Auslöser eines Einsatzes sind
zumeist unvorhergesehene Ereignisse, wie z. B. ein Brand oder eine Überschwemmung.
Auch bei vorhersagbaren Einsätzen, wie z. B. bei der Planung von Großereignissen (Fußballspiele, politische Veranstaltungen, etc.) ist nur der mögliche Einsatzzeitraum grob bekannt. Wie die Leistungserstellung jedoch im konkreten Fall aussieht, kann nur sehr eingeschränkt vorhergesagt werden. Aus diesen Gründen stellt sich die qualitative und quantitative Planung der in der Potenzialphase bereitzustellenden Fähigkeiten als große Herausforderung dar.
Wie schon dargestellt, gestaltet sich jeder Einsatz individuell. Zwar werden in der Phase
Herstellung und Erhalt der Einsatzbereitschaft spezifische Fähigkeiten und Fertigkeiten
entwickelt und standardisierte Abläufe und Verfahren trainiert. Im realen Einsatz bedarf es
jedoch einer situationsspezifischen Ausgestaltung der Leistungserbringung durch eine
koordinationsintensive ad-hoc Kombination von Teilfähigkeiten. Dem wird in der Praxis
dadurch Rechnung getragen, dass sich spezifische Führungsstrukturen und –prozesse etabliert haben und den Einsatzkräften sowohl auf individueller als auch auf Teamebene viel
Handlungs- und Entscheidungskompetenz zugebilligt wird. Den persönlichen Fähigkeiten
Einzelner kommt damit eine große Bedeutung zu. Erschwerende Rahmenbedingungen
während des Einsatzes sind der im Allgemeinen bestehende hohe Zeit-, Entscheidungs- und
Handlungsdruck. Die handelnden Personen müssen innerhalb kurzer Zeit viele und komplexe Entscheidungen treffen, wobei diese Entscheidungen und die aus ihnen resultierenden
Handlungen wiederum die Einsatzsituation und damit den Einsatz selbst beeinflussen.13
Zudem besteht die latente Gefahr für Leib und Leben, denen sich die Einsatzkräfte ausgesetzt sehen.
Aus der ergebnisorientierten Perspektive kann das Ergebnis des Dienstleistungsprozesses
als Wirkung umschrieben werden, die sich beim Dienstleistungsnachfrager konkretisiert.14
Im Kontext von Einsatzorganisationen sind dies in Abhängigkeit von deren konkretem
Auftrag beispielsweise die Rettung von Menschen, die Gefahrenabwehr oder aber die Wiederherstellung der öffentlichen Sicherheit.
Die obigen Ausführungen haben gezeigt, dass die Leistungserstellung von Einsatzorganisationen Besonderheiten aufweist, die bei der Definition ihres Zielsystems und damit bei
der Konzeption eines geeigneten Risikomanagementansatzes berücksichtigt werden müssen. Im Folgenden wird ein geeignetes einsatzorganisationales Zielsystem entwickelt.
2.2 Das betriebliche Zielsystem als Referenzobjekt
Risikomanagement hat grundsätzlich eine zielorientierte, d. h. finale Ausrichtung. Entscheidungsträger in Organisationen richten ihr gesamtes Handeln an Zielen aus. Nur dort,
wo Ziele gesetzt werden, besteht die Gefahr, diese nicht zu erreichen. Nur dort resultieren
also Risiken. Die prinzipiell herausragende Bedeutung von Zielen folgt dem Umstand, dass
sie Leitlinien des Handelns begründen und Entscheidungen über den Einsatz von Ressour12
Vgl. Hilgers, 2008, S. 252 ff.
13
Vgl. Mistele, 2007, S. 36
14
Vgl. Hilke, 1989, S. 13 f.
118
Eva-Maria Kern, Thomas Hartung
cen beurteilbar machen. Somit dienen Ziele oder, wenn mehrere Ziele in ein miteinander
verbundenes hierarchisches Verhältnis gesetzt werden, ein Zielsystem15 als Ausgangspunkt
risikopolitischer Überlegungen. Hierfür kann das in der betriebswirtschaftlichen Literatur
umfassend erarbeitete betriebliche Zielsystem als Referenzobjekt herangezogen werden,
wobei gegebenenfalls Anpassungen, insbesondere in der konkreten Zielformulierung, vorzunehmen sind, sobald die Fokussierung auf Unternehmen aufgegeben wird und nicht ausschließlich wirtschaftliche Interessen verfolgende Organisationen betrachtet werden.
Als Ziel wird im betriebswirtschaftlichen Kontext ein zukünftiger, gegenüber dem derzeitigen im allgemeinen veränderter und von einem Subjekt erwünschter Zustand verstanden,
der als Ergebnis einer Entscheidung eintreten soll.16 Ziele haben aber nicht nur die Aufgabe
gewünschte Zustände zu beschreiben, sondern sie fungieren auch als Bewertungsmaßstab.
Ziele implizieren, dass Handlungen darauf ausgerichtet werden und dass Ergebnisse im
Hinblick auf die Zielerreichung bewertet werden. Die präzise Definition von Zielen ist
folglich ein zentrales Problem wirtschaftlichen Handelns.
Um ihrer Bewertungsfunktion gerecht zu werden, müssen Ziele vollständig definiert
werden (vgl. Abbildung 2):17
− Der Zielinhalt legt fest, auf welche Größe sich das Streben eines Subjekts richtet. Zunächst ist daher festzulegen, auf welche Zielgrößen bzw. Zielinhalte das unternehmerische Handeln ausgerichtet werden soll.
− Der Zeitbezug des Ziels bestimmt den Zeitpunkt der geplanten Zielerreichung oder den
Zeitraum der Zielgültigkeit. So kann zwischen operativen Zielen, taktischen Zielen und
strategischen Zielen differenziert werden.
− Das Zielausmaß bezeichnet das gewünschte Ausmaß des Zielinhalts. Möglich sind Vorschriften der Extremierung, Optimierung, Satisfizierung oder Fixierung des Zielausmaßes.18
Die Operationalisierung, also Messbarkeit, eines Ziels ist dann gegeben, wenn der Erreichungsgrad des Ziels gemessen werden kann, unabhängig davon, ob die Messung auf Kardinal-, Ordinal- oder Nominalskalen beruht.19 Die Quantifizierung, d. h. zahlenmäßige
Bestimmbarkeit, bedingt hingegen die kardinale Messung der Zielerreichung mittels einer
Verhältnis- oder Intervallskala.20
In der Regel verfolgt ein Unternehmen nicht nur ein Ziel, sondern mehrere Ziele simultan. Diese Ziele stehen nicht alle auf gleicher Ebene und isoliert nebeneinander. Vielmehr
weisen Ziele bestimmte Relationen und Abhängigkeiten zueinander auf.21 Die Abbildung
15
Vgl. exemplarisch Raffée, 1974, S 119 ff.
16
Vgl. Bea, 2009, S. 338.
17
Vgl. Diederich, 1990, S. 31.
18
Vgl. Bea, 2009, S. 338.
19
Vgl. Heinen, 1985, S. 99.
20
Vgl. Diederich, 1990, S. 31.
21
Vgl. Heinen, 1976, S. 89.
119
Zielorientiertes Risikomanagement bei Einsatzorganisationen
der Gesamtheit aller Ziele eines Unternehmens sowie der horizontalen und vertikalen Beziehungen zwischen diesen Zielen erfolgt im Zielsystem des Unternehmens.22
Zielsystem
Ziele im
Unternehmen
Beziehungen
zwischen Zielen
 Zielinhalt / Zielgröße
 Interdependenzrelationen
 Zeitbezug
 Instrumentalrelationen
 Zielausmaß / Zielkriterium
Abbildung 2:
 Präferenzrelationen
Zielsystem
Die Interdependenzrelationen beschreiben, ob und in welchem Ausmaß die Realisierung
eines Ziels die Verwirklichung anderer Ziele beeinflusst. Zum Beispiel stehen zwei Ziele
zueinander in komplementärer Beziehung, wenn die Erreichung des einen Ziels durch die
Erreichung des anderen Ziels gefördert wird.23 Zwei Ziele verhalten sich hingegen konkurrierend oder konfliktär, wenn die Erfüllung des einen Ziels zu einer Minderung des Erfüllungsgrades des anderen Ziels führt.
Eine weiterführende Ordnungsmöglichkeit von komplementären Zielen besteht in einer
Anordnung der entsprechenden Ziele nach ihrem Beitrag zur Erfüllung weiterer Ziele.24 Die
Instrumentalrelationen begründen als Mittel-Zweck-Beziehungen somit die hierarchischen
Zusammenhänge zwischen einzelnen Zielen, gemeinhin eine Zielhierarchie.25 Beispielsweise werden im Rahmen der strukturellen Organisation einer Unternehmung auf verschiedenen Ebenen Ziele definiert (Ober-, Zwischen- und Unterziele, vgl. Abbildung 3). Dabei
sind die Ziele einer Ebene Mittel zum Zweck zur Erreichung der Ziele der nächsthöheren
22
Vgl. Bidlingmaier / Schneider, 1976, Sp. 4733.
23
Vgl. Heinen, 1976, S. 94-95.
24
Vgl. Heinen, 1976, S. 102-103.
25
Vgl. Bidlingmaier, 1964, S. 76-77.
120
Eva-Maria Kern, Thomas Hartung
Ebene. Durch Vorgabe geeigneter Zwischen- und Unterziele ist somit die Koordination von
dezentralisierten Teilentscheidungen und deren Ausrichtung auf das Oberziel möglich.26
Üblicherweise steigt mit einer höheren Einordnung eines Ziels in der Zielhierarchie auch
dessen Planungshorizont. Oberziele sind somit eher strategischer, Unterziele hingegen
taktischer bzw. operativer Natur.
Oberziel
Zwischenziele
Unterziele
Abbildung 3:
Zielhierarchie
Während die Interdependenz- und Instrumentalrelationen zwischen Zielen objektiv bestimmbar sind, hängen Präferenzrelationen von individuellen Wertmaßstäben ab. Werden
mehrere, mindestens teilweise konfliktäre Ziele verfolgt, müssen diese entsprechend der
individuellen Präferenz bzw. Priorität ihres Erreichens in eine Ordnung gebracht werden.
Als Resultat entsteht eine subjektive Rangordnung der betrachteten Ziele. Hierfür können
unterschiedliche Methoden angewandt werden, wie beispielsweise die Zielgewichtung
Neben der inhaltlichen Festlegung der zu verfolgenden Zielgrößen ist zudem das Ausmaß
zu definieren, in dem die Zielerreichung angestrebt werden soll.27
Zur Messung von Risiken ist es letztendlich unabdingbare Voraussetzung, eine Zielvorgabe in der Weise festzulegen, dass ein Ziel sowohl inhaltlich definiert als auch quantifiziert wird.
2.3 Vom betrieblichen zum einsatzorganisationalen Zielsystem
Das Zielsystem einer Einsatzorganisation kann nur bedingt mit dem eines gewinnorientierten Unternehmens verglichen werden. Die in diesem Beitrag betrachteten Einsatzorganisationen dienen der Aufrechterhaltung bzw. Wiederherstellung der inneren bzw. äußeren
26
Vgl. Heinen, 1991, S. 16. Oftmals ist das Oberziel nur für den Betrieb als Ganzes, nicht aber in Bezug
auf delegierte Entscheidungen operabel. Vgl. Diederich, 1990, S. 39.
27
Vgl. Heinen, 1976, S. 82.
Zielorientiertes Risikomanagement bei Einsatzorganisationen
121
Sicherheit und demzufolge dem Gemeinwohl. Ihr spezifischer Auftrag ist staatlich definiert, in Gesetzen bzw. Richtlinien festgeschrieben28 und häufig nicht ohne weiteres zu
quantifizieren. Einsatzorganisationen sind durch das Vorherrschen von Sachzielen geprägt,
deren Operationalisierung sich herausfordernd gestaltet.29 Die klassischen Formalziele
eines Unternehmens treten in den Hintergrund. In Anlehnung an entsprechende, im Kontext
von NPOs von Horak et al.30 getätigte Überlegungen, beschreibt Abbildung 4 die wesentlichen Bausteine eines Zielsystems von Einsatzorganisationen.
Abbildung 4:
Bausteine des Zielsystems von Einsatzorganisationen31
Das Oberziel der Einsatzorganisation wird im Auftrag festgeschrieben, der die Existenzgrundlage für die Organisation beinhaltet, gleichzeitig aber auch eine gewisse Starrheit
28
Vgl. z.B. Verteidigungspolitische Richtlinien, THW-Gesetz, Rettungsdienstgesetz, Katastrophenschutzgesetz.
29
Diesbezüglich lassen sich Parallelen zwischen Einsatzorganisationen und Non-Profit Organisationen
(NPO) feststellen. Vgl. Stötzer, 2009, S. 2. Manche Einsatzorganisationen, wie zum Beispiel das Rote
Kreuz, lassen sich auch unter NPO subsumieren.
30
Vgl. Horak et al., 2007, S. 179 ff.
31
In Anlehnung an Horak, 1993, S. 165
122
Eva-Maria Kern, Thomas Hartung
untergeordneter Ziele mit sich bringt.32 Beispielsweise ist es Auftrag der Bundeswehr,
Deutschland und seine Bürgerinnen und Bürger zu schützen, die außenpolitische Handlungsfähigkeit Deutschlands zu sichern, zur Verteidigung der Verbündeten beizutragen,
einen Beitrag zu Stabilität und Partnerschaft im internationalen Rahmen zu leisten und die
multinationale Zusammenarbeit und europäische Integration zu fördern.33 Das THW leistet
technische Hilfe: (1) nach dem Zivilschutz- und Katastrophenhilfegesetz, (2) im Ausland
im Auftrag der Bundesregierung, (3) bei der Bekämpfung von Katastrophen, öffentlichen
Notständen und Unglücksfällen größeren Ausmaßes auf Anforderung der für die Gefahrenabwehr zuständigen Stellen sowie bei der Erfüllung öffentlicher Aufgaben im Sinne der
Nummern 1 bis 3, soweit es diese durch Vereinbarung übernommen hat.34 Die Berliner
Feuerwehr hat unter anderem den Auftrag Gefahren für die öffentliche Sicherheit abzuwehren, die durch Brände, Explosionen, Überschwemmungen, Unfälle und ähnliche Ereignisse
entstehen.35 Der Auftrag stellt den Rahmen für die Zielbildung der Einsatzorganisation dar
und dient demzufolge als Grundlage für die Ableitung von Zwischen- und Unterzielen. Die
angeführten Beispiele lassen erahnen, welche Herausforderungen sich dabei ergeben (können).
Die Leistungswirkungsziele haben direkt die Erfüllung des Auftrags zum Inhalt.36 Sie
konkretisieren den Auftrag, beschreiben die beabsichtigten Wirkungen bei den Leistungsempfängern und stellen die konkretisierten Oberziele der Einsatzorganisation dar. Häufig
bestehen mehrere Leistungswirkungsziele nebeneinander, die zudem – aufgrund ihres meist
qualitativen Charakters – nur schwer operationalisierbar sind.
Damit Wirkungen erreicht werden können, müssen die Einsatzorganisationen spezifische
Leistungen erbringen, die in den sogenannten Leistungserbringungszielen festgelegt werden. Hier wird festgelegt, über welches Fähigkeitsspektrum die Einsatzorganisation verfügen soll, d. h. welche Aufgaben von ihr zu erbringen sind. Beispielhafte Aufgaben, die die
Bundeswehr zu erbringen hat, sind die Landesverteidigung als Bündnisverteidigung im
Rahmen der Nordatlantischen Allianz, internationale Konfliktverhütung und Krisenbewältigung einschließlich des Kampfs gegen den internationalen Terrorismus oder die Beteiligung an militärischen Aufgaben im Rahmen der Gemeinsamen Sicherheits- und Verteidigungspolitik der EU.37 Das Bayerische Rote Kreuz zählt z. B. die Mitwirkung beim Schutz
der Zivilbevölkerung, die Teilnahme an nationalen und internationalen Hilfsaktionen, bei
diesen im Auftrag des DRK, die Notfallrettung und Krankentransport oder die erste Hilfe
bei Not- und Unglücksfällen zu seinen Aufgaben.38
32
So ist es für Einsatzorganisationen nicht ohne weiteres möglich, ihren Leistungskatalog schnell und
flexibel zu verändern, wenn dieser an Gesetze gekoppelt ist.
33
Vgl. BMVg, 2011, S. 11
34
Vgl. Gesetz über das Technische Hilfswerk, § 1.
35
Vgl. Berliner Feuerwehrgesetz
36
Vgl. Horak et al., 2007, S. 179
37
Vgl. BMVg, 2011, S. 11
38
Vgl. Bayerisches Rotes Kreuz, 2001, S. 4.
Zielorientiertes Risikomanagement bei Einsatzorganisationen
123
Von besonderer Bedeutung für Einsatzorganisationen ist die Definition der Potenzialziele. Hier muss festgelegt werden, welche Ressourcen (z. B. Personal, Material) in welcher
Qualität und Menge gebraucht werden bzw. welche organisatorischen Strukturen und Verfahren angewendet werden müssen, damit die Leistungswirkungs- und Leistungserbringungsziele erreicht werden können. Die Festlegung der Potenzialziele gestaltet sich insbesondere aufgrund der oben schon näher ausgeführten eingeschränkten Planbarkeit von Zeitpunkt, Art und Ausmaß der Leistungserstellung als kritisch und herausfordernd.
Beim Zielbildungsprozess in Einsatzorganisationen sind insbesondere zwei Herausforderungen hervorzuheben:
• Die Festlegung von Leistungswirkungs-, Leistungserbringungs- und Potenzialzielen ist
aufgrund der Charakteristika des Leistungserstellungsprozesses sowie aufgrund des das
Zielsystem beeinflussenden komplexen und dynamischen Umfeldes von großer Unsicherheit geprägt. Weder kann ohne Restrisiko festgelegt werden, was die jeweilige Einsatzorganisation tatsächlich können soll (beispielsweise ist dies besonders kritisch im Bereich Polizei und Militär, weil sich aktuelle und zukünftige Bedrohungen nicht immer
richtig einschätzen lassen), noch lässt sich daraus präzise ableiten, welche Ressourcen erforderlich sind, um die Leistungserstellung in allen Facetten und Situationen uneingeschränkt erbringen zu können. An dieser Stelle steht das einsatzorganisationale Risikomanagement vor erheblichen Herausforderungen, die vor allem der besonderen Bedrohungslage und der in den meisten Fällen nur kurzen Reaktionszeiten geschuldet sind.
• Im Unternehmenskontext lassen sich viele Ziele und Leistungen anhand von Nominalgütern, d. h. Geldeinheiten, festlegen und messen. Einer solchen Messung entziehen sich
regelmäßig die Leistungswirkungs- und Leistungserbringungsziele, die nicht auf einen
ökonomischen bzw. unternehmerischen Erfolg gerichtet, sondern tendenziell immaterieller Natur sind. Abstrakte Zielsetzungen, wie beispielsweise der Schutz der Bevölkerung,
können nur anhand (subjektiv) gewählter, messbarer Stellvertretergrößen quantifiziert
werden.
Die sonstigen Formalziele legen weitergehende Einschränkungen fest, was die Handlungsspielräume zur Erreichung der Leistungswirkungs-, Leistungserbringungs- und Potenzialziele betrifft. Hier können z. B. Budgetziele genannt werden, die aus der Anforderung eines
sparsamen Umgangs mit öffentlichen Mitteln abgeleitet werden können. Inwieweit sich hier
allerdings streng konfliktäre Zielsetzungen ergeben, hängt von der jeweiligen Einsatzsituation ab. Gegebenenfalls werden Budgetbeschränkungen aufgehoben, um Leib und Leben
potenzieller Opfer oder auch erhebliche Sachwerte zu schützen. Weitere Formalziele können auch aus speziellen politischen Ausrichtungen entstammen. Beispielsweise können
mögliche Auftragslagen und die daraus abgeleiteten Ziele der Bundeswehr präzisiert werden, wenn etwaige Beschränkungen politischer Natur als Rahmenziel gesetzt werden (z. B.
spielt hier der Verzicht politischer Instanzen eine Rolle, die Bundeswehr mit Aufträgen
hinsichtlich der inneren Sicherheit zu versehen).
Die Ausführungen lassen die Herausforderungen erkennen, mit denen sich Einsatzorganisationen bei der Formulierung und Quantifizierung ihrer Ziele als Basis für ein Risikomanagement konfrontiert sehen. Welche Relevanz Risikomanagement für Einsatzorganisationen aufweist, beschreibt der nächste Abschnitt.
124
3
Eva-Maria Kern, Thomas Hartung
Relevanz eines Risikomanagements für Einsatzorganisationen
Die generelle Risikolage des 21. Jahrhunderts ist durch eine weitläufige – häufig sogar
globale – Exponierung gegenüber einer Vielzahl von Risiken verursacht, die sowohl in
ihrer Häufigkeit als auch in ihrem Ausmaß regelmäßig neue Intensitäten erreichen. In der
Öffentlichkeit derzeit breit wahrgenommene Risiken stammen beispielsweise aus den Bereichen Natur- und Umweltkatastrophen39, Terrorismus oder auch Kriminalität bzw. Piraterie. Einsatzorganisationen agieren genau vor diesem Hintergrund einer von Dynamik geprägten Umwelt. Zur Gewährleistung des Schutzes der Bevölkerung ist es erforderlich, dass
sie in der Lage sind, auf die sich wandelnden Bedrohungen, die aus dieser Umwelt resultieren, zu reagieren und sich dementsprechend auszurichten und aufzustellen. Die dafür notwendige strukturierte Informationsversorgung bedarf eines adäquaten Risikomanagements.
Ferner stellen die in Abschnitt 0 beschriebenen Kontextfaktoren des Handelns (hoher Zeit-,
Entscheidungs- und Handlungsdruck, Gefahr für Leib und Leben) besondere Anforderungen an den Umgang mit Risiken bei der einsatzorganisationalen Leistungserstellung.
Zudem erwarten Bürger eines modernen „Vorsorgestaates“– ob in allen denkbaren Situationen zu Recht sei an dieser Stelle dahingestellt –, dass der Staat entsprechende Maßnahmen zur Gefahrenabwehr zur Verfügung stellt. Die Bundesregierung misst diesem Themenfeld große Bedeutung bei, wie u.a. das Rahmenprogramm „Forschung für die zivile Sicherheit“ des Bundesministeriums für Bildung und Forschung (BMBF), erkennen lässt40. Hier
werden auch entsprechende Aspekte des Risikomanagements adressiert. Auch in der Praxis
kommt der Thematik ein großer Stellenwert zu. So ist die Risikoanalyse im Kontext des
Bevölkerungsschutzes ein zentraler Bestandteil und wurde von der Bundesregierung im
Sinne eines „übergeordneten Risikomanagements“ gesetzlich im Zivilschutz- und Katastrophenhilfegesetz (ZSKG) verankert.
Auch in Einsatzorganisationen ist Risikomanagement durchaus heute schon fester Bestandteil des Agierens, allerdings überwiegend nur punktuell auf einzelne Bausteine bezogen. „Risikomanagement-Denken“ äußert sich zum Beispiel anhand der Planung konkreter
Einsatzszenarien, der Übung anhand der Simulation solcher Szenarien und durchaus auch
auf strategischer Ebene wie z.B. durch die gezielte Analyse und Bewertung von Umweltrisiken. Zu bemängeln ist allerdings, dass diese Bausteine größtenteils unverbunden
nebeneinanderstehen. In der Konsequenz wird Risikomanagement damit nur punktuell
betrieben, es fehlt derzeit noch ein systematisches und durchgängig anwendbares Risikomanagementkonzept für Einsatzorganisationen.
Im Folgenden werden als Basis für eine solche Konzeption besonders relevante Risiken
für Einsatzorganisationen erläutert und der konkrete Nutzen von Risikomanagement bei
Einsatzorganisationen beschrieben.
39
Vgl. beispielsweise MunichRe, 2013.
40
Vgl. Bundesministeriums für Bildung und Forschung (BMBF), 2012. Dieses Thema stand auch schon in
den Jahren 2007 bis 2012 in einem Programm der Bundesregierung „Forschung für die zivile Sicherheit“
im Fokus.
Zielorientiertes Risikomanagement bei Einsatzorganisationen
125
3.1 Risikoportfolio von Einsatzorganisationen
In Einsatzorganisationen lassen sich Risiken vorfinden, die in breiteren organisationalen
Kontexten, wie beispielsweise innerhalb von Unternehmen, ebenfalls eine Rolle spielen.
Diese Risiken haben bereits eine intensive Auseinandersetzung in der Literatur erfahren
und werden aus diesem Grund hier nicht näher betrachtet. Vielmehr werden im Folgenden
insbesondere die Risiken beleuchtet, die besonders relevant (oder auch spezifisch) für Einsatzorganisationen sind, wobei eine Differenzierung zwischen strategischen und operativen
Risiken vorgenommen wird.
Strategische Risiken betreffen die Wirksamkeit und Legitimation der Einsatzorganisation
an sich, aber auch im Zusammenwirken mit anderen Einsatzorganisationen. Sie lassen sich
zuvorderst unterteilen in Umweltrisiken und Effektivitätsrisiken:
− Umweltrisiken resultieren aus der Veränderung der für Einsatzorganisationen relevanten
Umwelten. Diese Umwelten lassen sich differenzieren in
• die natürliche Umwelt, in der z. B. Klima- bzw. Umweltveränderungen ein verstärktes
Auftreten von Naturkatastrophen in Form von wetterbedingten Extremereignissen hervorrufen können,
• die soziokulturelle Umwelt, in der Risiken wie z. B. Kriminalität auftreten, oder aber
auch die veränderte Bereitschaft, soziales Engagement zu betreiben, was sich insbesondere negativ auf Einsatzorganisationen mit freiwilligen Helfern auswirken kann,
• die politische Umwelt, in der beispielsweise militärische Einsätze erforderlich sind bzw.
werden oder der internationale Terrorismus zur Bedrohung wird, und
• die wirtschaftlich-technische Umwelt, in der sich z. B. durch die Entwicklung neuer
Technologien bis dato unbekannte Bedrohungen etablieren (z.B. Cyberkriminalität) oder
aber eigentlich gängige Technologien wie beispielsweise die Atomkraft zu Risiken werden.
− Aus der Dynamik der Umwelten ergeben sich „Effektivitätsrisiken“. Diese resultieren aus
der einsatzorganisationalen Besonderheit, dass bei nur unzureichender Information über
alle Bedrohungen und deren Folgen sowohl bei den Leistungswirkungs-, Leistungserstellungs- als auch Potenzialzielen das Risiko generiert wird, dass nicht die „richtigen“ Ziele
gesetzt werden und damit die „Wirksamkeit“ bzw. die Effektivität der Einsatzorganisation darunter leidet. Ein solches „Effektivitätsversagen“ kann sogar die Existenzberechtigung der Einsatzorganisation in Frage stellen, wenn nach Risikoeintritt die Erwartungshaltungen hinsichtlich Hilfs- und Versorgungsmaßnahmen bei den Betroffenen nicht erfüllt werden.
Operative Risiken stellen die Risiken der konkreten Leistungserstellung dar und lassen sich
aus deren spezifischen Charakteristika ableiten. Hierzu zählen aus der Perspektive von
Einsatzorganisationen unter anderem die folgenden Risiken:
− Leistungswirkungsrisiken: Risiken, die die Realisierung der intendierten spezifischen
Wirkungen, die zur Erreichung des Auftrags beitragen, beeinträchtigen oder konterkarieren. Zum Beispiel lassen sich durch bestimmte polizeiliche Maßnahmen Wirkungen erreichen, die zur Aufrechterhaltung oder Wiederherstellung der öffentlichen Sicherheit
126
Eva-Maria Kern, Thomas Hartung
führen. Derartige Maßnahmen können aber auch gegenteilige Wirkungen erzeugen, wenn
sie in der Bevölkerung als unangemessen empfunden wird.
− Leistungserbringungsrisiken: Risiken, die das Agieren im konkreten Einsatz beeinträchtigen können, wie z. B.:
• Personalrisiken (Qualifikation, Personalausfall, etc.)
• Material- bzw. Ausstattungsrisiken (Ausfall, unzureichende Menge, etc.)
• Risiken, die aus den vorne dargestellten spezifischen Kontextfaktoren des Handelns resultieren
• Kooperations- bzw. Abstimmungsrisiken mit anderen Einsatzorganisationen
− Potenzialrisiken: Risiken, die die Einsatzbereitschaft an sich beeinträchtigen können, wie
beispielsweise:
• Personalrisiken (unzureichende Qualifikation, Personalausfall, etc.)
• Material- bzw. Ausstattungsrisiken (Ausfall, Veralterung, etc.)
Die nachfolgenden Ausführungen sollen aufzeigen, wie ein adäquates, auf die besonderen
Situationen von Einsatzorganisationen abgestelltes Risikomanagement zur Auftragserfüllung beitragen kann.
3.2 Verbesserung des Auftragserfüllungspotentials von
Einsatzorganisationen durch Risikomanagement
Als Zweck des Risikomanagements kann vor allem die Erhaltung und Weiterentwicklung
einer Organisation durch die Bewusstmachung und die dadurch stimulierte Bewältigung
von Risiken bei Führungs- und Durchführungsprozessen genannt werden.41
Bei Einsatzorganisationen geht es selbstverständlich ebenfalls darum, durch die Anwendung von risikopolitischen Instrumenten die gesetzten Ziele bestmöglich zu erreichen.
Allerdings wird im Vergleich zu anderen Organisationen das Risikomanagement um drei
weitere wesentliche Funktionen erweitert:
• Erhalt der Wirksamkeit der Einsatzorganisation auf strategischer Ebene: diese Funktion
wird durch eine – im Idealfall proaktive, notfalls nur reaktive – Weiterentwicklung der
Einsatzorganisation erfüllt. Notwendig hierzu ist ein risikobezogener Abgleich zwischen
dem Soll- und dem Ist-Leistungsprofil der Einsatzorganisation. Änderungen im SollProfil können durch die Beantwortung von Fragen erkannt werden, wie:
• Kann die Einsatzorganisation das, was sie soll?
• Ist der Auftrag noch im Einklang mit der realen Bedrohungslage?
• Sind die aus dem Auftrag abgeleiteten strategischen Leistungswirkungs-, Leistungserbringungs- und Potenzialziele passend?
Zur fundierten Beurteilung ist die Analyse der oben genannten Umweltrisiken erforderlich, aus deren Ergebnis dann entsprechende Maßnahmen zum Umgang mit der verän41
Vgl. Hahn, 1987, S. 138
Zielorientiertes Risikomanagement bei Einsatzorganisationen
127
derten Risikolage abgeleitet werden können. Konkrete Handlungsempfehlungen können
dann beispielsweise auf den Einsatz neuer Technologien oder die Entwicklung neuer
Konzepte zur Helfergewinnung abstellen.
• Kommunikationsfunktion an den Staat: diese Funktion ist insbesondere für politische
Instanzen von Bedeutung, wenn über die Weiterentwicklung einer Einsatzorganisation
entschieden werden soll bzw. wenn die „kollektive“ Weiterentwicklung mehrerer Einsatzorganisationen, z. B. für den Katastrophenschutz, beabsichtigt wird.
• Möglichst risikoarme Abwicklung der Dienstleistung „Einsatz“: hier ist insbesondere der
Schutz von Leib und Leben der Einsatzkräfte zu nennen; daraus resultieren auch Abwägungen, in welcher Form Kapazitäten zur Rettung von Opfern eingesetzt werden sollen,
bzw. ob nicht sogar in Grenzfällen der Tatbestand der „Unrettbarkeit“ festgestellt werden
muss. Hier spielen Vorwegnahmen im Rahmen der Einsatzplanung bzw. einsatzorganisationsspezifische Instrumentarien eine entsprechende Rolle.
Die Integration bzw. enge Verknüpfung des operativen mit dem strategischen Risikomanagement ist für Einsatzorganisationen von übergeordneter Bedeutung. Aus den Erkenntnissen im Umgang mit den operativen Risiken lassen sich Schlussfolgerungen für den Umgang mit den strategischen Risiken treffen. Beispielsweise können punktuelle Rückmeldungen oder insbesondere die systematische Aufarbeitung von „lessons learned“ aus dem
unmittelbaren Einsatzgeschehen Impulse für operative aber auch strategische Veränderungen im Sinne von Nachsteuerungsbedarfen liefern. Beispiele hierfür wären konkrete Rückmeldungen über die Passgenauigkeit oder den technischen Stand der verwendeten Ausrüstung, Hinweise auf fehlende Qualifikationen der Einsatzkräfte oder Anstöße zur Überarbeitung von Einsatzplänen. Impulse zum „Wirksamkeitserhalt“ der Einsatzorganisation können sowohl aus der Analyse strategischer als auch operativer Risiken gewonnen werden,
wofür aber die Passung der Schnittstellen zwischen operativem und strategischem Risikomanagement vorausgesetzt werden muss.
4
Ansatzpunkte für ein Risikomanagement bei Einsatzorganisationen
Die vorangehenden Ausführungen zeigen, wie wichtig es im Kontext von Einsatzorganisationen ist, strategisches und operatives Risikomanagement miteinander zu verbinden. Ausgangsbasis der weiteren Überlegungen bildet daher das Konzept des von Kern und Hartung
vorgestellten geschäftsprozessorientierten Risikomanagements.42
In Abbildung 5 wird die Grundidee für ein integriertes Risikomanagement bei Einsatzorganisationen dargestellt. Die Wertschöpfung (und damit die für die Gesellschaft und den
Bürger relevante Leistungserstellung), erfolgt in den beiden Kernprozessen Einsatz und
Herstellung/Erhalt der Einsatzbereitschaft, die beispielhaft für das THW illustriert werden.
Der Kernprozess Einsatz, d. h. die eigentliche Leistungserbringung, lässt sich in die Teilprozesse unmittelbare Einsatzvorbereitung, Einsatzdurchführung und unmittelbare Einsatznachbereitung unterteilen. Basis für die Herstellung bzw. den Erhalt der Einsatzbereitschaft
sind eine entsprechende Fach- und Umsetzungsplanung, in der die strategischen Ziele des
THW auf Basis einsatztaktischer Überlegungen umgesetzt sowie die einsatzrelevante Auf42
Vgl. Kern / Hartung, 2008, S. 59 ff.
128
Eva-Maria Kern, Thomas Hartung
bau- und Ablauforganisation geplant werden. Zudem fließen hier lessons learned aus Einsätzen ein. Ergebnis dieses Teilprozesses sind Anforderungen an die Einsatzorganisation,
an einsatzbereites Personal und Material sowie die Erstellung der Stärke- und Ausrüstungsnachweisung (StAN). Im Teilprozess Materielle Einsatzbereitschaft erfolgt die Entwicklung
und Fortschreibung technischer Konzepte, die Entwicklung und Erprobung von Ausstattung
zur Beschaffungsreife sowie die Wartung und Pflege der Einsatzausstattung mit dem Ziel,
einsatzbereites Material bereitstellen zu können. Der Teilprozess Personelle Einsatzbereitschaft hat das Ziel, qualifizierte und motivierte Einsatzkräfte bereitzustellen. Hierzu werden
z. B. Konzepte zur Helfergewinnung und Helferbindung erarbeitet, Ausbildungskonzepte
und –unterlagen entwickelt und fortgeschrieben sowie die Einsatzausbildung durchgeführt.
Im Teilprozess Aufbau, Erhalt und Anpassung einsatzbereiter Einheiten und Strukturen
geht es darum, einsatzbereite und modular kombinierbare Einsatzeinheiten (bestehend aus
Personal und Material) bereitzustellen. Dazu werden z. B. Übungen und Wettkämpfe innerhalb des THW oder gemeinsam mit anderen Einsatzorganisationen durchgeführt.
Alle in den beiden Kernprozessen ablaufenden Teilprozesse müssen Anforderungen an
Effektivität und Effizienz erfüllen, wobei der Effektivität, also der Erfüllung des Auftrags,
regelmäßig ein höheres Gewicht zugesprochen wird. Die Effizienz wird zum Beispiel an
der Einhaltung gewisser Budgetgrenzen gemessen, wobei in konkreten Bedrohungslagen
politische Instanzen durchaus Bereitschaft zeigen, die Budgetgrenzen zu flexibilisieren.
Nichtsdestotrotz gelten zunächst der Auftrag und dessen Durchführung mittels gegebener
Ressourcen als fixierte Zielsetzung. Um durch die Kernprozesse eine bestmögliche Auftragserfüllung zu erreichen, ist ein systematisches Risikomanagement, das ein enges Zusammenwirken der operativen und der strategischen Ebene beinhaltet, unabdingbar.
Zielorientiertes Risikomanagement bei Einsatzorganisationen
Abbildung 5:
129
Integriertes Risikomanagement bei Einsatzorganisationen43
Das strategische Risikomanagement bildet quasi den Rahmen für das operative Risikomanagement, indem damit bezweckt wird, die Wirksamkeit einer Einsatzorganisation sicherzustellen und zu erhalten. Das operative Risikomanagement setzt innerhalb dieses
Rahmens daran an, die Kernprozesse einer Einsatzorganisation so unter risikopolitischen
Gesichtspunkten zu beeinflussen, dass die konkreten Ziele des einsatzorganisationalen
Zielsystems erreicht werden. Die Kernprozesse stellen somit darauf ab, die Leistungswirkungs-, Leistungserbringungs-, Potenzial- und sonstigen Formalziele zu erfüllen.
Entscheidend ist, dass der Risikomanagement-Prozess auf beiden Ebenen durchlaufen
werden muss, wobei wechselseitige Abstimmungen angebracht sind, um passgenau Maßnahmen zu ergreifen. Aus der risikobezogenen Analyse der Umwelt und der daraus abgeleiteten Effektivität folgt die Definition der erwünschten Wirksamkeit der Einsatzorganisation
auf strategischer Ebene. Hier ist das strategische Risikomanagement gefordert, einen Beitrag zur jeweiligen Abstimmung zwischen Umweltänderungen und aktuellem Status der
Wirksamkeit zu leisten. Aus der Festlegung der erwünschten Wirksamkeit einer Einsatzorganisation können dann Anforderungen abgeleitet werden, wie die Teilprozesse der im
operativen Bereich befindlichen Kernprozesse ausgestaltet werden sollen und wie durch
43
Illustration am Beispiel der Kernprozesse des THW, Technisches Hilfswerk: Projektgruppe Fokus Einsatz 2012
130
Eva-Maria Kern, Thomas Hartung
geeignete Risikomanagementmaßnahmen die Kernprozesse „abgesichert“ werden sollen.
Als Beispiel wäre hier die Mitarbeitergewinnung zu nennen. Auf strategischer Ebene üben
Veränderungen der sozialen Umwelt Einfluss darauf aus, wie sich das Personalangebot bei
beruflicher (Polizei, Bundeswehr, Berufsfeuerwehr) oder ehrenamtlicher (THW, freiwillige
Feuerwehr) Tätigkeit in Einsatzorganisationen entwickelt. Wird festgestellt, dass sich keine
Mitwirkenden im Ehrenamt mehr begeistern lassen, müssen auf operativer Ebene Maßnahmen getroffen werden, die bei der Helfer- und Jugendgewinnung ansetzen. Aus dem Risikomanagement der operativen Ebene lassen sich dann wiederum Erkenntnisse gewinnen,
die auf die strategische Ebene zurückgespiegelt werden müssen, um zu prüfen, ob die beabsichtigte Wirksamkeit der Einsatzorganisation noch erreicht wird.
Insgesamt sollte sich die Implementierung bzw. Erweiterung des Risikomanagements in
Einsatzorganisationen an anerkannten Standards, wie beispielsweise ISO 31000 oder variierenden nationalen Normen anlehnen44, um eine entsprechende Akzeptanz zu erfahren. Eine
solche Vorgehensweise kann zudem verhindern, dass bei störungsbehafteten Einsätzen die
manifestierten Risiken im operativen Bereich zum Anlass genommen werden, die prinzipielle strategische Ausrichtung in Form der Wirksamkeit in Frage zu stellen.
5
Fazit
Einsatzorganisationen sind sehr spezifische Dienstleister, deren konkret erforderliche Leistungserstellung jedoch nicht vollständig planbar ist. Eingebettet in eine dynamische Umwelt hat es für Einsatzorganisationen oberste Priorität, sich entsprechend der durch die
Umweltbedingungen und -veränderungen hervorgerufenen Bedrohungslage aufzustellen.
Zudem erfolgt die konkrete Leistungserstellung in der Regel in Hochrisikosituationen, die
durch hohen Zeit-, Entscheidungs- und Handlungsdruck sowie die latent bestehende Gefahr
für Leib und Leben der Einsatzkräfte gekennzeichnet sind.
Risikomanagement stellt daher einen unverzichtbaren Bestandteil des Aufgabenspektrums von Einsatzorganisationen dar. Ausgehend von den Kernprozessen „Einsatz“ bzw.
„Herstellung / Erhalt der Einsatzbereitschaft“ muss ein integriertes Risikomanagementkonzept eine Verknüpfung von strategischer und operativer Ebene sicherstellen. Nur so kann
gewährleistet werden, dass eine dem Auftrag entsprechende Wirksamkeit durch strategische und operative Maßnahmen erreicht wird. Wechselseitige Impulse zwischen strategischer und operativer Ebene lassen sich durch ein integriertes Risikomanagement sowohl zur
Effektivitäts- als auch zur Effizienzsteigerung einer Einsatzorganisation nutzen.
Literatur
Badelt, Christoph / Meyer, Michael / Simsa, Ruth (2007): Die Wiener Schule der NPO-Forschung: in:
Badelt, Christoph / Meyer, Michael / Simsa, Ruth (Hrsg.): Handbuch der Nonprofit Organisation: Strukturen und Management, 4. Auflage, Stutgart, S. 3–16.
Bayerisches Rotes Kreuz (2001): Satzung vom 21. Juli 2001, zuletzt geändert am 22.10.2011, München.
44
Beispielsweise könnte die ÖNORM ISO 31 000 „Risikomanagement“ 6l und der ONR 49000 ff „Risikomanagement“ verwendet werden. Vgl. exemplarisch Fritzenwallner / Hammerschmid, 2013, S. 295.
Zielorientiertes Risikomanagement bei Einsatzorganisationen
131
Bea, Franz Xaver (2009): Entscheidungen des Unternehmens, in: Bea, Franz Xaver / Schweitzer, Marcell
(Hrsg.): Allgemeine Betriebswirtschaftslehre, Bd. 1: Grundfragen, 10. Auflage, Stuttgart, S. 332–437.
Bidlingmaier, Johannes (1964): Unternehmerziele und Unternehmerstrategien, Wiesbaden.
Bidlingmaier, Johannes / Schneider, Dieter J. G. (1976): Ziele, Zielsystem und Zielkonflikte, in: Grochla,
Erwin / Wittmann, Waldemar (Hrsg.): Handwörterbuch der Betriebswirtschaft, 4. Auflage, Band I/3,
Stuttgart, Sp. 4731–4740.
Bundesministerium für Bildung und Forschung (BMBF) (Hrsg.) (2012): Forschung für die zivile Sicherheit
2012 – 2017; Rahmenprogramm der Bundesregierung, Bonn, Berlin
Bundesministerium der Verteidigung (BMVg) (2011): Verteidigungspolitische Richtlinien: Nationale
Interessen wahren – Internationale Verantwortung übernehmen –Sicherheit gemeinsam gestalten, Berlin.
Bruderer, Hansueli (1978): Organisationsformen sozio-technischer Systeme mit Milizcharakter, Dissertationsschrift ETH Zürich.
Bruhn, Manfred / Meffert, Heribert (2012): Handbuch Dienstleistungsmarketing: Planung – Umsetzung –
Kontrolle, Wiesbaden.
Diederich, Helmut (1990): Grundtatbestände der Betriebswirtschaftslehre, in: Jacob, Herbert (Hrsg.): Allgemeine Betriebswirtschaftslehre: Handbuch für Studium und Prüfung, 5. Auflage, Wiesbaden, S. 17–
116.
Fritzenwallner, Rupert / Hammerschmid, Reinhard (2013): Forschungsprojekt „Corporate Security Management“ – ein Statusbericht, in: Österreichische Militärische Zeitschrift, 3/2013, S. 292–300.
Goebel, Eberhard / Schmitt, Axel / Boguslawski, Nicole / Kling, Siegfried (1998): Kosten- und Leistungsrechnung im Feuerwehrwesen: Bd. 1: Die Einführung betriebswirtschaftlicher Instrumente zur Steigerung
der Wirtschaftlichkeit, Helsa.
Hahn, Dietger (1987): Risiko-Management: Stand und Entwicklungstendenzen, in: Zeitschrift für Organisation, Nr. 3, S. 137–150.
Hartmann, Tomas (2012): Prozessmanagement für Dienstleistungen: Entwicklung eines Ansatzes des Prozessmanagements für Dienstleistungsprozesse, Hamburg.
Hilgers, Dennis (2008): Performance Management: Leistungserfassung und Leistungssteuerung in Unternehmen und öffentlichen Verwaltungen, Wiesbaden.
Heinen, Edmund (1991): Industriebetriebslehre als entscheidungsorientierte Unternehmensführung, in:
Heinen, Edmund (Hrsg.): Industriebetriebslehre: Entscheidungen im Industriebetrieb, 9. Auflage, Wiesbaden, S. 1–71.
Heinen, Edmund (1985): Einführung in die Betriebswirtschaftslehre, 9. Auflage, Wiesbaden.
Heinen, Edmund (1976): Grundlagen betriebswirtschaftlicher Entscheidungen: Das Zielsystem der Unternehmung, 3. Auflage, Wiesbaden.
Hellmich, Christian (2010): Qualitätsmanagement und Zertifizierung im Rettungsdienst: Grundlagen –
Techniken – Modelle – Umsetzung, Berlin-Heidelberg.
Horak, Christian (1993): Controlling in Nonprofit-Organisationen: Erfolgsfaktoren und Instrumente, Wiesbaden.
Horak, Christian / Matul, Christian / Scheuch Fritz (2007): Ziele und Strategien von NPOs, in: Badelt,
Christoph / Meyer, Michael / Simsa, Ruth (Hrsg.): Handbuch der Nonprofit Organisation: Strukturen und
Management, 4. Auflage, Stuttgart, S. 178–201.
Kern, Eva-Maria / Hartung, Thomas (2008): Geschäftsprozessorientiertes Risikomanagement am Beispiel
der industriellen Produktion; in: Himpel, F.; Kaluza, B., Wittmann, J. (Hrsg.): Spektrum des Produktionsund Innovationsmanagements – Komplexität und Dynamik im Kontext von Interdependenz und Kooperation, Wiesbaden, S. 55–66.
132
Eva-Maria Kern, Thomas Hartung
Mistele, Peter (2007): Faktoren des verlässlichen Handelns: Leistungspotenziale von Organisationen in
Hochrisikoumwelten, Wiesbaden.
MunichRe (2013): Topics Geo: Naturkatastrophen 2012 – Analysen, Bewertungen, Position, München.
Technisches Hilfswerk: Projektgruppe Fokus Einsatz (2012): Kern, Eva-Maria / Liewald, Astrid / Löffler,
Dietmar: Interne Projekt-Präsentation vom 15.2.2013
Raffée, Hans (1974): Grundprobleme der Betriebswirtschaftslehre, Göttingen.
Stadt Zürich (2010): Strategischer Plan des Polizeidepartements 2010 – 2014, Zürich.
Stötzer, Sandra (2009): Stakeholder Performance Reporting von Nonprofit-Organisationen: Grundlagen und
Empfehlungen für die Leistungsberichterstattung als stakeholderorientiertes Steuerungs- und Rechenschaftslegungsinstrument, Wiesbaden.
Gesetz über das Technische Hilfswerk (THW-Helferrechtsgesetz – THW-Gesetz) vom 22. Januar 1990
(BGBl. I S. 118), geändert zuletzt durch Artikel 5 des Gesetzes vom 11. Juni 2013 (BGBl. I S. 1514).
Implementierung eines Supply Chain Risk Managements
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach
1
Einleitung
Die Planung und Steuerung von Wertschöpfungsaktivitäten, mit der sich Klaus Bellmann in
seinen wissenschaftlichen Werken intensiv beschäftigt (vgl. Bellmann/Gerster 2006, Bellmann 2005, Bellmann/Hippe 1996), stehen bereits seit einigen Jahren nicht nur im Fokus
betriebswirtschaftlicher Forschung, sondern erfahren vor allem in der Praxis eine steigende
Akzeptanz. Ein wesentlicher Grund hierfür ist, dass Unternehmen die Erfolgspotentiale
verteilter Wertschöpfung erkannt haben.
Die zunehmende Vernetzung innerhalb von Wertschöpfungsnetzwerken birgt neben steigender Steuerungs- und Planungskomplexität jedoch auch Risiken, die für viele Unternehmen schwer handhabbar sind (vgl. Bellmann/Mildenberger 1996). Unternehmen müssen
daher heute mehr denn je wirksame Methoden zur Handhabung von Risiken vorhalten. Das
Thema Supply Chain Risk Management (SCRM) hat daher in den letzten Jahren stark an
Bedeutung gewonnen.
Zwar findet sich in der wissenschaftlichen Literatur eine Vielzahl von Beiträgen zum
SCRM, jedoch findet dabei eine Fokussierung auf damit verbundene Gestaltungsempfehlungen zu dessen unternehmensspezifischen Implementierung kaum statt.
Ziel des vorliegenden Beitrags ist es daher, ein Vorgehensmodell zur situationsadäquaten
Implementierung eines SCRM aufzuzeigen. Aufbauend auf einer Klärung der begrifflichen
Grundlagen werden hierzu die Ergebnisse einer empirischen Erhebung zum Thema Risikomanagement in der deutschen Windenergiebranche analysiert. Die Auswertung der 150
Fragebögen geht dabei vertieft auf den Status quo der SCRM-Implementierung ein. Es werden Supply Chain-Risiken und deren Treiber analysiert sowie eine Bewertung von Risikosteuerungsinstrumenten dargestellt. Darüber hinaus werden Hindernisse aufgezeigt, welche
die Umsetzung eines SCRM beeinträchtigen können. Abschließend wird ein Vorgehensmodell zur situationsadäquaten Implementierung eines SCRM vorgestellt, in welches die
Ergebnisse von vier Fallstudien eingeflossen sind. Das Modell soll Entscheidungsträger bei
der Implementierung eines SCRM unterstützen, wobei die besonderen Anforderungen ihres
Unternehmens Berücksichtigung finden.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_11,
© Springer Fachmedien Wiesbaden 2013
134
2
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach
Management von Risiken in Wertschöpfungsnetzwerken
Zunächst werden die Begriffe Supply Chain Management, Risiko und Risikomanagement
voneinander abgegrenzt. Anschließend erfolgt eine Beschreibung des Risikomanagements
in der Supply Chain sowie der bestehenden SCRM-Ansätze in der Literatur.
2.1 Supply Chain Management
Sowohl in der betriebswirtschaftlichen Forschung als auch in der Unternehmenspraxis ist
der Begriff „Supply Chain Management“ (SCM) fest etabliert. Eingeführt durch Oliver und
Webber (1982) wurde unter dem Begriff SCM zunächst die funktions- und unternehmensübergreifende Planung und Steuerung von Material- und Informationsflüssen entlang der
Lieferkette verstanden. Neben dem Supply Chain-Begriff wurde auch das Konzept des
SCM in der Folgezeit sukzessive weiterentwickelt.
Tier 2
Zulieferer
Tier 1
Zulieferer
Tier 1
Kunden
1
2
n
2
1
1
n
2
2
1
1
n
n
1
2
3
3
n
1
n
n
n
1
1
n
n
Überwachte Prozessverbindung
Nicht gesteuerte Prozessverbindung
Prozessverbindung von nicht Mitgliedern
1
2
n
Gesteuerte Prozessverbindung
Abbildung 1:
Tier 3 bis n
Kunden /
Endkunden
Tier 3 bis n Kunden
Tier 3 bis n Zulieferer
Erstzulieferer
1
Tier 2
Kunden
Kunden / Endkunden
Tier 3 bis n
Zulieferer /
Erstzulieferer
Fokales Unternehmen
Mitglieder der Supply Chain des fokalen Unternehmens
Keine Mitglieder der Supply Chain des fokalen Unternehmens
Allgemeines SCM Modell (übersetzt nach Lambert et al. 1998, S. 7)
Das eher eindimensionale Begriffsverständnis, das die Supply Chain als sequentielle
Verkettung der an der Wertschöpfung beteiligten Unternehmen verstand, wich im Zuge der
Weiterentwicklung einem vom Netzwerkgedanken geprägten Supply Chain-Begriff, der die
Vielfalt der Lieferanten-Abnehmer-Beziehungen im Zuge der Wertschöpfung abbildet (vgl.
Lambert/Cooper 2000, Christopher 2005 etc.). Dieses Supply Chain-Verständnis wird in
Abbildung 1 dargestellt.
Implementierung eines Supply Chain Risk Managements
135
Der SCM-Begriff wurde ebenfalls durch die Einbeziehung der unternehmensübergreifenden Planung und Steuerung von Finanzströmen und Dienstleistungen den veränderten
strukturellen und ökonomischen Rahmenbedingungen angepasst (vgl. Bowersox et al.
2007, Simchi-Levi et al. 2004). Obwohl weder in der Literatur noch in der Praxis eine allgemein gültige und akzeptierte SCM-Definition etabliert ist, so ist erkennbar, dass der Aspekt der unternehmensübergreifenden Koordination allen Definitionen gemein ist. Dem
vorliegenden Beitrag liegt das SCM-Verständnis von Christopher (2005, S. 5) zugrunde,
wonach SCM als „das Management von Beziehungen zwischen Lieferanten und Abnehmern mit dem Ziel, überlegenen Kundennutzen bei geringeren Supply-Chain-bezogenen
Kosten“ definiert ist. Dieses SCM-Verständnis erweitert den ursprünglichen SCM-Begriff
dahingehend, dass das Management von Wertschöpfung im Sinne der Erfüllung eines konkreten Kundennutzens in den Vordergrund gerückt wird.
2.2 Risiko und Risikomanagement
Der Begriff „Risiko“ unterliegt in der Unternehmenspraxis zum Teil sehr unterschiedlichen
Interpretationen. Im wissenschaftlichen Kontext wird der Risikobegriff in Abhängigkeit des
jeweiligen Forschungsfelds ebenfalls unterschiedlich ausgelegt.
In der Risikoforschung mit betriebswirtschaftlichen Bezug können allgemein zwei definitorische Strömungen unterschieden werden: ursachenbezogene vs. wirkungsbezogene Ansätze (vgl. Braun 1984, Fiege 2006). Während die ursachenbezogenen Definitionen Risiko
als Resultat einer unsicheren Zukunftssituation verstehen, betrachten wirkungsbezogene
Ansätze die Effekte, die der Eintritt eines Risikos hat. So definiert Knight (1921) als Vertreter der ursachenbezogenen Strömung Risiko als quantifizierbare und damit messbare
Unsicherheit.
Im Vordergrund der wirkungsbezogenen Risikodefinitionen steht die Verlustgefahr als
Wirkweise des Risikos. In diesem Zusammenhang beschreibt Leitner (1915, S. 7) Risiken
als „unmittelbare und mittelbare Vermögensbestandsverluste und Vermögensaufwendungen”, während Wittmann (1959, S. 36) Risiko allgemein als ein „Misslingen von Plänen“
definiert. Allen wirkungsbezogenen Ansätzen ist somit gemein, dass sie ein Risiko als
„Möglichkeit der Zielverfehlung“ interpretieren (Braun 1984, S. 23).
Dieser Logik folgend würde jedoch nicht zwischen negativer und positiver (in Bezug auf
die gefassten Unternehmensziele) Verfehlung unterschieden werden, was von Kupsch
(1973) als wesentlicher Kritikpunkt an diesem Ansatz formuliert wird.
Die zentrale Bedeutung der Unterscheidung der Begriffe „Risiko“ und „Chance“ wird
deutlich, wenn das Verständnis der Begrifflichkeiten in Literatur und Praxis gespiegelt
wird. So zeigen March und Shapira (1987) in einer empirischen Erhebung, dass im Praxisumfeld ein Risiko als negative Zielverfehlung und Chance als Zielerreichung oder positive
Ziel(über)erfüllung verstanden wird. Aus ihrer Studie leiten sie darüber hinaus eine Risikodefinition ab, der im vorliegenden Artikel gefolgt wird. Demnach ist ein Risiko als Produkt
der Eintrittswahrscheinlichkeit eines negativen Ereignisses und der zu erwartenden Schadenshöhe definiert.
Das Management von Risiken hat seinen Ursprung in der amerikanischen Managementpraxis und bezeichnet ursprünglich eine Unternehmensfunktion zum kostenoptimalen Ma-
136
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach
nagement versicherbarer Risiken, wie z.B. Haftpflicht oder Brand (vgl. Thom 2008). In der
Folgezeit wurde das Begriffsverständnis sukzessive dahingehend erweitert, dass unter Risikomanagement nunmehr auch die Handhabung nicht-versicherbarer Risiken gefasst wird,
die etwa als Resultat unternehmerischer Handlungen entstehen (vgl. Hahn 1987, Fiege
2006). Daher beschreibt Mikus das Risikomanagement als zentrale Funktion des unternehmerischen Führungsprozesses, dessen Aufgabe darin besteht, im Sinne einer nachhaltigen
Existenzsicherung negative Abweichungen von den durch die Unternehmensführung festgelegten Zielen zu verhindern (vgl. Mikus, 1996).
Eine zeitgemäße Definition des Risikomanagements, die die systematische Handhabung
auch nicht-versicherbarer Risiken (z.B. Managemententscheidungen, Wettbewerberverhalten etc.) einschließt, ist durch den „Deutschen Rechnungslegungsstandard Nr. 5 – Risikoberichtserstattung“ gegeben. Danach ist Risikomanagement „ein nachvollziehbares, alle Unternehmensaktivitäten umfassendes System, das auf Basis einer definierten Risikostrategie
ein systematisches und permanentes Vorgehen mit folgenden Elementen umfasst: Identifikation, Analyse, Bewertung, Steuerung, Dokumentation und Kommunikation von Risiken
sowie die Überwachung dieser Aktivitäten“ (DRSC 2010, Artikel 9). Darüber hinaus weist
das Gesetz für Kontrolle und Transparenz im Unternehmensbereich (KonTraG) Unternehmen in Deutschland darauf hin, „geeignete Maßnahmen zu treffen, insbesondere ein Überwachungssystem einzurichten, damit den Fortbestand der Gesellschaft gefährdende Entwicklungen früh erkannt werden“ (§91 Abs. 2 AktG – Aktiengesetz).
Die Umsetzung bzw. Einbettung eines strukturierten Risikomanagementprozesses in Unternehmen wird in der Fachliteratur umfänglich diskutiert. In diesem Zusammenhang hat
sich ein vierstufiges, generisches Vorgehensmodell etabliert, welches nachfolgend auf die
Supply Chain angewendet wird.
2.3 Ansätze zum Risikomanagement in der Supply Chain
Wie zuvor erwähnt, hat das SCRM in den letzten Jahren sowohl in der Theorie als auch in
der Unternehmenspraxis an Bedeutung gewonnen. SCRM verbindet die zuvor beschriebenen Ansätze zum Risikomanagement und SCM. Dabei wird unter SCRM der “[…] Baustein innerhalb des unternehmensübergreifenden SCM, der alle Strategien und Maßnahmen,
alles Wissen, alle Institutionen, alle Prozesse sowie alle Technologien umfasst, die auf
technischer, personeller und organisatorischer Ebene dazu geeignet sind, das Risiko innerhalb einer Supply Chain zu verkleinern” verstanden (Kersten et al. 2007, S. 1171).
Da eine Vielzahl von Supply Chain-Risiken existieren, gibt es verschiedene Ansätze diese zu kategorisieren. Christopher und Peck (2004) unterscheiden zum Beispiel Risiken die
im Umfeld, in der Supply Chain oder im Unternehmen wirken. Auf der Ebene der Supply
Chain differenzieren sie zwischen Beschaffungs- und Nachfragerisiken, während im Unternehmen Steuerungs- und Prozessrisiken auftreten können.
Eine solche übergeordnete Klassifizierung von Supply Chain-Risiken kann beliebig verfeinert werden, zum Beispiel unterscheidet Rogler (2002) Beschaffungsrisiken in Bedarfsdeckungs-, Liefer-, Transport- und Lagerrisiken.
Um mit der hohen Anzahl an möglichen Risiken umgehen zu können, müssen diese für
die betrachtete Supply Chain bzw. aus Unternehmenssicht systematisch identifiziert wer-
Implementierung eines Supply Chain Risk Managements
137
den. Dies erfolgt im Rahmen des standardisierten SCRM-Prozesses, der in Anlehnung zur
Risikomanagementtheorie in vier Phasen unterteilt ist: Risikoidentifikation, -analyse,
-steuerung und -kontrolle.
In der Phase der Risikoidentifikation werden Risiken systematisch gesammelt (vgl.
Norrman/Lindroth 2004). Diese Sammlung von Risiken bildet die Grundlage für die folgenden Prozessschritte und ist von besonderer Bedeutung, da nicht identifizierte Risiken
auch in den weiteren Schritten nicht beachtet werden. Es handelt sich hierbei um ein MetaRisiko, das durch den Einsatz geeigneter Instrumente möglichst minimiert werden sollte.
Pfohl et al. (2008) geben zum Beispiel einen Überblick über mögliche Risikoidentifikationsinstrumente. Eine geeignete Methode ist hierbei z.B. die Erstellung von Risikokatalogen
(vgl. Kajüter 2003).
Nachdem die Supply Chain-Risiken identifiziert sind, folgt in der zweiten Prozessphase
die Analyse. Dafür eignen sich die beiden Dimensionen Eintrittswahrscheinlichkeit (im
Folgenden auch Häufigkeit genannt) und Schadenshöhe bzw. -ausmaß (vgl. Kajüter 2003,
Wagner/Bode 2007). Für die Analyse von Supply Chain-Risiken existiert ebenfalls eine
Vielzahl von Methoden. Diese sollten für die zu betrachteten Risiken ausgewählt werden,
da zum Beispiel Versorgungs- und Umweltrisiken verschiedene Merkmale aufweisen.
Kajüter (2003) schlägt weiterhin vor, diesen Schritt auch in Zusammenarbeit mit Supply
Chain-Partnern durchzuführen.
In der Phase der Risikosteuerung werden Maßnahmen ergriffen, die zum Beispiel die
Eintrittswahrscheinlichkeit von identifizierten und bewerteten Risiken verringern können.
Es können aber auch Maßnahmen ergriffen werden, die die Schadenshöhe von Risiken
reduzieren. Neben diesen zwei allgemeinen Risikosteuerungsarten, kommen noch Maßnahmen in Frage, die zu einer Risikoteilung, zur Versicherung oder zum Selbsttragen von
Risiken führen (vgl. Haller 1986).
Die Risikokontrolle bildet die vierte Phase des Prozesses. Hierbei geht es um die Überprüfung der Effektivität der eingesetzten Instrumente. Dies kann zum Beispiel mit Hilfe
einer Balanced Scorecard erfolgen, die einen systematischen Informationsaustausch auch
zum leitenden Management ermöglicht (vgl. Kajüter 2003).
Grundsätzlich sollte der SCRM-Prozess regelmäßig durchlaufen werden, da sich die Bewertungen in den einzelnen Phasen kontinuierlich verändern können (vgl. Eberle 2005).
Hierbei ist nicht zuletzt eine effektive organisatorische Implementierung des SCRM von
Bedeutung.
Eine Analyse der Literatur zeigt jedoch, dass sich nur wenige wissenschaftliche Beiträge
mit der organisatorischen Implementierung eines SCRM befassen (vgl. Tabelle 1).
138
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach
Tabelle 1:
SCRM und Implementierung in der Literatur (Auszug übersetzt nach Schroeder et al. 2013)
Autoren
SCRM-Bezug
Fokus auf Implementierung
Burger und Burchart (2002)
Hallikas et al. (2005)
Heusler (2004)
Jüttner et al. (2003)
Österle und Winter (2003)
Pfohl et al. (2007)
Ritchie und Brindley (2004)
Schorcht (2004)
Winter (2009)
Zeyer (1996)
Legende:
Kriterium erfüllt
Kriterium teilweise erfüllt,
Kriterium nicht erfüllt
Häufig wird nur auf Teilbereiche der Implementierung oder auf SCRM im Allgemeinen
fokussiert (vgl. z.B. Hallikas et al. 2005, Jüttner et al. 2003).
Burger und Burchart (2002) beschäftigen sich in ihrem Beitrag umfassend mit der Fragestellung, ob ein internes Risikomanagement zentral oder dezentral angesiedelt oder ob es
separat bzw. in eine bestehende Organisationseinheit integriert werden sollte. Zwar reflektieren sie die Vor- und Nachteile der organisatorischen Einbindung, lassen jedoch situative
Faktoren außen vor.
Heusler (2004) beschäftigt sich intensiv mit der Planung, Realisierung und Kontrolle des
Implementierungsprozesses, betrachtet hierbei allerdings den Implementierungsprozess im
Allgemeinen und geht nur am Rande auf SCRM ein.
Pfohl et al. (2007) vergleichen einzelne Aspekte der Implementierung eines SCRM auf
Unternehmensebene mit der auf Supply-Chain-Ebene. Zwar werden einzelne Vor- und
Nachteile aufgezeigt, konkrete Gestaltungsempfehlungen für Unternehmen bleiben jedoch
aus.
Schorcht (2004) widmet sich verstärkt dem Thema der Implementierung eines SCRM. Er
führt ein siebenstufiges Phasenkonzept ein, welches mit dem Projektanstoß (Phase 1) beginnt und mit dem Anstoß zur Anpassung und Weiterentwicklung (Phase 7) abschließt.
Hierbei handelt es sich jedoch um ein idealtypisches Konzept, bei dem situative Aspekte
unberücksichtigt bleiben.
Ritchie/Brindley (2004) sowie Winter (2009) schließen in ihren Arbeiten situative Faktoren mit ein. Zwar finden z.B. die Unternehmensgröße, Organisationsstrukturen oder Anzahl
Implementierung eines Supply Chain Risk Managements
139
der Schnittstellen bei den Gestaltungsempfehlungen Berücksichtigung, ein thematischer
Schwerpunkt auf SCRM wird jedoch nicht gewählt.
Abschließend ist festzuhalten, dass wissenschaftliche Artikel, die sich mit dem Implementierungsprozess beschäftigen, überwiegend auf andere Managementmethoden fokussieren, wie z.B. Business Engineering (vgl. Österle/Winter 2003) oder Lean Management (vgl.
Zeyer 1996). Zwar existieren einzelne Konzepte zur organisatorischen Implementierung
eines SCRM, jedoch besteht hinsichtlich der Einbindung situativer Faktoren eine Forschungslücke.
3
Studienergebnisse zum SCRM in der deutschen
Windenergiebranche
Um den aktuellen Stand der SCRM Implementierung in der Praxis zu untersuchen, hat das
Institut für Logistik und Unternehmensführung in Zusammenarbeit mit der Putz und Partner Unternehmensberatung AG eine quantitative Studie durchgeführt. Bei der Auswertung
wurden insbesondere situative Faktoren berücksichtigt. Die Ergebnisse werden im Folgenden vorgestellt.
3.1 Design der Studie
Die Studie wurde im Zeitraum April bis Juni 2012 durchgeführt (siehe auch Kersten et al.
2012). Sie erreichte eine Rücklaufquote von 36% und basiert auf 150 Rückmeldungen. Es
wurden 412 Einladung an Unternehmensvertreter für den online-basierten Fragebogen
verschickt und anschließend umfangreiche telefonische Nachfragen durchgeführt. Im Rahmen der Erhebung sollten alle Stufen der Wertschöpfungskette der deutschen Windenergiebranche abgedeckt werden. 45% der Antworten stammen von Komponenten-, 16% von
Material-, 15% von Systemlieferanten, 10% von Anlagenherstellern (OEM – Original
Equipment Manufacturer), sowie 8% von Dienstleistern bis zum Netzanschluss und 6% von
Dienstleistern im Betrieb. Die Unternehmen der Studie verfügen über eine hohe Branchenerfahrung. So sind knapp 60% seit mindestens zehn Jahren in der Windenergie tätig, während lediglich knapp 10% der Unternehmen noch keine fünf Jahre in der Branche vertreten
sind. Insgesamt entstammen 43% der Antworten von großen Unternehmen mit 500 oder
mehr Mitarbeitern, 35% von mittleren und 22% von kleinen mit weniger als 100 Angestellten.
Die Befragung war in fünf Themengebiete aufgeteilt. Der erste Teil behandelte allgemeine Daten der Unternehmen. Anschließend wurde um eine Einschätzung von Risiken nach
den Dimensionen Häufigkeit und Schadenshöhe gebeten. Weiterhin gab es in diesem Teil
eine Abfrage von Risikotreibern. Der dritte Teil analysierte den Einsatz von SCRM. Es
wurden Hindernisse zur Einführung eines SCRM bewertet und anschließend der Einsatz
von Instrumenten der Risikosteuerung beleuchtet. Der fünfte Teil fragte abschließend aktuelle Managementtrends ab.
140
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach
3.2 Supply Chain-Risiken und deren Treiber in der
Windenergiebranche
Die Studie analysiert insgesamt 32 Versorgungs-, Nachfrage-, Steuerungs-, Umfeld- und
Prozessrisiken. Über die gesamte Stichprobe wird das höchste Schadensausmaß dem Zahlungsausfall bzw. der Insolvenz eines Kunden und dem Verlust von Kunden an internationale Wettbewerber zugeordnet. Diesen Risiken wird allerdings eine vergleichsweise geringe Eintrittswahrscheinlichkeit beigemessen. Schwankungen der Nachfragemenge sowie ein
verzögerter Abruf bestellter Leistungen durch den Kunden weisen dagegen eine hohe Häufigkeit bei relativ geringem Schaden auf. Insgesamt wird die Gruppe der Nachfragerisiken
in der Kombination von Eintrittswahrscheinlichkeit und Schadensausmaß höher bewertet
als alle anderen abgefragten Risiken.
Bei den Versorgungsrisiken dominieren ein Anstieg von Rohstoffpreisen, ein Preisanstieg
von Bauteilen und eine verzögerte Zulieferung. Während bei den Steuerungs-, Umfeld- und
Prozessrisiken Themen wie ein Bauteilversagen und -austausch während des Betriebs, ein
Wissensabfluss an Wettbewerber sowie ein Ausfall von Schlüsselpersonal am höchsten
bewertet werden.
Neben den Supply Chain-Risiken wurden auch deren Treiber auf einer siebenstufigen
Likert-Skala abgefragt. Eine Abhängigkeit von Personen mit besonderen Qualifikationen
und weltweiter Wettbewerb werden hierbei als wichtigste Treiber identifiziert. Nachfolgend
spielt die Abhängigkeit von anderen Unternehmen der Supply Chain sowie single sourcing
eine dominierende Rolle. Eine geringe Verfügbarkeit von Equipment für Transport und
Errichtung und inkompatible Informationssysteme wird dagegen als weniger relevant eingestuft.
3.3 Status quo der SCRM-Implementierung
Die Studie zeigt auf, dass nur 40% der befragten Unternehmen über eine SCRM verfügen.
Weitere 30% planen die Einführung eines solchen, aber knapp ein Drittel beabsichtigen
zurzeit keine SCRM Implementierung. Eine Auswertung nach dem situativen Faktor Unternehmensgröße ist hier aufschlussreich: Mittlere und große Unternehmen verfügen zu
60% über ein SCRM. In dieser Gruppe planen weitere 26% eine Einführung eines SCRM,
wohingegen kleine Unternehmen nur zu 16% bereits ein SCRM implementiert haben. 36%
der teilnehmenden Unternehmen planen zumindest die Einführung, aber knapp die Hälfte
sehen hier keinen Handlungsbedarf.
In Bezug auf die organisatorische Einbindung eines SCRM in den Unternehmen liefert
die Studie ebenfalls hilfreiche Erkenntnisse: So wird SCRM in den betrachteten Unternehmen fast zu gleichen Prozentsätzen von einer Stabsstelle, Linien- oder Stabsfunktion aus
organisiert. Der Betrachtungshorizont liegt in der Mehrzahl der Unternehmen auf der ersten
Wertschöpfungsstufe. In der Praxis betrachten nur wenige SCRM-Ansätze darüber hinaus
auch die zweite oder dritte Stufe.
Zur Identifizierung von Risiken im Rahmen der Risikoanalyse setzen die meisten Unternehmen Instrumente der Lieferanten- und Kundenbewertung ein. Qualitäts- und Prozessaudits spielen neben Marktanalysen ebenfalls eine wichtige Rolle. Sensitivitäts- und Szenarioanalysen werden seltener eingesetzt und gleichzeitig in ihrer Eignung geringer eingeschätzt.
141
Implementierung eines Supply Chain Risk Managements
Insgesamt werden die meisten Methoden als geeigneter angesehen als sie in der Praxis
tatsächlich eingesetzt werden, was auf ein Anwendungsdefizit für Risikoanalyseinstrumente
hinweist.
Abbildung 2 illustriert die Anwendung und Eignung von Risikosteuerungsinstrumenten.
Wie schätzen Sie die grundsätzliche Eignung der folgenden Instrumente des SCRM ein? Beurteilen Sie bitte auch
die Anwendungshäufigkeit dieser Instrumente in Ihrem Unternehmen.
sehr hoch
6
Gesamtstichprobe (N=91)
5
6
9
4
Anwendung
3
7
3
12
2
sehr gering
13
8 14
5
11
4
19
16 1 17 18
15
2
10
20
1
0
0
1
2
3
4
sehr gering
5
6
sehr hoch
Eignung
Abbildung 2:
1
Collaborative Planning
2
Kontinuitätsplanung
3
Aufbau langfristig orientierter Zuliefer-AbnehmerBeziehungen
4
Lokale / regionale Beschaffung
5
Multiple Sourcing
6
Auswahl zertifizierter Zulieferer
7
Lieferantenentwicklung
8
Versicherung gegen das Eintreten einzelner Risiken
9
Vertragliche Regelungen (Rahmenverträge,…)
10
Schulungen des Personals zum Risikomanagement
11
Verbesserung der internen und externen
Kommunikationsstruktur
12
Einsatz von Krisenmanagementteams
13
Räumliche Annäherung von Hersteller und Lieferanten
14
Puffer (Zeit, Bestände, Kapazität,…) im eigenen
Unternehmen
15
Puffer (Zeit, Bestände, Kapazität,…) in der Supply Chain
16
Insourcing von kritischen Prozessen
17
Flexibilität der Produkte hinsichtlich Spezifikationen und
Komponenten
18
Verwendung von Standardbauteilen
19
Standardisierung von unternehmensübergreifenden
Prozessen
20
Aufschubstrategie
Bewertung von Risikosteuerungsinstrumenten
Quelle: Kersten et al. 2012, S. 419
Eine hohe Übereinstimmung zwischen Anwendung und Eignung ist bei der Auswahl zertifizierter Zulieferer (6) und bei vertraglichen Regelungen (9) zu beobachten. Diese Instrumente sind auch mit dem Aufbau von langfristig orientierten Zuliefer-AbnehmerBeziehungen (3) in beiden Dimensionen am höchsten bewertet. Lokale bzw. regionale Beschaffung (4) und die Versicherung gegen das Eintreten einzelner Risiken (8), sowie der
Aufbau von Puffern im eigenen Unternehmen (14) werden weiterhin als sehr geeignet angesehen und auch häufig angewendet. Insgesamt wird ein Anwendungsdefizit deutlich, da fast
alle Instrumente unterhalb der gestrichelten Diagonalen liegen, die eine Übereinstimmung
zwischen Eignung und Anwendung signalisiert (siehe Abbildung 2).
142
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach
3.4 Umsetzungshindernisse eines SCRM
Die Studie gibt zudem Aufschluss über Hindernisse, welche die Umsetzung eines SCRM
beeinträchtigen. Dem Fehlen von freien Managementkapazitäten, unzureichendem Wissen
über SCRM sowie mangelnder Transparenz in der Supply Chain wird in diesem Zusammenhang die größte Bedeutung zugemessen. Um den Einfluss der Unternehmensgröße auf
die Umsetzungshindernisse zu analysieren, wurde in Abbildung 3 eine situative Auswertung vorgenommen.
Welche Bedeutung haben für Ihr Unternehmen die folgenden Hindernisse
bezüglich der Umsetzung eines Supply Chain Risk Managements?
6
5
4
3
2
1
Kleine Unternehmen (N=50)
Abbildung 3:
Mittlere Unternehmen (N=63)
Keine freien Managementkapazitäten
Fehlende Top-Management
Unterstützung
Unklare organisatorische Einbettung
Ungenügende Berücksichtigung in
Zielvereinbarungen der Mitarbeiter
Wissen über SCRM ist nicht
ausreichend
Keine geeigneten Werkzeuge vorhanden
Mangelnde IT-Unterstützung
Ungenügende finanzielle Mittel
Unklare Koordination innerhalb der SC
Mangelndes Vertrauen zu SC-Partnern
Eingeschränkter Informationsaustausch
mit SC-Partnern
Mangelnde Transparenz in der SC
Keine stabile Beziehung mit SCPartnern
Keine Notwendigkeit von SCRM
0
Große Unternehmen (N=44)
Hindernissen zur Umsetzung eines SCRM nach Unternehmensgröße
Quelle: Eigene Darstellung
Die Ergebnisse verdeutlichen, dass für große Unternehmen auch die unklare Koordination innerhalb der Supply Chain, mangelnde IT-Unterstützung und das Fehlen von geeigneten Werkzeugen bedeutende Hindernisse darstellen.
Im Gegensatz zu großen bewerten kleine und mittlere Unternehmen insbesondere die fehlende Notwendigkeit von SCRM als wichtiges Hindernis. Eine abnehmende Bedeutung von
großen über mittlere hin zu kleinen Unternehmen lässt sich insbesondere im mangelnden
Vertrauen zu Supply Chain-Partnern beobachten.
Implementierung eines Supply Chain Risk Managements
4
143
Vorgehensmodell zur situationsadäquaten Implementierung eines
SCRM
Wie zuvor beschrieben ist die Einführung eines SCRM für Unternehmen in der Regel mit
Hindernissen und besonderen Herausforderungen verbunden. Häufig stehen bei der Umsetzung eines Risikomanagements nur geringe Ressourcen zu Verfügung, was insbesondere
kleine und mittelständige Unternehmen vor Probleme stellt.
Um Unternehmen die Implementierung eines SCRM zu erleichtern, führen die Autoren
aktuell ein Forschungsprojekt zur situationsadäquaten Implementierung eines SCRM
(SitRisk) durch.
Im Rahmen des Projektes werden zunächst Einflussfaktoren auf das SCRM in der Unternehmenspraxis identifiziert. Auch aus den zuvor beschriebenen Ergebnissen der Studie
werden Anforderungen an eine Implementierung abgeleitet. Die Erkenntnisse werden anschließend in ein Konzept zur Implementierung von SCRM überführt, bei dem situative
Faktoren Berücksichtigung finden. Durch ein situativ angepasstes SCRM kann auftretenden
Supply Chain-Risiken proaktiv gegengesteuert werden, so dass z.B. langfristige Unterbrechungen der Wertschöpfungskette vermieden werden können. Das entwickelte Modell soll
Unternehmen zur Entscheidungsunterstützung in den einzelnen SCRM-Phasen dienen.
Neben einer ausführlichen Literaturrecherche wurden im Zeitraum Januar bis April 2013
vier umfangreiche Fallstudien in Unternehmen der Medizintechnikbranche durchgeführt.
Hier stand die unternehmensspezifische Ausgestaltung des SCRM im Vordergrund der
Diskussionen mit den Unternehmensvertretern.
Die Autoren des Beitrags gelangten zu der Erkenntnis, dass das Referenzmodell sowohl
strukturelle und SCRM-prozessbezogene Aspekte als auch situative Faktoren beinhalten
sollte (basierend auf Ritchie/Brindley 2004, Winter 2009, vgl. Abbildung 4).
Die strukturellen Aspekte sollten sich dabei über die organisatorische, technologische
und personelle Implementierung erstrecken (basierend auf Pfohl et al. 2007, Burger/Burchart 2002, Heusler 2004). Gleichzeitig muss eine Abstimmung der strukturellen
Aspekte auf die einzelnen Phasen des SCRM-Prozesses Risikoidentifikation, -analyse,
-steuerung und -kontrolle erfolgen (siehe Kapitel 2.3).
Als weiterer Bestandteil des Modells wurden zudem Methodenkataloge zusammengestellt. Jeder Katalog beinhaltet eine Beschreibung der Methoden und Instrumente, die in
den einzelnen SCRM-Phasen angewandt werden können.
Unter Berücksichtigung der situativen Faktoren hilft das Vorgehensmodell, diejenigen
Methoden auszuwählen, die am besten zu dem entsprechenden Unternehmen passen. So
muss bspw. im Rahmen der SCRM-Phase Risikoidentifizierung zunächst entschieden werden, wie der Identifizierungsprozess konkret ablaufen soll, ob z.B. Zulieferer in den Prozess
integriert werden sollen und welche Instrumente sich in dieser Phase eignen. Anschließend
müssen Methoden ausgewählt werden, die sich zum einen zur Risikoidentifizierung eignen,
zum anderen jedoch auch auf das Unternehmen abgestimmt sind. So können bei der Risikoidentifizierung z.B. Simulationsmodelle zur Hilfe genommen werden, deren Anwendung
jedoch voraussetzt, dass das Unternehmen über entsprechende Kenntnisse im Umgang
damit verfügt (Schroeder et al. 2013).
144
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach
Situationsadäquates Vorgehensmodell
Phase
Vorbereitung
Struktur
Organisation
Prozess
RisikoIdentifikation
Implementierung
Personal
IT
Risikoanalyse
Dauerhafte
Anwendung
Risikosteuerung
Risikokontrolle
Methode
Abbildung 4:
Situationsadäquates Vorgehensmodell zur Implementierung eines SCRM (übersetzt nach
Schroeder et al. 2013)
Das im Rahmen des Projekts entwickelte Vorgehensmodell wird in den nächsten Monaten anhand weiterer Fallstudien evaluiert.
5
Zusammenfassung und Ausblick
Die durchgeführte Literaturanalyse sowie die gewonnenen Erkenntnisse aus der beschriebenen Studie zeigen, dass eine Vielzahl potentieller Supply Chain-Risiken existiert, die zu
Störungen in verteilten Wertschöpfungsketten führen können. Ein effektives SCRM trägt
daher zur Wettbewerbsfähigkeit von Unternehmen teil, insbesondere wenn diese in komplexen Wertschöpfungsnetzwerken eingebunden sind.
Die Ergebnisse der vorgestellten Studie zeigen die aktuelle Risikosituation in der deutschen Windenergiebranche auf. Zudem ermöglicht die Studie eine Analyse des Status quo
der SCRM-Implementierung: Nur 40% der befragten Unternehmen verfügen bislang über
Implementierung eines Supply Chain Risk Managements
145
ein SCRM. Zumindest gaben weitere 30% an, eine Einführung zu planen. Knapp ein Drittel
der befragten Unternehmen haben allerdings bislang kein SCRM implementiert und planen
ein solches auch nicht. Weiterhin wird bei der Analyse von SCRM-Methoden ein Anwendungsdefizit deutlich, da die meisten Methoden als geeigneter eingeschätzt werden, als sie
tatsächlich angewendet werden. Zudem erschweren z.B. unklare Koordination innerhalb
der Supply Chain, mangelnde IT-Unterstützung oder das mangelnde Vertrauen zu Supply
Chain-Partnern die Umsetzung des SCRM. Um die SCRM-Implementierung zu erleichtern
und sie dauerhaft effizient umzusetzen, ist es sinnvoll, situative Faktoren bei der Implementierung zu berücksichtigen. Die durchgeführte Literaturanalyse zeigt in diesem spezifischen
Feld eine Forschungslücke. Daher wurden von den Autoren vier Fallstudien durchgeführt,
um ein Vorgehensmodell zur situationsadäquaten Implementierung eines SCRM abzuleiten. Das Modell berücksichtigt sowohl auf struktureller als auch SCRM-prozessbezogener
Ebene situative Faktoren. Dabei umfasst die strukturelle Ebene organisatorische, technische
und personelle Aspekte. Weiterhin wird die Implementierung durch das Vorgehensmodell
insoweit unterstützt, dass geeignete Methoden für jede SCRM-Prozessphase vorgeschlagen
werden.
Das vorgestellte Modell befähigt somit Entscheidungsträger bei der Implementierung eines SCRM unter Berücksichtigung der besonderen Anforderungen ihres Unternehmens.
Zur Validierung des entwickelten Vorgehensmodells sind weitere Fallstudien geplant.
Förderhinweis
Das Projekt zur situationsadäquaten Implementierung eines Supply Chain Risk Managements „SitRisk“ (IGF-Vorhaben 17234 N / 1) der Forschungsvereinigung Bundesvereinigung Logistik e.V. - BVL, Schlachte 31, 28195 Bremen wird über die Arbeitsgemeinschaft
industrieller Forschungsvereinigungen „Otto von Guericke“ (AiF) e. V. im Rahmen des
Programms zur Förderung der industriellen Gemeinschaftsforschung und -entwicklung
(IGF) vom Bundesministerium für Wirtschaft und Technologie aufgrund eines Beschlusses
des Deutschen Bundestages gefördert. Die Projektlaufzeit erstreckt sich von Januar 2012
bis Juni 2013.
Literatur
Bellmann, K. (2005): Flexibilisierung der Produktion durch Dienstleistungen, in: Kaluza, B. / Blecker, T.
(Hrsg.): Erfolgsfaktor Flexibilität – Strategien und Konzepte für wandlungsfähige Unternehmen, Erich
Schmidt, Berlin, S. 153–174.
Bellmann, K. / Gerster, B. (2006): Netzwerkmanagement kleiner und mittlerer Unternehmen, in: Blecker,
T. / Gemünden, H. (Hrsg.): Wertschöpfungsnetzwerke – Festschrift für Bernd Kaluza, Erich Schmidt,
Berlin, S. 53–68.
Bellmann, K. / Hippe, A. (1996): Netzwerkansatz als Forschungsparadigma im Rahmen der Untersuchung
interorganisationaler Unternehmensbeziehungen, in: Bellmann, K. / Hippe, A. (Hrsg.): Management von
Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung, Gabler, Wiesbaden, S. 3–18.
Bellmann, K. / Mildenberger, U. (1996): Komplexität und Netzwerke, in: Bellmann, K. / Hippe, A. (Hrsg.):
Management von Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung,
Gabler, Wiesbaden, S. 121–156.
146
Wolfgang Kersten, Meike Schröder, Max Feser, Markus Klotzbach
Bowersox, D. J. / Closs, D. J. / Cooper, M. B. (2007): Supply chain logistics management, McGraw-Hill /
Irwin, Mass. (u.a.).
Braun, H. (1984): Risikomanagement: Eine spezifische Controllingaufgabe, Toeche-Mittler, Darmstadt.
Burger, A. / Buchhart, A. (2002): Risiko-Controlling, Oldenbourg, München (u.a.).
Christopher, M. (2005): Logistics and Supply Chain Management: creating value-adding networks, Financial Times / Prentice Hall, Harlow (u.a.).
Christopher, M. / Peck, H. (2004): Building the Resilient Supply Chain, in: The International Journal of
Logistics Management, 15(2), S. 1–13.
DRSC (2010): Deutscher Rechnungslegungsstandard Nr. 5 – Risikoberichterstattung, in der Fassung vom 5.
Januar 2010.
Eberle, A. O. (2005): Risikomanagement in der Beschaffungslogistik – Gestaltungsempfehlungen für ein
System, Difo-Druck, Bamberg.
Fiege, S. (2006): Risikomanagement- und Überwachungssystem nach KonTraG: Prozess, Instrumente,
Träger, Deutscher Universitätsverlag, Wiesbaden.
Hahn, D. (1987): Risiko-Management. Stand und Entwicklungstendenzen, in: ZfO, 56. Jg., 1987, S. 137–
150.
Haller, M. (1986): Risiko-Management – Eckpunkte eines integrierten Konzepts, in: Jakob, H. (Hrsg.):
Risiko-Management, Schriften zur Unternehmensführung, Band 33, Gabler Verlag, Wiesbaden, S. 7–43.
Hallikas, J. / Puumalainen, K. / Vesterinen, T. / Virolainen, V. (2005): Risk-Based Classification of Supplier Relationships, in: Journal of Purchasing and Supply Management, 11 (2–3), S. 72–82.
Heusler, K. F. (2004): Implementierung von Supply Chain Management. Kompetenzorientierte Analyse aus
der Perspektive eines Netzwerkakteurs, Deutscher Universitäts-Verlag, Wiesbaden.
Jüttner, U. / Peck, H. / Christopher, M. (2003): Supply Chain Risk Management: Outlining an Agenda for
Future Research, in: International Journal of Logistics Research and Applications, 6 (4), S. 197–210.
Kajüter P. (2003): Instrumente zum Risikomanagement in der Supply Chain, in: Stölzle W. (Hrsg.): Supply
Chain Controlling in Theorie und Praxis, 1. Auflage, Wiesbaden, S. 107–135.
Kersten, W. / Feser, M. / Klotzbach, M. (2012): Supply Chain Risk Management – Konzept und Implementierung in der Praxis, in: Wimmer, T. (Hrsg.): Tagungsband zum 29. Deutschen Logistik-Kongress 2012,
DVV Media Group, Hamburg, S. 405–432.
Kersten, W. / Held, T. / Meyer, C. M. / Hohrath, P. (2007): Komplexitäts- und Risikomanagement als
Methodenbausteine des Supply Chain Managements, in: Hausladen, I. / Mauch, C. (Hrsg.): Management
am Puls der Zeit – Strategien, Konzepte und Methoden, TCW Transfer-Centrum, München.
Knight, F. H. (1921): Risk, Uncertainty and Profit. Reprint 1965, Harper & Row, New York.
Kupsch, P. (1973): Das Risiko im Entscheidungsprozess, Betriebswirtschaftlicher Verlag Gabler, Wiesbaden.
Lambert, D. C. / Cooper, M. C. / Pagh, J. D. (1998): Supply Chain Management: Implementation issues and
research opportunities, in: International Journal of Logistics Management, 9 (2), S. 1–19.
Lambert, D. C. / Cooper, M. C. (2000): Issues in Supply Chain Management, in: Industrial Marketing
Management, 29, S. 65–83.
Leitner, F. (1915): Die Unternehmungsrisiken, Georg Reimer Verlag, Berlin.
March, J. G. / Shapira, Z. (1987): Managerial Perspectives on Risk and Risk Taking, Management Science,
33, S. 1404–1418.
Mikus, B. (1996): ZP-Stichwort: Risikomanagement, in: Zeitschrift für Planung, 7. Jg., 1996, S. 105–110.
Implementierung eines Supply Chain Risk Managements
147
Norrman, A. / Lindroth, R. (2004): Categorization of Supply Chain Risk and Risk Management, in:
Brindley, C. (Hrsg.): Supply Chain Risk, Ashgate, Aldershot (u.a.), S. 14–27.
Oliver, R. K. / Webber, D. (1982): Supply Chain Management: logistics catches up with strategy, in: Christopher, M. (Hrsg.): Logistics – The Strategic Issues, Chapman & Hall, New York (u.a.).
Österle, H. / Winter, R. (2003): Business Engineering. Auf dem Weg zum Unternehmen des Informationszeitalters, Springer, Berlin et al.
Pfohl, C. / Gallus, P. / Köhler, H. (2007): Implementierung eines Supply Chain Risikomanagements. Theoretische Ansätze zur organisatorischen Umsetzung, in Wimmer, T. / Bobel, T. (Hrsg.): Effizienz, Verantwortung, Erfolg: Deutscher Logistik-Kongress, Bundesvereinigung Logistik, Bremen, S. 191–224.
Pfohl, H. / Gallus, P. / Köhler, H. (2008): Konzeption des Supply Chain Risikomanagements, in: Pfohl, H.
(Hrsg.): Sicherheit und Risikomanagement in der Supply Chain, Deutscher Verkehrs-Verlag, Hamburg,
S. 7–79.
Ritchie, B. / Brindley, C. (2004): Risk Characteristics of the Supply Chain — A Contingency Framework,
in Brindley, C. (Hrsg.): Supply Chain Risk Management, Ashgate, Aldershot et al., S. 28–42.
Rogler, S. (2002): Risikomanagement im Industriegebiet: Analyse von Beschaffungs-, Produktions- und
Absatzrisiken, Dt. Universitäts-Verlag, Wiesbaden.
Schorcht, H. (2004): Risikomanagement und Risikocontrolling junger Unternehmen in Wachstumsbranchen: Konzeption eines theoriegeleiteten Handlungsrahmens für die praxisinduzierte Unternehmenssteuerung, Logos, Berlin.
Schroeder, M. / Feser, M. / Kersten, W. (2013): Supply chain risk management implementation: an empirical analysis within the medical technology industry sector, in: Proceedings of the 20th European Operation Management Association (EurOMA) Conference, Dublin Ireland, 07-12th June 2013, published
soon.
Simchi-Levi, D. / Kaminsky, P. / Simchi-Levi, E. (2004): Managing the supply chain: the definitive guide
for the business professional, McGraw-Hill, New York (u.a.).
Thom, A. (2008): Entwicklung eines Gestaltungsmodells zum Management von Risiken in Produktionsnetzwerken, Universitäts-Verlag der TU Berlin, Berlin.
Wagner, S. / Bode, C. (2007): Empirische Untersuchung von SC-Risiken und SC-Risikomanagement in
Deutschland, in: Vahrenkamp, R. / Siepermann, C. (Hrsg.): Risikomanagement in Supply Chains – Gefahren abwehren, Chancen nutzen, Erfolg generieren, Erich Schmidt Verlag, Berlin, S. 59–79.
Winter, M. (2009): Referenzmodell zur Ableitung eines situationsadäquaten Projektmanagements, Shaker,
Aachen.
Wittmann, W. (1959): Unternehmung und unvollkommene Information, Westdeutscher, Köln und Opladen.
Zeyer, U. (1996): Implementierungsmanagement: Ein konzeptioneller Ansatz am Beispiel der Implementierung von Lean Management, Rainer Hampp, München und Mering.
E-Logistics – Effiziente Steuerung der Logistikkette mithilfe
innovativer Informationstechnologien
Dagmar Kessler
1
Einleitung
Die wirtschaftliche Entwicklung der letzten drei Jahrzehnte stellt sowohl die Unternehmen
des produzierenden als auch des Dienstleistungssektors vor anspruchsvolle Herausforderungen. Führen doch die Liberalisierung der europäischen Märkte sowie die Globalisierung
zu zunehmendem Wettbewerb und Kostendruck. Dem gegenüber steht der Wunsch der
Kunden nach Individualisierung von Produkten und Dienstleistungen sowie höherer Flexibilität bezüglich Produktionsprogramm und Lieferkonditionen.
Die Unternehmen sind gezwungen, ihre Geschäftsprozesse flexibel zu gestalten und sich
konsequent an den Kundenwünschen zu orientieren. Schon wird die Erweiterung des Begriffes des „Supply Chain Management“ (SCM) zum „Demand & Supply Chain Management“1 diskutiert, wobei letzterer auf die Ausrichtung der gesamten Wertschöpfungskette
über die jeweiligen Unternehmensgrenzen hinweg auf den Kundenwunsch fokussiert. Das
Beherrschen des damit verbundenen komplexen Informations- und Materialflusses stellt
vor allem für die Logistik eines Unternehmens und dessen Partner in der gesamten Wertschöpfungskette eine zentrale Herausforderung dar.
Die Auswirkungen des globalen, vernetzten Marktes haben die Logistik zu einem bedeutenden Faktor für den Erfolg eines Unternehmens und dessen Netzwerkes gemacht. Der effiziente Einsatz moderner Informations- und Kommunikationstechnologien sichert die
Wettbewerbsfähigkeit in einem komplexen und dynamischen internationalen Unternehmensumfeld.
2
Begriffsklärung E-Logistics
Der Begriff e-logistics beinhaltet nach Straube „... die strategische Planung und Steuerung
aller für die elektronische Geschäftsabwicklung erforderlichen Logistiksysteme und -prozesse sowie deren administrative und operative Ausgestaltung für die physische Abwick1
Marbacher, A.: Demand & Supply Chain Management: zentrale Aspekte der Gestaltung und Überwachung unternehmensübergreifender Leistungserstellungsprozesse betrachtet aus der Perspektive eines
Markenartikelherstellers der Konsumgüterindustrie, Wien 2001, S. 8.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_12,
© Springer Fachmedien Wiesbaden 2013
150
Dagmar Kessler
lung…“2. Es geht demnach um den effizienten Einsatz von modernen Informations- und
Kommunikationstechnologien (IT) zur Unterstützung der Geschäftsprozesse sowohl im operativen als auch im strategischen Bereich der Logistik. Vor dem Hintergrund, dass nicht mehr
nur Unternehmen mit Unternehmen konkurrieren, sondern „…Wertschöpfungsnetzwerke
miteinander im Wettbewerb stehen…“3, müssen entsprechend auch die IT-Systeme der einzelnen Unternehmen einer Wertschöpfungskette vernetzt betrachtet und optimiert werden.
Ziel ist es, mit dem Einsatz von IT-Systemen für die gesamte Logistikkette einen entscheidenden Vorteil im Wettbewerb der Unternehmensnetzwerke zu generieren.
Die Unternehmensberatung Capgemini befragte in Zusammenarbeit mit dem Georgia Institute of Technology, SAP und DHL im Jahr 2007 im Rahmen einer Studie „Third Party
Logistics“ insgesamt 1.568 Logistik-Manager aus 61 Ländern zu IT-Ansatzpunkten und deren Nutzen in der Logistik.
Die am häufigsten von den befragten Logistik-Managern genannten IT-Ansatzpunkte waren Visibility-Tools (Tracking-Tracing, Event-Management), web-basierte Kommunikation, Transport-Management und Lager-Management. Dabei zeigten sich Lücken zwischen
IT-Anforderungen und -Leistungen ausgewählter IT-Systeme in der Logistik.
Eine auffällige Lücke zeigte sich zwischen dem gegenwärtigem (14%) und dem zukünftigen Nutzen (70%) bei der Radio Frequency Identification(RFID)-Technologie. Hier ergab
sich bei den Befragten der Wert mit der höchsten Erwartungshaltung an den künftigen Einsatz.4
Die aktuelle, 17te „2013 Third-Party Logistics Study“ von Capgemini unterscheidet in
der neuen Befragung zwischen den Antworten der „Shippers“ und der „3PL Providers“,
also zwischen dem reinen Frachtführer und dem 3PL-Dienstleisters, auch Kontraktdienstleister genannt.5 Dabei übernimmt im Geschäftsmodell des 3PL-Providers der Spediteur
neben seinen klassischen Transport-, Umschlag- und Lager-Dienstleistungen zusätzliche
Leistungen innerhalb der logistischen Kette, von der Zollabwicklung bis hin zu einzelnen
Arbeitsschritten in der Endmontage.
In der Studie aus dem Jahr 2013 zeigt sich bezüglich der RFID-Technologie ein nur moderater Anstieg in der Bedeutung auf 24 bzw. 36% (Shippers bzw. 3PL Providers).6 Die
hohen Erwartungen aus dem Jahr 2007 konnten offensichtlich bislang nicht erfüllt werden.
Daher scheint es interessant, sich diese relativ neue, in Relation zu den hohen Erwartungen in der Logistik noch unterrepräsentierte Informationstechnologie näher zu betrachten.
2
Straube, F.: E-Logistik: ganzheitliches Logistikmanagement, Heidelberg 2004, S. 6f.
3
Bellmann, K., Himpel, F.: Fallstudien zum Produktionsmanagement, Wiesbaden 2008, S. 52.
4
Vgl. Logistikdienstleister müssen innovativer werden. In: Einkauf und Management, URL: logistikdienstleister_muessen_innovativer_werden, eingesehen am 01.05.2013.
5
Vgl. Vahrenkamp, R., Kotzab, H., Siepermann, Chr.: Logistik, Management und Strategien, München
2012, S. 55.
6
Vgl. Capgemini: 2013 Third-Party Logistics Study, The State of Logistics Outsourcing, Results and
Findings of the 17th Annual Study, 2012, S. 11.
E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien
151
Dabei gehört RFID neben Barcode und Spracherkennung zu den vorherrschenden Verfahren der Automatischen Identifikation und Datenerfassung in der Logistik.
3
Einsatz von AutoId-Verfahren in der Logistik
3.1 Identifikationssysteme
Im industriellen Einsatz werden Objekte am häufigsten durch die Anbringung von Informationsträgern identifiziert, die bei Bedarf ausgelesen werden.7
Sowohl in der innerbetrieblichen Logistik, der Intralogistik, als auch in den Warenflüssen
zwischen den Unternehmen der Supply Chain dienen Verfahren der automatische Identifikation und Datenerfassung („Auto-ID“) der mobilen und IT-gestützten Identifikation und
Erfassung der Waren. Hierbei finden Technologien wie Barcode, Smart Label, Mobile Datenerfassung, Spracherkennung, lichtbasierte Verfahren sowie RFID Einsatz.
Die führende Auto-ID-Technik zur automatischen, berührungslosen Datenerfassung ist
bislang noch der Barcode. Die Möglichkeit der automatisierten Identifizierung der Waren
durch den Barcode bietet Ansatzpunkte zur Optimierung der Prozesse in der gesamten Logistikkette wie die durchgängige Nutzung von Sendungsinformationen oder die Eliminierung redundanter Prozessschritte. Ein hohes Optimierungspotenzial liegt vor allem in der
Reduzierung von manuellen Tätigkeiten wie dem bestandsmäßigen Abgleich von Avis und
tatsächlichen Warenbewegungen. Darüber hinaus ergeben sich in der Regel eine erhöhte
Abwicklungsgeschwindigkeit, sowie Transparenz und Sicherheit der Warenbewegungen in
der gesamten Logistikkette.8
In einigen Publikationen wird prognostiziert, dass die RFID-Technologie in den nächsten
Jahren den Barcode ablösen wird. Derzeit wird der Barcode durch RFID lediglich erweitert.
Radio Frequency Identification überträgt kabel- und berührungslos Informationen mittels
Funk-Mikrochips von Schreib- und Lesegeräten. Somit lassen sich die logistischen Einheiten vollautomatisiert und berührungslos erfassen. Dies bietet u.a. den Vorteil der lückenlosen Warennachverfolgung durch die gesamte Logistikkette, die Optimierung des Wareneingangs und des Versands sowie eine effiziente Organisation von Warenlagern.
3.2 Technologische Grundlagen der RFID-Technologie
Ein RFID-System besteht aus einem Datenträger, der Sende- und Empfangseinrichtung sowie der Auswerteeinheit (vgl. Abbildung 1). Der Datenträger dient der Kennzeichnung des
zu identifizierenden Objektes und wird in der Regel als Transponder bezeichnet. Er ist in
der Regel fest mit dem Objekt verbunden, z. B. durch Smartlabels, die aufgeklebt werden
können. 9
7
Vgl. Franke, W.[Hrsg.]: RFID - Leitfaden für die Logistik: Anwendungsgebiete, Einsatzmöglichkeiten,
Integration, Praxisbeispiele, Wiesbaden 2006, S. 71 ff.
8
Vgl. Vahrenkamp, a.a.O, S. 75.
9
Vgl. Franke, a.a.O., S. 17.
152
Dagmar Kessler
Ein Transponder besteht aus einem Mikrochip zur Speicherung von Informationen, beispielsweise den Electronic Product Code18 (EPC), der das Objekt eindeutig beschreibt,
sowie ergänzenden Objektinformationen. Zur berührungslosen Datenübertragung ist noch
eine Spule erforderlich, die als Sende- und Empfangsantenne für den Datenaustausch mit
der Umwelt („Luftschnittstelle“10) fungiert. Eine umschließende Hülle schützt den Transponder.
Abbildung 1:
RFID-System11
Die Schreib-/Lesestationen codieren und decodieren die auf dem Mikrochip gespeicherten bzw. zu speichernden Daten. Die Anbindung an die nachgelagerten Anwendungen (z.B.
betriebliche ERP-Software) erfolgt über eine sogenannte Middleware.12
Sobald sich der Transponder innerhalb der Reichweite einer Lese-/Schreibstation befindet wird der Lese- bzw. Schreibvorgang automatisch gestartet.13
Prinzipiell werden aktive und passive Transponder unterschieden. Aktive Transponder
beziehen die benötigte Energie für die Datenübertragung und den Datenerhalt aus einer
Batterie. Passive Transponder sind batterielose Systeme und erhalten die benötigte Energie
während des Lese-/Schreibvorgangs von einem elektromagnetischen Feld, welches vom
Leser bzw. von der Lese-/Schreibstation erzeugt wird.14
10
Vgl. Wohlers, G., Breitner, M. H. (Hrsg.): RFID-Anwendungen: Einführung, Fallbeispiele und Szenarien
in der Praxis, Aachen 2008, S. 24.
11
Quelle: eigene Darstellung in Anlehnung an Finkenzeller, K.: RFID-Handbuch: Grundlagen und praktische Anwendungen von Transpondern, kontaktlosen Chipkarten und NFC, 5. Aufl., München 2008, S. 7.
12
Vgl. Wohlers, a.a.O., S. 11.
13
Vgl. Vahrenkamp, a.a.O., S. 75.
14
Vgl. Vahrenkamp, a.a.O., S. 75.
E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien
153
In der Logistik finden aktive Transponder beispielsweise Einsatz zur Prozessdokumentation bei Montageprozessen in der Automobilindustrie sowie zur Verbesserung von Qualitätskontrollen und Qualitätsnachweisen. Aktive Transponder werden zudem zur Identifizierung von Containern und bei der Prozesskontrolle im Containerumschlag eingesetzt. Auch
LKW lassen sich mittels aktiver Transponder identifizieren und so beim Ein- und Ausfahren
an Lieferpunkten kontrollieren. Zudem arbeiten Mautsysteme mit aktiven Transpondern.
Transponder unterscheiden sich vor allem in dem Frequenzbereich, auf dem sie arbeiten.
Dieser hat entscheidende Auswirkungen auf die Kommunikation zwischen Transponder
und Schreib-/Lesestation und bestimmt somit die Umgebung, in der ein RFID-System eingesetzt werden kann (vgl. Abbildung 2).
Abbildung 2:
Eigenschaften gängiger RFID-Systeme15
Je nach verwendetem Frequenzbereich lassen sich RFID-Systeme mit einer Reichweite
zwischen wenigen cm bis zu über 100 m realisieren. In den niedrigen Frequenzbereichen
kann ein Einsatz auf Metall problematisch sein, bei einer Anwendung im Bereich von Flüssigkeiten hingegen sind die hohen Frequenzbereiche problematisch.
Auch die Möglichkeit, mehrere Tags gleichzeitig zu lesen, die sogenannte Pulkfähigkeit,
hängt vom verwendeten Frequenzbereich ab. Dies ist gerade für die Logistik von großer
Bedeutung, da sich beispielsweise im Lager-und Wareneingangsbereich erhebliche Rationalisierungspotenziale durch das Lesen ganzer Paletten ergeben können. Die Gebinde müssen bei der Identifizierung mit RFID nicht mehr aufgelöst und die einzelnen Pakete nicht
15
Quelle: ebenda, S. 76.
154
Dagmar Kessler
mehr per Hand mit einem Scanner eingelesen werden. Hier wäre der hohe Frequenzbereich
besser geeignet.
Schließlich ist auch die Datenübertragungsrate abhängig von dem verwendeten Frequenzbereich, wobei hier der hohe Frequenzbereich höhere Übertragungsraten ermöglicht.
Auch die Bauform des Transponders wird durch den Frequenzbereich und den Bedingungen am Einsatzort bestimmt.
Ist die Zuverlässigkeit der Lese- und Schreibvorgänge von Bedeutung, sind aktive Transponder eher geeignet, da diese mit einer Zuverlässigkeit von 99,98% arbeiten. Für den
Verwendungszweck sind auch die Kosten der Tags entscheidend. Die Kosten für einen aktiven Tag liegen heute (je nach Bauart) zwischen 20 und 150 € pro Stück, wären also beispielsweise für den Einsatz auf Lebensmittelverpackungen wie Joghurtbecher noch zu teuer.16
Weitere, für den Anwender wichtige Randbedingungen wie Betriebs- und Lagertemperaturen, Fremdmaterialien hinter dem Transponder, Verschmutzungen, mechanische Beanspruchungen durch Vibration, Stoß oder freien Fall sowie Störstrahlungen können Entscheidungskriterien für oder gegen den Einsatz bestimmter RFID-Systeme sein.17
3.3 Potenziale der RFID-Technologie in der Logistik
Der Einsatz von RFID in der Supply Chain eröffnet vor allem im Rahmen der Warenidentifikation und -verfolgung entlang der Logistikkette Vorteile. In der Konsumgüterindustrie
und im Einzelhandel werden zu diesem Zweck ausschließlich passive Transponder verwendet. Es werden nach VAHRENKAMP drei Anwendungsstufen unterscheiden:
• 1. Stufe: Kennzeichnung und Identifikation auf Ladungsträgerebene:
Hierbei ersetzt der RFID-Tag das EAN-128-Transportetikett, das auf jedem Ladungsträger (z.B. Palette) angebracht ist. Der Transponder speichert Informationen zu der geladenen Ware.
• 2. Stufe: Kennzeichnung und Identifikation auf Karton-/Behälterebene:
Die RFID-Tags werden auch an die im Ladungsträger befindlichen Behälter, z.B. Kartons, befestigt.
• 3. Stufe: Kennzeichnung und Identifikation auf Artikel-/Stückebene:
Die RFID-Transponder werden ebenso an jede Produkteinheit angebracht, der ein elektronischer Produktcode (EPC) zugeordnet ist. Der elektronische Produktcode (EPC) stellt
eine Erweiterung der EAN dar, mit der es möglich wird, jede einzelne Artikeleinheit
weltweit eindeutig zu kennzeichnen.18
RFID-Systeme bieten weitaus mehr Möglichkeiten als die Barcode-Technologie. Neben der
Möglichkeit, Objekte über den im Tag hinterlegten EPC eindeutig zu identifizieren, eröffnet das Speichern zusätzlicher Informationen oder das Versehen der Transponder mit Sen-
16
Vgl. Vahrenkamp, a.a.O., S. 76.
17
Vgl. Franke, a.a.O., S. 19.
18
Vgl. Vahrenkamp, a.a.O., S. 76.
E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien
155
soren völlig neue Anwendungsfelder. Ausgestattet mit solchen Transpondern, kann beispielsweise die Temperatur von Produkten überwacht werden.
„Das oberste Ziel des Einsatzes von RFID ist es, die Transaktionskosten betrieblicher
Prozesse an der Schnittstelle zwischen realer und virtueller Welt zu reduzieren.“19 Um diese
vollautomatische Maschinen-Maschinen-Beziehung zwischen realen Dingen und bestehenden Informationssystemen herzustellen, werden Objekte mit Transpondern und Sensoren
ausgestattet und haben so die Möglichkeit, ihre Umgebung wahrzunehmen. Sie werden als
„Smarte Dinge“ bezeichnet. In der neuen wissenschaftlichen Disziplin Ubiquitous Computing, kurz „UbiComp“20, spricht man sogar von dem „Internet der Dinge“21, in dem der „…
autonome Dialog der Dinge in globalen Zusammenhängen…“22 ermöglicht wird.
Ereignisse der realen Welt können mit Informationssystemen verbunden werden. Ein in
diesem Zusammenhang häufig beschriebenes Anwendungsbeispiel ist die intelligente
Milchflasche, die, sobald das Haltbarkeitsdatum naht, mit dem Kühlschrank kommuniziert,
worauf hin dieser dann über das Internet eine neue Flasche bestellt.23
4
Anwendung der RFID-Technologie der in der Praxis
Eine weitere Anwendung der RFID Technologie ist die Identifizierung von Personen (z.B.
biometrische Zutrittskontrolle, Positionsortung). Dies ist ein Bereich, der zuvor nicht mit
der Barcode-Technologie erschlossen wurde. Dieser Trend wird von sinkenden Hardwarekosten beschleunigt.
Der Einsatz von RFID in der Logistik und die Kennzeichnung zur Identifizierung mittels
Transpondern setzten sich derzeit durch bei logistischen Einheiten, bei Transporthilfsmitteln, bei Investitionsgütern sowie bei hochwertigen Artikeln. Der großflächige Einsatz von
RFID auf Artikelebene wird stark von den Transponderpreisen abhängen. Erst ab einem relativ niedrigen Preis (ca. 5 Cent) für einen passiven Tag, wird es sich wirtschaftlich lohnen,
Smartlabels auf alle Produkte anzubringen.24
Die Einführung einer RFID-Anwendung gestaltet sich weitaus unkomplizierter und
schneller, wenn ein in sich abgeschlossener Kreislauf vorliegt, da keine Unternehmensschnittstellen überwunden und unterschiedliche IT-Systeme abgeglichen werden müssen.
In der betrieblichen Intralogistik dienen RFID-Transponder beispielsweise der Steuerung
des Behälterkreislaufs in der Produktion.25
19
Gillert, F., Hansen,W.-R. : RFID für die Optimierung von Geschäftsprozessen: Prozess-Strukturen, ITArchitekturen, RFID-Infrastruktur, München 2007, S. 7.
20
Fleisch, E., Mattern, F.: Das Internet der Dinge. Ubiquitous Computing und RFID in der Praxis, Heidelberg 2005, S. 4.
21
Ebenda, S. 5.
22
Wohlers, a.a.O., S. 12f.
23
Vgl. Franke, a.a.O., S. 17.
24
Vgl. Wohlers, a.a.O., S. 18.
25
Vgl. Barton, Th.: Ein Informationssystem für das RFID-gestützte Behältermanagement, in: Barton,
156
Dagmar Kessler
Im Folgenden soll anhand eines Beispiels aus der industriellen Praxis der Einsatz und der
mögliche Nutzen der RFID-Technologie in der Produktionslogistik aufgezeigt werden.
4.1 Einsatz von RFID in der Produktionslogistik der SCHOTT AG
Am Beispiel einer RFID-Einführung bei der SCHOTT AG in Mainz soll eine Einsatzmöglichkeit der RFID-Technologie in der Produktionslogistik vorgestellt werden.
Die SCHOTT AG in Mainz ist ein international tätiger Spezialglashersteller. Eines der
Kerngeschäfte ist die Produktion von optischem Glas. Die kontinuierlich betriebenen
Schmelzwannen werden mit Gemenge und Scherben bestückt. Diese werden von einem
zentralen Gemengehaus beliefert, welches auch die Schmelzwannen weiterer Geschäftsbereiche mit anderen Glasarten versorgt.
Die Zufuhr zur Produktionslinie des optischen Glases erfolgt in Form von sogenannten
„Bigbags“ und „Containern“, welche durch Aufsatz auf den Gemenge- bzw. Scherbenturm
befüllt werden. Dies ist eine manuelle Tätigkeit in Verantwortung des Schaltwarts. Eine
Verwechslung der zugeführten Gemenge oder Scherben führt in der Regel zu hohem wirtschaftlichen Schaden und Produktionsausfall.
Im Rahmen eines Projektes zur Kostensenkung wurde daher die Einführung eines eindeutigen und sicheren Identifikationsverfahrens der Einheiten zur Gemengezufuhr geplant.
Die Ziele des Projektes waren die Sicherung der Prozesse und hieraus resultierend eine
Kostensenkung. Mit dem Einsatz der RFID-Technologie sollte ein erhöhter Schutz gegen
die Vertauschung von Gemenge und Scherben erreicht werden und somit das Risiko eines
erheblichen wirtschaftlichen Schadens minimiert werden.
Zu Beginn des Projekts stand das Projektteam von SCHOTT vor einigen Herausforderungen, die sich aus dem „rauen“ Produktionsumfeld ergaben.
• Die beliefernden Scherbencontainer sind aus Metall, so dass eventuell Probleme beim
Lesen der Informationen im RFID-System zu erwarten waren (vgl. 3.2.).
• Ebenso war die Installation in einem Umfeld vieler metallischer Komponenten (Stahlbühne, Gemenge und Scherbenturm,...) geplant, was wiederum den erfolgreichen Einsatz
der RFID-Technologie gefährden konnte.
• Im Bereich der Anlage herrschen sehr hohe Temperaturen von bis zu über 60°C, die im
Rahmen der Realisierung berücksichtigt werden mussten.
• Im geplanten RFID-System musste ein Abstand zwischen Transponder und Antenne von
bis zu 900 mm realisiert werden.
• Die geplanten RFID-Transponder mussten in unterschiedlichen Lagen bzw. Positionen
gelesen werden können.
• Zudem ist mit Verschmutzungen durch Gemengestaub zu rechnen.
• Schließlich musste das künftige Lesegerät außerhalb des „heißen“ Bereichs installiert
sein, sodass größere Kabellängen von bis zu 12 m zwischen Antenne und Lesegerät erforderlich waren. Hier stellte sich die Frage nach der Art der erforderlichen Antenne.
Th., Erdlenbruch, B., Herrmann F., Müller, Chr. (Hrsg.): Logistische Anwendungen in der Wirtschaftsinformatik, Verlag News & Media, Berlin 2010, S. 29 – 39, S. 30.
E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien
157
• Die Schmelzwanne und das anschließendes Platinsystem werden mit zum Teil sehr großen Strömen bzw. Frequenzen beheizt. Hier konnten Probleme in Bezug auf die elektromagnetische Verträglichkeit (EMV) zu technischen Restriktionen führen.
All diese Vorüberlegungen führten schnell zu der Erkenntnis, dass in diesem Anwendungsfall kein RFID-System „von der Stange“ eingesetzt werden konnte, sondern erhebliche
Entwicklungsarbeit notwendig war.
Wie oben beschrieben bestimmt der Frequenzbereich, welche Transponder für ein solch
anspruchsvolles Produktionsumfeld geeignet sind. Der UHF-Bereich erzielte die besten Ergebnisse (also bei 869,525MHz).
Es werden robuste, passive Transponder für die Transportbehälter der Gemenge und
Scherben verwendet (vgl. Abbildung 3). Die nun verwendeten Dipolantennen werden von
einem robusten Kunststoffgehäuse geschützt. Im Ergebnis garantierten nur zwei Hersteller
die erforderlichen größeren Kabellängen zwischen Antenne und Lesegerät. Die
Transponderbefestigung an den Bigbags erfolgte jeweils links vorne und links hinten, um
eine sichere Erkennung zu gewährleisten.
Für einen festen Halt der Transponder wurden Stifte installiert. Um ausreichend Abstand
zum flächigen Metall der Scherbencontainern zu garantieren, wurden Abstandhalter befestigt (vgl. Abbildung 3).
Abbildung 3:
RFID System der SCHOTT AG, Transponderbefestigung an Bigbags
und Scherbencontainern26
Insgesamt konnten die EMV-technischen Probleme gelöst werden.
26
Quelle: SCHOTT AG, Mainz.
158
Dagmar Kessler
In der Schaltwarte wurde ein zentraler PC installiert. Im Bühnenbereich wird über eine
Ampelsteuerung die Zufuhr für Gemenge und Scherben kontrolliert. Hierbei fungieren die
Ampelfarben als Signal für den jeweiligen Status der Belieferung:
• Grün bedeutet, dass das richtige Gemenge oder die richtigen Scherben aufgesetzt wurden.
• Rot bedeutet, dass das falsche Gemenge oder die falschen Scherben aufgesetzt wurden.
• Gelb bedeutet, dass kein Transponder im Antennenfeld, also kein Bigbag oder Scherben,
gelesen werden konnten.
• Rot blinkend zeigt an, dass zwei oder mehr Transponder gleichzeitig gelesen werden und
mindestens einer davon falsch ist.
• Ist die Ampel aus, bedeutet dies, dass der Rechner zur Verwaltung des RFID-Systems
oder ein Lesegerät nicht in Betrieb ist.
Das Beispiel der SCHOTT AG zeigt, dass der Einsatz der RFID-Technologie auch in zunächst schwierigen Produktionsumgebungen erfolgreich möglich ist. Der Aufwand zur Installation eines RFID-Systems, selbst wenn zusätzliche Entwicklungsarbeiten notwendig
werden, kann sich wie im Beispiel des Optik-Bereichs der SCHOTT AG rechnen, da die
Minimierung des Risikos eines Produktionsausfalls die Kosten zur Einführung des Systems
rechtfertigt.
Erfolgreich implementierte RFID-Systeme in in sich abgeschlossenen Kreisläufen wie in
der Produktionslogistik eines Unternehmens zeigen die Nutzenpotenziale dieser neuen
Technologie und dienen als Wegbereiter für den Einsatz in unternehmensübergreifenden
Anwendungen wie in der Logistik von Wertschöpfungsketten.
4.2 Kritische Würdigung der RFID-Technologie aus Sicht der Logistik
Wie für jede neue Technologie lassen sich auch für die RFID-Technologie je nach beabsichtigtem Anwendungsfeld Vor-und Nachteile aufzeigen. Auch für die Logistik in und
zwischen Unternehmen bedeutet dies, für den jeweiligen Anwendungsfall die spezifischen
Vor- und Nachteile des Einsatzes der RFID-Technologie abzuwägen und unter betriebswirtschaftlichen Aspekten zu bewerten.
Aus technischer Sicht bietet die RFID-Technologie im Vergleich zum Barcode den Vorteil, dass keine Ausrichtung des Tags und damit der logistischen Einheit zum Lesegerät
notwendig ist. Die Transponder lassen sich durch feste und nicht-metallische Stoffe hindurch lesen, so dass kein Sichtkontakt zwischen Datenträger und Lesegerät erforderlich ist.
Dies ermöglicht die schon oben beschriebene und für die Logistik aus wirtschaftlicher Sicht
höchst attraktive Pulkerfassung. Hier werden erhebliche Zeit- und Kosteneinsparungen realisierbar. Zudem werden durch den automatischen Abgleich des Auftrags mit der Ware
Fehlverladungen oder -einlagerungen vermieden, was wiederum zu Effizienzgewinnen führen wird.
Die RFID-Tags besitzen einen großen und zudem veränderbaren Datenspeicher. Sie sind
unempfindlich gegen Verschmutzungen und Deformierungen sowie physische Abnutzung.
Des Weiteren sind die Transponder hitze- und kältebeständig. Insgesamt führen diese technischen Eigenschaften zu einer niedrigeren Fehleranfälligkeit beim Lesevorgang. Darüber
hinaus erleichtert die größere Reichweite beim Lesevorgang und der geringe Platzbedarf
des Tags den Vorgang der Datenerfassung.
E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien
159
Die gespeicherten Daten können in Sekundenschnelle gelesen und somit die Objekte
schneller als mit dem Barcode identifiziert werden. Der gespeicherte EPC ermöglicht es,
die Objekte weltweit eindeutig zu identifizieren.27
Sollte die oben genannte, von VAHRENKAMP beschriebene, höchste Implementierungstiefe erreicht werden, in der jeder Artikel mit einem RFID-Tag mit individuellem EPC
gekennzeichnet ist, könnten weitere Vorteile für die Logistik entlang der gesamten logistischen Wertschöpfungskette generiert werden wie die Automatisierung des Kassierprozesses
im Einzelhandel durch Pulk-Erfassung oder die Vereinfachung von Inventuren und Bestandskontrollen durch die Erfassung der Lagerbestände mittels mobiler RFID-Lesegeräte.
Hierdurch kann die Gefahr von Fehlbeständen, also den Out-of-Stock-Situationen, verringert und eine falsche Platzierung von Artikeln in den Regalen erkannt und verhindert werden. RFID-Tags könnten als elektronischer Kassenbon fungieren und so Umtauschprozesse
vereinfachen, die vor allem im B2C-Handel von Bedeutung sind. Die Ware wäre entlang
der gesamten Lieferkette besser zu verfolgen. Schließlich würden die Tags auch der elektronischen Warensicherung und -überwachung dienen und somit Schwund und Diebstähle
reduzieren.28
Als Strategisches Ziel zur Optimierung der Waren-und Informationsflüsse entlang der gesamten Supply Chain ließe sich die Minimierung der Gefahr des Eintretens des gefürchteten Peitscheneffektes, des „Bullwhip-Effect“, erreichen.29 Dieser Effekt beschreibt ein Aufschaukeln von Liefer-und Nachfrageschwankungen entlang der Stufen einer Lieferkette.30
Demgegenüber stehen die Nachteile der RFID-Technologie wie die schon oben beschriebenen Probleme mit metallischen Materialien oder Flüssigkeiten. Diese können eine Kennzeichnung von beispielsweise Getränken oder Produkten in Konservendosen erschweren.
Auch schränkt die Störanfälligkeit durch Funk das Einsatzgebiet ein. Für einzelne Anwendungen könnten die ungenügenden Reichweiten eine Restriktion darstellen.
Soll das Ziel einer weltweit eindeutigen Identifizierung erreicht werden, bedingt dies eine
weltweite Standardisierung der Frequenzen und der Datenschnittstellen.
Schließlich erfordert die RFID-Technologie noch weitere Entwicklungsarbeit im Bereich
des Datenschutzes und der Datensicherheit.
Die hohen Kosten für die Hardware und die Integration der RFID-Technologie müssen
durch die quantitativen und qualitativen Nutzenvorteile kompensiert werden.31
Die Erschließung der Rationalisierungspotenziale in der Logistik durch RFID bedingt jedoch eine flächendeckende Umstellung vom Barcode auf die Transponder. Dabei wird zunächst eine Übergangsphase notwendig sein, in der beide Technologien parallel Einsatz
27
Vgl. Franke, a.a.O., S. 72f.
28
Vgl. Vahrenkamp, a.a.O., S. 78.
29
Vgl. Hansen, W.-R.: Vernetzte Welten, in: Software in der Logistik – Intelligente Systeme, München
2012, S. 52 – 55, S. 52.
30
Vgl. Vahrenkamp, a.a.O., S. 38.
31
Vgl. Franke, a.a.O., S. 72f.
160
Dagmar Kessler
finden. Hierzu können sogenannte Hybrid-Etiketten, die sowohl einen Barcode als auch einen Transponder tragen, verwendet werden.32
5 Ausblick
Verschiedene Einzelhandelskonzerne wie Tesco (Großbritannien), Wal-Mart und Metro erproben zurzeit den Einsatz von Transpondern in der Logistik im Rahmen von Pilotprojekten.33 Weitere Entwicklungsschritte werden vor allem noch im Bereich der Standardisierung notwendig sein. Insbesondere die Transponder und Schreib-/Lesegeräte verschiedener
Hersteller müssen zueinander kompatibel werden.
Der für die RFID-Technologie zu nutzende Frequenzbereich muss international vereinheitlicht werden. Beispielsweise liegt der in den USA für eine RFID-Anwendung in der
Logistik verwendete Frequenzbereich sehr dicht an dem in Europa für Handys und schnurlose DECT-Telefone vergebenen Frequenzbereich, so dass hier ein Ausweichen auf andere
Frequenzbereiche erforderlich wäre.34
Viele Anwendungsfälle werden eine Erhöhung der Erfassungsgenauigkeit der passiven
Transponder erforderlich machen. Ziel wird es sein, Leseraten von nahezu 100% zu realisieren.
Problematisch könnte das zu erwartende Datenvolumen sowie das zu verarbeitende Datenvolumen pro Zeiteinheit werden, sollte eine flächendeckende Umstellung vom Barcode
auf die RFID-Transponder Realität werden. Die heutigen Warenwirtschafts- und ERPSysteme sind auf die Verarbeitung dieser „bis zu Hunderte von Terabytes“35 nicht eingestellt. Auch hier ist vielfach noch Entwicklungsarbeit erforderlich.36
Schon heute bieten bereits Anbieter von ERP-Software wie SAP und Oracle-PeopleSoft
RFID-fähige Versionen ihrer Anwendungen für das SCM an.37
Wie oben beschrieben wird auch letztendlich der Preis der RFID-Tags die wirtschaftliche
Nutzung und damit die Verbreitung der Technologie maßgeblich beeinflussen. Die für den
Einsatz in der Logistik benötigten RFID-Tags kosten derzeit ca. 0,50 € pro Stück. Erst ab
einem Stückpreis von weniger als 0,10 € pro Stück wäre jedoch ein wirtschaftlicher Einsatz
der RFID-Technologie zur umfassenden Warenkennzeichnung und -identifikation in der
32
Vgl. Vahrenkamp, a.a.O., S. 78.
33
Vgl. Wohlers, a.a.O. , S. 9.
34
Vgl. Vahrenkamp, a.a.O., S. 79 f.
35
Laudon, K. C., Laudon, J. P., Schoder, D.: Wirtschaftsinformatik: eine Einführung, München 2010,
S. 360.
36
Vgl. Vahrenkamp, a.a.O., S. 79.
37
Vgl. Laudon, a.a.O., S. 360.
E-Logistics – Effiziente Steuerung der Logistikkette mithilfe innovativer Informationstechnologien
161
Logistikkette möglich.38 Für das Ende des Jahrzehnts, evtl. schon in „einigen Jahren“39 wird
mit dem Absinken des Preises auf unter 0,05 € pro Stück gerechnet.40
Solange sich die RFID-Technologie nicht durchgängig und flächendeckend in der Logistikkette durchsetzen lässt, werden IT-Systeme wie das „Cloud-Computing“ oder „SaaS
(Software as a Service)“ alternative Ansatzpunkte zur Optimierung der Prozesse in der Logistikkette eröffnen. Einige Anwendungen, die durch die RFID-Verfahren beschrieben
werden, lassen sich schon mit zweidimensionalen Datamatrixcodes, die eine größere Datenmenge darstellen können als der Barcode, insbesondere in Verbindung mit Smartphones
realisieren. Das Handy fungiert somit als RFID-Tag oder -Reader.41
Zurzeit wird die RFID-Technologie vorwiegend zur Automatisierung logistischer Prozesse diskutiert. Aber auch im Bereich der Produktionslogistik, wie oben anhand des praktischen Beispiels beschrieben, sowie der Produktion können Rationalisierungspotenziale
aufgezeigt werden. Hier müsste ebenfalls noch in Entwicklungsarbeiten investiert werden,
um einen künftigen effizienten Einsatz der RFID-Technologie zu ermöglichen. Als eine
Übergangslösung wird beispielsweise vorgeschlagen, zunächst nur die Transportbehältnisse
mit RFID-Tags zu versehen.42
Schließlich werden noch im Bereich der Endverbraucher Aufklärungsarbeit und vertrauensbildende Maßnahmen nötig sein. Viele Bedenken von Verbraucher- und Datenschutzorganisationen müssen ausgeräumt werden, um nicht zum Hindernis bei der flächendeckenden Einführung von RFID zur Kennzeichnung von Konsumgütern zu werden. Die Hauptkritik richtet sich gegen die Möglichkeit, das Kaufverhalten jedes einzelnen Konsumenten
lückenlos zu erfassen und hieraus die individuellen Kaufgewohnheiten abzuleiten. Zudem
wird befürchtet, dass beispielsweise RFID-Tags in der Kleidung die Ortung eines Menschen ermöglichen könnten, da dessen aktueller Aufenthaltsort bei jedem Passieren einer
RFID-Schleuse automatisch ermittelt werden könnte. Transponder in der Berufskleidung
könnten gleichzeitig zur Überwachung am Arbeitsplatz genutzt werden.43
Die RFID-Technologie eröffnet insbesondere für die Logistik enorme Rationalisierungspotenziale. Um diese Potenziale ausschöpfen zu können, müssen Konsumgüterindustrie
und Handel verantwortungsvoll mit der neuen Technologie umgehen.44
38
Vgl. Vahrenkamp, a.a.O., S. 79f.
39
Laudon, a.a.O., S. 360.
40
Vgl. Wohlers, a.a.O., S. 18.
41
Vgl. Hansen, a.a.O., S. 55.
42
Vgl. Günther, O., Kletti, W., Kubach, U.: RFID in manufacturing, Berlin 2008, S. 6.
43
Vgl. Vahrenkamp, a.a.O., S. 80.
44
Vgl. ebenda.
162
Dagmar Kessler
Literatur
Barton, Th.: Ein Informationssystem für das RFID-gestützte Behältermanagement, in: Barton, Th.,
Erdlenbruch, B., Herrmann F., Müller, Chr. (Hrsg.): Logistische Anwendungen in der Wirtschaftsinformatik, Verlag News & Media, Berlin 2010, S. 29–39.
Bellmann, K., Himpel, F.: Fallstudien zum Produktionsmanagement, Wiesbaden 2008.
Capgemini: 2013 Third-Party Logistics Study, The State of Logistics Outsourcing, Results and Findings of
the 17th Annual Study, 2012.
Einkauf und Management: Logistikdienstleister müssen innovativer werden, URL: www.
einkauf_und_management.at/index.php/einkauf/more/logistikdienstleister_muessen_innovativer_werden,
eingesehen am 01.05.2013.
Finkenzeller, K.: RFID-Handbuch: Grundlagen und praktische Anwendungen von Transpondern, kontaktlosen Chipkarten und NFC, 5. Aufl., München 2008.
Fleisch, E., Mattern, F.: Das Internet der Dinge. Ubiquitous Computing und RFID in der Praxis, Heidelberg
2005.
Franke, W.[Hrsg.]: RFID - Leitfaden für die Logistik: Anwendungsgebiete, Einsatzmöglichkeiten, Integration, Praxisbeispiele, Wiesbaden 2006.
Gillert, F., Hansen,W.-R. : RFID für die Optimierung von Geschäftsprozessen: Prozess-Strukturen, ITArchitekturen, RFID-Infrastruktur, München 2007.
Günther, O., Kletti, W., Kubach, U.: RFID in manufacturing, Berlin 2008.
Hansen, W.-R.: Vernetzte Welten, in: Software in der Logistik – Intelligente Systeme, München 2012, S.
52–55.
Laudon, K. C., Laudon, J. P., Schoder, D.: Wirtschaftsinformatik: eine Einführung, München 2010.
Marbacher, A.: Demand & Supply Chain Management: zentrale Aspekte der Gestaltung und Überwachung
unternehmensübergreifender Leistungserstellungsprozesse betrachtet aus der Perspektive eines Markenartikelherstellers der Konsumgüterindustrie, Wien 2001.
Straube, F.: E-Logistik: ganzheitliches Logistikmanagement, Heidelberg 2004.
Vahrenkamp, R., Kotzab, H., Siepermann, Chr.: Logistik, Management und Strategien, München 2012.
Wohlers, G., Breitner, M. H. (Hrsg.): RFID-Anwendungen: Einführung, Fallbeispiele und Szenarien in der
Praxis, Aachen 2008.
Achtsamkeit in Organisationen: Vom Stressmanagement
über das achtsame Interagieren und Führen zur bewussten
Gestaltung von Veränderungsprozessen
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer
1
Achtsamkeit – eine Einführung
Achtsamkeit (Mindfulness) ist ein zentraler Begriff in der buddhistischen Weisheitslehre,
der in psychologischer Terminologie als ein spezifischer, trainierbarer Bewusstseinszustand
beschrieben werden kann, der auf das direkte und nicht-wertende Gewahrsein dessen abzielt, was in jedem Augenblick geschieht (Hayes and Feldman, 2004, Sauer et al., 2011b,
Bishop et al., 2004). Achtsamkeit beschreibt folglich eine Bewusstseinshaltung, die sich
dadurch auszeichnet, dass ein Individuum ganz im Modus des Präsenzerlebens ist und eine
Situation folglich so objektiv wie möglich wahrnimmt, ohne sich dabei zu potentiell unbewusst ablaufenden bewertenden Interpretationen und damit einhergehenden Verhaltensreaktionen hinreißen zu lassen (Dunning, 2005). Obwohl die Fähigkeit, den gegenwärtigen
Moment direkt und unverfälscht in einer akzeptierenden Weise zu erleben, auf den ersten
Blick als triviale Angelegenheit erscheint, ist die Erreichung und Aufrechterhaltung dieses
Bewusstseinszustands – in der meditativen Übung und ebenso im Alltag – nicht einfach.
Um dies zu verstehen, müssen die Erkenntnisse der neurobiologischen und psychologischen Forschung vergegenwärtigt werden, die aufzeigen, dass Menschen das „Jetzt“ (gegenwärtiger Moment) immer als eine flotierende phänomenale Ereignisinsel erfassen, das
zwischen Vergangenem und Zukünftigem eingebettet ist (Wittmann, 2013, Wittmann,
2011). Jedoch benutzen Menschen zumeist ihr autobiographisches und episodisches Gedächtnis, um eine konkrete gegenwärtige Situation auf der Basis von vergangenen Lernerfahrungen einzuordnen und zu interpretieren, oder sie versuchen ihr Verhalten derart auszurichten, dass ein gewünschtes Ereignis eintritt. Auf der einen Seite sind diese kognitivemotionalen Rückgriffe in die Vergangenheit über das episodische Gedächtnis sowie das
antizipierende, auf einen zukünftigen Zustand bezogene Handeln aus evolutionsbiologischer Sicht sinnvolle Mechanismen, um die Problemlösefähigkeiten und somit letztlich
auch die Wahrscheinlichkeit für das Überleben zu erhöhen. Auf der anderen Seite führen
diese Strategien aufgrund der Optimierung der Wahrnehmungseffizienz zu einer reduzierten Genauigkeit des Gegenwartserlebens zugunsten von effizienten Mustererkennungsprozessen. Es werden also nur so viele sensorischer Reize verarbeitet, wie für schnelle und
hinreichend akkurate Entscheidungsprozesse notwendig sind. Herausgebildete mentale
Kategorien beschleunigen diese Vorgänge. Demnach kann Achtsamkeit als Versuch beschrieben werden, die individuellen erlernten (und partiell angeborenen) Stereotypen und
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_13,
© Springer Fachmedien Wiesbaden 2013
164
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer
Vorurteile bewusst unter Kontrolle zu halten. Dies führt zu einer weniger individualistischen Sichtweise, die verhindert, dass Wahrnehmungen zu stark „subjektiv eingefärbt“
werden.
2
Die Schulung von Achtsamkeit und resultierende
Gesundheitseffekte
Das akzeptierende Erleben der Gegenwart kann mit Hilfe von bestimmten körperorientierten Bewusstseinsübungen systematisch trainiert werden, die auch als achtsamkeitsbasierte
Interventionen, im englischen Sprachgebrauch als Mind-Body-Verfahren, bezeichnet werden (Walach et al., 2012). Im Kontext der westlichen Medizin ist die Achtsamkeitsmeditation am bekanntesten. Mit deren Hilfe kann rasch erlernt werden, den Moment wahrzunehmen, Körperempfindungen, Gedanken, Gefühle zu betrachten und diese zu akzeptieren,
ohne sie kognitiv oder emotional zu bewerten (Sauer et al., 2011b).
Eine einfache Übung mit einer Rosine, die in Achtsamkeitsschulungen häufig verwendet
wird, vermag die Wirkung von Achtsamkeit praktisch zu verdeutlichen: Die Praktizierenden werden in einem ersten Schritt gebeten, eine Rosine in eine Hand zu nehmen und diese
zu betrachten, ohne dabei ihren Impulsen nachzugeben, mit der Rosine etwas Bestimmtes
tun zu wollen. Im zweiten Schritt soll die Rosine bewusst und mit allen zusätzlichen Sinnen
wahrgenommen werden: Tasten, riechen und schließlich schmecken. Geruch und Geschmack der Rosine müssen präzise erforscht werden und der damit einher gehende Vorgang des Zungenkontakts, Kauens und Schluckens muss genau beobachtet und registriert
werden. So wie die Rosinenübung vielen Menschen erstmals zu einem bewussten Nachvollziehen von automatisierten Abläufen verhilft, können durch andere Übungen überraschende körperbezogene Selbsterfahrungen und reflexive Einsichten gewonnen werden.
Denn die achtsamkeitsbasierten Techniken zielen darauf ab, einen inneren Ort der Aufmerksamkeit zu aktivieren, welcher erlaubt, die Empfindungen/Gedanken des Moments
wertfrei wahrzunehmen. Die Achtsamkeitsmeditation hebt sich von anderen meditativen
Praktiken ab, die auf einer Fokussierung oder willentlichen Lenkung des Bewusstseins
beruhen. Achtsamkeit kann und sollte jedoch nicht nur in den zurückgezogen Stunden der
Meditation geübt werden, sondern auch innerhalb des Alltags. Achtsamkeit ist nicht nur
eine Technik, sondern gleichfalls eine Lebenshaltung und eine Art zu Sein.
Der amerikanische Molekularbiologe Jon Kabat-Zinn hat die Achtsamkeitsmeditation vor
mehr als zwanzig Jahren von ihrem weltanschaulichen buddhistischen Hintergrund gelöst
und zu einem standardisierten Programm entwickelt. Dieses soll helfen, besser mit Stress,
Angst und Krankheiten umzugehen (Kabat-Zinn, 1998, Kabat-Zinn, 1996). 1979 wurde die
erste Mindfulness-Based Stress Reduktion (MBSR)- Gruppe ins Leben gerufen. MBSR ist
ein psycho-edukatives, auf Selbsterfahrung aufbauendes Programm, welches verschiedene
Meditationsformen (BodyScan, formelle Meditation im Sitzen oder Gehen, Yoga Übungen)
lehrt, und das sowohl ambulant als auch stationär implementiert werden kann. Obwohl die
zugrundeliegenden Meditationstechniken vorwiegend aus der Achtsamkeitstradition des
Buddhismus (Vipassana) stammen, sind sie völlig von ihrem buddhistischen Kontext gelöst
und somit für Personen geeignet, die keine Affinität zu spirituell-religiösen Dimensionen
oder andere religiöse Orientierungen haben (Hayes and Feldman, 2004, Bishop et al.,
2004). Das standardisierte MBSR-Basistraining besteht aus einem achtwöchigen Gruppen-
Achtsamkeit in Organisationen
165
angebot von 1,5 Stunden Dauer pro Woche sowie einen ganzen Tag der Achtsamkeit. Zusätzlich wird den Teilnehmer/inne/n empfohlen, täglich 30-45 Minuten eigenständig zu
praktizieren. Mittlerweile wird das MSBR-Training in den USA an über 250 Kliniken und
Gesundheitszentren zur Behandlung unterschiedlicher Krankheiten und Symptome erfolgreich eingesetzt. In den letzten Jahren werden achtsamkeitsbasierte Verfahren nicht nur zur
Bewältigung von Stress und verschiedenen Krankheiten, sondern gleichfalls zur Steigerung
des Wohlbefindens herangezogen. Ergebnisse zahlreicher Evaluationsstudien belegen die
Wirksamkeit von Achtsamkeitstrainings für die Gesundheit und Leistungsfähigkeit von
Personen bereits nach einem Zeitraum von sechs bis acht Wochen systematischen Trainings
(Mars and Abbey, 2010). Das Einüben von Achtsamkeit ermöglicht zudem konzentrierter
und emotional ausgeglichener zu handeln (Heidenreich and Michalak, 2006). Achtsamkeitsbasierte Verfahren werden mittlerweile für eine Bandbreite von psychischen und physischen Problemen und Beschwerden wie Stress, Depression, Angst, Schmerzen, Süchten,
Bluthochdruck, Tinnitus, Schuppenflechte als auch als flankierende Maßnahmen bei malignen und chronischen Erkrankungen eingesetzt (Gander et al., 2008, Hofmann et al., 2010,
Chiesa and Serretti, 2010).
3
Achtsamkeit für Organisationen
Obwohl Achtsamkeit in den Gesundheitswissenschaften mittlerweile als ein zentrales Konzept etabliert ist, haben die nicht primär gesundheitsbezogenen Effekte von Achtsamkeit im
arbeits- und organisationswissenschaftlichen Zusammenhang noch kaum Beachtung gefunden. Achtsamkeit kann durchaus der Optimierung von Entscheidungsfindungen, Empathiefähigkeit und sozialen Interaktionen in Organisationen dienen (Neuberger, 2002, Northouse, 2009). Erkenntnisse aus der gesundheitswissenschaftlichen Forschung können ebenso für die Verbesserung von Führungsverhalten genutzt werden (Mars and Abbey, 2010).
Weniger gestresste Führungskräfte sind nicht nur leistungsfähiger, sondern auch zugewandter zu ihren Mitarbeiter/inne/n. Die Bedeutung von Achtsamkeit jenseits der stressreduzierenden Wirkung für authentische Führungskompetenzen lässt sich aus impliziten und expliziten Annahmen der modernen Führungsforschung ableiten. Die Studie von Dunning et al.
(2004) zeigt auf, dass Manager/innen dazu neigen, die Annahme der selbstattribuierten
Überdurchschnittlichkeit zu entwickeln, was die Kommunikations- und Interaktionsqualität
mit Kolleg/inn/en und Mitarbeiter/inne/n potentiell beeinträchtigen kann. Eine Inkongruenz
von Selbst- und Fremdbild erschwert die Ausbildung eines als authentisch wahrgenommenen Führungsverhaltens und dem damit einhergehenden Vertrauen (Wong et al., 2010,
Gardner et al., 2011). Durch die Verzerrungseffekte der Eigenwahrnehmung wird in der
Regel eine Kaskade von negativen Folgen ausgelöst, die durch achtsamkeitsbasiertes Training verhindert oder zumindest partiell abgeschwächt werden können.
Bislang liegen nur wenige Studien vor, die die Auswirkungen von achtsamkeits-basierten
Interventionen für spezifische, führungsrelevante Kompetenzen, Fähigkeiten und Verhaltensweisen anhand von Stichproben mit Führungskräften empirisch oder experimentell
analysieren. Die meisten einschlägigen wissenschaftlichen Arbeiten stammen aus dem
pflegewissenschaftlichen Bereich (Zeller and Levin, 2013, Pipe, 2008). Da die Alten- und
Krankenpflege ein belastungs- und stressintensives Arbeitssetting darstellt, das zudem
durch asymmetrische Kommunikations- und Interaktionsprozesse (“Jüngere Gesündere“
pflegen „Ältere Kranke“) geprägt ist. Darüber hinaus gibt es einige Untersuchungen, die die
166
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer
Bedeutung von Achtsamkeit für wichtige organisatorische Kommunikations-, Interaktionsund Entscheidungsprozesse auf der Grundlage von theoretischen Überlegungen und deduktiven Ableitungen aus der gesundheitswissenschaftlichen Branche beleuchten (Sauer and
Kohls, 2011, Sauer et al., 2011a, Boyatzis and McKee, 2005).
4
Potentiell förderliche Auswirkungen von Achtsamkeit
4.1 Achtsamkeit und Stressabbau
Die Effekte von Achtsamkeit wurden im arbeits- und organisations-wissenschaftlichen
Kontext überwiegend auf ihre stressmindernde Wirkung erforscht (Pipe, 2007, Walach et
al., 2007, Yong et al., 2010, Klatt et al., 2012), wobei die vorliegenden Resultate darauf
hindeuten, dass sich für Achtsamkeit am Arbeitsplatz – ähnlich wie im gesundheitswissenschaftlichen Umfeld – eine stress- und belastungsreduzierende Wirkung finden lässt. Die
Arbeiten von Pipe und Yong et al. unterstreichen, dass Achtsamkeit die psychische Gesundheit von im Pflegebereich tätigen Führungskräften verbessern kann. Walach und Kollegen haben ebenfalls Gesundheits- und Stressparameter in einem Arbeitssetting, das durch
hohe Belastung – einem Call-Center – gekennzeichnet ist, analysiert. Klatt und Kollegen
haben die Wirksamkeit von einer niederschwellig angebotenen achtsamkeitsbasierten Intervention für skandinavische Bankangestellte aufgezeigt. Diese Studienergebnisse lassen den
Rückschluss zu, dass Achtsamkeit nicht nur hilfreich ist, um leichter mit Belastungen umzugehen, sondern auch um adaptivere Strategien zur Stressregulation zu entwickeln. Vor
diesem Hintergrund kann belegt werden, dass Achtsamkeit für Führungskräfte eine gute
Maßnahme zum Abbau von Stress und zum Aufbau von Stressresilienz bildet (Chiesa et al.,
2011, Chiesa and Serretti, 2009, Lyons and Schneider, 2009). Dies scheint nicht nur auf
achtsamkeitsbasierte Interventionen zuzutreffen, sondern auch auf einige andere Formen
von Mind-Body-Verfahren, die im Rahmen der integrativen Medizin und Gesundheitsförderung angewandt werden (Walach et al., 2012). Beispielsweise konnte eine rezente Studie
beweisen, dass die Effektgrößen von einer achtsamkeitsbasierten Intervention am Arbeitsplatz sich nicht von einer Yoga-Intervention unterschieden haben (Wolever et al., 2012).
Trotz dieser Einschränkung kann der Schluss gezogen werden, dass achtsamkeitsbasierte
Verfahren zu den am meisten untersuchten und am leichtesten zu implementierenden Verfahren zählen.
4.2 Achtsamkeit und kognitive Ressourcenallokation
Um die Wirkung von Achtsamkeit diesbezüglich zu veranschaulichen, muss man sich vergegenwärtigen, dass es nicht selten passiert, dass man eine gut bekannte Strecke im Auto
gefahren ist und sich am Ziel nicht mehr daran erinnern kann, was auf weiten Teile der
Fahrt geschehen ist. Dieses Phänomen, das vor allem bei implizit erlernten Handlungs- und
Verhaltensweisen (beispielsweise Auto-, Motorrad- oder Fahrradfahren) auftritt, aufgrund
der durch die Lernprozesse erworbenen Routine wie in einem kognitiven AutopilotenModus ausgeführt werden, wird als „Geistesabwesenheit“ – „mindlessness“ – bezeichnet
(Langer, 1989). Diese weitgehend „unbewusst“ ausgeführten Verhaltensweisen sind aus
evolutions-biologischer und entwicklungspsychologischer Sicht nützliche und sinnvolle
Strategien, um zu überleben. Es ist nicht sinnvoll, alle kognitiven Ressourcen auf einmal
Achtsamkeit in Organisationen
167
Erlerntes zu fokussieren, weil es sonst keinen Lern- und / oder Habituations-prozess geben
würde, der zu der Ausbildung von schemataartigen Verhaltensprogrammen in Form von
mentalen Skripten führt. Dennoch ist Geistesabwesenheit eine der Hauptursachen von Unfällen im Straßenverkehr (Hanan et al., 2010, Kass et al., 2008). Aber auch im organisationalen Kontext, wenn Tätigkeiten monoton erscheinen (Hoyos, 1995), besteht die Gefahr,
dass eine Person in den Autopilotenmodus verfällt und nicht mehr konzentriert genug ist.
Im Gegensatz zu Routinetätigkeiten gibt es viele komplexe Interaktionsprozesse, wie beispielsweise in der Personalführung und Entscheidungsfindung, auf die nur durch situationsund kontextsspezifische Modulation des Verhaltens adäquat reagiert werden kann. Häufig
wird auf solche bekannten, aber komplexen Umstände mit automatisierten und stereotypen
Verhaltensweisen reagiert, die in der Vergangenheit erlernt wurden (vgl. Fischer et al.,
2005). Hier kann Achtsamkeit helfen, um die vermeintlich bekannte Situation noch einmal
genauer zu betrachten und dadurch die Möglichkeit zu entwickeln, auf diese individueller
und weniger stereotyp einzugehen. Denn Personen, die regelmäßig Achtsamkeitsübungen
praktizieren sind nicht nur in der Lage, ihre Gegenwartswahrnehmung zu stabilisieren
(Sauer et al., 2012), sondern können – vermutlich aufgrund verbesserter Allokation ihrer
kognitiven Ressourcen und Verbesserung der emotionalen Selbstregulationsfähigkeit –
auch automatisierte Verhaltensreaktionen bewusster reflektieren (Sauer et al., 2011c, Teper
and Inzlicht, 2013). Eine Studie von Zeidan et al. weist außerdem hin, dass achtsamkeitsbasierte Interventionen bereits nach einer kurzen Trainingsphase die kognitive Performanz
signifikant steigern können (Zeidan et al., 2010). Aufgrund der hohen Stressbelastung, der
zunehmend komplexeren Aufgaben sowie der zahlreichen Unterbrechungen des Arbeitsprozesses, denen Menschen in Organisationen heutzutage ausgesetzt sind (Haufe, 2009),
kann eine erhöhte Konzentrationsfähigkeit hilfreich sein, um Aufgaben und Tätigkeiten
reflektierter, effektiver und weniger fehleranfällig auszuführen. Darüber hinaus ist „Mind
Wandering“, also Gedankenabwesenheit, im Grunde ein dissoziativer Vorgang, der mit
„Erfahrungsvermeidung“ einhergehen kann. Dies bedeutet, dass unangenehme Gedanken,
Erfahrungen und Erinnerungen – wie unliebsame Tätigkeiten oder unerfreuliche Gespräche
– tendentiell unterdrückt werden, wodurch es zu Verzerrungen der Wahrnehmung und
Erinnerung kommen kann. Achtsamkeits-basierte Interventionen können bewerkstelligen,
dass die Tendenz zur Erfahrungsvermeidung, welche auch mit bestimmten psychischen
Problemen und Erkrankungen sowie generell reduzierter kognitiver Performanz in Verbindung gebracht wird, abnimmt (Chawla and Ostafin, 2007). Die mit achtsamkeitsbasierten
Interventionen einhergehende Verbesserung der emotionalen Selbstregulation und kognitiven Performanz können auch mit neuronalen Funktionen und Strukturen in Verbindung
gebracht werden. Denn die Forschungsbefunde legen nahe, dass durch regelmäßiges Üben
von Achtsamkeit auf psychologischer Ebene nicht nur das Selbstmodell verändert wird,
sondern auf physiologischer Ebene morphologische Hirnstrukturen und neuronale Aktivierungsmuster beeinflusst werden, die Veränderungen im Immunsystem bewirken können
(Davidson, 2012, Davidson et al., 2003). Die Ergebnisse einer funktionellen Magnetresonanztomographie-Studie (fMRT) deuten darauf hin, dass durch achtsamkeitsbasierte Interventionen das Selbstmodell von Meditierenden derart umgestellt wird, dass die Hirnareale,
die für die gegenwärtige Selbst- und Körperwahrnehmung zuständig sind, von den für ihr
autobiographisches Gedächtnis und damit für ihr biographisches Selbstbild zuständigen
Arealen abgekoppelt werden können (Farb et al., 2007). Hierbei ist es möglich, neuronale
Korrelate zu finden, in denen sich achtsamkeitsbasierte Interventionen von anderen Mind-
168
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer
Body-Techniken unterscheiden. Beispielsweise wurden die Hirnaktivitäten von Teilnehmer/inne/n einer Achtsamkeitsgruppe mit denen einer Entspannungsgruppe verglichen
(Tang et al., 2009, Tang et al., 2007). Dabei wurde bei den Personen, die in Achtsamkeit
geschult wurden, im Vergleich zu der Entspannungsgruppe, eine signifikant stärkere
Durchblutung von Teilen des limbischen Systems festgestellt, das für die Emotionsregulierung von zentraler Bedeutung ist. Die Verbesserung der emotionalen Selbstregulationsfähigkeit wird durch eine Studie belegt, in der gezeigt werden konnte, dass spezifische für
Emotionen und Aufmerksamkeitsleistungen zuständige Hirnregionen durch das Achtsamkeitstraining an Volumen zunahmen (Hölzel et al., 2008). Trotzdem emotionale Selbstregulation für Menschen in Organisationen eine wichtige Kompetenz ist (George, 2000, Kerr et
al., 2006, Riggio and Reichard, 2008, Lawrence et al., 2011), gibt es keine spezifischen
Untersuchungen im Bereich der Organisationswissenschaften, die die Effekte von Achtsamkeit auf die Emotionsregulationsfähigkeit bei Führungskräften auf neuronaler Ebene
dokumentieren.
4.3 Achtsamkeit als Ressource zur Bewältigung von Führungsund Organisationsaufgaben
Auf die zentrale Rolle introspektiver Kompetenzen hat der Psychologe und Kommunikationswissenschaftler Friedemann Schulz von Thun (Schulz von Thun and Stegemann, 2004)
mit seinem Bonmot: „Willst du ein guter Führer sein, schau‘ erst in dich selbst hinein“
hingewiesen. Die Veränderung des Führungsstils, weg von einem autokratischen und hierarchisch strukturierten Führungsverhalten, hin zu einem egalitaristischen und vermehrt
partizipativ ausgerichteten Führungsverhalten sowie eine damit einhergehende breitere
Verteilung von Macht, Einfluss und Verantwortung in Organisationen (Manz and Sims,
2001, Müller, 2005) spiegelt sich vor allem in den verschiedenen Führungstheorien innerhalb der Organisationswissenschaften wider (McGregor, 1960). Ein verändertes Rollenund Aufgabenverständnis hat aber auch implizite Implikationen, die den Bewusstseinszustand und somit auch das Ausmaß von Achtsamkeit von Führungskräften betreffen. Die
Theorie authentischer Führung geht davon aus, dass Achtsamkeit mit dazu beiträgt, dass
Führungskräfte selbstkongruenter und authentischer auftreten können, wodurch sie ihr
Handeln glaubwürdiger an persönlichen Überzeugungen und transparenten Wertesystemen
ausrichten können (Avolio and Gardner, 2005). Im Kontext von Ansätzen wie „super
leadership“ (Manz and Sims, 2001) oder „Führung durch Selbstführung“ (Müller, 2005)
gehört Achtsamkeit zu den Prozessen, die Führungskräfte dabei unterstützen können, an
„innerer Transparenz“ zu gewinnen und mehr durch das eigene, authentisch gelebte Vorbild
als durch Kontrolle oder Anweisung zu führen. Eine wichtige Funktion könnte Achtsamkeit
schließlich im Rahmen des an Bedeutung gewinnenden „coachenden“ Führungsverhaltens
(Hunt and Weintraub, 2006) einnehmen, da hier nicht nur die Auswirkungen des persönlichen Kommunikations- und Interaktionsverhaltens differenziert wahrgenommen werden,
sondern auch die Bedürfnisse, Einstellungen und Vorlieben von Mitarbeiter/inne/n reflektiert werden müssen.
Auf der Grundlage einer von Mintzberg (Mintzberg, 1990) entwickelten Typologie von
Führungsaufgaben, werden im Folgenden weitere potenziell relevante Vorteile der Achtsamkeit für Führungsprozesse diskutiert.
Achtsamkeit in Organisationen
169
4.3.1 Verbesserung der Informationsverarbeitung durch Achtsamkeit
Menschen in Organisation müssen in der Lage sein, komplexe Informationen schnell und
effizient zu verarbeiten. Wer dabei gelernt hat, seine mentalen Ressourcen effizient zu
nutzen, kann für auftretende Probleme effektivere, innovativere und kreativere Lösungen
finden. Die Fähigkeit, bei der Lösung eines Problems nicht den bereits etablierten mentalen
Repräsentationskategorien zum Opfer zu fallen, sondern in neuen und kreativen mentalen
Kategorien zu denken, wird durch Achtsamkeit sicherlich begünstigt. Die Psychologin
Ellen Langer konnte bestätigen, dass Achtsamkeit die Herausbildung neuer kognitiver
Strukturen erleichtert (Langer and Moldoveanu, 2000). Langer stellte fest, dass ihre Untersuchungsteilnehmer/innen nach einem Achtsamkeitstraining in der Lage waren, „mit frischem Blick“ auf Standard- oder Routineaufgaben zu schauen. Sie konnten durch die verbesserte Präsenzwahrnehmung häufig subtile, aber relevante Details in vermeintlichen
Standardsituationen erkennen und dadurch neue Verständnisperspektiven entwickeln
(„thinking out of the box“). Diese Fähigkeit, Dinge genau und interessiert zu betrachten,
wie als wenn man sie das erste Mal sehen würde („beginners mind“), wird auch von dem
Entwickler, der MBSR-Programs, Jon Kabat-Zinn als zentral erachtet. In einer Studie konnten Slagter und Kollegen die zugrundeliegenden neuronalen Prozesse beleuchten (Lutz et
al., 2008). Mit Hilfe eines bestimmten experimentellen Versuchsaufbaus – sogenanntes
„Attentional Blink“-Paradigma – wurden Versuchspersonen in Abständen von Sekundenbruchteilen Buchstabenreihen am Bildschirm präsentiert, zwischen denen mitunter an zwei
Stellen eine Ziffer gemischt war. Unter „attentional blink“ („Aufmerksamkeitsblinzeln“)
wird dabei das Phänomen verstanden, dass die zweite Ziffer oft nicht wahrgenommen werden kann, wenn die Reize schnell erfolgen und die beiden Ziffern kurz hintereinander dargestellt werden (z.B. eine halbe Sekunde Abstand). Die Aufgabe der Probanden/innen war
es dementsprechend, die beiden Ziffern korrekt zu benennen, wenn sie am Bildschirm aufschienen. Gleichzeitig wurde mittels ereigniskorrelierter Potenziale (spezifische Wellenformen im Elektroenzephalogramm), die mit Sinneswahrnehmungen oder mit kognitiven
Prozessen assoziiert sind bestimmt, wie viel attentionale Ressourcen die neuronale Maschinerie der jeweiligen Versuchspersonen für das korrekte Benennen der Ziffern benötigte.
Eine höhere Amplitude des ereigniskorrelierten Potenzials zeigte an, dass die neuronale
Maschinerie mehr attentionale Ressourcen einsetzen musste, um die Ziffern mit Hilfe von
Mustererkennungsprozessen wahrzunehmen. Die Achtsamkeitsgruppe benötigte im Vergleich zur Kontrollgruppe nicht nur weniger attentionale Ressourcen für diese Aufgabe, es
gab auch signifikant weniger Erkennungsfehler aufgrund von Aufmerksamkeitsblinzeln.
Demnach ist Achtsamkeit für Menschen in Organisationen höchst relevant, um fehlerfreier
zu arbeiten sowie innovative Lösungen zu entwickeln.
4.3.2 Kommunikation, Interaktion und Achtsamkeit
Eine weitere zentrale Aufgabe von Menschen in Organisationen besteht darin, mit Mitarbeiter/inne/n, Kolleg/inn/en und Kooperationspartner/inne/n zielführend zu interagieren und
zu kommunizieren. Dies geschieht normalerweise bei formellen oder informellen Treffen
und Besprechungen, Briefwechsel, Telefonaten oder beim Austausch über elektronische
Medien (Email, Video-Konferenz, Live-Chat). Glaubwürdigkeit und Authentizität verbessern die Qualität von Kommunikation und Interaktionsprozessen. Einer Studie der Unternehmensberatung Towers Watson (2008) zufolge ist die wichtigste Voraussetzung für das
170
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer
langfristige Aufrechterhalten der Arbeitsmotivation von Mitarbeiter/inne/n, dass das Führungspersonal ein ehrliches und aufrichtiges Interesse am Wohlergehen der Belegschaft hat.
Beschäftigte sind vor allem dann unmotiviert und unzufrieden, wenn Führungskräfte nicht
offen und ehrlich mit ihnen kommunizieren oder kein emotionales Interesse an ihnen haben.
Für gelungene Interaktions- und Kommunikationsprozesse ist es zentral, der anderen Person zuzuhören und auf sie einzugehen (Hackman and Johnson, 2004). Dazu müssen die
Betreffenden in der Lage sein, zumindest zeitweilig persönliche Interessen in den Hintergrund und die Belange der Anderen in den Vordergrund zu stellen, um sich empathisch in
das Gegenüber hineinversetzen und dessen Perspektive einnehmen zu können („Theory of
Mind“). Es überrascht nicht, dass dies vor allem Personen mit narzisstischen und egozentrierten Tendenzen schwer fällt (vgl. Oelsnitz and Busch, 2010). Shapiro et al. (2006) betrachten den Abbau narzisstischer Tendenzen als den zentralen Wirkfaktor von Achtsamkeit. Achtsamkeit wirkt der Tendenz entgegen, eine gegebene Situation automatisch im
Sinne egoistischer Bestrebungen zu interpretieren. Indem gelernt wird, das eigene Ich und
seine Relevanz zumindest temporär einen Schritt zurück treten zu lassen, trägt Achtsamkeit
dazu bei, die Fähigkeit der Perspektivenübernahme zu entwickeln, was im Sinne von Dialogfähigkeit einen authentischen und empathischen Brückenschlag in der Interaktion mit
anderen Menschen möglich macht (Buber, 1973).
4.3.3 Entscheidungsprozesse, moralisches Verhalten und Achtsamkeit
Die Fähigkeit, Informationen zu verarbeiten und sich mit anderen Personen auszutauschen,
hat auch immer damit zu tun, Entscheidungen zu treffen. Im Zuge der gegenwärtigen Finanz- und Wirtschaftskrise sind Entscheidungen von Führungskräften und Firmenchefs oft
heftig kritisiert worden, weil durch strategische Fehlentscheidungen nicht nur Kapital und
Arbeitsplätze vernichtet worden sind, sondern auch Vertrauen zerstört wurde. Spektakuläre
Fehlentscheidungen in Firmen – wie beispielsweise der Zusammenbruch des Geldhauses
Lehmann, der Schneider-Pleite oder der Zusammenbruch des Kirch-Konzerns – haben die
Frage aufgeworfen, wie es dazu kommen konnte, dass große und erfolgreich agierende
Unternehmen unter erfahrener Leitung nicht nachvollziehbare Fehlentscheidungen getroffen haben. Der Finanzmathematiker Nassim Nicholas Taleb hat die Nachteile einer weit
verbreiteten Heuristik zur Prognose von zukünftigen Systemkonstellationen, die linearere
Extrapolationen, untersucht. Dabei hat er sich auf den Umgang mit seltenen, zumeist unprognostizierbaren, aber wirkmächtigen Ereignissen fokussiert, die von ihm als „Schwarze
Schwäne“ bezeichnet werden (Taleb, 2009). Ursache vieler Probleme, Krisen und Fehlentscheidungen ist seiner Ansicht nach darin zu suchen, dass auf „Schwarze Schwan“Szenarien üblicherweise nicht mit bewährten Strategien zur Bewältigung bekannter Probleme adäquat reagiert werden kann. Dahinter steht letztlich die Erkenntnis, dass komplexe
Systeme den Gesetzen der nichtlinearen Dynamik gehorchen, die durch linearere Extrapolationen nicht beschrieben werden können. Obwohl die lineare Projektion vergangener Situationen und Problemlösungen in die Zukunft ohne Zweifel oftmals nützlich sein kann, kann
dadurch gelegentlich der Blick auf potentielle „Schwarze Schwäne“-Szenarien versperrt
werden, wenn die Entscheidungsträger nicht das notwendige Ausmaß an Achtsamkeit mitbringen, das es ihnen ermöglicht, Situationen und Probleme in neuem Licht zu sehen und
mit angemessenen Entscheidungen zu reagieren.
Achtsamkeit in Organisationen
171
Darüber hinaus werden auch sozialpsychologische Erklärungen wie „gelernte Sorglosigkeit“, „Konformitätsdruck“ („groupthink“) (Esser, 1998) zur Erklärung unternehmerischer
Fehlentscheidungen herangezogen. Der Psychologe Gerd Gigerenzer, der die zentrale Rolle
der Intuition für Entscheidungsprozesse betont, macht vor allem die Tendenz, vermehrt
„defensive Entscheidungen“ zu treffen, für Fehlentscheidungen von Managern und Unternehmern verantwortlich (Gigerenzer, 2008). Darunter wird verstanden, dass Entscheidungsträger/innen eine besser begründbare, faktisch aber nur drittklassige Option wählen, um ihre
Entscheidung im Falle eines dadurch entstehenden Problems post-hoc besser legitimieren
zu können. Interessanterweise ist die Tendenz zu „defensiven Entscheidungen“ in familiengeführten Unternehmen geringer als in Organisationen, die von einem Vorstand gelenkt
werden, der nur für einen begrenzten Zeitraum bestellt wird. Sicherlich kann Achtsamkeit
auch jenseits von der unternehmerischen Organisationsstrukturen dazu beitragen, Entscheidungsträger/inne/n diese Selbstschutztendenzen bewusster zu machen und letztlich zu einem reflektierten, weil bewussterem Umgang zu verhelfen. Die Unentbehrlichkeit eines
über den gesetzlich vorgeschriebenen Mindeststandard der Compliance hinausgehendes
moralisches und ethisches Verhalten von Organisationen wurde in den letzten Jahren zunehmend unter dem Begriff der unternehmerischen Sozialverantwortung („corporate social
responsibility“ [CSR]) diskutiert (Hansen and Schrader, 2005). In dem abschließenden
Projektbericht des von der Europäischen Union geförderten Forschungsprojektes RESPONSE als Akronym für „Understanding and Responding to Societal Demands on Corporate Responsibility“, wird die Effizienz von Maßnahmen untersucht, durch die Führungskräfte zu einer langfristigen und systematischen Umsetzung von unternehmerischer Sozialverantwortung gebracht werden sollen (Zollo et al., 2007). Im entsprechenden Bericht wird
darauf verwiesen, dass die konventionellen Maßnahmen zur Verstetigung von unternehmerischer Sozialverantwortung, wie beispielsweise geleitete Gruppendiskussionen oder Einzelfallanalysen, dazu nur wenig geeignet sind, während Coachingprogramme für Leitungskräfte, die durch introspektive und meditative (Mind-Body)-Techniken flankiert wurden,
sich als die wirksamsten Interventionen zur langfristigen Umsetzung von CRS erwiesen
haben. Hier eröffnen sich große Möglichkeitskorridore für Organisationen, ihren Mitarbeiter/inne/n das Bewusstsein und die Bereitschaft unternehmerischer Sozialverantwortung
und das damit verbundene moralische und ethische Verhalten über introspektive Bewusstseinsverfahren zu vermitteln.
5
Achtsamkeit in Organisationen – Möglichkeiten und Grenzen
Das systematische Einüben von Achtsamkeit bietet großes Entwicklungspotential für Menschen, ihre Aufgaben in Organisationen nicht nur effizienter, erfolgreicher und authentischer, sondern auch mit weniger Belastung und in einer prosozialeren und kooperativeren
Weise auszuführen. Daraus kann nicht geschlossen werden, dass sich durch achtsamkeitsbasierte Interventionen in Unternehmen auch automatisch die kognitive Performanz, intrinsische Motivation, Kommunikations- und Interaktionsverhalten sowie Entscheidungskompetenz von Menschen in Organisationen verbessern. Denn einerseits gehören die achtsamkeitsbasierten Interventionen zu den Maßnahmen, die an der Person und ihrem Bewusstsein
ansetzen. Neben den intrapersonalen Faktoren bestimmen viele andere intra-, inter- und
extrapersonalen Faktoren menschliche Erlebens- und Verhaltensweisen, einschließlich der
damit zusammenhängenden Informations-verarbeitungs-, Interaktions- und Entscheidungs-
172
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer
prozesse. Andererseits sind Anforderungsszenarien vorstellbar, in denen die systematische
Einübung von Achtsamkeit nachteilige Konsequenzen haben könnte. Vor allem im Zusammenhang mit moralischen Dilemmata, beispielsweise Situationen, in denen Kollektivund Individualinteressen nicht mehr miteinander in Einklang gebracht werden, könnte eine
achtsame Haltung hinderlich sein. Achtsamkeit fördert die Fähigkeit zur Empathieübernahme (Block-Lerner et al., 2007, Dekeyser et al., 2008), was eine emotionale Distanzierung und „objektive“ Haltung bei harten Entscheidungen, wie Kündigungen, behindern
kann. Darüber hinaus besteht die Möglichkeit, dass die Akzeptanzkomponente von Achtsamkeit im Sinne einer phlegmatischen, hinnehmenden Haltung fehlinterpretiert wird. Damit ist keinesfalls gemeint, dass alles hingenommen werden sollte, was passiert. Eine achtsame Haltung legt nahe, vor allem unangenehme Erfahrungen und Situationen so objektiv
aufzunehmen wie sie sind, ohne dabei ins Katastrophisieren zu verfallen. Sie schließt keineswegs aus, die nötigen Schritte durchzuführen, um angemessen auf unangenehme und
schwierige Umstände zu reagieren. Dabei sollten zu starke Emotionen nicht die genaue
Interpretation einer Situation verzerren („achtsame Akzeptanz“ einer Situation) (Sauer et
al., 2011b). Achtsamkeit bedeutet sich der Wahrnehmung des Moments bewusst zu sein
und die wahrgenommene Realität des Augenblicks so hinzunehmen, wie sie eben ist. Mit
dieser Einstellung soll vor allem Gelassenheit und Offenheit gegenüber schwierigen Gegebenheiten erlernt werden. Die Einsicht, dass man beispielsweise gerade unkonzentriert,
gelangweilt, oder müde ist und sich dies auch einzugestehen, ist eine wichtige Voraussetzung für die Herausbildung von introspektiven Fähigkeiten im Sinne einer achtsamen
Grundhaltung. Achtsamkeit erscheint für viele Menschen in Organisationen zunächst als
eigenwillige Übung, die mit einer ungewohnten Bewusstseinshaltung einhergeht. Jedoch
zeigen große Projekte bei Unternehmen wie Google, aber auch unsere eigenen Erfahrungen
in Zusammenhang mit der Einführung von Achtsamkeit in Organisationen, dass die meisten
Menschen dieser Thematik mit Offenheit und Interesse begegnen. Es bedarf – neben der
Unterstützung der Leitungsebene – sicherlich systematischer Übung und anfangs einer
fundierten Anleitung, um Fortschritte zu machen. Obwohl achtsamkeitsbasierte Programme
üblicherweise auf Stressbewältigung abzielen (Baer, 2003; Grossman, Niemann, Schmidt,
& Walach, 2004), sollten diese Interventionen nicht auf diesen spezifischen Aspekt begrenzt werden. Die vorliegenden Befunde sprechen dafür, dass durch erfahrungsbasiertes
Lernen und introspektiv orientierte Programme nicht nur die kognitiv-emotionale Selbstregulationsfähigkeit verbessert wird, sondern auch spezifische Aspekte wie Informationsverarbeitungs- und Entscheidungsfindungsprozesse, Empathiefähigkeit, Interaktions- und
Kommunikationsvorgänge und darüber hinaus die Ausbildung einer prosozialen, ethischmoralischen Verhaltensweise gefördert werden. Achtsamkeitsbasierte Interventionen sind
in erster Linie nicht als „Trainingsprogramme zur Steigerung der persönlichen Leistungsfähigkeit“ zu verstehen. Achtsamkeit beschreibt eine förderliche Grundhaltung gegenüber
dem Leben und der eigenen Existenz. Wird diese Grundhaltung authentisch gelebt, können
gesundheits- und leistungssteigernde Auswirkungen eintreten. Das Paradox von Achtsamkeit ist allerdings darin zu sehen, dass diese Effekte sich nur dann längerfristig manifestieren, wenn Achtsamkeit als authentische Grundhaltung und nicht als „Skill“ praktiziert wird.
Die Herausbildung von Achtsamkeit kann nicht in wenigen Wochenendseminaren, sondern
nur durch systematisches Praktizieren erlernt werden, was mitunter maßgebliche Veränderungen der individuellen Lebensgewohnheiten und Einstellungen nach sich zieht.
Achtsamkeit in Organisationen
6
173
Zusammenfassung und Ausblick
Eine Anzahl von Studien belegt, dass Achtsamkeit das Potenzial bietet, Gesundheit, Leistungsfähigkeit und prosoziale Verhaltensweisen von Menschen gleichermaßen zu verbessern. Die Effekte von Achtsamkeit sind keine psychologischen Effekte, sondern auch auf
physiologischer Ebene nachweisbar. Achtsamkeit ermöglicht einem Individuum, Situationen gewissenhafter wahrzunehmen und kreativere Problemlösungen zu finden. Darüber
hinaus kann durch Achtsamkeit egozentrierten Handlungstendenzen entgegengewirkt werden, die häufig ein Grund dafür sind, dass Organisationsmitglieder unzufrieden mit den
sozialen Interaktionsprozessen sind. Obwohl es erste Ansätze gibt, den Zusammenhang von
Achtsamkeit in Organisationen zu untersuchen (Sauer and Kohls, 2011), sind empirische
Studien gegenwärtig noch rar. Vor dem Hintergrund der hohen Wirksamkeit von Achtsamkeit für den Bereich der körperlichen und psychischen Gesundheit, ist es zielführend, die
Effekte von Achtsamkeit auf Menschen in Organisationen näher zu beforschen. Denn achtsamkeitsbasierte Interventionen in Organisationen sind ein mächtiges Werkzeug, um komplexe Veränderungsprozesse, wie die mittlerweile in vielen Branchen geforderte Transformation, in der gesamten Unternehmenskultur zu realisieren.
Hinweis: Dieser Beitrag ist auf der Grundlage von zwei früheren Arbeiten entwickelt worden (Sauer and Kohls, 2011, Sauer et al., 2011a).
Literatur
Avolio, B. J. & Gardner, W. L. 2005. Authentic leadership development: Getting to the root of positive
forms of leadership. The Leadership Quarterly, 16, 315–338.
Bishop, S. R., Lau, M., Shapiro, S., Carlson, L., Anderson, N. D., Carmody, J., Segal, Z. V., Abbey, S.,
Speca, M., Velting, D. & Devins, G. 2004. Mindfulness: A proposed operational definition. Clinical
Psychology: Science and Practice, 11, 230–241.
Block-Lerner, J., Adair, C., Plumb, J. C., Rhatigan, D. L. & Orsillo, S. M. 2007. The case for mindfulnessbased approaches in the cultivation of empathy: Does nonjudgmental, present-moment awareness
increase capacity for perspective-taking and empathic concern? Journal of Marital and Family Therapy,
33, 501–516.
Boyatzis, R. & Mckee, A. 2005. Resonant leadership: Renewing yourself and connecting with others
through mindfulness, hope, and compassion, Boston, Harvard Business Press.
Buber, M. 1973. Ich und Du – Das Dialogische Prinzip, Schneider.
Chawla, N. & Ostafin, B. 2007. Experiential avoidance as a functional dimensional approach to
psychopathology: An empirical review. Journal of Clinical Psychology, 63, 871–890.
Chiesa, A., Calati, R. & Serretti, A. 2011. Does mindfulness training improve cognitive abilities? A
systematic review of neuropsychological findings. Clinical Psychology Review, 31, 449–464.
Chiesa, A. & Serretti, A. 2009. Mindfulness-based stress reduction for stress management in healthy
people: A review and meta-analysis. The journal of alternative and complementary medicine, 15, 593–
600.
Chiesa, A. & Serretti, A. 2010. A systematic review of neurobiological and clinical features of mindfulness
meditations. Psychological medicine, 40, 1239–1252.
Davidson, R. 2012. The Emotional Brain, London, Penguin.
174
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer
Davidson, R. J., Kabat-Zinn, J., Schumacher, J., Rosenkranz, M., Muller, D., Santorelli, S. F., Urbanowski,
F., Harrington, A., Bonus, K. & Sheridan, J. F. 2003. Alterations in brain and immune function produced
by mindfulness meditation. Psychosomatic Medicine, 65, 564–570.
Dekeyser, M., Raes, F., Leijssen, M., Leysen, S. & Dewulf, D. 2008. Mindfulness skills and interpersonal
behaviour. Personality and Individual Differences, 44, 1235–1245.
Dunning, D. 2005. Self-insight: Roadblocks and detours on the path to knowing thyself, London,
Psychology Press.
Dunning, D., Heath, C. & Suls, J. M. 2004. Flawed self assessment. Psychological science in the public
interest, 5, 69–106.
Esser, J. K. 1998. Alive and Well after 25 Years: A Review of Groupthink Research* 1. Organizational
Behavior and Human Decision Processes, 73, 116–141.
Farb, N. A. S., Segal, Z. V., Mayberg, H., Bean, J., Mckeon, D., Fatima, Z. & Anderson, A. K. 2007.
Attending to the present: mindfulness meditation reveals distinct neural modes of self-reference. Social
Cognitive and Affective Neuroscience, 1–10.
Fischer, P., Frey, D. & Greitemeyer, T. 2005. Urteile und Fehlurteile. In: Frey, D., Rosenstiel, L. V. &
Hoyos, C. G. (eds.) Wirtschaftspsychologie. Weinheim: Beltz.
Gander, M., Kohls, N. & Walach, H. 2008. Achtsamkeit und Krebs – eine Übersicht. Deutsche Zeitschrift
für Onkologie, 40, 158–162.
Gardner, W., Cogliser, C., davis, K. & Dickens, M. 2011. Authentic leadership: A review of the literature
and research agenda. The Leadership Quarterly, 22, 1120–1145.
George, J. M. 2000. Emotions and Leadership: The Role of Emotional Intelligence. Human Relations, 53,
1027–1055.
Gigerenzer, G. 2008. Gut Feelings: Short Cuts to Better Decision Making London, Penguin.
Hackman, M. Z. & Johnson, C. E. 2004. Leadership: A communication perspective, Long Grove, Waveland
press Illinois.
Hanan, A., King, M. J. & Lewis, I. M. Are you a mindful driver? A review of the potential explanatory
value of mindfulness in predicting speeding behaviour. 2010. The Road Safety Research, Policing and
Education Conference.
Hansen, U. & Schrader 2005. Corporate social responsibility als aktuelles Thema der Betriebswirtschaftslehre. Die Betriebswirtschaft DBW, 65, 373–395.
Haufe 2009. Haufe Führungskräftestudie 2009. Haufe Akademie.
Hayes, A. M. & Feldman, G. 2004. Clarifying the construct of mindfulness in the context of emotion
regulation and the process of change in therapy. Clinical Psychology: Science and Practice, 11, 255–262.
Heidenreich, T. & Michalak, J. 2006. Achtsamkeit und Akzeptanz in der Psychotherapie. Ein Handbuch,
Tübingen, Dgvt-Verlag.
Hofmann, S., Sawyer, A., Witt, A. & OH, D. 2010. The effect of mindfulness-based therapy on anxiety and
depression: A meta-analytic review. Journal of Consulting and Clinical Psychology, 78, 169–183.
Hölzel, B., Ott, U., Gard, T., Hempel, H., Weygandt, M., Morgen, K. & Vaitl, D. 2008. Investigation of
mindfulness meditation practitioners with voxel-based morphometry. Social Cognitive and Affective
Neuroscience, 3, 55–61.
Hoyos, C. G. 1995. Occupational safety: Progress in understanding the basic aspects of safe and unsafe
behaviour. Applied Psychology, 44, 233–250.
Hunt, J. M. & Weintraub, J. R. 2006. The coaching organization: A strategy for developing leaders,
Thousand Oaks, Sage Publications, Inc.
Achtsamkeit in Organisationen
175
Kabat-Zinn, J. 1996. Gesund durch Meditation. Das grosse Buch der Selbstheilung, München, Barth.
Kabat-Zinn, J. 1998. Im Alltag Ruhe finden: Das umfassende praktische Meditationsprogramm für alle
Lebenslagen, Freiburg, Herder.
Kass, S. J., Cole, K. & Legan, S. 2008. The role of situation awareness in accident prevention. In: SMET,
A. D. (ed.) Transportation accident analysis and prevention. New York: Nova Science Publishers.
Kerr, R., Garvin, J., Heaton, N. & Boyle, E. 2006. Emotional intelligence and leadership effectiveness.
Leadership & Organization Development Journal, 27, 265–279.
Klatt, M., Norre, C. & White, S. 2012. P04. 38. The efficacy of an English-to-Danish translation of a lowdose mindfulness workplace intervention for Scandinavian bank employees on stress. BMC
complementary and alternative medicine, 12, P308.
Langer, E. 1998. The power of mindful learning. Reading: Da Capo Books.
Langer, E. 2009. Counter Clockwise: Mindful health and the power of possibility, New York, Ballantine
Books.
Langer, E. J. 1989. Mindfulness, Reading, MA, US, Addison-Wesley/Addison Wesley Longman.
Langer, E. J. & Moldoveanu, M. 2000. The Construct of Mindfulness. Journal of Social Issues, 56, 1–9.
Lawrence, S., Troth, A., Jordan, P. & Collins, A. 2011. A review of emotion regulation and development of
a framework for emotion regulation in the workplace. Research in Occupational Stress and Well-being, 9,
197–263.
Lutz, A., Slagter, H. A., Dunne, J. D. & Davidson, R. J. 2008. Attention regulation and monitoring in
meditation. Trends in Cognitive Sciences, 12, 163–169.
Lyons, J. B. & Schneider, T. R. 2009. The effects of leadership style on stress outcomes. The Leadership
Quarterly, 20, 737–748.
Manz, C. C. & Sims, H. P. 2001. The new superleadership: Leading others to lead themselves, San
Francisco, Berrett-Koehler Publishers.
Mars, T. S. & Abbey, H. 2010. Mindfulness meditation practise as a healthcare intervention: A systematic
review. International Journal of Osteopathic Medicine, 13, 56–66.
Mcgregor, D. 1960. The human side of enterprise, New York, McGraw-Hill, Incorporated.
Mintzberg, H. 1990. The Manager's Job: Folklore and Fact. Harvard Business Review, 68, 163–176.
Müller, G. F. 2005. Führung durch Selbstführung. Gruppendynamik und Organisationsberatung, 36, 325–
334.
Neuberger, O. 2002. Führen und führen lassen: Ansätze, Ergebnisse und Kritik der Führungsforschung,
Stuttgart, Utb.
Northouse, P. G. G. 2009. Leadership: Theory and practice, Thousand Oaks, Sage Publications, Inc.
Oelsnitz, D. v. d. & Busch, M. W. 2010. Narzisstische Manager – falsche Götter am Unternehmenshimmel?
ZFO – Zeitschrift Führung und Organisation, 3, 186–188.
Pipe, T. B. Innovative Leadership: Mindfulness as a Skill for Nursing Leaders. 39th Biennial Convention,
2007 2007 Baltimore
Pipe, T. B. 2008. Illuminating the inner leadership journey by engaging intention and mindfulness as guided
by caring theory. Nursing Administration Quarterly, 32, 117.
Riggio, R. E. & Reichard, R. J. 2008. The emotional and social intelligences of effective leadership: An
emotional and social skill approach. Journal of Managerial Psychology, 23, 169–185.
Sauer, S., Andert, K., Kohls, N. & Müller, F. 2011a. Mindful Leadership: Sind achtsame Führungskräfte
leistungsfähigere Führungskräfte? Gruppendynamik und Organisationsberatung, 42, 339–349.
176
Niko Kohls, Andrea Berzlanovich, Sebastian Sauer
Sauer, S. & Kohls, N. 2011. Mindfulness in Leadership: Does Being Mindful Enhance Leaders’ Business
Success? In: Han, S. & Pöppel, E. (eds.) Culture and Neural Frames of Cognition and Communication.
Heidelberg: Springer, 287-308.
Sauer, S., Lemke, J., Wittmann, M., Kohls, N., Mochty, U. & Walach, H. 2012. How long is now for
mindfulness meditators? Personality and Individual Differences.
Sauer, S., Lynch, S., Walach, H. & Kohls, N. 2011b. Dialectics of Mindfulness: Implications for Western
Medicine. Philosophy, Ethics, and Humanities in Medicine, 6, 10.
Sauer, S., Walach, H., Schmidt, S., Hinterberger, T., Horan, M. & Kohls, N. 2011c. Implicit and explicit
emotional behavior and mindfulness. Consciousness and Cognition, 20, 1558–1569.
Schulz von Thun, F. & Stegemann, W. 2004. Das innere Team in Aktion. Praktische Arbeit mit dem
Modell, Reinbek, rororo.
Shapiro, S. L., Carlson, L., Astin, J. A. & Freedman, B. 2006. Mechanisms of mindfulness. Journal of
Clinical Psychology, 62, 373–386.
Taleb, N. N. 2009. Ten principles for a Black Swan-proof world. Financial Times, April, 7.
Tang, Y. Y., Ma, Y., Fan, Y., Feng, H., Wang, J., Feng, S., Lu, Q., Hu, B., Lin, Y., Li, J., Zhang, Y., Wang,
Y., Zhou, L. & Fan, M. 2009. Central and autonomic nervous system interaction is altered by short-term
meditation. Proceedings of the National Academy of Sciences, 106, 8865–8870.
Tang, Y. Y., Ma, Y., Wang, J., Fan, Y., Feng, S., Lu, Q., Yu, Q., Sui, D., Rothbart, M. K., Fan, M. &
Posner, M. I. 2007. Short-term meditation training improves attention and self-regulation. Proceedings of
the National Academy of Sciences, 104, 17152–17156.
Teper, R. & Inzlicht, M. 2013. Meditation, mindfulness and executive control: the importance of emotional
acceptance and brain-based performance monitoring. Social Cognitive and Affective Neuroscience, 8,
85–92.
Towers, W. 2008. Towers Perrin Global Workforce Study 2008. Towers Watson.
Walach, H., Gander Ferrari, M., Sauer, S. & Kohls, N. 2012. Mind-Body-Practices in Integrative Medicine.
Religions, 3, 50–81.
Walach, H., Nord, E., Zier, C., Dietz-Waschkowski, B., Kersig, S. & Schüpbach, H. 2007. Mindfulnessbased stress reduction as a method for personnel development: A pilot evaluation. International Journal
of Stress Management, 14, 188–198.
Wittmann, M. 2011. Moments in time. Frontiers in integrative neuroscience, 5.
Wittmann, M. 2013. The inner sense of time: how the brain creates a representation of duration. Nature
Reviews Neuroscience, 14, 217–223.
Wolever, R., bobinet, K., Mccabe, K., Mackenzie, E., Fekete, E., Kusnick, C. & Baime, M. 2012. Effective
and viable mind-body stress reduction in the workplace: A randomized controlled trial. Journal of
occupational health psychology, 17, 246.
Wong, C., L., S., K., H. & Cummings, G. 2010. Authentic leadership and nurses' voice behaviour and
perceptions of care quality. Journal of Nursing Management, 18, 889–900.
Yong, J., Kim, J., Park, J., Seo, I. & Swinton, J. 2010. Effects of a Spirituality Training Program on the
Spiritual and Psychosocial Well-Being of Hospital Middle Manager Nurses in Korea. The Journal of
Continuing Education in Nursing, 1.
Zeidan, F., Gordon, N. S., Merchant, J. & Goolkasian, P. 2010. The Effects of Brief Mindfulness
Meditation Training on Experimentally Induced Pain. The Journal of Pain, 11, 199–209.
Zeller, J. & Levin, P. F. 2013. Mindfulness interventions to reduce stress among nursing personnel: an
occupational health perspective. Workplace health & safety, 61, 85–9; quiz 90.
Achtsamkeit in Organisationen
177
Zollo, M., Casanova, L., Crilly, D., Hockerts, K., Neergaard, P., Schneider, S. & Tencati, A. 2007.
Understanding and responding to societal demands on corporate responsibility (RESPONSE): final
report. Island Press.
Ansätze einer marktorientierten Vertriebssteuerung in der
Versicherungspraxis – Theoretische Überlegungen und
empirische Ergebnisse
Sascha Kwasniok, Hans Meissner
1
Zur Entwicklung marktorientierter Vertriebssteuerungsansätze in
der Versicherungspraxis
In den letzten Jahren lassen sich in der Versicherungswirtschaft gewisse Tendenzen erkennen, die Steuerung der Leistungsbeziehung zwischen Vertriebsmitarbeitern und Produktgebern stärker marktorientierten Prinzipien zu unterwerfen. Aktuelle Beispiele hierfür sind
etwa Vorschläge zur Reduzierung planorientierter Elemente bei der Vermittlervergütung,
Diskussionen um die Führung des Versicherungsvertriebs als unternehmensähnlicher Profit-Center oder Überlegungen zur Ausgliederung von Absatzaufgaben in rechtlich selbständige Vertriebsgesellschaften, die frei zwischen dem internen oder externen Bezug von Versicherungsprodukten entscheiden können.1
Aus Sicht der Organisationstheorie steht hinter einer solchen Marktorientierung die Idee,
durch die Etablierung geeigneter organisatorischer Regelungen die Gesetzmäßigkeiten des
externen Marktes umfassend auf den innerbetrieblichen Leistungsaustausch zu übertragen.
Damit ist das Ziel verbunden, die marktwirtschaftlich organisierten Systemen zugeschriebenen koordinations- und motivationsbezogenen Vorteile, dokumentiert etwa in einer dezentralen Ressourcenallokation oder in einem leistungsfördernden Wettbewerb, auch innerhalb der Unternehmensgrenzen zu nutzen.2
Eine nähere Auseinandersetzung mit den in der Versicherungspraxis vorzufindenden
Konzepten einer marktorientierten Vertriebssteuerung lässt allerdings vermuten, dass sich
die bisherigen Überlegungen zumeist auf eine wenig systematische, von einzelnen Theorieansätzen oder Modeströmungen geleitete Beleuchtung ausgewählter Einzelaspekte beschränken. Ausgehend von diesem Befund verfolgen wir mit diesem Beitrag das Ziel, die
Grundzüge eines Rahmenkonzepts für die systematische Einbringung marktorientierter
Prinzipien in die Vertriebssteuerung von Versicherungsunternehmen zu entwickeln (Abschnitt 2).
1
Vgl. z. B. Schinnenburg (2004), S. 282–298; Nickel-Waninger (2005), S. 644–647; Endres (2007),
S. 157 f.; Meissner/Kwasniok (2008), S. 299; von Spannenberg (2011), S. 27.
2
Vgl. z. B. Halal (1994), S. 69–82; Frese/Lehmann (2002), Sp. 1542 f.; Frost/Queiȕer (2007), S. 244.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_14,
© Springer Fachmedien Wiesbaden 2013
180
Sascha Kwasniok, Hans Meissner
Daneben interessiert uns die Frage, welche konkreten Ausprägungsformen einer marktorientierten Vertriebssteuerung derzeit in der Versicherungspraxis zur Anwendung gelangen und welche Zielsetzung mit diesen jeweils verfolgt wird (Abschnitt 3). Basis für die
Erhebung bilden Interviews mit Führungskräften aus dem Vertrieb in Deutschland tätiger
Versicherer. Als Grundlage für die Systematisierung der empirischen Ergebnisse verwenden wir den vorab entwickelten theoretischen Bezugsrahmen.
2
Interne Märkte als konzeptionelle Grundlage einer
marktorientierten Vertriebssteuerung
2.1 Eigenschaften interner Märkte
Interne Märkte entstehen, wenn zur rechentechnischen Entkopplung interdependenter Einheiten Verrechnungspreise eingeführt werden. Die zwischen Unternehmensteilbereichen
bestehenden Leistungsbeziehungen nehmen so Eigenschaften von Markttransaktionen an.
Die Bereiche verhandeln über Preise, Mengen und Qualität unter Orientierung an den für
sie erzielbaren Transaktionserfolgen.3
Der wesentliche Unterschied zwischen internen und externen Märkten lässt sich an der
Frage festmachen, an welchen Zielsetzungen sich die Entscheidungen der Marktteilnehmer
ausrichten. Auf externen Märkten handeln die Akteure gemäß ihren individuellen Präferenzstrukturen. Die Verfolgung des Eigeninteresses seitens einzelner Parteien erfährt idealtypisch nur dann Einschränkungen (z. B. durch staatliche Regulierung), wenn sie die Freiheit anderer Marktteilnehmer berührt oder die Funktionsweise des Gesamtsystems bedroht.4
Auf internen Märkten hingegen dient der Beitrag zur Zielerreichung des Gesamtunternehmens als letztgültiger Orientierungsmaßstab für die Vorteilhaftigkeit dezentraler Entscheidungen. An die Stelle der individuellen Nutzenmaximierung tritt das Primat der Unternehmensziele.5
Vor diesem Hintergrund können interne Märkte als Instrumente zur Bewältigung von
Problemen verstanden werden, die in Unternehmen durch Arbeitsteilung entstehen. Solche
Probleme können sich einerseits auf die Koordination von Entscheidungen als auch auf die
Motivation der Mitarbeiter beziehen.6
2.2 Interne Märkte und Koordination
Die Behandlung interner Märkte mit Koordinationsfunktion reduziert sich in der Literatur
vielfach auf die Frage, ob ein Verrechnungspreis existiert, der in der Lage ist, mit der Optimierung individueller Bereichserfolge gleichzeitig den Unternehmenserfolg zu maximie-
3
Vgl. z. B. Frese (2004), Sp. 553.
4
Vgl. z. B. Coase (1988), S. 10; Schumann/Meyer/Ströbele (2007), S. 11–14.
5
Vgl. Lehmann (2002), S. 101.
6
Zu dieser Trennung vgl. Milgrom/Roberts (1992), S. 25; Frese/Graumann/Theuvsen (2012), S. 6.
Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis
181
ren.7 Dahinter steht der zweifelsfrei reizvolle Gedanke, dass durch Leistungsverflechtungen
verbundene Einheiten zur gegenseitigen Abstimmung lediglich Preisinformationen austauschen, die in ihre eigenständig geführten Entscheidungskalküle eingehen. Mit dem Preis
steht den internen Transaktionspartnern dann ein Kommunikationsmedium zur Verfügung,
das für die betrachtete Transaktion alle entscheidungsrelevanten Informationen in einer
einzigen Größe zusammenfasst. Entsprechend erübrigt sich bei der Koordination bereichsbezogener Entscheidungen der Bedarf an hierarchischen Eingriffen wie etwa einer bereichsübergreifenden Absatzplanung.8
Arbeiten zur Allokationsfunktion von Verrechnungspreisen legen allerdings den Schluss
nahe, dass in Situationen, die für die Unternehmenspraxis relevant sind, keine Preisbasis
existiert, die eine gesamtzieloptimale Koordination dezentraler Bereichsentscheidungen
sicherstellt.9 Für die weitere Betrachtung vernachlässigen wir daher diesen Problemkreis
interner Märkte. Stattdessen widmen wir uns einem bislang wenig beachtetem Teilaspekt
der Koordinationswirkung interner Märkte, die Lehmann als laterale Kontrolle bezeichnet.10
Laterale, d. h. hierarchieunabhängige Kontrolle verfolgt das Ziel, durch Interdependenzen
hervorgerufene Abhängigkeiten zwischen Bereichen derselben Hierarchieebene produktiv
dazu verwerten, bei den betroffenen Einheiten das Interesse für die Art und die Ergebnisse
der Leistungserbringung ihres jeweiligen Transaktionspartners zu schärfen. Ein solches
Interesse wird bei der hier betrachteten Leistungsbeziehung zwischen Produktgeber und
Versicherungsvertrieb auf Seiten der Vertriebsmitarbeiter dadurch geweckt, dass ihre Vertriebsergebnisse zumindest in Teilen von Entscheidungen beeinflusst werden, deren Zustandekommen sich ihrem unmittelbaren Einflussbereich entzieht. So ist ihr Einkommen in
Vergütungssystemen der Praxis vornehmlich an den erfolgreichen Verkauf von Versicherungsprodukten geknüpft, deren Gestaltung jedoch nicht in ihren, sondern in den Aufgabenbereich des Produktgebers fällt.11
Aus Sicht des Versicherungsunternehmens können mit dem Aufbau eines funktionierenden lateralen Kontrollsystems zwei wesentliche Vorteile verbunden sein: Einerseits werden
übergeordnete Instanzen durch die Delegation von Kontrollaufgaben entlastet. Andererseits
ist unter rein sachlogischen Gesichtspunkten eine Verbesserung der Entscheidungsqualität
zu vermuten, wenn die Lösung von Transaktionsproblemen Einheiten übertragen wird, die
aufgrund ihrer Problemnähe über wesentliche entscheidungsrelevante Informationen verfügen.12 Die Realisierung dieser Vorteile setzt allerdings voraus, dass den Vertriebsmitarbeitern geeignete Handlungsoptionen zur Verfügung stehen, um auf Verschlechterungen im
Produktangebot reagieren zu können. Wir greifen in diesem Zusammenhang die Überlegungen von Hirschman auf, der mit der Abwanderungs- und Widerspruchsoption zwei
7
Zu entsprechenden Überlegungen vgl. z. B. Hirshleifer (1956), S. 173–184; Solomons (1965), S. 212–
232; Winter (1986), S. 89–233; Martini (2007), S. 27–93.
8
Vgl. Hax (1965), S. 130.
9
Vgl. Frese/Glaser (1980), S. 120; Rein (1993), S. 141.
10
Vgl. Lehmann (2002).
11
Vgl. Kwasniok (2012), S. 212 f.
12
Vgl. Lehmann (2002), S. 311.
182
Sascha Kwasniok, Hans Meissner
grundlegende Reaktionsweisen der Nachfragerseite beschreibt, ihrer Unzufriedenheit in
Transaktionsbeziehungen Ausdruck zu verleihen.13
Bei der Abwanderung kommt die Unzufriedenheit des Leistungsbeziehers im Abbruch
bestehender Geschäftsbeziehungen mit anschließendem Wechsel zu Alternativanbietern
zum Ausdruck. Da sich hiermit verbundene Nachfragereduzierungen unmittelbar im Ergebnis des Anbieterbereichs niederschlagen, wird auf diesen ein Druck ausgeübt, Maßnahmen einzuleiten, die zur Erfüllung der nachfragerseitig formulierten Leistungsanforderungen beitragen. Die Wahrnehmung der Abwanderungsoption setzt allerdings voraus, dass
Nachfrager überhaupt die Möglichkeit besitzen, Leistungen von Konkurrenzanbietern zu
beziehen. Eine solche Situation kann auf internen Märkten etwa gegeben sein, wenn innerhalb eines Versicherungskonzerns mehrere Anbieter einer Versicherungssparte existieren,
auf deren Produkte der Vertrieb gleichzeitig zurückgreifen kann.14
Aus Anbietersicht ergibt sich außerdem die Schwierigkeit, dass die Abwanderung nur relativ unspezifische Informationen für die Problembehebung liefert. So gibt der bloße Abbruch von Geschäftsbeziehungen dem Produktanbieter lediglich Aufschluss darüber, dass
problematische Entwicklungen in seinem Leistungsverhalten eingetreten sind, im Regelfall
aber nicht, worin diese begründet liegen.15
Ein in diesem Zusammenhang deutlich direkterer Weg der Kommunikation von Transaktionsproblemen bezeichnet Hirschman als Widerspruch.16 Widerspruch beschreibt eine
nachfragerseitig artikulierte Unzufriedenheit mit preislichen oder qualitativen Verschlechterungen des Produktangebots. Liegen die Art der Produktmängel nicht auf der Hand, erhält
der Produktanbieter im Gegensatz zur Abwanderung relativ genaue Hinweise auf die entsprechende Problemursache. Möglicherweise kombinieren nachfragende Bereiche ihren
Widerspruch sogar mit Verbesserungsvorschlägen.
Aus Nachfragersicht dokumentiert sich der wesentliche Vorteil der Widerspruchsoption
vor allem darin, dass bei ihrer Wahrnehmung eine möglicherweise mit hohen Transaktionskosten verbundene Suche nach alternativen Geschäftspartnern entfällt. Insofern gewinnt der
Widerspruch vor allem in Situationen an Bedeutung, in denen die transaktionsbezogenen
Rahmenbedingungen eine Abwanderung allenfalls zu prohibitiv hohen Kosten zulassen.
Bleiben seitens der Nachfrager Geschäftsbeziehungen trotz bestehender Defizite im Produktangebot bestehen, ist jedoch zu berücksichtigen, dass auf den Anbieterbereich kein
Druck ausgeübt wird, angemahnte Mängel zu beseitigen. So drohen bei der Realisierung
dieser Handlungsoption dem Produktanbieter keine der Abwanderung vergleichbaren unmittelbar spürbaren Sanktionen.17
13
Vgl. hierzu und zum Folgenden Hirschman (1974).
14
Eine solche Konstellation war bis zur Aufgabe einer Mehrmarkenstrategie im Jahre 2010 etwa beim
Ergo-Versicherungskonzern zu beobachten. Hier konnte der Vertrieb z. B. die Produkte verschiedener,
zum gleichen Konzern gehörender Lebensversicherer (z. B. Victoria oder Hamburg-Mannheimer)
nachfragen.
15
Vgl. Lehmann (2002), S. 310.
16
Vgl. hierzu und zum Folgenden Hirschman (1974).
17
Vgl. Kwasniok (2012), S. 238 f.
Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis
183
2.3 Interne Märkte und Motivation
In der Versicherungspraxis ist zu beobachten, dass die Abstimmung der Schnittstelle zwischen Produktgeber und Vertrieb vielfach unter Einfluss planorientierter Elemente erfolgt.
Diese dokumentieren sich vor allem in über sog. Geschäftsplanausschreibungen kommunizierten Absatzvorgaben, die aus der Vertriebsplanung hervorgehen. Mit steigendem Detaillierungsgrad dieser Planwerte nimmt vor allem die Entscheidungsautonomie der Vertriebsmitarbeiter hinsichtlich der Produktverkaufsmöglichkeiten ab. Das zwischen Produktgeber und Vertrieb bestehende Koordinationsproblem wird dann bis zu einem gewissen
Grad zentral im Rahmen einer bereichsübergreifenden Planung gelöst. Entsprechend der
Beeinflussbarkeit von Ergebniskomponenten erfolgt in solchen planorientierten Systemen
die Leistungsbeurteilung der Vertriebsmitarbeiter anhand des Erfüllungsgrads der hierarchisch vorgegebenen Vertriebsvorgaben.18
Planorientierten Anreiz- und Kontrollsystemen werden in der Literatur jedoch gewisse
Nachteile hinsichtlich ihrer Motivations- und Verhaltenswirkung angelastet. Kritisiert wird
beispielsweise die einseitige Konzentration auf die Erfüllung von Planvorgaben, die tendenziell zu einer Vernachlässigung durch das Beurteilungssystem nicht erfasster, für das
Unternehmen aber ebenfalls relevanter Aufgaben führt.19 Ist etwa ausschließlich die Erfüllung stück- oder umsatzbezogener Absatzvorgaben Gegenstand der Vertriebsplanung, ist zu
erwarten, dass sich die Bemühungen der Vertriebsmitarbeiter auf deren Erfüllung konzentrieren, während z. B. Maßnahmen der langfristigen Kundenbindung aufgrund einer mangelnden Berücksichtigung im Beurteilungssystem nachrangig behandelt werden.20
Hieraus leitet sich die Frage ab, ob durch die Einbeziehung marktorientierter Elemente
(z. B. Erfolgszurechnungen oder Konfrontation mit Vergleichskennzahlen) in die vermittlerbezogene Leistungsbeurteilung diesen Motivationsproblemen planorientierter Anreizund Kontrollsysteme begegnet werden kann. Von solchermaßen geschaffenen internen
Märkten gehen sowohl intrinsische als auch extrinsische Motivationswirkungen aus.21
Eine Förderung der intrinsischen, d. h. eigenentwickelten Motivation ist insbesondere
dann zu erwarten, wenn in der Wahrnehmung der Vertriebsmitarbeiter die Möglichkeit
besteht, genau wie freie Marktakteure alle wesentlichen Erfolgskomponenten eigenverantwortlich zu beeinflussen. Die Schaffung eines solchen Gefühls kann über die Wahl einer
Bemessungsgrundlage für Provisionszahlungen erfolgen, die als leistungsgerecht und daher
fair empfunden wird. So besteht für Vertriebsmitarbeiter in Fällen einer zumindest empfundenen leistungsentsprechenden Vergütung ihrer Absatztätigkeit kein Anlass, sich über Abhängigkeiten zum Produktgeber oder autonomievermindernder Planvorgaben Gedanken zu
machen.22 Seitens der Vertriebsmitarbeiter kann jedoch nur von einem Gefühl der Autonomie gesprochen werden. Schließlich bleibt von einer als leistungsgerecht empfundenen
18
Vgl. Altenähr/Dittrich/Shaukat (2009), S. 443.
19
Vgl zusammenfassend Meissner (2000), S. 92–97.
20
Zu diesem und weiteren Beispielen vgl. Kwasniok (2010).
21
Zu Unterscheidung intrinsischer und extrinsischer Motivation vgl. Deci (1971), S. 105; Bass (1985),
S. 11.
22
Zur Analyse von Bemessungsgrundlagen, die diesen Zweck erfüllen, vgl. Kwasniok (2012), S. 191–204.
184
Sascha Kwasniok, Hans Meissner
Provisionszahlung die Existenz von bereichsübergreifenden Leistungsverflechtungen und
Absatzplänen unberührt. Vertriebsmitarbeiter unterliegen daher lediglich einer AutonomieIllusion.23
Neben der Schaffung einer Autonomie-Illusion kann mit der Implementierung fiktiver
interner Märkte auch das Ziel verfolgt werden, auf Vertriebsmitarbeiter einen erfolgsbezogenen Marktdruck auszuüben. Diese Gestaltungsmaßnahme zielt insbesondere auf die Erhöhung der extrinsischen, d. h. fremderzeugten Motivation ab, indem die erzielten Vertriebsergebnisse mit positiven oder negativen Anreizen verknüpft werden. Die erzielten
Vertriebsergebnisse dienen in diesem Zusammenhang als Grundlage, die Leistungsfähigkeit der Vertriebsmitarbeiter mit den durch unternehmensinterne (z. B. andere Vertriebsmitarbeiter) oder -externe (z. B. andere Vertriebswege) Alternativen gesetzten Standards im
Sinne eines sog. Benchmarkings zu konfrontieren.24 Solche Leistungsvergleiche müssen
sich nicht auf monetäre Größen (z. B. Prämienumsatz abgesetzter Versicherungsprodukte)
beschränken. Vielmehr kann das Benchmarking auch nichtfinanzielle Kennzahlen zum
Gegenstand haben, mit denen z. B. zeitliche, kundenorientierte oder qualitätsbezogene
Aspekte der Leistungserbringung Eingang in die Leistungsbeurteilung finden.25
Die Motivationswirkung von Benchmarking-Konzepten hängt im Wesentlichen davon
ab, inwieweit die zur Leistungsbeurteilung herangezogenen Referenzobjekte von den Betroffenen als vergleichbar akzeptiert werden. Hinsichtlich der Akzeptanz lässt sich die teilweise vorfindbare Meinung nachvollziehen, wonach es nicht unbedingt erforderlich ist,
dass Beurteilte und Vergleichsobjekte tatsächlich dieselben Ausgangsvoraussetzungen
sowie Rahmenbedingungen aufweisen und damit im eigentlichen Sinn vergleichbar sind.
So reicht es mitunter bereits aus, den Betroffenen den Eindruck zu vermitteln, dass die
Leistungsvergleiche auf einem systematischen und objektiven Verfahren gründen. In diesem Zusammenhang lässt sich auch die zunehmende Unterlegung von BenchmarkingKonzepten mit formal nachvollziehbaren, teils mathematisch fundierten Analysemethoden
erklären, die ein hohes Maß an Objektivität suggerieren.26
Gelingt es, gegenüber Vertriebsmitarbeitern das Gefühl einer Vergleichbarkeit von Referenzobjekten zu erzeugen, die in Wirklichkeit gar nicht gegeben ist, unterliegen diese einer
Vergleichbarkeits-Illusion. Kritisch anzumerken bleibt allerdings, dass genau wie die Erzeugung einer Autonomie-Illusion dieses Konzept auf die mangelnde Erkenntnisfähigkeit
der Betroffenen spekuliert und damit strenggenommen dem Bild eines aufgeklärten und
mündigen Mitarbeiters widerspricht.27
23
Zum Konzept der Autonomie-Illusion vgl. Frese/Glaser (1980), S. 122 .
24
Vgl. z. B. Meissner (2000), S. 221 f.; Frost/Queiȕer (2007), S. 247
25
Vgl. Riegler (2002), Sp. 130
26
Vgl. Walgenbach/Hegele (2000), S. 186.
27
Vgl. Meissner (2000), S. 220.
185
Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis
3
Betrachtung marktorientierter Absatzsteuerungsinstrumente in der
Versicherungspraxis
3.1 Ziele und Design der empirischen Untersuchung
Unsere empirische Untersuchung verfolgt das Ziel, in der Versicherungspraxis zur Anwendung gelangende Formen einer marktorientierten Vertriebssteuerung zu erheben. Daneben
interessiert uns die Frage, mit welcher Intension die entsprechenden Steuerungsinstrumente
jeweils eingesetzt werden.28
Grundlage der Betrachtung bilden leitfadengestützte Interviews mit Führungskräften, die
in der Versicherungspraxis für Vertriebsaufgaben verantwortlich sind. Die Kontaktdaten
der Interviewpartner wurden einerseits durch Internetrecherchen ermittelt. Andererseits
wurden die Kontakte in die Versicherungspraxis genutzt, über die der Studiengang Versicherung der DHBW Mannheim verfügt. Im Anschluss an die Kontaktaufnahme wurde
unser Forschungsvorhaben vorgestellt sowie der Interviewleitfaden zur Verfügung gestellt.
Insgesamt nahmen an der Untersuchung Vertreter von zehn in Deutschland tätigen Versichern teil (vgl. Tab. 1):
Tabelle 1:
Unternehmen
Übersicht der Untersuchungsteilnehmer
Funktion der
Gesprächspartner
A
Vorstandsvorsitzender
B
C
D
E
F
G
Vertriebsvorstand
Vertriebsdirektor
Vertriebsvorstand
Vertriebsvorstand
Vertriebsvorstand
Leiter Vorstandsstab Vertrieb
und Abteilungsdirektor Vorstandsstab Vertrieb
Vertriebsdirektor
Vorstandsvorsitzender
Vertriebsvorstand
H
I
J
Datum und Dauer
Ort
06.02.2009, 120 Minuten
20.02.2009, 50 Minuten
21.04.2009, 80 Minuten
11.05.2009, 60 Minuten
03.06.2009, 75 Minuten
21.07.2009, 60 Minuten
31.08.2009, 90 Minuten
Stuttgart
25.09.2009, 60 Minuten
28.10.2009, 70 Minuten
09.11.2009, 50 Minuten
Dortmund
Mannheim
Heidelberg
Köln/Mannheim29
Wiesbaden
Oberursel
Frankfurt am Main
Bonn
Wiesbaden
Die Auswertung der so erhobenen Daten erfolgte mit der Methode der qualitativen Inhaltsanalyse. Mit diesem Verfahren werden, sehr verkürzt dargestellt, aus einem Text nach
einem bestimmten, z. B. am theoretischen Rahmenkonzept orientierten Suchraster zunächst
Daten extrahiert, anschließend strukturiert aufbereitet und abschließend durch Interpretation
ausgewertet (vgl. Abb. 1).30
28
Für eine umfassende Darstellung der Untersuchungsmethodik und -design sowie für eine detaillierte
Darstellung der Untersuchungsergebnisse vgl. Kwasniok (2012), S 261-320.
29
Dieses Interview wurde telefonisch geführt.
30
Vgl. Mayring (2008); Gläser/Laudel (2009), S. 197–259.
186
Sascha Kwasniok, Hans Meissner
auszuwertende Texte
(z. B. Gedächtnisprotokolle)
Extraktionsergebnisse
Anwendung
eines geeigneten
Suchrasters
Abbildung 1:
Untersuchungsergebnisse
Analyse
und Interpretation
der extrahierten
Daten
Vorgehen einer qualitativen Inhaltsanalyse
3.2 Marktorientierte Vertriebssteuerungsinstrumente in der
Versicherungspraxis
3.2.1 Verbreitung marktorientierter Vertriebssteuerungsinstrumente
Die Ergebnisse unserer Untersuchung deuten grundsätzlich darauf hin, dass bei der Koordination der Schnittstelle zwischen Produktgeber und Vertrieb weniger auf markt- als vielmehr auf planorientierte Steuerungsprinzipien vertraut wird. So unternimmt eine Vielzahl
der untersuchten Versicherer den Versuch, durch die Übermittlung aus einer bereichsübergreifenden Vertriebsplanung hervorgehender Vorgaben das Absatzverhalten ihrer Vermittler im Sinne übergeordneter Gesamtziele zu beeinflussen. Die Wahrscheinlichkeit der Erfüllung dieser absatzbezogenen Handlungserwartungen versucht man dabei über die Verknüpfung des Planerfüllungsgrads mit monetären (z. B. Bonifikationen) oder nichtmonetären (z. B. Incentive-Reisen) Anreizen zu erhöhen.
Allein Versicherungsunternehmen H verzichtet weitgehend auf eine umfassende Vorgabe
von Absatzplänen. Der entsprechende Unternehmensvertreter betont in diesem Zusammenhang: „Bei uns gibt es keine Vorturner, wie etwa Bereichs-, Verkaufs- oder Organisationsleiter, die die Vermittler mit Wochenberichten, Kontrollanrufen, Zielplanungen oder sonstigen Vorgaben malträtieren.“ Die Abstimmung der Schnittstelle zwischen Produktgeber
und Absatzeinheit wird mit dem Verzicht auf Absatzvorgaben insofern markttypischen
Mechanismen übertragen, als Vertriebsmitarbeiter über ihr Nachfrageverhalten den Anbieterbereich hinsichtlich einer zu erhöhenden Wettbewerbsstärke seiner Versicherungsprodukte unter Druck setzen können. Zwischen internen Versicherungsproduktanbietern wird
Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis
187
hierdurch „bis zu einem gewissen Maß eine Konkurrenzsituation erzeugt, und Konkurrenz
belebt bekanntermaßen das Geschäft, sehr zum Vorteil unserer Vermittler.“31
Die Konsequenzen dieses generellen Befunds für die im Rahmen der theoretischen Überlegungen betrachteten Ansätze einer marktorientierten Vertriebssteuerung zeigen wir im
Folgenden auf.
3.2.2 Ausprägung lateraler Kontrollsysteme
Die schwache Ausprägung marktorientierter Prinzipien hinsichtlich der Koordination der
Leistungsbeziehung zwischen Produktgeber und Vertrieb zeigt sich auch bei der Ausprägung lateraler Kontrollsysteme. Das betrifft vor allem die Abwanderungsoption. Zwar geben die Versicherer A, B, C, D, F, G, H und I an, dass ihre Absatzeinheiten im Fall einer
Konfrontation mit überlegenen Konkurrenzangeboten durch sog. Ventillösungen oder auf
der Grundlage von Kooperationen mit externen Marktakteuren prinzipiell über Abwanderungsmöglichkeiten verfügen. Wird allerdings in Betracht gezogen, dass die Einrichtung
solcher Abwanderungsmöglichkeiten nach Aussage der Praxisvertreter in erster Linie von
der Absicht geleitet ist, bekannte Schwächen im Produktsortiment durch die punktuelle
Zusammenarbeit mit in dieser Hinsicht leistungsfähigeren Anbietern des externen Marktes
auszugleichen, kann hier von keiner lateralen Kontrolle im eigentlichen Sinn gesprochen
werden. Defizite interner Versicherungsproduktanbieter sind der Unternehmensleitung
bereits bekannt und werden folglich nicht erst durch Kontroll- und Überwachungsaktivitäten der hierarchisch gleichrangigen Absatzeinheit aufgedeckt.
Die Formulierung eines Widerspruchs, d.h. die Artikulation von Unzufriedenheit seitens
des Vertriebs mit den angebotenen Versicherungsprodukten vollzieht sich bei den Unternehmen A, B, D, F, G, H und I hauptsächlich im Rahmen regelmäßig stattfindender Produktausschüsse. Diese Ausschüsse setzen sich i. d. R. aus Vertretern der Absatzeinheit, des
Produktgebers und der Leitungsebene zusammen, wobei Letzteren aufgrund ihrer hierarchischen Position das letztgültige Entschlussfassungsrecht obliegt. Die Vertreter der Absatzeinheit führen bei dieser Form des Widerspruchs die im Zeitablauf vor allem von dezentralen Vertriebsmitarbeitern vorgebrachten Einwände und Vorschläge bezüglich der Versicherungsproduktgestaltung zusammen und bringen diese in den Produktausschuss ein. Grundlage für die Entscheidung, ob die vorgebrachte produktbezogene Kritik im Rahmen der
Produktgestaltung Berücksichtigung findet, sind Überlegungen bezüglich deren grundsätzlicher Umsetzbarkeit sowie zu deren Kosten-Nutzen-Verhältnis. Die Ergebnisse dieser
Machbarkeitsstudien und Wirtschaftlichkeitsanalysen bestimmen letztlich den Erfolg dieser
Form des vertriebsseitigen Widerspruchs (vgl. Abb. 2).
31
Aussage Vertreter Versicherer H.
188
Sascha Kwasniok, Hans Meissner
dezentrale Sammlung
produktbezogener Kritikpunkte
und Verbesserungsvorschläge
durch Vertriebsmitarbeiter
Zusammenführung und
Einbringung in Produktausschuss
Machbarkeitsstudie und Wirtschaftlichkeitsanalyse
vertriebsseitig eingebrachter Einwände und Vorschläge
positiv
negativ
Umsetzung vertriebsseitig
eingebrachter Einwände
und Vorschläge im Rahmen
der Produktgestaltung
Ablehnung vertriebsseitig
eingebrachter Einwände
und Vorschläge bezüglich
der Produktgestaltung
erfolgreicher
Widerspruch
erfolgloser
Widerspruch
Abbildung 2:
Formulierung von Widerspruch im Rahmen von Produktausschüssen
Eine solchermaßen ausgestaltete Widerspruchsoption läuft allerdings streng genommen
dem Grundgedanken einer lateralen Kontrolle zuwider. So vollzieht sich hier die Überwachung und Kontrolle der Leistungsfähigkeit des internen Produktprogramms nicht im Rahmen von Transaktionsbeziehungen hierarchisch gleichrangiger Einheiten, sondern im Kontext bereichsübergreifender Abstimmungsprozesse. Dabei ist es vor allem die Bedeutung
des Produktsortiments für die Erreichung übergeordneter Unternehmensziele, welche die
befragten Praxisvertreter dazu veranlasst, in die zwischen Produktanbieter und Absatzeinheit bestehende Austauschbeziehung steuernd einzugreifen. So muss einerseits, etwa aufgrund von Wirtschaftlichkeitsüberlegungen, nicht jeder von der Absatzseite vorgebrachte
Verbesserungsvorschlag zwingend den Interessen des Gesamtunternehmens entsprechen.
Andererseits ist es auch vorstellbar, dass die Absatzeinheit Kritikpunkte vorbringt, deren
Berücksichtigung im Rahmen der Produktgestaltung zwar die Verbesserung des Gesamtzielerreichungsgrads begünstigt, die aber ohne eine hierarchische Rückendeckung vom
Produktanbieter blockiert werden.
Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis
189
3.2.3 Ausprägung marktorientierter Motivationssysteme
Im Rahmen einer bereichsübergreifenden Absatzplanung kommen bei der Mehrzahl der
betrachteten Versicherer marktorientierte Steuerungsprinzipien überwiegend zur Entfaltung
von Motivationseffekten zum Einsatz. Wie eingangs beschrieben, können solche Motivationswirkungen durch die Erzeugung einer Autonomie-Illusion sowie durch Leistungsvergleiche im Sinne eines Benchmarkings erzielt werden.32
Als ein Ansatz zur Schaffung einer Autonomie-Illusion kann die insbesondere von den
Versicherern B, F, G und I im Rahmen deren Vertriebssteuerung vollzogene Vorgehensweise aufgefasst werden, gegenüber ihren Vermittlern einerseits die Absicht einer ganzheitlichen, d. h. an der individuellen Gesamtbedarfssituation des Kunden orientierten Beratung
zu kommunizieren, ihnen andererseits aber gleichzeitig auf einzelne Versicherungssparten
oder -produkte bezogene Umsatz- bzw. Stückzahlziele zu übermitteln. So wird in diesen
Fällen Vertriebsmitarbeitern nur scheinbar eine Entscheidungsautonomie eingeräumt, die es
ihnen dem Idealbild eines ganzheitlichen Beratungsansatzes entsprechend erlaubt, ihre
Produktbezugsentscheidung uneingeschränkt an der individuellen Bedarfssituation ihrer
jeweiligen Kunden auszurichten.33 Aufgrund des Einsatzes von handlungsbeeinflussenden
Absatzplänen und den weiterhin bestehenden Leistungsverflechtungen zum Produktgeber
liegt faktisch aber gar keine vollkommen autonome Entscheidungsfindung vor.
Unter diesen Voraussetzungen wirkt die Kommunikation eines ganzheitlichen Beratungsansatzes weniger als Reaktion auf veränderte Kundenbedürfnisse, sondern vielmehr als
Bestreben, mittels hierarchischer Einflüsse die Ausschöpfung von Absatzmarktpotenzialen,
etwa in Gestalt einer Verbesserung der Cross-Selling-Quote, zu unterstützen.34 So stellt sich
die Frage, wofür es noch einer zentralen Vorgabe absatzbezogener Planwerte bedarf, wenn
die sich aus der kundenindividuellen Bedarfssituation ergebenden Anforderungen an die
Art und den Umfang des Versicherungsschutzes, also letztlich Anforderungen des realen
externen Marktes, die Nachfrage der Vermittler nach dem Produktgebern lenken sollen.35
Vor allem mit Blick auf diejenigen Mitglieder der Absatzeinheit, die in der Lage sind, diesen Zusammenhang aufzudecken, ist anzuzweifeln, dass eine solchermaßen ausgestaltete
Autonomie-Illusion, die letztlich auf die mangelnde Erkenntnisfähigkeit der eigenen Vertriebsmitarbeiter spekuliert und damit per se als fragwürdiges Motivationskonzept angesehen werden muss, über einen längeren Zeitraum aufrechterhalten werden kann.
Mit einem Benchmarking der erbrachten Absatzleistung findet vor allem in den Unternehmen A, B, D, G und I ein weiteres Instrument Anwendung, das Vertriebsmitarbeiter
auch im Rahmen ihrer durch Absatzvorgaben und Leistungsverflechtungen verminderten
Entscheidungsautonomie zu einem unternehmerischen Denken und Handeln motivieren
kann. Gegenstand solcher Leistungsvergleiche sind vor allem der erzielte Prämienumsatz
anderer Vertriebsteilbereiche oder konkurrierender Vertriebswege (Unternehmen A, B, D,
G, I bzw. A, B, G, I) sowie Aspekte der Kundenzufriedenheit (Unternehmen A) oder die
32
Siehe dazu Abschnitt 2.3.
33
Vgl. Köhne/Lange (2009), S. 229.
34
Vgl. von Spannenberg (2011), S. 27 f.
35
Vgl. Schediwy (2006), S. 25.
190
Sascha Kwasniok, Hans Meissner
Qualität des erbrachten Geschäfts gemessen anhand der Stornoquoten, d h. der vorzeitigen
Vertragskündigung seitens des Kunden (Unternehmen B, D).
Die Anwendung von Benchmarking-Konzepten dient in den untersuchten Unternehmen
insbesondere dem Zweck, Aufschluss über die relative Leistungsfähigkeit der Vertriebsmitarbeiter zu erhalten. Einzelne Aspekte der Leistungsvergleiche werden gleichzeitig als
Grundlage für die Gewährung von Anreizen herangezogen. Besonders verbreitet sind dabei
Verkaufswettbewerbe, bei denen die jeweilige Platzierung der Vertriebsmitarbeiter über
Ausschüttung und Höhe von Bonifikationen oder über die Teilnahme an Incentive-Reisen
entscheidet.36 Es lässt sich vermuten, dass eine solche Anreizgestaltung darauf ausgerichtet
ist, die Bereitschaft der Vertriebsmitarbeiter zu erhöhen, das eigene Leistungsniveau kritisch zu überprüfen und ggf. Maßnahmen zu dessen Steigerung einzuleiten.37
Wie in Abschnitt 2.3 gezeigt, hängt die Motivationswirkung von BenchmarkingKonzepten zu einem großen Teil davon ab, inwieweit die zur Leistungsbeurteilung herangezogenen Referenzobjekte von den Betroffenen als vergleichbar akzeptiert werden. Unsere Untersuchung zeigt, dass sich die Unternehmen durchaus mit dieser Problematik konfrontiert sehen. So geben die Praxisvertreter der Versicherer A, B, D und I an, dass die
Absatzverantwortlichen der Vertriebsregionen desselben Unternehmens einen regionenbezogenen Leistungsvergleich mit dem Hinweis ablehnen, dass die einzelnen Vertriebsbereiche starke Unterschiede hinsichtlich der Bevölkerungsstruktur und der Kaufkraft aufweisen.38
Wenn den Praxisvertretern diese Problematik absatzbezogener Leistungsvergleiche offensichtlich bekannt ist, stellt sich jedoch die Frage, warum in den betrachteten Versicherungsunternehmen solchermaßen ausgestaltete Benchmarking-Konzepte zur Leistungsbeurteilung überhaupt noch zur Anwendung gelangen. So ist kaum davon auszugehen, dass im
Absatzbereich die Einbeziehung inner- und überbetrieblicher Vergleichsdaten die hierdurch
beabsichtigten Motivationswirkungen auslöst, wenn entsprechende Kennzahlen von den
beurteilten Vertriebsmitarbeitern von vorneherein als nicht vergleichbar abgelehnt werden.
Vielmehr ist zu erwarten, dass ein Festhalten an solchen Leistungsbeurteilungssystemen
aufgrund des Gefühls einer ungerechten Behandlung zu stark reaktantem Verhalten seitens
der Mitarbeiter führt. Unter Verweis auf das mögliche Auftreten solcher Verhaltensweisen
ist der unbesehenen Anwendung von Benchmarking-Konzepten im Rahmen der Leistungsbeurteilung eine deutliche Absage zu erteilen.39
3.2.4 Kritische Würdigung der empirischen Ergebnisse
Die Ergebnisse unserer Untersuchung lassen insgesamt den Schluss zu, dass die in den
betrachteten Versicherungsunternehmen im Rahmen der Absatzsteuerung zur Anwendung
gelangenden marktorientierten Prinzipien überwiegend auf Motivationsüberlegungen beruhen.
36
Vgl. Umhau (2003), S. 38.
37
Vgl. hierzu auch Meissner (2000), S. 221 f.; Frost/Queiȕer (2007), S 247; Stern (2007), S. 250.
38
Vgl. zu dieser Problematik auch Krafft (1995), S. 31 f.
39
Vgl. Kwasniok (2012), S.313 f.
Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis
191
Dieser Befund lässt sich damit erklären, dass von den Gesprächspartnern mitunter die
Auffassung vertreten wird, das Verhalten von Vertriebsmitarbeitern auf der Grundlage
planbezogener Absatzvorgaben im Sinne der Unternehmensziele relativ gut steuern zu
können. Die hiermit verbundene Beschränkung vermittlerbezogener Entscheidungsspielräume widerspricht jedoch der Vorstellung unternehmerisch denkender und handelnder
Vertriebsmitarbeiter. Darüber hinaus wird verkannt, dass zumindest bestimmte Vertriebsmitarbeiter trotz der Übermittlung umfassender Absatzvorgaben über Möglichkeiten verfügen, sich einem hiermit verbundenen planbezogenen Steuerungsdruck zu entziehen. Anzuführen sind in diesem Zusammenhang vor allem Vermittler, die aufgrund der Größe ihres
Kundenstamms und den damit verbundenen Einkommensquellen in Form von Bestandsprovisionen nicht auf zusätzliche, an die Planerfüllung geknüpfte Belohnungen angewiesen
sind.
Daneben sind auch Konstellationen denkbar, in denen Vertriebsmitarbeitern der bewussten Planverfehlung langfristig einen insgesamt höheren Wert beimessen als dem Nutzen,
der aus einer am kurzfristigen Verkaufserfolg orientierten Erfüllung von Planvorgaben
resultiert. Das ist vor allem dann der Fall, wenn die Produkte des eigenen Produktanbieters
solchen von Konkurrenzanbietern preislich oder qualitativ unterlegen sind. Eine solche
langfristige Handlungsorientierung von Vertriebsmitarbeitern dokumentiert sich vor allem
im Interesse am Aufbau dauerhafter Kundenbeziehungen. So kann es für die Mitglieder der
Absatzeinheit in diesem Zusammenhang durchaus vorteilhaft sein, potenzielle Versicherungsnehmer darüber aufzuklären, dass sich ihre Zugriffsmöglichkeiten auf Versicherungsprodukte beschränken, die gegenüber Angeboten des externen Marktes gewisse Defizite
hinsichtlich der formulierten Leistungsanforderungen aufweisen. Sofern ein solches Verhalten mit der Erwartung verbunden ist, dass eine gegenüber dem Versicherungsnachfrager an
den Tag gelegte Offenheit zum Aufbau einer zukünftige Ertragspotenziale sichernden Reputation beiträgt, die zumindest langfristig in der Lage ist, kurzfristige Einkommensausfälle
einer Planverfehlung auszugleichen, verfehlen hierarchisch formulierte Absatzvorgaben
zunehmend ihre beabsichtigte Wirkung.40
Schließlich bleibt anzumerken, dass mit der Dominanz hierarchischer Elemente im Rahmen der Absatzsteuerung die Möglichkeit vertan wird, die in bestimmten Teilaspekten
produktive Kraft marktorientierter Prinzipien zur Koordination und Kontrolle absatzbezogener Leistungsbeziehungen für übergeordnete Unternehmensinteressen (z. B. Rückkopplung der angebotenen Produkte hinsichtlich deren Marktfähigkeit) zu verwerten.41
4
Zusammenfassung
Im vorliegenden Beitrag haben wir einerseits Ansätze einer marktorientierten Absatzsteuerung von Versicherungsunternehmen aus Sicht der Theorie aufgezeigt und andererseits ihre
Ausprägungsformen in der Unternehmenspraxis erhoben.
Dem Ziel, ein Rahmenkonzept für die systematische Einbringung marktorientierter Prinzipien in die Vertriebssteuerung von Versicherungsunternehmen zu entwickeln, haben wir
40
Vgl. Trigo-Gamarra/Wein (2005), S. 355 f.
41
Zu diesen Eigenschaften siehe Abschnitt 2.2.
192
Sascha Kwasniok, Hans Meissner
uns über die gedankliche Trennung in eine Koordinations- und Motivationsdimension genähert. Im Rahmen der Koordinationsdimension haben wir insbesondere die Einsatzmöglichkeiten lateraler Kontrollsysteme beleuchtet. Ein solches Konzept gründet auf der Idee,
die Leistungsverflechtung zwischen Produktgeber und Vertrieb dazu nutzen, vor allem auf
Seiten der Vertriebsmitarbeiter das Interesse für die Art und die Ergebnisse der Leistungserbringung ihres Transaktionspartners zu schärfen. Insgesamt konnten wir zeigen, dass ein
System lateraler Kontrolle unter bestimmten Voraussetzungen in der Lage ist, Leistungsdefizite des Produktgebers zu beheben, ohne dass mit einer konsequenten Anwendung marktorientierter Steuerungsprinzipien nicht vereinbare hierarchische Eingriffe erforderlich sind.
Mit der Autonomie-Illusion, d. h. der Suggestion dem freien Markt entsprechender Freiheitsgrade und der Anwendung von Benchmarking, d. h. der Konfrontation von Ergebnissen marktlicher Alternativen im Rahmen der Leistungsbeurteilung haben wir zwei Konzepte aufgezeigt, mit denen die defizitäre Motivationswirkung einer bereichsübergreifenden
Absatzplanung zumindest in Teilen aufgehoben werden kann. Kritisch anzumerken ist
jedoch, dass beide Ansätze letztlich auf die mangelnde Erkenntnisfähigkeit der Vertriebsmitarbeiter spekulieren und daher in keinem besonders positiven Licht erscheinen.
Die Ergebnisse unserer empirischen Untersuchung zeigen schließlich, dass in den betrachteten Versicherungsunternehmen die Anwendung marktorientierter Prinzipien im
Rahmen der Absatzsteuerung vor allem mit Motivationsüberlegungen erklärt werden kann.
Die bewusste Erzielung von Koordinationswirkungen lässt sich hingegen nur in Einzelfällen feststellen. Gerade in der zielgerichteten Verwirklichung entsprechender Maßnahmen
können jedoch für Versicherer Handlungspotenziale für eine Neuausrichtung ihrer mitunter
stark planorientiert ausgerichteten Vertriebssteuerungssysteme vermutet werden. So bietet
ihre Umsetzung die Möglichkeit, Trägheitstendenzen bei den durch den Vertrieb nachgefragten Produktgebern, denen aufgrund der Gewissheit des Absatzes ihrer Produkte im
Kontext planorientierter Vertriebsvorgaben ein gewisser Nährboden bereitet wird, zu begegnen.
Literatur
Altenähr, Volker/Dittrich, Rainer/Shaukat, Dominik (2009): Monetäre Anreizsysteme als Mittel zur Vertriebssteuerung, in: Versicherungswirtschaft, 64. Jg., S. 443–445.
Bass, Bernard M. (1985): Leadership and Performance beyond Expectations, New York.
Coase, Ronald H. (1988): The Firm, the Market and the Law, Chicago (Illinois).
Deci, Edward L. (1971): Effects of Externally mediated Rewards on Intrinsic Motivation, in: Journal of
Personality and Social Psychology, 18. Jg., S. 105–115.
Endres, Klaus (2007): Die Gestaltung von Anreizsystemen zur wertorientierten Steuerung von Versicherungskonzernen, Lohmar (zugl.: Köln, Univ., Diss., 2007).
Frese, Erich (2004): Interne Märkte, in: Schreyögg, Georg/Werder, Axel von (Hrsg.): Handwörterbuch
Unternehmensführung und Organisation, 4. Auflage, Stuttgart, Sp. 552–560.
Frese, Erich/Glaser, Horst (1980): Verrechnungspreise in Spartenorganisationen, in: Die Betriebswirtschaft,
40. Jg., S. 109–123.
Frese, Erich/Graumann, Matthias/Theuvsen, Ludwig (2012): Grundlagen der Organisation. Entscheidungsorientiertes Konzept der Organisationsgestaltung, 10. Auflage, Wiesbaden.
Ansätze einer marktorientierten Vertriebssteuerung in der Versicherungspraxis
193
Frese, Erich/Lehmann, Patrick (2002): Der koordinierte Weg zum Kunden – Konzeption einer strategiekonformen Vertriebsorganisation, in: Böhler, Heymo (Hrsg.): Marketing-Management und Unternehmensführung – Festschrift für Professor Dr. Richard Köhler zum 65. Geburtstag, Stuttgart, S. 505–546.
Frost, Jetta/Queiȕer, Claudia (2007): Organisation zwischen Markt- und Hierarchieversagen: Öffentliche
Güter als neuer Steuerungsimpuls, in: Jansen, Stephan A./Priddat, Birger P./Stehr, Nico (Hrsg.): Die Zukunft des Öffentlichen, Wiesbaden, S. 243–280.
Gläser, Jochen/Laudel, Grit (2009): Experteninterviews und qualitative Inhaltsanalyse als Instrumente
rekonstruierender Untersuchungen, 3. Auflage, Wiesbaden.
Halal, William E. (1994): From Hierarchy to Enterprise: Internal Markets are the New Foundation of Management, in: Academy of Management Executive, 8. Jg., S. 69–83.
Hax, Herbert (1965): Die Koordination von Entscheidungen. Ein Beitrag zur betriebswirtschaftlichen Organisationslehre, Köln et. al. (zugl.: Köln, Univ, Habil., 1964).
Hirschman, Albert O. (1974): Abwanderung und Widerspruch. Reaktionen auf Leistungsabfall bei Unternehmungen, Organisationen und Staaten, Tübingen.
Hirshleifer, Jack (1956): On the Economics of Transfer Pricing, in: The Journal of Business, 29. Jg.,
S. 172–184.
Köhne, Thomas/Lange, Manfred (2009): Zielgruppenorientierte Verkaufskonzepte im Privatkundenbereich,
in: Berufsbildungswerk der Deutschen Versicherungswirtschaft (BWV) e. V. (Hrsg.): Marketing und
Vertrieb von Versicherungs- und Finanzprodukten für Privatkunden. Fach- und Führungskompetenz für
die Assekuranz, Karlsruhe, S. 215–390.
Krafft, Manfred (1995): Außendienstentlohnung im Licht der neuen Institutionenlehre, Wiesbaden (zugl.:
Kiel, Univ., Diss., 1994).
Kwasniok, Sascha (2010): Gedanken zur Gestaltung markterfolgsorientierter Provisionssysteme für Versicherungsvermittler. Konzeptionelle Überlegungen vor dem Hintergrund aktueller Entwicklungen, in:
Zeitschrift für Versicherungswesen, 61. Jg., S. 18–23.
Kwasniok, Sascha (2012): Marktorientierte Vertriebssteuerung von Versicherungsunternehmungen. Organisationstheoretischer Bezugsrahmen und empirische Betrachtung, Karlsruhe (zugl.: Karlsruhe, Institut für
Technologie, Diss., 2012).
Lehmann, Patrick (2002): Interne Märkte. Unternehmungssteuerung zwischen Abwanderung und Widerspruch, Wiesbaden (zugl.: Köln, Univ., Diss., 2000).
Martini, Jan Thomas (2007): Verrechnungspreise zur Koordination und Erfolgsermittlung, Wiesbaden
(zugl.: Bielefeld, Univ., Diss., 2006).
Mayring, Philipp (2008): Qualitative Inhaltsanalyse. Grundlagen und Techniken, 10. Auflage, Weinheim.
Meissner, Hans (2000): Center-Konzepte. Ein integrierter theoretischer Bezugsrahmen, Wiesbaden (zugl.:
Mainz, Univ., Diss., 1999).
Meissner, Hans/Kwasniok, Sascha (2008): Marktorientierte Steuerung unternehmenseigener Absatzorgane
von Versicherungsunternehmen, in: Himpel, Frank/ Kaluza, Bernd/Wittmann, Jochen (Hrsg.): Spektrum
des Produktions- und Innovationsmanagements. Komplexität und Dynamik im Kontext von Interdependenz und Kooperation – Festgabe für Klaus Bellmann zum 65. Geburtstag., Wiesbaden, S. 299–316.
Milgrom, Paul R./Roberts, John (1992): Economics, Organization and Management, Englewood Cliffs
(New Jersey).
Nickel-Waninger, Hartmut (2005): Vertriebsausgliederung: Wem gehört die Marke und wem der Vertrieb?,
in: Zeitschrift für Versicherungswesen, 56. Jg., S. 644–647.
Rein, Michael (1993): Konsolidierte Grenzplankostenrechnung. Instrument der Konzernplanung und steuerung, Wiesbaden (zugl.: Mannheim, Univ., Diss., 1992).
194
Sascha Kwasniok, Hans Meissner
Riegler, Christian (2002): Benchmarking, in: Küpper, Hans-Ulrich/Wagenhofer, Alfred (Hrsg.): Handwörterbuch Unternehmensrechnung und Controlling, 4. Auflage, Stuttgart, Sp. 126–134.
Schediwy, Werner (2006): Ganzheitliche Beratung – ein Marketing-Gag oder innere Überzeugung?, in:
Effert, Detlef (Hrsg.): Ganzheitliche Beratung bei Banken. Modeerscheinung oder Erfolgskonzept?,
Wiesbaden, S. 21–32.
Schinnenburg, Stephan (2004): Wertschöpfungspartnerschaften zwischen Ausschließlichkeitsvertrieben und
Fremdversicherern – das Modell der Ventillösung, in: Köhne, Thomas (Hrsg.): Strategische Kooperationen in der Versicherungsbranche. Kernkompetenzen, Wertschöpfungspartnerschaften und Unternehmensnetzwerke, Wiesbaden, S. 281–299.
Schumann, Jochen/Meyer, Ulrich/Ströbele, Wolfgang (2007): Grundzüge der mikroökonomischen Theorie,
8. Auflage, Berlin et al.
Solomons, David (1965): Divisional Performance: Measurement and Control, New York.
Spannenberg, Ulrich von (2011): Erfolgreich in der Vorsorgeberatung. Wie Sie durch Konzeptverkauf Ihre
Kunden überzeugen und Ihr Einkommen signifikant erhöhen, Wiesbaden.
Stern, Hermann J. (2007): Benchmarking im Aufsichtsrat zur Unternehmenssteuerung, in: Zeitschrift für
Corporate Governance, 2. Jg., S. 246–250.
Trigo-Gamarra, Lucinda/Wein, Thomas (2005): Bessere Beratung der Versicherungsnehmer durch höhere
Qualität der Versicherungsvermittler?, in: Schulte, Reinhard (Hrsg.): Ergebnisse der MittelstandsForschung, Münster, S. 351–375.
Umhau, Gerd (2003): Vergütungssysteme für die Versicherungsvermittlung im Wandel, Karlsruhe.
Walgenbach, Peter/Hegele, Cornelia (2000): Was kann der Apfel von der Birne lernen, oder wozu brauchen
Unternehmen Benchmarking?, in: Industrielle Beziehungen, 7. Jg., S. 180–199.
Winter, Richard (1986): Pretiale Lenkung bei sicheren und unsicheren Erwartungen, Frankfurt am Main et
al. (zugl.: Frankfurt am Main, Univ., Diss., 1986).
Development of Information Systems in Manufacturing
Olga Levina, Hermann Krallmann
Introduction
Throughout the development of the human kind manufacturing took an important role.
Only with the beginning of using a tool, we see human race on the way to knowledge and
intelligence. Material goods were produced to satisfy some concrete need that couldn't have
been satisfied by goods that can be found in nature.
Craftsmen, people specialized in producing one specific good by themselves with no or
little help of some tools, took their processes to the best possible perfection. But they also
hid their knowledge to avoid competitiveness and fraud. This policy led to losses in
important areas which can't be recovered anymore. Two famous examples are the secret of
Stradivari‫ތ‬s making process for string instruments and the components of the “bleu de
Chartres” – a blue color made by a guild of glazier for the magnificent cathedral in
Chartres, France in 12th century. This age of manufacturing in its original sense of making
products “by hand” lasted for a very long time and was only superseded by industrial age
some two hundred years ago.
Until then, information and knowledge about production process was extremely bound to
a specific person. This made a craftsman a very known and important society member.
When social hierarchy began to change and land property gave a higher position, in the
early medieval age, craftsmen were still accredited.
Industrial age brought another change in the social structure. Investors had the financial
importance – engineers, mechanical engineers and factory planers followed closely in the
hierarchic perception of the society. Production processes were planned in advance,
material and information flows were pre-planned for the longest possible time span and
workers within the factory had no influence neither on the process nor on the product in
which creation they were involved. Cumulated knowledge was again concentrated in the
hands of the factory engineer and planer who was represented by inspectors. So quality
control and process optimization were seen as side products of this organization, more than
to be an important issue and necessity. In the mass production of industrial age no flexible
reaction was possible as everything from raw resources and product design, through the
occupancy of the machines and workers, to sales and accounting was planned in advance.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_15,
© Springer Fachmedien Wiesbaden 2013
196
Olga Levina, Hermann Krallmann
Factory workers only had to perform machine supportive tasks and didn't need any
education. They have never seen the whole product but only a very small part of an element
that will be completed to the product. Not only that these circumstances led to an alienation
of factory workers with their production but it also pushed them down in the social opinion
and created the so called working class. As the result social gaps and dissatisfaction of
workers rose and caused severe social instability.
Ultimately mass production the market was flooded with and now manufacturers had to
think about a new strategy to attract customers. Meeting basic needs was now not enough,
customers wished to express their individuality by consumption. Manufacturers had to react
quickly to this development and a need for flexibility and information was absorbed by the
developments in information and communication technology. Mutual stimulation of
information and communication technology and market demands leads to a new paradigm
of “mass individualization” which is strongly connected to an important amount of
information to be processed and implement into the processes.
More and more manufacturing enterprises are facing problems caused by this shift: where
and how to get the information (about customer wishes, new technologies, etc.) and how to
proceed this information into already established production processes.
Mass production and handcraft are both still present in our industrial landscape. But
individualization of products, which is positioned in between these two concepts, takes a
more and more important part of the value creation in industrialized countries. From the
social point of view, quality and level of life in industrialized countries and the social gap
was partly eased by the new working and manufacturing paradigms. Since the quality of
products became a necessity to compete on the market and a unique selling proposition for
an enterprise, factory workers are now seen as a main force to detect process failures and
provide suggestions to enhance the process (Parsons, 1967).
To fulfill customer demands a fast reaction to changes in technology and trends is
needed. Customer demands also often required small charges and lots, and this leads to a
renunciation of the mass market. As a consequence mass production is recommitted to
other countries that yet don't have a highly developed information and communication
structure and therefore rely on automated production with high initial investments into
production technology but therefore also a lower level of needed education of its workers to
maintain the value adding processes. Not only that we become more and more dependent
on these countries for cheap production of everyday goods, but the social gap deepens again
but now on the global and not on the national level.
As soon as human started to use tools or some goods which couldn't been found in the
nature the age of manufacturing began. Since with the time more man-made products were
needed, manufacturing was an activity that was acknowledged by other members of the
society. Manufacturing as a process or set of processes is always accompanied by three
kinds of flows: material, cost and information flows (Hitomi, 1996). Material flow
illustrates the input-output system of production processes: raw materials are given in,
processed and assembled and delivered to customers. Information flow originally contained
all information needed to realize a product. It covers what materials should be used, how to
modify them and in which succession to obtain the desired product. In the consumer-driven
market as we observe it today, information becomes a management function to gather the
Development of Information Systems in Manufacturing
197
demand and its trend from the market. Information flow also contains the aspects of
planning and control of the manufacturing processes (Fulkerson, 2001; Hitomi, 1996,
Clement et al. 1995). Material flow invokes the flow of costs and both of them have to
follow the production plan which is based on markets needs and trends. This basic structure
didn't change throughout the years but what changed is the emphasis put on every one of
them in different manufacturing structures. In the following sections these structures will be
outlined and the role and kind of information management will be pointed out.
Information systems contain information, information processing elements, and actors
who carry out those processes (Wu, 1994). This definition will be used in this paper. The
article is organized as follows: first of all the stages and historical events that affected the
development of manufacturing systems will be described. Then the current situation of
global manufacturing is shown and possible social consequences are indicated. In the
conclusion the role of information and information systems in the development of
manufacturing will be summarized.
Craftsmen
At the very beginning of the history of manufacturing there was a skilled person who
realized that it was possible to build some goods when they were not available in nature.
Moreover he or she was able to build one product that some of his socialites needed and
could build it in the best way. This was the start of specialized craftsman as the first
producer of material goods.
Manufacturing remained in the realm of craftsmen for a very long time, even today some
narrow areas of production are still performed by craftsmen. This may not be a direct
necessity but a special wish of customers who are flooded by mass products with a lack of
„personality“. In this kind of industry all components of the end products are built by one
artisan or, later, by members of a workshop who was in charge. Moreover there is a good
traceability possible, going from raw materials, design, know-how and sales. All of these
steps were performed by one person who was also the more or less conscious keeper of the
complex knowledge behind all these processes.
Manufacturing structures have gone through big development, biggest change being the
industrial revolution (Groover, 2001). Until the mid 1840s products were made by small
companies containing only few workers. Very often an individual request of a customer
preceded the actual production. Often this request was expressed and brought in by the
customer him- or herself, containing more or less exact specifications. Customers as well as
producers were well aware of the fact that between order and finishing a noticeable time
span will pass. Within this time multiple feedbacks loops were ran between producer and
customer. The complete design was then finished when the customer approved the product
and its quality and paid the arranged price.
Later on craftsmen were organized in guilds. These organizations were formed according
to the area of trade. They were very rigid groups that determined not only the production
processes and tools but also the produced amounts. On the one hand market shares and
competitiveness could have been controlled better in this way. But on the other hand
198
Olga Levina, Hermann Krallmann
significant progress in innovation and technology was detained by this structure, some
loosening was only possible in regions with nationwide trade (Biggs, 2003).
First Industrial Revolution
Only a very small group of people was aware of how to produce a given material good in
the time that was dominated by artisan manufacturing. Therefore customers often have to
travel to craftsmen that were able to make the needed good. The main achievement of the
first industrial revolution was the possibility to produce different parts of a product in
different places by different people. These parts were assembled in a third place by people
who don’t necessarily know exactly how to make this product from the beginning but they
knew how to assemble it from the single part. This meant that products could be made
available faster and even cheaper. Additionally assembling doesn't require such a long
educational process and didn't tie up to a membership and no bounds from guilds were to be
feared. Before this division of the product in its parts it was only possible to add some
luxurious extras like jewels or other kind of decoration to the ordered product since it was
made by a artisan with a different specification. Competitiveness was low as benchmarking
would have been a much higher cost for the customers than the actual product cost.
Information about the market depended on distances and knowledge which was hard to
bridge. Information spread for producers was also a very difficult undertaking, as the
communication means were poorly developed.
First industrial revolution also allowed creating transportation means and ways,
constructing first steam-driven machines and processing raw materials. This led to the
upcoming of new technologies, new demands and new manufacturing processes.
Information in those first variations of a mass production system was carried by people
according to rules, plans or maps developed by a production engineer. Most of the
production stages of the produced good were situated in a walking distance. Of course the
product price was more or less still dictated by the supply, as the competitiveness was held
low and actual cost per unit were very high.
Second Industrial Revolution
In the late 19th century transportation and communication networks were available due to
the steel industry and already established railway connections. Electricity and scientific
knowledge and deterministic way of thinking allowed industry to develop. Expanding
demand for steel nourished by rising demand for availability and transportation pushed
production processes to higher efficiency, electricity enabled better working conditions in
factories and therefore to higher production rates for day and night production
(Onyemelukwe, 2004, Adams, 1984). It was the time when engineering starts to
concentrate on solving problems in manufacturing processes. Scientific methods of
measuring, control and decision making started to come in use.
Other results of the industrialization were higher capital involvement and lower labor
input. These requirements were aimed to lower the costs per produced unit and therefore
economies of scale, higher capital to labor ratio, emerged as new paradigms of value
creation. To push down the costs equipment, people and resources had to be used at nearly
Development of Information Systems in Manufacturing
199
full capacity (Batchelor, 1995). Upcoming achievements in science and therefore in
technology reassured manufacturers in their believes of predictability and measurably of the
world. They realized that production processes were quantitative to a high extent, since they
can be measured, controlled, monitored, observed, manipulated and recorded. This was a
start of Taylorism, a manufacturing system organization often also referred to as scientific
management (Taylor, 1911). Taylorism enabled mass production manufacturing systems
and therefore the mass products.
This production processing did not only push the product costs down, supported
engineering approach to manufacturing but also rose a big question about human factor in
manufacturing specifically and for value creation in general. Since even Ford's assembly
lines could not work without human assistance, philosophers of that time spoke about
alienation of the workers in the labor process (Marx, 1867), as they were seen and
employed in the equal way to manufacturing technology as a “production factor”.
In mass production all processes, recourses and manufacturing phases have to be planned
in advance (Taylor, 1911). Every discontinuity or discrepancy of this plan would stop the
production process and cause a very significant financial damage. This is also a reason why
mass production paradigms support and encourage big financial and engineering efforts.
There is no big need in specific or immediate information provisioning. Most tasks are done
and controlled by machines according to the production plan. The production pace is
determined and no alternation is allowed since it was not foreseen in the production plan.
Control and supervision of human workers as well as the machines, detection of bottlenecks and technical delays were performed by straw bosses or inspectors in the factory hall
(Batchelor, 1995, Biggs, 2003 ). A two class society appeared and was stressed within the
plant. This gap was widened even more outside when the investors and office workers
became visible.
Determinism and Information
Beginning with the late 18th century advances in natural sciences, like Newton's
mechanics, led to a perception that anything obeys some kind of law and can therefore be
quantified and planned when a good knowledge of the observed system is available. That is
why engineering became more and more popular as it allowed to find a solution by
quantitatively describing and calculating given problems. Engineering gained also a lot of
success providing machines that were able to finish production processes faster and more
effective than humans could. New materials like steel and new demands like transportation
and associated communication needs provoked need for fast solutions. These were seen in
apparatus which were planned and constructed to provide the exact answer to a posed
problem (Cortada, 2003). The whole information flow was conceived and captured in the
engineering work instead in the process. Like craftsmen, engineers carried all the needed
information for processing a system they developed and like craftsmen they gained a high
position and respect in the society. While planners, engineers, and investors were respected,
workers in the manufacturing hall not only suffered bad working conditions and monotony
of the work processes, they also were despised in the society. Their working outfit , their
narrow specialization and therefore lack of deeper knowledge to be able to impact any of
200
Olga Levina, Hermann Krallmann
their working steps or product as a whole, deepened the social lack between the working
class people and the “others” in the eyes of the society.
Mass Customization
Henry Ford with the invention of the assembly line in his car factory put the principles of
mass customization (Womack, 1991, Chandler, 2004): efficient factor use, standardization,
low costs per unit, division of labor and high specialization are the main characteristics of
this organization. But this production system with its high investments and high degree of
planning was very sensitive to any kind of noise or turbulences from the inside or outside
the production system. But still a more important factor for the decrease of popularity of
mass production was the saturation of the markets. Mass products were produced at very
low costs per unit, through the produced volume of one product kind markets were very
good supplied by mass products. This saturation appeared especially due to their
affordability for a big range of customers. Since the everyday needs were being able to be
satisfied for a relatively small amount of money and were accessible to everyone, this
convenience market was soon saturated. One of the main principles of mass production is
the efficient use of recourses and this implies also the machine working time. No stop is
planned or supported by this manufacturing system, but with more and more saturated
market products were meant to be produced for cull as is was cheaper than to stop the line.
Additionally customers didn't want to buy products that look and cost the same for
everybody. But mass production manufacturing offers no space for variations neither in
product design, nor in production volume. These facts played a major role in the decline of
Ford's way of manufacturing (Olsen, 2002). In figure1 the different manufacturing types are
shown in the context of the degree of product individualization and the complexity of an
information system being used for successful production.
201
Development of Information Systems in Manufacturing
Individualization
Craftsmen
Workshop
Mass
Customization
0
Assembly line
Complexity of
information systems
Human involvement
Figure 1:
Overview of types of manufacturing and complexity of information system used
Demand driven manufacturing
During a long time manufacturing was performed by very skilled people, craftsmen, who
had to go a long way of knowledge accumulation and technical improvements. They
produced on specific, punctual demand, and had a very small range of competitiveness.
Customers were the ones to search for the producer and negotiate their design conceptions
with the technical feasibility. On the central meeting points for artisans, like fairs,
consumers were to buy what was offered by manufacturer. Mass production pushed a big
amount of a specific product on the market and didn't take wishes of the customer into
account to a big extent as well. But with the rising of technology and educational level in
the industrialized world also the living standard of a big share of people rose (Kotha, 1996).
Suddenly they were not satisfied by a product everyone has, they wanted to express
theirselves by consuming and reflex their personality through the goods they bought.
System of mass production couldn't react to this development, so that is why new
paradigms of manufacturing systems were suggested. Flexible manufacturing, the overall
term of these approaches, allowed a cheaper entrance into the world of mass production
(Piller, 2004, Womack, 1991).
202
Olga Levina, Hermann Krallmann
Of course mass production is still present in the manufacturing landscape, it will hardly
disappear in a short-term future. But it is not as present in our society as it used to be at the
time it started. Most monotonous working steps were taken over by machines or robots,
while human power was put to control and assist the production process (Pine, 1993).
Manufacturing turned out to be a market driven process. Originally something was made
“by hand” (manu factum in Latin) because this product was necessarily needed to fulfill a
basic need. Now, since mass production assured a supply of basic needs, most of the
population in industrial world having a life quality above the survival means, individuality
is often expressed by consumption. Now it is the manufacturers to go to the customers to
search for their needs. The goal is still to be profitable, but the solution is sought not in
machine efficiency but in information about customers and markets. That is why a so called
target group is to be analyzed, and the term mass customization comes up to describe this
current state. Such an approach requires a production system to be adaptable to the volume
to be produced and design changes as well as a good network of suppliers. Information
flows start to be the very core of the manufacturing process as anything can not be planned
in detail as it used to be in the mass production. Immediate information availability is now
the goal to reach for customer oriented manufacturing.
Computer aided information proceeding in manufacturing
Though manufacturing always has been a very information-intensive process, the core
effect of information managing to the economic result of the enterprise was realized quite
late (Harrington, 1979). Information sources and ways of managing them changed with the
organizational paradigms over the time, but the core process – converting raw materials to a
product satisfying a need of the customer – remains. The realm of customers and
knowledge needed to finish a material good also changed depending on manufacturing
system. With computers starting being in use in the late 1970s information changed its
position from a supporting background to a more and more essential recourse for
production.
Computers with their high calculating capacity and possibility to process and compare
multiple variations in a small time range supported individualization and flexibility in
manufacturing (Cecelja, 2002). Development in communication technologies and the rising
CPU capability enabled the next step of manufacturing processes when the process is
guided by incoming and processed information. High prices on the newly upcoming
computers detained small and middle enterprises to invest in information technology since
its meaning was still underestimated in manufacturing (Cecelja, 2002). Only when the
software and hardware products conquered the mass market and their prices began to fall,
producers started considering the investment.
From the 1980s on it was possible to individually design software products that were now
affordable for even small enterprises (Cecelja, 2002). Investments comparing to the ones
for mass production kept falling and allowed middle and small enterprises to enter the mass
market. In the first step some tasks involved in manufacturing, like computer aided design
(CAD), were performed using a computer. But they were not connected with each other.
The wish of integrating loosely bounded tasks to enhance business processes led to the
concept of computer integrated manufacturing (CIM) (Ránky, 1986). With this approach
Development of Information Systems in Manufacturing
203
information was recognized as the driving force behind production processes and an
important factor in engineering manufacturing systems. It also plays an important role in
integration of production steps and elements of the manufacturing system.
For a fast reaction and efficient process development information availability is strongly
needed (Gronau, 1993). This need is now satisfied by manufacturing information systems
like production planning and systems (PPC), enterprise resource planning systems (ERP),
manufacturing execution systems (MES), etc. Whereas in mass production information
flows were performed by people, in form of control or quality cards or just by talking to the
production engineer or inspector. When a craftsman produces a good, the whole needed
information is passed and acquired by him, he is the single information source and sink
concerning the manufacturing process from the design, though with some input of the
customer, through the production steps until sales and customer relationship management.
Information and service need in manufacturing
The use of information systems turned out to have a significant impact on production
processes (Chandler, 2000, Gurbaxani, 1991). Not only information could be processed
faster and more precise, it also allowed producers to make variations of their goods without
big financial effort. While customers can now be served in a more individual way, the need
for communication and acquisition of new and care of old clients suddenly appeared. Big
companies discovered public relation as an important vehicle to acquire customers, social
events, sponsoring and advertisement aimed to find and keep clients. The change to a
“pull”, customer-driven, market was fulfilled. Manufacturers are now able to satisfy
individual wishes to a big extent and customers are ready and able to pay a remarkable
price for it. Information about products and companies and especially customers and their
requirements became not only necessary but more and more precious.
An extra industrial division appeared: the service industry. This is a branch which only
deals with information management in any possible kind of form, is now gaining a
significant share of gross domestic product in industrialized countries under the name of the
third industrial sector (Pitt et al. 1995). Information availability especially in the context of
a global market is a significant advantage since not only the amount of products and
customers is growing but also the number of competitors. That is why market changes have
to be spotted fast and be immediately converted into real products or product variations
desired by the customer.
Not only customer acquisition and support became remarkable manufacturing processes,
market observation and benchmarking are beside accounting, controlling and compliance of
a rising importance for a manufacturing enterprise. Additional information that has nothing
to do with the actual manufacturing process, became now one of the major and challenging
management tasks.
Flexibility and the need for information
Flexibility often means variety of choices and types. To support all of them in
manufacturing a rising amount of information is needed to be processed and analyzed
204
Olga Levina, Hermann Krallmann
within the system. As outlined above, the emergence of computers and availability of
customized software for relatively low prices favored the development of information
carriers and the rising role of the information for manufacturing systems a lot (Cecelja,
2004).
First of all information technology is meant to enable transfer and availability of
information. Without information no control of the production process is possible. The
craftsman was able to allocate and process necessary information to complete his product
on his own or with help of some of his apprentices. Mass production processes on the other
hand were pre-planned in high detail, hence no significant information flow occurred
during the processes.
Today’s manufacturing systems have a very wide spread supply chain, go global and
often perform only one of the major manufacturing steps within the company itself. Since
all the actors involved in a product are spread and the products parts are to arrive to a
certain place in a certain time to complete the product, a high level of control is needed.
That is where information systems are claimed to play their major role today. Without
communication no information can be provided and therefore no irregularity in the process
can be detected.
One of the basic information needs in manufacturing, is to know when one of the
production stages ended and therefore when an other one can start (Onyemelukwe, 2004).
In distributed systems the value of this information can rise, especially concerning wide
spread manufacturing locations.
A spatial spreading of the manufacturing process can make it more flexible and more
efficient. But this distributed system also needs more information and communication than
a centralized one. The dimension of time in this context becomes more important and
essential especially concerning reaction possibilities on any kind of process irregularity.
The ability of being “everywhere” in the process is essential in manufacturing to understand
and control single procedures and orchestrate them. The enhancement of communication
and information technology allowed this development on the one hand, on the other hand
information management, availability and reliability as well as consistency of information
systems became some of the biggest issues for manufacturing organizations. Standards, one
of the achievements and results of mass production, are now to be implemented in the area
of information systems and software applications, an important factor for an efficient and
reliable communication. A relatively high degree of competitiveness in the software market
is still the main constrain on the way to homogeneous applications.
On the way to “swarm manufacturing”
To combine different components of different manufacturers, to achieve biggest possible
flexibility to satisfy customer demands and to supply the ready product as fast and as soon
as possible to the market, producers have to come up with new manufacturing paradigms. A
very high level of communication and therefore of information spreading is the key to a
flexible and effective process. That is why today the idea of smart objects captures the
attention of researchers and practitioners. The need of information already led to more
detailed level of information carriers.
Development of Information Systems in Manufacturing
205
The first step was to mark pallets and boxes containing product components or ready-tomarket products with labels. The information concentration rose when bar code etiquettes
were used. These etiquettes can be processed automatically and fast. In addition they can be
produced and applied with minimal costs. With the upcoming of 2- and 3D bar code it is
possible to store even more information which can be processed in the same short time
span. Now that sets of products can be traced and their location detected question about
tracing even smaller parts, like single elements of a complex product arise.
A possible answer was given by the RFID technology (Poirer, 2006, Schuster, 2007). Not
only the tags can be applied on single parts, they can be read and rewritten in an automated
way. The amount of information in manufacturing system rose immediately. Suddenly
every system element is endowed and confronted with a significant amount of information
which has to be first of all found, classified, managed and processed.
Dependence on information systems, applications and their management also rises with
this development. Questions concerning information access, storage and availability are
important not only on a technical level but they also swashed to a social and ethical
discussion. Claims for more effectiveness and profitability suddenly made issues of
definition of information, its belonging and rights and duties of its holders focus of new
discussions. Ethical and legal debates led in the press and in research show that we still are
not able to give satisfying answers to them on ethical and philosophical level.
But a customer- driven market is not willing to wait for the answers. That is why new
research in the direction of distributed systems and ad-hoc networks in manufacturing
appears (Raof, 1995, Anderson, 1996). New manufacturing paradigms deal with intelligent
parts which can give and receive information about their state and process it. Selforganization is also a huge research field not only for system theorists but also for
organization paradigms of manufacturing systems. But self-organization implies new
paradigms of control and management of processes and information. Their development
and realization is meant to reduce current information overload in manufacturing processes.
Information need grows and determines time to market and competitiveness and therefore
economical success of the company.
This development strongly supports the position of information or more specific,
information systems as a production factor (Wu, 1994) and makes it the strongest element
in the factory.
Conclusion
Current research in manufacturing aims towards distributed, self-organizational and
possibly self-controlling manufacturing systems (Montgomery, 1996). This development
makes the emphasis on information technology and information processing essential.
Manufacturing technology, new machines or manufacturing processes are not the main
focus for producing enterprises anymore. While information and communication
technology still needs some adjustment in the areas of e.g. availability, reliability, etc. and a
higher conformance, the gap between original mass production now performed in newly
industrializing countries and the flexible individualized mass manufacturing is widening.
This might also lead to global economic shift of powers towards the newly industrialized
206
Olga Levina, Hermann Krallmann
economies. An amicable cooperation between this two branches should therefore be the
guiding policy in economic relations between these two poles to avoid possible social
discrepancies.
References
Anderson, D.M. (1996): Agile Product Development for Mass Customization: How to Develop and Deliver
Products for Mass Customization, Niche Markets, JIT, Build-To-Order and Flexible Manufacturing,
Irwin Professional, 1996.
Adams, C. (1984): Under Control: Life in a Nineteenth-Century Silk Factory (Women in History),
Cambridge University Press, 1984.
Batchelor, R. (1995): Henry Ford: Mass Production, Modernism and Design (Studies in Design and
Material Culture), Manchester Univ Press, 1995.
Biggs, L. (2003): The Rational Factory: Architecture, Technology and Work in America's Age of Mass
Production (Studies in Industry and Society), Johns Hopkins Univ Press, 2003.
Cecelja, F. (2003): Manufacturing Information and Data systems: Analysis, Design and Practice
(manufacturing Engineering Series); M Penton Press, London, 2002.
Chandler, A.D. (2000): A Nation Transformed by Information: How Information Has Shaped the United
States from Colonial Times to the Present, Oxford University Press, 2000.
Chandler, A.D. (2004): Scale and Scope: The Dynamics of Industrial Capitalism, Belknap Press, 2004.
Cortada, J.W. (2003): The Digital Hand: How Computers Changed the Work of American Manufacturing,
Transportation, and Retail Industries, Oxford University Press, 2003.
Gronau, N. (1993): Computer-supported workplace for the production manager – a tool for preparing
strategic decisions, Computer Integrated Manufacturing Systems, Vol. 6, Nr 3, August 1993.
Groover, M.P. (2001): Fundamentals of Modern Manufacturing: Materials, Processes, and Systems, 2nd
Ed., Wiley, 2001.
Gurbaxani, V., Whang, S. (1991): The impact of information systems on organizations and markets,
Communications of the ACM, Volume 34 , Issue 1, January 1991, pp: 59–73.
Harrington, J. (1979): Computer Integrated Manufacturing, Krieger Pub, 1979.
Hitomi, K. (1996): Manufacturing Systems Engineering: A Unified Approach to Manufacturing
Technology, Production Management, and Industrial Economics; Taylor & Francis, 1996.
Kotha, S. (1996): From mass production to mass customization: the case of the national bicycle company of
Japan, European Management Journal, vol.14, n. 5, 1996, pp.442–450.
Marx, K. (1867): Band I: Der Produktionsprocess des Kapitals, Verlag von Otto Meissner, Hamburg 1867
(in German).
Montgomery, J. C., Levine, O. (1996): The Transition to Agile Manufacturing: Staying Flexible for
Competitive Advantage, Irwin Professional Publishing, 1996.
Olsen, B., Cabadas, J. (2002): American Auto Factory (Automotive History and Personalities), Motorbooks,
2002.
Development of Information Systems in Manufacturing
207
Onyemelukwe, C. C. (2004): Science of economic development and growth: The Theory of factor
proportions; B&T, 2004.
Parsons, T. (1967): Sociological Theory and Modern Society, New York, 1967.
Piller, F. (2004): Mass customization: Reflections on the state of the concept. International journal of
flexible manufacturing systems, Vol.16, nr 4, 2004, pp. 313–334.
Joseph, B., Pine, I. (1993): Mass Customization: The New Frontier in Business Competition, Boston,
Harvard Business School Press, 1993.
Pitt, L.F., Watson, R.T., Kavan, C. B. (1995): Service Quality: A Measure of Information Systems
Effectiveness, MIS Quarterly, Vol. 19, No. 2 (Jun., 1995), pp. 173–187.
Poirier, C.C., McCollum, D. (2006): RFID Strategic Implementation and ROI: A Practical Roadmap to
Success, Ross Publishing, 2006.
Ránky, P.G. (1986): Computer Integrated Manufacturing; Prentice Hall International, 1986.
Raouf, A., Ben-Daya, M. (1995): Flexible Manufacturing Systems: Recent Developments (Manufacturing
Research and Technology), Elsevier Science, 1995.
Schuster, E.W., Allen, S.J., Brock, D.L. (2007): Global RFID: The Value of the EPCglobal Network for
Supply Chain Management, Springer; 1st Ed., 2007.
Taylor, F. (2003): The Principles of Scientific Management, 1911, Routledge, 2003.
Womack, J.P., Jones, D.T., Roos, D. (1991): The Machine That Changed the World: The Story of Lean
Production, Harper Perennial, Reprint edition, 1991.
Wu, B. (1994): Manufacturing Systems Design and Analysis, Springer, 1st Ed., 1994.
Ein empirischer Zugang zum Kompetenzmanagement für die
ERP-gestützte Auftragsabwicklung in der Logistik
Markus Mathieu, Klaus Breuer
1
Ausgangslage und Zielsetzung
Während sowohl in der wissenschaftlichen Diskussion als auch in der betrieblichen Praxis
Probleme bei der Einführung von ERP-Systemen umfassend diskutiert werden, gibt es
vergleichsweise wenige Ansätze, die sich mit der Effizienz der Nutzung von ERPSystemen nach der Implementierung befassen (Dery, Hall & Wailes, 2006, S. 230). Mohr
(2009, S. 1) stellt in diesem Zusammenhang fest, dass die Anwender oftmals nicht in der
Lage sind, mit der Software zufriedenstellend zu arbeiten. Mitarbeiter sehen keinen persönlichen Mehrwert in der Anwendung des Systems und nutzen nur diejenigen Softwarekomponenten, mit denen sie umgehen können (vgl. Hötzel, 2005, S. 12). Aus diesem Grund
werden in der Praxis hohe Beträge für Qualifizierungsmaßnahmen ausgegeben. Solche
Maßnahmen gelten unstrittig als kritischer Erfolgsfaktor für die effektive und effiziente
Nutzung von ERP-Systemen (Umble, Haft & Umble, 2003, S. 246). Obgleich die Relevanz
von ERP-Weiterbildungsmaßnahmen in der Literatur ausführlich dokumentiert ist, lassen
sich für ihre Gestaltung nur unzureichend Empfehlungen aussprechen, da bisher wenige
Erfahrungen für dieses Teilgebiet betrieblicher Weiterbildung dokumentiert sind (Mohr,
2009, S. 4).
Das Forschungs- und Entwicklungsprojekt „Kompetenzmanagement in der Logistik:
Analyse, Entwicklung und Evaluation“ setzt sich die Ausgestaltung eines evidenzbasierten
Kompetenzmanagement-Ansatzes für das ERP-gestützte Aufgabenfeld der dispositiven
Auftragsabwicklung zum Ziel. Das betrachtete Aufgabenfeld beschreibt die Planung, Steuerung und Kontrolle der Prozesse zur Leistungserstellung und umfasst neben der Auftragsbearbeitung die Produktionsplanung und -steuerung sowie die Beschaffung (Straube, 2004,
S. 155). Die Umsetzung des Vorhabens erfolgt in Kooperation mit einem weltweit agierenden Zulieferer der Automobilindustrie. Die Orientierung auf ein einzelnes Unternehmen ist
dadurch begründet, dass Kompetenzmanagement unternehmensspezifisch auszurichten ist
(Nienaber, 2007, S. 45).
Die Aufarbeitung der einschlägigen Literatur zum Thema Kompetenzmanagement zeigt,
dass der Fokus bisheriger Konzepte hauptsächlich auf zwei unterschiedlichen Forschungsfeldern liegt (Lamberty, 2002, S. 369). Zum einen wird Kompetenzmanagement aus der
Perspektive der Kognitionswissenschaft, insbesondere der Psychologie und Soziologie,
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_16,
© Springer Fachmedien Wiesbaden 2013
210
Markus Mathieu, Klaus Breuer
betrachtet. Hier stehen vor allem die individuellen Kompetenzen im Vordergrund. Zum
anderen wird Kompetenzmanagement als Disziplin der Organisationswissenschaften, insbesondere der Organisationsentwicklung, strategischen Unternehmensführung und Betriebswirtschaftslehre, verstanden. Dieser Ansatz betrachtet vor allem den strategischen
Aufbau und die Aggregation der Kompetenzen sowie deren Verteilung und Prozessausrichtung (North & Reinhardt, 2005, S. 17-18). North und Reinhardt (2005) berücksichtigen in
einem praxisorientierten Ansatz sowohl die mitarbeiterbezogene als auch die unternehmensbezogene Sicht (Schröder, 2007, S. 53). Sie definieren Kompetenzmanagement als ein
Kernelement wissensorientierter Unternehmensführung, das die Aufgabe hat, „Kompetenzen zu beschreiben, transparent zu machen sowie den Transfer, die Nutzung und Entwicklung der Kompetenzen, orientiert an den persönlichen Zielen des Mitarbeiters sowie den
Zielen der Unternehmung, sicherzustellen“ (North & Reinhardt, 2005, S. 16). In Anlehnung
an dieses Verständnis werden in diesem Projekt die folgenden drei Bestandteile von Kompetenzmanagement aufgegriffen:
• Konzeption arbeitsplatzbezogener Anforderungsprofile
• Operationalisierung arbeitsplatzspezifischer Kompetenzen
• Zielgerichtete betriebliche Weiterbildung
Die drei Facetten evidenzbasierten Kompetenzmanagements werden im Folgenden dargestellt.
2
Bestandteile evidenzbasierten Kompetenzmanagements
2.1 Konzeption arbeitsplatzbezogener Anforderungsprofile
Die Konzeption arbeitsplatzbezogener Anforderungsprofile erfordert eine detaillierte Analyse des betrachteten Handlungsfelds. Dafür wurden im Rahmen des Vorhabens zunächst
auf der Makroebene funktionale Rollen der intraorganisationalen Supply Chain definiert,
um dadurch die Aufgabenfelder der Domäne strukturieren zu können. Funktionale Rollen
bündeln nach Jahnke (2006, S. 65ff.) ähnliche Tätigkeiten in einem Unternehmen und können per Vertrag oder formalem Auftrag erworben werden. Die Rollen wurden in Kooperation mit vier Fachexperten des Projektpartners definiert und den Prozessen der intraorganisationalen Supply Chain zugeordnet (vgl. Abbildung 1). Als Referenzmodell dient das
Supply Chain Operations Reference- Modell (SCOR-Modell), welches Prozesse systematisch und branchenübergreifend beschreibt. Es unterscheidet in die fünf Basisprozesse der
Planung (Plan), Beschaffung (Source), Herstellung (Make), Lieferung (Deliver) und Rücklieferung (Return) (Bolstorff, Rosenbaum & Poluha, 2007, S. 134).
Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung
211
Plan
Supply
Chain Design
Employee
Source
Packaging
Engineer
Make
Material
Planner
Ramp-up/
Phase out
Logistics
Logistics
Controller
Deliver
Customer
Logistics
Employee
Production
Scheduler
Material
Handler
Receiving
Packaging
& Dispatch
Employee
Warehouse
Employee
Shipping
& Distribution
Employee
Packaging
Handling
Employee
Customs &
Foreign Trade
Employee
Return
Abbildung 1:
Return
Rollen innerhalb der Supply Chain
Wir konzentrieren uns im Projekt auf die dispositive Auftragsabwicklung und damit auf
die Prozesse der Auftragsbearbeitung, Produktionsplanung und -steuerung sowie Beschaffung. Der Prozess der Auftragsbearbeitung beginnt mit dem Eingang des Kundenauftrags
und umfasst die Überprüfung und Anpassung der Auftragsdaten (Straube, 2004, S. 155157). Die Auftragsbearbeitung ist dem Basisprozess Deliver zuzuordnen und kann der Rolle des Kundenlogistikers (Customer Logistics Employee) zugeteilt werden. Diese Rolle ist
nach Definition der Fachexperten dafür verantwortlich, die eingehenden Bestellungen der
Kunden auf Plausibilität zu überprüfen und den Informations- und Materialfluss zum Kunden zu gewährleisten. Dabei sind die Kundenwünsche unter Beachtung von kostenoptimiertem Ressourceneinsatz umzusetzen. Der zweite zu betrachtende Prozess der Produktionsplanung und -steuerung besteht darin, die zu produzierenden Mengen im Planungszeitraum
unter Berücksichtigung der verfügbaren Kapazität festzulegen und die dafür benötigten
Mengen an Vor- und Zwischenprodukten zu bestimmen (Kurbel, 2005, S. 7). Dieser Prozess wird der Rolle des Produktionsplaners (Production Scheduler) zugeordnet, welche
nach dem Verständnis der Experten die Planung, Sicherstellung und Kontrolle einer effektiven und effizienten Produktion unter Berücksichtigung der mit den Kunden vereinbarten
212
Markus Mathieu, Klaus Breuer
Lieferzeitpunkte umfasst. Die Beschaffung der für die Produktion notwendigen Roh-, Hilfsund Betriebsstoffe liegt im Aufgabenbereich des Materialplaners (Material Planner), welcher die benötigten Materialien in der richtigen Menge zum richtigen Zeitpunkt und zum
richtigen Ort in gewünschter Qualität unter Berücksichtigung optimaler Bestandsmengen
zu beschaffen hat.
Im Anschluss an die Definition der funktionalen Rollen auf Makroebene folgte die Erstellung arbeitsplatzbezogener Rollenprofile für die Rollen des Kundenlogistikers, des Produktionsplaners und des Materialplaners. Dazu wurde eine tätigkeitsspezifische Arbeitsprozessanalyse durchgeführt, die sich an der von Knutzen und Hägele (2002, S. 116) entwickelten Arbeitsprozessmatrix orientiert. Im Gegensatz zur bestehenden Methodik wird der
Arbeitsprozess ereignisgesteuert abgebildet, so dass alternative Abläufe und Rückschleifen
erkennbar sind. Die Analyse der spezifischen Prozesse erfolgte durch leitfadengestützte
Experteninterviews mit vier Fachexperten und zwei leitenden Angestellten an zwei verschiedenen Produktionsstandorten des Automobilzulieferers. Zu Beginn des Interviews
wurden zunächst die Prozessschritte der dispositiven Auftragsabwicklung erfragt und anschließend die damit verbundenen Tätigkeiten je Teilschritt dokumentiert.
I. Basis-Informationen
Name der Rolle
Funktionsbereich
Automotive Process Map
Geschäftsprozess
II. Position
Zweck (Hauptaufgabe)
Bezugsgröße (messbare Indikatoren der Rolle)
Interne/Externe Kontakte
III. Verantwortungsbereiche/Aufgaben
Detaillierte Beschreibung der Tätigkeiten
IV. Erforderliches Wissen
Prozessspezifisches Wissen
Technisches Wissen
Software-Kenntnisse
Fremdsprachenkenntnisse
Abbildung 2:
Arbeitsplatzbezogenes Anforderungsprofil
In einem weiteren Schritt erfolgte die Spezifikation der Tätigkeiten, indem die relevanten
Funktionalitäten des zu nutzenden ERP-Systems, Kommunikationsschnittstellen sowie
notwendige Voraussetzungen zur Durchführung der Tätigkeit erfasst wurden. Auf Grundlage der Ergebnisse der tätigkeitsspezifischen Arbeitsprozessanalyse wurden arbeitsplatzbe-
Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung
213
zogene Anforderungsprofile für die am Planungsprozess beteiligten Rollen erstellt. Abbildung 2 stellt die systematische Struktur der Anforderungsprofile dar.
2.2 Operationalisierung arbeitsplatzspezifischer Kompetenzen
Kompetenzen bezeichnen innere Leistungs- und Lernvoraussetzungen einer Person, die
sich der direkten Beobachtung und Überprüfung entziehen (Erpenbeck & Rosenstiel, 2007,
S. XVIII). Sie stellen ein hypothetisches Konstrukt dar, welches nur indirekt über Indikatoren abgebildet und somit messbar gemacht werden kann (Korossy, 1996, S. 285). Nach
Erpenbeck und Rosenstiel (2007, S. XXVII) bestehen zwei kontroverse Positionen, zwischen denen sich die Ansätze zur Erfassung von Kompetenzen bewegen. Auf der einen
Seite wird methodologisch nach objektiven Messzugängen gesucht, die eine Kompetenzbeobachtung von außen realisieren und von subjektiven Urteilen unabhängig sind (Marcus &
Schuler, 2006, S. 442). Dazu muss die Performanz, als Indikator der beruflichen Handlungskompetenz, anhand von objektiven Maßstäben erfasst und daraus auf die Kompetenzausprägung geschlossen werden (Muellerbuchhof, 2007, S. 50). Unter Performanz werden
alle Prozesse oder Resultate von Prozessen subsumiert, die als Realisation von Kompetenz
gelten können. Der Zusammenhang zwischen Kompetenz und Performanz besteht darin,
dass Kompetenz das Insgesamt aller Verhaltensmöglichkeiten und das dazu notwendige
Wissen umfasst, die Performanz dagegen nur bestimmte situations- bzw. anforderungsbezogene Ausschnitte aus der Gesamtkompetenz realisiert (Fischer & Mandl, 1983, S. 266267). Auf der anderen Seite steht die Überzeugung, dass eine objektive Erfassung von
Kompetenzen prinzipiell nicht möglich ist. Demzufolge wird nach Messzugängen gesucht,
in dessen Rahmen Performanz als Realisation von Kompetenz subjektiv durch Selbst- oder
Fremdbeurteilung erfasst wird (Erpenbeck & Rosenstiel, 2007, S. XXVII). Bei der Selbstbeurteilung ist der Proband aufgefordert, die Qualitäten seines eigenen Handelns zu beurteilen. Es wird die Ansicht vertreten, dass die betreffende Person selbst am besten Auskunft
über ihre Befähigungen geben kann (Kanning, 2004, S. 95). Neben der Selbstbeurteilung
lässt sich Kompetenz über die unstrukturierte oder auch strukturierte Fremdbeurteilung
operationalisieren. Dafür kommen Beurteilungen durch Vorgesetzte, Kollegen, unterstellte
Mitarbeiter oder unternehmensexterne Beurteiler (bspw. Kunden) in Betracht (Marcus &
Schuler, 2006, S. 443-444).
Im Rahmen des Projekts wird die tätigkeitsspezifische Performanz1 (Task Performance)
anhand objektiver Leistungskriterien abgebildet. Auf eine subjektive Einschätzung wird
verzichtet, um Fehler wie das Phänomen des sozial erwünschten Antwortverhaltens, Zustimmungstendenzen oder Verzerrungen der eigenen Wahrnehmung auszuschließen. Tätigkeitsspezifische Performanz wird in Anlehnung an Trapmann (2008, S. 74) als die Bewältigung von Tätigkeiten verstanden, die „zum formalen Gegenstand der Arbeit gehören, direkt
ergebnisbezogen sind und jobspezifisch formuliert werden können“. In der weiteren Arbeit
wird davon ausgegangen, dass ein multidimensionales Erklärungsmodell tätigkeitsspezifischer Performanz vorliegt, welches neben spezifischem Arbeitsprozesswissen kognitive,
metakognitive, motivationale und volitionale Komponenten umfasst. Das Arbeitsprozesswissen schließt diejenigen Kenntnisse und Fähigkeiten ein, die in einem vollständigen Ar1
Der Begriff der aufgabenbezogenen Leistung kann synonym verwendet werden.
214
Markus Mathieu, Klaus Breuer
beitsprozess unmittelbare Verwendung finden (Diehl, 2000, S. 175). Ebenso wie die abhängige Variable der tätigkeitsspezifischen Performanz wird das Arbeitsprozesswissen
anhand objektiver Leistungskriterien erfasst. Für die Operationalisierung beider Konstrukte
wurden in einem zweitägigen Expertenworkshop wissens- und handlungsorientierte Aufgaben für die Auftragsbearbeitung formuliert und der Aufgabensatz anschließend von einem
unabhängigen Experten des Softwareanbieters validiert, dessen Produkt im Unternehmen
implementiert ist.2 Der Experte hat Erfahrungen in der Einführung des ERP-Systems im
Feld der Logistik, der zugehörigen Schulung von Mitarbeitern und der Entwicklung von
Testitems für das Zertifizierungsverfahren des Herstellers. Er verfügt damit über eine nahezu ideale Kompetenz für die Begutachtung der entwickelten Rohaufgaben. Insgesamt konnten über diesen Weg 28 wissensorientierte und 9 handlungsorientierte Aufgaben validiert
werden.
Kognitive, metakognitive, motivationale und volitionale Dimensionen bilden das Konstrukt der Selbstregulation (Breuer & Brahm, 2004, S. 364). Da einzelne Facetten der
Selbstregulation per Definition nur subjektiv abgebildet werden können, wird das gesamte
Konstrukt über Selbsteinschätzungen erhoben. Mit Hilfe modifizierter Items des State-PostThinking Questionnaire (SPTQ) nach O’Neil und Brown (1997) wird die Dimension kognitiver Strategien erhoben. Die Faktoren Planen und Selbstkontrolle bilden zusammen das
Konstrukt der Metakognition ab und werden durch Anpassung der entsprechenden Items
des Trait-Self-Regulation Questionnaire (TSRQ) operationalisiert. Anstrengungsbereitschaft und Selbstwirksamkeit erfassen das Konstrukt der Motivation. Während die Dimension der Anstrengungsbereitschaft durch modifizierte Items des TSRQ erfasst wird, erfolgt
die Operationalisierung der Selbstwirksamkeit tätigkeits- und computerspezifisch. Beide
Faktoren werden durch überarbeitete Items des Task-Specific/Computer-Specific Questionnaire (TSE/CSE) nach Guinea und Webster (2011) erhoben. Die volitionalen Aspekte der
Selbstregulation stehen in einem engen Zusammenhang mit der Dimension der Anstrengungsbereitschaft. Da die Anstrengungsbereitschaft dazu beiträgt, die Motivation aufrecht
zu erhalten, um die Lösung einer gestellten Aufgabe zu gewährleisten, wird die Dimension
der Volition nicht einzeln erfasst (Breuer & Brahm, 2004, S. 365).
Im Rahmen eines Pretests wurde die Eignung der einzelnen Items überprüft.3 Dazu wurde
die Itemschwierigkeit und die Itemtrennschärfe berechnet sowie eine Distraktorenanalyse
durchgeführt. Die Ergebnisse werden im Folgenden dargestellt.
Itemschwierigkeit
Als Maß für die Itemschwierigkeit wird der Schwierigkeitsindex verwendet, dessen Wertebereich zwischen 0 und 1 liegt. Der gängige Richtwert für die Itemschwierigkeit liegt im
2
Die Bereiche der Produktionsplanung und -steuerung sowie der Beschaffung werden für die
Operationalisierung des theoretischen Konstrukts ausgeklammert.
3
Die Durchführung des Pretests erfolgte über eine Online-Befragung an 42 Produktionsstandorten des
Automobilzulieferers. Die Rücklaufquote betrug ca. 31%. Für die Interpretation der folgenden Auswertungen ist zu berücksichtigen, dass die Rücklaufquote der vom Unternehmen benannten Experten mit ca.
83% deutlich höher liegt als die Quote der restlichen Probanden (ca. 24%).
Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung
215
Bereich von 0,2 bis 0,8 (Bortz & Döring, 2006, S. 219). Innerhalb dieses Bereichs liegen
2/3 der wissensorientierten und rund 4/5 der handlungsorientierten Items. Unterhalb des
Grenzwertes von 0,2 liegen acht Items mit dichotomem Antwortformat, während drei Aufgaben als zu leicht zu interpretieren sind. Die durchschnittliche Itemschwierigkeit über alle
Items mit dichotomem Antwortformat beträgt 0,40. Für die Items des Arbeitsprozesswissens beträgt die durchschnittliche Schwierigkeit 0,44, während die Items zur Abbildung
aufgabenbezogener Leistung mit einem Schwierigkeitsindex von 0,28 im Vergleich schwieriger sind. Die Items zur Operationalisierung selbstregulierten Handelns liegen alle über
dem Grenzwert von 0,2, allerdings sind fünf der insgesamt 38 Items als zu leicht zu interpretieren. Die durchschnittliche Itemschwierigkeit aller Items mit mehrstufigem Antwortformat beträgt 0,73. Die stärkste Zustimmung ist für die Items der Anstrengungsbereitschaft festzustellen, hier liegt die Itemschwierigkeit im Durchschnitt bei 0,79. Dagegen fällt
die Zustimmung der Items zur Abbildung der computerspezifischen Selbstwirksamkeit mit
einem Wert von 0,64 am niedrigsten aus.
Itemtrennschärfe
Die Trennschärfe der Aufgaben gibt an, in welchem Ausmaß ein einzelnes Item zwischen
Personen mit niedriger und hoher Merkmalsausprägung trennt (vgl. Fisseni, 2004, S. 36;
Wellenreuther, 2000, S. 285). Zur Berechnung wurde der Trennschärfekoeffizient verwendet, welcher den Zusammenhang einzelner Itemwerte mit dem Testwert über alle Probanden hinweg bestimmt. Der Trennschärfekoeffizient kann einen Wertebereich von -1 bis +1
annehmen (Schmidt-Atzert & Amelang, 2012, S. 119). Liegt der Wert nahe bei 1, werden
dichotome Items von Probanden mit hohem Testwert gelöst bzw. von Probanden mit insgesamt niedrigem Testwert nicht gelöst. Mehrstufige Items werden bei einem Wert nahe 1
von Probanden mit einem hohen Testwert symptomatisch beantwortet bzw. von Probanden
mit einem niedrigen Testwert nicht symptomatisch beantwortet. Ist die Trennschärfe eines
Items nahe bei 0, kann das Item nicht zwischen Probanden mit hoher Merkmalsausprägung
und Probanden mit niedriger Merkmalsausprägung differenzieren. Die in der Literatur
gängige Mindestausprägung des Trennschärfekoeffizienten beträgt 0,3. Items mit einer
kleineren Trennschärfe sind zu modifizieren oder ganz aus dem Test zu entfernen (Bortz &
Döring, 2006, S. 220). Die durchschnittliche Trennschärfe der wissensorientierten Items
beträgt 0,446. Dagegen liegt der durchschnittliche Trennschärfekoeffizient der handlungsorientierten Items nur bei 0,23. Insgesamt erweisen sich elf dichotome Items aufgrund einer
zu geringen Trennschärfe als kritisch und müssen vor Konzeption der Testendform überarbeitet werden. Die Items der Selbstregulation erreichen alle das Minimalerfordernis eines
Trennschärfekoeffizienten von 0,3. Die Trennschärfe der Items zur Operationalisierung
kognitiver Prozesse liegt in einem Wertebereich von 0,372 bis 0,655. Für die Dimension
Planen liegt der Bereich zwischen 0,405 und 0,713, für die Dimension Selbstkontrolle zwischen 0,402 und 0,701, für die Dimension Anstrengungsbereitschaft zwischen 0,521 und
0,787 sowie für die Dimensionen der tätigkeitsspezifischen und computerspezifischen
Selbstwirksamkeit zwischen 0,559 und 0,807 bzw. 0,687 und 0,847.
216
Markus Mathieu, Klaus Breuer
Distraktorenanalyse
Neben der Itemschwierigkeit und Trennschärfe wurden zudem die Antwortalternativen der
Mehrfachwahlaufgaben analysiert. Dazu ist zum einen die Trennschärfe aller Antwortalternativen zu analysieren und zum anderen die Häufigkeitsverteilung der Falschantworten zu
ermitteln (Schmidt-Atzert & Amelang, 2012, S. 124). Für die Berechnung des Trennschärfekoeffizienten ist zunächst für jede Antwortmöglichkeit eine Indikatorvariable zu bilden.
Diese wird mit dem Wert 1 kodiert, sofern der Proband die Antwortalternative gewählt hat.
Sofern die Antwortmöglichkeit nicht gewählt wird, ist die Indikatorvariable mit dem Wert
0 zu kodieren (Möltner, Schellberg & Jünger, 2006, S. 7). Die punktbiseriale Korrelation
der Indikatorvariablen mit dem Gesamttestwert ergibt dann den Trennschärfekoeffizienten
einer Antwortalternative, welcher für alle richtigen und falschen Antwortalternativen zu
berechnen ist (vgl. Glug, 2009, S. 173; Schmidt-Atzert & Amelang, 2012, S. 124). Der
Trennschärfekoeffizient der richtigen Antwortalternativen muss nach Glug (2009, S. 173)
einen positiven Wert annehmen, die Wahl der richtigen Antwortalternative also durch die
im Durchschnitt fähigsten Testpersonen erfolgen. Dagegen sollten die Distraktoren nach
Lienert und Raatz (1994, S. 125) natürlich negative oder null-nahe Trennschärfekoeffizienten aufweisen, also von Probanden mit einem niedrigen Testergebnis häufiger gewählt
werden als von Probanden mit einem hohen Gesamttestwert. Die richtigen Antwortalternativen der wissens- und handlungsorientierten Aufgaben weisen alle eine positive Trennschärfe auf und müssen folglich nicht überarbeitet müssen. Gleiches gilt für alle Falschantworten mit negativem Trennschärfekoeffizienten. Dieses Kriterium wird von 113 der insgesamt 127 Distraktoren erfüllt. Neben der Berechnung der Trennschärfe aller Antwortalternativen wurde die Häufigkeitsverteilung der Distraktoren analysiert. Im Idealfall sollten die
Distraktoren denselben Schwierigkeitsgrad aufweisen, also gleich häufig gewählt werden
(Glug, 2009, S. 173). Die Gleichverteilung lässt sich durch ein von Michelsen und Müller
(1988, S. 121ff.) entwickeltes Verfahren überprüfen. Dazu sind vier kritische Grenzen zu
ermitteln, mit deren Hilfe die Beurteilung der Distraktorenhäufigkeit einzelner Falschantworten möglich wird (Lienert & Raatz, 1994, S. 125). Es zeigt sich, dass 48 Distraktoren
die Voraussetzung der Gleichverteilung erfüllen. 14 Falschantworten sind möglicherweise
gleichverteilt, wobei für 11 Distraktoren eine Unterbesetzung und für 3 Distraktoren eine
Überbesetzung nicht ausgeschlossen werden kann. Für insgesamt 28 Falschantworten ist
eine Gleichverteilung auszuschließen. Diese sind vor Durchführung der Hauptuntersuchung
zu überarbeiten oder zu entfernen. Möglicherweise gleichverteilte Distraktoren werden
dagegen nur dann einer Revision unterzogen, wenn die Itemtrennschärfe der entsprechenden Aufgabe unbefriedigend ist. Liegt eine gute oder zumindest befriedigende Itemtrennschärfe vor, können die Distraktoren trotz kleinerer Mängel beibehalten werden (Lienert & Raatz, 1994, S. 104).
Basierend auf den Ergebnissen der Item- und Distraktorenanalyse wurden die Aufgaben
des Messinstruments im Rahmen eines weiteren Expertenworkshops überarbeitet. Danach
kann das Vorliegen eines testtheoretisch hinreichend abgesicherten Instrumentes für die
Diagnostik der tätigkeitsspezifischen Kompetenzen unterstellt werden. Die Endversion des
Tests konnte in der nachfolgenden Hauptuntersuchung eingesetzt werden. Die neu gewonnenen Daten werden herangezogen, um die Objektivität, Reliabilität und Validität des
Messinstruments abschließend zu überprüfen.
Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung
217
2.3 Zielgerichtete Weiterbildung in der operativen Logistikplanung
Berufliche (Weiterbildungs-) Curricula enthalten Inhalte und Ziele, die für einen bestimmten Bereich der beruflichen (Weiter-) Bildung als erforderlich erachtet und entsprechend in
Berufsbildungsprozessen vermittelt werden sollen (Clement, 2001, S. 9). Die thematische
Ausgestaltung der Lehrpläne erfolgt auf der Grundlage von Konzeptionierungsprinzipien,
die sich nach Reetz und Seyd (2006, S. 228) in das Wissenschaftsprinzip, Situationsprinzip
und das Persönlichkeitsprinzip einteilen lassen. Nach dem Wissenschaftsprinzip erfolgt die
Auswahl, Anordnung und Sequenzierung der Inhalte durch eine Orientierung an den jeweiligen Fachwissenschaften. Im Gegensatz dazu zielt das Situationsprinzip auf eine Verankerung der Kompetenzentwicklung in authentischen Situationen ab. Es wird beabsichtigt, die
Lernenden mit realen bzw. realitätsnahen Herausforderungen zu konfrontieren (Gebbe &
Kremer, 2008, o. S.). Ein nach dem Persönlichkeitsprinzip konzipierter Lehrplan reguliert
die curriculare Struktur im Hinblick auf die Bedürfnisse und Entwicklungsmöglichkeiten
der Lernenden (Reetz & Seyd, 2006, S. 243). Im Unterschied zum Wissenschafts- und
Situationsprinzip ist das Persönlichkeitsprinzip nicht ausschlaggebend für die explizite
Auswahl und Begründung der Inhalte und Ziele (Rauner, 1999, S. 427-428).
Im Rahmen des Forschungs- und Entwicklungsprojekts erfolgt die Strukturierung des
Lehrplans nach dem Situationsprinzip, um dadurch die Auseinandersetzung mit berufstypischen Situationen zu fördern. Lipsmeier (2000, S. 63-64) unterscheidet dieses Prinzip in die
fünf Varianten Berufsprinzip, Lebensweltprinzip, Handlungsorientierung, Gestaltungsorientierung und Arbeitsprozessorientierung, wobei in der vorliegenden Arbeit das Prinzip der
Arbeitsprozessorientierung Anwendung findet. Demnach wird die Idee verfolgt, den Arbeitsplatz und die dort zu bewältigenden Arbeitsprozesse in Weiterbildungsmaßnahmen zu
integrieren, um so den aktuellen und sich verändernden Qualifikationsanforderungen besser
gerecht zu werden (Dehnbostel, 2002, S. 345). Diesem Ansatz folgend konnten Ziele und
Inhalte rollenspezifischer Lehrpläne für das Handlungsfeld der dispositiven Auftragsabwicklung auf Grundlage der Ergebnisse der in Kapitel 2.1 beschriebenen tätigkeitsspezifischen Arbeitsprozessanalyse erarbeitet werden.
3
Zusammenfassung und Perspektive
Im Rahmen des Vorhabens „Kompetenzmanagement in der Logistik: Analyse, Entwicklung und Evaluation“ wurden in einem ersten Schritt die Handlungsfelder des Kundenlogistikers, des Produktionsplaners und des Materialplaners analysiert. Zu diesem Zweck wurden zunächst die Prozesse der dispositiven Auftragsabwicklung erfasst und die relevanten
Tätigkeiten je Teilprozessschritt dokumentiert. Im Anschluss erfolgte die differenzierte
Beschreibung der einzelnen Tätigkeiten. Damit liegt für das Handlungsfeld der dispositiven
Auftragsabwicklung eine tätigkeitsspezifische Prozessbeschreibung vor, auf deren Grundlage in einem zweiten Schritt rollenbezogene Anforderungsprofile und entsprechende
Weiterbildungs-Curricula entwickelt werden konnten.
Die Ergebnisse der Arbeitsprozessanalyse wurden zudem für die Erarbeitung eines objektiven Testverfahrens herangezogen, welches tätigkeitsspezifisches Leistungsvermögen
(Performanz) und Arbeitsprozesswissen abbildet. Dazu wurden in einem zweitägigen Expertenworkshop wissens- und handlungsorientierte Aufgaben formuliert und der Aufgabensatz anschließend von einem unabhängigen Experten validiert. Die Items des Leistungstests
218
Markus Mathieu, Klaus Breuer
beschränken sich zunächst auf den Kontext der Auftragsbearbeitung, wobei darauf geachtet
wurde, dass keine Aspekte des Handlungsfelds unberücksichtigt bleiben oder bestimmte
Aspekte in den Testaufgaben überrepräsentiert sind. Im Rahmen einer Voruntersuchung
wurde das entwickelte Messinstrument angewendet, der daraus resultierende Datensatz
ermöglicht die Überprüfung der Eignung einzelner Aufgaben. Als Kennwerte der
Itemanalyse dienen der Schwierigkeitsindex und Trennschärfekoeffizient der Aufgaben
sowie die Güte der Distraktoren. Auf Basis der Analyseergebnisse erfolgte die Überarbeitung aller Aufgaben mit unzureichenden Kennwerten, so dass nur geeignete Aufgaben in
die Testendform übernommen werden. Der überarbeitete Fragebogen ist im Rahmen einer
weiteren Befragung eingesetzt worden. Da die Befragung bei einem größeren Personenkreis
durchgeführt worden ist, können ca. 200 bearbeitete Fragebögen zur Analyse herangezogen
werden. Dieser Datensatz wird zu Grunde gelegt, um zunächst die Gütemerkmale des Instruments zu verifizieren. Darüber hinaus werden die Zusammenhänge zwischen der abhängigen Variable des tätigkeitsspezifischen Leistungsvermögens (Performanz) und den
unabhängigen Variablen der Selbstregulation sowie des Arbeitsprozesswissens analysiert.
Auf der Grundlage dieser Ergebnisse können Aussagen zu den individuellen Handlungsund Lernvoraussetzungen der einbezogenen Mitarbeiter getroffen werden. Das bildet die
Grundlage für die Ableitung von Aussagen zum Weiterbildungsbedarf der Mitarbeiter.
Literatur
Bolstorff, P., Rosenbaum, R. & Poluha, R. (2007). Spitzenleistungen im Supply-Chain-Management. Ein
Praxishandbuch zur Optimierung mit SCOR. Berlin: Springer.
Bortz, J. & Döring, N. (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler
(4., überarb. Aufl.). Berlin: Springer.
Breuer, K. & Brahm, T. (2004). Die Abbildung von Befähigungen zur Selbstregulation. In M. Wosnitza, A.
Frey & R. S. Jäger (Hrsg.), Lernprozess, Lernumgebung und Lerndiagnostik. Wissenschaftliche Beiträge
zum Lernen im 21. Jahrhundert (S. 363–374). Landau: VEP.
Clement, U. (2001). Systematische Erkenntnis und praktische Erfahrung als curriculare Prinzipien beruflicher Bildung. Gefunden am 09.05.2012 unter http://kobra.bibliothek.uni-kassel.de/bitstream/
urn:nbn:de:hebis:34-2010021732016/1/ClementHabil.pdf
Dehnbostel, P. (2002). Dezentrales Lernen als vernetztes und reflexives Lernen im Prozess der Arbeit. In
M. Fischer & F. Rauner (Hrsg.), Lernfeld: Arbeitsprozess – Ein Studienbuch zur Kompetenzentwicklung
von Fachkräften in gewerblich-technischen Aufgabenbereichen (S. 341–354). Baden-Baden: Nomos.
Dery, K., Hall, R. & Wailes, N. (2006). ERPs as ‘technologies-in-practice’: social construction, materiality
and the role of organisational factors. New Technology, Work and Employment, 21(3), 229–241.
Diehl, T. (2000). Berufliches Arbeitsprozesswissen der staatlich geprüften Techniker – Ergebnisse einer
empirischen Untersuchung in der Fachrichtung Elektrotechnik. In J.-P. Pahl, F. Rauner & G. Spöttl
(Hrsg.), Berufliches Arbeitsprozesswissen – Ein Forschungsgegenstand der Berufsfeldwissenschaften (S.
175–185). Baden-Baden: Nomos.
Erpenbeck, J. & Rosenstiel, L. (2007). Einführung. In J. Erpenbeck, & L. Rosenstiel (Hrsg.), Handbuch
Kompetenzmessung – Erkennen, verstehen und bewerten von Kompetenzen in der betrieblichen, pädagogischen und psychologischen Praxis (2., überarb. und erw. Aufl., S. XVII–XLVI). Stuttgart: SchäfferPoeschel.
Fischer, P. & Mandl, H. (1983). Förderung von Lernkompetenz und Lernregulation. Zentrale Komponenten
der Steuerung und Regulation von Lernprozessen. In L. Kötter & H. Mandel (Hrsg.), Kognitive Prozesse
Ein empirischer Zugang zum Kompetenzmanagement für die ERP-gestützte Auftragsabwicklung
219
und Unterricht – Jahrbuch für Empirische Erziehungswissenschaft 1983 (S. 263–317). Düsseldorf:
Schwann.
Fisseni, H.-J. (2004). Lehrbuch der psychologischen Diagnostik. Mit Hinweisen zur Intervention (3.,
überarb. und erw. Aufl.). Göttingen: Hogrefe.
Gebbe, M. & Kremer, H. (2008). Kompetenzentwicklung. Gefunden am 11.05.2012 unter http://groups.unipaderborn.de/kool/ iqhessen/printable/handlung/handlungkompetenz/index.html
Glug, I. (2009). Entwicklung und Validierung eines Multiple-Choice-Tests zur Erfassung prozessbezogener
naturwissenschaftlicher Grundbildung. Kiel: IPN.
Guinea, A. & Webster, J. (2011). Are we talking about the task or the computer? An examination of the
associated domains of task-specific and computer self-efficacies. Computers in Human Behaviour, 27(2),
978–987.
Hötzel, B. (2005). Change Management within ERP Projects. Gefunden am 06.01.2012 unter http://
www.competence-site.de/project-management-office-pmo/Change-Management-within-ERP-Projects
Jahnke, I. (2006). Dynamik sozialer Rollen beim Wissensmanagement: soziotechnische Anforderungen an
Communities und Organisationen. Wiesbaden: Dt. Univ.-Verlag.
Kanning, U. (2004). Standards der Personaldiagnostik. Berlin: Beuth Verlag.
Knutzen, S. & Hägele, T. (2002). Arbeitsorientierte Entwicklung schulischer Lernsituationen. lernen &
lehren, 17(67), 115–118.
Korossy, K. (1996). Kompetenz und Performanz beim Lösen von Geometrie-Aufgaben. Zeitschrift für
experimentelle Psychologie, 43(2), 279–318.
Kurbel, K. (2005). Produktionsplanung und -steuerung im Enterprise Resource Planning und Supply Chain
Management (6. Aufl.). München: Oldenbourg.
Lamberty, T. (2002). Personalentwicklung im Rahmen von Kompetenzmanagement – Ein Praxisbeispiel
aus der Siemens AG. In K. Bellmann, J. Freiling, P. Hammann & U. Mildenberger (Hrsg.), Aktionsfelder
des Kompetenzmanagements – Ergebnisse des II. Symposiums Strategisches Kompetenz-Management (S.
365–382). Wiesbaden: Dt. Univ.-Verlag.
Lienert, A. & Raatz, U. (1994). Testaufbau und Testanalyse (5., völlig neubearb. und erw. Aufl.). Weinheim: Beltz.
Lipsmeier, A. (2000). Systematisierungsprinzipien für berufliche Curricula. In A. Lipsmeier & G. Pätzold
(Hrsg.), Lernfeldorientierung in Theorie und Praxis. Beiheft 15 zur ZBW (S. 54–71). Stuttgart: Steiner.
Marcus, B. & Schuler, H. (2006). Leistungsbeurteilung. In H. Schuler (Hrsg.), Lehrbuch der Personalpsychologie (2., überarb. und erw. Aufl., S.433–469). Göttingen: Hogrefe.
Michelsen, U. & Müller, J. (1988). Eingrenzung der Häufigkeit einzelner Ereignisse beim Test auf Gleichverteilung. Ein Instrument zur Distraktorenanalyse. Diagnostica, 34(2), 119–135.
Möltner, A., Schellberg, D. & Jünger, J. (2006). Grundlegende quantitative Analysen medizinischer Prüfungen. GMS Zeitschrift für Medizinische Ausbildung, 23(3), 1–11.
Mohr, M. (2009). Qualifizierungsstrategien für betriebswirtschaftliche Unternehmenssoftware. Eine empirische Untersuchung bei deutschen Unternehmen. Wiesbaden: Gabler.
Muellerbuchhof, R. (2007). Kompetenzmessung und Kompetenzentwicklung – Empirische Studien an technischem Fachpersonal für Instandhaltung im Hochtechnologiebereich. Frankfurt: Peter Lang GmbH.
Nienaber, C. (2007). Die Bedeutung des Kompetenzmanagements für die strategische Personalarbeit. In W.
Jochmann & S. Gechter (Hrsg.), Strategisches Kompetenzmanagement (S. 25–46). Heidelberg: Springer.
North, K. & Reinhardt, K. (2005). Kompetenzmanagement in der Praxis – Mitarbeiterkompetenzen systematisch identifizieren, nutzen und entwickeln – Mit vielen Fallbeispielen. Wiesbaden: Gabler.
220
Markus Mathieu, Klaus Breuer
O’Neil, H. & Brown, R. (1997). Differential Effects of Question Formats in Math Assessment on Metacognition and Affect. Gefunden am 14.01.2012 unter http://www.cse.ucla.edu/products/reports/tech449.pdf
Rauner, F. (1999). Entwicklungslogisch strukturierte berufliche Curricula: Vom Neuling zur reflektierten
Meisterschaft. Zeitschrift für Berufs- und Wirtschaftspädagogik, 95(3), 424–446.
Reetz, L. & Seyd, W. (2006). Curriculare Strukturen beruflicher Bildung. In R. Arnold & A. Lipsmeier
(Hrsg.), Handbuch der Berufsbildung (2. überarb. und aktual. Aufl., S. 227–259). Wiesbaden: VS Verlag.
Schmidt-Atzert, L. & Amelang, M. (2012). Psychologische Diagnostik (5., vollst. überarb. und erw. Aufl.).
Berlin: Springer.
Schröder, M. (2007). IT-gestützte Kompetenzanalyse als Voraussetzung für ein ganzheitliches Kompetenzmanagement – Eine prozessorientierte Betrachtung. Hamburg: Kovaþ.
Straube, F. (2004). E-Logistik. Ganzheitliches Logistikmanagement. Heidelberg: Springer.
Trapmann, S. (2008). Mehrdimensionale Studienerfolgsprognose: Die Bedeutung kognitiver, temperamentsbedingter und motivationaler Prädiktoren für verschiedene Kriterien des Studienerfolgs. Berlin:
Logos.
Umble, E. J., Haft, R. R. & Umble, M. M. (2003). Enterprise resource planning: Implementation procedures
and critical success factors. European Journal of Operational Research, 146(2), 241–257.
Wellenreuther, M. (2000). Quantitative Forschungsmethoden in der Erziehungswissenschaft: Eine Einführung. Weinheim: Juventa.
Environmental Sustainability Practices in Supply Chains
Case of North American High-Tech Industry
Mark Morrissey, Anshuman Khare
Preamble
The environment is gaining greater attention as organizations increase efforts to reduce any
adverse environmental impact of their operations. These efforts naturally migrate into organizations’ supply chains as much of the energy associated in producing their products is
expended by external suppliers and in the need to transport components from suppliers and
finished products to markets.
This paper looks at what North American high-tech companies are doing within their
supply chains to reduce adverse environmental impact starting with the design of products
and ending with the management of suppliers. Leading off from current knowledge identified within the literature review, the research explores the use of environmental certification
among organizations and their suppliers, collaborative relationships with suppliers to reduce environmental impact in product design and environmental considerations in supplier
selection and qualification. The research then looks at the impact of cost or the ability to
measure financial results related to environmental initiatives and whether this supports or
hinders these initiatives.
The environment is receiving a significant amount of attention in the press and discussions precipitated by global warming, extreme weather patterns and public awareness of
how the planet is being treated. Making supply chains more environmentally friendly has
gained a high level of priority due to this attention (Shukla et al., 2010). This is causing
organizations to revisit conventional supply chain strategies to reassess their priorities
based on sustainability through what is termed the 3P’s: “people, planet and profit” (Shukla
et al., 2010; p 25) but little is being done to understand how supply chains can become
environmentally sustainable while still maintaining agility and flexibility. Short product life
cycles and changing market demands have forced supply chains to become more flexible
through mass customization and high responsiveness (Shukla et al., 2010). Supply chain
responsiveness comes from sourcing flexibility through multiple suppliers located close to
manufacturing sites; value added manufacturing capabilities, and distribution channels that
consider both transportation types and warehouse locations. Each decision in supply chain
management is geared towards supply chain agility but it can also affect environmental
sustainability factors (Shukla et al., 2010).
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_17,
© Springer Fachmedien Wiesbaden 2013
222
Mark Morrissey, Anshuman Khare
Companies in the high technology industry design, manufacture and distribute electronic
devices, components such as semiconductors, scientific and test equipment and are among
the major industries of the economy of the United States and other developed nations
(Khiewnavawongsa and Schmidt, 2009). At the same time, electronics account for 8% of
the global warming contribution per household and are accountable for 10 to 20% of the
total impact on the environment through depletion of non-renewable resources and greenhouse emissions (Neto et al., 2010; p 4468). Alternately, the high technology industry specifically receives a positive effect from environmental sustainability as the industry involves hazardous substances and processes that require a high amount of energy consumption. It is no surprise then that high-tech companies are being pressured towards environmental sustainability through government regulation such as Restriction of Hazardous Substances Directive or RoHS which is a European directive to remove lead and other elements
from electronics (Khiewnavawongsa and Schmidt, 2009); other countries such as China,
Canada, Japan, South Korea and Switzerland are also proposing similar regulations. Additionally, high-tech companies tend to receive the most requests from customers to adopt
ISO14000 certification for environmental management (Khiewnavawongsa and Schmidt,
2009).
OPENING REMARKS
The aim of the research is to build upon existing knowledge of what organizations are doing pertaining to supply chain sustainability initiatives. The literature review shows that
environmental sustainability has caught the attention of supply chain executives in OEM’s
and contract manufacturers in the high-tech sector which has resulted in changes to the
materials used in products, supplier certification in environmental practices such as
ISO14000 and in packaging which is now reusable or reduced. The research further explores how organizations are incorporating environmental sustainability into product design, how they are collaborating with suppliers and the effects on supplier selection. This
research compares sustainability to prioritization to supply chain agility, flexibility and
profitability.
The main question, therefore, is – what is happening within OEM’s and contract manufacturers who produce electronic equipment in North America to incorporate environmental
sustainability into the decisions organizations are making in supply chain strategy? The
research focused specifically on product design criteria, supplier collaboration in product
design and supplier certification. The researchers investigated:
1. How environmental sustainability is incorporated into product design with a focus on the
entire product life cycle;
2. How environmental concerns translate into selection of suppliers and supplier collaboration in product design; and
The researchers then tied this together with how the strategy allows organizations to operate
more environmentally conscious supply chains while at the same time providing a positive
impact to the bottom line. This can be seen as a third issue investigated.
Environmental Sustainability Practices in Supply Chains
223
Literature
The researchers critically assessed the literature review with the purpose of showing how
the work relates to existing research on the same subject and how it builds on the current
knowledge (White, 2000). The literature review is also used to identify trends or patterns in
the existing research and identify the opportunity for continued research that will further
develop the trends or patterns. This section provides the reader with an understanding of
current research on environmental sustainability.
ELEMENTS OF CHANGE IN HIGH TECH INDUSTRY
The high-tech industry does not appear to be as toxin producing as other more traditional
industries but this perception is flawed when one looks deeper into the materials used in
electronic components and devices. For example, a typical 2gm integrated circuit component requires direct inputs from 72 grams of chemicals and secondary materials equaling
“630 times that of the chip” (Evans, 2004; p. 110). Thus thinking about how organizations
could incorporate sustainability into their supply chains opens a very broad subject. There
are many activities organizations could undertake but with varying degrees of benefit. Research into organizational sustainability is increasing rapidly along with a number of higher
education programs that focus on organizational sustainability (Pfeffer, 2010). The World
Trade Organization is beginning to establish environmental goals for industry in respect of
depletion of the ozone layer, gas emissions and waste reduction as discussed at the Rio,
Kyoto and Johannesburg Accords (Vachon & Klassen; 2007). For example, the Kyoto
Protocol established binding emission reduction targets for industrialized countries while
the elimination of “Ozone Depleting Substances (ODS)” was introduced during the Montreal Protocol (Tamiotti et al., 2009; p xiv – xv). Buyers of electronics rank environmental
certification, levels of heavy metals and recycled content higher in the importance of product attributes according to a 2009 study conducted by Terra Choice Environmental Marketing (2009; p. 19). A large percentage of the buyers consider cost and performance of environmental electronics the same at 36% and 48% respectively. This shows that environmental considerations are growing in sourcing decisions and as price and performance become
of less a concern, environmental considerations acquire increasing say in decision making.
The increasing interest in environmental impact in academic circles along with the WTO
establishing goals and targets leads the researchers to believe that this will filter down to
individual organizations as government and public pressure to incorporate environmental
sustainability increases.
There is a risk that North American high-tech companies could avoid legislative and
market pressure by careful selection of their global supply chains. This would be done by
moving the sourcing of less environmentally friendly products or processes to countries
with less restrictive legislation or to non-industrialized countries that are not subject to
WTO resolutions (Tamiotti et al; 2009; p 49). However, existing research shows that organizational supply chains are increasingly practicing environmental sustainability through the
selection of components, material sourcing, packaging, distribution and recycling (Closs et
al., 2011). This is working its way up-stream in the supply chains as organizations pull their
suppliers into environmental sustainability practices and select them considering environmental certifications and capabilities as well as location. Just-in-Time (JIT) practices are
224
Mark Morrissey, Anshuman Khare
being scaled back. For example, Advanced Micro Devices (AMD) assessed the impact
associated with increased energy consumption in shipment volume and the increased environmental risk due to potential chemical spills from the additional handling associated with
multiple shipments (Trowbridge, 2001). To reduce the risks, AMD has moved away from
JIT deliveries of some chemicals to less frequent bulk shipments. Environmentally conscious decisions are also found in the use of reverse logistics where products are returned to
the producing organization for disassembly and recycling as well as in the use of reusable
containers and packaging (Sarkis et al., 2010). Reusable containers are being designed to
use less space in trucks thus allowing more products to be shipped per truckload and reducing the required energy. Organizations are adopting postponement practices in order to be
more responsive to market demands and push final assembly closer to the end market
(Chopra & Meindl, 2010). The trade-off to postponement practices is an increase in logistics as products are shipped semi-finished to a distribution center and then to the final customer (Closs et al., 2011). The additional shipments and distribution channels consume
more energy in moving products from point of manufacture to the customer. To offset this
technology is being used to optimize distribution channels and minimize the number of
miles trucks drive with less than full loads. This enables more products to be moved to
customers while using less energy (Closs et al., 2011) as well to allow greater utilization of
assets which has reduced inventories by 8-9% (Facanha & Horvath, 2005; p 28).
PRODUCT DESIGN & PRODUCT LIFE CYCLE
Research by Carter and Carter (1998), through their work on environmental purchasing, has
found that environmental practices such as design for the environment and design for disassembly are positive for vertical integration within supply chains as organizations collaborate to achieve specific objectives and strengthen the entire supply chain. The rising cost of
gold has increased the recycling efforts from electronic devices such as printed circuit
boards, mobile phones and computers. This new emphasis on recovery is increasing the
importance of design that facilitates recycling and allows easier capturing of gold and other
precious metals at the end of a product’s life (Hageluken & Corti, 2010). Twelve percent of
the world’s gold mining output is consumed within electronics as per the circa gold standard yet the ability to disassemble and recover gold and precious metals is difficult through
dismantling and pre-processing stages of recovery (Hageluken & Corti; 2010) which places
greater emphasis on the need for OEM’s to collaborate with their component suppliers to
design products which can be easily disassembled.
The increasing value of gold has driven the volume of electronics being recycled but it
was legislation through the WEEE directive that initiated the process. Government agencies
are passing legislation forcing organizations, specifically in the high technology sector, to
become more environmentally sustainable in the products they produce which includes the
design and materials used through legislation such as Restriction of the Use of Certain
Hazardous Substances (RoHS) (NMO, 2011). Although this is European legislation its
benefits have entered North America as organizations migrate the materials and product
designs in order to be compliant, they also standardized the designs regardless of the country of sale resulting in the legislation having spillover effects into North America. Specifications pertaining to environmental performance are also being incorporated into designs as
well as material selection (Vachon, 2007). It is becoming more important to understand
Environmental Sustainability Practices in Supply Chains
225
how products effect the environment through the total lifecycle from purchase by the customer through to disposal whether it is by contamination of a landfill or by recycling components. An example is how printed circuit boards (PCB’s) are now being designed to be
easily disassembled so the components may be reused, recycled or rerouted away from
landfill sites (Sarkis et al., 2010). Organizations, in compliance to the WEEE directive, are
establishing closed loop supply chains allowing customers to return products to the OEM at
the end of the useful life (Neto et al., 2010). Recovery of products by OEM’s leads to the
parts being used for refurbishment, re-sale or use for spare parts by maintaining an “end of
life” parts supply.
Design for environmental sustainability may also extend the product’s life expectancy
which reduces the amount of energy involved in manufacturing and delivery relative to the
product’s life span (Neto et al., 2010). Design for the environment (DfE) is increasing in
importance as organizations find it helps improve their market positions (Bevilacqua et al.,
2007) as customers prefer to deal with environmental conscious suppliers. DfE takes into
account the impact on the environment through total life cycle of the product where the
contributors are excessive energy in manufacturing, and the life expectancy of the product.
Organizations are able to incorporate DfE into their products by selecting components with
longer life cycle expectancy and modular design allowing for easy repair and upgrading to
extend the useful life of the product. Modular design allows for organizations to easily disassemble products down to the individual components and sub-assemblies for re-integration
into the supply chain as spare parts and service inventory (Bevilacqua et al., 2007). RoHS
compliance supports DfE through the selection of components that reduces the likelihood
of heavy metals entering landfills when products are discarded and reduce contamination
during manufacturing by such practices as removing the lead from solder paste.
RoHS is the European directive adopted in January 2003 that restricts the use of certain
heavy metals in electronic products shipped after July 2006. Those materials include lead,
mercury, cadmium and brominated flame retardants (Preuss, 2005). Products subject to
RoHS legislation include household appliances, IT and telecommunications equipment,
consumer products, lighting equipment, electronic tools, leisure and sporting goods, toys
and automatic dispensers (Walker, 2011). Although RoHS is a European directive, through
standardization, manufacturers have converted all products to be RoHS compliant regardless of country of sale thereby making products sold in other locations such as North America to be RoHS compliant. A revised version, RoHS 2, is being adopted by the European
Parliament which will include medical equipment along with monitoring and control products. This version will require manufacturers to identify RoHS compliant products with a
“CE” mark to ensure compliance and keep compliance records for ten years (Walker,
2011).
Product design is also incorporated into supply chain management through collaborative
efforts with suppliers such as Philips Electronics that works with suppliers to design products with improved environmental performance (Vachon, 2007). Organizations are realizing that design improvements which reduce the consumption of raw materials and waste
creation while extending product life (Closs et al., 2011) contribute to increased product
profitability.
226
Mark Morrissey, Anshuman Khare
SELECTION OF SUPPLIERS AND SUPPLIER COLLABORATION
IN PRODUCT DESIGN
Organizations are working more closely with their suppliers and supply chain partners
taking initiatives to develop environmental sustainability within supply chains. This is not
happening through government regulation, however market barriers imposed by the WTO
has provided some incentive (Man & Burns, 2006). The researchers investigated (a) the
factors that continue to drive organizations to incorporate sustainability into supply chains
and (b) whether the drive to develop sustainable supply chains influences decisions to select
new suppliers.
Organizations are turning more to suppliers for environmentally collaborative efforts
within the supply chain (Vachon, 2007) and when selecting such suppliers it is important to
ensure they are genuinely able to collaborate. Selecting suppliers that are incapable or
unwilling to participate in environmentally collaborative initiatives could become barriers
to an organization meeting its own sustainability targets. Barriers from suppliers come in
the form of adversarial relationships, lack of information and expertise, limited capability
and lack of trust. Suppliers may not have sufficient confidence in their customers to make
the necessary investments for fear the business relationship may be short term. Lastly the
customer may not fully understand the raw materials used in the manufacturing of a product
and may be skeptical that the materials are in fact “green” (Khiewnavawongsa & Schmidt,
2009).
Supplier certification and audit programs are now incorporating environmental sustainability initiatives to ensure that suppliers are able and willing to use sustainable practices and
are already following them to some degree (Vachon, 2007) such as having ISO 14000 certification. Certification and auditing of suppliers helps to reduce the risk associated with
having extended global supply chains as cooperation within supply chains range from long
distance acquaintance style relationships to more formal partnerships and joint ventures
between organizations (Man & Burns, 2006). Additionally, placing requirements on first
tier suppliers for environmentally sustainable activities often works up the supply chain to
second and third tier suppliers; each level requires its suppliers to meet environmental obligations (Preuss, 2005). This has provided an opportunity for organizations to incorporate
environmental sustainability into Total Quality Management (TQM) programs which often
involve the entire supply chain as initiatives are horizontally aligned back from the customer. Incorporation into TQM starts with an organization developing an environmental policy
and mission statement (Preuss, 2005) which is used to stimulate and develop continuous
improvement initiatives. Certification and compliance with sustainable practices includes
knowing what materials suppliers are using in the manufacturing of products such as Advanced Micro Devices which is receiving increased requests for data pertaining to chemical
content in the semiconductors they produce (Trowbridge, 2001).
Unsound activities within an organization’s supply chain can adversely affect its reputation. Duo & Sarkis (2010) provide examples that include contamination of water supplies
or destructive processes in manufacturing. According to Duo & Sarkis (2010), certification
and audit programs help monitor the performance of suppliers and hold them accountable
for their actions. Supplier selection in terms of off-shoring has traditionally been based on
the reduction of costs and maximization of profit which includes traditional factors such as
Environmental Sustainability Practices in Supply Chains
227
cost, quality and delivery. However, they point out that the location of suppliers’ facilities
is becoming more important as environmental sustainability factors enter the decision making process. Traditionally, environmental considerations were limited to compliance with
regulations and the perception that organizations are selecting off-shore suppliers who are
following the local laws and regulations. This is changing as organizations become more
cognizant of environmental concerns and environmental needs gain more attention through
performance and practices such as sensitivity to the consumption of resources and controlling pollution during performance while practices relate to policies and procedures designed
to protect the environment (Dou & Sarkis, 2010).
BOTTOMLINE IMPACT
Large organizations such as Hewlett Packard, IBM and Xerox are implementing environmentally sustainable or “green” supply chains (Tsai & Hung, 2009) but the challenge of
translating such initiatives to the bottom line in terms of costs or profit drivers still remains.
Organizations can gain positive financial benefits from adopting environmentally sustainable practices in the form of reduced waste and removing excess material from their products (Preuss, 2005). Price Waterhouse Coopers found that 70% of CEO’s they surveyed
believe corporate social responsibility to be important to profitability (Panayioutou et al.,
2009) but quantifying the profitability of sustainability practices remains difficult, making
it challenging for organizations to communicate the benefits of social sustainability to their
stakeholders. Activity based costing is a way to measure the benefits of environmental
sustainability by reducing raw materials and waste (Tsai & Hung, 2009) within the product
design. It cannot measure the benefits of collaboration with suppliers and investing in suppliers for joint sustainable initiatives along with organizational reputation. Nonetheless, the
savings are possible as Bristol–Myers Squibb realized $8 Million in annual savings and an
additional one time savings of $9 Million through the benefits from implementing environmentally sustainable practices with a group of suppliers in Puerto Rico (Closs et al.,
2011; p 110).
SUMMARY
The literature review identifies several areas of knowledge where organizations are incorporating environmental sustainability practices into their supply chains such as gaining
environmental certification and incorporating environmental considerations into supplier
selection and management. Environmental considerations are being incorporated into product design through DfE allowing for easy disassembly of products once they are returned
from customers. Product design now incorporates legislated requirements such as RoHS
and the return of products from customers is in compliance with WEEE legislation. More
often the useful life of products is extended through modular design allowing for the product to be upgraded at customer sites. Collaboration with suppliers is developing in maturity
as organizations require their suppliers to obtain environmental certification which in turn
is reflected in collaborative product design. Supplier collaboration is a means to leverage
total quality management (TQM) to develop continuous improvement programs in environmental performance. The largest challenge remains the ability to measure financial per-
228
Mark Morrissey, Anshuman Khare
formance relative to environmental cost benefits. Organizations believe environmental
sustainability is financially beneficial but it remains difficult to quantify.
Data Collection – Methodology and Approach
The researchers applied a simple methodology using survey instrument that was designed
to capture qualitative as well as quantitative information. The researchers then compared
and contrasted the data collected from the survey with the existing literature. This method
utilized multiple sources of data to develop a larger perspective in which to understand
what is happening within high-tech supply chains pertaining to environmental sustainability
in North America.
The survey: The survey consisted of 24 questions that were split into four sections for
capturing some basic company information, information related to product design, supplier
selection and profitability. The survey was sent to fifteen organizations. Fourteen responded
with completed surveys.
Participants: The research participants consisted of representative companies within the
high-tech industry who have operations in Canada, USA or Mexico or a combination of the
three countries. The companies included nine original equipment manufacturers (OEM’s)
who sell their own products both designed and produced by themselves or in conjunction
with Contract Manufacturers. Three Contract Manufacturers (CM’s) were then included as
they support OEM’s in various areas of the value chain such as design, build, distribution
and also repair and service. One representative component manufacturer organization was
also included as this organization represents multiple semiconductor manufacturers and
supports OEM and CM customers during the design phase of new products. Additionally,
one distribution company was selected who works with OEM’s and CM’s during the design
phase of new products and is the distribution channel for the supply of electronic components to OEM’s and CM’s. The inclusion of the OEM’s, CM’s, a manufacturers’ representative firm and a distribution firm provides the researchers with a holistic crossreference of the high-tech industry. A total of fourteen organizations provide a good sample
size to understand the current activities and initiatives pertaining to environmental sustainability.
The size of the participant organizations was measured in annual revenue where six reported revenue over $500M, three reported revenue between $100M and $500M, one each
reported revenue of $50M to $100M, $25M to $50M, $15M to $25M and less than $15M.
The various sizes of organizations provided the researcher with information on whether
organizational size plays a role in the degree of environmental consideration. One organization was not able to disclose revenue citing being a privately held organization.
The number of the suppliers that participant companies reported they work with ranged
from less than 50 to over 1000 with the average being approximately 400 and the majority
of participants reporting in the range of 50 to 500 suppliers. One organization did not report
number of suppliers citing confidentiality and the manufacturer representative does not
work with suppliers.
The participant organizations have operations between Canada, USA and Mexico. Six
have operations solely in Canada, one has operations solely in the USA, four have opera-
Environmental Sustainability Practices in Supply Chains
229
tions in Canada and the USA and three have operations in all three North American countries. This distribution between the three countries provides the researchers with information pertaining to the impact on environmental sustainability based on location.
Making Sense of Data: The data received from research was used to come up with an
answer to the research questions identified earlier:
1.
2.
3.
How environmental sustainability is incorporated into product design with a focus
on the entire product life cycle;
How environmental concerns translate into selection of suppliers and supplier collaboration in product design; and
How the strategy allows organizations to operate more environmentally conscious
supply chains while at the same time providing a positive impact to the bottom
line.
The last phase of the research was to develop a maturity model. The researchers developed
the maturity model based on each of the 24 questions showing the current levels of maturity
ranging from “Not Commonly Adopted” through “Emerging Practice” to “Commonly
Adopted and Engrained”. A percentage scale was used to illustrate the degree of how the
organization had incorporated the practices. The scale ranged from zero percent for “not
commonly adopted” to 100% for “commonly adopted and engrained”. The responses to
these questions were averaged and are shown on the maturity scale (Figure 1).
230
Mark Morrissey, Anshuman Khare
MATURITY LEVEL
ACTIVITY
Not commonly
adopted
Environmental certification
Importance of environmental
sustainability
Environmental sustainability mission
statement
Incorporation into total quality
management or continuous
improvement programs
Environmental legislation observed
Legislation impact on product design
Total life cycle incorporated into product
design
Ease of disassembly incorporated into
product design
Recycling or reuse of components
Collaboration with suppliers to
incorporate environmental sustainability
into product design
Partnerships with suppliers to develop
environmental sustainability initiatives
Suppliers hold environmental
certification
Environmental certification used as a
differentiator or marketing tool
Audit suppliers for environmental
compliance
Environmental compliance taken into
account during supplier qualification
Dis-qualification of a supplier for a
breach of environmental rules or
legislation
Realized cost benefits related to
environmental sustainability initiatives
Cost impacting decision to move forward
with an environmental initiative
Increased supply chain or sourcing costs
associated to environmental
sustainability decisions
Figure 1:
The Maturity Model
Emerging
practice
Commonly
adopted and
engrained
Environmental Sustainability Practices in Supply Chains
231
Survey Findings
A summary of responses received are presented below in a fashion that they address the
research questions mentioned earlier.
IMPORTANCE OF ENVIRONMENTAL SUSTAINABILITY
All the participants in the survey are Business to Business (B2B) organizations meaning
they sell to other companies rather than selling directly to the consumer. Much of the existing literature pertains to organizations that sell to the consumer where environmental consciousness is more prevalent thus increasing the pressure to be more environmentally responsible. Thus this research shows the importance of environmental sustainability to organizations not under direct consumer pressure to adopt sustainability initiatives into their
operations.
Environmental sustainability is important to all participants as all participants other than
one ranked it high with the scores ranging between seven and ten with eight being the average. One participant ranked importance as a four and this came from the participant smallest in size based on the annual revenue under $15M.
Environmental Certification: Of the fourteen participants, five reported holding environmental certification. The most common certification is ISO14001 which is a standard for
environmental management and deals specifically with management systems and processes.
It is a governance system that allows organizations to implement a standardized system to
manage their activities and ensure compliance with environmental legislation (International
Standards Organization, 2011). Two participants reported also holding ISO20000 and
ISO26000 which are standards for social responsibility management that reflect seven core
attributes being organization, community, human rights, consumer issues, labour practices,
fair operating practices and environment. The standard “promotes common understanding
in the field of social responsibility” beyond what is legislated (International Standards Organization, 2011a). One participant reported holding the automotive standard for design and
manufacturing. All but one of the OEM participants over $500M in revenue reported having environmental certification plus one participant with over $100M in revenue. The other
nine participants reported not holding any environmental certification. The participants with
environmental certification ranked the importance of environmental sustainability to be a
seven or higher. One participant with ISO14001 reported the implementation of continuous
improvement programs as a condition of holding the certification. None of the CM’s reported currently being certified to ISO14001 as the participants currently certified are
OEM’s and the distributor participant. One CM did report being in the process of obtaining
ISO14001 certification and this is in response to customer requests.
Environmental sustainability mission statement: Seven of the fourteen participants
have an environmental sustainability mission statement. These participants ranked environmental importance to be at seven or higher and are over $100M in revenue with two
ranging between $100M and $500M with the other five being over $500M in revenue per
year. All participants reporting to be ISO14000 certified also have an environmental sustainability mission statement. The common themes in the participants’ mission statements
are compliance with laws and regulations and continuous improvement with operations.
232
Mark Morrissey, Anshuman Khare
Continuous improvement is tied to management processes and policies along with objectives and goals aligned to environmental initiatives
Incorporation of environmental sustainability into total quality management or continuous improvement programs: Seven participants reported continuous improvement
programs in place where one has annual objectives related to ISO14000 certification and
another has internal objectives tied to eliminating waste and reduction of packaging. The
third participant has a formal program in place related to a GRI framework. The other seven
participants reported no incorporation of sustainability into a total quality management
program or alternative program of continuous improvement. The participants reported
compliance to IS014000 as continuous improvement. Three participants did report compliance to legislation such as RoHS in response to this question as a quality program.
PRODUCT DESIGN
Environmental legislation: RoHS compliance was consistent among all participants regardless of size and whether the participant was an OEM or CM. Five participants also
reported compliance with REACH legislation, four participants comply with WEEE and
one included CARB and LACY compliance. CARB is the acronym for California Air Resources Board which develops regulations pertaining to the effect of consumer products on
air quality in the state of California (California Environmental Protection Agency, 2010).
The LACY Act is United States legislation that regulates the trade and import of restricted
plants and wood products. The act deals with the theft of plants but has also been applied to
illegal logging practices (Environmental Investigation Agency, 2007).
Impact of environmental legislation on product design: All but two participants reported RoHS compliance as the only environmental legislation influencing their product
designs. The two not reporting RoHS compliance did not report on any legislation being
adhered to during product design. Both these participants have revenues under $25M.
Total life cycle incorporation into product design: Total lifecycle design is clearly not
common as no participant reported a strategy on how they manage products from cradle to
grave to reduce environmental impact. One participant reported maintaining compliance
data on all purchased components thus ensuring compliance with RoHS legislation for
reporting purposes. Two other participants reported designing products that would have a
useful life of over 25 years to delay the time until the products enter landfill sites. Extending product lifecycles has contributed to increased profitability among organizations
through reduced warranty repairs and better reputation. It also aids the environment that the
usefulness of the product is increased relative to the energy required to deliver the product
to the market (Corbett & Klassen, 2006).
Two participants with revenue over $500M allow customers to return products at the end
of the life for refurbishment and resale or disposal. There is a benefit in accepting the return
of products through the refurbishing, re-selling and for spare parts making the practice
more of a win-win practice (Neto et al., 2010). None of the other nine participants indicated
that they have any programs in place that addresses disposal or recapture of products at the
end of their life cycles.
Environmental Sustainability Practices in Supply Chains
233
Ease of disassembly in product design: Ease of disassembly facilitates the reclaiming
of precious metals. For example, the price of gold has increased thus yielding a higher
return on investment for the effort associated with capturing the gold content of electronic
products (Hageluken & Corti, 2010). However, none of the participating companies has
incorporated strategies in how precious metals can be more easily captured at the end of the
product life cycle. Three participants reported the benefits of press fit and modular design
to allow for the product to be more easily dismantled for service and repair purposes. The
size of the three participants ranged from $25M to over $500M in revenue.
Ability to recycle and reuse components within new products: None of the participants reported that any of their product components are reused at the end of the product life.
One participant reported that plastic housings could be recycled but the participant does not
actually accept the housing back from customers for recycling. They do allow the resin
suppliers to incorporate a quantity of regrind resin in with the virgin resin, which allows for
previously used resin to be re-used in new products as opposed to being scrapped. The
amount of re-grind resin used is based on the resin manufacturers published guidelines.
Two participants reported that products could be returned from the customer at the end of
the life which are then refurbished and re-sold. The two participants who allow the return of
products have over $500M in annual revenue.
Supplier collaboration to incorporate environmental sustainability into product design: The amount of supplier collaboration varies among the participants and is not restricted to any particular size of participant. No participants reported actually collaborating with
suppliers during a product design phase to specifically incorporate environmental sustainability. For example, one participant that reported collaborating with suppliers during the
design phase stated that the collaboration was focused on design for manufacturability. The
participant is beginning to work with suppliers to identify alternate more environmentally
friendly materials but this is more in response to customer requests than proactive initiatives. All participants work with their suppliers to ensure RoHS compliant components are
provided but design for environment initiatives are not evident beyond compliance with
RoHS, CARB and LACY. Supplier collaboration being limited to adherence with legislation is a common theme among all participants as none reported working with suppliers to
drive initiatives beyond compliance. One participant, greater than $500M in revenue, reported working with suppliers to maintain traceability of all components for RoHS compliance purposes so that the participant is able to validate that products are RoHS compliant if
ever required. This level of validation is expected under RoHS 2 which requires that organizations ensure their products comply through certification and material traceability (Walker, 2011). One other participant, over $500M in revenue, reported working with suppliers to
educate them on environmental sustainability and monitors them for performance relative
to environmental legislation. The education of suppliers is to support compliance of RoHS
and REACH legislated requirements along with broader sustainability initiatives such as
ethical mining of minerals used in electronic components, specifically the use of child labour in mining. The education is done through regular supplier business reviews where the
organization shares what it is looking for through inspection procedures. The organization
also publishes a supplier handbook which is issued to suppliers to inform them of environmental objectives and the expectations to support the objectives. It highlights four guiding
principles – customer satisfaction, continuous improvement, innovation and vision. The
234
Mark Morrissey, Anshuman Khare
handbook discusses their environmental policy and the requirement of suppliers to follow
the policy through compliance to laws and regulations and continually improving environmental performance.
SUPPLIER SELECTION
Supplier partnerships to develop environmental sustainability initiatives: None of the
participants reported any formal supplier partnership programs aimed at improving environmental sustainability. Organizations collaborate with suppliers to develop an agile supply chain responsive to market needs (Christopher, 2005) while the partnerships reported
have not extended to sustainability initiatives. Six participants did report more informal
relationships with suppliers aimed towards specific objectives. Of these, three specifically
stated that supplier collaboration happens in order to ensure compliance with legislation
such as RoHS. Moving toward the supplier partnerships, one participant in the $100M to
$500M range reported working with suppliers to develop re-usable packaging aimed at
reducing the amount of packaging going to landfill sites. Another participant in over
$500M in revenue reported requiring suppliers to sign a code of conduct that they comply
with the Electronic Industry Citizenship Coalition (EICC). This includes environmental
sustainability and compliance, fair treatment of workers, safe work place and business ethics environmental initiatives which are reported on during formal quarterly business reviews. The EICC is a member operated coalition of organizations focused on the sharing of
best practices and continuous improvement pertaining to environmental and social responsibility (EICC, 2009). A CM participant reported working with packaging suppliers to design packaging with reduced material or packaging which is re-usable. The same CM
reported that OEM customers have not involved them in product design for the environment as product design is often completed along with the components being specified on a
Bill of Material before it is sent to the CM’s for assembly.
Supplier environmental certification: Five participants in the $25M to more than
$500M size in revenue require their suppliers to hold ISO14000 certification. Two of the
five also hold ISO14000 certification; one participant reported requiring suppliers to adhere
to their own code of conduct pertaining to environmental sustainability. One of the CM
participants reported requiring suppliers to be ISO14000 certified. It is generally difficult
for any CM to have a form of supplier selection or certification as the suppliers to CM’s are
often dictated by the OEM customers leaving the CM with little autonomy to select suppliers themselves. A larger organization, over $500M in revenue, elaborated on the supplier
qualification process which includes a code of conduct with eight specific activities suppliers must adhere to which are aligned to environmental sustainability and social responsibility. This includes human rights, child labour, anti-corruption and adherence to local environmental legislation.
Environmental certification use as a differentiator or marketing tool: The practice of
marketing environmental certification to act as a differentiator or to encourage new customers is very limited. One participant, over $500M in revenue, reported leveraging environmental certification for marketing purposes in attracting new employees during campus
recruiting. The CM participant that is currently obtaining ISO14001 certification does not
Environmental Sustainability Practices in Supply Chains
235
consider having the certification to be a differentiator but is pursuing the certification to be
a “good steward to the environment”.
Supplier audits for environmental compliance: Ensuring that suppliers act within legislative compliance is important to reduce risk to extended supply chains as supplier activities that violate regional laws or are perceived to be unfriendly to the environment can
damage reputations (Dou & Sarkis, 2010). Seven of the participants, ranging from $25M to
$100M and over $500M in revenue, reported auditing suppliers for environmental compliance. Two of them specified that suppliers are audited to ISO14000 certification and one
reported utilizing a third party firm to conduct the audit. Three of the seven participants
who reported auditing suppliers for environmental performance hold ISO14000 certification themselves. One of the participants, based in California, also holds CARB certification as a requirement to import wood products into California to reduce the emissions of
toxic chemicals such as formaldehyde into the air. The participant also holds LACY certification due to their sourcing and use of wood in their products.
Environmental compliance as a part of supplier qualification: Seven of the participants reported including environmental compliance as part of the qualification process for
new suppliers. Six of the seven participants who audit suppliers for environmental conformance also incorporate environmental compliance as part of the supplier certification.
Two additional participants use environmental compliance as part of supplier qualification
but do not audit their suppliers for environmental compliance.
Supplier disqualification for a breach of environmental rules or legislation: None of
the participants reported disqualifying a supplier for breach of environmental rules or legislations. One participant referenced the compliance as part of the supplier qualification process to vet suppliers who may not adhere to legislation.
IMPACT ON PROFITABILITY
Cost benefits related to environmental sustainability initiatives: Most participants reported not having realized cost savings as a result of environmental sustainability initiatives. Two reported environmentally related savings primarily in the form of reusable or
reduced packaging initiatives. One participant reported savings related to refurbishing of
capital equipment in lieu of discarding and procuring new equipment. One participant reported savings through programs designed to reduce energy consumption such as powering
down lights and computers after work hours.
Impact of cost on approval of environmental initiatives: OEM’s will determine return
on investment and implement programs with immediate upfront cost allowing for payback
in the longer term. CM’s are different in that margins are often so fine there is not much
room to incur increased supply chain costs in support of environmental initiatives as stated
by the purchasing manager of a contract manufacturer (Preuss, 2005). In determining
whether higher costs are prohibitory to implementing environmental sustainability programs, ten of the respondents reported that cost did not prohibit them from moving forward
with such programs. Two participants, in the greater than $500M revenue, cited the need
for balance between environmental benefit and return on investment. One participant did
clarify that the greater the environmental benefit the lesser of a role return on investment
236
Mark Morrissey, Anshuman Khare
played in the decision. The other participant elaborated that the organization has invested
money up front on programs that will realize a savings at a future time. The exception to all
participants is in compliance to legislation. RoHS is an example where the cost of RoHS
components was higher than that of non-RoHS components along with the related engineering costs. This is since changing but the participants adopted RoHS compliance so as not to
be barred from the European market.
Increased supply chain or sourcing costs associated to environmental sustainability:
Seven of the fourteen respondents reported that supply chain or sourcing costs increased as
a result of adhering to legislated requirements such as RoHS. The revenue size of these
participants varied between $100M to $500M and greater than $500M. Smaller participants
in size of less than $15M and up to $100M did not report any increase in supply chain or
sourcing costs related to environmental sustainability.
Revisiting the Research Questions
How environmental sustainability is incorporated into product design with a focus on
the entire product life cycle: The survey shows that legislated requirements are commonly
adopted into product design. All participants reported including environmental legislation
in their product design activity and the most common legislation observed is RoHS and
WEEE. However, the incorporation of environmental issues in product design beyond simple compliance with legislation is yet to mature as design for environment is not yet a primary factor. The survey has identified that modular design is emerging allowing organizations to extend product life cycles through upgrades on customer sites and extending the
useful life of product and returning failed modules to the point of manufacturer for refurbishment and re-use. The design of products to re-capture and use precious materials such
as gold and to better dispose of toxic chemicals is not yet a design consideration. Packaging
design such as reducing materials and returning packaging to the point of manufacturer is
gaining strength as an opportunity to benefit the environment and reduce costs.
How environmental concerns translate into selection of suppliers and supplier collaboration in product design: The maturity scale shows that organizations are trending to
require suppliers to be environmentally certified and environmental compliance is being
taken into consideration during supplier audits. Both are progressing beyond “emerging
practices” level but are not quite in the realm of “commonly adopted”. Thus environmental
sustainability is developing within supply chains as a result of improved supplier management, while still an “emerging practice” level, and has higher adoption rates than many
other activities such as design for the environment. Environmental certification and compliance are maturing as data shows that requirement for suppliers to hold environmental
certification is at 36%. Fifty percent of participants stated that suppliers are audited to ensure compliance with environmental policies and practices and 64% take environmental
compliance into account during supplier qualification. The most common environmental
certification is ISO14001 and suppliers are audited to ISO14001 standards and practices.
One participant reported using an external ISO auditing firm initially during the qualification process and to also conduct annual or bi-annual follow on audits to ensure suppliers
continue to comply with ISO standards. Another participant has developed environmental
criteria to which suppliers are expected to conform and this criterion is also based on ISO
Environmental Sustainability Practices in Supply Chains
237
standards. The interesting correlation is that the same number of participants, at 36%, expects their suppliers to have environmental certification which they themselves hold. Two
participants who expect suppliers to hold environmental certification are not themselves
certified. Supplier collaboration is “emerging” but the practice is limited to ensuring compliance with legislation such as RoHS. The collaboration with suppliers to develop sustainability initiatives beyond legislative compliance has not taken hold as product design is
done within the OEM.
How the strategy allows organizations to operate more environmental conscious supply
chains while providing positive impact to the bottom line: Realized financial benefits and
the ability to measure them along with their consideration in the decision making process
are yet to mature as per the maturity scale. The survey has confirmed findings from the
literature review that the inability to measure financial impact of decisions is resulting in
the slow adoption of environmental initiatives with the exception of some minor developments such as the reduction of packaging and related costs as one example. Some cost increases have been forced upon organizations such as the costs associated with being RoHS
compliant through modifying production equipment and procurement of higher cost RoHS
compliant components from suppliers.
Figure 2 shows the percentage of participants who have adopted the different environmental activities discussed and illustrates the degree of adoption. It is clear that legislated
requirements are consistently adopted followed by supplier qualification and supplier audits. Their incorporation as part of TQM and design related criteria along with cost benefit
are at the low end of adoption.
238
Mark Morrissey, Anshuman Khare
100
90
80
70
60
50
40
30
20
10
0
Figure 2:
Percentage adoption of environmental practices
Conclusion
The survey confirmed the information discussed in the literature review regarding organizations incorporating environmental sustainability into their supply chains. A gap between the
literature review and the research data exists as the incorporation of environmental sustainability is still in its infancy and the maturity of adoption varies from one area to another.
Certification that incorporates environmental considerations into supplier selection and
management is at the highest level of maturity as ISO certification is prevalent. Organizations acquire certification themselves and subsequently require suppliers to obtain certification. Environmental considerations incorporated into product design are primarily driven
through legislation such as RoHS but modular design and product life cycle considerations
are maturing. Supplier collaboration is not developing as the data shows that organizations
are not working with suppliers to develop environmental initiatives or to incorporate environmental sustainability into products through design. Total Quality Management has
emerged as an area of opportunity to implement environmental programs and to drive continuous improvement through establishing objectives and benchmarking. The largest challenge to environmental sustainability still remains the ability to measure financial perfor-
Environmental Sustainability Practices in Supply Chains
239
mance relative to cost benefits. The data also shows that participating organizations have
not been able to directly measure the impact of environmental initiatives on costs nor
measure the associated savings.
The adoption of RoHS and WEEE by the European Union in 2003 and 2005 respectively,
has had a spillover effect to other countries such as Canada and some US states that adopted similar legislation and benefited from the conversion of products to adhere to the European legislation. Under the pressure of legislation that would reduce available markets to
OEM’s in the high-tech industry, the OEM’s undertook a radical change to product design
from individual semiconductor components up to entire assemblies. Yet, the data shows
that, outside of a few initiatives, little has been done beyond that required by legislation to
incorporate environmental sustainability into the industry. Product design is progressing to
be more modular which extends product life cycles and allows end of life components to be
returned to the OEM. This is more influenced by serviceability and market needs than by
environmental specific directives.
Larger organizations are more likely to incorporate environmental sustainability into their
operations. They are more likely to be certified to a standard such as ISO 14001 and to
insist suppliers are certified and audit them to ensure compliance. It is likely that larger
organizations are more mature in this sense as they have greater resources at their disposal
and greater influence over suppliers than smaller companies. Certification such as
ISO14001 and the broader sustainability standard ISO26000 are gaining traction as organizations are becoming certified to ensure decisions and processes align with environmental
standards. The requirements of ISO certification are also working their way into the supply
chains as organizations are beginning to ask their suppliers to be certified. In support of
this, larger organizations are certifying and auditing their suppliers to ensure continued
compliance.
The survey has identified an opportunity to integrate environmental sustainability into
continuous improvement programs through TQM as a part of ISO14001 certification. TQM
requires organizations to establish a program of continuous improvement around strategic
objectives and offers a method of measuring performance and benchmark against internal
key performance indicators or external benchmarks. The pillars of such a program could be
aligned to the 3P’s: “people, planet and profit”. To support the continuous improvement
element of TQM, the data also identified an opportunity for organizations to develop continuous improvement initiatives through the adoption of “lean” principles and practices.
Lean could be leveraged by formalizing continuous improvement programs with suppliers
to reduce waste in operations, materials consumed, packaging and product movement, all of
which would benefit the environment.
The lack of ability to measure the financial impact of environmental sustainability is a
hindrance to more initiatives being undertaken; primarily the difficulty of measuring associated savings and costs. Along the lines of TQM, there is potential that a GRI framework
will allow organizations to develop a standardized financial reporting model but more work
is required to develop an acceptable model as measurements would need to be associated
with benchmarks for environmental performance. Performance to environmental standards
could result in increased profits for organizations as tough standards would force them to
improve their technology, processes and products (Kleindorfer et al., 2005). Specifically,
240
Mark Morrissey, Anshuman Khare
increased profitability can come from energy conservation and reduced waste, closed loop
supply chains as companies dispose of or reuse products for service and spares and design
of products to reduce energy consumption during manufacturing (Kleindorfer et al., 2005).
The research findings show that the incorporation of environmental sustainability into the
supply chains of high-tech companies has so far been limited to compliance with legislated
requirements. Beyond legislated directives such as RoHS and WEEE, designs that reflect
environment initiatives have not taken hold. Environmental certification such as ISO14001
and social responsibility certification such as ISO26000 is growing and organizations are
beginning to ask suppliers to also obtain such certification. Beyond having the certification,
incorporating continuous improvements in sustainability is the next logical progression that
this research has identified can be accomplished through formalizing under a Total Quality
Management program.
The introduction of sustainability initiatives within organizations is influenced to a large
extent by the organization’s size measured in terms of revenue. Larger organizations are
more mature in requiring and implementing environmental sustainability initiatives among
their supply chains than are small or medium size organizations.
Next Steps
This exploratory research shows that there are many interesting aspects of supply chain
management that can be investigated to show the impact of environmental practices in
supply chain in context of product design, supplier selection and impact on bottom line of
an organization. In a future study the researchers plan to explore these factors with a larger
sample and also investigate the relationships between the factors and the size of the firm
using sophisticated statistical tools and techniques. The literature available shows the way,
but the reception of the same in North America has been limited due to various factors. A
comparative study with European and Asian supply chains would probably present the
researchers with benchmarks that can be utilized in improving the environmental sustainability records of North American supply chains in high-tech industry.
References
Bevilacqua M., Ciarapica F.E. & Giacchetta G. (2007) Development of a sustainable product lifecycle in
manufacturing firms: a case study. International Journal of Production Research. Vol. 45. No. 18–19. pp.
4073–4098.
California Environmental Protection Agency (2010) Current Regulations [On Line] Retrieved February 11,
2013 from http://www.eurofins.com/carb-consumer-products-voc.aspx.
Carter, C.R. & Carter, J. R. (1998) Inter-organizational determinants of environmental purchasing: initial
evidence from the consumer products industries. Decision Science. Vol. 29. No. 3. pp. 659–684.
Chopra S. & Meindl P. (2010) Supply Chain Management. 4th edition. Upper Saddle River. Pearson.
Christopher M. (2005) Logistics and Supply Chain Management, Creating Value-Added Networks. Third
edition. Harlow. Pearson Education Limited.
Closs D., Speier C. & Meacham N. (2011) Sustainability to support end–to–end value chains: the role of
supply chain management. Academy of Marketing Science. Vol. 39. No. 1. pp. 101–116.
Environmental Sustainability Practices in Supply Chains
241
Corbett C. & Klassen R. (2006) Extending the Horizons: Environmental Excellence as Key to Improving
Operations. Manufacturing & Service Operations Management. Vol. 8. No. pp. 5–22.
Dou Y. & Sarkis J. (2010) A joint location and outsourcing sustainability analysis for a strategic off shoring
decision. International Journal of Production Research. Vol. 48. No. 2. pp. 567–592.
EICC (2009) Governance. [On Line] Retrieved February 11, 2013 from http://www.eicc.info/
GOVERNANCE.htm
Evans, T. (2004) How Green is Silicon Valley? Ecological Sustainability and the High-tech Industry.
Berkeley Planning Journal. Vol. 17. No. 1. pp. 109–131.
Facanha C. & Horvath A. (2005) Environmental Assessment of Logistics Outsourcing. Journal of Management in Engineering. Vol. 21. No. 1. pp. 27–37.
Hageluken C. & Corti C. (2010) Recycling of gold from electronics: Cost-effective use through “Design for
Recycling.” Gold Bulletin. Vol. 43. No. 3. pp. 209–220.
International Standards Organization (2011) ISO 14000 Essentials. [On Line] Retrieved February 11, 2013
from http://www.iso.org/iso/iso_14000_essentials
International Standards Organization (2011a) ISO26000 – Social Responsibility [On Line] Retrieved February 11, 2013 from http://www.iso.org/iso/iso_catalogue/management_and_leadership_standards/
social_responsibility/sr_discovering_iso26000.htm
Khiewnavawongsa S. & Schmidt E. (2009). An Essay of Green Supply Chain Management in the Electronics Industry. Review of the Electronic and Industrial Distribution Industries. Vol. 8. No. 1. pp. 14–30.
Kleindorfer P., Singhal K., van Wassenhove L. (2005) Sustainable Operations Management. Production and
Operations Management. Vol. 14. No. 4. pp. 482–492.
Man R. de & Burns Tom R. (2006) Sustainability: Supply chains, partner linkages, and new forms of selfregulation. Human Systems Management. Vol. 25. No. 1. pp. 1–12.
NMO (2011) What is RoHS? National Measurement Office [On Line]. Retrieved February 11, 2013 from
http://www.bis.gov.uk/nmo/enforcement/rohs-home.
Neto J., Walther G., Nunen B. & Spengler T. (2010) From closed-loop supply chains: the WEEE case.
International Journal of Production Research. Vol. 48. No. 15. pp. 4463–4481.
Panayioutou N., Aravossis K. & Moschou P. (2009) A New Methodology Approach for Measuring Corporate Social Responsibility Performance. Water Air Soil Pollut: Focus. Vol. 9. No. 1 & 2. pp. 129–138.
Pfeffer J. (2010) Building Sustainable Organizations: The Human Factor; Academy of Management Perspectives. Vol. 24. No. 1. pp. 34 – 45.
Preuss L. (2005) The Green Multiplier A Study of Environmental Protection and the Supply Chain. New
York. Palgrave MacMillan.
Sarkis J., Helms M. M. & Hervani A. (2010) Reverse Logistics and Social Sustainability. Corporate Social
Responsibility and Environmental Management. Vol. 17. No. 6. pp. 337–354.
Shukla A, Deshmukh S.G. & Kanda A. (2010) Flexibility and Sustainability of Supply Chains: Are they
Together. Global Journal of Flexible Systems Management. Vol. 11. No.1 & 2. pp. 25–38.
Tamiotti L., Teh R., Kulacoglu V., Olhoff A., Simmons B., & Abaza H (2009) Trade and Climate Change
WTO-UNEP Report. World Trade Organization. Geneva. WTO Publications.
Terra Choice Marketing (2009) ecoMarkets Summary Report. Terra Choice Environmental Marketing Inc.
Retrieved February 11, 2013 from http://www.terrachoice.com
Trowbridge P. (2001) A Case Study of Green Supply-Chain Management at Advanced Micro Devices;
Greener Management International (July). Greenleaf Publishing. Vol. 35. pp. 121–135.
242
Mark Morrissey, Anshuman Khare
Tsai W., Hung S. (2009) A fuzzy goal programming approach for green supply chain optimization under
activity-based costing and performance evaluation with a value chain structure. International Journal of
Production Research. Vol. 47. No. 18. pp. 4991–5017.
Vachon S. (2007) Green supply chain practices and the selection of environmental technologies. International Journal of Production Research. Vol. 45 No. 18–19. pp. 4357– 4379.
Vachon S. & Klassen R.D. (2007) Supply chain management and environmental technologies: the role of
integration. International Journal of Production Research. Vol. 45. No. 2. pp. 401–423.
Walker J. C. (2011) RoHS Recast. SMT Magazine (February). pp. 18–24.
White B. (2000) Dissertation Skills for Business and Management Students. Thomson Learning. Singapore.
Interorganizational Learning between Convergence
and Cospecialization – A Knowledge-Based Typology of
Strategic Alliances
Dietrich von der Oelsnitz, Marcus Lorenz
1
Introduction
Strategic alliances have fascinated academic research throughout the last decades. As a
dominant transactional form, they can create substantial firm value through the transfer,
recombination and creation of knowledge. Few firms, however, excel at managing their
strategic alliances successfully (Parise and Casher 2003). This is one reason why academic
research emphasizes that a superior alliance capability can contribute to a firm-level
competitive advantage (Hoang and Rothaermel 2005; Kale and Singh 2007; Simonin
1997). Anand and Khanna (2000), for example, found that firms with a dedicated alliance
function achieved higher alliance performance as measured in stock market responses. By
developing capabilities to manage alliances, firms can learn to find the right partner, set
adequate goals, contract or mitigate hazards.
Research on strategic alliances has been curious about a firm’s ability to absorb the partners knowledge (Cohen and Levinthal 1990; Lane and Lubatkin 1998) and the elements of
alliance capability, which is the ability to manage a single alliance successfully (Kale and
Singh 2007; Schilke and Goerzen 2010). Yet, little is known whether different types of
alliances equally benefit from alliance mechanisms. Moreover, several researches
witnessed the positive effects of partnerships on the innovative performance (Nooteboom et
al. 2007; Rosenkopf and Almeida 2003). Nonetheless, we still lack answers about the learning mechanisms that take place within different types of alliances (Al-Laham et al. 2010).
This shortcoming is also stressed by Larsson et al. (1998, p. 298): “While strategic
alliances are increasingly being studied quantitatively, few surveys focus on the
interorganizational learning that occurs in them”. Especially, the effect of a learning
alliance on the post-alliance knowledge base overlap of the partner firms has received little
attention so far. The alliance-as-learning thesis predicts that the overlap of alliance partners’ knowledge bases will increase over time. Yet, Mowery et al. (1996) and Nakamura et
al. (1996) could not observe a significant overall trend towards convergence. To the
contrary, in some alliances the knowledge bases even diverged. Consequently, Mowery et
al. (1996, p. 89) considered that “the ‘learning’ that takes place within alliances thus
appears to be more complex than most of the literature on this topic suggests“. Building a
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_18,
© Springer Fachmedien Wiesbaden 2013
244
Dietrich von der Oelsnitz, Marcus Lorenz
knowledge-based typology of strategic alliances, we explore how different alliance types
affect the partners’ knowledge bases and the consequences for the alliance management.
2
Learning in Strategic Alliances
The knowledge based view emphasizes strategic alliances as an important tactic for organizational learning. A number of scholars have stressed the use of alliances by firms to
acquire technology-based capabilities from alliance partners (Dussauge et al. 2000;
Simonin 1999). Knowledge acquisition occurs as soon as one firm receives knowledge
from a partner and incorporates it into its own knowledge base. In order to understand the
knowledge they want to absorb, firms require prior related knowledge (Cohen and
Levinthal 1990). If the cognitive distance between the partners’ knowledge is low and the
existing cognitive structures prove sufficient, knowledge can be relatively easily
assimilated (Zahra and George 2002). According to Nooteboom et al. (2007), we will interpret the cognitive distance between two firms in the following as the relatedness of the
technological bases.
Excessive cognitive similarity even limits innovation opportunities, as there is little left to
learn about. If the cognitive distance is high (e.g. a partnership with a company outside the
own industry), a firm has to transform its cognitive structures to some extent in order to
absorb the new knowledge. Through the alteration of its cognitive schemes, the company
may discover new opportunities to explorative activities. If the cognitive distance is too
high, however, bridging the knowledge gap may even prove impossible. After all,
collaborations provide the greatest learning potential if partners possess similar basic
knowledge but differ in specialized fields (Lane and Lubatkin 1998).
Although it seems to be reasonable to interpret strategic alliances as a vehicle for learning, Grant and Baden-Fuller (2004) have argued that knowledge access, rather than
inward knowledge transfer, might be the primary motivation for knowledge-based
alliances. An example for such a cooperation is the partnership between Daimler-Benz and
Swatch, which was built to design the “Smart”. The alliance was not formed to absorb the
partners’ knowledge, but to “create value through combining their separate knowledge bases” (Grant and Baden-Fuller 2004, p. 65). The purpose is not to ‘gain’ knowledge from the
other, but to compose specialized knowledge in order to set up cooperative specialization.
This tendency arises from the limited cognitive capabilities of a firm. Because the cognitive
capabilities are limited, learning from what others know would undermine gains from
specialized knowledge (Grant and Baden-Fuller 2004). If each company focuses on its area
of specialization while having access to external knowledge, it allows leveraging
comparative advantages across firms. Thus, having access to cospecialized knowledge outside the own boundaries, firms may increase their efficiency by minimizing cross-learning
(Grunwald and Kieser 2007). To get access to each other’s knowledge, both partners must
contribute a selected part of their knowledge to the strategic alliance. A joint venture based
on a combined stock of specialized knowledge enables both parties to reach a goal that
would have been out of reach individually (Buckley et al. 2009).
Interorganizational Learning between Convergence and Cospecialization
3
245
The concept of shared mental models
While most researchers emphasize the role of resources and dynamic capabilities for the
success of strategic alliances, the resource-based view does not provide any insights as to
which mechanisms may lead to successful integration of partners’ resources. Because of
this shortcoming, an emerging research stream emphasizes the role of social interactions
and cognitive processes on alliance performance (e. g. Dyer and Singh 1998; Gulati 1999;
Kale et al. 2000). This research stream does not view the lack of complementary resources
as the primary reason for alliance failure, but rather the inherent vice of knowledge-sharing
routines, decision-making processes, operating systems as well as incompatible cultures
(Nahapiet and Ghoshal 1998; Parkhe 1991).
Similar resources do not necessarily facilitate the interaction between two companies. In
order to recognize and absorb each other’s knowledge, the two firms must also think and
behave in similar ways. Only common interpretations, institutional values and routines,
which can be fostered by intensive face-to-face communication or cross-training, reduce the
threat of misunderstandings (Saxton 1997). For example, Dyer and Nobeoka (2000)
showed that Toyota was able to develop a successful knowledge creation network by
implementing knowledge sharing routines among its supplier network. Hence, while
complementary resources are the primary base for the formation of new relationships, the
success of the exchange is strongly influenced by social factors (Gulati 1999; Mesquita et
al. 2008). Because most firms build their knowledge in combination with internal and
external resources, they must build a shared understanding to acquire external knowledge
(Collins and Hitt 2006; Dyer and Singh 1998). By building norms of cooperation and
reciprocity, the parties are more willing to share knowledge with each other. We will term
this common ground between two or more organizations ‘shared mental models’.
According to Lord and Emrich (2001 p. 552) shared mental models are defined as “a
socially constructed understanding of the world derived from social exchanges and interactions among multiple individuals in a group or organization”. In the context of
interorganizational collaboration, compatible mental models help to build trust to guide
interactions across firm-boundaries. The establishment of shared mental models represents
an iterative process whereby the partners learn to trust and at the same time learn to learn
together. Thus, frequent and intense interaction is the fundamental driver of this process.
As mutual trust and openness develops, the intention to cooperate and follow compatible
goals is encouraged (Doz 1996). In a system, where information is distributed through
social interaction and across firm boundaries, knowledge can then be synthesized into an
emergent whole and accessed when needed. Henderson (1994) provides evidence for the
pharmaceutical industry that fostering extensive social exchange in a network helped firms
to identify and adopt external knowledge more successfully. Consequently, building shared
mental models becomes even more important as they facilitate knowledge transfer through
the development of a shared perspective which helps to interpret the partners’ knowledge
and solve conflicts. Beyond that, trust and reciprocity can enhance the willingness to teach
(Szulanski 1996) and counterbalance the diversity among partners.
246
4
Dietrich von der Oelsnitz, Marcus Lorenz
Strategies of interorganizational learning
An important reason for ineffective alliances is the firms’ poor understanding of learning
dynamics within a partnership. Firms often fail to recognize the existence of asymmetric
incentives to enter into an alliance, leading to different learning strategies of the partners. In
respect to the competition-cooperation dilemma in strategic alliances, literature on
interorganizational learning distinguishes three types of learning strategies: unilateral,
reciprocal and relational learning. In the following, these three types of learning will be
described based on the factors transparency and receptivity. In this paper the term
interorganizational learning refers to any addition to a firm’s set of capabilities obtained
through interaction with alliance partners.
4.1 Unilateral Learning
Lacking the capabilities required to accomplish a certain task in-house, firms may use
alliances as a shortcut to achieve the strategic object. Since alliances are often formed
between competitors, firms may try to internalize their partners’ know-how as quickly as
possible while simultaneously protecting its own competencies (Child 2003; Hamel 1991).
Once a firm has learned enough from its partner, it can dissolve the partnership and switch
back to its traditional way of developing capabilities in-house. The partnership may even
take the form of a learning race, as each firm seeks to absorb the partner’s knowledge as
fast as possible (Hamel 1991; Khanna et al. 1998). Accordingly, unilateral learning implies
a high receptivity and low transparency. Actors following this aggressive learning strategy
may achieve a positive balance of knowledge trade in the short run, yet they are likely to
lose their reputation in the overall network over time, making it difficult to find new
alliance partners.
4.2 Reciprocal Learning
By focusing on the contributions of partners, the learning race view neglects the importance
of relational assets (Dyer and Singh 1998). Just as the former Ford president Philip Benton
states: “Learning to work together is so hard, it would be foolish to throw all that away
because you see another girl across the street” (Sherman 1992, p. 78), it takes relationspecific investments to facilitate knowledge transfer. Rather than viewing it as common
behavior, researchers tend to criticize the racing mindset as an exception of alliances gone
bad (Grant and Baden-Fuller 2004; Mowery et al. 1996). After all, successful alliances
require partners that care about each other’s learning (Hitt et al. 2000). These firms realize
that alliance success is a product of both partners achieving their goals.
If partners decide to follow a reciprocal learning strategy, the ratio of knowledge sharing
will be (almost) balanced. Consequently, reciprocal learning is based on a moderate to high
level of transparency and high receptivity (Larsson et al. 1998) where all the partners
involved actively try to utilize the partners’ complementary resources to compensate their
respective resource deficits. But before the firms are willing to exchange information,
especially when the exchange touches on their core knowledge, they want to make sure that
their sharing partner is trustworthy. Therefore, firms often choose for a reliable partner in
their local network.
Interorganizational Learning between Convergence and Cospecialization
247
4.3 Relational learning
As the alliance continues, the partners are not only able to transfer the partners’ know-how.
With increased trust and mutual understanding, the partners may also develop knowledge
sharing routines which enable them to recombine their resources in order to jointly create
new knowledge which is beneficial to all of them. Because of the relation-specific investments, the firms can create an additional rent, which could not be generated individually
and to which firms outside the network have no access (Lavie 2006). Accordingly, we label
a learning strategy in which the partners creatively synthesize their knowledge bases as
relational learning (Dyer and Singh 1998; Lubatkin et al. 2001).
Whereas the first two learning strategies require partners to act as either student or
teacher, relational learning requires partners to work together closely. Thus, the partners do
not only need to learn themselves and improve their respective knowledge base. In order to
leverage their distinctive knowledge, they also have to learn how to learn together. With
repeated joint actions, the partners may realize that either of them holds a potentially
important piece of the puzzle and that they can best attain their own strategic goals by working together towards some collective agenda.
5
A knowledge based typology of strategic alliances
Firms generally face the challenge of managing different types of alliances likely to impose
different demands on a firm’s alliance management capability (Buckley et al. 2009; Parise
and Casher 2003). Such differences stem primarily from two factors: the learning intent of
the allies and the strategic goal of the alliance. We identified four ideal types of learning
alliances. In order to further characterize each of these generic types of knowledge-based
alliances, we employ a framework which integrates the characteristics of the partners’
knowledge bases. The knowledge base of a firm comprises the technical characteristics X1,
X2,…, XN, which are required to transform inputs and labor into products (Saviotti 1996).
5.1 Type 1: “Learning Race”
In learning alliances, the primary objective is to learn from each other by transferring
existing knowledge. The desire to learn through an alliance is especially strong if the firms
want to acquire capabilities in order to discover new opportunities (Koza and Lewin 1998).
Thus, a learning race among alliance partners appears to be engendered by the presence of
learning opportunities. Although literature has been skeptical on the relevance of learning
races in practice, Hamel (1991) introduced an important concept to understand the dynamics of interorganizational learning by emphasizing a firm’s intention to learn the partners’
skills. Khanna et al. (1998) showed that learning races occur predominately in situations
where individual benefits prevail, offering rents that can be earned unilaterally by picking
up skills from the partner and applying them to activities outside the scope of the alliance.
Beside the direct absorption of knowledge, alliances may also be used as an option to get
access to expansion opportunities (Kogut 1991). Pharmaceutical firms, for example, often
collaborate with numerous biotechnology firms in one particular field of technology. If the
R&D activities of a partner were successful, the firm can internalize the knowledge by in-
248
Dietrich von der Oelsnitz, Marcus Lorenz
licensing or acquisition (Folta and O’Brien 2004). Comprising, if knowledge is transferred
in a learning race, the knowledge can help the recipient to expand its knowledge base. To
be challenged resp. confirmed in future research we propose: Firms following a unilateral
learning strategy will mostly broaden their knowledge bases (P 1).
The knowledge sharing will occur in the direction of the partner with the higher absorptive capacity (Khanna et al. 1998). Once a firm has learned enough from its partner, it has no
incentive to continue due to the costs of staying in the alliance. Consequently, the duration
and outcome depends on the relative absorptive capacity of the participating firms (Kumar
and Nti 1998; Lane and Lubatkin 1998). This can put considerable stress on the social
harmony between partners, preventing necessary relationship-specific investments. While
there has been considerable research on the characteristics of the learning partner (Hamel 1991; Kale and Singh 2007; Schilke and Goerzen 2010), little is known about the
characteristics of the teaching partner. However, as noted above, knowledge can flow with
greater ease from one to the other in cases of similar knowledge. Without prior knowledge,
firms are not able to evaluate the new information and, consequently, fail to absorb it. We
therefore propose that unilateral learning is only feasible under conditions of a rather low
cognitive distance between student and teacher. To be challenged resp. confirmed in future
research we propose: A unilateral learning strategy is only successful when the cognitive
distance between alliance partners is low (P 2).
Since the strategic goal in a learning race alliance is to absorb specific knowledge in order to fill a gap in one’s own knowledge base, firms often team up with partners specialized
in a certain field. Thus, it takes only one shirking partner to cause failure for the venture
since the partner cannot compensate for the efforts if one firm fails to commit the necessary
resources. This may lead the collaborators to commit fewer resources (Amaldoss and
Staelin 2010), limiting the relative size of the alliance and thereby the alliance outcome
(Inkpen and Beamish 1997). In addition, firms create new knowledge by amplifying the
knowledge their members hold. This requires intensive personal interaction and knowledge
sharing. However, a company following a unilateral learning strategy allows its partner
only very limited access to its resources, inhibiting the partners to achieve higher learning
rates. So we propose: Firms following a unilateral learning strategy will have higher
failure rates and lower performance rates (P 3).
249
Interorganizational Learning between Convergence and Cospecialization
Firm A
X1
:
XM
XN
X1
:
XM
XN
XO
Product A
Firm B
XN
XO
:
XY
XN
XO
:
XY
Product B
Figure 1:
Unilateral Learning
5.2 Type 2: “Link Alliance”
Link alliances are interfirm partnerships to which partners contribute different, but
complementary resources (Dussauge et al. 2000; Hennart 1988). This alliance type is
consistent with the terms „sequential alliances“ (Park and Russo 1996) or „X-form
coalitions“ (Porter and Fuller 1986). Thus, each member actively uses the alliance as a
vehicle for learning. Although each firm tries to protect its core knowledge assets, both
firms get access to the partner’s knowledge to at least some extent. An example for
reciprocal learning is the partnership between Siemens and Sony in the late 1990s. While
Siemens needed a small and powerful rechargeable battery for their cell phone S4, Sony
was looking for an attractive cell phone to access the fast growing market of GSM technology in Japan. With Sony having already developed a small lithium ion accumulator for
their camcorders, the competencies highly complemented each other. Pursuing a reciprocal
learning strategy - whether it be to engage in expansion opportunities or to gain skills
missing in the own company - will extend their scope of specialization by acquiring new
knowledge (Buckley et al. 2009). To be challenged resp. confirmed in future research we
suppose: Firms participating in a link alliance will broaden their knowledge bases (P 4).
In all alliances, the partners must learn to work together. However, if the two firms are
able to achieve a balanced knowledge transfer, the increased stability may even promote the
formation of a common language and shared understandings, thus lowering the interpretative barriers that characterize reciprocal learning relationships. As the alliance continues, the
partners will become more and more similar, decreasing the likelihood that partners have
something new to tell (Mowery et al. 1996). We propose: In a link alliance, the knowledge
bases of the partners will converge (P 5).
As reciprocal learning offers the opportunity to build up shared mental models, link
alliances offer an opportunity for knowledge transfer between firms with larger cognitive
250
Dietrich von der Oelsnitz, Marcus Lorenz
distance. Moreover, as the purpose of this alliance type is to assimilate and use new but
complementary resources, firms will have to search for partners with different cognitive
structures. On the other hand, if the cognitive distance is too large, the partners lack a
common ground which is needed to understand each other’s resources. Thus, the partners
should have some relatedness between their cognitive schemes but also different
knowledge and perspectives so that they can help each other to bridge and connect diverse
skills and knowledge (Nooteboom et al. 2007). This leads us to the following proposition:
Link alliances will be most successful when cognitive distance between the partners is moderate (P 6).
While the partners may create common benefits in the long run, the major goal of
reciprocal learning is primarily based on the creation of private benefits which gives both
collaborators an incentive for opportunistic behavior. This problem is also reinforced as
both allies not only help each other to strengthen their products; as the alliance facilitates
both to develop a permanent market presence, they may consequently grow to be direct
competitors. (Dussauge and Garrette 1999). Above that, as partner firms contribute
dissimilar resources, the ability to value each other’s contribution is limited (Dussauge et
al. 2000). Accordingly, although mutual trust is a key prerequisite for reciprocal learning,
the stability of the alliance remains crucial (Khanna et al. 1998). We propose: The stability
in closing gap alliances is relative low (P 7).
Firm A
X1
:
XL
XM
X1
:
XL
XM
XN
Product A
Firm B
XM
XN
:
XY
XL
XM
XN
:
XY
Product B
Figure 2:
Reciprocal Learning
5.3 Type 3: “Scale Alliance”
While the previous alliance types deal with the transfer of existing knowledge, the purpose
of scale alliances is to jointly create new knowledge. Scale alliances are defined as
alliances, in which the partners contribute similar resources for the same stage in the value-
Interorganizational Learning between Convergence and Cospecialization
251
chain with the aim at producing economies of scale for those activities that firms carry out
in the collaboration (Dussauge et al. 2000; Hennart 1988). This alliance type is otherplace
named „integrative alliance“ (Park and Russo 1996) or „Y-form coalition“ (Porter and Fuller 1986). In contrast to reciprocal learning, where partners act as either student or teacher,
scale alliances require each member to act as a co-researcher. This may lead similar partners to combine knowledge in ways they had not previously explored and to discover novel
combinations within their specialized field of knowledge. Thus, the strategic goal is to
maintain or enhance the position in core business, leading to a focused expansion and
deepening of the knowledge base (Hoffmann 2007). To be confirmed in future research we
propose: In scale alliances, the allies will deepen their knowledge bases (P 8).
Whereas firms face the choice of collaborating or waiving a new business opportunity in
link alliances, partnering firms in scale alliances face the choice of collaborating or going it
alone. In this context, Garrette et al. (2009) showed that weaker firms are rather likely to
use partnerships with direct competitors as a strategic tool to envision projects that would
otherwise be out of reach for them. In contrast to unilateral and reciprocal learning, a relational learning strategy cannot occur at the single-firm level, but at the alliance level. In order to learn together (e.g. developing a new technology) the partners must not only pool
their resources, but also learn how to leverage the benefits from greater quantities in a
specific field of knowledge (Lubatkin et al. 2001). To exploit the resources, the incumbents
must think and behave in similar ways. By iterating the work contexts, the allies can share
their tacit knowledge and develop better heuristics for problem solving. Building a shared
context gives rise to cooperative norms and trust which is conducive for open sharing,
feedback and constructive criticism. This does not merely require the capability and motivation of one partner but indeed of both parties.
The synthesis of knowledge taking place is in fact a resource allocation process to
accomplish a specific task in the value-chain. The knowledge profiles of the two firms will
consequently converge, as the partners substitute old, yet distinctive resources for the
jointly developed component. However, the convergence that takes place is different from
the convergence in reciprocal learning, as the allies won’t broaden their knowledge bases
but deepen their knowledge in the same field of specialization. Therefore, as shown in
figure 3, even if there is no knowledge spillover, the project will bring the participants
knowledge bases closer together. So we propose: In scale alliances, the knowledge bases of
the partners will converge. The convergence refers to the substitution of old resources for
the jointly created resources (P 9).
In scale alliances, collaborators earn both private and common benefits. Whereas the
common benefits flow from the joint output of the alliance, the private benefits accrue from
a firm’s ability to leverage its new knowledge outside the scope of the focal alliance. For
example, when General Motors, Daimler Chrysler and BMW jointly developed the hybrid
drive technology, each firm applied the new technology in different ways. Thus, as the
partners may be competitors outside the scope of the alliance, firms need to carefully balance the cooperative and competitive consequences of scale alliances. On the other hand,
scale alliances are especially formed by weaker competitors with the aim to survive. As a
result, the allies might be highly interdependent, as the goal of the project can only be
achieved when all partners contribute their resources. This leads us to the following propo-
252
Dietrich von der Oelsnitz, Marcus Lorenz
sition: The stability in scale alliances is, in relation to other alliance types, relatively high
(P 10).
Firm A
X1
:
XM
X2
:
XM
XZ
Product A
XM
:
XY
XM
:
XX
XZ
Product B
[XZ]
Firm B
Figure 3:
Relational Learning
5.4 Type 4: “Cospecialization Alliance”
Although cospecialization is important in practice, it has been mostly overlooked in
alliance research. Because of the rising cost of knowledge integration, this alliance type
seems to be especially fruitful in industries where products require a broad range of different knowledge. In contrast to other alliance types, its primary purpose is not to learn from
the partner but to configure and coordinate complementary assets and skills from
cospecialized partners (Doz and Hamel 1998). As shown in Figure 4, the partner firms
contribute knowledge to a focal unit. The new stock of combined knowledge can help both
firms to achieve a shared goal that is not attainable by them individually (Buckley et al.
2009; Dussauge and Garrette 1999). An example for this type of alliance is the multinational collaboration IAE International Aero Engines AG, formed by Pratt & Whitney, RollsRoyce, Japanese Aero Engine Corporation and MTU Aero Engines to produce the V2500
jet engine (Mowery et al. 2002). In this multinational collaboration, each of the aircraft
engine manufacturers specializes in a specific field to develop and manufacture the engine,
while simultaneously restricting information exchange among partners.
Because this alliance type is aimed at accessing rather than acquiring the partners
knowledge, the knowledge bases remain differentiated from each other (Lubatkin et al.
2001; Mowery et al. 1996; Nakamura et al. 1996). Although some cross-learning is still
required, the learning that takes place is more concerned with the management of the
alliance itself. For example, when necessary knowledge is not available in the project team,
the allies need to develop mechanisms in a kind of meta-learning to localize the needed
expertise within the alliance organization (Wegner 1995). The partners only need to learn
enough about the other’s resources to realize how to best link and leverage their respective
competencies. Consequently, the partners will concentrate on their respective activities,
leading to increased knowledge specialization and divergence of knowledge bases over
Interorganizational Learning between Convergence and Cospecialization
253
time (Doz and Hamel 1998). Therefore, the alliance will fail if there is no common goal
which directs the partners’ activities in the same direction (Lubatkin et al. 2001). So we
propose: In a cospecialization alliance, the partners’ knowledge bases will diverge over
time (P 11).
From a static point of view, cooperative specialization saves one firm from having to
duplicate what another firm already knows. Therefore, cooperative specialization can be
used at low marginal cost for exploitation activities (March 1991). From a dynamic point of
view, exchanging capabilities allows each firm to specialize its development and to support
strategies of joint exploration. The results, however, may be quite distinct from other
alliance types. Whilst accessing knowledge from external partners, firms may indeed
unlearn specific skills in technological areas ceded to the partner firm (Al-Laham et al.
2010; Mowery et al. 2002). This is especially true if the underlying technology is highly
modular, thereby allowing specialization in different bodies of knowledge without extensive knowledge transfer (Sanchez and Mahoney 1996). Thus, the ability to coordinate a network of specialists as system integrator becomes important in industries where products
require the integration of many components with different knowledge embodied, like automobiles or airplanes. We propose: A high involvement in cospecialization alliances will
lead to a decrease in the focal firm’s knowledge base (P 12).
Although cospecialized alliances entail the set-up of alliance-specific routines and may
possibly put firms at risk of hold-up (Gimeno 2004; Santoro and McGill 2005), we propose
that cospecialized alliances are more stable than scale or link alliances as cospecialized
alliances need both firms to specialize on a specific task and cross-learning is limited to the
interfaces of the modules. The synthesis of knowledge that takes place is a resource
allocation process designed to accomplish the alliance task. Thus, this alliance type only
creates common benefits and no private benefits. Consequently, no party has an incentive
to race. Additionally, when the product can be decomposed into relatively independent
components, well established shared mental models even facilitate the establishment of
cospecialized alliances in the event of technical distance, thus decreasing the risk of
knowledge spillovers. This leads us to the last proposition: In comparison to other alliance
types, the stability in a cospecialization alliance is high (P 13).
Figure 4:
Knowledge Application
254
Dietrich von der Oelsnitz, Marcus Lorenz
Table I: Effects of different alliance types on knowledge bases and partner benefits
Alliance Type
Learning Race
Link Alliance
Scale Alliance
Co-specialization
Cooperation / Competition
Competition
Coopetition
Coopetition
Cooperation
Knowledge base
Broadening
Broadening
Deepening
Deepening
Benefits
Private
Private
Private
&
Common
Common
6
Conclusion
The increasing complexity of technologies as well as shorter product life cycles have led to
a more intense competition in many industries. Also, the growing knowledge convergence
has led to a higher number of knowledge components from different areas being incorporated into a single product. These factors have encouraged companies to search for
complementary resources outside their firm boundaries. While the primary trend in the last
two decades has been on refocusing on core activities, access to new and unrelated
knowledge from distant areas becomes increasingly important (Grant and Baden-Fuller
2004). Thus, firms must balance between divergence, which creates variance for knowledge
creation, and convergence, which selects and synthesizes activities. The need to consider
learning and cospecialization as two distinctive access modes to external knowledge poses
significant challenges to the management of alliances as many firms often invest
simultaneously in multiple alliances. Thus, alliance managers need to pay attention to potential interactions among these investments (Vassolo et al. 2004).
Clearer differing the motives of knowledge-based alliances in transfer of existing
knowledge, joint creation of new knowledge and access to others knowledge offers new
insights in explaining different alliance outcomes. Learning races and unintended
knowledge leakage might only occur if one or both partners follow a unilateral learning
strategy and the cognitive distance between the partners is low. In contrast, complementary
knowledge accession and joint knowledge creation will exert less pressure on the alliance,
since the success of the alliance highly depends on the contributions of both allies.
Furthermore, we highlighted the importance to build shared mental models (e.g. crosstrainings, interfirm employee transfers) before attempting to leverage external knowledge
in scale alliances and cospecialization alliances. While some degree of organizational
ability to learn from the partner is essential in each alliance type, we showed that firms will
mostly benefit from building partner-specific routines if the partners jointly create new
Interorganizational Learning between Convergence and Cospecialization
255
knowledge or apply existing knowledge in order to achieve a common goal. To sum up and
point out, we proposed thirteen hypothesis for further research to challenge.
What are the management conclusions? Managing alliances means managing
relationships of different nature with different partners, leading to different problems and
outcomes on the firm and alliance level. Understanding the routes of different alliance
outcomes allows a better insight into the specific challenges associated with each type of
cooperation. Since the performance of collaborations has often fallen short for expectations,
one reason may be that firms treat alliances as homogeneous phenomena (Bamford and
Ernst 2002).
Our framework may help to understand the different impacts of different alliance types.
In scale alliances, for example, when the allies pool similar resources to increase the scale
of their innovation, one member can potentially compensate for the lack of effort or competence of another member of the group. The performance in link and cospecialization
alliances, in contrast, depends on each partner properly performing his own unique
subtasks, because no partner is able to pick up the slack if one of the partners shirks.
Furthermore, whereas the partner’s in link alliances are likely to gain additional knowledge,
cospezialisation forces the firms to cede certain activities to their alliance partners to reap
the benefits of complementary resources. As firms are reluctant to reduce control over resources and activities, it is likely to have a dampening effect on the alliance.
References
Al-Laham, A./Amburgey, T. L/Baden-Fuller, C. (2010): Who is my partner and how do we dance? Technological collaboration and patenting speed in US biotechnology, in: British Journal of Management, Vol.
21 No. 3: pp. 789–807.
Amaldoss, W./Staelin, R. (2010): Cross-function and same-function alliances: how does alliance structure
affect the behavior of partnering firms?, in: Management Science, Vol. 56 No. 2: pp. 302–317.
Anand, B. N./Khanna, T. (2000): Do firms learn to create value? The case of alliances, in: Strategic Management Journal, Vol. 21 No. 3: pp. 295–315.
Bamford, J./Ernst, D. (2002): Managing an alliance portfolio, in: The McKinsey Quarterly, Vol. 3 No. 8:
pp. 25–35.
Buckley, P. J./Glaister, K. W./Klijn, E./Tan, H. (2009): Knowledge accession and knowledge acquisition in
strategic alliances: the impact of supplementary and complementary dimensions, in: British Journal of
Management, Vol. 20 No. 4: pp. 598–609.
Child, J. (2003): Learning through strategic alliances, in: Child, J./Dierkes, M./Nonaka, J. (eds.): Handbook
of organizational learning and knowledge, Oxford University Press, New York, NY, pp: 657–680.
Cohen, W. M./Levinthal, D. A. (1990): Absorptive capacity: a new perspective on learning and innovation,
in: Administrative Science Quarterly, Vol. 35 No. 1: pp. 128–152.
Collins, J. D./Hitt, M. A. (2006): Leveraging tacit knowledge in alliances: the importance of using relational capabilities to build and leverage relational capital, in: Journal of Engineering and Technology Management, Vol. 23 No. 3: pp. 147–167.
Doz, Y. (1996): The evolution of cooperation in strategic alliances: initial conditions or learning processes?,
in: Strategic Management Journal, Vol. 17 (Summer Special Issue): pp. 55–83.
Doz, Y./Hamel, G. (1998): Alliance advantage – the art of creating value through partnering, Harvard Business School Press, Boston, MA.
256
Dietrich von der Oelsnitz, Marcus Lorenz
Dussauge, P./Garrette, B. (1999): Cooperative strategy – competing successfully through strategic alliances,
Wiley, Chichester.
Dussauge, P./Garrette, B./Mitchell, W. (2000): Learning from competing partners: outcomes and durations
of scale and link alliances in Europe, North America and Asia, in: Strategic Management Journal, Vol.
21 No. 2: pp. 99–126.
Dyer, J. H./Nobeoka, K. (2000): Creating and managing a high-performance knowledge-sharing network:
the Toyota case, in: Strategic Management Journal, Vol. 21 No. 3: pp. 345–67.
Dyer, J. H./Singh, H. (1998): The relational view: cooperative strategy and sources of interorganizational
competitive advantage, in: Academy of Management Review, Vol. 23 No. 4: pp. 660–79.
Folta, T. B./O’Brian, J. (2004): Entry in the presence of dueling options, in: Strategic Management Journal,
Vol. 25 No. 2: pp. 121–38.
Garrette, B./Castañer, X./Dussauge, P. (2009): Horizontal alliances as an alternative to autonomous production: product expansion mode choice in the worldwide aircraft industry 1945–2000, in: Strategic Management Journal, Vol. 30 No. 8: pp. 885–894.
Gimeno, J. (2004): Competition within and between networks: the contingent effect of competitive
embeddedness on alliance formation, in: Academy of Management Journal, Vol. 47 No. 6: pp. 820–842.
Grant, R. M./Baden-Fuller, C. (2004): A knowledge accessing theory of strategic alliances, in: Journal of
Management Studies, Vol. 41 No. 1: pp. 61–84.
Grunwald, R. and Kieser, A. (2007): Learning to reduce interorganizational learning: an analysis of architectural product innovation in strategic alliances, in: The Journal of Product Innovation Management,
Vol. 24 No. 4: pp. 369–391.
Gulati, R. (1999): Network location and learning: the influence of network resources and firm capabilities
on alliance formation, in: Strategic Management Journal, Vol. 20 No. 5: pp. 397–420.
Hamel, G. (1991): Competition for competence and inter-partner learning within international strategic
alliances, in: Strategic Management Journal, Vol. 12 Summer Special Issue: pp. 83–103.
Henderson, R. M. (1994): The evolution of integrative capability: innovation in cardiovascular drug discovery, in: Industrial and Corporate Change, Vol. 3 No. 3: pp. 607–630.
Hitt, M. A./Dacin, M. T./Levitas, E./Arregle, J. L./Borza, A. (2000): Partner selection in emerging and
developed market contexts: resource-based and organizational learning perspectives, in: Academy of
Management Journal, Vol. 43 No. 3: pp. 449–467.
Hoang, H./Rothaermel, F. T. (2005): The effect of general and partner-specific alliance experience on joint
R&D project performance, in: Academy of Management Journal, Vol. 48 No. 2: pp. 332–345.
Hoffmann, W. H. (2007): Strategies for managing a portfolio of alliances, in: Strategic Management Journal, Vol. 28 No. 8, pp: 827–856.
Inkpen, A. C./Beamish, P. W. (1997): Knowledge, bargaining power, and the instability of international
joint ventures, in: Academy of Management Review, Vol. 22 No. 1: pp. 177–202.
Kale, P./Singh, H. (2007): Building firm capabilities through learning: the role of the alliance learning process in alliance capability and firm-level alliance success, in: Strategic Management Journal, Vol. 28 No.
10: pp. 981–1000.
Kale, P./Singh, H./Perlmutter, H. (2000): Learning and protection of proprietary assets in strategic alliances: building relational capital, in: Strategic Management Journal, Vol. 21 No. 2: pp. 217–237.
Khanna, T./Gulati, R./Nohria, N. (1998): The dynamics of learning alliances: competition, cooperation, and
relative scope, in: Strategic Management Journal, Vol. 19 No. 3: pp. 193–210.
Kogut, B. (1991): Ventures and the option to expand and acquire, in: Management Science, Vol. 37 No. 1:
pp. 19–33.
Interorganizational Learning between Convergence and Cospecialization
257
Koza, M. P./Lewin, A. (1998): The co-evolution of strategic alliances, in: Organization Science, Vol. 9 No.
3: pp. 255–264.
Kumar, R./Nti, K. O. (1998): Differential learning and interaction in alliance dynamics: a process and outcome discrepancy model, in: Organization Science, Vol. 9 No. 3: pp. 356–367.
Lane, P. J./Lubatkin, M. (1998): Relative absorptive capacity and interorganizational learning, in: Strategic
Management Journal, Vol. 19 No. 5: pp. 461–477.
Larsson, R./Bengtsson, L./Kenrikson, K./Sparks, J. (1998): “The interorganizational learning dilemma: collective knowledge development in strategic alliance“, in: Organization Science, Vol. 9 No. 3: pp. 285–305.
Lavie, D. (2006): The competitive advantage of interconnected firms: an extension of the resource-based
view, in: Academy of Management Review, Vol. 31 No. 3: pp. 638–658.
Lord, R. G./Emrich, C. G. (2001): Thinking outside the box by looking inside the box: extending the cognitive revolution in leadership researc, in: Leadership Quarterly, Vol. 11 No. 11: pp. 551–579.
Lubatkin, M. H./Florin, J./Lane P. (2001): Learning together and apart: a model of reciprocal interfirm
learnin, in: Human Relations, Vol. 54 No. 10: pp. 1353–1382.
March, J. G. (1991): Exploration and exploitation in organizational learning, in: Organization Science, Vol.
2 No. 1: pp. 71–87.
Mesquita, L. F./Anand, J./Brush, T. H. (2008): Comparing the resource-based and relational views:
knowledge transfer and spillover in vertical alliances, in: Strategic Management Journal, Vol. 29 No. 9:
pp. 913–941.
Mowery, D. C., Oxley/J. E. and Silverman, B. S. (1996): Strategic alliances and interfirm knowledge transfer, in: Strategic Management Journal, Vol. 17 No. 1: pp. 77–91.
Mowery, D. C./Oxley, J. E./Silverman, B. S. (2002): The two faces of partner specific absortive capacity:
learning and cospecialization in strategic alliances, in: Contractor, F. J./Lorange, P. (eds.): Cooperative
strategies and alliances, Elsevier, Oxford.
Nahapiet, J./Ghoshal, S. (1998): Social capital, intellectual capital, and the organizational advantag“, in:
Academy of Management Review, Vol. 23 No. 2: pp. 242–266.
Nakamura, M./Shaver, J. M./Yeung, B. (1996): An empirical investigation of joint ventures dynamics:
evidence from U.S.-Japan joint ventures, in: International Journal of Industrial Organization, Vol. 14 No.
4: pp. 521–541.
Nooteboom, B./Vanhaverbeke, van W./Duysters, G./Gilsing, V./Oord, den A. (2007): Optimal cognitive
distance and absorptive capacity, in: Research Policy, Vol. 36 No. 7: pp. 1016–1034.
Parise, S./Casher, A. (2003): Alliance portfolios: designing and managing your network of business-partner
relationships, in: Academy of Management Executive, Vol. 17 No. 4: pp. 25–39.
Park, S. H./Russo, M. V. (1996): When competition eclipses cooperation: an event history analysis of joint
venture failure, in: Management Science, Vol. 42 No. 6: pp. 875–890.
Parkhe, A. (1991): Interfirm diversity, organizational learning, and longevity in global strategic alliances,
in: Journal of International Business Studies, Vol. 22 No. 4: pp. 579–601.
Porter, M. E./Fuller, M. B. (1986): Coalitions and global strategy, in: Porter, M. E. (ed.): Competition in
Global Industries, Harvard University Press, Boston.
Rosenkopf, L./Almeida, P. (2003): Overcoming local search through alliances and mobility, in: Management Science, Vol. 49 No. 6: pp. 751–766.
Sanchez, R./Mahoney, J. T. (1996): Modularity, flexibility, and knowledge management in product and
organizational design, in: Strategic Management Journal, Vol. 17 Winter Special Issue: pp. 63–76
Santoro, M. D./McGill, J. P. (2005): The effect of uncertainty and asset co-specialization on governance in
biotechnology alliances, in: Strategic Management Journal, Vol. 26 No. 13: pp. 1261–1269.
258
Dietrich von der Oelsnitz, Marcus Lorenz
Saviotti, P. (1996): Technological evolution, variety and the economy, Elgar, Cheltenham.
Saxton, T. (1997): The effects of partner and relationship characteristics on alliance outcomes, in: Academy
of Management Journal, Vol. 40 No. 2: pp. 443–462.
Schilke, O./Goerzen, A. (2010): Alliance management capability: an investigation of the construct and its
measurement, in: Journal of Management, Vol. 36 No. 5: pp. 1192–1219.
Simonin, B. L. (1997): The importance of collaborative know-how: an empirical test of the learning organization, in: Academy of Management Journal, Vol. 40 No. 5: pp. 1150–1174.
Simonin, B. L. (1999): Ambiguity and the process of knowledge transfer in strategic alliances, in: Strategic
Management Journal, Vol. 20 No. 7: pp. 595–623.
Sherman, S. (1992): Are strategic alliances working?, in: Fortune, September 21st: pp. 77–78.
Szulanski, G. (1996): Exploring internal stickiness: impediments to the transfer of best practices within the
firm, in: Strategic Management Journal, Vol. 17 Winter Special Issue: pp. 27–43.
Vassolo, R. S., Anand, J. and Folta, T. B. (2004): Non-additivity in portfolio of exploration activities: a real
options-based analysis of equity alliances in biotechnology, in: Strategic Management Journal, Vol. 25
No. 12: pp 1045–1061.
Wegner, D. M. (1995): A computer network model of human transactive memory, in: Social Cognition,
Vol. 13 No. 3: pp. 319–339.
Zahra, S. A./George, G. (2002): Absorptive capacity: a review, reconceptualization, and extension, in:
Academy of Management Review, Vol.27 No. 2: pp. 185–203.
Betriebswirtschaftslehre und Postwachstumsökonomik:
Einige Anmerkungen
Niko Paech
Wie können Unternehmen die absehbar eintretende Situation meistern, dass weitere Zunahmen des Bruttoinlandsproduktes (BIP) weder realistisch noch sinnvoll sind? Im Rahmen
dieses Beitrags soll zunächst auf die Essenz zeitgenössischer Wachstumslogiken eingegangen werden. Sodann wird der Blick auf die Postwachstumsökonomik als neue Teildisziplin
der Wirtschaftswissenschaften gerichtet. Daran anknüpfend wird die These untermauert,
dass eine absolute ökologische Entkopplung wirtschaftlichen Wachstums systematisch
nicht möglich ist. Maßnahmen zur Überwindung des zeitgenössischen Wachstumsdogmas
können hier nur ohne Anspruch auf Vollständigkeit bearbeitet werden, aber zumindest
insoweit, als sie aus betriebswirtschaftlicher Sicht von Belang sind.
1
Eine kleine Geschichte des Wachstums
In seiner „Philosophie des Geldes“ hat der deutsche Philosoph und Soziologe Georg Simmel (1900) einprägsam den Zusammenhang zwischen Wachstum und Fortschritt beschrieben. Bis zur Kopernikanischen Wende war das abendländische Weltbild von der Vorstellung beherrscht, dass der Kosmos ein endliches Ganzes darstellt. Wenn nun aber die Dinge,
welche von vielen begehrt würden, nicht vermehrt werden könnten, so schreibt Simmel,
drohe unweigerlich eine „Menschheitstragödie der Konkurrenz“, die es kraft Fortschritts zu
überwinden gelte: „In dem Maße, in dem man weitere Substanzen und Kräfte aus dem noch
unokkupierten Vorrat der Natur in die menschliche Nutznießung hineinzieht“, so schreibt
Simmel, „werden die bereits okkupierten von der Konkurrenz um sie entlastet“. Damit
werden Konflikte zwischen Menschen in solche zwischen Mensch und Natur umgelenkt.
„Substanzieller“ Fortschritt besteht gemäß Simmel darin, die Natur mittels technischer
Möglichkeiten in ein Füllhorn zu verwandeln. Dieses epochale Unterfangen trägt schon
deshalb zur Zivilisierung der Menschheit bei, weil daran im Zuge einer umfassenden und
zusehends ausdifferenzierten Arbeitsteilung alle teilhaben können. Die damit vorgegebene,
geradezu universelle Entwicklungsrichtung – höher-schneller-weiter-besser-größerbequemer – bindet jene Kräfte, die andernfalls weniger harmlosen Zwecken dienen könnten. Friedlich vereint in geschäftiger Verwertung hackt eine Krähe der anderen kein Auge
aus, jedenfalls solange genug für alle da ist.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_19,
© Springer Fachmedien Wiesbaden 2013
260
Niko Paech
Sollten die Ressourcenquellen je versiegen und schließlich doch Verteilungskonflikte
drohen, könnten diese, so führt Simmel weiter aus, mittels „funktionalen“ Fortschritts vermieden werden. Dieser gründet auf einer modernen Geldwirtschaft, insbesondere den damit
entfachten Tauschvorgängen. Letztere ermöglichen den „Aufbau einer Welt, die ohne Streit
und gegenseitige Verdrängung aneigenbar ist, zu Werten, deren Erwerb und Genuss seitens
des einen den anderen nicht ausschließt, sondern tausendmal dem anderen den Weg zu dem
gleichen öffnet“. Das Tauschmedium Geld sorgt dafür, dass alle Dinge dorthin gelangen,
wo das Maximum des in ihnen schlummernden latenten Wertes genutzt werden kann. „Angenommen, die Welt wäre wirklich ‚weggegeben‘ und alles Tun bestünde in einem bloßen
Hin- und Herschieben innerhalb eines objektiv unveränderlichen Wertquantums, so bewirkte dennoch die Form des Tausches gleichsam ein interzellulares Wachstum der Werte“. Die
damit einhergehende Herausbildung neuer Motivstrukturen, Verflechtungen und effizienter
Arbeitsteilung bettet alles Soziale in ökonomische Beziehungen ein, schafft friedenstiftende
Bindungen. Mit anderen Worten: Wer Handelsbeziehungen zum beiderseitigen Nutzen
unterhält, führt (meistens) keine Kriege.
2
Postwachstumsökonomik
Inzwischen wird aus unterschiedlichen Gründen in Frage gestellt, dass die Wachstumsorientierung moderner Ökonomien fortgesetzt werden kann und sollte. Erstens, so wird argumentiert, scheitere weiteres Wachstum an absehbaren Ressourcenengpässen (Heinberg
2007), zweitens sei es nie ohne ökologische Schäden zu haben (Paech 2012), drittens verringere es nicht per se Verteilungsdisparitäten (Paech 2008) und viertens sorge es nach
Erreichen eines bestimmten Wohlstandsniveaus für keine Glückszuwächse (Layard 2005).
Basierend auf Forschungsaktivitäten an der Carl von Ossietzky Universität Oldenburg
wurden die Begriffe „Postwachstumsökonomik“ (als analytischer Rahmen) und „Postwachstumsökonomie“ (als konkreter ökonomischer Zukunftsentwurf) etwa 2006 in die
wissenschaftliche Nachhaltigkeitsdiskussion eingebracht. Seither widmen sich etliche Publikationen, Veranstaltungen und Netzwerke (VÖÖ, Netzwerk Wachstumswende, Netzwerk
Suffizienz, Transition Town-Bewegung etc.) dieser Themenstellung, wenngleich mit unterschiedlichen Akzenten und Konkretisierungsgraden. Die Postwachstumsökonomik lässt
sich in mancher Hinsicht als Weiterentwicklung einer ersten Welle wachstumskritischer
Darlegungen verstehen. Dazu zählen unter anderem Arbeiten von Kohr (1957), Mumford
(1967), Georgescu-Roegen (1971), Meadows (1972), Schumacher (1973), Illich (1973),
Daly (1977), Hueting (1980) und Gronemeyer (1988). Innerhalb einer zweiten Welle der
Wachstumsdebatte lassen sich Beiträge verorten, die unter anderem mit folgenden Begriffen bzw. Titeln assoziiert sind: „Ökosozialismus“ (Sakar 2001), „La decrescita felice“
(Pallante 2005), „Décroissance“ (Latouche 2006), „Degrowth“ (Martinez-Alliez 2009),
„Postwachstumsökonomie“ (Paech 2008, 2012), „Managing without Growth“ (Victor
2008), „Prosperity without Growth“ (Jackson 2009), „Vorwärts zur Mäßigung“ (Binswanger 2009), „Exit“ (Miegel 2010), „Plenitude“ (Schor 2010) oder „Postwachstumsgesellschaft“ (Seidl/Zahrnt 2010).
Vor diesem Hintergrund richtet die Postwachstumsökonomik den Blick als ökologisch
orientierte wirtschaftswissenschaftliche Teildisziplin auf drei Fragestellungen:
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
261
a. Welche Begründungszusammenhänge lassen erkennen, dass ein weiteres Wachstum des
Bruttoinlandsproduktes keine Option für das 21. Jahrhundert sein kann?
b. Was sind die Ursachen dafür, dass moderne, auf industrieller Fremdversorgung
basierende Volkswirtschaften einem Wachstumszwang unterliegen?
c. Was sind die Konturen einer Ökonomie jenseits des Wachstumszwangs (Postwachstumsökonomie)?
Abbildung 1:
Aufbau der Postwachstumsökonomik
Quelle: Eigene
Im Folgenden sollen die Entkopplungsproblematik und das „Peak Everything“-Phänomen
beleuchtet werden, weil es sich hierbei um Wachstumsgrenzen handelt, die aus betriebswirtschaftlicher Sicht besonders relevant sind.
3
Wachstumsgrenzen
3.1 Entkopplung
Zuwächse des Bruttoinlandsproduktes (BIP) setzen zusätzliche Produktion voraus, die als
Leistung von mindestens einem Anbieter und zu einem Empfänger übertragen werden muss
und einen Geldfluss induziert. Der Wertschöpfungszuwachs hat somit eine materielle Entstehungsseite und eine finanzielle Verwendungsseite des zusätzlichen Einkommens. Beide
Wirkungen wären ökologisch zu neutralisieren, um die Wirtschaft ohne Verursachung
zusätzlicher Umweltschäden wachsen zu lassen. Selbst wenn sich die Entstehung einer
geldwerten und damit BIP-relevanten Leistungsübertragung technisch jemals entmaterialisieren ließe – was mit Ausnahme singulärer Laborversuche bislang nicht absehbar ist –,
bliebe das Entkopplungsproblem solange ungelöst, wie sich mit dem zusätzlichen Ein-
262
Niko Paech
kommen beliebige Güter finanzieren lassen, die nicht vollständig entmaterialisiert sind.
Beide Seiten sollen im Folgenden kurz beleuchtet werden.
3.1.1 Entstehungsseite des BIP: Materielle Rebound-Effekte
Wie müssten Güter beschaffen sein, die als geldwerte Leistungen von mindestens einem
Anbieter zu einem Nachfrager übertragen werden, deren Herstellung, physischer Transfer,
Nutzung und Entsorgung jedoch aller Flächen-, Materie- und Energieverbräuche enthoben
sind? Bisher ersonnene Green Growth-Lösungen erfüllen diese Voraussetzung offenkundig
nicht, ganz gleich ob es sich dabei um Passivhäuser, Elektromobile, Ökotextilien, Photovoltaikanlagen, Bio-Nahrungsmittel, Offshore-Anlagen, Blockheizkraftwerke, Smart Grids,
solarthermische Heizungen, Cradle-to-cradle-Getränkeverpackungen, Carsharing, digitale
Services etc. handelt. Nichts von alledem kommt ohne physischen Aufwand, insbesondere
neue Produktionskapazitäten und Infrastrukturen aus. Könnten die grünen Effizienz- oder
Konsistenzlösungen den weniger nachhaltigen Output nicht einfach ersetzen, anstatt eine
materielle Addition zu verursachen? Um eine ökologisch entlastende Substitution zu erwirken, reicht es nicht aus, Outputströme zu ersetzen, solange dies mit zusätzlichen materiellen
Bestandsgrößen und Flächenverbräuchen (wie bei Passivhäusern oder Anlagen zur Nutzung
erneuerbarer Energien) erkauft wird. Die bisherigen Kapazitäten und Infrastrukturen müssten zudem beseitigt werden. Aber wie könnte die Materie ganzer Industrien und Gebäudekomplexe ökologisch neutral verschwinden?
Hinzu kommt ein zweites Dilemma: Wie kann das BIP dauerhaft wachsen, wenn jedem
grünen Wertschöpfungsgewinn ein Verlust infolge des Rückbaus alter Strukturen entgegenstünde? Dies lässt sich exemplarisch an der deutschen „Energiewende“ nachzeichnen. Zunächst entpuppen sich die momentan von der Green Growth-Gemeinde bestaunten Wertschöpfungsbeiträge der erneuerbaren Energien bei genauerer Betrachtung bestenfalls als
Strohfeuereffekt. Nachdem der vorübergehende Aufbau additiver Kapazitäten abgeschlossen ist, reduziert sich der Wertschöpfungsbeitrag auf einen Energiefluss, der vergleichsweise wenig Aufwand an wertschöpfungsträchtigen Inputs verursacht und nicht beliebig gesteigert werden kann – es sei denn, die Produktion neuer Anlagen wird ohne Begrenzung
fortgesetzt. Aber dann drohen weitere Umweltschäden: Die schon jetzt unerträglichen
Landschaftszerstörungen nähmen entsprechend zu, weil die materiellen Bestandsgrößen
expandieren. Daran zeigt sich die Problematik materieller Verlagerungseffekte: „Grüne“
Technologien lösen zumeist ohnehin keine ökologischen Probleme, sondern transformieren
diese nur in eine andere physische, räumliche, zeitliche oder systemische Dimension. Deshalb sind die Versuche, Entkopplungserfolge empirisch nachzuweisen, nur so brauchbar
wie es gelingt, alle Verlagerungseffekte zu berücksichtigen. Aber wie sollen beispielsweise
CO2-Einsparungen mit Landschaftszerstörungen saldiert werden?
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
263
3.1.2 Verwendungsseite des BIP: Finanzielle Rebound-Effekte
Selbst wenn entmaterialisierte Produktionszuwächse je möglich wären, müssten die damit
unvermeidlich korrespondierenden Einkommenszuwächse ebenfalls ökologisch neutralisiert werden. Aber es erweist sich als schlicht undenkbar, den Warenkorb jener Konsumenten, die das in den grünen Branchen zusätzlich erwirtschaftete Einkommen beziehen, von
Gütern freizuhalten, in deren (globalisierte) Produktion fossile Energie und andere Rohstoffe einfließen. Würden diese Personen keine Eigenheime bauen, mit dem Flugzeug reisen,
Auto fahren und übliche Konsumaktivitäten in Anspruch nehmen – und zwar mit steigender
Tendenz, wenn das verfügbare Einkommen wächst? Ein zweiter finanzieller ReboundEffekte droht, wenn grüne Investitionen den Gesamtoutput erhöhen, weil nicht zeitgleich
und im selben Umfang die alten Produktionskapazitäten zurückgebaut werden (die gesamte
Wohnfläche nimmt durch Passivhäuser zu, die gesamte Strommenge steigt durch Photovoltaikanlagen), was tendenzielle Preissenkungen verursacht und folglich die Nachfrage
erhöht. Es ist nicht einmal auszuschließen, dass davon der fossile Sektor mitprofitiert. Ein
dritter finanzieller Rebound-Effekt tritt ein, wenn Effizienzerhöhungen die Betriebskosten
bestimmter Objekte (Häuser, Autos, Beleuchtung etc.) reduzieren.
Theoretisch ließen sich diese Rebound-Effekte vermeiden, wenn sämtliche Einkommenszuwächse abgeschöpft würden – aber wozu dann überhaupt Wachstum: Was könnte absurder sein, als Wachstum zu erzeugen, um die damit intendierte Wirkung, nämlich Einkommenssteigerungen, im selben Moment zu neutralisieren? Die Behauptung, durch Investitionen in grüne Technologien könne Wirtschaftswachstum mit einer absoluten Senkung von
Umweltbelastungen einhergehen, ist also nicht nur falsch, sondern kehrt sich ins genaue
Gegenteil um: Aus der Perspektive finanzieller Rebound-Effekte haben grüne Technologien
allein unter der Voraussetzung eines nicht wachsenden BIPs überhaupt eine Chance, die
Ökosphäre zu entlasten. Und dies ist nicht einmal eine hinreichende Bedingung, weil die
materiellen Effekte – insbesondere die unzähligen Verlagerungsmöglichkeiten – auf der
Entstehungsseite ebenfalls einzukalkulieren sind.
Obendrein beschwört die Entkopplungsstrategie ein moralisches Problem herauf: Das
Schicksal der Menschheit würde auf Gedeih und Verderb von einem technischen Fortschritt
abhängig, der noch nicht eingetreten ist und dessen zukünftiges Eintreten unbeweisbar ist –
ganz zu schweigen davon, dass er womöglich mehr zusätzliche Probleme erzeugt, als er zu
lösen imstande ist. Ist ein solches Roulette, das nicht aus Not, sondern allein um der Mehrung eines schon jetzt überbordenden Wohlstandes willen erfolgt, verantwortbar?
3.2 Die materielle Basis weiteren Wachstums schwindet
Die auf permanenter Konsum- und Mobilitätssteigerung basierenden Ökonomien weisen
eine Achillesferse auf, nämlich den Aufwand an notwendigen Inputs, bei denen es sich um
fossile Energieträger und viele andere Ressourcen handelt. Mittlerweile vollzieht sich in
etlichen ehemaligen Entwicklungsländern eine „Konsumrevolution“ (Myers/Kent 2005).
Die Entstehung einer globalen Mittelschicht, erweitert um mehr als 1,1 Milliarden „neuer
Konsumenten“, treibt durch zusätzliche Güternachfrage die Rohstoffpreise nach oben.
Gerade weil die Versorgung auf immer längeren Lieferketten beruht, baumelt das nördliche
Konsummodell schicksalhaft an den dünnen Fäden der Versorgung mit billigem Öl. Inzwi-
264
Niko Paech
schen ist das irdische Fördermaximum („Peak Oil“) für konventionelles Rohöl erreicht.
Fatih Birol, Chefökonom der diesbezüglich chronisch optimistischen Internationalen Energieagentur (IEA), ließ jüngst verlauten, dass an Ölquellen vier neue Saudi-Arabien entdeckt
werden müssten, um das derzeitige Erdölangebot aufrechterhalten zu können.
Entscheidend ist nicht, ob die absoluten Fördermengen sinken, sondern um wie viel höher
die Nachfrage ist. Infolge einer rasant nachholenden Entwicklung in den Schwellenländern
trifft eine explodierende Nachfrage auf ein stagnierendes Angebot. Dies entfacht absehbar
eine Preisdynamik, welche zur Erosion der ökonomischen Basis weiteren Wachstums beiträgt. Die Möglichkeit, dass der Preis für ein Barrel Rohöl in näherer Zukunft auf über 200
US-Dollar steigt, wird mittlerweile selbst von der IEA nicht mehr ausgeschlossen. Hoffnungen darauf, dass der Peak Oil durch sog. „Fracking“ vermieden werden könnte, erweisen sich längst als trügerisch. Dies würde ohnehin bestenfalls einen kurzen Aufschub der
Eskalation gewähren.
Im Jahr 2010 sorgte eine Studie der Bundeswehr für Furore, welche die ökonomischen
Folgen des Peak-Oil-Phänomens auf den Punkt brachte. Von „ökonomischen Tipping
Points“ und „Kettenreaktionen“, die das Weltwirtschaftssystem destabilisieren, ist darin zu
lesen. Mittelfristig breche das globale Wirtschaftssystem und jede marktwirtschaftlich organisierte Volkswirtschaft zusammen. Ein Systemkollaps sei unumgänglich. Angesichts
seines Globalisierungsgrades resultiere daraus für Deutschland auch unabhängig von der
eigenen Energiepolitik ein hohes Risiko. Kein Wunder: Wenn die physische Herstellung
eines immer größeren Teils der hier konsumierten Güter in China, Indien und Co. erfolgt,
wäre die brenzlige Erdölabhängigkeit nicht einmal dadurch zu bändigen, dass hierzulande
die Blütenträume einer Energiewende umgesetzt würden.
Inzwischen mausert sich Peak Oil längst zum „Peak Everything“ (Heinberg 2007). Neben
knappen Ressourcen wie beispielsweise Lithium für Akkus, Neodym für getriebelose
Windturbinen oder Coltan für Handys tauchen „Seltene Erden“ in immer mehr Produkten
auf, die aus unserem täglichen Leben nicht mehr wegzudenken sind und von deren massenhafter Vermarktung sich moderne Ökonomien längst abhängig gemacht haben. Der Nachfragezuwachs ist auf innovative, zuweilen sogar „grüne“ Technologien zurückzuführen.
Mobiltelefone, Computer und Flachbildschirme können ohne Seltene Erden ebenso wenig
hergestellt werden wie LED-Lampen, Elektro- und Hybridautos. Ein Hybridfahrzeug enthält bis zu zwölf Kilogramm Seltene Erden. Bei hinreichendem Fremdversorgungsgrad
existiert kein gesellschaftliches Teilsystem, Produkt und Infrastrukturelement, welches
nicht wenigstens indirekt von fossilen Energieträgern, Seltenen Erden oder knappen Metallen abhängig ist.
Die Entfesselung ungeheurer Kaufkraftzuwächse infolge weltweit verzweigter, Kostendifferenzen abschöpfender Herstellungsketten wird folglich mit einer nie dagewesenen
Instabilität erkauft. Fremdversorgungsabhängigkeit maximiert das Risiko des sozialen Absturzes, etwa wenn Arbeitsplätze wegfallen, hohe Preise die Kaufkraft senken oder die
externe Zufuhr lebensnotwendiger oder kritischer Inputs ausbleibt. Die kommenden Finanz- und Verschuldungskrisen erledigen ein Übriges. Deshalb lässt sich der Nachhaltigkeitsbegriff zusehends als Anforderung an erhöhte „Resilienz“ auslegen. Damit sind Systemeigenschaften und Vorkehrungen gemeint, die den absehbaren Aufprall dämpfen. Auch
aus dieser Perspektive zeigt sich, dass sich der Rückbau des nicht zu stabilisierenden
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
265
Fremdversorgungsniveaus als unumgängliche Option erweisen könnte, um die inzwischen
erreichte Fallhöhe zu verringern.
4 Wachstumstreiber
Wenn von Wachstumszwängen, -treibern oder -imperativen die Rede ist, sollten diese nicht
mit Wachstumstheorien verwechselt werden. Erstere liefern Erklärungen dafür, warum
moderne, zumal industriell arbeitsteilige Versorgungssysteme ohne Wachstum ökonomisch
und sozial nicht zu stabilisieren sind. Letztere befassen sich damit, wie und auf Basis welcher Einflussfaktoren wirtschaftliches Wachstum zustande kommt. Im Folgenden geht es
um die Ersteren. Die Vielzahl jener Faktoren darzustellen, die als Wachstumstreiber zu
identifizieren wären, würde den vorliegenden Rahmen sprengen. Deshalb soll lediglich auf
zwei Grundmuster eingegangen werden, nämlich kulturell und strukturell induzierte
Wachstumsdynamiken, die sich nachfrageseitig bzw. angebotsseitig verorten lassen.
4.1 Kulturelle Wachstumstreiber
Unter welchen Bedingungen stiftet Konsum Glück? Undifferenziert lässt sich diese Schlüsselfrage schon angesichts des berühmten ersten Gossen’schen Gesetzes nicht beantworten.
Dem zufolge nimmt der Nutzen, den eine weitere Einheit eines Konsumgutes stiftet, mit
zunehmender Quantität ab. Dies beflügelt ständig neue Steigerungen der konsumtiven
Selbstentfaltungsoptionen durch qualitative Veränderungen. Die permanente Neuerfindung
der Konsumgesellschaft schützt vor Sättigungserscheinungen und Langeweile. Deshalb
erstreckt sich die horizontale und vertikale Expansion des Variantenreichtums auf Produkte,
Services, Erlebnisse, Reiseziele, virtuelle Welten, Wellness-Konzepte, die Optimierung des
eigenen Körpers oder – sollte die innovative Ideenflut ins Stocken geraten – auf inszenierte
Symbolaufladungen, mit denen alter Wein in neuen, nunmehr kulturell aufgewerteten
Schläuchen seinen Reiz entfalten kann.
Dennoch spricht einiges gegen die Binsenweisheit, dass eine konsumvermittelte Steigerung des individuellen Glücks nur eine Frage des Designs, ansonsten aber nach oben offen
ist. Die seit neuestem auch in den Wirtschaftswissenschaften viel beachtete „Glücksforschung“ (Layard 2005) führt zur Einsicht, dass eine Erhöhung des Pro-Kopf-Einkommens
nach Erreichen eines bestimmten Niveaus keinen weiteren Zuwachs an Glück stiftet. Eine
mögliche Begründung dafür lieferte bereits Hirsch (1976). Ihm zufolge ist der Nutzen vieler
Güter symbolischer oder demonstrativer Art, beruht also auf Distinktion, sozialem Prestige
oder der Zugehörigkeit zu einer bestimmten gesellschaftlichen Gruppe. Konsum ist somit
von einem Wettbewerb geprägt, in dem es um einen höheren Platz innerhalb der sozialen
Hierarchie geht und Gewinne für Einzelne nur durch die Verluste von anderen möglich
sind. Ein zunächst erheischter Vorsprung erodiert mit der Anzahl jener Personen, die zunächst übertroffen wurden, aber infolge weiteren Wachstums aufholen oder gleichziehen.
Bereits die Verteidigung, erst recht aber die Wiedererlangung oder gar Steigerung einer
sozialen Position, setzt somit ständig neue Kaufhandlungen voraus – ohne das eigene
Wohlbefinden erhöhen zu können. Folglich ist es kein Widerspruch, wenn einerseits an
permanenten Konsumsteigerungen festgehalten wird, obwohl anderseits im Nachhinein
festgestellt werden kann, dass dies zu keinem anhaltenden Glückszuwachs geführt hat.
266
Niko Paech
Die resultierende Dynamik ähnelt einer Rüstungsspirale, da ein immer höherer Konsumaufwand vonnöten ist, um ein bestimmtes, keineswegs steigerbares Glücksniveau aufrechtzuerhalten oder wiederzugewinnen. Mit jedem Wachstumsschub können bestimmte Konsumenten ihren Status verbessern, was sich zulasten der relativen Position anderer auswirkt.
Letztere werden damit zu Promotoren und zur politischen Rechtfertigung weiteren Wachstums, das benötigt wird, um deren Anspruch auf nachholende Steigerung der Fremdversorgung zu finanzieren. Dies ist die Basis einer – abgesehen von physischen Grenzen – nie
versiegenden Rückkopplungsdynamik, deren Ursache und Folge ökonomisches Wachstum
ist. Dabei tritt ein bestimmtes sozialpolitisches Verständnis zutage, nämlich dass eine für
wünschenswert erachtete soziale Angleichung durch die Ausweitung verfügbarer Möglichkeiten anzustreben ist.
Umverteilungsprobleme werden nach dieser Logik weit umschifft. Stattdessen sollen
ökonomische Zuwächse eine Verteilungsmasse generieren, mit der die Ansprüche der Zurückgebliebenen befriedigt werden, ohne den Gewinnern etwas nehmen zu müssen. So
werden soziale Belange in einen Wachstumsimperativ transformiert. In abstrakter Betrachtung kann diese Steigerungslogik als das dominante Entwicklungsprinzip moderner Konsumgesellschaften bezeichnet werden. Die nie versiegende Quelle für gesellschaftspolitischen Handlungsbedarf speist sich aus einer Aufdeckung sozialer Differenzen, die sodann
in den Imperativ ihrer Beseitigung durch zusätzliches Bewirken und Steigern transformiert
werden. So erhält politisches und wirtschaftliches Agieren eine nie zum Ende gelangende,
sich fortwährend selbst reproduzierende Legitimation. Genug ist eben nie genug: Wachstum erzeugt Differenzen, deren Beseitigung – ganz gleich auf welchem Niveau – neues
Wachstum notwendig macht.
4.2 Strukturelle Wachstumstreiber
4.2.1 Innovationswettbewerb als Wachstumsmotor
Die im ersten Abschnitt angesprochene Friedenstifterlogik wirtschaftlichen Wachstums hat
auch innerhalb der Dogmenhistorie des strategischen Managements deutliche Spuren hinterlassen. Was Schumpeter (1934) zu Beginn des vergangenen Jahrhunderts ausführlich
beschrieb, hat sich zu einem dominanten Wesenszug moderner Marktwirtschaften entwickelt: Die Konkurrenzbeziehungen zwischen Unternehmen lassen sich zu einem Gutteil als
Innovationswettbewerb darstellen. Demnach setzen sich innovative Unternehmen mittels
„neuer Kombinationen“ von der Konkurrenz ab und weichen damit dem üblicherweise
angenommenen Preiswettbewerb aus. Auf einen ähnlichen Zusammenhang haben auch
Chamberlin (1933) und Robinson (1933) hingewiesen. Durch die Nichtimitierbarkeit ihrer
Leistungen oder Produkte kann eine Unternehmung die auf sie entfallende Nachfrage zu
einem Preis bedienen, der überdurchschnittliche Profite erlaubt, zumindest kurzfristig. In
der Betriebswirtschaftslehre hat diese Strategieausrichtung, die auch als Eroberung oder
Erschließung einer „Nische“ aufgefasst werden kann, durch die Mitte der Achtziger Jahre
entstandene „Ressource-based View“ (Schulze 1994, Teece/Pisano/Shuen 1997, Wernerfeld 1984) eine neue theoretische Fundierung erhalten und als Gegenpol zur „Market-based
View“ einige Aufmerksamkeit erregt.
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
267
Unter plausiblen Annahmen kann diese Strategieausrichtung allerdings langfristig nur erfolgreich sein, wenn dadurch neue Nachfrage geweckt wird, d.h. Rivalität in Wachstum
transformiert wird. Würde nämlich um ein konstantes Quantum an Nachfrage konkurriert,
könnten weitere Innovatoren in den Markt eintreten, die ebenfalls unverwechselbar im
Sinne vertikaler oder horizontaler Differenzierung sind, und deshalb einen Teil der Nachfrage auf sich ziehen. Dieser Eintrittsprozess würde die Anzahl der Anbieter erhöhen und
damit schleichend deren durchschnittlichen Marktanteil verringern. Unter der Annahme
zunehmender Skalenerträge existiert eine Obergrenze für die Anzahl profitabel agierender
Marktteilnehmer. Sollten danach weitere Newcomer eintreten, wäre ein Verdrängungskampf mit anschließenden Marktaustritten die Konsequenz.
Die Möglichkeit, dass sich einzelne Anbieter diesem Mechanismus systematisch mit einer höheren Wahrscheinlichkeit entziehen können als andere, lässt sich ohne Ad-hocAnnahmen kaum begründen. Aus der Sicht eines einzelnen Unternehmens kann ex ante
keine Innovationsstrategie existieren, die sicherstellt, quasi automatisch das im Vergleich
zu Konkurrenten höchste „aquisitorische Potenzial“ zu erlangen, auf das andere Marktakteure nicht zugreifen könnten. Folglich kann die Differenzierungsstrategie nur dauerhaft
erfolgreich sein, wenn damit ein neues Marktsegment, d.h. zusätzliche Nachfrage generiert
wird, um die mit niemandem konkurriert werden muss. „Indeed, what is the meaning of the
word ‘niche’ but a position that is occupied to avoid competition“ (Mintzberg 1987, S. 15).
In manchen Situationen können sich bereits im Markt befindliche Firmen durch strategische Eintrittsbarrieren gegen nachfolgende Wettbewerber schützen. Aber diese zusätzliche
Option ändert an der für den vorliegenden Kontext entscheidenden Konsequenz nichts, im
Gegenteil: Abgeschottete Märkte lassen Newcomern erst recht keine andere Wahl, als eine
neue Nische zu erschließen und damit zusätzliche Nachfrage, folglich Wachstum zu generieren.
Unter der Annahme, dass Nichtimitierbarkeit ohnehin nur ein temporär aufrecht zu erhaltenes Attribut ist, könnten zu einem späteren Zeitpunkt Imitatoren in den Markt eintreten,
die aufgrund verbesserter Techniken oder Organisationsprinzipien in der Lage sind, das
Angebot einer etablierten Firma, die vormals als Differenzierer in Erscheinung trat, hinreichend genau zu kopieren, den Preis zu unterbieten und damit dessen Nachfrage an sich zu
reißen. Nun könnte der etablierte Anbieter durch weitere Innovationsaktivitäten versuchen,
derartigen Angriffen auszuweichen. Dies würde aber im Fall von Produktinnovationen, also
dem Versuch, durch eine Angebotsdifferenzierung abermals Unverwechselbarkeit zu erlangen, bedeuten, ein neues Marktsegment und damit zusätzliche Nachfrage zu erschließen.
Folglich hat die Strategie, durch Innovationen äußerliche Unverwechselbarkeit und damit
langfristig supra-normale Gewinne zu erzielen, nur dann Aussicht auf Erfolg, wenn sie
darauf beruht, aus der Beschränkung einer konstanten Nachfragemenge, um die eine tendenziell zunehmende Anzahl von Firmen konkurriert, auszubrechen. Dies hat Schumpeter
(1934, S. 133) ausdrücklich hervorgehoben: „Unser Mann der Tat folgt nicht einfach gegebener Nachfrage. Er nötigt seine Produkte dem Markte auf.“ Innovationswettbewerb, d.h.
„schöpferische Zerstörung“, sei aufgrund des Hervorbringens von neuen Konsumgütern der
„fundamentale Antrieb, der die kapitalistische Maschine in Bewegung setzt und hält“
(Schumpeter 1950, S. 137), womit nichts anderes gemeint ist, als „der mächtige Sauerteig,
der auf lange Sicht die Produktion ausdehnt“ (ebd. S. 140). Keine Unternehmung, die im
268
Niko Paech
Kontext des marktwirtschaftlichen Innovationswettbewerbs agiert, kann sich dieser Problematik entziehen, auch dann nicht, wenn sie Nachhaltigkeitsinnovationen anstrebt.
4.2.2 Kapitalverwertung und industrielle Spezialisierung
Das prägende Merkmal des industriellen Versorgungssystems besteht im Aufbau funktional
hoch ausdifferenzierter – also „langer“ – Wertschöpfungsketten. Dies setzt permanentes
Wachstum voraus. Warum? Wenn Leistungserstellung, die vormals an einen Produktionsstandort gebunden war, in möglichst viele isolierte Fertigungsstufen zerlegt wird, erlaubt
dies deren flexible und ortsungebundene Verlagerung. So kann jeder isolierte Teilprozess
jeweils dorthin verschoben werden, wo durch Spezialisierung, Automatisierung, Energieeinsatz und Größenvorteile die Kosten minimal sind. Somit beruht Wohlstandsmehrung
durch industrielle Arbeitsteilung auf einer wachsenden Anzahl zwischengeschalteter Spezialisierungsstufen. Jede davon muss vor Aufnahme der Produktion die benötigten Inputs
vorfinanzieren, also investieren, wozu Fremd- und/oder Eigenkapital benötigt wird. Jede
am arbeitsteiligen Wertschöpfungsprozess beteiligte Unternehmung muss daher einen entsprechenden Überschuss erwirtschaften, um die Fremdkapitalzinsen und/oder Eigenkapitalrendite zur Deckung des Investitionsrisikos zu erzielen. Letzteres steigt überdies mit zunehmender Komplexität, also Anzahl, Distanz und Anonymität der Produktionsstätten. Die
Untergrenze für das insgesamt nötige Wachstum zur Stabilisierung des Wertschöpfungsprozesses wird daher mit jedem weiteren arbeitsteilig integrierten Unternehmen erhöht,
dessen Überleben nur bei Erzielung eines hinreichenden Überschusses möglich ist.
Hierbei darf nicht die elementare Rolle der Geldschöpfung übersehen werden. Denn die
zuvor beschriebene Dynamik wäre nicht oder nur in viel schwächerer Ausprägung denkbar,
wenn die Geschäftsbanken nicht ständig neues Geld schöpfen könnten, um die Unternehmen mit Krediten für die Investitionen zu versorgen. Eine derartige Geldschöpfung erfolgt
praktisch aus dem Nichts, weil die Banken bei der Kreditvergabe nicht einfach nur die
Spareinlagen eins zu eins weitervermitteln, sondern Schulden in Geld verwandeln können
(vgl. Huber/Robertson 208, Binswanger 2009). Dieses „Schuldgeldsystem“ setzt der wundersamen Geldvermehrung keine Grenzen und wandelt neues Geld in reales Wachstum um,
weil sich daraus das Kapital für produktive Investitionen speist, das wiederum unter Verwertungszwang steht.
Eine weitere Begleiterscheinung entgrenzter Wertschöpfungsprozesse besteht darin, dass
der dabei eingesetzte technische Fortschritt fortwährend die Arbeitsproduktivität steigert.
Deshalb lässt sich jeder einmal erreichte Beschäftigungsstand nach einem Innovationsschub
nur beibehalten, wenn die Produktionsmenge hinreichend wächst.
5
Postwachstumsökonomie: Umrisse einer Wirtschaft ohne
Wachstum
Um eine Wirtschaft ohne Wachstum systematisch und als in sich geschlossenes Konzept zu
entwickeln, muss diese darauf beruhen, die zuvor skizzierten strukturellen und kulturellen
Wachstumstreiber weitestgehend auszuschalten. Genau daraus speisen sich die Bedingungen für die Postwachstumsökonomie. Kulturelle Wachstumstreiber lassen sich nur – so
trivial und zugleich mühsam dies auch erscheinen mag – durch suffiziente Anspruchsaus-
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
269
formungen mildern. Strukturelle Expansionsdynamiken sind nur durch eine tendenzielle
Verkürzung oder Entflechtung komplexer Produktionsketten zu mildern, um die Kapitalbedürftigkeit der Versorgung zu mildern. Je weniger spezialisiert und damit tendenziell kapitalintensiv Produktionssysteme sind, desto weniger Kapitalverwertung, die wiederum
Wachstum bedeutet, ist nötig. Eine damit einhergehende Reduktion des Fremdversorgungsgrades kann von der Regional- über die Lokal- bis zur Selbstversorgung, also Subsistenz, reichen. Subsistenz als Idealtypus der kapitallosen, dafür aber umso arbeitsintensiven
Wertschöpfung ist keine Frage des Entweder-oder, sondern des Mehr-oder-weniger, kann
also als Element kombinierter Versorgungsleistungen mit unterschiedlichen Fremdversorgungsgraden in Erscheinung treten.
Folglich bedarf es sowohl einer Theorie der Suffizienz als auch der Subsistenz, um die
notwendigen Voraussetzungen einer Postwachstumsökonomie herzuleiten. Eine andernorts
beschriebene „zeitökonomische Theorie der Suffizienz“ (Paech 2010) soll an dieser Stelle
nicht weiter vertieft werden.
5.1 Ansatzpunkte zur Reduktion struktureller Wachstumszwänge
Zwecks Überwindung kapitalbedingter Expansionstreiber lassen sich prinzipiell zwei Entwicklungsrichtungen ausmachen, die den Nachhaltigkeitsdiskurs prägen.
1. Institutionelle Perspektive: Marxistische Positionen sowie die Geld- und Bodenreformbewegung orientieren sich an einer institutionellen „Entschärfung“ von Kapitalverwertungszwängen oder -interessen. Während erstere über eine Vergesellschaftung oder demokratische Regulierung von Kapitalbeständen jegliche Profitorientierung ausschalten
wollen, thematisieren letztere den Zinseszinseffekt sowie die Abschöpfung von Bodenrenten. Auch der Diskurs um die „Commons“ (Gemeingüter, Allmenden) zielt darauf,
Eigentums- und Nutzungsrechte so zu verändern, dass anstelle unternehmerischer Profitmaximierung die unmittelbare Bedürfnisbefriedigung angestrebt wird. Weitere Versuche, über institutionellen Wandel pathologische Kapitalverwertungszwänge einzuhegen, finden sich in Konzepten der Wirtschaftsdemokratie.
2. Substanzielle Perspektive: Weiter reichende Konzepte, die sich unter anderem bei Kohr
(1957), Mumford (1967), Georgescu-Roegen (1971), Schumacher (1973) und Illich
(1973) finden, begnügen sich nicht mit einer „Zähmung“ oder nur gerechteren Verteilung der Kapitalverwertung, sondern hinterfragen grundsätzlich die Architektur jener
Versorgungssysteme, aus denen sich die Notwendigkeit eines bestimmten Kapitaleinsatzes ergibt. Sowohl die Technologie als auch der Grad an industrieller Spezialisierung
– folglich ebenso die räumliche Reichweite von Wertschöpfungsketten – werden damit
zum Gestaltungsobjekt. Beides beeinflusst maßgeblich den Kapitaleinsatz, und zwar in
doppelter Hinsicht, nämlich über die technologisch determinierte Kapitalintensität der
Produktion und die Höhe des Outputs. Indem die technische und räumliche Beschaffenheit von Produktionssystemen thematisiert wird, steht weitaus mehr zu Disposition als
die bloße Verteilung eines weiterhin zu maximierenden materiellen Wohlstandes oder
das Eigentum an Produktionsmitteln, deren Einsatz ansonsten nicht hinterfragt wird.
Solange eine Wirtschaft ohne Wachstum (mindestens) bezweckt, ökologische Grenzen
einzuhalten, laufen institutionell basierte Konzepte ins Leere, wenn sie an keine substanzi-
270
Niko Paech
ellen Kriterien gebunden oder nicht aus diesen direkt hergeleitet sind. Institutioneller Wandel kann aus ökologischer Perspektive nur Mittelcharakter haben, denn veränderte Eigentums-, Verteilungs- oder Demokratieregeln in Bezug auf die Kapitalverwendung lassen per
se keine Rückschlüsse auf ökologische Effekte zu. Folglich wären erst konkrete Versorgungsmuster – bezogen auf Produktion und Konsum – zu entwickeln, die substanziell mit
der Einhaltung ökologischer Grenzen zu vereinbaren sind, um daran die Eignung und Richtungssicherheit institutioneller Maßnahmen beurteilen zu können. Ein zweiter Grund dafür,
substanzielle Bedingungen als Ausgangspunkt einer Postwachstumsökonomie zu betrachten, besteht darin, dass veränderte Versorgungsstrukturen, die unmittelbar zur Senkung des
Kapitalbedarfs führen, weitaus sicherer und ursachenadäquater zur Minderung struktureller
Wachstumsdynamiken sind: Kapital, das infolge einer weniger mechanisierten und spezialisierten Wertschöpfung gar nicht erst benötigt wird, kann auch keinen wachstumsträchtigen Verwertungszwang entfalten. Deshalb wird im nächsten Abschnitt die Kombination
verschiedener Wertschöpfungssysteme zwecks direkter Beeinflussung der Kapital- bzw.
Arbeitsintensität ins Visier genommen.
5.2 Idealtypische Wertschöpfungssysteme
Zunächst sollen drei idealtypische Versorgungssysteme unterschieden werden: (1) Globale
industrielle Arbeitsteilung, (2) Regionalökonomie und (3) moderne Subsistenz. Die Transformation zu einer Postwachstumsökonomie entspräche einem Strukturwandel, der neben
einer Ausschöpfung aller Reduktionspotenziale (Suffizienz) die verbliebene Produktion
graduell und punktuell vom ersten zum zweiten und dritten Aggregat verlagern würde. Dies
setzt einen Rückbau des Industriesektors voraus. Die Konsequenz besteht in einer Reduktion der verfügbaren Erwerbsarbeitszeit, deren Umverteilung damit zu einer entscheidenden
Voraussetzung wird.
PWÖ =
20 Stunden „normale“
Erwerbsarbeit
Kommerzieller Unternehmenssektor
Global
Lange Produktionsketten
Industrielle Spezialisierung
Global Sourcing
Offshoring
Verschleißfestes Design
Modularität/Reparabilität
Ästhetische Beständigkeit
Effizienz/Konsistenz
Regional
+
20 Stunden „marktfreie“
Versorgungszeit
Entkommerzialisierter Sektor
Lokal
Mittlere Produktionsketten
Reparaturdienstleistungen
Wartung/Optimierung
Subsistenz
Renovation/Konversion
Eigenproduktion
Güterrezyklierung
Nutzungsdauerverlängerung
Sharing-Services
Nutzungsintensivierung
Handwerk/Öko-Landbau
Regiogeld
Output
Arbeitsintensität
Kapitalintensität
Abbildung 2:
Idealtypische Versorgungssysteme und deren Anpassung an eine Postwachstumsökonomie
Quelle: Eigene
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
271
Diese drei Systeme ergänzen sich nicht nur, sondern können synergetisch zu einer veränderten Wertschöpfungsstruktur verknüpft werden – insbesondere der erste und dritte Bereich. Endnutzer, denen innerhalb konventioneller Wertschöpfungsprozesse nur die Rolle
eines Verbrauchers zukommt, können als „Prosumenten“ (Toffler 1980) zur Substitution
industrieller Produktion beitragen. Im Unterschied zum traditionellen Subsistenzbegriff
sind die im nächsten Abschnitt dargestellten Selbstversorgungspraktiken eng mit industrieller Produktion verzahnt. Insbesondere entkommerzialisierte Nutzungsdauerverlängerung
und Nutzungsintensivierung können als nicht-industrielle Verlängerung von Versorgungsketten aufgefasst werden. Durch Hinzufügung marktfreier und eigenständig erbrachter
Inputs (Zeit, handwerkliche Tätigkeiten und sozial eingebetteter Leistungsaustausch) werden die in materiellen Gütern gebundenen Nutzenpotenziale maximiert – genauer: sie werden ohne physische Produktion „gestreckt“.
Folglich verändern sich Produktlebenszyklen: Die Industriephase wird mit einer daran
anknüpfenden Subsistenzphase verzahnt. Produktion, Nutzung und Subsistenz – letztere
verstanden als Aktivitäten, die den Bestand an Objekten erhalten und aufwerten – ergänzen
sich zu einem mehrphasigen Wertschöpfungsprozess, der sich auf denselben Gegenstand
bezieht. Dabei lässt sich die Nutzungsphase insoweit nicht von der Subsistenzphase trennen, als die Letztere sowohl eine achtsame Verwendung zwecks Nutzungsdauerverlängerung als auch soziale Praktiken der Nutzungsintensivierung umfasst. Prosumenten tragen
eigenständig zur Bewahrung ihres Güterbestandes bei, so dass der Industrieoutput reduziert
werden kann. Letzterer kann damit auch als Input für daran anknüpfende Subsistenzformen
aufgefasst werden.
Die Integration kreativer Subsistenzleistungen lässt ein kaskadenartiges Wertschöpfungsgefüge entstehen. Dieses erstreckt sich auf eine behutsame Nutzung, Pflege, Wartung, Instandhaltung, modulare Erneuerung sowie eigenständige Reparaturleistung. Danach erfolgen die Weiterverwendung demontierter Bestandteile sowie gegebenenfalls eine Anpassung
an andere Verwendungszwecke. Letztere umfasst „Upcycling“-Praktiken, das Zusammenfügen von Einzelteilen mehrerer nicht mehr funktionsfähiger Objekte zu einem brauchbaren
Objekt. Die Verwahrung, Veräußerung oder Abgabe demontierter Einzelteile an Sammelstellen und Reparaturwerkstätten schließt daran an. Darüber hinaus besteht die Möglichkeit
der Weitergabe noch vollständig funktionsfähiger Güter an sog. „Verschenkmärkte“ oder
„Umsonstkaufhäuser“. Zudem können Gebrauchsgüter von mehreren Personen genutzt
werden (Nutzungsintensivierung).
Diese Nutzungskaskade weist diverse Schnittstellen zu kommerzialisierten Nutzungsbzw. Produktionssystemen auf. Sowohl funktionsfähige Produkte als auch demontierte
Einzelteile oder Module lassen sich über den Second-Hand-Einzelhandel, Flohmärkte oder
Internet gestützte Intermediäre (eBay, Amazon Marketplace etc.) veräußern. Weiterhin
können Instandhaltungs- und Reparaturmaßnahmen, durch welche Prosumenten überfordert
wären, von professionellen Handwerksbetrieben übernommen werden. Letztere wären
Bestandteile der Regionalökonomien. Deren Rolle besteht zusätzlich darin, produktive
Leistungen des Industriesektors auf Basis tendenziell arbeitsintensiverer (somit weniger
kapitalintensiver) Herstellungsmethoden und kürzerer Reichweiten der Wertschöpfungsketten zu substituieren.
272
Niko Paech
Während der Industriesektor durch eine relativ hohe Energie- und Kapitalintensität gekennzeichnet ist, speist sich die Wertschöpfung der Subsistenzphase fast ausschließlich aus
Zeit, handwerklichen Kompetenzen und sozialem Austausch. Mit Blick auf die gesamte
Prozesskette wird damit die durchschnittliche Energie- und Kapitalintensität pro Nutzeneinheit gesenkt. Stattdessen steigt die Arbeitsintensität, womit gleichsam die Produktivität
des Faktors Arbeit abnimmt – allerdings nur bezogen auf den gesamten Prozess, bestehend
aus der Industriephase und die daran anknüpfende (arbeitsintensive) Subsistenzphase. Die
höhere Arbeitsintensität muss deshalb nicht die Industriephase tangieren, welche weiterhin
– jedoch mit verringerter Outputquantität – durch spezialisierte und relativ kapitalintensive
Herstellungsverfahren gekennzeichnet sein kann. Vielmehr ergibt sich die gesteigerte Arbeitsintensität aus einer „handwerklichen“ Verlängerung und Intensivierung der Produktnutzung.
Daraus resultiert eine komplementäre Verknüpfung zwischen Industrie- und Subsistenzleistungen. Hinzu kommt eine substitutionale Beziehung zwischen beiden Sektoren. Sie
stützt sich darauf, dass eigenständige Produktion, etwa durch Gemeinschaftsgärten, handwerkliche oder künstlerische Herstellung zur unmittelbaren Substitution von Industrieprodukten führen kann. Das Verhältnis zwischen Subsistenz und Regionalökonomie kann
sowohl komplementär, wie bereits oben skizziert, als auch substitutional geprägt sein. Dasselbe gilt für die Transformationsbeziehung zwischen industrieller und regionaler Wertschöpfung. Ein komplementäres Verhältnis entsteht dort, wo regionale, handwerklich orientierte Betriebe über Reparatur- und Instandhaltungsservices einen reduzierten Industrieoutput aufwerten. Zudem können Industriegüter durch regionale Produktion substituiert werden (Nahrung, Textilien, bestimmte Ver- und Gebrauchsgüter etc.).
5.3 Moderne Subsistenz
Eine neu zu justierende Balance zwischen Selbst- und Fremdversorgung kann unterschiedlichste Formen annehmen. Zwischen den Extremen reiner Subsistenz und globaler Verflechtung existiert ein reichhaltiges Kontinuum unterschiedlicher Fremdversorgungsgrade.
Deren Reduzierung bedeutet, von außen bezogene Leistungen durch eigene Produktion
punktuell oder graduell zu ersetzen. „Urbane Subsistenz“ (Dahm/Scherhorn 2008) entfaltet
ihre Wirkung im unmittelbaren sozialen Umfeld, also auf kommunaler oder regionaler
Ebene. Sie basiert auf einer (Re-)Aktivierung der Kompetenz, manuell und kraft eigener
Tätigkeiten Bedürfnisse jenseits kommerzieller Märkte zu befriedigen, vor allem mittels
handwerklicher Fähigkeiten. Die hierzu benötige Zeit könnte sich aus einem prägnanten
Rückbau des industriellen Systems speisen. Durch eine Halbierung der Erwerbsarbeit ließen sich Selbst- und Fremdversorgung so kombinieren, dass sich die Güterversorgung erstens auf ein (bescheideneres) monetäres Einkommen und zweitens, als Ergänzung, auf
marktfreie Produktion stützt. Neben ehrenamtlichen, gemeinwesenorientierten, pädagogischen und künstlerischen Betätigungen erstreckt sich urbane Subsistenz auf drei Outputkategorien, durch die sich industrielle Produktion substituieren lässt.
1. Nutzungsintensivierung durch Gemeinschaftsnutzung: Wer sich einen Gebrauchsgegenstand vom Nachbarn leiht, ihm als Gegenleistung ein Brot backt oder das neueste
Linux-Update installiert, trägt dazu bei, materielle Produktion durch soziale Beziehungen zu ersetzen. Objekte wie Autos, Waschmaschinen, Gemeinschaftsräume, Gärten,
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
273
Werkzeuge, Digitalkameras etc. sind auf unterschiedliche Weise einer Nutzungsintensivierung zugänglich. Sie können gemeinsam angeschafft werden oder sich im privaten
Eigentum einer Person befinden, die das Objekt im Gegenzug für andere Subsistenzleistungen zur Verfügung stellt. Dabei können auch sog. „Commons“ (Ostrom 2011) als Institution geeignet sein.
2. Nutzungsdauerverlängerung: Ein besonderer Stellenwert käme der Pflege, Instandhaltung und Reparatur von Gütern jeglicher Art zu. Wer durch handwerkliche Fähigkeiten
oder manuelles Improvisationsgeschick die Nutzungsdauer von Konsumobjekten erhöht
– zuweilen reicht schon die achtsame Behandlung, um den frühen Verschleiß zu vermeiden –, substituiert materielle Produktion durch eigene produktive Leistungen, ohne
notwendigerweise auf bisherige Konsumfunktionen zu verzichten. Wenn es in hinreichend vielen Gebrauchsgüterkategorien gelänge, die Nutzungsdauer der Objekte durch
Erhaltungsmaßnahmen und Reparatur durchschnittlich zu verdoppeln, dann könnte die
Produktion neuer Objekte entsprechend halbiert werden. Auf diese Weise würde ein
Rückbau der Industriekapazität mit keinem Verlust an Konsumfunktionen der davon betroffenen Güter einhergehen. Tauschringe, Netzwerke der Nachbarschaftshilfe, Verschenkmärkte und „Transition Towns“ sind nur einige Beispiele dafür, dass lokal erbrachte Leistungen über den Eigenverbrauch hinaus einen Leistungstausch auf lokaler
Ebene erlauben.
3. Eigenproduktion: Im Nahrungsmittelbereich erweisen sich Hausgärten, Dachgärten,
Gemeinschaftsgärten und andere Formen der urbanen Landwirtschaft (vgl. Müller
2011) als dynamischer Trend, der zur Deindustrialisierung dieses Bereichs beitragen
kann. Darüber hinaus sind künstlerische und handwerkliche Leistungen möglich, die
von der kreativen Wiederverwertung ausrangierter Gegenstände über Holz- oder Metallobjekte in Einzelfertigung bis zur semi-professionellen „Marke Eigenbau“ (Friebe/Ramge 2008) reichen.
Durch derartige Subsistenzleistungen kann bewirkt werden, dass eine Halbierung der Industrieproduktion und folglich der monetär entlohnten Erwerbsarbeit nicht per se den materiellen Wohlstand halbiert: Wenn Konsumobjekte länger und gemeinschaftlich genutzt werden, reicht ein Bruchteil der momentanen industriellen Produktion, um dasselbe Quantum
an Konsumfunktionen oder „Services“, die diesen Gütern innewohnen, zu extrahieren.
Urbane Subsistenz besteht also darin, einen markant reduzierten Industrieoutput durch
Hinzufügung eigener Inputs aufzuwerten oder zu „veredeln“. Diese Subsistenzinputs lassen
sich den folgenden drei Kategorien zuordnen:
a. Handwerkliche Kompetenzen und Improvisationsgeschick, um Potenziale der Eigenproduktion und Nutzungsdauerverlängerung auszuschöpfen
b. Eigene Zeit, die aufgewandt werden muss, um handwerkliche, substanzielle, manuelle
oder künstlerische Tätigkeiten verrichten zu können
c. Soziale Beziehungen, ohne die subsistente Gemeinschaftsnutzungen undenkbar sind
Urbane Subsistenz ist das Resultat einer Kombination mehrerer Input- und Outputkategorien. Angenommen, Prosument A lässt sich ein defektes Notebook von Prosument B,
der über entsprechendes Geschick verfügt, reparieren und überlässt ihm dafür Bio-Möhren
aus dem Gemeinschaftsgarten, an dem er beteiligt ist. Dann gründet diese Transaktion erstens auf sozialen Beziehungen, die Person A sowohl mit B als auch mit der Gartengemein-
274
Niko Paech
schaft eingeht, zweitens auf handwerklichen Kompetenzen (A: Gemüseanbau; B: defekte
Festplatte erneuern und neues Betriebssystem installieren) und drittens auf eigener Zeit,
ohne die beide manuelle Tätigkeiten nicht erbracht werden können. Die Outputs erstrecken
sich auf Eigenproduktion (Gemüse), Nutzungsdauerverlängerung (Reparatur des Notebooks) und Gemeinschaftsnutzung (Gartengemeinschaft). Selbstredend sind auch Subsistenzhandlungen naheliegend, die keiner Ausschöpfung der vollständigen Palette denkbarer
Subsistenzinputs und -outputs bedürfen. Wer seinen eigenen Garten bewirtschaftet, die
Nutzungsdauer seiner Textilien durch eigene Reparaturleistungen steigert oder seine Kinder
selbst betreut, statt eine Ganztagsbetreuung zu konsumieren, nutzt keine sozialen Beziehungen, wohl aber Zeit und handwerkliches Können. Die Outputs erstrecken sich in diesem
Beispiel auf Nutzungsdauerverlängerung und Eigenproduktion.
Insoweit Subsistenzkombinationen im obigen Sinne Industrieoutput ersetzen, senken sie
zugleich den Bedarf an monetärem Einkommen. Eine notwendige Bedingung für das Erreichen geringerer Fremdversorgungsniveaus besteht somit in einer Synchronisation von Industrierückbau und kompensierendem Subsistenzaufbau. So ließe sich der Verlust an monetärem Einkommen und industrieller Produktion sozial auffangen – jedoch nicht auf dem
vorherigen materiellen Niveau. Deshalb ist dieser Übergang nicht ohne flankierende
Suffizienzleistungen denkbar, auf die hier nicht näher eingegangen werden soll.
5.4 Die Rolle der Unternehmen
Der Rückbau des industriellen Systems wäre produktionsseitig so zu gestalten, dass die
Neuheuerstellung von Gütern, die extrem langlebig und reparaturfreundlich sein müssten,
eher eine untergeordnete Rolle spielt. Der Fokus läge auf dem Erhalt, der Um- und Aufwertung vorhandener Produktbestände, etwa durch Renovation, Optimierung, Nutzungsdauerverlängerung oder Nutzungsintensivierung. Produzierende Unternehmen (im physischen
Sinne) würden zunehmend – wenngleich nicht vollständig – durch Anbieter abgelöst, die
weniger an einer weiteren Expansion der materiellen Objekte als an deren Optimierung und
Aufarbeitung orientiert wären. Dies beträfe jene Bereiche der Bestandspflege, mit denen
Prosumenten überfordert wären.
Kreative Subsistenz und unternehmerische Leistungen könnten sich ergänzen, um gemeinsam einen konstanten Umfang ökonomischer Fluss- und Bestandsgrößen zu ermöglichen. Der Bedarf an Neuproduktion ließe sich damit minimieren. Herman Daly (1992)
bezeichnet einen solchen Zustand als „Steady State Economy“. Aus den vorangegangenen
Ausführungen lässt sich schlussfolgern, wie Unternehmen zu einer Postwachstumsökonomie beitragen können:
• Verkürzung von Wertschöpfungsketten und Stärkung kreativer Subsistenz.
• Arbeitszeitmodelle: Maßnahmen, die eine Reduktion und Umverteilung von Arbeitszeit
erleichtern, speisen den Subsistenzinput „eigene Zeit“.
• Lokale und regionale Beschaffung, um Supply Chains zu entflechten
• Unterstützung von und Teilnahme an Regionalwährungssystemen
• Direkt- und Regionalvermarktung
• Entwicklung modularer, reparabler, an Wiederverwertbarkeit und physischer sowie ästhetischer Langlebigkeit orientierter Produktdesigns, um urbane Subsistenzleistungen zu erleichtern; Abkehr von „geplanter Obsoleszenz“
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
275
• Prosumenten-Management: Unternehmen könnten über die Herstellung von Produkten
und Dienstleistungen hinaus Kurse oder Schulungen anbieten, um Nutzer zu befähigen,
Produkte selbsttätig instand zu halten, zu warten und zu reparieren.
Durch Renovationsstrategien des Typs „Umbau statt Neubau“ würde aus vorhandenen
Gütern und Infrastrukturen weiterer Nutzen extrahiert, indem diese funktional und ästhetisch an gegenwärtige Bedürfnisse angepasst würden und somit möglichst lange im Kreislauf einer effizienten Verwendung verblieben. Märkte für gebrauchte, aufgearbeitete und
überholte Güter würden ebenfalls zur Verringerung der Neuproduktion beitragen. Derartige
„stoffliche Nullsummenspiele“ (Paech 2005) verkörpern die physisch-materielle Dimension
von Wachstumsneutralität. Sie umfassen zwei Perspektiven:
• Veränderungen konzentrieren sich auf eine Umnutzung, Aufwertung oder Rekombination
der bereits in Anspruch genommenen ökologischen Ressourcen und geschaffenen Objekte. Stoffliche Additionen werden minimiert.
• Wenn es punktuell zu einer Addition materieller Objekte oder Inanspruchnahme ökologischer Kapazitäten kommt, muss dies mit einer Subtraktion verbunden sein, durch die andernorts im selben Umfang Ressourcen und Räume freigegeben werden.
Unternehmen, die sich an stofflichen Nullsummenspielen orientieren, wären unter anderem
erkennbar als:
• Instandhalter, die durch Maßnahmen des Erhalts, der Wartung, der vorbeugenden Verschleißminderung und Beratung die Lebensdauer und Funktionsfähigkeit eines möglichst
nicht expandierenden Hardwarebestandes sichern;
• Reparaturdienstleister, die defekte Güter davor bewahren, vorzeitig ausrangiert zu werden;
• Renovierer, die aus vorhandenen Gütern weiteren Nutzen extrahieren, indem sie diese
funktional und ästhetisch an gegenwärtige Bedürfnisse anpassen;
• Umgestalter, die vorhandene Infrastrukturen und Hardware rekombinieren, konvertieren
oder dergestalt umwidmen, dass ihnen neue Nutzungsmöglichkeiten entspringen;
• Provider von Dienstleistungen, die in geeigneten Situationen bislang eigentumsgebundene Konsumformen durch Services substituieren;
• Intermediäre, die durch eine Senkung der Transaktionskosten des Gebrauchtgüterhandels
dafür sorgen, dass Konsum- und Investitionsgüter möglichst lange im Kreislauf einer effizienten Verwendung belassen werden, und schließlich
• Designer, die das zukünftig geringere Quantum an neu produzierten materiellen Objekten
auf Dauerhaftigkeit und Multifunktionalität ausrichten.
6
Ausblick
Der Rückbau des industriellen Komplexes erfordert eine Balance zwischen drei sich ergänzenden Versorgungssystemen sowie angepasste Technologien. Insgesamt kann sich daraus
eine mehrfache Wiedereinbettung des Ökonomischen in das Soziale ergeben. Souveräne
Prosumenten ersetzen einen Teil des Industrieoutputs mittels substanzieller Schaffenskraft
und sozialem Kapital. Sie partizipieren aktiv an einem Wertschöpfungsprozess, dessen erste
Phase moderner Industrieproduktion – jedoch in prägnant reduziertem Umfang – entspricht
und an die sich eine zweite Subsistenzphase anschließt. Diese Symbiose zwischen hoch
276
Niko Paech
spezialisierter und arbeitsintensiver Versorgung kann durch eine Regionalökonomie ergänzt
werden.
Geringere Distanzen zwischen Nachfrager und regionalen Anbietern führen zur stärkeren
Kontrolle der Letzteren. Dies kann die monetären Ansprüche des eingesetzten Kapitals
senken, wenn damit gleichzeitig kürzere Distanzen zwischen Kapitalgebern und -nehmern
einhergehen. Eine solche Ökonomie der Nähe schafft Transparenz und Vertrauen. Wenn
die Produktnachfrager zugleich die Kapitalgeber ihrer regionalen Produzenten sind, können
Einflussmöglichkeiten auf die Kapitalverwendung geltend gemacht werden. Dies senkt die
Zins- und Renditeansprüche, so dass der Kapitalverwertungs- und somit strukturelle
Wachstumsdruck sinken kann. Würden in einer hinreichend kleinräumigen Ökonomie die
Kapitalgeber, welche zugleich Abnehmer der Produkte der Kapitalverwender sind, ihre
Rendite- bzw. Zinsansprüche erhöhen, müssten sie sich selbst schädigen. Denn den Kapitalverwendern bliebe langfristig nichts anderes übrig, als der erhöhten Zins- bzw. Renditelast durch Preiserhöhungen zu begegnen. Natürlich würde weiterhin eine globalisierte Restindustrie verbleiben, weil sich nicht alle Bedarfe einer modernen Gesellschaft allein durch
Regional- und Lokalökonomien befriedigen lassen.
Ein Übergang zur Postwachstumsökonomie, der hier nur grob skizziert wurde, kann
durch eine Vielzahl institutioneller, insbesondere politischer Maßnahmen flankiert werden,
auf die an anderer Stelle eingegangen wurde (vgl. Paech 2012, S. 134ff.). Aber dieses Unterfangen würde auch bei einer erfolgreichen Anwendung der hier vorgeschlagenen Strategien mit einer spürbaren quantitativen Reduktion von Konsum- und Mobilitätsversorgung
einhergehen. Deshalb wären politische Entscheidungsträger derzeit noch vollends damit
überfordert, der geneigten Wählerschaft mitzuteilen, dass die Wohlstandsparty – zumindest
in der gegenwärtigen Ausprägung – beendet ist. Erst im Laufe der nicht mehr abwendbaren
Ressourcen-, Finanz- und Umweltkrisen werden sich zwangsläufig Reaktionsmuster herausbilden, die mit einer Postwachstumsökonomie vereinbar sein könnten. Nichtsdestotrotz:
Wer schon jetzt vorsorglich postwachstumstaugliche Versorgungspraktiken ins Werk setzt
– ganz gleich ob als Prosument oder als Unternehmen –, hat die besten Chancen, den bevorstehenden Kollaps zeitgenössischer Konsumdemokratien gelassen zur Kenntnis zu nehmen.
Literatur
Binswanger, H. C. (2009): Vorwärts zur Mäßigung, Hamburg.
Chamberlin, E. H. (1933): The Theory of Monopolistic Competition, Cambridge.
Daly, H. (1977): Steady-State Economics, Washington.
Dahm, D./Scherhorn, G. (2008): Urbane Subsistenz, München.
Friebe, H./Ramge, T. (2008): Marke Eigenbau, Frankfurt a.M.
Georgescu-Roegen, N. (1971): The Entropy Law and the Economic Process, Cambrigde/London.
Gronemeyer, M. (1988): Die Macht der Bedürfnisse, Reinbek.
Heinberg, R. (2007): Peak Everything: Waking Up to the Century of Declines, Gabriola Island.
Hirsch, F. (1976/1980): Social Limits to Growth, Cambridge (erschienen in deutscher Übersetzung als „Die
sozialen Grenzen des Wachstums“ im Jahr 1980, Reinbek).
Betriebswirtschaftslehre und Postwachstumsökonomik: Einige Anmerkungen
277
Hueting, R. (1980): New scarcity and economic growth, Amsterdam.
Huber, J./Roberson, J. (2008): Geldschöpfung in öffentlicher Hand: Der Weg zu einer gerechten Geldordnung im Informationszeitalter, Marburg.
Illich, I. (1973/2011): Selbstbegrenzung. Eine politische Kritik der Technik, München.
Jackson, T. (2009): Prosperity without Growth: Economics for a Finite Planet, London.
Kohr, L. (1957/2002): Das Ende der Großen. Zurück zum menschlichen Maß, Salzburg.
Latouche, S. (2006): Le pari de la décroissance, Paris.
Layard, R. (2005): Die glückliche Gesellschaft, Frankfurt a. M.
Martínez-Alier, J., (2009): Socially Sustainable Economic De-Growth, in: Development and Change 40 (6),
S. 1099–1119.
Meadows, D./Meadows, D./Zahn, E./Milling, P. (1972): Limits to Growth – A Report for the Club of
Rome’s Project on the Predicament of Mankind. London.
Miegel, M. (2010): Exit – Wohlstand ohne Wachstum, Berlin.
Mintzberg, H. (1987): The Strategy Concept I: Five Ps for Strategy, in: California Management Review, 27,
11–23.
Müller, C. (2011) (Hrsg.): Urban Gardening, München.
Mumford, L. (1967/1977): Mythos der Maschine. Kultur, Technik und Macht, Frankfurt a.M.
Myers, N./Kent, J. (2005): Die neuen Konsumenten in Entwicklungs- und Transformationsländern und der
Einfluss ihres Wohlstands auf die Umwelt, in: Natur und Kultur, 6/1, S. 3–22.
Ostrom, E. (2011): Was mehr wird, wenn wir teilen, München.
Paech, N. (2005/2012): Nachhaltiges Wirtschaften jenseits von Innovationsorientierung und Wachstum, 2.
Auflage, Marburg.
Paech, N. (2008): Regionalwährungen als Bausteine einer Postwachstumsökonomie, in: Zeitschrift für
Sozialökonomie (ZfSÖ) 45/158–159, S. 10–19.
Paech, N. (2012): Befreiung vom Überfluss. Auf dem Weg in die Postwachstumsökonomie, München.
Pallante, M. (2005): La decrescita felice. La qualità della vita non dipende dal PIL, Roma.
Robinson, J. (1933): The Economics of Imperfect Competition, London.
Sakar, S. (2001): Die nachhaltige Gesellschaft. Eine kritische Analyse der Systemanalysen, Zürich.
Schor, J. B. (2010): Plenitude. The New Economics of True Wealth, New York.
Schumacher, E. F. (1973/1977): Die Rückkehr zum menschlichen Maß. Alternativen für Wirtschaft und
Technik, Reinbek.
Seidl, I./Zahrnt, A. (2010) (Hrsg.): Postwachstumsgesellschaft. Konzepte für die Zukunft, Marburg.
Simmel, G. (1900): Philosophie des Geldes, Berlin und München.
Stolper, W. F./Samuelson, P. A. (1941): Protection and Real Wages, in: Review of Economic Studies 9, S.
58–73.
Schulze, W. (1994): The two Schools of Thought in Resource-based Theory, in: Advances in Strategic
Management, 10A, 127–58.
Schumacher, E.-F. (1973/2013): Small is Beautiful, München.
Schumpeter, J. A. (1934): Theorie der wirtschaftlichen Entwicklung, 4. Aufl., Berlin.
Schumpeter, J. A. (1950/1980): Kapitalismus, Sozialismus und Demokratie, 5. Aufl., München.
278
Niko Paech
Teece, D. J./Pisano, G./Shuen, A. (1997): Dynamic Capabilities and Strategic Management, in: Strategic
Management Journal, 18, 509–533.
Toffler, A. (1980): The Thrid Wave, New York.
Victor, P. A. (2008): Managing Without Growth: Slower by Design, Not Disaster, Cheltenham.
Wernerfeld, B. (1984): A Resource-based View of the Firm, in: Strategic Management Journal, 5, 171–174.
Zentrum für Transformation der Bundeswehr (2010): Peak Oil – Sicherheitspolitische Implikationen knapper Ressourcen, Strausberg.
Strategic Management of Innovation in Life Science
Christian Schäfer
Introduction
In life science industries development projects for a new chemical entity (NCE) are
generally associated with low probabilities of success compared to other industries. At start
of development, an innovation project’s rate of success is only 4% to 7%, the time span of a
project from start of development to the potential launch of a product being 10 years or
even more. Thus, effective management of commercial risk and uncertainty becomes
tremendously important.
The Pharmaceutical Benchmark Forum in the United States collected industry-wide
historical data on the drug development process (Harpum, 2010). The result of this research
shows that the total project development costs for a NCE which reaches the market are in
the range of $ 1 billion. The actual costs of a successful project are usually significantly
lower, but it needs to cover the costs of the multiple other projects which did not finally
reach the market.
In addition to the low success rates of pure development further uncertainties affect the
continuation of a project and its final accomplishment. This mainly aims at commercial
risks like the potential competitive landscape a product faces at launch, the uncertainty
whether a certain target product profile can be achieved (TPP), pricing, market access risks,
and others. All these factors are dynamic over time thus complicating the forecasting of
these projects. The TPP may for instance be completely unknown at the start of
development. As the development progresses over the years the potential TPP evolves
gradually, resulting in success or failure – and there for financial loss.
Summarizing the mixture of high and early upfront investments and a high uncertainty
about a project’s development and commercial success generates some pressure on strategic
forecasting, which aims to show a balanced picture of the project’s opportunities and risks.
Here the reliability and transparency of strategic forecasts becomes a key success factor to
support senior management in their decision-making process. Oftentimes risk and
uncertainty are (closely) intertwined, leading to misinterpretation of forecasts and erroneous
decisions. This article discusses the importance of clear definition and classification of risk
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_20,
© Springer Fachmedien Wiesbaden 2013
280
Christian Schäfer
and uncertainty when creating and presenting a forecast on the commercial attractiveness of
a potential product.
Patient-Based Forecasting – a Conceptual Overview
When it comes to predicting the commercial attractiveness of early stage development
projects for which no historic sales data are available, patient based forecasting models are
popular tools to make a proper assessment. This model type is the basis for this article. The
starting point of this model is epidemiological research. The epidemiological report delivers
the market-volume wise basis of patients receiving pharmacotherapy within the development project’s indication. Taking Hypertension as an example, all patients receiving
antihypertensive treatment would have to be taken into account, including an estimate on
how this number might develop over the next years. The resulting number defines the
overall market opportunity.
For most indications there are several therapeutic options (classes) available to treat
patients. Within the forecast model further assumptions need to be made about the future
development of each therapeutic class’ market share. For already established therapeutic
classes today’s market share is available in secondary data about the future development of
the respective class. It is more challenging to forecast the class share of a new, not yet
launched therapeutic class within an established market. In this case quantitative market
research results such as conjoint analysis or analogue research support the assumptionmaking process.
Further down in the model estimations need to be made about the product’s in-class share
within the therapeutic class, about the patient’s willingness to take the drug regularly
(compliance) and about the price development over time. By multiplying the base inputs of
each column a point forecast for the revenue of each year can be obtained. Table 1 presents
a simplified version of a patient-based forecast model. Usually more input rows need to be
filled out / are needed to obtain a full assessment of the commercial opportunity.
281
Strategic Management of Innovation in Life Science
Table 1:
Patient based Forecast’s Assumptions Input Sheet and model flow
Scenario I
Drug treated
Input Patients in Million
Input
Input
Input
Input
Market Share of
therapeutic class
Product share
within this class
Compliant days of
therapy: 200 days
Price per day of
treatment in $
2012
2013
2014
2017
2018
2019
2020
2021
2022
2023
Base
2011
5,1
5,1
5,2
5,2
2015
5,3
2016
5,3
5,3
5,4
5,4
5,4
5,4
5,5
5,5
Min
0%
0%
0%
0%
3%
8%
11%
14%
15%
16%
17%
17%
17%
Base
0%
0%
0%
0%
4%
10%
14%
16%
18%
19%
20%
20%
20%
Max
0%
0%
0%
0%
6%
13%
18%
20%
22%
24%
26%
28%
28%
Min
0%
0%
0%
0%
100%
90%
70%
68%
55%
50%
48%
48%
48%
Base
0%
0%
0%
0%
100%
100%
80%
75%
65%
60%
58%
56%
56%
Max
0%
0%
0%
0%
100%
100%
90%
80%
70%
65%
65%
65%
65%
Base
0
0
0
0
200
200
200
200
200
200
200
200
200
Min
0
0
0
0
4,8
4,8
4,8
4,8
4,8
4,8
4,8
4,8
4,8
Base
0
0
0
0
5,0
5,2
5,3
5,5
5,6
5,8
6,0
6,1
6,3
Max
0
0
0
0
5,5
5,6
6,0
5,4
6,8
7,0
7,0
7,0
7,0
Clearly Distinguish Uncertainty from Risk
To make a risk associated with a forecast transparent we first need to define our
understanding of risk. Many articles have been published on the distinction between
uncertainty and risk. Knight (1921) established a very helpful and comprehensive
distinction between both: “Uncertainty must be taken in sense radically distinct from the
familiar notion of risk, from which it has never been properly separated. … The essential
fact is that risk means in some cases a quantity susceptible of measurement, while at other
times it is something distinctly not of this character; and there are far-reaching and crucial
differences in the bearing of the phenomena depending on which of the two is really present
and operating. … It will appear that a measurable uncertainty, or risk proper, as we shall
use the term, is so far different from an unmeasurable one that it is not in effect an
uncertainty at all.”
Applying Knight’s definition in early product forecasting the risk of a forecast then is
associated with an event, which might either happen or not. It’s a yes/no decision but
nothing in between. For instance, the number of competitors a company potentially faces at
launch is unknown today. But there are substantial different competitive scenarios possible.
A company could be the 1st on market with no competitors for a few years, (maybe)
because all other development projects failed. In another scenario it could also be the case
that the company launches 3rd to market. Because development projects of competitors
might either fail or succeed, the forecast is at risk about this yes/no decision. Further the
forecast faces risk when making assumptions about the potential TPP which will be
achieved at the end of the product’s development process. Since there are “far-reaching and
crucial differences in the bearing” (Knight, 1921) regarding competitive landscape and the
potential TPP, the business case is at substantial risk with regard to the market conditions at
the time of launch. As discussed further down in this article, risk will be addressed by
scenario modeling.
282
Christian Schäfer
So how do we now separate uncertainty from risk? Uncertainty within a forecast has
nothing to do with an event. It’s more an assessment of the exact future development of
input parameters within the model. Generally speaking, for a defined market condition
scenario, the brand team has quite a good understanding about the development of the
different input parameters over time. Even though the exact levels of class share, in-class
share and future price will always be more or less uncertain. So uncertainty is associated
with a certain class share or price at a certain point of time in the future. To cover this
uncertainty, the forecaster will use a model with a value range, which most likely will cover
the true outcome. Usually, the higher the uncertainty about the future development of a
model’s input factor such as the class share, the wider the value range that reflects the
increasing uncertainty associated with the forecast.
Uncertainty is Addressed with Monte Carlo Simulation
When populating the forecasting model – like any model that plans for a future point in
time – we have to make certain assumptions. These assumptions might be concerned with
the development of a therapeutic class’s market share, the price development, or other
parameters. Because these are projections into the future, the best we can do is estimate the
expected values based on the information available today. We cannot know with certainty
what the actual value will be, but based on historical analogues, market research, or expert
knowledge, we draw an estimate. To understand the impact of uncertainty associated with
the assumptions made for the different input parameters of the forecast model, the usage of
the Monte Carlo Simulation is a standard technique.
To apply Monte Carlo Simulation within a forecast model, we need to come up with
range forecasts for certain input parameters. The bandwidth of this range and the dynamics
of the stretch over time reflect the perceived level of uncertainty behind these assumptions.
In order to come up with a range forecast for the different layers of the model (see Table 1)
it is usually very helpful to discuss these potential ranges and the bandwidth’s mean within
the brand team. By doing so, multiple opinions and experiences will be reflected within the
assumptions.
In a Monte Carlo Simulation, a random value based on the defined range of estimates for
each input parameter is selected. During the simulation, a random value is generated for
each of the different input levels of the model and for each year, according to the defined
range of value. This process is repeated thousands of times and all outcomes are recorded at
the same time. The result will be a collection of thousands of different theoretical outcomes
drawn from the model, each based on random input value. Now these forecasts are sorted
from low to high forecast values. This sorted list of sales forecasts provides the 10th and 90th
percentile as well as the mean of the simulated results. The percentiles help to describe the
probability of reaching various sales levels. By using a range of possible values instead of a
single guess, we create a more realistic picture of what might happen in the future.
Sugiyama (2007) gives a well-arranged overview of the application of the Monte Carlo
Simulation in business forecasting.
Strategic Management of Innovation in Life Science
Figure 1:
283
Sales-Range Chart based on Monte Carlo Simulation results
The Sales Range Chart in Figure 1 presents the simulated development of sales over time.
The black line represents the brand team’s base case, which is based upon the base
assumptions of Table 1. The base case (black) is covered by the 90th (green) and 10th (red)
percentiles. The 10th percentile represents a 10% chance that sales might be lower than
indicated in this line, whereas in 90% of the cases in this scenario, sales will be higher than
what is displayed in the red line in this figure. The probability that the true sales will reach
a point within the corridor between the green and the red line is 80%. The percentiles split
the Sales-Range Chart into 10:80:10 proportions. The closer the red and green lines are to
the black one, the more certain the brand team is about the underlying assumption of the
forecast.
The analysis of the Sales-Range Chart demonstrates that it is relatively unlikely in the
simulation that forecast values will drop below the 10th or rise above the 90th percentile.
The results of the Monte Carlo Simulation make the uncertainty tangible for decision
makers. Based on this information, senior management might make different choices when
planning a project. Having more information about uncertainty facilitates a company’s
planning of further steps.
The simulated mean line (blue) within Figure 1 can be used to benchmark the brand
team’s base case assessment (black). The order and deviation of these two lines is
interpreted as follows: When the simulated mean is systematically higher than the base
assessment, this is an indicator that the brand team’s base case could be considered as too
conservative. If the mean is below the base case, the brand team’s opinion shows a
tendency of being overly optimistic. When the black and blue lines are more or less at the
same level, the forecast reflects a balanced and realistic picture of a product’s commercial
potential.
Risk is Addressed with Scenario Planning
As discussed, risk is associated with a certain event which either happens or not. Generally,
two major event types are distinguished which both strongly have an impact on the
284
Christian Schäfer
commercial attractiveness of a potential product. These are events which impact the
competitive market environment and events which shape the product’s profile. The
combination of these two risk types is usually covered by different scenarios. Figure 2
illustrates an example of a Risk-Scenario Matrix.
Product's potential TPP
Risk-Scenario
Matrix
best
(high efficacy,
high safety)
base
(high efficacy,
mod. safety)
worse
(mod.
efficacy, mod.
safety)
Figure 2:
Market environment
best
(less competitors)
base
(some competitors)
worse
(many competitors)
Scenario V
probability 20%
Peak Sales $ 987
Scenario II
probability 20%
Peak Sale $ 1,126
Scenario I
probability 40%
Peak Sales $ 754
Scenario IV
probabilty 5%
Peak Sales $ 883
Scenario III
probabilty 15%
Peak Sales $446
Risk-Scenario Matrix, including assumed probabilities for the different Scenarios
This matrix covers three different cases for potential market environment and TPP. When
creating the forecast, usually the brand team decides which competitive situation will
reflect the most likely base case, here called Scenario I. For example a base case could
assume a TPP which consists of a high efficacy, moderate safety, moderate price and q.d.
(once a day) administration profile and 2 more competitors entering the new class. Further
assumptions for the best case (Scenario II) and worst case (Scenario III) have to be
determined by the team. In the best case scenario for instance a better safety profile
compared to the base case and only one other competitor within our class could be
assumed. In the worst case (Scenario III) only moderate efficacy and issues with the
product’s safety and 3 in-class competitors could be considered. Both assumptions in the
worst case scenario negatively impact the product’s commercial opportunities.
For a proper project evaluation usually at least Scenarios I, II and III will be calculated.
Scenario I reflects the base case, which usually is the one with the highest probability.
Further Scenarios II (best case) and III (worst case) are calculated in order to benchmark
Scenario I for possible up- and down-side potential. The mixed Scenarios IV and V are
optional. For each of the defined scenarios the brand team needs to provide an estimate for
the probability that a certain scenario will occur. According to Guthrie & Markland (2010)
it helps to “tell participants not to worry about being too precise in their probability
assessment but ask them to express probabilities in figures rather than words in order to
limit ambiguity”.
Depending on a product’s current development phase, it may not always be possible to
differentiate the scenarios for different TPPs. For Start of Development projects oftentimes
Strategic Management of Innovation in Life Science
285
the same TPP is assumed for all competitors, since it is too early to make wellfounded/informed assumptions about a TPP differentiation.
Outputs Used to Sell the Forecast
There are different graphical outputs which make the forecast’s inherent risk and
uncertainty transparent to senior management. As presented above, the Sales-Range Chart
(Figure 1) is very useful to assess the uncertainty of a forecast scenario. The Risk-Scenario
Matrix (Figure 2) gives a top line summary about the assumptions, probabilities and peak
sales for each stand alone scenario. Peak sales in general are a key figure to anchor a
forecast scenario.
The Peak Sales-Range Chart shown in Figure 3 comprehensively compares the absolute
sales ranges and levels of the different scenarios. The sales range is a result of the Monte
Carlo Simulation based on the range inputs for each scenario. The Peak Sales-Range Chart
makes the different levels of uncertainty for the assumptions of the scenarios transparent.
The upper- and lower edge of each bar represent the 90th and 10th percentiles of the Monte
Carlo Simulation’s results for the peak year. Figure 3 shows that the uncertainty linked to
Scenarios I, III and IV is rather low compared to the others. Comparing Scenario II and V,
the Peak Sales-Range Chart clearly visualizes that Scenario II faces a massive downside
threat, whereas Scenario IV shows limited downside potential but a rather huge upside
opportunity.
Figure 3:
Peak Sales-Range Chart, showing base forecast, 10th and 90th percentiles
The graphical outputs presented up to this point have focused strongly on top-line peak
sales and the related total/overall uncertainty. The Tornado Diagram (Figure 4) is a tool to
286
Christian Schäfer
present the sensitivity of a sales prediction to variation impacted by the populated
uncertainty ranges within the model. In Figure 4 each row represents the uncertainty
associated with a model’s sources of input (see Table 1).
In this example the variation of sales in the year 2022, according to the defined min and
max values for class share, price, and in-class share model input are presented. The
Tornado Diagram is interpreted as follows: the base input assumption on the therapeutic
class’ share in Scenario I for the year 2022 is 20%. If this assumption is correct the sales
forecast would show $ 754Million. Since the brand team is not very confident about the
class share forecast, they defined a range between min 17% and max 28% for the class
share. When benchmarking the min and max with the base input, this shows a big upside
potential of +8% and a small downside potential of -3% for the class share. The Tornado
Diagram translates this uncertainty regarding the class share in 2022 into a sales range
figure. If a number close to 28% max becomes reality, the sales would end up at $ 980
Million, the 17% would bring us to about $ 640 Million only.
A Tornado Diagram usually ranks the impact factor with the highest uncertainty at the
top and cascades down to the uncertainty with the lowest impact on the forecast. The total
lengths of each the red and the green bar in Figure 5 reflect the overall uncertainty
regarding a certain parameter in US dollars. In a proper Tornado Diagram, 5 to 15 sources
of uncertainty are analyzed. The Tornado Diagram provides a quick overview of the
leverage effects of certain uncertainties in a forecast scenario and the associated upside or
downside effects.
Figure 4:
Tornado Diagram for sales in year 2022 Scenario I
Conclusion
A clear distinction between risk and uncertainty helps to transport clear messages to senior
management and support their decision-making process. When interpreting a patient-based
forecast, it is important to keep in mind that the range output for each scenario reflects the
overall uncertainty associated with the defined market and product conditions for this
scenario only. The overall development project’s risk and opportunity evolves when
comparing the different scenarios. Each scenario needs to be clearly classified regarding
competition and TPP within the Risk-Scenario Matrix. To analyze the overall risk of a
development project’s forecasts, management needs to compare the different scenarios’
peak sales levels while bearing in mind the probability of each scenario.
Strategic Management of Innovation in Life Science
287
Like any forecasting model, the simulation will only be as good as the estimates made by
the brand team in the model’s set-up process. It is important to remember that the
simulation only represents probabilities and not a certainty. Nevertheless, Monte Carlo
simulation is a valuable tool when forecasting an unknown future. By using a Monte Carlo
simulation and the basic analyses introduced in this article, a project’s management will be
based on structured information on the possible outcomes of a drug development project.
The approach offered within this expose for the creation and presentation of a forecast
provides the senior management with an informed and comprehensive overview of risks
and uncertainties associated with a project. A well-structured and transparent set of
forecasts generates confidence and respect for a development project and enables
Management to take strategic decisions about high risk innovation projects in life science
industries.
Literature
Guthrie, N., Markland, D. (2010) Assessing Uncertainty in New-Product Forecasts Foresight: The
International Journal of Applied Forecasting, Issue 16 (Winter 2010), 32–39.
Harpum, P (2010) Portfolio, Programm, and Project Management in the Pharmaceutical and
Biotechnological Industries, John Wiley & Sons, Inc, New Jersey.
Knight, F. (1921) Risk, Uncertainty and Profit: Schaffner & Marx, Houghton Mifflin, Boston.
Sonnenberg, F.A., Beck, J.R. (1993) Markov models in medical decision making: a practical guide, Medical
Decision Making, Issue 13 (4), 322–338.
Sugiyama, S. (2007). Forecast uncertainty and Monte Carlo Simulation, Foresight: The International
Journal of Applied Forecasting, Issue 6 (Spring 2007), 29–37.
Betriebswirtschaftslehre und Militärwissenschaft –
Widerspruch oder Kooperation?
Eine analytische Skizze aus „dogmengeschichtlichem“
Interesse
Dietmar Schössler
„Historisch und soziologisch bestehen zwischen Wehrordnung und Wirtschaftsordnung mannigfache Zusammenhänge. Die Isolierung der Armee … erklärt sich aus besonderen Gegebenheiten in
der Verfassungssituation des 19. und beginnenden 20. Jahrhunderts … Da eine Frontenstellung
„Soldat und Bürger“ nicht mehr gegeben ist, mag es nützlich sein, die Menschenführung der Wirtschaft in ihrer Bedeutung für die Streitkräfte zu erörtern … Es ist dann aber ebenso fruchtbar, auch
umgekehrt die Frage zu stellen: Welche Lehren kann die Wirtschaft aus den FührungsErfahrungen, -Erkenntnissen und -Methoden der Armee ziehen?
Die Armee ist eine der ersten und bedeutendsten Großorganisationen in der modernen Massengesellschaft, die mit der Levée en masse in der französischen Revolution beginnt“ (Schall 1965: 8).
„Führungstechnik bedingt Führungskunst und umgekehrt. Die Kunst der Führung schafft sich die
Technik, deren sie zu ihrer Entwicklung bedarf, und nur mit einer zweckmäßigen Technik läßt sich
die volle Führung entfalten“ (Schall 1965: 8).
„Die Konzeption der optimalen Kontrollspanne wurde – wie die meisten Elemente der klassischen
Organisationstheorie – am Erfahrungsobjekt der Streitkräfte als dem ältesten Großbetrieb entwickelt. Es stehen sich dabei zwei Denkschulen gegenüber: die Theorie der limitierten Leitungsspanne und die Theorie der Determinanten der Leitungsspanne“ (Hahn 1989: 72).
0
Zur Einführung / erkenntnisleitender Gedankengang
Militär und Gesellschaft und deren entsprechende Wissenschaften – Militär-Wissenschaft
resp. Staats- und Verwaltungswissenschaft, insbesondere Betriebswirtschaftslehre, haben
nie ein problemfreies Verhältnis gehabt. Während in den westlichen Demokratien sich der
Bürger an der Militärpolitik zu beteiligen begann, standen sich in Kontinentaleuropa
Staat/Militär auf der einen und sich entwickelnde bürgerliche Gesellschaften auf der anderen Seite eher konfrontativ gegenüber. Stehende Massenarmeen, gelenkt von straff organisierten (General-)Stäben und sich ausweitenden Verwaltungsorganisationen: Diese Konstellation schuf eine Atmosphäre, in der sich sowohl eine militärische „Geheimpraxis“ wie
auch eine kritische Militärpublizistik entfalten konnte. Die Geheimpraxis von logenhaft
organisierten Generalstäben ist dem angelsächsischen Denken fremd. Erst spät werden hier
kontinentale Muster nachzuahmen versucht, wobei die preußisch-deutschen Siege (1866,
1870/71) das wichtigste Wehrstruktur-Modell lieferten.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_21,
© Springer Fachmedien Wiesbaden 2013
290
Dietmar Schössler
In der vorliegenden kleinen Studie suchen wir eine Antwort darauf, wie sich – aus diesem
skizzierten Grundmuster heraus – die Beziehungen resp. Nicht-Beziehungen von Betriebswirtschaftslehre (resp. deren fachlichen Vorläufern) und Militärwissenschaft von den Anfängen in der „militärischen Aufklärung“ (military enlightenment) über Perioden jeweiliger
Dominanz bzw. Ignoranz bis hin zur heutigen Ideen-Konstellation entfaltet haben.
Dabei interessieren uns drei erkenntnisleitende Fragen und deren „tendenzielle“ Beantwortung:
(1) „Unvereinbarkeit“ (Inkompatibilität): Woher kommt das verbreitete, ja, dominierende
„zivile“ Unbehagen an der Militär-Organisation und mithin auch an der Strategie- und
Militärwissenschaft?
(2) Inwiefern erhellt oder verdeckt das „Unvereinbarkeits“-Theorem die tatsächlichen
Beziehungen von Wirtschafts- und Militär-Wissenschaft?
(3) Wie sollte resp. könnte sich das Verhältnis von Betriebswirtschaftslehre und Militärwissenschaft unter „postmodernen“ Vorzeichen weiterentwickeln?
(4) In einem abschließenden Teil sei nochmals der Gedankengang rekapituliert – und der
vorläufige Befund zusammenfassend skizziert.
1
Woher kommt das „zivile“ Unbehagen an der Militär-Organisation –
und mithin auch an der Militär-Wissenschaft?
Wir wollen hier von der These ausgehen, daß die Gründe für diese sog. „Inkompatibiltät“
von Militär und Gesellschaft in den gesellschaftlichen Bedingungen des frühen Industriezeitalters liegen: denn aus der Sicht des aufgeklärten Bürgertums mußte die MilitärOrganisation als fortschrittshemmender, dem Geist der entstehenden bürgerlichen Wirtschaftsgesellschaft zutiefst widersprechender Fremdkörper erscheinen. Diesem neuen zivilen Selbstbewußtsein gab etwa Saint-Simon um 1820 Ausdruck: Er wollte die „produktive
Klasse“ der Künstler und Industriellen an der Macht sehen. Der Staat , seine Verwaltung
und insbesondere sein Militär sollten als die unproduktive Klasse auf die nachgeordneten
Ränge verwiesen werden: „heute da die Nationen das Bedürfnis … spüren, so organisiert zu
werden, wie es für die Produktion am vorteilhaftesten ist, darf die Klasse derer, die sich
ausschließlich dem Soldatenhandwerk widmen, nur klein sein, und sie darf nur noch als
untergeordnete Klasse angesehen werden (Saint-Simon 1956: 59 f.).
Ironischerweise verlief die Entwicklung des zivil-militärischen Verhältnisses jedoch genau umgekehrt:
Während auf der Ebene des „zivilen“ Denkens das Militär zum Anachronismus verfiel,
stiegen die Streitkräfte tatsächlich in die „Positivität“ des neuen industriellen Zeitalters ein,
ja, sie begannen eigentlich die Spitze dieses Fortschritts einzunehmen. Denn nicht das Militär ahmte zum Zweck der Effizienzsteigerung industrielle, also „bürgerliche“ Organisationsformen und Verhaltensweisen nach. Vielmehr prägte das militärische Organisationsmuster („Division“ seit 1760 in Frankreich, Stab-Linien-Prinzip in Preußen seit 1809) die
industriellen Managementmuster (Karst, Beermann, Grosse, 1954). Diese AvantgardeFunktion (Van Doorn, 1965, Janowitz, 1965) ist aber weniger ein Ergebnis fortschrittlichen
Reformdenkens als vielmehr die Folge eines Anpassungsdruckes, der sich nach verlorenen
Gefechten und Feldzügen einstellt.
Betriebswirtschaftslehre und Militärwissenschaft –Widerspruch oder Kooperation?
291
Vorreiter der ganzen Entwicklung ist – ungewollt – der Absolutismus gewesen: die straffen zentralistischen Organisationsformen des Merkantilsystems und des stehenden Heeres
haben modernisierend gewirkt, d. h. die bislang übliche Selbstequipierung beim Wehrstand
wurde durch die absolutistischen Verwaltungsmaßnahmen überwunden, das ständische
System dadurch im Militärbereich aufgelöst (Schössler 1980: 40 ff.).
Die Bürokratisierung ist keine geschichtlich einzigartige Situation der Neuzeit. Max Weber hat ausgearbeitet, daß die Bürokratisierung im Militärbereich bestimmten sozialökonomischen Konstellationen entspringt, die in verschiedenen Epochen und unterschiedlichen
Kulturkreisen auftreten können (Weber 1964: 722).
In einer ersten – und für das 19. Jahrhundert nahezu einzigen – systematischen Aufarbeitung der neuen Militärstruktur konnte der Soziologe Lorenz von Stein 1872 bereits von
Selbstverständlichkeiten ausgehen. Ihn wundert es lediglich, daß die bürgerliche Wissenschaft immer noch einen weiten Bogen um die Analyse der Militärorganisation macht:
„Während (das Heerwesen) mit einer unwiderstehlichen Gewalt immer tiefer in das Leben
des Volkes auf allen Punkten hineindringt … während seine Erfolge (1864 bis 1871! der
Verf.) mehr wie je mit dem innersten Leben des ganzen Volkes sich verschmelzen und
verbinden, steht es in wissenschaftlicher Beziehung im Wesentlichen noch ganz außerhalb
derjenigen Bewegung, der unsere allgemeine Bildung mehr und mehr angehört. Das Heerwesen, so tief es auch in alle Verhältnisse hineingreift, hat sich doch bis auf unsere Zeit von
der übrigen Wissenschaft im Wesentlichen abgeschlossen“ (v. Stein 1872: 1 f.).
Von Stein folgert aus dieser Zustandsbeschreibung, daß die Wissenschaft für die Lösung
dieser Aufgabe verantwortlich ist. Die (Sozial-)Wissenschaft soll das Verständnis des
Heerwesens auf die Höhe der allgemeinen Bildung erheben, „und dasselbe in seinen großen
und für Staat und Volk entscheidenden Momenten in das Bewußtsein des Letzteren einführen. Und das muß sie, weil es in allen Dingen das Kennzeichen der höheren Civilisation ist,
alle großen Fragen und Verhältnisse des Gesamtlebens von demselben Standpunkt in sich
aufzunehmen …“ (v. Stein: 1 f.). Von Stein beschließt dieses Plädoyer mit der mobilisierenden Parole: „Was man verstehen und lehren kann, das soll man auch verstehen und lehren …“ (v. Stein: 1f.).
2
Inwiefern erhellt oder verdunkelt das „Unvereinbarkeits“-Theorem
die tatsächlichen Beziehungen von Wirtschafts- und MilitärWissenschaft?
Solche Diagnose (siehe 1.) trifft genau einen schwachen Punkt der gesellschaftlichen Entwicklung in Deutschland (und in Europa überhaupt): Während sich einerseits eine immer
stärkere Durchdringung der Militärorganisation durch Verwaltung, Wissenschaft und Technik abzeichnet, koppelt sich das geistig-politische Leben des Bürgers von diesen Vorgängen ab. Für den heutigen Betrachter liegen die Folgen auf der Hand:
(1) Auf der einen Seite vervollkommnet sich die Militärorganisation als Bürokratie modernen Zuschnitts, die unter Zuhilfenahme aller technisch-organisatorischen und wissenschaftlichen Mittel sich zur Vorhut der Industriegesellschaft auszuwachsen beginnt.
(2) Hieran im Wesentlichen unbeteiligt, entfaltet sich das geistig-politische Leben des
Bürgertums und später der organisierten Arbeiterschaft.
292
Dietmar Schössler
(3) Daraus folgt(e): Diese „bürgerliche Indifferenz gegenüber dem Militärwesen“ wirkte
„auf die Perpetuierung des esoterischen Charakters von Militärpolitik hin. Insbesondere die Formulierung von Strategien bleibt als Kunst- und Geheimlehre militärischen
Führern vorbehalten, womit ein Stück Arkanpraxis deren Epoche überdauert“ (Brandt,
v. Friedeburg 1966: 11).
(4) Als Restgröße einer militärpolitischen Öffentlichkeit bildeten sich Fachblätter und eine
militärwissenschaftliche Literatur heraus. Deren Publikum bestand im Wesentlichen
aus demjenigen Teil des aufsteigenden Wirtschaftsbürgertums, das in der Rolle des
Reserve-Offiziers eine Orientierungshilfe suchte und sich in äußerlichen Verhaltensformen dem Kodex des aktiven Offiziers anzupassen bemühte.
Im somit verläßlich abgeschirmten Bereich des monarchischen Soldatenstaats entfaltet sich
die bürokratisch organisierte Militärmaschine zu ihrer höchsten Wirksamkeit. Das Militär,
über den bürokratischen Mechanismus zuverlässig an den langen Arm des Herrschers gebunden, übernimmt in der Friedenperiode nach den deutschen Einigungskriegen auch zunehmend innenpolitische Herrschaftsaufgaben. Insbesondere soll über die allgemeine
Wehrpflicht die Arbeiterschaft in die Gesellschaft integriert werden, notfalls durch entsprechende Indoktrination. – Hier erweist sich erst die mehrfache Funktion der Bürokratie für
den Herrscher: Militär und Verwaltung bedingen sich wechselseitig und bringen sich gegenseitig hervor, weil die gewachsene Problemkomplexität anders nicht mehr zu bewältigen ist. Von einer „Unvereinbarkeit“ der beiden Bereiche kann deshalb nur sehr eingeschränkt gesprochen werden. Es sind die objektiven Sachzwänge, aus denen sich zunehmend ein zivil-militärischer Funktionsverbund herausentwickelt. Das UnvereinbarkeitsTheorem dient also eher der Verschleierung dieses „soziologischen Tatbestands“ – und man
darf dahinter handfeste ideologische Erkenntnis-Interessen vermuten.
Anhand eines kleinen Arbeitstableaus seien die Wechselbeziehungen von Wirtschaftsund Militär-Wissenschaft für die verschiedenen – „dogmengeschichtlich“ relevanten –
Perioden aufgezeigt, wobei es hier natürlich nur um erste Bewertungen und Kommentierungen dieser Relationen gehen kann.
Betriebswirtschaftslehre und Militärwissenschaft –Widerspruch oder Kooperation?
1. 18. Jhd. ca. 1750-1800 18. Jhd. ca. 1750-1800
Einfluß der MilitärWissenschaft auf die
Wirtschafts-Wissenschaft
real = gering
offiziell = gering
Einfluß der WirtschaftsWissenschaft auf die
Militär-Wissenschaft
real = (sehr) hoch
offiziell = (sehr) hoch
19. Jhd.
19. Jhd.
Einfluß der MilitärWissenschaft auf die
Wirtschafts-Wissenschaft
2. ca. 1. Hälfte 19. Jhd.
real = hoch
offiziell = gering
3. ca. 2. Hälfte 19. Jhd.
real = sehr hoch
offiziell = gering
Einfluß der WirtschaftsWissenschaft auf die
Militär-Wissenschaft
ca. 1. Hälfte 19. Jhd.
real = gering
offiziell = gering
ca. 2. Hälfte 19. Jhd.
real = sehr gering
offiziell = gering
4. 20. Jhd.
20. Jhd.
Einfluß der MilitärWissenschaft auf die
Wirtschafts-Wissenschaft
real = gering
offiziell = gering
Tableau:
Einfluß der WirtschaftsWissenschaft auf die
Militär-Wissenschaft
real = hoch
offiziell =hoch
Einfluß der Militär-Wissenschaft auf die Wirtschafts-Wissenschaft
& der Wirtschafts-Wissenschaft auf die Militär-Wissenschaft (1750-2000)
293
294
Dietmar Schössler
Kurze Kommentierung des Tableaus
(1) 18. Jahrhundert, insbes. ab ca. 1750-1800
Es hat sich in Deutschland/Mitteleuropa eine vitale Militär-Publizistik entwickelt,
deren Produkte alle anderen militär-theoretischen Publikationen weit überbieten. Es
entfaltet sich in beabsichtigter Parallele zur zivilen Wissenschaft eine „militärische
Aufklärung“ (military enlightenment), die mit dem Zusammenbruch des Alten Regimes ebenfalls vernichtet wird. Die Wirtschafts-Wissenschaft befindet sich in den allerersten Anfängen (noch aus dem statisch-deskriptiven Ansatz der französischen
Verwaltungswissenschaft heraus); sie vermag noch keinen Einfluß zu entwickeln
(Lingenfelder 1999: pass).
(2) 19. Jahrhundert, erste Hälfte (ca. 1800 – 1850)
Nach dem Kollaps des französischen Imperialismus folgt eine Periode der Erschöpfung und Restauration. Diese Lage widerspiegelt sich in der Wirtschafts-/Kameralwissenschaft ebenso wie in der preußisch-deutschen Kriegs- und Militärwissenschaft,
die namentlich von Scharnhorst und seinem Schüler Clausewitz revolutioniert und zunehmend in verhaltensrelevante Dienstvorschriften, Bildungs- und Ausbildungsgänge
umgesetzt wurde (allerdings vielfach mit einem „Methodismus“ verbunden, den Clausewitz heftig kritisiert hätte!).
(3) 19. Jahrhundert, zweite Hälfte (ca. 1850-1900)
Die Spaltung der Gesamtgesellschaft verschärft sich (Bürgerliche Gesellschaft: „Unvereinbarkeits-Theorem usf. Das Unvereinbarkeits-Theorem wirkte sich beispielsweise ganz konkret bei der Einrichtung von Lehrstühlen aus: Kriegs- resp. Militärwissenschaft hatte kaum eine Chance (Vgl. als Beispiel Hans Delbrück!). Real steigen die
Streitkräfte zur technisch-organisatorischen Avantgarde der sich entwickelnden Industriegesellschaft auf – offiziell dominiert die „zivile“ Wirtschafts- und Verwaltungswissenschaft; tatsächlich ist jedoch ihr Einfluß noch gering. (Das ändert sich mit
dem massiven Aufbau der Handelshochschulen resp. entsprechenden Fakultäten ab
1898 und mit dem Aufwuchs der „Betriebswirtschaftslehre“ als eigenständiges Lehrfach um 1900 ff. (Wöhe, Döring 2010: 13 f.). Eine „Strategie-Gemeinschaft“ (Strategic Community) konnte sich – zum langfristigen Schaden der deutschen Außen-, Wirtschafts- und Sicherheitspolitik – angesichts dieser gesellschaftlichen Spaltung natürlich nicht entwickeln.
(4) 20. Jahrhundert
Im 20. Jahrhundert setzen sich diese komplexen Relationen von „Wirtschaft“ und
„Streitkräften“ (und deren fachwissenschaftliche Entsprechungen) fort: es bleibt zwar
eine klare Scheidung in einem institutionell-organisatorischen Sinn. Funktional liegt
jedoch eine weitgehende Verflechtung vor, so daß die Frage der zivil-militärischen
Beziehungen nicht allein mehr mit juristischen (Wehrverfassung) und historischpolitikwissenschaftlichen Analysen zu beantworten ist. Es müssen jetzt zunehmend
technologische und soziologische Variablen einbezogen und in ihrer Wechselwirkung
mit den institutionellen und organisatorischen Variablen analysiert werden. In der Literatur wurde zunehmend mit dem übergreifenden Konzept einer allgemeinen „Revolution im Militärwesen“ (z. B. E. C. Sloan 2002) gearbeitet. Ein anderer Terminus mit
dem gleichen resp. ähnlichem Erkenntnisobjekt und Erkenntnisinteresse ist der Ansatz
Betriebswirtschaftslehre und Militärwissenschaft –Widerspruch oder Kooperation?
295
eines „Militärisch-industriellen Komplexes“. Ein dritter hier infrage kommender Leitbegriff ist das Konzept einer „Strategie-Gemeinschaft“ („Strategic Community“).
3
Wie sollte resp. könnte sich das Verhältnis von
Betriebswirtschaftslehre und Militär-Wissenschaft künftig
weiterentwickeln?
Dieses Verhältnis könnte/sollte sich entlang der in unserer Studie aufgezeigten Linien weiterentfalten:
(1) daß die Relationen von „BWL“ und Militärwissenschaft durch offene Diskurse und in
der Perzeption eines gegenseitigen Nutzens weiterentwickelt werden;
(2) daß die an sich immer noch defizitäre Strategieforschung/Militärwissenschaft die
„BWL“ als methodischen Orientierungsrahmen – gewissermaßen als Leitbild einer inzwischen vollentfalteten (Sozial-)Wissenschaft – akzeptiert;
(3) daß – umgekehrt – die entfaltete „BWL“ Problembewußtsein dafür entwickelt, die
tatsächlich zeitweilig dominierende (Strategie- und) Militärwissenschaft und deren
weitreichende Wirkungen auf die Wirtschaftswissenschaft durch entsprechende Forschungsprojekte in den BWL-Kontext einbezieht;
(4) und beide Seiten akzeptieren, daß es sehr wohl eine „echte“ Unvereinbarkeit beider
Bereiche gibt: jene von der angelsächsischen Militärsoziologie so herausgehobene
„Kampfprämisse“ als dem Wesenskern der Militärorganisation;
(5) daß jedoch bislang überwiegend mit einem Unvereinbarkeitskonzept gearbeitet wurde,
das primär einem Interesse der aufsteigenden bürgerlichen Klasse entstammte und in
der zivilen deutschen (Nachkriegs-)Gesellschaft – zumindest latent - weiterwirkt.
4
Zusammenfassung
Militärisches Handeln zielt in letzter Instanz auf kollektive Gewaltanwendung. Die Zielvorstellungen der bürgerlichen Gesellschaft leiten sich aus den Prinzipien des friedlichen Warenverkehrs ab. Die Befreiung der Produktion von der Bevormundung durch die feudalstaatliche Obrigkeit führte zu einer Ablehnung militärischer Prinzipien durch die Produzenten überhaupt. Das Berufssoldatentum erschien als „parasitäre Klasse“ (Saint-Simon). Die
Schriften von Auguste Comte spiegeln jenes Selbstbewußtsein des sich über den Bereich
des Warenverkehrs hinaus politisch emanzipierenden Industriebürgertums. T. Parsons, R.
Bendix, R. Dahrendorf u.v.a haben jenen – von den westeuropäischen Nationalstaaten abweichenden – Integrationsprozeß beschrieben, der dem Kompromiß aus obrigkeitlich zugestandener ökonomischer Emanzipation des Bürgertums und dessen Anerkennung des „feudal-militaristischen“ (T. Parsons) Überbaus entsprang. Die aufsteigende deutsche Arbeiterbewegung hat eben diesen vom Bürgertum vollzogenen Integrationsprozeß wiederholt.
Indem sich die deutsche Arbeiterbewegung oligarchisierte (R. Michels) resp. bürokratisierte, übernahm sie jenen Wertbezug, der auch der Bourgeoisie erst die Teilhabe am nationalen Aufstiegsprozeß vermittelte.
Es kann deshalb festgehalten werden, daß die Inkompatibilitäts-Theorie – bürgerliche
Gesellschaft versus Militär – sozialgeschichtlich unhaltbar ist. Max Webers Freiburger
296
Dietmar Schössler
Antrittsrede spiegelt schon diese Gespaltenheit: Die „friedlichen“ Zwecke des Warenverkehrs stellten sich nämlich im national-imperialistischen Kontext neuartig dar: zwar büßte
wegen der gesteigerten Produktivität des Faktors Arbeit der Krieg seine Erwerbsfunktion
im engeren Sinne ein. Aber selbst für die liberale Imperialismus-Kritik – so schon H. Spencer – schien sich wegen des wachsenden staatlichen Interventionismus und der immer stärkeren Bürokratisierung der Industrie Gemeinsames zwischen bürgerlich-industrieller Verfassung und militärischen Organisationsprinzipien anzukündigen.
Zwar sind Kriege heute zwischen den „postmodernen“ Gesellschaften etwas unwahrscheinlicher geworden. Doch die damit zusammenhängende Umfunktionierung moderner
Militärorganisationen von tatsächlicher zu lediglich angedrohter Gewaltanwendung - sowie
ein erweitertes Einsatzspektrum innerhalb der konventionellen Ebene – gründet sich – seit
Beginn des Nuklearzeitalters – auf die militärtechnologisch ermöglichte flexible Erwiderung, NATO-Strategie der Flexible Response, jeder Gewaltintensität. Eine gesellschaftlich
bedingte Inkompatibilität von „Arbeit“ und „Krieg“ läßt sich deshalb jedoch nicht vorweisen. Dennoch spiegelt sich als eine Art Residualfaktor auch in der (west-)deutschen Nachkriegsgesellschaft jene kritische Haltung, die sich im weitesten Sinne aus dem perzipierten
Gegensatz von bürgerlichem Geist und militärischem Ethos ableitet.
Literatur
Brandt, G.; Friedeburg, L. v.: Aufgaben der Militärpublizistik in der modernen Gesellschaft, Frankfurt 1966.
Doorn, J. van: Militärische und industrielle Organisation, in: Matthes, J. (Hrsg.): Soziologie und Gesellschaft in den Niederlanden, Neuwied und Berlin 1965.
Hahn, O.: Die optimale Leitungsspanne: wieder entdeckter militärischer Forschungsansatz, in: Der Soldat
als Ökonom, Regensburg 1989.
Janowitz, M.: Armed Forces in Western Europe: Uniformity and Diversity, in: Archives Européennes de
Sociologie, 1965, Heft 2.
Karst, H.; Beermann, F.; Grosse, F.: Menschenführung, Personalauslese, Technik in Wirtschaft und Armee,
Darmstadt 1954.
Lingenfelder, M. (Hrsg.): 100 Jahre Betriebswirtschaftslehre in Deutschland, München 1999.
Looss, J.: Die optimale Kontrollspanne als Grundlage organisatorischer Strukturmodelle, Bochum 1977.
Parsons, T.: Demokratie und Sozialstruktur in Deutschland vor der Zeit der Nationalsozialisten, in: ders.
(Hrsg.): Beiträge zur soziologischen Theorie, Neuwied und Berlin 1964.
Saint-Simon, H. de: Über die Gesellschaftsorganisation, in: Ramm, T. (Hrsg.): Der Frühsozialismus, Stuttgart 1956.
Schall, W.: Führungstechnik und Führungskunst in Armee und Wirtschaft, Bad Harzburg 1965.
Schössler, D.: Militärsoziologie, Königstein/Taunus 1980.
Sloan, E. C.: The Revolution in Military Affairs, Montreal&Kingston 2002.
Stein, L. v.: Die Lehre vom Heerwesen, 1872, (Neudruck Osnabrück 1967).
Weber, M.: Wirtschaft und Gesellschaft, Köln/Berlin 1964.
Wittmann, J.: Auftragstaktik, Berlin 2012.
Wöhe, G.; Döring, U.: Einführung in die Allgemeine Betriebswirtschaftslehre, 24. Aufl., München 2010.
Die Wirtschaftstrends der Zukunft
Hermann Simon
Durch die anhaltende Krise hat sich unser Blick auf die Zukunft verändert. Dies mag uns
verunsichern. Aber wir können diese Entwicklung nicht aufhalten, denn die Welt bleibt
nicht stehen. Längerfristige Wirtschaftstrends, die durch die Krise teilweise unterbrochen
wurden, setzen sich in der „Nachkrisenzeit“ durch und bestimmen unsere Zukunft. Ein
Blick nach vorne lohnt deshalb gerade heute. Viele Megatrends sind jedermann bewusst
und schon in vollem Gange. Dazu gehören das Vordringen erneuerbarer Energien, alternative Antriebssysteme bei Automobilen, die Fortschritte in Biotechnologie sowie Medizintechnik – und natürlich der Mega-Megatrend Demographie. Solche großen gesellschaftlichen und politischen Trends sind nicht Gegenstand dieses Beitrages. Mir geht es hier um
Entwicklungslinien, die Management und Unternehmensführung sehr konkret betreffen.
Die folgenden sechs Wirtschaftstrends haben sich schon teilweise manifestiert, teilweise
sind sie erst im Entstehen begriffen. Sie werden sich weiter konkretisieren, beschleunigen
und verstärken. Sie beeinflussen die zukünftigen Chancen und Risiken erfolgreicher Unternehmensführung in starkem Maße. Mein Ziel in diesem Beitrag ist es, klare Diagnosen zu
stellen und daraus praktische, handfeste Empfehlungen für das Management abzuleiten.
Wer sich auf die Wirtschaftstrends unserer Zukunft einstellt und vorausschauend die richtigen Weichen stellt, der wird von den gewonnenen Einsichten profitieren.
Die Globalisierung beschleunigt sich
Eine Vielzahl von Indikatoren belegt, dass die Globalisierung in den letzten drei Jahrzehnten enorm an Fahrt gewonnen hat. Wie Abbildung 1 zeigt, sind die grenzüberschreitenden
Aktivitäten weitaus stärker gewachsen als die landesinterne Wertschöpfung. Und vieles
spricht dafür, dass sich dieser Trend fortsetzen und sogar noch verstärken wird. Ich spreche
deshalb von beschleunigter Globalisierung.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_22,
© Springer Fachmedien Wiesbaden 2013
298
Hermann Simon
Index
(1980=100)
15.967Bücher zur Globalisierung
1000
943
Tägliche grenzüberschreitende Finanztransaktionen
812
Exporte
594
Internationale Touristen
500
Internationale Flüchtlinge
416
Ausländische Direktinvestitionen
750
500
250
100
0
1980
Abbildung 1:
heute
2051
Indikatoren der Globalisierung seit 1980
Die Beschleunigung wird in den weltweiten Pro-Kopf-Exporten sichtbar. Abbildung 2
zeigt die Entwicklung seit 1900:
Abbildung 2:
Weltexporte pro Kopf der Weltbevölkerung (in US-Dollar)
Die Wirtschaftstrends der Zukunft
299
Ausgehend von einem sehr niedrigen Niveau (6 US-Dollar im Jahre 1900) wurden fünfzig Jahre für eine Vervierfachung benötigt. Die beiden Weltkriege zerstörten die internationalen Handelsstrukturen und warfen die Entwicklung der Exporte um Jahrzehnte zurück. In
den nächsten 30 Jahren bis 1980 gab es ein sehr starkes Wachstum. Die nächste Verdoppelung auf knapp 1 000 US-Dollar brauchte dann nur noch 20 Jahre. Seit dem Jahr 2000 haben sich die Weltexporte pro Kopf innerhalb von zehn Jahren wiederum mehr als verdoppelt, trotz des bereits hohen Niveaus.
In absoluten Zahlen bedeutet diese Entwicklung einen Anstieg des internationalen Güteraustausches von 9,9 Milliarden US-Dollar im Jahre 1900 (damals lag die Weltbevölkerung
bei 1,65 Milliarden Menschen) auf 14.904 Milliarden US-Dollar in 2010 (Weltbevölkerung: 6,9 Milliarden Menschen). Das ist eine Steigerung um nahezu das Fünfzehnhundertfache. Der internationale Güteraustausch ist heute fast 1500-mal so hoch wie vor 100 Jahren. Dabei sind Direktinvestitionen und Dienstleistungsexporte (z.B. Finanzdienstleitungen,
Softwareentwicklung oder Call Center in Indien) nicht einmal eingerechnet. Wie Abbildung
1 andeutet, würde sich das Wachstum durch deren Einbeziehung nochmals verdoppeln. Es
sei ausdrücklich darauf hingewiesen, dass die obigen Zahlen nicht inflationsbereinigt und
generell mit Vorsicht zu genießen sind. Es geht uns hier nur um das Aufzeigen von Tendenzen und Größenordnungen. Die Krise von 2008/09 hat diese Trends allenfalls unterbrochen, aber nicht grundsätzlich geändert. Bereits im Jahre 2010 wurde bei vielen Indikatoren
der Globalisierung das Vorkrisenniveau wieder erreicht. In diesem Sinne sprechen die Statistiken eine Sprache, wie sie eindeutiger nicht sein kann: Die Globalisierung schreitet
ungebremst voran und beschleunigt sich dabei.
Die Globalisierung von Unternehmen läuft in typischen Phasen ab. Am Anfang steht der
reine Export, dann folgen die Gründung ausländischer Vertriebsgesellschaften und später
die Produktion im Ausland. In diesem Prozess internationalisiert sich die Belegschaft. So
haben die meisten international aktiven deutschen Unternehmen heute mehr Mitarbeiter im
Ausland als in Deutschland. Kann man ein Unternehmen, das 60 oder 80 Prozent seiner
Mitarbeiter in anderen Ländern beschäftigt, noch als „deutsch“ bezeichnen? Neuerdings
rücken Forschung und Entwicklung an ausländische Standorte nach. Als letzte Phase folgt
schließlich die Globalisierung des Managements. Immer mehr Unternehmen treten in das
Stadium ein, in dem Mitarbeiter und Führungskräfte aus unterschiedlichen Kulturen im
Alltag zusammenarbeiten. Harvard-Professor Howard Gardner, Erfinder des Konzepts der
multiplen Intelligenzen, qualifiziert deshalb in seinem Buch „Five Minds for the Future“
den Respekt für andere Kulturen als eine Schlüsselfähigkeit der Zukunft. Wo stehen
Deutschland und deutsche Unternehmen in dieser Hinsicht? In vielen Aspekten wie Exportstärke, Wettbewerbsfähigkeit unseres Systems, geostrategische Lage schneiden wir hervorragend ab. Auf anderen Feldern wie Demografie, Management der Zuwanderung, Gewinnung internationaler Talente, Umsetzungsfähigkeit belegen wir allenfalls mittlere, wenn
nicht hintere Plätze. Gleichzeitig holen große Länder wie China oder Indien mit rapiden
Schritten auf. Insbesondere chinesische Unternehmen erweisen sich als zunehmend gefährliche Konkurrenten für deutsche Mittelständler.
300
Hermann Simon
Die Politik nimmt stärkeren Einfluss
Die Wirtschaftskrise hat den Trend zur stärkeren Einflussnahme der Politik, vor allem im
Finanzsektor, massiv befördert. Unabhängig davon läuft die Maschinerie der staatlichen
Intervention seit Jahren mit zunehmender Intensität. Die Einflussnahme wird dabei immer
detaillierter (siehe EU-Regelungen) und kann alle Managementinstrumente betreffen (man
denke beispielsweise an Vorschriften zur Managementvergütung). Selbst Kerngeschäftsprozesse sind nicht mehr tabu. So schlägt der Yale-Ökonom Shiller unabhängige Finanzberater vor, die vom Staat bezuschusst und pro Beratungsstunde vom Kunden bezahlt werden,
aber ansonsten keine weiteren Provisionen erhalten. In einem weiteren Vorschlag verlangt
er für Privatleute Kreditversicherungen, die ähnlich wie die Kfz-Versicherung Pflicht sind.
Manager werden sich immer stärker mit derartigen Vorschriften herumschlagen müssen.
Das Thema Compliance, also die Beachtung und Überwachung von Regeln, Vorschriften,
Gesetzen, Verhaltenscodes etc. schränkt die Freiheiten der Unternehmensführung nachhaltig ein. Gleichzeitig verringern sich die Spielräume der Politik auf Grund der exorbitanten
Verschuldung. Das Manövrieren in dieser Gemengelage wird zunehmend schwieriger.
Damit wird die Fähigkeit des Managements, den politischen Willensbildungsprozess zu
beeinflussen und innerhalb verschärfter Rahmenbedingungen zu agieren, wichtiger. Der
Lobbyismus wird zu einer Wachstumsbranche der Zukunft. Dort werden zahlreiche neue,
anspruchsvolle Arbeitsplätze entstehen.
Management und Kapital rücken näher zusammen
Eines der großen Themen unserer Zeit ist die Angleichung der Interessen von Eigentümern
und angestellten Managern. Das Auseinanderklaffen der Ziele dieser beiden Gruppen, angefacht durch falsche Anreizsysteme, war eine der Hauptursachen der großen Krise. Ein
naheliegendes Verfahren zur Angleichung der Interessen besteht darin, Manager verstärkt
zu Miteigentümern zu machen. Viele der Probleme der Vergangenheit wurden durch Aktienoptionen ausgelöst, die Manager zu einem Verhalten incentivierten, das letztlich nicht
den Interessen der Eigentümer entsprach. Dieser Widerspruch lässt sich am besten durch
eine Beteiligung der Manager auflösen. Siemens leistet in dieser Hinsicht Pionierarbeit,
indem es von seinen Vorständen verlangt, dass sie Siemens-Aktien in beträchtlicher Höhe
erwerben und halten. Der Vorstandsvorsitzende muss das Dreifache seines jährlichen Fixgehaltes von ca. 2 Millionen Euro, also ca. 6 Millionen Euro, normale Vorstände müssen
das Doppelte ihres Fixgehaltes von ca. 1 Million Euro, also ca. 2 Millionen Euro, in Siemens-Aktien investieren. Das macht Vorstände zu echten Miteigentümern. Entscheidend ist
dabei, dass die zu investierenden Summen groß genug sind, um dem Einzelnen „weh zu
tun“. Ein Vorstand, der mehrere Millionen Euro in das von ihm geführte Unternehmen
investiert hat, wird ähnliche Präferenzen wie die Aktionäre entwickeln, etwa im Hinblick
auf die Vermeidung unkalkulierbarer Risiken.
In engem Zusammenhang damit stehen Fragen der Finanzierung. Die Entwicklung von
Unternehmen wird wesentlich stärker als bisher von den Finanzierungsmöglichkeiten bestimmt. Kredite sind schwerer zu bekommen, diese Tendenz wird anhalten. Eigenkapital
wird gegenüber Fremdkapital deutlich an Bedeutung gewinnen. Das ist eine der bleibenden
Folgen der Krise, die aber ohnehin überfällig war. Die offensichtlich falsche Bewertung
von Risiken hat zu massiven Fehlallokationen von Kapital und zu unrealistischen Rendite-
Die Wirtschaftstrends der Zukunft
301
erwartungen geführt. Wenn Kredit in Zukunft ein knappes Gut wird, so muss vermehrter
Eigenkapitaleinsatz die Lücke schließen. Dazu sind Innovationen in diesem Bereich erforderlich.
Produktwelten verschieben sich
Deutsche Produkte besetzen im weltweiten Wettbewerb vielfach Premiumpositionen. Bei
Premium- und Luxusautomobilen haben deutsche Firmen beispielsweise einen globalen
Marktanteil von gut 70 Prozent. Auch in Zukunft müssen diese Marktstellungen unbedingt
verteidigt werden. Das sollte gelingen, denn diese Positionen sind durch überlegene Leistungen und interne Kompetenzen untermauert. Größer sind die Herausforderungen am
unteren Ende der Preisskala. Denn dort entsteht ein neues Segment, das sehr groß zu werden verspricht. Um in diesem „Ultra-Niedrigpreis-Segment“ erfolgreich zu sein, ergeben
sich völlig neue Anforderungen an Forschung und Entwicklung, Produktion und Vermarktung. Erste Erfahrungen mit dem indischen Billigauto Tata Nano zeigen, dass deutsche
Unternehmen hier durchaus bestehen können. Mit Bosch als größtem sind acht weitere
deutsche Zulieferer im Nano vertreten. Sogar der Chef von Tata Auto, Carl-Peter Forster,
ist ein Deutscher. Wir müssen in die Lage kommen – und sind dies teilweise schon – die
Chinesen bei den Kosten anzugreifen. Die große Herausforderung wird sein, im UltraNiedrigpreis-Segment Geld zu verdienen.
Außer im Automobilmarkt sind deutsche Unternehmen in den Luxussegmenten kaum
vertreten. Doch auch diese Segmente wachsen stärker als das Mittelpreis-Segment, insbesondere in aufstrebenden Ländern wie China. Die bisherige Vernachlässigung des Luxusgütersegments durch deutsche Firmen muss deshalb korrigiert werden.
Aufgrund der explosionsartig gestiegenen Leistungsfähigkeit und den gleichzeitig gesunkenen Kosten der Elektronik steht die Automatisierung nicht nur in der Industrie, sondern
auch im Privatbereich vor einem Quantensprung. Wenige wissen, dass die deutschen Unternehmen auf diese Entwicklung bestens vorbereitet sind und sie mit vorantreiben. Das
Fundament dieser Führungsrolle liegt darin, dass es hier nicht um reine Informationstechnologie, sondern um die Integration von IT und Mechanik geht.
Das Kundenverhalten ändert sich nachhaltig
Die Wirtschaftskrise war eine Absatz- und keine Kostenkrise. Die Kunden haben Kaufverweigerung betrieben und ihr Verhalten verändert. Das Vertrauen in die Marktwirtschaft und
insbesondere in den Finanzsektor wurde schwer beschädigt. Aus der Verhaltensforschung
wissen wir, dass solche Verhaltensänderungen in die Nachkrisenzeit hinein Bestand haben
werden. Nach einer derart schwerwiegenden Krise kann es fünf Jahre dauern, bis die Verbraucher das verloren gegangene Vertrauen wieder gewinnen und zu ihren alten Kauf- und
Konsumgewohnheiten zurückkehren. Misstrauen und Angst vor der Zukunft, vor allem vor
dem Verlust des Arbeitsplatzes, bleiben für viele bestimmend. Harte Nutzen- und Kostenvorteile werden auf lange Zeit eine höhere Bedeutung behalten. Auf leichtfertige Käufe
wird eher verzichtet. Spontankäufe hochpreisiger Artikel werden vermieden. Gestauchte
Zeitpräferenz, striktere Finanzierung sowie Sicherheit sind weitere Facetten eines veränderten Kundenverhaltens. Diese neuen Gegebenheiten sollten jedoch nicht nur als Bedrohun-
302
Hermann Simon
gen, sondern durchaus auch als Chancen verstanden werden, auf die strategische Antworten
zu finden sind. Bei diesen kann es sich um erweiterte Garantien oder Probezeiten, großzügige Rücktrittsklauseln, erfolgsabhängige Bezahlung, Tauschgeschäfte, neue Servicemodelle, Vertiefung der Wertschöpfungskette oder ähnliche Maßnahmen handeln. So hat der
koreanische Autohersteller Hyundai in den USA mit einer einjährigen Rücknahmegarantie
im Falle des Arbeitsplatzverlustes in den Jahren 2009 und 2010 starke Marktanteilsgewinne
verbuchen können.
Vernetzung nimmt stark zu
Das Internet ist bereits weit in die Unternehmensfunktionen vorgedrungen. Dennoch stehen
wir wohl erst am Anfang. Die beiden ausschlaggebenden Fähigkeiten des Internets, nämlich die extrem kostengünstige Distribution digitaler Produkte sowie die Vernetzung großer
Zahlen von Anbietern und Nachfragern befinden sich geschäftlich betrachtet in einem sehr
frühen Stadium. Nur wenige Firmen nutzen die sich diesbezüglich bietenden Potenziale
heute im optimalen Umfang. Apple hat die Chancen, die das Internet für die Distribution
digitaler Inhalte bietet, am besten verstanden und zu seinen Gunsten genutzt. Integrierte
Systeme wie iPod, iPhone, iPad und die dazu gehörigen Applikationen („Apps“) haben das
Tor in die Zukunft weit aufgestoßen und können zu Vorbildern für andere Contentanbieter
werden. In der Nutzung der Vernetzungsfähigkeit des Internets ist bisher nur Google ein
großer wirtschaftlicher Erfolg. Facebook mit fast 600 Millionen Mitgliedern könnte der
zweite große Erfolg werden. Jedenfalls deutet die kürzlich von Goldman Sachs getroffene
Bewertung mit 50 Milliarden Dollar darauf hin. Dabei ist Facebook nicht einmal das größte
soziale Netzwerk der Welt. Diesen Titel beansprucht nämlich der chinesische Dienst qq
(gesprochen tschü tschü), der 650 Millionen Nutzer angibt.
Wir werden viele neue Ansätze, Modelle, Erfolge und auch Flops sehen. Für traditionelle
Anbieter wie Zeitungs- und Buchverlage wird sich die Welt radikal verändern. Das Internet
wird langfristig zum wichtigsten Marketing-Informationskanal.
Die Herausforderung: Schneller und effektiver umsetzen
Angesichts der großen und schnellen Veränderungen stellt sich eine übergeordnete Herausforderung, die effektivere Umsetzung. Obwohl sich in dieser Hinsicht in den letzten Jahren
vieles verbessert hat, hapert es nach wie vor in den meisten Unternehmen an einer effektiven und schnellen Realisierung von Plänen und Entscheidungen. Insbesondere die Chinesen erweisen sich uns in dieser Hinsicht als überlegen. Managementeffizienz und effektivität beginnen mit einer besseren Nutzung der knappen Ressource Zeit. Angesichts
der Überflutung mit Information werden der Kampf gegen unproduktives Multitasking, der
Umgang mit den neuen Kommunikationstools und die Vermeidung von Überorganisation
zu noch wichtigeren Fähigkeiten von Managern. Dennoch verlieren hergebrachte Tugenden
wie Realitätssinn, Vermeidung großer Fehler und Innovativität nichts von ihrer Bedeutung.
Zum Schluss möchte ich es nicht versäumen, vor einem naiven Glauben an Trends zu
warnen: Glauben Sie nicht an Trends, sondern betrachten Sie meine hier vorgestellten Vorschläge als Anregungen zum kritischen Nach- und Überdenken. Oft steht die Schrift des
Trends an der Wand, man muss sie allerdings erkennen und bedenken.
Anforderungen des Technologiemanagements an die
Modellierung von Entscheidungssituationen
Dieter Specht, Gunnar Berntsen
1
Komplexität als Parameter betriebswirtschaftlicher
Entscheidungen
Der Begriff der Komplexität ist vielschichtig und mehrdimensional und kann in diesem
Zusammenhang als die Gesamtheit aller Merkmale eines Objektes oder Zustandes verstanden werden. Komplexe Entscheidungssituationen sind durch zahlreiche und interdependente Entscheidungsparameter sowie schwierig zu überschauende Konsequenzen einer Entscheidung gekennzeichnet.1 Der Komplexitätsgrad ist dabei von der Anzahl der Elemente
und der existierenden Beziehungen, der Unterschiedlichkeit der Elemente und deren Beziehungen und der Anzahl möglicher Zustände im Zeitablauf abhängig.2
Betriebswirtschaftliche Entscheidungen sind heutzutage in der Regel innerhalb einer
Umgebung zu treffen, die von indirekten Wirkungen, Beziehungsnetzen und Zeitverzögerungen gekennzeichnet sind. Dennoch wird die Identifikation und Abbildung von Systemzusammenhängen in Entscheidungssituationen häufig auf einfache Ursache-Wirkungsbeziehungen beschränkt und führt im Allgemeinen zu einem fehlerhaften Umgang mit
komplexen Systemen, da die tatsächliche Vernetzung der Systemelemente unberücksichtigt
bleibt. Der lange Zeit ausreichende unvernetzte Denkansatz stößt in Zeiten hochkomplexer
Systeme und miteinander vernetzter Strukturen und Prozesse an seine Grenzen. Das Denken, Planen und Handeln in Zusammenhängen erfordert neuartige instrumentelle Hilfen.
Bisherige zur Verfügung stehende systemanalytische Methoden erweisen sich als aufwändig und dennoch nicht adäquat. Zwar stehen moderne Informationstechnologien zur Verfügung, aber die Hoffnung, mit dem Zugang zu mehr Informationen und genaueren Daten
bessere Entscheidungen treffen zu können, führt stattdessen nur zu einem Komplexitätsdilemma, denn die gewaltigen Informationsmengen können nicht mehr bewältigt werden und
erhöhen die Komplexität.3
1
Vgl. Bliss (2000), S. 3–4 und die dort angegebene Literatur sowie Adam; Rollberg (1995), S. 667
2
Vgl. Dehnen (2004), S. 31
3
Vgl. Vester (2005), S. 15 – 20
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_23,
© Springer Fachmedien Wiesbaden 2013
304
Dieter Specht, Gunnar Berntsen
Entscheidend bei der Erfassung eines komplexen Systems sind die Aggregationsebene,
die Auswahl der wesentlichen Systemelemente und die Identifikation charakteristischer
Beziehungen zwischen den Systemelementen. Insbesondere qualitative Informationen, die
für das Verständnis von Systemen häufig eine große Bedeutung haben, bleiben durch die
Fokussierung auf messbare Daten oft unberücksichtigt und das Systemverhalten wird in
den Entscheidungssituationen nicht realitätsadäquat abgebildet. Exakte Messwerte täuschen
eine vermeintliche Richtigkeit vor, die der Veränderlichkeit von Einflussgrößen und der
Dynamik der Umwelt nicht gerecht werden. Zur Erfassung von Komplexität ist das Erkennen von Mustern entscheidend, wofür die Beziehungen zwischen den Systemelementen
analysiert werden müssen. Systemgerechte Managementmethoden ermöglichen, komplexe
Systeme mit wenigen Schlüsselvariablen zu erfassen und dessen Verhalten besser zu verstehen, als es isoliert erfasste exakte Messwerte können.4
2
Theorien zur Modellierung von Unsicherheit und Unschärfe
Das Unternehmensumfeld ist durch zunehmende Veränderungen, Turbulenzen und Diskontinuitäten geprägt5 und erfordert eine intensive Auseinandersetzung mit der bestmöglichen
Beschreibung zukünftiger Situationen und der gedanklichen Vorwegnahme zukünftigen
Handelns.6 Aufgabe der Planung ist die Identifikation geeigneter Maßnahmen zur Beseitigung von Abweichungen des derzeitigen oder erwarteten Zustandes eines Systems von
einem angestrebten, durch Ziele beschriebenen Zustandes dieses Systems. Zur Lösungsfindung sind Entscheidungen unter Nutzung der zur Verfügung stehenden Informationen
durch den Planer beziehungsweise den Entscheidungsträger zu treffen und durchzusetzen.7
Betriebswirtschaftliche Entscheidungsprobleme beinhalten in der Regel die Gestaltung
komplexer realer Systeme. Die vollständige Erfassung und Beschreibung der Elemente und
Beziehungen des Realproblems in einem isomorphen8 Realmodell ist einerseits häufig nicht
möglich, andererseits nicht immer erforderlich. Durch Abstraktion vom realen System
sollten zur Lösungsfindung nur die planungsrelevanten Elemente und Beziehungen in das
Modell übertragen werden, wodurch die Abbildung und die Analyse der Zusammenhänge
vereinfacht beziehungsweise erst möglich wird. Das Ausmaß der Abstraktion und damit die
Komplexität des Modells werden durch die angestrebte Genauigkeit der Problemlösung,
den realisierbaren Detaillierungsgrad der relevanten Informationen und die Verhältnismäßigkeit der Kosten für die Informationsbeschaffung bestimmt.9
4
Vgl. Vester (2005), S. 20–21, 26
5
Vgl. Mißler-Behr (2001), S. 10
6
Vgl. Schneeweiß (1991), S. 1–2
7
Vgl. Klein; Scholl (2011), S. 1–2
8
In einem isomorphen oder strukturgleichen Modell steht jedem Element und jeder Beziehung des Originals ein Element beziehungsweise eine Beziehung im Modell gegenüber und umgekehrt. Bleibt die
Grundstruktur des Originals erhalten und werden einzelne Bestandteile des Originals zu einem einzigen
Bestandteil im Modell zusammengefasst, handelt es sich um ein homomorphes oder strukturähnliches
Modell. Vgl. Klein; Scholl (2011), S. 32
9
Vgl. Klein; Scholl (2011), S. 31–32
Anforderungen des Technologiemanagements an die Modellierung
305
Die Entscheidungsprobleme sind durch die Tragweite, die Komplexität und die Strukturiertheit des Problems, die Wirkungsdauer und die Revidierbarkeit der Problemlösung sowie das Ausmaß der Unsicherheit von Umwelteinflüssen und der Dynamik der Umwelt
charakterisiert und für die Notwendigkeit und die Erfolgsaussichten der Planung maßgebend.10 Das Wissen, welches in Planungs- und Entscheidungsprozessen Handlungen auslöst, stützt sich auf Informationen. Informationen basieren auf verarbeiteten und interpretierten Daten, haben für den Entscheider einen konkreten Bezug und subjektiven Mehrwert.11 Sie können demzufolge in zweckorientiertes beziehungsweise für Entscheidungen
relevantes Wissen verwandelt werden.12 Das Entscheidungsfeld des Entscheidungsträgers
umfasst die in einem bestimmten Zeitpunkt wählbaren Handlungsalternativen oder Strategien, die Zustände des Unternehmensumfeldes und die Konsequenzen der jeweiligen Handlungsalternativen bei einem bestimmten Zustand. Zur Beurteilung der Konsequenzen der
Handlungsalternativen benötigt der Entscheidungsträger Informationen über den Zustand
derjenigen Faktoren, welche das Handlungsergebnis beeinflussen. Die Zustände dieser
Faktoren können durch die Vergangenheit, die Gegenwart oder erst durch die Zukunft bedingt sein.13
Viele der Planungs- und Entscheidungssituationen werden in einem Umfeld vollzogen, in
welchem die Ziele, die Randbedingungen und die Konsequenzen der möglichen Handlungen nicht genau bekannt sind. 14 In diesen Fällen sind die den Planungs- und Entscheidungsprozessen zugrunde liegenden Informationen unvollkommen. 15 Zur Klassifizierung
von unvollkommenen Informationen können die in den Planungs- und Entscheidungsprozessen genutzten Informationen nach ihrer Bestimmtheit in die Bestimmtheitsgrade Sicherheit, Unsicherheit und Unschärfe unterschieden werden. 16 Unter dem Bestimmtheitsgrad ist
die Eindeutigkeit der Zuordnung von Attributausprägungen bei der Erfassung und der Beschreibung der Eigenschaften eines Zustandes zu verstehen. Sind alle Attributausprägungen
eines Zustandes bekannt, liegt der Bestimmtheitsgrad Sicherheit vor. Unsicherheit bezeichnet Bestimmtheitsgrade, bei denen Unbestimmtheit durch einen Mangel an Informationen
besteht und nicht eindeutig entschieden werden kann, ob ein bestimmter Zustand eintritt
oder nicht.17 Ist lediglich das Eintreten irgendeines Zustandes bekannt, wird diese Form der
Unsicherheit als Ungewissheit bezeichnet. Lassen sich subjektive oder objektive Wahrscheinlichkeiten für das Eintreten verschiedener Zustände angeben, liegt Risiko vor.18 Unschärfe bezeichnet die Unbestimmtheit von Informationen durch einen Mangel an begriffli-
10
Vgl. Klein; Scholl (2011), S. 3
11
Vgl. Gerpott (2002), S. 84–86, Horvath (2009), S. 557
12
Vgl. Wittmann (1959), S. 14
13
Vgl. Bamberg; Coenenberg; Krapp (2008), S. 15, 18–19
14
Vgl. Bellman; Zadeh (1970), S. 141
15
Vgl. Wittmann (1959), S. 26
16
Vgl. Schneeweiß (1991), S. 34–37
17
Vgl. Schneeweiß (1991), S. 31, 34–37 und Biewer (1997), S. 23
18
Vgl. Bamberg; Coenenberg; Krapp (2008), S. 19
306
Dieter Specht, Gunnar Berntsen
cher Schärfe.19 Im Unterschied zur Unsicherheit bezieht sich Unschärfe nicht auf das Eintreten von Zuständen, sondern auf die inhaltliche Bestimmung der Zustände selbst.20 Diese
Form der Unbestimmtheit resultiert aus dem menschlichen Denken und Urteilen sowie aus
der sprachlichen Darstellung von menschlichem Wissen.21 Unschärfe ist kein charakteristisches Merkmal der Dinge selbst, sondern der Repräsentation der Dinge, beispielsweise durch
die Sprache.22 Unschärfe kennzeichnet das Verhältnis der vorhandenen Erkenntnis von Dingen und die diese ausdrückenden sprachlichen Formulierungen zur Wirklichkeit, aber nicht
die Wirklichkeit selbst.23 Es können drei Arten von Unschärfe unterschieden werden:24
• Linguistische (auch intrinsische, lexikalische) Unschärfe: Hierunter wird die inhaltliche
Undefiniertheit von Wörtern und Sätzen der menschlichen Sprache verstanden. Die zur
Beschreibung einer Situation verwendeten Ausdrücke sind inhaltlich nicht eindeutig und
vom jeweiligen Zusammenhang abhängig. Formulierungen wie „angemessener Gewinn“ oder „vertretbare Kosten“ stellen keine eindeutigen Beschreibungen eines Zustandes dar und erschließen sich erst im Kontext. Häufig findet sich auch eine Kombination
der linguistischen Unschärfe mit dem Risikofall der Unsicherheitssituation, beispielsweise „Ein guter Gewinn ist wahrscheinlich“.
• Informationale Unschärfe: Diese Art von Unschärfe resultiert aus der Schwierigkeit, eine
große Menge von Informationen zu einem klaren Gesamturteil zu verdichten. Es liegen
zwar genau definierbare Begriffe vor, allerdings sind zu ihrer umfassenden Beschreibung
eine große Anzahl von Eigenschaften notwendig, die durch den Menschen nicht vollständig erfasst und verarbeitet werden können. Beispielsweise wird unter Kreditwürdigkeit
die Fähigkeit verstanden, einen Kredit vereinbarungsgemäß zurückzuzahlen. Die Überprüfung des Vorliegens dieser Eigenschaft, welche von einer Vielzahl von Merkmalen
beeinflusst wird, gestaltet sich aber sehr schwierig.
• Relationale Unschärfe: Bei dieser Art von Unschärfe handelt es sich um Aussagen, bei
denen die gegenseitigen Abhängigkeiten der einbezogenen Objekte keinen dichotomen
Charakter besitzen. Das heißt, die Beziehungen zwischen den Objekten sind unscharf.
Beispiele sind die Formulierungen „viel größer als“, „erheblich teurer als“ oder „ungefähr gleich“. Auch eine Kombination mit der linguistischen Unschärfe ist möglich, zum
Beispiel: „Bei schlechter Gewinnerwartung ist die Investitionstätigkeit gering“ oder
„Mitarbeiter A ist viel motivierter als Mitarbeiter B“.
In Abbildung 1 werden die Ausführungen zu den möglichen Bestimmtheitsgraden der in
Planungs- und Entscheidungssituationen zur Verfügung stehenden Informationen zusammenfassend dargestellt.
19
Vgl. Schneeweiß (1991), S. 35. In der Literatur finden sich auch die Begriffe Ungenauigkeit, Vagheit,
linguistische Unsicherheit, Fuzziness, Unvollständigkeit oder die dann nicht ausschließlich im entscheidungstheoretischen Sinne verwendeten Begriffe Unsicherheit und Ungewissheit zur Charakterisierung
von Informationen, welche durch einen Mangel an begrifflicher Schärfe gekennzeichnet sind. Vgl.
Rommelfanger (1988), S. 4, Mißler-Behr (2001), S. 25–26
20
Vgl. Spengler (1999), S. 128
21
Vgl. Winkler (2008), S. 10
22
Vgl. Russell (1923), S. 31
23
Vgl. Schaff (1974), S. 223
24
Vgl. Rommelfanger (1988), S. 4–5 und Zimmermann (1993), S. 4
307
Anforderungen des Technologiemanagements an die Modellierung
Sicherheit
Bestimmtheit der
Informationen
Unsicherheit
Unbestimmtheit durch
einen Mangel an
Informationen
Bestimmtheitsgrad
von Informationen
Ungewissheit
Risiko
Mischformen
Iinguistische
Unschärfe
Unschärfe
Unbestimmtheit durch
einen Mangel an
begrifflicher Schärfe
informationale
Unschärfe
Mischformen
relationale
Unschärfe
Abbildung 1:
Bestimmtheitsgrad von Informationen
(Quelle: Eigene Darstellung)
Eine Vielzahl der anerkannten Theorien zur Modellierung von Unbestimmtheit ist auf
einzelne Typen beziehungsweise Ursachen von Unbestimmtheit fokussiert. Dennoch erfolgt die Modellierung einer Unbestimmtheitssituation häufig unabhängig von den Eigenschaften des realen Problems durch dessen Anpassung an die zur Modellierung eingesetzte
Theorie anstatt die Theorie anhand der Charakteristik des Realproblems auszuwählen.25 Die
Identifikation einer geeigneten Theorie zur bestmöglichen Modellierung einer Unbestimmtheitssituation ist von verschiedenen Kriterien abhängig:26
• den Gründen der Unbestimmtheit,
• den Ausprägungen der verfügbaren Informationen bezüglich Art, Menge und Qualität,
• der Art der Informationsverarbeitung beziehungsweise der mathematischen Operatoren,
die eine Theorie verwendet,
• dem Ziel der Modellierung und in diesem Zusammenhang dem vom Empfänger geforderten Ausgabeformat der durch die Theorie zur Verfügung gestellten Informationen.
Neben den Gründen der Unbestimmtheit, welche in der Regel die Menge und die Qualität
der verfügbaren Informationen bestimmen und auf den Informationsfluss zwischen dem
abzubildenden System und der zur Abbildung eingesetzten Theorie einwirken, nimmt auch
die Art der vorliegenden Informationen Einfluss auf die Auswahl einer geeigneten Theorie
zur Modellierung einer spezifischen Unbestimmtheitssituation. In Abhängigkeit davon, ob
25
Vgl. Zimmermann (1997), S. 90
26
Vgl. hierzu und im Folgenden Zimmermann (1999), S. 289. Zimmermann schränkt ein, dass kein Anspruch auf Vollständigkeit erhoben wird und die Kriterien selbst nicht immer überschneidungsfrei sind.
308
Dieter Specht, Gunnar Berntsen
die Informationen in numerischer, linguistischer, intervallwertiger oder symbolischer Form
vorliegen, sollten die in den Theorien verfügbaren mathematischen Operatoren und deren
Anforderungen an die Skalenniveaus der Eingangsinformationen und auch der Ausgangsinformationen bei der Auswahl Berücksichtigung finden.27 Aus den benannten Kriterien kann
ein Klassifikationsschema abgeleitet werden, dessen Dimensionen zur Beschreibung der
Unbestimmtheitssituationen und der Unbestimmtheitstheorien herangezogen werden können. Anhand der Übereinstimmungen der Profile in den Dimensionen ergibt sich die für
eine spezifische Unbestimmtheitssituation am besten geeignete Theorie.28 Tabelle 1 zeigt
das Klassifikationsschema.
Tabelle 1:
Schema zur Klassifikation von Unbestimmtheitssituationen und -theorien
Kriterium
Grund der
Unbestimmtheit
Verfügbare
Eingangsinformationen
Skalenniveau
numerischer
Eingangsinformation
Informationsverarbeitung
Erforderliche
Ausgangsinformationen
Dimension
Unsicherheit
(Risiko)
Unsicherheit
(Ungewissheit)
linguistische
Unschärfe
informationale
Unschärfe
relationale
Unschärfe
Mischformen
numerisch
intervallwertig
linguistisch
symbolisch
nominal
ordinal
kardinal
algorithmisch
wissensbasiert
heuristisch
numerisch
intervallwertig
linguistisch
symbolisch
(Quelle: in Anlehnung an Zimmermann (1997), S. 92)
27
Vgl. Zimmermann (2000), S. 194–196
28
Vgl. Zimmermann (2000), S. 197 und Zimmermann (1997), S. 92
Anforderungen des Technologiemanagements an die Modellierung
309
Unsicherheit und Unschärfe sind als nicht vermeidbarer Teil der Umwelt und Realität zu
begreifen.29 Unbestimmtheit ist eine von der Situation abhängige Eigenschaft von Systemen oder Phänomenen, die vielfältige Gründe haben kann und zudem von den vorhandenen
und erforderlichen Informationen beeinflusst wird. Der Informationsfluss vom zu beschreibenden System beziehungsweise Phänomen über die zur Beschreibung eingesetzte Theorie
bis zum Betrachter sollte insbesondere in Bezug auf die Qualität und Quantität der Informationen ein konsistentes System ergeben.30 Zur Modellierung von Unbestimmtheit existieren
verschiedene Theorien, zum Beispiel diverse Wahrscheinlichkeitstheorien31, die Möglichkeitstheorie32, die Evidenztheorie33, die Fuzzy Set Theorie34, die Grey Set Theorie35, die
Intuitionistic Set Theorie36, die Rough Set Theorie37, das Degree of Surprise Concept38, die
Intervallarithmetik39 oder das konvexe Modellieren40. Diese Theorien sind in ihren Eigenschaften nicht überschneidungsfrei oder sind teilweise in anderen Theorien enthalten. Sie
unterscheiden sich hinsichtlich ihrer Annahmen über die Menge und die Qualität der zur
Verfügung stehenden Eingangsinformationen und der Verarbeitungsweisen der Informationen. Die meisten der Theorien definieren ihr Anwendungsgebiet ausdrücklich oder indirekt
durch axiomatische Systeme.41 Keine der existierenden Theorien kann für sich in Anspruch
nehmen, alle Arten von Unbestimmtheit angemessen zu modellieren. Dementsprechend
sollte die Auswahl einer Theorie zur Modellierung einer spezifischen Unbestimmtheitssituation kontextabhängig erfolgen.42
3
Unsicherheit und Unschärfe im Technologiemanagement
Technologien stellen für viele Unternehmen Ressourcen von oberster Bedeutung zur Erzielung von Wettbewerbsvorteilen dar. Der technologische Wandel ist einer der wichtigsten
Einflussfaktoren auf die Wettbewerbssituation eines Unternehmens, der die Integration von
Strategien und Technologien erfordert.43 Mit neuen Technologien oder technologierelevan
29
Vgl. Zimmermann (1993), S. V–VI
30
Vgl. Zimmermann (2000), S. 197
31
Beispielsweise die Wahrscheinlichkeitstheorien nach Kolmogoroff, Koopman, Bayes oder Qualitative
Wahrscheinlichkeiten. Vgl. Zimmermann (1999), S. 299
32
Dubois; Prade (1988)
33
Shafer (1976)
34
Zadeh (1965)
35
Deng (1989)
36
Atanassov (1986)
37
Pawlak (1985)
38
Shackle (1969)
39
Moore (1966)
40
Ben-Haim; Elishakoff (1990)
41
Vgl. Zimmermann (1999), S. 297–299
42
Vgl. Zimmermann (2000), S. 197
43
Vgl. Burgelman; Christensen; Wheelwright (2009), S. 2, 4, 7–8
310
Dieter Specht, Gunnar Berntsen
ten Veränderungen der Unternehmensumwelt verbundene Chancen und Risiken für die
Wettbewerbsposition eines Unternehmens müssen frühzeitig erkannt und technologische
Kompetenzen und Technologiestrategien entsprechend angepasst werden44. Aufgabe des
Technologiemanagements ist der systematische Aufbau einer Technologiebasis durch Anstoßung unternehmensinterner Forschungs- und Entwicklungsaktivitäten, die Integration
bestehender Technologien sowie Entscheidungen über externe Bezugs- und Verwertungsmöglichkeiten von Technologien.45 Das Technologiemanagement nimmt in Unternehmen
eine Querschnittsfunktion ein46 und muss die Kompetenzen verschiedener Funktionsbereiche des Unternehmens, beispielsweise von Forschung und Entwicklung, Produktion sowie
Marketing und Vertrieb, aber auch über die Unternehmensgrenzen hinaus die technologische Kompetenz, beispielsweise von Lieferanten, bündeln und integrieren. 47 In diesem
Zusammenhang gewinnt das Management von Technologien in Netzwerken, beispielsweise
Entwicklungsnetzwerken, Produktionsnetzwerken oder Supply Chain Netzwerken immer
mehr an Bedeutung.48 Aus dem zunehmenden Einsatz von Technologien in allen Unternehmensbereichen resultiert eine funktionsübergreifende und unternehmensweite Verteilung technologiebezogener Aktivitäten.49 Um der Bedeutung von Technologien im Unternehmen gerecht zu werden, muss das Technologiemanagement als integrierte und ganzheitliche Aufgabe der Unternehmensführung angesehen werden.50 Abbildung 2 zeigt die Wirkungsbereiche des Technologiemanagements.
44
Vgl. Koller (2002), S. 344–345
45
Vgl. Zahn (1995), S. 16
46
Vgl. Gerpott (2005), S. 65; Schröder (1996), S. 1996
47
Vgl. Zahn (1995), S. 20–21; Schröder (1996), S. 1996
48
Vgl. beispielsweise Schuh, Wellensiek, Nollau (2010), S. 189; Grauer (2010), S. 68; Göpfert, Grünert
(2008), S. 211
49
Vgl. Klappert (2006), S. 18
50
Vgl. Bullinger (1996), S. 4-26; Tschirky (1998), S. 194, 226
Anforderungen des Technologiemanagements an die Modellierung
Abbildung 2:
311
Technologiemanagement
(Quelle: Bullinger (1996), S. 4-26)
Der Prozess des Technologiemanagements lässt sich in die Phasen Technologiefrühaufklärung, Technologiestrategieentwicklung, Technologiestrategieumsetzung und Technologiecontrolling unterteilen. 51 Das strategische Management von Technologien ist auf die
Erarbeitung von Entscheidungsgrundlagen zur Auswahl von Technologien oder strategischen Technologiefeldern ausgerichtet, die zur Erlangung und Erhaltung der angestrebten
Wettbewerbsposition des Unternehmens den größten Zielerreichungsbeitrag leisten sowie
die zur Nutzung und Beherrschung der ausgewählten Technologien zielführendsten strategischen Wege aufzeigen.52 Konkrete Entscheidungssituationen innerhalb des Technologiemanagements beinhalten beispielsweise Fragestellungen nach technologischen beziehungsweise technologierelevanten Entwicklungen der Unternehmensumwelt und der Bewertung der technologischen Stärken und Schwächen eines Unternehmens sowie der Bewertung der daraus resultierenden Chancen und Risiken für das Unternehmen, Fragestellungen der Entwicklung eines Technologieleitbildes und der Festlegung strategischer Technologiefelder und technologischer Kernkompetenzen, Fragestellungen zum Aufbau und zur
Pflege von Potentialen zur Umsetzung der Technologiestrategien und zur Koordination und
Ausrichtung von Handlungen und Entscheidungen entsprechend der technologischen Unternehmensziele.53
51
Vgl. Mieke (2006), S. 10–11
52
Vgl. Tschirky (1998), S. 293–294
53
Vgl. Wolfrum (1994), S. 80–84, Gerpott (2005), S. 59–60 und Bullinger (1996), S. 4-32 – 4-33
312
Dieter Specht, Gunnar Berntsen
Eingebunden in die strategische Unternehmensplanung sind die Fragestellungen im
Technologiemanagement zunächst wenig strukturiert sowie in einer komplexen Unternehmensumwelt zu beantworten. Das Eintreten bestimmter zukünftiger Ereignisse ist aufgrund
der Langfristigkeit des Planungszeitraums mit großer Unsicherheit behaftet. Planungsrelevante Informationen liegen häufig nur in qualitativer Form vor und Zusammenhänge zwischen verschiedenen Einflussfaktoren sowie mögliche Folgen sind unbekannt, unvollständig oder nur unscharf beschreibbar. Viele Bewertungen und Einschätzungen von Situationen und Ergebnissen sind subjektiv.54 Die Vorhersagen bestimmter Entwicklungen erfolgen
dann, statt durch genaue Zahlenangaben, mit Hilfe verbaler Formulierungen wie beispielsweise „hoch“, „mittel“ oder „niedrig“.55 Die inhaltserhaltene Verarbeitung dieser unscharfen Informationen gestaltet sich mit den zur Verfügung stehenden scharfen Instrumenten
und Methoden schwierig beziehungsweise erfolgt zum Teil auf fragwürdige Weise. Durch
die Vielzahl der zu spezifizierenden Variablen und Beziehungen innerhalb der Fragestellungen des Technologiemanagements, ist deren Abbildung mit Hilfe von mathematischen
Modellen häufig nur für sehr einfache Probleme möglich.56 Im Unterschied zu den wohlstrukturierten betrieblichen Planungssystemen ist hinsichtlich der Güte der Realitätsabbildung und hinsichtlich der Quantifizierbarkeit und Verlässlichkeit der Planungsergebnisse
im Technologiemanagement ein anderes Planungsverständnis und eine hohe Flexibilität des
Planungssystems gegenüber sich häufig ändernden Realitätsabbildungen erforderlich.57
Entsprechend des dargestellten Klassifikationsschemas sind die Dimensionen Unsicherheit und Unschärfe des Kriteriums „Grund der Unbestimmtheit“ charakteristisch für die
Fragestellungen des Technologiemanagements. Ursächlich sind zum einen der Mangel an
Informationen über das tatsächliche Eintreten zukünftiger Ereignisse, wie beispielsweise
die Entdeckung neuartiger Technologien oder die Herausbildung neuartiger Kundenanforderungen. Zum anderen sind die komplexen Wirkungsbeziehungen technologischer und
technologierelevanter Einflussfaktoren sowie deren inhaltliche Bestimmung selbst begründend für den Mangel an begrifflicher Schärfe im Technologiemanagement, da diese häufig
unbekannt sind oder nur unvollständig oder unscharf beschrieben werden können. Dies
trifft in der Regel beispielsweise auf Aussagen über das Entwicklungspotential, die Höhe
der zu erwartenden Entwicklungskosten oder den Verfügbarkeitszeitpunkt bestimmter
Technologien zu. Resultierend aus der Schwierigkeit, nicht alle notwendigen Einflussfaktoren und Wirkungsbeziehungen für die Entscheidungsfindung im Technologiemanagement
hinreichend erfassen zu können, müssen die Entscheidungen regelmäßig auf der Basis
unvollständiger objektiver Informationen getroffen werden. Unter diesen Bedingungen
werden zur Entscheidungsfindung im Technologiemanagement häufig subjektive Informationen in Form von Expertenmeinungen herangezogen. Trotz des Fachwissens basieren die
Aussagen von Experten zu einem großen Teil auf Annahmen, die aus Erfahrungen und den
zur Verfügung stehenden unvollkommenen objektiven Informationen abgeleitet werden.
Die Subjektivität dieser Informationen kann als ein weiterer Grund für Unsicherheit und
54
Vgl. Werners (1993), S. 77
55
Vgl. Spengler (1999), S. 128
56
Vgl. Rommelfanger (1997), S. 175
57
Vgl. Koller (2002), S. 350
Anforderungen des Technologiemanagements an die Modellierung
313
Unschärfe im Technologiemanagement gesehen werden. 58 Als Folge der zunehmenden
Komplexität der Problemstellungen des Technologiemanagements sind auch widersprüchliche Informationsmengen hinsichtlich des wahren Verhaltens eines Systems als Auslöser
von Unsicherheit und Unschärfe denkbar, deren Ursachen beispielsweise falsche, als solche
aber nicht erkannte Informationen, oder Informationen, die auf nicht relevanten Eigenschaften des Betrachtungsobjektes basieren, oder die Verwendung eines ungeeigneten Beschreibungsmodells für die gegebene Situation sein können.59
Als weiteres Kriterium des Klassifikationsschemas zur Beurteilung der Eignung einer
Unsicherheitstheorie für die Modellierung einer bestimmten Entscheidungssituation ist die
Art der vorliegenden Informationen zu untersuchen. Im Technologiemanagement müssen
Fragestellungen in einer komplexen und dynamischen Unternehmensumwelt beantwortet
werden. Planungsrelevante Informationen liegen häufig nur in qualitativer Form vor und
zahlreiche Bewertungen und Einschätzungen von Situationen und Ergebnissen sind subjektiv und können nur unscharf verbal formuliert werden. Als Mittel der menschlichen Kommunikation sind linguistische, unscharfe Informationen als gegebene und notwendige Informationsart innerhalb der Entscheidungssituationen des Technologiemanagements zu
akzeptieren und müssen systematische Berücksichtigung in den Entscheidungsprozessen
finden. Neben linguistischen Informationen sind auch numerische Informationen charakteristisch für Entscheidungssituationen im Technologiemanagement. Beispielsweise könnten
Zahlen über Patente oder Publikationen auf einem bestimmten technologischen Gebiet,
quantitative Beschreibungen über die Eigenschaften einer Technologie oder Prognosen
über deren Marktpotential vorliegen. Auch intervallwertige Informationen sind in diesem
Zusammenhang denkbar, da einem bestimmten Parameter einer Technologie möglicherweise kein genauer Zahlenwert zugeordnet und nur ein Intervall, in dem die Werte des
Parameters schwanken, angegeben werden kann. Werden zur Darstellung von Informationen Symbole, wie Zahlen, Buchstaben, Bilder oder Worte verwendet, ist die Aussagefähigkeit der Informationen von der semantischen Definition der Symbole abhängig.60 Innerhalb
der Fragestellungen des Technologiemanagements werden symbolische Informationen
vorwiegend in Form von Zahlen und Wörtern der natürlichen Sprache vorliegen, deren
Inhalt und Bedeutung durch die numerische beziehungsweise die linguistische Dimension
als bereits berücksichtigt angenommen werden soll.
Die numerischen Eingangsinformationen können auf verschiedenen Skalenniveaus vorliegen. Aus der Art der untersuchten Eigenschaft eines Objektes ergibt sich, wie gut ihre
Ausprägung gemessen werden kann. Durch das Skalenniveau werden die Qualität der Informationen und die Informationsverarbeitungsmöglichkeiten bestimmt. 61 Für die Unbestimmtheitssituation im Technologiemanagement können numerische Eingangsinformationen auf allen Skalenniveaus angenommen werden. In Abhängigkeit von den Rahmenbedingungen, unter denen das Technologiemanagement durchgeführt wird, wie beispielsweise
der untersuchten Technologiefelder oder der Branche eines Unternehmens, werden sich die
Informationsgehalte der Daten und damit die Bedeutung der Skalenniveaus der Informatio
58
Vgl. Zimmermann (1999), S. 293
59
Vgl. Zimmermann (1999), S. 292
60
Vgl. Zimmermann (1999), S. 294–295
61
Vgl. Backhaus et al. (2011), S. 10–11
314
Dieter Specht, Gunnar Berntsen
nen für bestimmte Fragestellungen im Einzelfall unterscheiden. Handelt es sich beispielsweise um Ideen für neuartige Technologien oder noch größtenteils unerforschte Technologien, die in die Betrachtungen einbezogen werden sollen, werden Informationen über die
konkreten Ausprägungen der Eigenschaften der Technologie nur auf einem niedrigeren
Skalenniveau zu erheben sein, als bei der Betrachtung und Bewertung von Schlüssel- oder
Basistechnologien. Werden erfolgreich eingesetzte Technologien einer Branche für Anwendungsfelder in einer anderen Branche untersucht, können auch in diesem Fall Informationen nur auf einem niedrigen Skalenniveau messbar sein, wenn für das neue Anwendungsfeld belastbare und konkrete Informationen fehlen.
Die Anforderungen an die Verarbeitung von Informationen leiten sich aus der Art der
vorliegenden Eingangsinformationen ab. Grundsätzlich ist es möglich, Informationen von
einem höheren Skalenniveau auf ein niedrigeres Skalenniveau zu transformieren, beispielsweise um durch die Bildung von Merkmalsausprägungsklassen die Übersichtlichkeit
von Informationen zu erhöhen oder die Analyse von Informationen zu vereinfachen. In der
Regel ist mit derartigen Transformationen aber ein Informationsverlust verbunden.62 Obwohl eine umgekehrte Vorgehensweise nicht möglich ist, werden häufig Theorien mit mathematischen Operatoren verwendet, die dem Skalenniveau der zu verarbeitenden numerischen Informationen nicht entsprechen.63 Als relevante Eingangsinformationen innerhalb
der Fragestellungen des Technologiemanagements wurden numerische Informationen auf
Nominal-, Ordinal-, Intervall- oder Verhältnisskalenniveau sowie intervallwertige und
linguistische Informationen identifiziert. Daraus ergibt sich für den Einsatz von Unbestimmtheitstheorien innerhalb der Unbestimmtheitssituationen des Technologiemanagements einerseits die Notwendigkeit über entsprechende mathematische Operatoren zur
Verarbeitung numerischer Informationen zu verfügen. Zudem sind Konzepte erforderlich,
die Aussagen von Experten in Form von linguistischen Informationen verarbeiten können.
In Abhängigkeit vom intendierten Nutzungszwecks der Informationen, beispielsweise als
Eingangsgrößen für mechanische oder elektronische Systeme, für mathematische Algorithmen, zur Mustererkennung oder zur Beschreibung und Vorhersage des Verhaltens eines
Systems, müssen die Ausgangsinformationen des Informationsverarbeitungsprozesses in
einer geeigneten Sprache und auf einem angemessenen Skalenniveau zur Verfügung gestellt werden.64 Adäquate Ausgangsinformationen für die Weiterverarbeitung und die Nutzung als Entscheidungsgrundlage für die Fragestellungen des Technologiemanagements
stellen vor allem numerische und linguistische Informationen dar. Nutzer der aus dem
Technologiemanagementprozess hervorgehenden Informationen ist in der Regel zunächst
die strategische Managementebene, welche anhand von Kennzahlen oder verbalen Beschreibungen über technologische und technologierelevante Entwicklungen der Unternehmensumwelt Entscheidungen über die strategische Ausrichtung eines Unternehmens trifft.
Um der Bedeutung der Entscheidungen dieser Managementebene für den Unternehmenserfolg gerecht zu werden, müssen trotz der herrschenden Unbestimmtheit möglichst fundierte
Entscheidungen auf der Basis von qualitativ hochwertigen Informationen getroffen werden.
Da sich der Aussagegehalt und die mathematischen Verarbeitungsmöglichkeiten von In62
Vgl. Backhaus et al. (2011), S. 11–12
63
Vgl. Zimmermann (1999), S. 296
64
Vgl. Zimmermann (2000), S. 196
Anforderungen des Technologiemanagements an die Modellierung
315
formationen mit steigendem Skalenniveau vergrößern65, sind für die Entscheidungen im
Technologiemanagement insbesondere Ausgangsinformationen auf Verhältnisskalenniveau
von Bedeutung, in Abhängigkeit der Fragestellung sind aber auch Informationen auf allen
anderen Skalenniveaus relevant.
4
Bedeutung und Vorteil der Modellierung unscharfer Modelle für
das Technologiemanagement
Aus dem vielfältigen und komplexen Zusammenwirken wissenschaftlicher, technischer und
ökonomischer Entwicklungen ergibt sich eine wachsende Bedeutung der Unsicherheitsund Unschärfemodellierung. Diese Modellierungsansätze ermöglichen die Verbesserung
bestehender Anwendungen und die Erschließung neuer Anwendungen, welche ihrerseits
wiederum zur technologischen und ökonomischen Weiterentwicklung beitragen. Die Entwicklungen, beispielsweise in den Bereichen der Informationsverarbeitung, der Automatisierung, der Globalisierung oder der Ökologie, erfordern zunehmend die Bewältigung
hochkomplexer Problemstellungen, deren präzise Modellierung und sichere Voraussage in
den meisten Fällen unmöglich ist und Vereinfachungen beziehungsweise andere Herangehensweisen notwendig machen.66
Unbestimmtheit wurde in der Wissenschaft lange Zeit vernachlässigt. Wissenschaftliche
Erkenntnisse mussten bis in die Anfänge des 19. Jahrhunderts messbar und in Zahlen ausdrückbar sein, um als solche anerkannt zu werden. Mit dem Aufkommen und der Akzeptanz der Statistischen Mechanik als berechtigtes wissenschaftliches Fachgebiet erlangte
auch Unbestimmtheit zunehmend Beachtung und wurde in einigen wissenschaftlichen
Fragestellungen als nützlich anerkannt.67 Bis heute ist die wahrscheinlichkeitstheoretische
Auffassung und Präsentation von Unbestimmtheit unter Wissenschaftlern, Technikern und
Philosophen vorherrschend.68 Seit der Mitte des 19. Jahrhunderts wurde erkannt, dass mit
Hilfe von Wahrscheinlichkeitstheorie und Statistik nicht alle Aspekte von Unbestimmtheit
angemessen modelliert werden können und es wurde begonnen, die verschiedenen nichtwahrscheinlichkeitstheoretischen Erscheinungsformen von Unbestimmtheit und deren
Nutzen in der Wissenschaft, im Ingenieurwesen und in anderen Gebieten zu erforschen.69
Trotz gleichzeitigen Aufkommens der Computertechnologie in dieser Zeit und den sich
daraus eröffnenden neuen methodischen Möglichkeiten im Umgang mit bisher unlösbaren
komplexen Problemstellungen, sahen einige Forscher die Notwendigkeit radikal neuer
Methoden, die auf grundlegend neuen Konzepten und mathematischen Theorien basieren.70
Hauptsächlich auf komplexe technologische Anwendungen ausgerichtet, entstanden insbe
65
Vgl. Backhaus et al. (2011), S. 11
66
Vgl. Biewer (1997), S. 25, 28
67
Vgl. Klir (1997), S. 27
68
Vgl. Ben-Haim (1997), S. 25. Die Anfänge der mathematischen Wahrscheinlichkeitstheorie finden sich
im Jahr 1654, ihre endgültige Ausprägung fand sie im Jahr 1933 durch A. N. Kolmogorov. Vgl.
Mammitzsch (1999), S. 241
69
Vgl. Klir (1997), S. 27
70
Vgl. Klir (1997), S. 28
316
Dieter Specht, Gunnar Berntsen
sondere in den letzten Jahrzehnten Methoden zur Quantifizierung von Unbestimmtheit, die
nicht auf der Wahrscheinlichkeitstheorie begründet sind.71
Viele der in der Vergangenheit eingesetzten Techniken zur Analyse ökonomischer und
sozialer Systeme sind Adaptierungen von Methoden zur Auseinandersetzung mit Systemen,
welche im Wesentlichen durch die Gesetze der Mechanik, des Elektromagnetismus und der
Thermodynamik beherrscht werden. Deren bemerkenswerter Erfolg führte zu dem Glauben, dass die gleichen oder ähnliche Techniken mit vergleichbarer Effektivität zur Analyse
soziotechnischer Systeme eingesetzt werden könnten. Gleichzeitig steigerte die zunehmende Effektivität der Computersimulationstechniken zur Analyse physikalischer Systeme die
Beliebtheit des Einsatzes computerbasierter ökonometrischer Modelle für Voraussagen,
volkswirtschaftliche Planungen und Managementzwecke. Ein wesentliches Merkmal soziotechnischer Systeme ist aber gerade das schwer vorhersagbare Verhalten der Systembestandteile und des Systems. Damit verbunden ist die Problematik das Verhaltens soziotechnischer Systeme überhaupt quantitativ, analog zu den mechanistischen Systemen, in Form
von Differential- und Integralgleichungen beschreiben zu können.72
Zadeh beschreibt den Zusammenhang zwischen hoher Präzision und hoher Komplexität
in einem Inkompatibilitätsprinzip, nach dem die Fähigkeit, präzise und bedeutsame Aussagen über das Verhalten eines Systems zu machen, sich umso mehr verringert, je mehr die
Komplexität des Systems wächst, bis sich schließlich Präzision und Bedeutsamkeit ab einem bestimmten Punkt gegenseitig nahezu völlig ausschließen. Die Lösung eines Problems
wird umso unschärfer, je genauer ein Problem der realen Welt betrachtet wird.73 Die konventionellen präzisen Methoden der Systemanalyse und der Computersimulation erweisen
sich als außerstande, die große Komplexität menschlicher Denk- und Entscheidungsprozesse zu bewältigen und bedeutsame Aussagen über das Verhalten soziotechnischer Systeme
zu machen.74
Ein analoger Zusammenhang kann im Sinne einer Kompensationsbeziehung auch zwischen Unsicherheit und Unschärfe festgestellt werden. Unschärfe erzwingt nicht das Setzen
von Grenzen, für deren präzise Bestimmung und Begründung das notwendige Wissen fehlt.
Je unschärfer ein Problem definiert ist, umso wahrscheinlicher gelingt im Allgemeinen
dessen robuste Modellierung.75 Einerseits ist Unschärfe ein Grundphänomen jedes Systems
sprachlicher Repräsentation.76 Die Produktion einer verbalen Äußerung ist ein komplexer
Prozess, bei dem durch den Rückgriff auf aktuelles und gespeichertes Wissen die Äußerung
inhaltlich festgelegt und anschließend der Inhalt in eine sprachliche Struktur umgewandelt
wird.77 Allerdings erfordert die genaue inhaltliche Beschreibung eines Begriffes das Bewusstsein für alle grundsätzlich möglichen sprachlichen Bedeutungsstrukturen dieses Be71
Vgl. Ben-Haim (1997), S. 11
72
Vgl. Zadeh (1973), S. 28
73
Vgl. Zadeh (1973), S. 28
74
Vgl. Zadeh (1975), S. 201
75
Vgl. Biewer (1997), S. 28–29
76
Vgl. Russell (1923), S. 89
77
Vgl. Busemann (1993), S. 8, 11
Anforderungen des Technologiemanagements an die Modellierung
317
griffes. Die Unkenntnis über die Vielzahl dieser Bedeutungsstrukturen führt zur Bildung
unscharfer Informationen.78 Andererseits ist die natürliche Sprache der Ausgangspunkt für
die Entwicklung und Formalisierung abstrakter Konzepte und Ideen. Deren Aussagen wären bedeutungslos, wenn diese sich nicht mindestens auf theoretische Weise in natürlicher
Sprache darstellen ließen. Allerdings können starre und komplexe mathematische Ausdrücke diese Konzepte nur eingeschränkter beschreiben, als es die natürliche Sprache kann und
die ihr inhärente Unschärfe nicht angemessen erfassen. 79 Unschärfe kann erkenntnisfördernd wirken und der adäquate Ausdruck unvollkommenen Wissens sein.80 Erst durch die
Akzeptanz von Methoden mit annäherndem Charakter wird eine aussagekräftige Analyse
der für die Anwendung konventioneller quantitativer Methoden zu komplexen oder zu
ungenau bestimmten Systeme möglich.81
Vester veranschaulicht in einem Beispiel zur Mustererkennung beeindruckend das Potential von Unschärfe. Ein zunächst unscharf erscheinendes Bild aus unterschiedlich hellen
Quadraten zeigt einen menschlichen Kopf. Allerdings lässt sich auch mit Hilfe einer akribisch betriebenen Analyse der Details, wie die Anzahl und die Größe der Quadrate sowie
die Abstufungen der Grauwerte, nicht erkennen, wessen Gesichtszüge sich hinter der Unschärfe des Bildes verbergen. Die Analyse des Systems erfolgt in diesem Fall mit der falschen wissenschaftlichen Methode. Es genügt nicht, nur die Details des Systems zu erfassen. Werden die Trennlinien der Quadrate durch die Betrachtung des Bildes aus einer größeren Entfernung unscharf, treten die Beziehungen zwischen den Details in den Vordergrund und die Funktionen der einzelnen Komponenten des Systems, wie Augen oder
Mund, werden erkennbar. Fehlende Teile der wahrgenommenen Wirklichkeit werden vom
Gehirn ergänzt. Durch die Konzentration auf die Systemzusammenhänge ist zur Beschreibung des Systems nur noch ein Bruchteil der Informationen erforderlich. Aus waagerechten
und senkrechten Linien sowie Graustufenwertsprüngen werden Kurven und Flächenverhältnisse, welche die Gesichtszüge von Abraham Lincoln wiedergeben.82 Abbildung 3 zeigt
dieses Bild.
78
Vgl. Zimmermann (1992), S. 343–344
79
Vgl. Goodman; Nguyen (1985), S. 5, 13
80
Vgl. Biewer (1997), S. 17
81
Vgl. Zadeh (1975), S. 201
82
Vgl. Vester (2005), S. 54–55
318
Abbildung 3:
Dieter Specht, Gunnar Berntsen
Abraham Lincoln
(Quelle: Vester (2005), S. 54)
Das Beispiel zeigt, dass durch die Erfassung unscharfer Informationen und die Konzentration auf wenige Systemparameter komplexe Systeme abgebildet werden können. In der
Realität erweisen sich die meisten Beziehungen zwischen zwei Variablen als nicht-linear
und nicht mathematisierbar. Nur durch die Berücksichtigung qualitativer, nicht messbarer
Größen bei der Modellierung realer Systeme kann die tatsächliche Abbildung der Wirklichkeit gelingen.83 Die genaue Voraussage der Entwicklung komplexer Systeme erweist
sich als Wunschdenken. Innerhalb eines begrenzten Zeithorizontes, beispielsweise in
Wachstumsphasen, sind auch in komplexen Systemen Prognosen möglich. Diese täuschen
dem Unkundigen aber eine deterministische Entwicklung vor. Die Berücksichtigung von
Unschärfe garantiert im Gegensatz zu präzisen Modellen, welche auch bei falschen Annahmen noch präzise erscheinen, dass gegebenenfalls weniger exakte, dafür aber niemals
falsche Konzepte der Realität abgebildet werden.84
Der Komplexität technologischer Entscheidungen und der Unsicherheit über zukünftige
technologische Entwicklungen begegnen Experten und Entscheidungsträger in der Regel
durch Unschärfe in den Formulierungen über mögliche zukünftige Zustände innerhalb der
Fragestellungen des Technologiemanagements. Die Formulierungen basieren häufig nur
auf verbal und qualitativ beschreibbaren menschlichen Wahrnehmungen und Einschätzungen. Andererseits können auch quantitative Informationen aus technischen Prozessen oder
ökonomischen Untersuchungen existieren, die sich nur durch Intervalle und nicht durch
reelle Zahlen ausdrücken lassen. Diese Sachverhalte sind mit dem weit verbreiteten Bestreben der Formulierung von deterministischen Modellen schwierig zu vereinbaren und ma83
Vgl. Vester (2005), S. 181, 257
84
Vgl. Vester (2005), S. 256–257
Anforderungen des Technologiemanagements an die Modellierung
319
chen eine angemessene Transformation dieser Informationen in vermeintlich exakte Daten
erforderlich. Müssen Entscheidungen unter Berücksichtigung unsicherer zukünftiger Entwicklungen getroffenen werden, stellen die Prognose und die Quantifizierung von relevanten Daten für die Entscheidungsfindung weitere Herausforderungen dar. Die klassische
Entscheidungstheorie greift in diesen Fällen auf mittlere Werte für Verteilungen beziehungsweise für unscharfe Größen zurück. Dieser Ansatz erweist sich insbesondere bei einer
vorsätzlichen Modellierung der Verteilungen im Hinblick auf die Erzeugung eines operablen Modells als fragwürdig und führt zu scheinbar optimalen Lösungen, welche für die
realen Probleme keine adäquaten Lösungen darstellen.85
Anhand des Klassifikationsschemas konnten die Anforderungen zur Modellierung der
Unbestimmtheit innerhalb der Fragestellungen des Technologiemanagements aufgezeigt
werden. Für den Erfolg der Modellierung entscheidend ist die Wahl einer entsprechend der
Problemstellungen und der Zielsetzungen adäquaten Präzision und Sprache.86 Der Wissensstand erlaubt oftmals keine präzisen Aussagen. Werden in diesen Fällen dennoch präzise
Aussagen formuliert, entsteht der Eindruck exakt bekannter Wirkungszusammenhänge. Der
tatsächliche Wissensstand wird aber ungenauer widergespiegelt als durch unscharfe Aussagen. Andererseits kann unscharfes Wissen den Anforderungen einer konkreten Problemstellung vollkommen genügen beziehungsweise die Nutzung unscharfen Wissens durch
Vereinfachung von Zusammenhängen und Komplexitätsreduktion eine Problemlösung erst
möglich machen.87
Mit dem Schlüsselkonzept der Linguistischen Variable verfügt die Fuzzy Set Theorie
über eine effektive Methode zur Ausnutzung der Toleranz von Unschärfe und Unsicherheit
bei den Fragestellungen des Technologiemanagements zur Erzielung lenkbarer, robuster
und wirtschaftlicher Problemlösungsmodelle. 88 Die Fuzzy Set Theorie bietet geeignete
Instrumente zur Modellierung und Handhabung von Wissen, welches nicht nur auf bewiesenen Theorien, sondern zu einem Großteil auf verbal formulierten Erfahrungen basiert.89
Mit der Fuzzy Set Theorie gelingt die Verbindung der Darstellung von Informationen auf
sprachlicher Ebene in Form von linguistischen Werten und Wenn-Dann-Regeln einerseits
und der numerischen Darstellung von Informationen in Form von Zahlen, Messwerten und
Kennfeldern andererseits. Durch die sprachliche Darstellung können Informationen aus
unscharfen Bewertungen und Expertenwissen in einer dem menschlichen Informationsverarbeitungsprozess adäquaten Weise inhaltserhaltend verarbeitet werden und in verständlicher und leicht modifizierbarer Form abgebildet werden.90
Die Integration der Fuzzy Set Theorie in das Technologiemanagement kann zur Verbesserung der Entscheidungsgrundlagen für technologische Fragestellungen in Unternehmen
beitragen. Mit Hilfe der Konzepte der Fuzzy Set Theorie können die Qualität und die Quantität der im Technologiemanagementprozess verarbeiteten Informationen erhöht werden.
85
Vgl. Rommelfanger; Eickemeier (2002), S. 13–14
86
Vgl. Schaff (1974), S. 242
87
Vgl. Biewer (1997), S. 16–18
88
Vgl. Zadeh (1995), S. 809
89
Vgl. Rommelfanger (1997), S. 176
90
Vgl. Pfeiffer et al. (2002), S. 520
320
Dieter Specht, Gunnar Berntsen
Die verfügbaren Informationen können mit der von Experten und Entscheidungsträgern
gesehenen Genauigkeit in die Entscheidungsprozesse Eingang finden. Eine Modifikation
der verfügbaren Informationen, um diese in scharfen Modellen verarbeiten zu können, ist
nicht erforderlich. Dadurch kann die Reduzierung oder Verfälschung der Aussagekraft der
Informationen vermieden werden. Gegebenenfalls gelingt mit Hilfe der Fuzzy Set Theorie
erst die Verarbeitung und Nutzung von verfügbaren Informationen, die zuvor bei der Entscheidungsfindung nicht berücksichtigt werden konnten.
Literatur
Adam, D.; Rollberg, R. (1995): Komplexitätskosten. In: Die Betriebswirtschaft (DBW), 55. Jg., 1995, H. 5,
S. 667–670.
Atanassov, K. T. (1986): Intuitionistic fuzzy sets. In: Fuzzy sets and systems. 1986, Volume 20, Issue 1, pp.
87 – 96.
Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (2011): Multivariate Analysemethoden: Eine anwendungsorientierte Einführung. 13. Auflage, Berlin und Heidelberg 2011.
Bamberg, G.; Coenenberg, A. G.; Krapp, M. (2008): Betriebswirtschaftliche Entscheidungslehre. 14.
Auflage, München 2008.
Bellman, R.; Zadeh, L. A. (1970): Decision-making in a fuzzy environment. In: Management Science.
1970, Volume 17, Number 4, pp.141–164.
Ben-Haim, Y.; Elishakoff, I. (1990): Convex Models of Uncertainty in Applied Mechanics. Amsterdam
1990.
Ben-Haim, Y. (1997): Beyond Maximum Entropy: Exploring the Structure of Uncertainty. In: Natke, H. G.;
Ben-Haim, Y. (ed.): Uncertainty: Models and Measures. Berlin 1997, S. 11–26.
Biewer, B. (1997): Fuzzy-Methoden: Praxisrelevante Rechenmodelle und Fuzzy-Programmiersprachen.
Berlin u.a. 1997.
Bliss, C. (2000): Management von Komplexität: Ein integrativer, systemtheoretischer Ansatz zur Komplexitätsreduktion. Wiesbaden.
Bullinger, H.-J. (1996): Technologiemanagement. In: Eversheim, W.; Schuh, G.: Produktion und Management: Betriebshütte Teil 1. Berlin u.a. 1996, S. 4-26 – 4-54.
Burgelman, R. A.; Christensen, C. M.; Wheelwright, S. C. (2009): Strategic Management of Technology
and Innovation. 5. Auflage, Boston u. a. 2009.
Busemann, S. (1993): Generierung natürlicher Sprache. In: Görz, G. (Hrsg.) Einführung in die Künstliche
Intelligenz. München u.a. 1993, S. 783–814.
Dehnen, K. (2004): Strategisches Komplexitätsmanagement in der Produktentwicklung. Diss. Münster,
Hamburg.
Deng, J. L. (1989). Introduction to Grey System Theory. In: Journal of Grey System. 1989, Issue 1, pp. 1–
24.
Dubois, D.; Prade, H. (1988): Possibility Theory: An Approach to Computerized Processing of Uncertainty.
New York u.a. 1988.
Gerpott, T. J. (2002): Information. In: Specht, D.; Möhrle, M. G. (2002): Gabler Lexikon Technologiemanagement: Management von Innovationen und neuen Technologien im Unternehmen. Wiesbaden 2002.
Gerpott, T. J. (2005): Strategisches Technologie- und Innovationsmanagement. 2. Auflage, Stuttgart 2005.
Anforderungen des Technologiemanagements an die Modellierung
321
Goodman, I. R.; Nguyen, H. T. (1985): Uncertainty Models for Knowledge-Based Systems: A unified
Approach tot he Measurement of Uncertainty. Amsterdam u. a. 1985.
Grauer, M. (2010): Methodik zur Gestaltung globaler Produktionsverbünde. In: ZWF: Zeitschrift für wirtschaftlichen Fabrikbetrieb. 2010, Heft 1–2, S. 68–72.
Göpfert, I.; Grünert, M. (2008): Collaborative Controlling in der Automobilindustrie. In: Controlling:
Zeitschrift für erfolgsorientierte Unternehmensführung. 2008, Heft 4/5, S. 211–218.
Horvath, P. (2009): Controlling. 11. Auflage, München 2009.
Klappert, S. (2006): Systembildendes Technologie-Controlling. Diss. Aachen 2006.
Klein, R.; Scholl, A. (2011): Planung und Entscheidung: Konzepte, Modelle und Methoden einer modernen
betriebswirtschaftlichen Entscheidungsanalyse. 2. Auflage, München 2011.
Klir, G. J. (1997): Uncertainty Theories, Measures, and Principles: An Overview of Personal Views and
Contributions. In: Natke, H. G.; Ben-Haim, Y. (ed.): Uncertainty: Models and Measures. Berlin 1997, S.
27–43.
Koller, H. (2002): Technologiefrühaufklärung. In: Specht, D.; Möhrle, M. (Hrsg.): Gabler-Lexikon Technologie-Management: Management von Innovationen und neuen Technologien im Unternehmen. Wiesbaden 2002, S. 344–351.
Mammitzsch, V. (1999): Fuzzy Theorie als Alternative zur Stochastik – Was heißt hier: Eine Alternative?.
In: Seising, R. (Hrsg.): Fuzzy Theorie und Stochastik: Modelle und Anwendungen in der Diskussion.
Braunschweig/Wiesbaden 1999, S. 239–243.
Mieke, C.: Technologiefrühaufklärung in Netzwerken. Deutscher Universitäts-Verlag, Wiesbaden 2006.
Mißler-Behr, M. (2001): Fuzzybasierte Controllinginstrumente: Entwicklung von unscharfen Ansätzen.
Wiesbaden 2001.
Moore, R. E. (1966): Interval Analysis. Englewood Cliff 1966.
Pawlak, Z. (1982): Rough sets. In: International Journal of Information and Computer Sciences. 1982, Vol.
11, No. 5, pp. 341–356.
Pfeiffer, B. – M.; Jäkel, J.; Kroll, A.; Kuhn, C.; Kuntze, H. – B.; Lehmann, U.; Slawinski, T.; Tews, V.
(2002): Erfolgreiche Anwendungen von Fuzzy Logik und Fuzzy Control (Teil 2). In: at –
Automatisierungstechnik. 2002, Band 50, Heft 11, S. 511–521.
Rommelfanger, H. (1988): Entscheiden bei Unschärfe: Fuzzy Decision Support-Systeme. Berlin u.a. 1988.
Rommelfanger, H. (1997): Regelbasierte Entscheidungsunterstützung mit Fuzzy-Logik. In: Biethahn, J.;
Hönerloh A.; Kuhl, J.; Nissen, V. (Hrsg): Fuzzy Set-Theorie in betriebswirtschaftlichen Anwendungen.
München 1997, S. 175–190.
Rommelfanger, H.; Eickemeier, S. H. (2002): Entscheidungstheorie: Klassische Konzepte und FuzzyErweiterungen. Berlin u.a. 2002.
Russel, B. (1923): Vagueness. In: Australian Journal of Psychology an Philosophy. 1923, Volume 1, Issue
2, pp. 84–92.
Schaff, A. (1974): Unscharfe Ausdrücke und die Grenzen ihrer Präzisierung. In: Schaff, A. (Hrsg.): Sprache
und Erkenntnis und Essays über die Philosophie der Sprache. Reinbek (bei Hamburg) 1974, S. 220–243.
Schneeweiß, Ch. (1991): Planung 1: Systemanalytische und entscheidungstheoretische Grundlagen. Berlin
u.a. 1991.
Schröder, H.-H. (1996): Technologiemanagements. In: Kern, W.; Schröder, H.-H.; Weber, J. (Hrsg.):
Handwörterbuch der Produktionswirtschaft. 2. Auflage, Stuttgart 1995, S. 1994–2011.
Schuh, G.; Wellensiek, M.; Nollau, S. (2010): Erfolgreiche Technologieentwicklung im Unternehmensnetzwerk: Herausforderungen in der Auftragsentwicklung von Technologien durch virtuelle Technolo-
322
Dieter Specht, Gunnar Berntsen
gieentwicklung bewältigen. In: ZWF: Zeitschrift für wirtschaftlichen Fabrikbetrieb. 2010, Heft 3, S. 189193.
Shackle, G. L. S. (1969): Decision, Order and Time in Human Affairs. 2nd Edition, Cambridge 1969.
Shafer, G. A. (1976): Mathematical Theory of Evidence. Princeton 1976.
Spengler, T. (1999): Grundlagen und Ansätze der strategischen Personalplanung mit vagen Informationen.
Habil. Frankfurt (Main), München u.a. 1999.
Tschirky, H. (1998): Konzept und Aufgaben des Integrierten Technologie-Managements. In: Tschirky, H.;
Koruna, S. (Hrsg.): Technologie-Management: Idee und Praxis. Zürich 1998, S. 193–394.
Vester, F. (2005): Die Kunst vernetzt zu denken: Ideen und Werkzeuge für einen neuen Umgang mit Komplexität. München.
Werners, B. (1993): Unterstützung der strategischen Technologieplanung durch wissensbasierte Systeme.
Aachen 1993.
Wittmann, W. (1959): Unternehmung und unvollkommene Information: Unternehmerische Voraussicht –
Ungewißheit und Planung. Köln u.a. 1959.
Wolfrum, B. (1994): Strategisches Technologiemanagement. Gabler Verlag, 2. Auflage, Wiesbaden 1994.
Zadeh, L. A. (1965): Fuzzy Sets. In: Information and Control. 1965, Volume 8, Issue 3, pp. 338–353.
Zadeh, L. A. (1973): Outline of a new approach to the analysis of complex systems and decision processes.
In: IEEE Transactions on Systems, Man and Cybernetics. 1973, Volume SMC-3, Issue 1, pp. 28–44.
Zadeh, L. A. (1975): The Concept of a Linguistic Variable and its Application to Approximate Reasoning-I.
In: Information Sciences. 1975, Volume 8, Issue 3, pp. 199–249.
Zadeh, L. A. (1995): Discussion: Probability Theory and Fuzzy Logic Are Complementary Rather Than
Competitive. In: Klir, G. J.; Yuan, B. (eds.): Fuzzy Sets, Fuzzy Logic and Fuzzy Systems: Selected Papers by Lotfi A. Zadeh. New York 1995, pp. 805–810.
Zahn, E. (1995): Gegenstand und Zweck des Technologiemanagements. In: Zahn, E. (Hrsg.): Handbuch
Technologiemanagement. Stuttgart 1995, S. 3–32.
Zimmermann, H.-J. (1992): Die Formulierung und Lösung schlecht-strukturierter Entscheidungsprobleme.
In: Gál, T.; Burkard, R. E.; Beckmann, M. J. (Hrsg.): Grundlagen des Operations Research: Spieltheorie,
Dynamische Optimierung, Lagerhaltung, Warteschlangentheorie, Simulation, Unscharfe Entscheidungen.
3. Auflage, Berlin u.a. 1992.
Zimmermann, H.-J. (1993): Fuzzy Technologien: Prinzipien, Werkzeuge, Potentiale. Düsseldorf 1993.
Zimmermann, H.-J. (1997): Uncertainty Modelling and Fuzzy Sets. In: Natke, H. G.; Ben-Haim, Y. (ed.):
Uncertainty: Models and Measures. Berlin 1997, S. 84–100.
Zimmermann, H.-J. (1999): Zur Modellierung von Unsicherheit realer Probleme. In: Seising, R. (Hrsg.):
Fuzzy Theorie und Stochastik: Modelle und Anwendungen in der Diskussion. Braunschweig u.a. 1999,
S. 287–301.
Zimmermann, H.-J. (2000): An application-oriented view of modelling uncertainty. In: European Journal of
Operational Research. 2000, Volume 122, Issue 2, pp. 190–198.
Analyse der Produktivität auf Basis der
Gutenberg-Produktionsfunktion
Marion Steven, René Blank
1
Einleitung
Die Zunahme der Weltbevölkerung und eine Intensivierung des Konsumverhaltens erfordern einen wachsenden Umfang der industriellen Produktion. Potentiell katastrophale
Langzeitfolgen einer damit verbundenen Steigerung der Umweltbelastung1 sowie begrenzt
verfügbare Ressourcen machen eine ressourcenschonende, schadstoffarme Gütererzeugung
mehr denn je notwendig. Für die Analyse und Beurteilung der Gütererzeugung aus betriebswirtschaftlicher Perspektive kommt der Produktivität als Schlüsselkennzahl zentrale
Bedeutung zu. 2 Formal beschreibt sie das Verhältnis zwischen dem innerhalb eines bestimmten Betrachtungszeitraums hergestellten Output und dem zu seiner Erzeugung eingesetzten Input einer Produktionseinheit:3
(1) Produktivität =
Output
Input .
Für Zwecke der Messung wird die Produktivität als statistische Größe aufgefasst,4 d.h. ex
post unter Verwendung konkreter Daten für den Output und Input ermittelt. Um sie dagegen ex ante zum Zweck der Planung oder Entscheidungsfindung zu bestimmen, muss der
kausale Zusammenhang zwischen Output und Input berücksichtigt werden. Damit wird
eine Inkorporation produktionstheoretischer Aussagen in die Grunddefinition der Produktivität (1) erforderlich, die Gegenstand des vorliegenden Beitrags ist. Für diese Überlegungen
wird die Produktionsfunktion vom Typ B nach Erich Gutenberg aufgrund ihrer weiten
Verbreitung und großen Bedeutung für die Analyse und Erklärung industrieller Produkti-
1
Vgl. Randers (2012), S. 81 i.V.m. S. 149; Stern (2007), S. 65 ff. u. S. 196 ff.
2
Vgl. Gutenberg (1987), S. 27 ff. i.V.m. Gutenberg (1983), S. 9.
3
Vgl. Steven (2007), S. 534. Diese allgemeine Form wird auch als Grunddefinition der Produktivität
bezeichnet: Vgl. Egbers (2012), S. 43; Reuss (1960), S. 5.
4
Grundsätzliche Überlegungen hierzu finden sich bei Reuss (1960), S. 7 ff.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_24,
© Springer Fachmedien Wiesbaden 2013
324
Marion Steven, René Blank
onsprozesse5 gewählt. Dadurch lassen sich Möglichkeiten und Grenzen einer Beeinflussung
der Produktivität und die Entwicklung ihrer Höhe in Abhängigkeit von den identifizierten
Einflussfaktoren aufzeigen und dieses Wissen als Grundlage der betrieblichen Entscheidungsfindung nutzen.
Gegenstand des zweiten Kapitels sind die Explikation der Grunddefinition der Produktivität (1) sowie formale Grundlagen der Produktionsfunktion vom Typ B. Sie bilden den
Ausgangspunkt für die Verknüpfung von Produktivität und Produktionstheorie, die im
dritten Kapitel durchgeführt wird. Die dort hergeleiteten Ergebnisse werden im Rahmen des
vierten Kapitels zur Analyse des Unterschieds verwendet, der zwischen der Produktivität
als (rein) realgüterwirtschaftlicher Größe einerseits bzw. monetärer Größe andererseits
existiert. Der Beitrag schließt im fünften Kapitel mit einer Zusammenfassung der Ergebnisse und einem Ausblick auf weiteren Forschungsbedarf.
2
Grundlagen
2.1 Der Produktivitätsbegriff
Die Produktivität transportiert drei verschiedene Aussagen:
(1) Sie konstatiert der betrachteten Produktionseinheit implizit die Fähigkeit zur Produktion (Feststellung einer Eigenschaft).
(2) Sie bildet die Grundlage für eine Beurteilung, wie rationell eine Produktionseinheit
ihre Fähigkeit zur Produktion ausübt (Fundament eines Werturteils).
(3) Sie bringt in Form der Grunddefinition ein Kriterium für diese Beurteilung zum Ausdruck (Bereitstellung einer Maßgröße).6
Bei der konkreten Formulierung der Maßgröße ergibt sich die Schwierigkeit, dass sowohl
auf der Output- als auch Inputseite inkommensurable Realgütermengen auftreten (können),
die in geeigneter Weise zu verdichten sind.7 Häufig wird eine sehr einfache Form der Verdichtung gewählt, indem die Realgütermengen mit ihren (aktuellen) Preisen bewertet und
sowohl output- als auch inputseitig summiert werden.8 Dadurch degeneriert die Produktivität jedoch zum Synonym zur Profitabilität bzw. (wertmäßigen) Wirtschaftlichkeit, formal beschrieben als9
5
Albach (1989), S. 239 bezeichnet sie als „Basis der [nun tradierten] betriebswirtschaftlichen Produktionstheorie“. Noch Dyckhoff/Müser/Renner (2012) betten ihre (formale) Erklärung des Produktionsanlaufs in
die Tradition der Produktionstheorie von Gutenberg.
6
Für eine ähnliche, inhaltlich jedoch enger gefasste Bedeutungsanalyse aus volkswirtschaftlicher Perspektive vgl. bereits Sombart (1928), S. 6 f.
7
Zum Aggregationsproblem vgl. grundlegend Hoth (1956), S. 71 ff.
8
Vgl. Nebl (2007), S. 20 f.; Prengel (2007), S. 49 f.; Gutenberg (1987), S. 29.
9
Vgl. Dellmann/Pedell (1994), S. 19 f.; Bohr (1993), Sp. 2186; Reuss (1960), S. 6., implizit auch
Laßmann (1975), Sp. 3167.
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
(2) (wertmäßig e) Wirtschaf tlichkeit =
325
bewerteter Output
bewerteter Input ,
sodass ihre eigenständige Berechnung und Analyse in diesem Fall obsolet ist.10 Zudem wird
die Beurteilung der Produktionseinheit im o.g. Sinne verfälscht, sofern Preiseffekte die
Relation zwischen Output und Input überlagern.11 Selbst die Verwendung konstanter Preise
eines bestimmten Basisjahres12 kann diesen Mangel nicht vollständig heilen, denn mittels
monetärer Bewertung der Realgütermengen wird eine Gewichtung derart vorgenommenen,
dass die Höhe der Produktivität stärker durch eine (marginale) Änderung der Produktionsmenge umsatzstarker als umsatzschwacher Produkte und der Einsatzmenge kostenintensiver als kostengünstiger Produktionsfaktoren beeinflusst wird. Eine Transponierung von der
Mengen- in die Wertbetrachtung wirkt sich somit stets auf die Beurteilung der Produktionseinheit aus. Es besteht sogar die Möglichkeit, dass einer Gütererzeugung ggü. einer insgesamt ressourcenschonenden Alternative eine höhere Produktivität zugeordnet wird, falls bei
ersterer ein deutlicher Mehrverbrauch an kostengünstigen durch geringe Einsparungen an
kostenintensiven Produktionsfaktoren überkompensiert wird.
Für die Konzeption des Produktivitätsmaßes kann jedoch auf eine monetäre Bewertung
der Realgütermengen verzichtet werden. 13 Hierzu sind in einem ersten Schritt Teilproduktivitäten – im Folgenden als partielle Faktorproduktivitäten ȡij bezeichnet – zu bestimmen, die das Verhältnis der Produktionsmenge xj des Produkts j (j = 1, …, J) zur Einsatzmenge ri (i = 1, …, I) des Produktionsfaktors i beschreiben:14
(3) ρ ij =
xj
ri
, (i = 1, ..., I ; j = 1, ..., J ) .
Damit die Produktivität eine Produktionsalternative (Aktivität) μ = (r1 , ..., rI ; x1 , ..., x J )
vollständig erfasst, d.h. sämtliche erzeugten Produktionsmengen einer Produktionseinheit
und die zu ihrer Herstellung benötigten Einsatzmengen an Produktionsfaktoren berücksichtigt, sind die I · J partiellen Faktorproduktivitäten (3) in einem zweiten Schritt zu verdichten. Dazu wird mittels einer geeigneten Vorschrift f Ρ ($) ihr Vektor
10
Vgl. auch Corsten (2008), S. 632. Diesbezüglich schreibt Egbers (2012), S. 46 trefflich: „Stimmen Produktivitätsbegriff und Wirtschaftlichkeitsbegriff überein, wird die Betrachtung der Produktivität im Prinzip überflüssig.“
11
Vgl. Corsten (2008), S. 632; Kneip (2007), S. 20 f.; Laßmann (1975), Sp. 3167 und Bellmann (2003), S.
8 mit einer anschaulichen Beispielrechnung.
12
Vgl. statt vieler Dellmann/Pedell (1994), S. 4 u. S. 18; Hoth (1956), S. 61 f.
13
Eine verbreitete Variante dieser Konzeption des Produktivitätsmaßes findet sich in der Zielfunktion des
Grundmodells der Data Envelopment Analysis nach Charnes/Cooper/Rhodes (1978), S. 430. Sie wird im
Folgenden nicht vertieft.
14
Vgl. die Beispiele bei Egbers (2012), S. 44 f. oder explizit Jung (2006), S. 30. Häufig wird in
Teilproduktivitäten der gesamte Output der Produktionseinheit angesetzt. Kritisch hierzu Kneip (2007), S.
15.
326
Marion Steven, René Blank
&
ρ = ( ȡ11 , ..., ȡ1J , ȡ 21 , ..., ȡ 2 J , ..., ρ I 1 , ..., ρ IJ ) auf die Produktivität ȇ als einzelne, positive
reelle Zahl abgebildet:15
&
& &
(4) f Ρ : ρ f Ρ (ρ , ς ) = Ρ , Ρ ∈ ℜ + .
Zu den Vertretern einer derartigen Vorschrift zählen bspw. verschiedene Mittelwertfunktionen. 16 Damit die Verdichtungsvorschrift wohldefiniert ist, muss eine Gewichtung der
einzelnen partiellen Faktorproduktivitäten mit Skalenfaktoren ς ij vorgenommen werden,
sofern deren Dimensionen heterogen sind.17
Die Kehrwerte der partiellen Faktorproduktivitäten (3) entsprechen den Produktionskoeffizienten. Über eine Vermeidung der Monetarisierung der Produktivität hinaus bildet das
Produktivitätsmaß (4) insofern einen geeigneten Anknüpfungspunkt zur Inkorporation
produktionstheoretischer Aussagen.
2.2 Die Produktionsfunktion vom Typ B
Erich Gutenberg beschäftigt sich im Rahmen seiner produktionstheoretischen Überlegungen mit der Analyse und Erklärung industrieller Produktionsprozesse innerhalb eines kurzfristigen Betrachtungszeitraums.18 Dazu unterteilt er die Produktionsfaktoren in zwei Subklassen:19
(1) Verbrauchsfaktoren werden bei ihrer erstmaligen Verwendung im Produktionsprozess
vollständig aufgewendet. Hierzu zählen vor allem Werkstoffe, die den Ausgangspunkt
für die Produktion bilden und schließlich direkt oder indirekt in die Produkte eingehen.
(2) Gebrauchsfaktoren dagegen lassen sich als ein „Reservoir künftiger Leistungsabgaben“20 verstehen, das zum Vollzug der Produktion beansprucht werden muss und sich
erst nach ihrer wiederholten Durchführung erschöpft. Hierzu zählen insbesondere Anlagen, die Verrichtungen maschineller Art an Werkstoffen ausführen.
15
Für allgemeine Ausführungen zur Informationsverdichtung im Rahmen der Entscheidungstheorie vgl.
Dyckhoff (1985), S. 198 f. Sie gelten hier analog, da jede Aktivität einer Handlungsalternative des verantwortlichen Entscheidungsträgers entspricht und die resultierenden partiellen Faktorproduktivitäten
Handlungskonsequenzen, d.h. Ergebnisse repräsentieren.
16
Dikow (2006), S. 75 und Bleischwitz (1998), S. 57 verwenden das (gewogene) harmonische Mittel. Für
eine konkretere, aber noch allgemeine Verdichtungsvorschrift vgl. Dyckhoff (1985), S. 202.
17
Die Verdichtung inkommensurabler Größen unter Verwendung von Skalenfaktoren ist auch Gegenstand
der Data Envelopment Analysis, dort auf Ebene der Realgütermengen. Vgl. dazu bspw. Dyckhoff/Allen
(1999), S. 417 i.V.m. S. 420. Das Problem der Festlegung der Skalenfaktoren soll für die nachstehenden
Überlegungen ausgeblendet werden.
18
Vgl. grundlegend Gutenberg (1983), S. 298 ff. Mit 'kurzfristig' ist meint, dass der Prozess der Auswahl
von Produktionsfaktoren als abgeschlossen gilt und die Frage nach der optimalen Kombination ihrer Einsatzmengen zur Erzeugung eines Produkts im Vordergrund steht.
19
Vgl. im Folgenden Gutenberg (1983), S. 326 ff.; auch Fandel (2010), S. 165; Küpper (1980), S. 20 und
die dort angeführte Literatur; Menrad (1965), S. 34 f.
20
Menrad (1965), S. 35.
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
327
In stark disaggregierter Sichtweise rückt Gutenberg Aggregate, d.h. Gruppen funktionsgleicher Anlagen,21 ins Zentrum seiner Überlegungen und untersucht dort Anpassungsprozesse
an schwankende Produktionsanforderungen. 22 Dabei unterstellt er, dass dem Entscheidungsträger folgende Handlungsalternativen in isolierter bzw. kombinierter Form zur Verfügung stehen: Die Variation der Anzahl genutzter Anlagen ml (l = 1, …, L) eines Aggregats l zwischen 0 und dem vorhandenen Bestand Ml (quantitative Anpassung), die Änderung ihrer Einsatzzeit tl im Intervall [t l ; tl ] (zeitliche Anpassung) sowie der Intensität vl –
gemessen als Produktionsmenge je Zeiteinheit und Anlage23 – im Intervall [vl ; vl ] (intensitätsmäßige Anpassung). 24 Eine Sonderform der Kombination von zeitlicher und intensitätsmäßiger Anpassung ist das Intensitätssplitting, bei dem während einer determinierten
Einsatzzeit mit (zwei) wechselnden Intensitäten gearbeitet wird.25
Die Festlegung der Entscheidungsvariablen ml, tl und vl bestimmt zum einen die Höhe der
am Aggregat l und innerhalb des Betrachtungszeitraums bearbeiteten Produktionsmenge x
(ml, tl, vl) über
(5) x(ml , t l , v l ) = ml ⋅ t l ⋅ v l , (l = 1, ..., L )
und zum anderen die Einsatzmenge rkl (ml, tl, vl) (k = 1, …, K) der dabei aufgewendeten
Verbrauchsfaktoren k:26
(6) rkl (ml , t l , v l ) = a kl (v l ) ⋅ ml ⋅ t l ⋅ v l , (k = 1, ..., K ; l = 1, ..., L ) .
Charakteristisches Element zur Formulierung des Faktorverbrauchs ist die Verbrauchsfunktion akl (vl). Sie bildet den notwendigen Einsatz des Verbrauchsfaktors k am Aggregat l je
Einheit Produktionsmenge in Abhängigkeit von der intensitätsmäßigen Anpassung ab. Der
Verlauf von Verbrauchsfunktionen kann grundsätzlich unterschiedlicher Gestalt sein, wird
i.d.R. jedoch als stetig und streng konvex angenommen.27 Dann existiert eine Intensität v kl*
als innerer Punkt oder Randpunkt des Intervalls [vl ; vl ] , bei der die Verbrauchsfunktion ihr
Minimum annimmt.28
Das Gleichungssystem bestehend aus den Leistungsfunktionen (5) und Faktoreinsatzfunktionen (6) stellt die Gutenberg-Produktionsfunktion, auch als Produktionsfunktion vom
21
Vgl. Fandel (2010), S. 165 i.V.m. S. 167.
22
Vgl. Steven (1994), S. 1499 und die dort angeführte Literatur.
23
Vgl. Gutenberg (1983), S. 330; Krelle (1969), S. 43.
24
Vgl. ausführlicher Fandel (2010), S. 169 ff.; Gutenberg (1983), S. 354 ff. Die Beschränkung zulässiger
Werte der Entscheidungsvariablen ml, tl und vl sei im Folgenden stets vorausgesetzt und wird nicht wiederholt explizit angeführt.
25
Vgl. Steven (1998), S. 156 f.; Kistner/Sonntag (1993), S. 1305.
26
Vgl. Kistner/Sonntag (1993), S. 1301 mit Bezug auf ein einzelnes Aggregat.
27
Vgl. Dinkelbach/Rosenberg (2004), S. 179 und die dort angeführte Literatur; Steven (1994), S. 1500; in
grafischer Betrachtung vgl. Kistner (1993), S. 143.
28
Vgl. Dinkelbach/Rosenberg (2004), S. 179.
328
Marion Steven, René Blank
Typ B bezeichnet,29 dar.30 Gutenberg nutzt sie zur Fundierung kostentheoretischer Überlegungen.31 Obwohl er der „Produktivität [als] Grundphänomen der betriebswirtschaftlichen
Analyse des Produktionsprozesses“32 hohe Bedeutung beimisst, unterlässt er ihre Analyse
auf Basis der dargestellten formalen Zusammenhänge.33 Diese ist Gegenstand des folgenden Kapitels.
3
Die Produktivität in der Gutenberg-Produktionsfunktion
In Gutenbergs differenzierter Sicht auf die Produktionsfaktoren sind Gebrauchsfaktoren das
Medium des industriellen Produktionsprozesses: An ihnen erfolgt der Einsatz von Verbrauchsfaktoren zur Erzeugung der Produktionsmenge. Aggregate stellen somit die Produktionseinheiten dar, die bezüglich ihrer Produktivität beurteilt werden sollen. Dazu ist es
erforderlich, die partiellen Faktorproduktivitäten der an einem Aggregat eingesetzten Verbrauchsfaktoren zunächst zu ermitteln und anschließend sinnvoll zur (aggregatbezogenen)
Produktivität zu verdichten. Überlegungen hierzu sind Gegenstand von Abschnitt 3.1.
Um auf eine Beurteilung der Produktivität der gesamten Unternehmung oder eines Teilbereichs schließen zu können, sind die aggregatbezogenen Urteile zusammenzufassen. In
Abschnitt 3.2 wird sich mit dieser aggregatübergreifenden Produktivität befasst. Die wesentlichen Ergebnisse der Analyse sind in Abschnitt 3.3 zusammengetragen.
3.1 Aggregatbezogene Produktivität
3.1.1 Identifikation partieller Faktorproduktivitäten von
Verbrauchsfaktoren und Feststellung ihrer Einflussfaktoren
Die Verbrauchsfunktion stellt gemäß ihrer Definition eine funktionale Erweiterung des
Produktionskoeffizienten dar. 34 Ihr Reziprok beschreibt insofern die partielle Faktorproduktivität ȡkl (vl) des Verbrauchsfaktors k am Aggregat l in Abhängigkeit von der intensitätsmäßigen Anpassung. Einsetzen der Leistungsfunktion (5) und Faktoreinsatzfunktion
(6) in die Definition der partiellen Faktorproduktivität (3) bestätigt vorstehende Aussage, da
gilt:35
29
Vgl. statt vieler Bellmann (2003), S. 79; Gutenberg (1983), S. 326.
30
Vgl. sinngemäß Knolmayer (1983), S. 1123; Gutenberg (1989), S. 131.
31
Vgl. sinngemäß Steven/Zapp (2009), S. 62; Kistner/Sonntag (1993), S. 1297.
32
Gutenberg (1983), S. 9.
33
Für kritische Worte in diesem Zusammenhang vgl. auch Fricke (1961), S. 170 ff. Überlegungen zur
Produktivität finden sich erst mit Gutenberg (1987), S. 27 ff., jedoch ohne Bezug zur Produktionsfunktion vom Typ B.
34
Vgl. Steven (1998), S. 131 f.; Knolmayer (1983), S. 1123.
35
Vgl. Krelle (1969), S. 80.
329
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
(7) ρ kl (v l ) =
x(ml , t l , v l )
1
=
, (k = 1, ..., K ; l = 1, ..., L ) .
rkl (ml , t l , v l ) a kl (v l )
Ihre Höhe ist nur durch eine Variation der Intensität innerhalb des zulässigen Intervalls
beeinflussbar. Quantitative und zeitliche Anpassung führen dagegen zu konstanten partiellen Faktorproduktivitäten sämtlicher Verbrauchsfaktoren an einem Aggregat.36 Da die einzelnen Anpassungsformen gemäß der Leistungsfunktion (5) für die Erzeugung einer bestimmten Produktionsmenge substituierbar sind, 37 kann diese somit mit unterschiedlich
hohen partiellen Faktorproduktivitäten verbunden sein. In Abhängigkeit von deren konkretem Verlauf sowie der Explikation der Verdichtungsvorschrift (4) können Entscheidungen
über die Fahrweise des betrachteten Aggregats insofern Einfluss auf seine Produktivität
nehmen. Prinzipiell besteht daher die Möglichkeit, die Fahrweise eines Aggregats an der
Produktivität als zu maximierenden statt an den Kosten als zu minimierenden Zielgröße zu
orientieren, d.h. ein Problem der folgenden Form zu lösen:
&
&
(8) max Ρl (v l ) = f Ρ (ρ l (v l ), ς )
≥ x
s.d. ml ⋅ t l ⋅ v l
l
a kl (v l ) ⋅ ml ⋅ t l ⋅ v l
ml ∈ {0, 1, ..., M l };
≤ rkl
(k = 1, ..., K )
v l ∈ [v l ; v l ];
t l ∈ [t l ; t l ].
& Dabei beschreibt ȇl (vl) die Produktivität des Aggregats l im Sinne der Definition (4),
ρ l (v l ) = ( ȡ1l (v l ), ..., ȡ Kl (v l )) den Vektor partieller Faktorproduktivitäten ȡkl (vl) über alle
Verbrauchsfaktoren k, x die mindestens zu erzeugende Produktionsmenge und rkl den verfügbaren Bestand des Verbrauchsfaktors k am Aggregat l.
3.1.2 Idealtypische Verlaufsformen partieller Faktorproduktivitäten
von Verbrauchsfaktoren
Das Ergebnis des Maximierungsproblems (8) wird maßgeblich durch den konkreten Verlauf der partiellen Faktorproduktivitäten aller K betrachteten Verbrauchsfaktoren am Aggregat l beeinflusst. Abbildung 1 zeigt in isolierter Perspektive ihre idealtypischen Verlaufsformen bei rein intensitätsmäßiger Anpassung.38
Für Verbrauchsfaktoren k , deren streng konvexe Verbrauchsfunktion ausgehend von der
minimalen Intensität vl bei Erhöhung der Intensität vl zunächst streng monoton fällt und
36
Dies lässt sich auch aus den Ausführungen von Dinkelbach/Rosenberg (2004), S. 177 und Steven (1994),
S. 1499 ableiten.
37
Vgl. Steven (1998), S. 130 f.; Knolmayer (1983), S. 1124 und die dort angeführte Literatur.
38
Die gezeigten Verläufe sind abgeleitet aus den idealtypischen Verbrauchsfunktionen, die sich bei Steven
(1998), S. 144 bzw. Kistner (1993), S. 143 finden. Für die Fälle, dass sich die Intensität zugeschalteter
Betriebsmittel nur in diskreten Stufen ändern lässt bzw. zusätzlich je Stufe in einem bestimmten Bereich
stetig variiert werden kann, lassen sich die Verläufe der zugehörigen partiellen Faktorproduktivitäten aus
dem in Abbildung 1 gezeigten Verlauf deduzieren. Sie werden daher nicht gesondert betrachtet.
330
Marion Steven, René Blank
nach dem Erreichen der verbrauchsminimalen Intensität v k*l ∈ [v l ; vl ] bis zur maximalen
Intensität vl schließlich streng monoton steigt, ergibt sich der gezeigte nichtlineare Verlauf
ihrer partiellen Faktorproduktivität. Diese erreicht an der Stelle des Verbrauchminimums
ihr Maximum, in dessen Umgebung ihr Verlauf konkav gekrümmt ist. Das Krümmungsverhalten ändert sich an den Wendestellen v klWL bzw. v klWR .
θ kl v l θ k6 l v l θ k! l v l vl
vl
v WL
v *k6 l v WR
k6 l
k6 l
vl
zulässiger Bereich intensitätsmäßiger Anpassung
Abbildung 1:
Idealtypische Verläufe der partiellen Faktorproduktivität eines Verbrauchsfaktors bei rein
intensitätsmäßiger Anpassung
Die konvex gekrümmten Bereiche lassen sich jedoch nicht durch Anwendung des Intensitätssplittings zur Verbesserung der partiellen Faktorproduktivität vermeiden. Denn auf
Ebene der beschriebenen Verbrauchsfunktion führt jede Konvexkombination zweier Aktivitäten, die mit der Intensität vl1 bzw. v l2 (mit v l1 ≠ v l2 ) realisiert werden, zu einem Produktionskoeffizienten, dessen Wert oberhalb der Verbrauchsfunktion liegt:
(
)
( )
( )
(9) a kl λ ⋅ v l1 + (1 − λ ) ⋅ v l2 < λ ⋅ a kl v l1 + (1 − λ ) ⋅ a kl v l2
(
)
λ ∈ [0; 1] , k = 1, ..., K ≤ K ; l = 1, ..., L .
331
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
Somit folgt für die zugehörige partielle Faktorproduktivität:
(10)
1
a kl λ ⋅ v + (1 − λ ) ⋅ v l2
>
ρ kl
>
(
)
(λ ⋅ v + (1 − λ )⋅ v )
1
l
⇔
1
l
2
l
1
λ ⋅ a kl v + (1 − λ ) ⋅ a kl v l2
1
λ
1− λ
+
1
ρ kl v l
ρ kl v l2
( )
( )
λ ∈ [0; 1] ,
( )
1
l
( )
(k = 1, ..., K ≤ K ; l = 1, ..., L ).
Die betrachtete Verlaufsform lässt sich insbesondere für den Produktionsfaktor Energie und
zahlreiche Betriebsstoffe, d.h. Werkstoffe, die für den Betrieb der Anlagen benötigt werden
und insofern nur indirekt in das Produkt eingehen,39 nachweisen.40 Für andere Verbrauchsfaktorarten kann der zugehörige idealtypische Verlauf ihrer partiellen Faktorproduktivität
über dem Intervall zulässiger Intensitäten [vl ; vl ] lediglich dem linken Ast (bspw. für
menschliche Arbeitskraft, sofern ihr Einsatz in Form von Arbeitsstunden erfasst wird) oder
dem rechten Ast (bspw. für Schmierstoffe an Motoren) der in Abbildung 1 gezeigten nichtlinearen partiellen Faktorproduktivität entsprechen. In diesen Fällen wird das jeweilige
Maximum bei Wahl der maximalen vl bzw. minimalen Intensität vl erreicht.
Für den in Abbildung 1 ebenfalls gezeigten Verbrauchsfaktor k gilt der Sonderfall, dass
die Verbrauchsfunktion und damit der Verlauf ihrer partiellen Faktorproduktivität unabhängig von der Intensität und somit auch bei intensitätsmäßiger Anpassung konstant ist.
Dies lässt sich für Werkstoffe feststellen, deren Verbrauch je Einheit Endprodukt durch
eine Stücklistenbeziehung eindeutig festgelegt ist (Bauteile in Montageprozessen), d.h.
deren Einsatzmenge in einem limitationalen Verhältnis41 zur Produktionsmenge steht. Da
sich in den Grenzen der Produktionsfunktion vom Typ B somit keine Handlungsalternativen feststellen lassen, mit denen Einfluss auf derartige partielle Faktorproduktivitäten genommen werden kann, stellen sie in der Zielfunktion des Maximierungsproblems (8) ein
Fixum dar.
Die optimale Lösung des betrachteten Maximierungsproblems wird also ausschließlich
durch Verbrauchsfaktoren determiniert, die lediglich indirekt in das Produkt einfließen.
Innerhalb eines kurzfristigen Betrachtungszeitraums und unter den Annahmen zur Produktionsfunktion vom Typ B stellen diese insofern den einzigen Anknüpfungspunkt für aggregatbezogene Produktivitätsverbesserungen dar. Langfristig betrachtet sind dagegen auch
Stücklistenbeziehungen nicht determiniert, da sie im Rahmen der Produktentwicklung fixiert werden. So ergeben sich bereits in dieser frühen Phase des Produktlebenszyklus Ansatzpunkte für eine Verbesserung der aggregatbezogenen Produktivität. Ihre theoretische
39
Vgl. Steven (1998), S. 3.
40
Vgl. für diese und folgende Beispiele Steven (1998), S. 145.
41
Zur Abgrenzung limitationaler und substitutionaler Verbrauchsfaktoren im Rahmen der Produktionsfunktion vom Typ B vgl. insb. Danø (1965), S. 165 ff.
332
Marion Steven, René Blank
Analyse bedarf einer anderen Basis als der statischen Produktionsfunktion vom Typ B und
wird daher nicht vertieft.
3.1.3
Bestimmung der aggregatbezogenen Produktivität mittels
partieller Faktorproduktivitäten von Verbrauchsfaktoren
Neben den konkreten Verlaufsformen der partiellen Faktorproduktivitäten am betrachteten
Aggregat wird das Ergebnis des Maximierungsproblems (8) maßgeblich durch die festgelegte Verdichtungsvorschrift beeinflusst, mittels der die aggregatbezogene Produktivität
über das System partieller Faktorproduktivitäten bestimmt wird. Die Werte partieller
Faktorproduktivitäten verschiedener Verbrauchsfaktoren, die ihre individuell produktivste
Verwendung an einem Aggregat bei unterschiedlichen Intensitäten realisieren, entwickeln
sich für ein bestimmtes Intervall von Intensitäten gegenläufig. Die Verdichtungsvorschrift
bringt somit den Grad an Kompensation zwischen diesen gegenläufigen Werten zum Ausdruck, der grundsätzlich zwischen den Grenzen der vollen Kompensation
&
(11) Ρl (v l ) = f Ρl (ρ l (v l )) = max ρ kl (v l )
k
und der unzulässigen Kompensation
&
(12) Ρl (v l ) = f Ρl (ρ l (v l )) = min ρ kl (v l )
k
liegt.42 Abbildung 2 zeigt diesen Zusammenhang am Beispiel zweier Verbrauchsfaktoren.
In Abbildung 2 (II) ist ersichtlich, dass sich das Maximum der aggregatbezogenen Produktivität in Abhängigkeit von der Verdichtungsvorschrift mit unterschiedlichen Fahrweisen des Aggregats, speziell für voneinander abweichende Intensitäten, realisieren lässt.
Neben dem in Abbildung 2 (II) gezeigten Minimum- oder Maximum-Operator (11) bzw.
(12) sowie dem gewichteten arithmetischen Mittel über sämtliche partielle Faktorproduktivitäten kann die Verdichtungsvorschrift zahlreiche andere explizite Formen annehmen.43
42
Vgl. Dyckhoff (1985), S. 196 i.V.m. S. 202. In der Verdichtungsvorschrift manifestiert sich somit das
ökonomische Grundprinzip des Denkens in Austauschraten. In Bezug auf den Umweltschutz vgl. dazu
Steven (1994), S. 1496.
43
Vgl. bspw. Dyckhoff (1985), S. 202 ff.
333
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
I
θ kl v l θ k6 l v l θ k! l v l *
eff
v l v k! l v l
*
vl
eff
v k6 l v l
II
Π l vl vl
min θ kl v l k
Abbildung 2:
vl
K
1
· ι · θ v K k 1 k kl l
vl
vl
max θ kl v l k
(I) Interdependenz partieller Faktorproduktivitäten zweier Verbrauchsfaktoren und (II)
Möglichkeiten der Verdichtung zur aggregatbezogenen Produktivität
334
Marion Steven, René Blank
Die Festlegung der Verdichtungsvorschrift sollte von gewisser Permanenz sein, damit die
Produktivität als Kennzahl sinnvoll angewendet werden kann 44 und darüber hinaus ihre
Intention nicht konterkarieren:
Die Werte der partiellen Faktorproduktivitäten der Verbrauchsfaktoren k und k in Abbildung 2 (I) verlaufen im Intervall v k*l ; v l ] gleichgerichtet. Offensichtlich ist damit jeder
Intensität vlIE ∈ v k*l ; vl ] eine dominierte Aktivität zugeordnet, da sich die partiellen
Faktorproduktivitäten sämtlicher Verbrauchsfaktoren durch die Wahl einer Intensität vl, mit
v k*l ” vl < vlIE , erhöhen lassen. Intensitäten, denen dagegen keine dominierte Aktivität
eff
zugeordnet ist, heißen effiziente Intensitäten. Ihr Intervall v l ; v leff ist im allgemeinen
Fall dadurch gekennzeichnet, dass innerhalb der Intervallgrenzen die partiellen
Faktorproduktivitäten mindestens zweier Verbrauchsfaktoren gegenläufig sind (im Beispiel
v l ; v k*l ).45 Es wird aufgespannt durch die minimale und maximale verbrauchsminimale
Intensität aller Verbrauchsfaktoren, die sich am betrachteten Aggregat feststellen lassen:46
(
(
[
[
]
]
eff
(13) v l
= min v kl* , (l = 1, ..., L )
k
(14) v leff = max v kl* , (l = 1, ..., L ) .
k
Damit lässt sich als allgemeines Anforderungskriterium an Verdichtungsvorschriften formulieren, dass sie nicht die Möglichkeit bieten dürfen, eine Intensität außerhalb des Intervalls effizienter Intensitäten als Lösung des Maximierungsproblems (8) zu bestimmen (es
sei denn, ihre Wahl ist aufgrund der Ausschöpfung zeitlicher und quantitativer Anpassung
notwendig zur Herstellung von x). Andernfalls kann die Produktivität ihrer Aufgabe nicht
gerecht werden, die Grundlage zur Analyse und Beurteilung der Gütererzeugung einer
Produktionseinheit hinsichtlich ihrer Ressourcenschonung bzw. Ergiebigkeit zu bilden.
Eine tiefer gehende Auseinandersetzung mit (weiteren) Anforderungskriterien an die Ausgestaltung der Verdichtungsvorschrift im Sinne der Definition (4) soll hier nicht erfolgen
und bleibt Gegenstand zukünftiger Forschungsarbeiten.
In Bezug auf die aggregatbezogene Produktivität lässt sich insgesamt feststellen: Ihre
Höhe ist – in bestimmten Grenzen – im Rahmen von Entscheidungen über die Fahrweise
des Aggregats beeinflussbar. Dabei kommt Verbrauchsfaktoren, die lediglich indirekt in
das Produkt einfließen, besondere Bedeutung zu, da hauptsächlich bei ihnen die intensitätsmäßige Anpassung zu einer Änderung der partiellen Faktorproduktivität führt. Im kurzfristigen Betrachtungszeitraum (quasi) unbeeinflussbare Faktoren, die die Höhe der aggregatbezogenen Produktivität ebenfalls bestimmen, sind dagegen die einzelnen Verbrauchsfunktionen, deren konkreter Verlauf bereits im Rahmen der Konstruktionsphase des Aggre-
44
Für allgemeine Anforderungen an Kennzahlen vgl. Kneip (2007), S. 48 ff. und die dort angeführte Literatur; Steven (2007), S. 530.
45
Vgl. Dinkelbach/Rosenberg (2004), S. 179 f.; Krelle (1969), S. 45 für eine Definition effizienter Intensitäten auf Ebene der Verbrauchsfunktion.
46
Vgl. Kloock (1998), S. 300 f.; nach Krelle (1969), S. 45 f. bildet stets die maximale Intensität die obere
Grenze des Intervalls effizienter Intensitäten.
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
335
gats determiniert wird47 sowie die festgelegte Verdichtungsvorschrift, die zur Anwendung
der Produktivität als Kennzahl über einen längeren Zeitraum konstant bleiben muss.
3.2 Aggregatübergreifende Produktivität
Für die Bestimmung der Produktivität der gesamten Unternehmung oder eines Teilbereichs
ist zu berücksichtigen, dass Verbrauchsfaktoren
ggf. an mehreren Aggregaten eingesetzt
& & &
werden. Ihre gesamte Einsatzmenge rk (m , t , v ) 48 ergibt sich dann additiv aus den Einsatzmengen an den verschiedenen Aggregaten:49
L
& & &
(15) rk (m, t , v ) = ¦ rkl (ml , t l , v l ) , (k = 1, ..., K ) .
l =1
Einsetzen der Leistungsfunktion (5) und der Faktoreinsatzfunktion (15) in die Definition
der partiellen Faktorproduktivität (3) liefert:
&
(16) ρ k (v ) =
x(ml , t l , vl )
L
¦ rkl (ml , tl , vl )
l =1
=
1
L
¦ akl (vl )
, (k = 1, ..., K ) .
l =1
&
Die Höhe der aggregatübergreifenden partiellen Faktorproduktivität ρ k (v ) des Verbrauchsfaktors k ist analog zu ihrem aggregatbezogenen Pendant lediglich durch intensitätsmäßige
Anpassung beeinflussbar. Kurzfristig nicht steuerbare Einflussgrößen sind die konkreten
Verlaufsformen sämtlicher Verbrauchsfunktionen des betrachteten Verbrauchsfaktors an
den einzelnen Aggregaten. Da die aggregatübergreifende partielle Faktorproduktivität des
Verbrauchsfaktors k eine Funktion in L Intensitäten darstellt, beschreibt sie ein Gebirge im
ℜ L +1 . Ihr (globales) Maximum wird genau dann erreicht, wenn an den einzelnen Aggregaten jeweils die in Bezug auf den betrachteten Verbrauchsfaktor verbrauchsminimale Inten*
sität gewählt wird, d.h. an der Stelle ( v k*1 , …, v kL
).50 Ausnahmen bilden hier wiederum
Verbrauchsfaktoren, deren Einsatzmengen aufgrund einer Stücklistenbeziehung zur Produktionsmenge des Produkts determiniert und deren aggregatübergreifende partielle
Faktorproduktivitäten damit unabhängig von den Intensitäten an den verschiedenen Aggregaten konstant sind. Diese beschreiben insofern eine Hyperebene im ℜ L +1 .
47
Verbrauchsfunktionen sind abhängig von den technischen Eigenschaften der Anlage: vgl. hierzu Fandel
(2010), S. 167; Kistner/Sonntag (1993), S. 1301 f. Diese werden für die Entwicklung der Produktionsfunktion vom Typ B jedoch als konstant angenommen: Vgl. hierzu grundlegend Gutenberg (1983), S. 331.
&
48 &
m = (m1 , ..., m L ) beschreibt
den Vektor der genutzten Anlagen über sämtliche Aggregate l, t = (t1 , ..., t L )
&
ihre Einsatzzeit und v = (v1 , ..., v L ) ihre Intensität.
49
Vgl. Gutenberg (1989), S. 132. Sofern ein Verbrauchsfaktor k am Aggregat l nicht eingesetzt wird, sei rkl
(ml, tl, vl) = 0.
50
Der Nenner von der partiellen Faktorproduktivität (16) stellt als Summe (streng) konvexer Funktionen
ebenfalls eine konvexe Funktion dar und besitzt somit ein (globales) Minimum. Vgl. dazu Sydsæter et al.
(2008), S. 59.
336
Marion Steven, René Blank
Soll die Fahrweise der Aggregate an der (aggregatübergreifenden) Produktivität orientiert
werden, ist in Analogie zum Maximierungsproblem (8) nun folgendes mathematisches
Programm zu lösen:
& & &
&
(17) max ΡΛ (v ) = f Ρ (ρ Λ (v ), ς )
Λ
s.d.
ml ⋅ t l ⋅ v l
≥ x
¦ a kl (v l )⋅ ml ⋅ t l ⋅ vl
≤ rk
L
l =1
ml ∈ {0, 1, ..., M l };
(l = 1, ..., L )
(k = 1, ..., K )
v l ∈ [v l ; v l ];
t l ∈ [t l ; t l ] , (l = 1, ..., L ) .
&
ΡΛ (v ) beschreibt dabei die aggregatübergreifende Produktivität
(der
oder
&
& Unternehmung
&
eines ihrer Teilbereiche) im Sinne der Definition (4), ρ Λ (v ) = (ρ 1 (v ), ..., ρ K (v )) den Vektor
der aggregatübergreifenden partiellen Faktorproduktivitäten über alle Verbrauchsfaktoren k
und rk den insgesamt verfügbaren Bestand des Verbrauchsfaktors k. In der Gesamtsicht
können die Werte aggregatübergreifender partieller Faktorproduktivitäten verschiedener
Verbrauchsfaktoren nun auch dadurch zum Ausgleich gelangen, dass an einzelnen Aggregaten jeweils unterschiedliche Verbrauchsfaktoren ihrer produktivsten Verwendung zugeführt werden. Gegenüber der aggregatbezogenen Betrachtung bestehen für den Entscheidungsträger so mit den Intensitäten der zusätzlich betrachteten Aggregate weitere Möglichkeiten zur Gestaltung der Kompensation zwischen gegenläufigen Werten partieller
Faktorproduktivitäten verschiedener Verbrauchsfaktoren.
3.3 Erkenntniswert der Inkorporation produktionstheoretischer
Aussagen in die Produktivität
Die vorstehenden Überlegungen zeigen exemplarisch in der Tradition der Produktionstheorie von Gutenberg, welche Erkenntnisse durch eine Inkorporation produktionstheoretischer
Aussagen in die Produktivität generiert werden können:
Zum einem lassen sich steuerbare und nicht-steuerbare Einflussfaktoren auf die Höhe der
Produktivität in analytischer Perspektive identifizieren. Unter der Voraussetzung, dass das
betrachtete Produktionsmodell den Produktionsprozess adäquat abbildet, können praktische
Bemühungen zur Produktivitätsverbesserung insofern unterstützt werden, als hierzu die
zielführenden Handlungsalternativen eingegrenzt werden. Auf Basis der Produktionsfunktion vom Typ B, d.h. in statischer Perspektive, ist dies die intensitätsmäßige Anpassung.
Hinweise auf die Relevanz von Entscheidungen im Rahmen der Konstruktionsphase der
Anlagen bzw. Produktentwurfsphase finden sich ebenfalls.
Zum anderen lassen sich Aussagen über die Eigenschaften des betrachteten Produktivitätsmaßes (4) formulieren. Hierzu zählen etwa die Beschränkung seines Wertebereichs auf
endliche, positive reelle Zahlen im Intervall zwischen der insgesamt maximal und minimal
realisierbaren partiellen Faktorproduktivität oder seine Abhängigkeit von der gewählten
Verdichtungsvorschrift. Bezüglich letzterer bietet die formale Analyse die Möglichkeit, die
Eignung einer konkreten Ausprägung zur Beurteilung einer Produktionseinheit hinsichtlich
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
337
ihrer Ressourcenschonung zu verifizieren. Dazu sind entsprechende Anforderungskriterien
zunächst zu definieren und schließlich zu überprüfen.
Die Maximierungsprobleme (8) und (17) zeigen überdies die Komplexität auf, die mit der
Gestaltung der Produktivität im Kontext der Planung und Entscheidungsfindung verbunden
sein kann:
In theoretischer Sicht gilt es ein mathematisches Programmierungsmodell mit nichtlinearer Zielfunktion und nicht-linearen Restriktionen zu lösen, das neben stetig variierbaren Entscheidungsvariablen auch solche enthält, die nur ganzzahlige Werte annehmen dürfen. Je nach Verdichtungsvorschrift ist die Zielfunktion zudem in Extrempunkten nicht
differenzierbar,51 sodass ein (globales) Maximum ggf. nicht bestimmt werden kann. Für die
Optimierung der aggregatübergreifenden Produktivität tritt erschwerend hinzu, dass eine
mehrgipflige, (L+1)-dimensionale Zielfunktion betrachtet wird, für die Extremwertanalysen
ggü. Funktionen des ℜ 2 anspruchsvollerer Methodik bedürfen.52
Die abstrakte und einfache Formulierung der Grunddefinition der Produktivität (1) verbirgt insofern, dass – bei ihrer Konkretisierung als realgüterwirtschaftliche Größe im Sinne
der Definition (4) – für den Kontext der Planung und Entscheidungsfindung komplexe
Kalküle resultieren. Dies ist besonders aus praktischer Perspektive gravierend, da dort –
außerhalb der vereinfachenden Annahmen, die der Produktionsfunktion vom Typ B zugrunde liegen – deutlich mehr mittelbare und unmittelbare Einflussfaktoren auf die Höhe
der Produktivität existieren,53 deren Wirkungsrichtung und -intensität sowie Interdependenzen untereinander für eine solide, produktivitäts-orientierte Planung und Entscheidungsfindung zu berücksichtigen sind. Der Wechsel von einer retrospektiven, statistischen Berechnung hin zu einer prospektiven, analytischen Gestaltung der Produktivität ist daher mit
einer ungleich höheren Herausforderung verbunden. Zu ihrer Bewältigung sind zukünftige
Forschungsarbeiten notwendig, sofern die Produktivität nicht ausweichend als monetäre
Größe – folgend als monetarisierte Produktivität bezeichnet – konzipiert werden soll. 54
Damit verbundene Konsequenzen werden im folgenden Kapitel analysiert.
4
Analyse des Effekts einer Monetarisierung der Produktivität
Aufgrund der Vermengung leistungswirtschaftlicher und monetärer Einflussfaktoren steht
die monetarisierte ggü. der realgüterwirtschaftlichen Produktivität in engerem Bezug zum
finanziellen Erfolg der Unternehmung, an dem sich unternehmerische Entscheidungen
51
Siehe hierzu den Verlauf der Zielfunktion für den Minimum- bzw. Maximum-Operator, der in Abbildung
2 (II) gezeigt ist.
52
Für eine entsprechende Einführung vgl. z.B. Sydsæter et al. (2008), S. 103 ff.
53
Vgl. etwa den umfangreichen Überblick bei Nebl (2007), S. 27 ff. (jedoch in Bezug auf die
monetarisierte Produktivität). Eine abschließende Quantifizierung von Ursache-Wirkungs-Beziehungen
sowie von Interdependenzen zwischen den Einflussfaktoren bleibt – vermutlich fehlenden Wissens über
die formalen Zusammenhänge geschuldet – aus.
54
Prengel (2007), S. 55 ff. und Dikow (2006), S. 160 ff. greifen zur Berechnung der Produktivität auf
Daten des betrieblichen Rechnungswesen zurück. Die Produktivität lässt sich ex ante insofern durch Einsetzen geplanter Werte aus z.B. der Kosten- und Leistungsrechnung einfach bestimmen.
338
Marion Steven, René Blank
letztlich orientieren. Diesem grundsätzlichen Vorteil55 wurden in Abschnitt 2.1 bereits die
Nachteile einer Monetarisierung der Produktivität in allgemeiner Form gegenübergestellt.
Aufbauend auf den Ergebnissen des dritten Kapitels ist es nun möglich, den Effekt einer
Monetarisierung der Produktivität in analytischer Form zu bestimmen. Seine Analyse unter
verschiedenen Annahmen bezüglich des Zusammenhangs zwischen Preis und Realgütermenge ist Gegenstand der Abschnitte 4.1 und 4.2. Daran anknüpfend wird in Abschnitt 4.3
untersucht, welche Konsequenzen eine Orientierung unternehmerischer Entscheidungen am
finanziellen Erfolg der Unternehmung für den Aspekt der Ressourcenschonung – der mit
der realgüterwirtschaftlichen Produktivität zum Ausdruck kommt – hat.
4.1 Mengen-unabhängige Beschaffungs- und Absatzpreise
Zunächst sei unterstellt, dass der Absatzpreis y des Produkts und die Beschaffungspreise qk
der einzelnen Verbrauchsfaktoren unabhängig von der abgesetzten bzw. beschafften Realgütermenge sind. Eine Bewertung der Realgütermengen auf Ebene der partiellen
Faktorproduktivität führt dann bspw. in der aggregatbezogenen Betrachtung zu:
(18) Ȧkl (v l ) =
y ⋅ x(ml , t l , v l )
y
=
⋅ ρ kl (v l ) , (k = 1, ..., K ; l = 1, ..., L ) .
q k ⋅ rkl (ml , t l , v l ) q k
Die rein auf der Mengenebene definierte partielle Faktorproduktivität des Verbrauchsfaktors k unterscheidet sich von ihrem wertmäßigen Pendant Ȧkl (vl) ausschließlich durch eine
multiplikative Konstante, die das Verhältnis des Absatzpreises zum Beschaffungspreis des
betrachteten Verbrauchsfaktors beschreibt. Diese Konstante ist für Unternehmungen, die
mit ihrem Produkt Gewinn erwirtschaften (d.h. im 'Normalfall'), größer eins.56 Damit gilt:
(19) Ȧ kl (v l ) > ρ kl (v l ) , (k = 1, ..., K ; l = 1, ..., L ) .
Sofern auf Ebene der monetarisierten und realgüterwirtschaftlichen partiellen Faktorproduktivitäten eine identische Verdichtungsvorschrift zur Bestimmung der (monetarisierten)
Produktivität verwendet wird, resultiert eine Bewertung der Realgütermengen mit ihren
Preisen also in einer größeren Maßzahl. Diese Überschätzung der Beurteilungsgrundlage
dafür, wie rationell eine Produktionseinheit ihre Fähigkeit zur Produktion ausübt, ist auch
inhaltlich begründbar: Im Fall der Monetarisierung der Produktivität fließt neben dem leistungswirtschaftlichen Erfolg der Unternehmung auch ihr finanzieller Erfolg (der im 'Normalfall' existiert) in die Beurteilung ein.
Isoliert betrachtet ist diese Überschätzung unerheblich, falls die monetarisierten Produktivitäten einer bestimmten Produktionseinheit verschiedener Zeitpunkte miteinander verglichen werden und dabei Änderungen in der Preisstruktur durch Verwendung von Festpreisen ausgeblendet werden. In diesem Fall sind Produktivitätsänderungen allein auf einen
geänderten leistungswirtschaftlichen Erfolg zurückzuführen. Für inter- oder intrabetrieb55
Eine derart gelagerte positive Würdigung findet sich bei Dikow (2006), S. 20.
56
Regelmäßig deutlich größer eins, da lediglich ein Verbrauchsfaktor unter vielen betrachtet wird.
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
339
liche Vergleiche gilt dies indes nur, falls die Preisstruktur für die zu vergleichenden Produktionseinheiten identisch ist,57 d.h. die multiplikativen Konstanten des Systems (18) für
alle Produktionseinheiten gleich sind.
Die Vermengung der beiden Erfolgsebenen kann neben einer Überschätzung der Beurteilungsgrundlage jedoch auch Einfluss auf unternehmerische Entscheidungen nehmen. Wird
bspw. die Zielfunktion des Maximierungsproblems (8) substituiert durch
&
(20) max ȇlȦ (vl ) = f ȇ (ωl (vl )) ,
Ȧ
l
&
mit ω l (v l ) = (ω1l (v l ), ..., ω Kl (v l )) , so findet c.p. gegenüber der Verwendung der ursprünglichen Zielfunktion eine stärkere Orientierung der optimalen Intensität an geringwertigen
Verbrauchsfaktoren statt: Je niedriger der Beschaffungspreis eines Verbrauchsfaktors ist,
desto größer ist die multiplikative Konstante, in der sich Ȧkl (vl) und ȡkl (vl) gemäß Definition (18) voneinander unterscheiden. Da jedoch Preise (auch) die Knappheit eines Gutes
widerspiegeln, 58 erscheint es nicht plausibel, die Beurteilung einer Gütererzeugung hinsichtlich ihrer Ressourcenschonung an weniger knappen Gütern zu orientieren.
Insgesamt zeigen sich bereits für den einfachsten Fall des kausalen Zusammenhangs zwischen Preis und Menge starke Mängel einer Monetarisierung der Produktivität.
4.2 Rabattstaffelungen und Preis-Absatz-Funktionen
Sind die Preise der Verbrauchsfaktoren bzw. Produkte abhängig von der beschafften bzw.
abgesetzten Menge, so soll für die korrekte Bewertung der Produktions- und Einsatzmengen mit diesen Preisen vereinfachend59 unterstellt werden, dass sich innerhalb des Betrachtungszeitraums die erzeugte und abgesetzte sowie eingesetzte und beschaffte Menge entsprechen. Andernfalls stünden Preis und Menge in keinem vollständigen kausalen Zusammenhang zueinander.60
Angenommen, ab dem Bezug von Rk Mengeneinheiten des Verbrauchsfaktors k lässt
sich ein prozentualer Preisabschlag δ k für sämtliche beschafften Mengeneinheiten realisieren, d.h.
& & &
für 0 ≤ rk (m, t , v ) < R k
& & & ­°q k
(21) q k (m, t , v ) = ®
& & &
rk (m, t , v ) ≥ R k
°̄q k ⋅ (1 − δ k ) für
57
In allgemeiner Form erkennt dieses Problem bereits Kneip (2007), S. 4.
58
Dies gilt jedoch eingeschränkt nur für individuell nutzbare Güter. So etwa Bellmann (1996), S. 131.
59
Der kompliziertere Weg führt über eine Bewertung der Bestandsveränderungen. Gemäß Bredt (1952), S.
174 erfordert dieser eine Separation der Produktivität für den Bereich der Produktion und des Absatzes.
Letztere fällt jedoch nicht unter das im vorliegenden Beitrag vertretene Produktivitätsverständnis.
60
Im Folgenden wird daher keine unterschiedliche Notation für erzeugte bzw. abgesetzte oder eingesetzte
bzw. beschaffte Realgütermengen verwendet.
340
Marion Steven, René Blank
und der Absatzpreis y (x) sei eine allgemeine Funktion der abgesetzten Menge. Dann führt
eine Bewertung der Realgütermengen auf Ebene der partiellen Faktorproduktivität in Anlehnung an Definition (18) zu:
& & &
­ y (x )
für 0 ≤ rk (m, t , v ) < R k
°
& & &
° q
(22) ω kl (m, t , v ) = ρ kl (v l ) = ® k
& & &
y (x )
°
rk (m, t , v ) ≥ R k .
für
(
)
¯° q k ⋅ 1 − δ k
Die Kritikpunkte aus dem vorausgegangenen Abschnitt – Überschätzung des Beurteilungskriteriums und Übergewichtung geringwertiger Verbrauchsfaktoren – lassen sich auch für
diesen komplexeren Zusammenhang zwischen Preisen und Mengen feststellen. Die Höhe
der jeweiligen Effekte ist jedoch abhängig von den konkreten Funktionen auf Seite des
Absatzes bzw. der Beschaffung. Für eine lineare Preis-Absatz-Funktion zeigt Abbildung 3
den Unterschied zwischen partieller Faktorproduktivität und ihrem monetarisierten Pendant:
θ k6 l v l ; π k6 l m
Ϛ , Ϛt , Ϛ
v
θ k6 l v l π k6 l m
Ϛ , Ϛt ,Ϛv zeitliche
Anpassung
Abbildung 3:
r k6 l ml , t l , v l Rk
intensitätsmäßiger Anpassung
(Monetarisierte) partielle Faktorproduktivität eines Verbrauchsfaktors
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
341
Obwohl es bei der zeitlichen Anpassung lediglich zu einer Ausdehnung der Produktion
kommt, ohne dass sich die Relationen zwischen den Einsatzmengen der Verbrauchsfaktoren oder die Relationen zwischen Produktionsmenge und einzelnen Einsatzmengen ändern,
ist die monetarisierte partielle Faktorproduktivität in diesem Bereich aufgrund der Interdependenz zwischen Absatzpreis und -menge nicht konstant. Die Einbeziehung derartiger
Mikrostrukturen in die Analyse erlaubt somit die Identifikation eines weiteren Mangels
einer Monetarisierung der Produktivität: Funktionale Zusammenhänge, die zwar nicht die
Ebene des leistungswirtschaftlichen Erfolgs, jedoch des finanziellen Erfolgs der Unternehmung betreffen, führen zu einer verzerrten Beurteilung der Produktionseinheit im Sinne der
Produktivität – ähnlich der Vermengung beider Erfolgsebenen im Zeitverlauf, wobei keine
konstanten Preise eines bestimmten Basisjahres zur Bewertung der Realgütermengen verwendet werden.
Hinzu kommt, dass die aggregatbezogene monetarisierte partielle Faktorproduktivität
(22) aufgrund der Rabattstaffelung abhängig ist von der Fahrweise sämtlicher Aggregate
der Unternehmung. Selbst bei unveränderter Fahrweise des betrachteten Aggregats l und
Konstanz der zu bearbeitenden Produktionsmenge kann sich daher seine monetarisierte
Produktivität ändern. Dies ist der Fall, falls durch einen Mehrverbrauch an anderen Aggregaten – d.h. einer dortigen Verschlechterung (!) der entsprechenden partiellen Faktorproduktivität – die Schwelle Rk im Rahmen der Beschaffung überschritten werden muss, der
Rabatt realisiert werden kann und die Sprungstelle der monetarisierten partiellen Faktorproduktivität erreicht wird.
Insgesamt lassen sich im Rahmen einer Verallgemeinerung der Annahmen des vorherigen Abschnitts weitere Mängel einer Monetarisierung der Produktivität feststellen. Ihr
Aussagehalt ist somit als beschränkt einzustufen, da durch die Vermengung leistungswirtschaftlicher und finanzieller Erfolgskomponenten die Intention der Produktivität konterkariert wird: Die Vorbereitung eines Urteils darüber, wie rationell eine Produktionseinheit
ihre Fähigkeit zur Produktion ausübt, wird getrübt durch Einflüsse, die den Bereich der
Beschaffung und des Absatzes einer Unternehmung betreffen. Diese sind z.T. zudem exogen, d.h. nicht durch Mitarbeiter der Unternehmung beeinflussbar.
4.3 Konsequenzen einer Orientierung an monetären Größen für die
Ressourcenschonung
In der Marktwirtschaft orientieren sich unternehmerische Entscheidungen letztlich am finanziellen Erfolg der Unternehmung.61 Zwar sind die Entwicklungen des Unternehmensgewinns und der Produktivität c.p. positiv korreliert, da nach einer Produktivitätsverbesserung ein bestimmter Output mit geringerem Input erzeugt werden kann und somit die variablen Kosten der Produktion sinken.62 Die vorstehenden Überlegungen haben jedoch bereits gezeigt, dass es ggü. der optimalen Lösung eines produktivitäts-orientierten Kalküls zu
Abweichungen kommen kann, sofern zusätzlich Preisinformationen für die Entscheidungsfindung berücksichtigt werden. So kann sich die optimale Lösung des Maximierungsprob61
Vgl. statt vieler Dellmann/Pedell (1994), S. 1 u. S. 3; ähnlich Bellmann (1996), S. 135.
62
Vgl. Steven (2007), S. 534.
342
Marion Steven, René Blank
lems (8) von denen unterscheiden, die bei Substitution der Zielfunktion durch (20) oder
durch die Minimierung der entscheidungsabhängigen Kosten C l (m l , t l , v l )
K
(23) min C l (m l , t l , v l ) = ¦ rkl (m l , t l , v l ) ⋅ q k + m l ⋅ c l
k =1
resultieren. Dabei beschreibt cl die sprungfixen Kosten, die für die Zuschaltung einer Anlage des Aggregats l anfallen.63
Fällt die Entscheidung bezüglich der Fahrweise eines Aggregats mit einer Orientierung
an der Zielfunktion (23), so lässt sich das nicht ausgeschöpfte Potential zur Produktivitätssteigerung ǻȇl für den betrachteten situativen Kontext analytisch angeben als Differenz
zwischen der optimalen Lösung des Maximierungsproblems (8) Ρl* und der aggregatbezogenen Produktivität ΡlCl ($ ) , die bei Realisation der optimalen Lösung zur Zielfunktion (23)
resultiert:
(24) ǻȇl = ȇl* − ȇlCl ($ ) .
Ein bloßer Appell an die Unternehmung, zum Zwecke des Umweltschutzes der produktivitäts-orientierten Lösung Ρl* Vorrang ggü. der kosten-orientierten Lösung ΡlCl ($ ) zu gewähren, würde eine Änderung des unternehmerischen Zielsystems verlangen. Gemeint ist damit
nicht einmal die Ausübung unternehmerischer Verantwortung in Bezug auf die Nutzung
natürlicher Ressourcen im Sinne einer Einschränkung der Produktionsmöglichkeiten durch
(teilweisen) Verzicht auf ihre Ausbeutung. 64 Eine Orientierung an der Produktivität als
prioritärem Ziel verlangt weniger: Die optimale Nutzung von (natürlichen) Ressourcen,
gegebenenfalls unter Inkaufnahme von Gewinneinbußen gegenüber dem status quo. Sofern
die Bereitschaft dazu nicht existiert und das Ziel der Ressourcenschonung dennoch (latent)
in das unternehmerische Zielsystem integriert werden soll, müssen exogen – d.h. auf Ebene
der Politik – generierte Anreize zur Ausschöpfung des Produktivitätssteigerungspotentials
finanzielle Konsequenzen haben.
Weizsäcker/Hargroves/Smith schlagen in diesem Kontext eine langfristig angelegte ökologische Steuerreform vor, nach der Preise für Produktionsfaktoren etwa in dem Umfang
anzuheben sind, wie im Branchen- oder Landesdurchschnitt (partielle) Produktivitätssteigerungen festgestellt werden. Jede Nicht-Ausschöpfung eines vorhandenen Produktivitätssteigerungspotentials geht damit (unmittelbar) zu Lasten des finanziellen Unternehmungserfolgs.65 Politische Instrumente dieser Art mögen in ihrer Auswirkung drastisch sein, mit
ihnen gelingt jedoch über einen Umweg die Priorisierung der Ressourcenschonung im
Rahmen unternehmerischer Entscheidungen. Damit einhergehend gewinnen produktivitätsorientierte Entscheidungskalküle an Bedeutung. Ein kritisches Moment stellt in diesem
Zusammenhang die formale Definition der Produktivität dar, die von Unternehmen ledig63
Zur Vereinfachung der Zielfunktion wird von Überstundenzuschlägen abstrahiert. Vgl. hierzu bspw.
Steven (1998), S. 137 f.
64
Vgl. in ethischer Perspektive so Wagner (1990), S. 301 f.
65
Vgl. Weizsäcker/Hargroves/Smith (2010), S. 312 ff.
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
343
lich als Zielwert adaptiert wird und unternehmerische Entscheidungen maßgeblich beeinflusst.
In diesem Kapitel sind mit Rückgriff auf eine (produktions-)theoretische Fundierung die
Vorteile einer realgüterwirtschaftlichen ggü. einer monetarisierten Produktivität verdeutlicht worden. Wie die Überlegungen in Kapitel 2 und 3 gezeigt haben, existieren für diese
Ausrichtung jedoch noch zahlreiche Möglichkeiten zur Konkretisierung, deren theoretisch
fundierte Evaluation zukünftigen Forschungsarbeiten überlassen bleibt.
5
Zusammenfassung und Ausblick
Produktivitätsverbesserungen sind zweckdienlich zur Entschärfung des globalen Verzehrs
von (knappen) Ressourcen. Eine enge Orientierung an der Grunddefinition der Produktivität (1) erlaubt es jedoch nur, ex post statistische Aussagen über eine Veränderung der Produktivität zu treffen. Zur Einbindung in die quantitativ-orientierte betriebliche Planung und
Entscheidungsfindung fehlt ihre Einbettung in Ursache-Wirkungs-Gefüge. Die zum Gegenstand des Beitrags erhobene Explikation der formalen Darstellung der Produktivität durch
Rückgriff auf produktionstheoretische Konzepte erlaubt diesbezüglich Abhilfe und führt die
wissenschaftliche Durchdringung der „Produktivität [als] Grundphänomen der betriebswirtschaftlichen Analyse des Produktionsprozesses“ 66 in analytischer Perspektive fort. Als
Grundlage hierfür dient eine realgüterwirtschaftliche Definition der Produktivität, die sich
als Verdichtung partieller Faktorproduktivitäten zu einer einzelnen reellen Zahl darstellt.
Der verfolgte Forschungsansatz erlaubt zum einen die durch Theorie gestützte Identifikation von Einflussfaktoren (Handlungsalternativen und Zustände) fernab der originär betrachteten Produktions- und Faktoreinsatzmengen und die Feststellung von Interdependenzen im Ursache-Wirkungs-Gefüge, von denen die Höhe der Produktivität abhängt. Im
Denkrahmen der Produktionstheorie von Gutenberg sind dies die intensitätsmäßige Anpassung als aktiv zu beeinflussende Steuergröße und die Verlaufsformen der einzelnen partiellen Faktorproduktivitäten sowie ihre Verdichtungsvorschrift als Determinanten. Es wird
gezeigt, dass die Konzentration auf einen rationellen Einsatz von Verbrauchsfaktoren, die
lediglich indirekt in das Produkt einfließen, ausreichend für eine Verbesserung der aggregatbezogenen bzw. -übergreifenden Produktivität ist, da die Einsatzmengen der übrigen
Verbrauchsfaktoren in einem kurzfristig determinierten Verhältnis zur Produktionsmenge
stehen. Interdependenzen zeigen sich in Form gegenläufiger Werte partieller Faktorproduktivitäten von Verbrauchsfaktoren bei Variation der Intensität eines Aggregats. Durch die
Verknüpfung von Produktivität und Produktionstheorie gelingt im Modellrahmen die eindeutige Quantifizierung ihrer Abhängigkeit von der Wahl einer bestimmten Handlungsalternative. Unter den Prämissen der betrachteten Produktionstheorie können so Handlungsempfehlungen für die betriebliche Entscheidungsfindung eruiert werden, die eine Maximierung der Produktivität (zum Zwecke der Ressourcenschonung) zum Ziel hat. Dabei zeigt
sich jedoch, dass entsprechende Kalküle zur Entscheidungsunterstützung bereits unter den
vereinfachenden Annahmen, die der Produktionsfunktion vom Typ B zugrunde liegen,
einen hohen Komplexitätsgrad erreichen. Für praktische Zwecke, für die ggü. einer theoretischen Abstraktion wesentlich mehr Einflussfaktoren und ihre Interdependenzen zu be66
Gutenberg (1983), S. 9.
344
Marion Steven, René Blank
rücksichtigen sind, fehlt es insofern an (alternativen) Kalkülen zur Planung und Optimierung der Produktivität unter Berücksichtigung wesentlicher Einflussfaktoren.
Mit Hilfe des verfolgten Forschungsansatzes können zum anderen unterschiedliche Formulierungen der Produktivität hinsichtlich ihrer Eignung evaluiert werden, inwiefern mit
ihnen festzustellen ist, wie rationell eine Produktionseinheit ihre Fähigkeit zur Produktion
ausübt. Unter Rückgriff auf das hergeleitete formale Instrumentarium zeigt sich, dass durch
eine Monetarisierung der Produktivität ihre Intention konterkariert wird: Der Einfluss finanzieller Erfolgskomponenten bewirkt, dass die Höhe der Produktivität im 'Normalfall'
überschätzt wird, hierauf geringwertige Verbrauchsfaktoren (und damit tendenziell weniger
knappe Ressourcen) einen zu stark gewichteten Einfluss ausüben und Änderungen ihrer
Höhe selbst dann festgestellt werden können, wenn es lediglich zu einer Ausdehnung der
Produktion kommt und die Mengenverhältnisse zwischen einzelnen Realgütern keine Veränderung erfahren. Infolgedessen ist aus theoretischer Perspektive Produktivitätskennzahlen, für die eine Bewertung der Realgütermengen zum Zwecke der Aggregation inkommensurabler Größen erfolgt, nur ein stark eingeschränkter Aussagehalt zu attestieren.
Die im Rahmen des Beitrags fokussierte realgüterwirtschaftliche Definition der Produktivität weist diese aufgezeigten Mängel nicht auf. Sie wird für einen ersten Zugang jedoch
bewusst abstrakt gehalten, sodass eine analoge Evaluation der Eignung verschiedener
Konkretisierungen noch aussteht. Als grundlegendes Problem stellt sich dabei heraus, dass
für die Definition partieller Faktorproduktivitäten – auf denen die Produktivität beruht – das
klassische Verständnis von Produktionsfaktoren als zu minimierenden und Produkten als zu
maximierenden Realgütern zugrunde gelegt wird, da ihr Wert ansonsten nicht sinnvoll
interpretierbar ist. Recyclate, denen eine wichtige Rolle im Kontext des Umweltschutzes
und speziell der Ressourcenschonung zugeschrieben wird,67 können als zu maximierende
Produktionsfaktoren insofern nicht für die Berechnung der Produktivität berücksichtigt
werden.68 Eine entsprechende Erweiterung des Produktivitätsverständnisses ist damit ebenso notwendig wie eine intensiv geführte Diskussion um die konkrete Formulierung der
Produktivität als Kennzahl, d.h. die Evaluierung unterschiedlicher Verdichtungsvorschriften bezüglich (zu modifizierender) partieller Faktorproduktivitäten. Als Fundament bietet
sich hierzu die Ausweitung der Analyse auf die Inkorporation weiterer (Produktions)Theorien an. Derartige Forschungsbemühungen bleiben jedoch zweckfrei, sofern produktivitäts-orientierten Entscheidungen in praxi geringe Bedeutung zukommt. Zur Legitimation der aufgezeigten Forschungsaufgaben sind daher parallel wirtschaftspolitische Instrumentarien zu entwickeln und praktisch durchzusetzen, die eine Priorisierung derartiger
Entscheidungen fördern.
Die Produktivität ist somit an der Schnittstelle von Produktionswirtschaft, Umweltmanagement und Wirtschaftspolitik verortet. Der skizzierte ausstehende Forschungsbedarf zeigt,
dass ihre wissenschaftliche Durchdringung noch nicht abgeschlossen ist und motiviert den
Jubilar vielleicht zu einer Teilnahme an seiner Bewältigung.
67
Vgl. nur Weizsäcker/Hargroves/Smith (2010), S. 54 ff.
68
Vgl. in einem erweiterten Kontext Dyckhoff/Allen (1999), S. 433.
Analyse der Produktivität auf Basis der Gutenberg-Produktionsfunktion
345
Literatur
Albach, H.: Die Betriebswirtschaftslehre: Eine Wissenschaft, in: Albach, H. (Hrsg.), Zur Theorie der Unternehmung – Schriften und Reden von Erich Gutenberg; Aus dem Nachlass, Springer-Verlag, Berlin et al.,
1989, S. 213–266.
Bellmann, K.: Grundlagen der Produktionswirtschaft, Fachbuch Verlag Winkler, Edingen, 3. Auflage, 2003.
Bellmann, K.: Ökologieorientierte Gestaltung industrieller Potentiale und Prozesse, in: Krallmann, H.
(Hrsg.), Herausforderung Umweltmanagement – Zur Harmonisierung des Spannungsfeldes zwischen
Ökonomie und Ökologie, Duncker & Humblot, Berlin, 1996, S. 129–152.
Bleischwitz, R.: Ressourcenproduktivität – Innovationen für Umwelt und Beschäftigung, Springer-Verlag,
Berlin et al., 1998.
Bohr, K.: Wirtschaftlichkeit, in: Chmielewicz, K. / Schweitzer, M. (Hrsg.), Handwörterbuch des Rechnungswesens, Schäffer-Poeschel Verlag, Stuttgart, 3. Auflage, 1993, Sp. 2182–2188.
Bredt, O.: Produktivität – Inhalt und Sinn des Begriffes, Beurteilungsmaßstab und wirtschaftliche Bedeutung, in: Rationalisierung 3, 1952, S. 173–178.
Charnes, A. / Cooper, W. W. / Rhodes, E.: Measuring the efficiency of decision making units, in: European
Journal of Operational Research 2, 1978, S. 429–444.
Corsten, H.: Produktivität, in: Woll, A. (Hrsg.), Wirtschaftslexikon, Oldenbourg Wissenschaftsverlag, München, 10. Auflage, 2008, S. 631–632.
Danø, S.: A Note on Factor Substitution in Industrial Production Processes, in: Unternehmensforschung 9,
1965, S. 164–168.
Dellmann, K. / Pedell, K. L. (Hrsg.): Controlling von Produktivität, Wirtschaftlichkeit und Ergebnis, Schäffer-Poeschel Verlag, Stuttgart, 1994.
Dikow, A.: Messung und Bewertung der Unternehmensproduktivität in mittelständischen Industrieunternehmen – Theoretische Grundlagen und praktische Anwendungen, Shaker Verlag, Aachen, 2006.
Dinkelbach, W. / Rosenberg, O.: Erfolgs- und umweltorientierte Produktionstheorie, Springer-Verlag, Berlin
et al., 5. Auflage, 2004.
Dyckhoff, H.: Kompensation bei Entscheidungskriterien – Risiko-, Ziel-, Egalitäts-, Zeit- und andere Präferenzen, in: OR Spektrum 7, 1985, S. 195–207.
Dyckhoff, H. / Allen, K.: Theoretische Begründung einer Effizienzanalyse mittels Data Envelopment Analysis (DEA), in: Zeitschrift für betriebswirtschaftliche Forschung 51, 1999, S. 411–436.
Dyckhoff, H. / Müser, M. / Renner, T.: Ansätze einer Produktionstheorie des Serienanlaufs, in: Zeitschrift
für Betriebswirtschaft 82, 2012, S. 1427–1456.
Egbers, A.: Produktivität logistischer Dienstleistungen – Entwicklung und Anwendung mehrstufiger DEAVerfahren, Verlag Dr. Kovaþ, Hamburg, 2012.
Fandel, G.: Produktions- und Kostentheorie, Springer, Berlin / Heidelberg, 8. Auflage, 2010.
Fricke, R.: Die Grundlagen der Produktivitätstheorie, Vittorio Klostermann, Frankfurt a. M., 1961.
Gutenberg, E.: Die Theorie der Unternehmung, in: Albach, H. (Hrsg.), Zur Theorie der Unternehmung –
Schriften und Reden von Erich Gutenberg; Aus dem Nachlass, Springer-Verlag, Berlin et al., 1989, S.
119–210.
Gutenberg, E.: Einführung in die Betriebswirtschaftslehre, Gabler, Wiesbaden, 1987.
Gutenberg, E.: Grundlagen der Betriebswirtschaftslehre – Erster Band: Die Produktion, Springer-Verlag,
Berlin / Heidelberg / New York, 24. Auflage, 1983.
346
Marion Steven, René Blank
Hoth, H. M.: Beitrag zur Klärung des Produktivitätsbegriffes und zur Produktivitätsmessung im Industriebetrieb, Zentral-Verlag für Dissertationen Triltsch, Düsseldorf, 1956.
Jung, H.: Allgemeine Betriebswirtschaftslehre, Oldenbourg Verlag, München / Wien, 10. Auflage, 2006.
Kistner, K.-P.: Produktions- und Kostentheorie, Physica-Verlag, Heidelberg, 2. Auflage, 1993.
Kistner, K.-P. / Sonntag, S.: Ansätze einer Theorie der Gutenberg-Produktionsfunktion, in: Zeitschrift für
Betriebswirtschaft 63, 1993, S. 1297–1329.
Kloock, J: Produktion, in: Bitz, M. / Dellmann, K. / Domsch, M. / Wagner, F. W. (Hrsg.), Vahlens Kompendium der Betriebswirtschaftslehre (Band 1), Verlag Franz Vahlen, München, 4. Auflage, 1998, S. 275–328.
Kneip, T.: Produktivität und Performance Measurement – Messung der gesamtbetrieblichen Produktivitätsentwicklung und Aufbau eines wertschöpfungsorientierten Performance-Measurement-Systems, WiKuVerlag, Duisburg / Köln, 2007.
Knolmayer, G.: Der Einfluß von Anpassungsmöglichkeiten auf die Isoquanten in GutenbergProduktionsmodellen, in: Zeitschrift für Betriebswirtschaft 53, 1983, S. 1122–1147.
Krelle, W.: Produktionstheorie – Teil I der Preistheorie, J. C. B. Mohr (Paul Siebeck), Tübingen, 2. Auflage,
1969.
Küpper, H.-U.: Interdependenzen zwischen Produktionstheorie und der Organisation des Produktionsprozesses, Duncker & Humblot, Berlin, 1980.
Laßmann, G.: Produktivität, in: Grochla, E. / Wittmann, W. (Hrsg.), Handwörterbuch der Betriebswirtschaft
(Band 2), Poeschel Verlag, Stuttgart, 4. Auflage, 1975, Sp. 3164–3169.
Menrad, S.: Der Kostenbegriff – Eine Untersuchung über den Gegenstand der Kostenrechnung, Duncker &
Humblot, Berlin, 1965.
Nebl, T.: Produktionswirtschaft, Oldenbourg Verlag, München / Wien, 6. Auflage, 2007.
Prengel, A.: Analyse und Systematisierung von Interdependenzen der betrieblichen Ergiebigkeitsgrößen,
Shaker Verlag, Aachen, 2007.
Randers, J.: 2052 – Der neue Bericht an den Club of Rome; Eine globale Prognose für die nächsten 40 Jahre,
Oekom Verlag, München, 2012.
Reuss, G. E.: Produktivitätsanalyse – Ökonomische Grundlagen und statistische Methodik, Kyklos-Verlag
(J. C. B. Mohr (Paul Siebeck)), Basel (Tübingen), 1960.
Sombart, W.: Produktivität, in: Weltwirtschaftliches Archiv 28, 1928, Heft 2, S. 1–32.
Stern, N.: The Economics of Climate Change – The Stern Review, Cambridge University Press, Cambridge
et al., 2007.
Steven, M.: Handbuch Produktion: Theorie – Management – Logistik – Controlling, Kohlhammer, Stuttgart, 2007.
Steven, M.: Produktionstheorie, Gabler, Wiesbaden, 1998.
Steven, M.: Die Einbeziehung des Umweltfaktors in die Gutenberg-Produktionsfunktion, in: Zeitschrift für
Betriebswirtschaft 64, 1994, S. 1491–1512.
Steven, M. / Zapp, S.: Warum Gutenberg keine Effizienz benötigt, in: Wirtschaftswissenschaftliches Studium 38, 2009, Heft 2, S. 62–67.
Sydsæter, K. / Hammond, P. / Seierstad, A. / Strøm, A.: Further Mathematics for Economic Analysis, FT
Prentice Hall, Harlow et al., 2. Auflage, 2008.
Wagner, G. R.: „Unternehmensethik“ im Lichte der ökologischen Herausforderungen, in: Czap, H. (Hrsg.),
Unternehmensstrategien im sozio-ökonomischen Wandel, Duncker & Humblot, Berlin, 1990, S. 295–316.
Weizsäcker, E. U. von / Hargroves, K. / Smith, M.: Faktor Fünf – Die Formel für nachhaltiges Wachstum,
Droemer Verlag, München, 2010.
Nutzung von verborgenen Unternehmensressourcen in
Krisensituationen
Horst Wildemann
Krisensituationen in der Wirtschaft
Deutschland weist hinter Frankreich, das für fast jede dritte Unternehmensinsolvenz Europas verantwortlich ist (30,1 %), den zweithöchsten Anteil an Unternehmenszusammenbrüchen in Europa aus. Etwa ein Fünftel (18,5 %) aller Insolvenzen Westeuropas betrafen im
Jahr 2009 deutsche Unternehmen. Skandinavische Länder (Dänemark, Finnland, Norwegen
und Schweden) sind für etwa ein Achtel der Unternehmensinsolvenzen verantwortlich
(11,7 %). Den Beneluxstaaten (11,1 %) und Großbritannien (11,0 %) sind jeweils ein
Neuntel der insolventen Unternehmen zuzuordnen (vgl. Creditreform e.V. 2011). In der
nachfolgenden Abbildung 1 wird die Entwicklung und Verteilung von Unternehmensinsolvenzen in Deutschland aufgezeigt. Dabei ist zusätzlich zu erkennen, dass vor allem Unternehmen mit einer Mitarbeiterzahl von unter 100 Beschäftigten insolvenzgefährdend sind.
34.000
32.687
32.000
30.000
29.160
31.998
101 und mehr Mitarbeiter
1%
29.291
Unbekannt
17%
28.000
26.000
2.000
83%
0
2007
2008
2009
2010
Anzahl der Unternehmensinsolvenzen
in Deutschland
Abbildung 1:
Weniger als 100 Mitarbeiter
Entwicklung & Verteilung der Unternehmensinsolvenzen
Quelle: Statistisches Bundesamt (2011); Institut für Mittelstandsforschung Bonn (2011)
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_25,
© Springer Fachmedien Wiesbaden 2013
348
Horst Wildemann
Im Jahr 2011 haben 30.099 deutsche Unternehmen Insolvenz angemeldet (vgl. Statistisches Bundesamt 2012). Einigen Unternehmen gelingt die Umkehr ihrer negativen Entwicklung in eine langfristig stabile Marktposition durch gezielte strategische und operative
Eingriffe. Notwendige Kredite für Investitionen und Restrukturierung werden jedoch oftmals nur unter verschärften Bedingungen verlängert oder gewährt. Die Basel-II Regelung
hat besonders die Situation der kleinen und mittleren Unternehmen (KMUs) hinsichtlich
Vergabeentscheidung und Zinshöhe negativ beeinflusst. Der zunehmende Druck durch die
Kapitalmärkte zwingt Unternehmen zielgerichteter zu agieren. (vgl. Kraus 2005, 17) Auch
gerade weil Unternehmen stets bedeutenden Wettbewerbsveränderungen unterzogen werden, haben diese sich im Wettbewerb mit verschiedenen Maßnahmen zu positionieren. (vgl.
Bellmann; Gerster 2006, 53f) Da KMUs als verlängerte Werkbank für Großunternehmen
fungieren, unterliegen diese bereits außerhalb einer Krisenphase dem Zwang der Leistungssteigerung, um dem ständig steigenden Kosten- und Lieferdruck gerecht werden zu können
(vgl. Seefelder 2007, S. 1ff.). Gründe für die Insolvenzen sind dabei unterschiedlichster
Natur. Dennoch ist die Basis der Unternehmensinsolvenz eine Krisensituation, die in ihrer
stärksten Ausprägung für das Unternehmen existenzgefährdend ist (vgl. Krystek et al. 2007,
S. 25). Der Ursprung des Begriffs Krise liegt in dem griechischen Wort krísis und bedeutet
kämpfen, streiten, scheiden, beurteilen oder entscheiden (vgl. Brunner et al. 1982, S. 6).
Das Wort Krise geht demnach immer mit einem Entscheidungsmoment einher, der den
bestehenden Status entweder negativ oder positiv verändert (vgl. Krystek 1987, S. 3). Der
Begriff für Unternehmenskrisen in der Wirtschaft entstand letztlich im 19. Jahrhundert in
Frankreich. Die konjunkturelle Krise wurde damals im französischen Raum mit La crise
commerciale bezeichnet. Die volkswirtschaftliche Betrachtung des Krisenbegriffs wurde
Mitte des 20. Jahrhunderts konkretisiert (vgl. Brunner et al. 1982, S. 7). Aufgrund unterschiedlicher Auslegungen erfuhr der Ausdruck zahlreiche Interpretationen. Den Anfang
machte HÖHN, der eine Unternehmenskrise als eine Situation beschreibt, die den Bestand
und das Leben eines Unternehmens nachhaltig gefährdet. Mit dieser Definition gelang ihm
eine erste Präzisierung des Begriffs (vgl. Höhn 1974). Sämtliche Definitionen der unterschiedlichsten Autoren haben die Existenzgefährdung als Kernaspekt einer Krise. Für
MÜLLER existiert jedoch erst dann eine Krise, wenn der Fortbestand des Unternehmens in
Gefahr ist. Somit besteht keine Unternehmenskrise, wenn lediglich vereinzelte Diskrepanzen in der Zielerreichung und Unternehmensentwicklung vorherrschen (vgl. Müller 1986,
S. 33). Der Faktor begrenzte Entscheidungszeit und der daraus resultierende Entscheidungsdruck auf fokale Unternehmen hängt vom jeweiligen Unternehmenszustand ab (vgl.
Krystek 1987, S. 6). Daher kann die Entscheidungszeit als ein Element der Unternehmenskrise ausgelegt werden. Unter diesen Gesichtspunkten wird den verborgenen Ressourcen
im Unternehmen eine Schlüsselrolle bei der Krisenbewältigung beigemessen. Bei verborgenen Ressourcen handelt es sich üblicherweise um Werte, die stets vorhanden sind. Eine
einheitliche Verwendung und Definition des Begriffs verborgene Ressourcen existiert weder in der englisch- noch in der deutschsprachigen Literatur. Vielmehr werden dort verschiedene Begriffe weitgehend synonym verwendet, beispielsweise Intangibles, Intangible
Assets, Intellectual Capital, Wissenskapital, immaterielle Ressourcen, immaterielle Güter,
immaterielle Vermögenswerte oder intellektuelles Kapital (vgl. Horváth; Möller 2004, S.
225). Gemäß der HLEG (European High Level Expert Group on the Intangible Economy)
werden verborgene Ressourcen als nicht-materielle Faktoren definiert, die einen Beitrag zur
Unternehmensleistung hinsichtlich der Produktion von Gütern oder der Bereitstellung von
Nutzung von verborgenen Unternehmensressourcen in Krisensituationen
349
Dienstleistungen, in der Gegenwart oder Zukunft generieren, so dass Unternehmungen oder
Individuen, die die Verwendung der Faktoren betreiben, einen Nutzen daraus ziehen (vgl.
Eustace; Bianchi 2001, S. 31). Im Gegensatz zu immateriellen Faktoren, weisen materielle
Güter eine begrenzte Lebensdauer auf, welche innerhalb dieser Lebenszeit konstant Leistungen abgeben (vgl. Bellmann 1991, S. 100f). Diese Abgrenzung und Definition von verborgenen Ressourcen bietet sich aus drei Gründen an. Erstens hat sie Gültigkeit für alle
verborgenen Ressourcen. Zweitens distanziert sie sich von einer negativen Abgrenzung
gegenüber materiellen Werten. Und drittens verdeutlicht die Definition die Bedeutung des
zukünftigen Nutzens der verborgenen Ressourcen für das Unternehmen.
Das Verständnis der verborgenen Ressourcen
Bei den verborgenen Ressourcen handelt es sich also um Vermögenswerte, welche aufgrund ihrer immateriellen Beschaffenheit monetär nur schwer erfassbar und bewertbar sind.
Kompetente Mitarbeiter, langfristige Kunden- und Lieferantenbeziehungen sowie optimierte Organisationsstrukturen können nicht direkt quantitativ bewertet werden, sind aber unumstrittene Treiber des Unternehmenserfolges. Immaterielle Werte zeichnen sich durch ein
hohes Maß an Flexibilität aus und tragen somit zur weiteren Dynamisierung des Wettbewerbs bei. Erstaunliche Unternehmensentwicklungen der letzten Jahre sind ohne die Betrachtung immaterieller Ressourcen oftmals nicht zu erklären (vgl. KPMG AG Wirtschaftsprüfungsgesellschaft 2008, S. 5). Eine Quantifizierung erfolgt meist erst beim Verkauf des Unternehmens. In der Bilanz des kaufenden Unternehmens können sie als ein Teil
des derivativen Firmenwertes, auch Goodwill genannt, wiedergefunden werden (vgl.
Hinterhuber 2006, S. 6). Abbildung 2 stellt die Nutzungszusammenhänge der internen,
verborgenen Ressourcen im Gesamtkonzept visuell dar.
350
Horst Wildemann
Ganzheitlichkeit
Produkte
&
Produktprogramm
• Bewertung
und Optimierung bestehender
Produkte
• Bewertung
und Optimierung des
bestehenden
Produktprogrammes
•…
Organisation &
Prozesse
Problemorientierung-
Lizenzen
&
Patente
Ideen &
Innovationen
• Optimierung
• Bewertung
der bestehender bestehenden Organiden Lizenzen
sation
und Patente
• Hebung der
• Bestimmung
in den Prodes Wertes
zessen
von Ideen in
bestehenden
der PatentanPotenziale
meldung
•…
•…
Transparenz
Schnelligkeit
Kunden- Lieferantenbeziehung beziehung
Nachhaltigkeit
Gesellschafter
&
Kapitalgeber
Mitarbeiter
&
Führung
• Bewertung
• Ermittlung
• Ermittlung des • Bewertung
von im Unterdes Wertes
Wertes des
des vorhannehmen bedes bestehen- bestehenden
denen
stehenden
den KundenLieferantenHumankapiIdeen für zustammes
stammes
tals
kunftsfähige
• Bestimmung • Bestimmung • Ableitung des
Produkte
der Beziehder BeziehMitarbeiter• Bewertung
ungsintensität ungsintensität potenzials
des bestehen- • …
•…
•…
den Innovationspotenzials
•…
• Gesellschafterzuschüsse
• Mezzaninekapitel
• Bankkredite
•…
Marke
• Image
• Bekanntheit
• …
Nachhaltige Unternehmensgestaltung
Frühzeitige Krisenprävention
Situationsspezifisches Turnaround-Management
Abbildung 2:
Nutzung von Unternehmensressourcen
Quelle: Eigene Darstellung
Die Nutzung der verborgenen Unternehmensressourcen zur Ableitung einer nachhaltigen
Gestaltung der Unternehmensbereiche in Bezug auf eine frühzeitige und kontinuierliche
Krisenprävention basiert auf fünf wesentlichen Leitlinien. Elementar ist die Ganzheitlichkeit der Bereichsgestaltung. Die ganzheitliche Betrachtung des Unternehmens, sowohl der
expliziten Unternehmenswerte als auch der verborgenen Unternehmensressourcen ist erforderlich, um ein umfassendes Konzept als Weg aus der Krise zu gestalten. Hierbei sind Lösungsvorschläge für die bestehenden Probleme einzuarbeiten. Transparenz schafft einen
grundsätzlichen Überblick über die verborgenen Unternehmensressourcen sowie deren
Wert. In einer Unternehmenskrise ist zudem schnelles Handeln erforderlich. Durch situationsspezifische Handlungsempfehlungen wird der Aufwand und damit die Geschwindigkeit
der Planung und Umsetzung erhöht. Eine übergreifende Nachhaltigkeit gewährleistet dabei
den langfristigen Unternehmensfortbestand. Die spezifischen Merkmale von KMUs hinsichtlich der Organisationsstruktur, der Führungspersönlichkeiten sowie des Marktzugangs
können sich sowohl positiv als auch negativ auf den Sanierungsprozess auswirken. Entscheidend ist, dass die Spezifika erkannt und nachhaltig für einen schnellen und erfolgreichen Turnaround genutzt werden. Die Nutzung verborgener Ressourcen bietet sich vor
allem für KMUs an, da sie nicht über dieselbe Markt- und Finanzkraft wie Großunternehmen verfügen.
Nutzung von verborgenen Unternehmensressourcen in Krisensituationen
351
Die Nutzung von verborgenen Ressourcen
Verborgene Ressourcen können einen erheblichen Anteil zur Unternehmenssanierung beitragen. Neben der Weiterentwicklung in der Krise zur Unterstützung der Sanierung, können
verborgene Ressourcen auch direkt für den Turnaround des Unternehmens eingesetzt werden. Die Messung und Bewertung verborgenen Vermögens ist in der Literatur ein viel diskutiertes Thema. Hier stellt sich bereits zu Beginn der Sanierung die entscheidende Frage,
ob das zu prüfende Unternehmen nachhaltig lebensfähig ist (vgl. Böckenförde 1991, S.
208). In den letzten Jahren gab es viele Publikationen über Ansätze und Methoden, die zur
Beschreibung und Bewertung verborgener Ressourcen außerhalb der Bilanz dienten. Diese
Beschreibungen unterteilen sich generell in deduktiv/summarische und induktiv/analytische
Ansätze. Allgemein lassen sich die deduktiv/summarischen Ansätze als Bezifferungsversuch der Marktwert-Buchwert-Lücke darstellen. Diese Lücke beschreibt die Tatsache, dass
sich der Marktwert der meisten Unternehmen vom Buchwert der Finanzhaltung essentiell
unterscheidet. Es wird angenommen, dass die Differenz zwischen Markt- und tatsächlichem
Buchwert den immateriellen Vermögensgegenständen entspricht. Bekannte Ansätze sind
der Market to Book Ratio und Weiterentwicklungen dieses Verfahrens wie z.B. der Tobin’s
Q sowie der Calculated Intangible Value (CIV) (vgl. Stewart 1997, S. 225). Deduktiv abgeleitete Faktoren bewerten die Ausgangsgrößen in monetärer Form (vgl. North 2010, S.
188). Dies geschieht auf dem Grundprinzip der freien Marktwirtschaft, dem Angebot und
der Nachfrage, und hat zum Vorteil, dass es ein relativ hohes Maß an Objektivität bietet
(vgl. Becker; Steiner 2005, S. 24). In marktwertorientierte Verfahren, die auf einer summarischen Bewertung basieren, können verborgene Ressourcen nicht getrennt voneinander
bewertet werden (vgl. Picot; Neuburger 2005, S. 80). Induktiv/analytische Ansätze hingegen beschreiben und bewerten verborgene Ressourcen und versuchen dabei, Einfluss auf
diese zu nehmen und sie zu verändern. Zu diesen Ansätzen zählen der IC-Index und die
Balanced Scorecard. Der Skandia-Navigator, der Intangible-Asset Monitor (Sveiby) und
der Intellectual Capital Navigator (Stewart) lassen sich den Wissensbilanzmodellen zuordnen (vgl. Alwert 2005, S. 26). Die meisten dieser Verfahren beschränken sich bei ihrer
Bewertung auf nicht-monetäre Faktoren. Quantitative Verfahren beachten mathematisch
darstellbare Faktoren. Subjektive Merkmale werden außen vor gelassen. Qualitative Verfahren berücksichtigen auch Kriterien, die sich nur schwer quantifizieren lassen. Indem sie
subjektive Daten miteinbeziehen sind sie flexibler auslegbar. Dadurch ist es möglich, auf
Grundlage von plausibler Argumentation, Thesen zur sinnvollen Bewertung zu finden (vgl.
Janker; Lasch 2004, S. 115; vgl. Koppelmann 2004, S. 262). Die Abbildung 3 bietet einen
Überblick über Verfahren zur Bewertung von immateriellen Vermögenswerten, listet einige
der in der Literatur genannten Verfahren auf und gliedert sie nach zwei Eigenschaften. Zum
einen nach der Fähigkeit des Verfahrens, einen Vermögenswert mittels eines monetären
Wertes zu bewerten. Und zum anderen danach, ob einzelne Ressourcen der Unternehmung
oder die Unternehmung als Ganzes dargestellt wird. So beschreibt zum Beispiel der
Economic Value Added (EVA) Ansatz die immateriellen Vermögenswerte eines Unternehmens im Ganzen und untergliedert sie nicht in einzelne Ressourcen. Außerdem wird
beim EVA-Ansatz ein monetärer Wert zur Bewertung der Gesamtheit der verborgenen
Ressourcen bestimmt. Der EVA lässt sich vereinfacht berechnen als Geschäftsergebnis
nach Steuern abzüglich der Kapitalkosten. Obwohl der EVA als Methode nicht für die
Messung verborgener Ressourcen eines Unternehmens entwickelt wurde und dies nie zum
Ziel hatte, existiert doch eine indirekte Verbindung zwischen EVA und immateriellen Ver-
352
Horst Wildemann
mögenswerten, sofern angenommen wird, dass das Management verborgener Ressourcen
die Höhe des immateriellen Kapitals beeinflusst. Infolgedessen wird er teilweise als Kennzahl verwendet (vgl. Andriessen 2004, S. 293; Alwert 2005, S. 28).
Betrachtung einzelner
Komponenten
Verschiedene Wissensbilanzmodelle:
(1) Wissensbilanz- Made in Germany
(2) Intangible Asset Monitor
(3) Intellectual Capital Statement
LV
Betrachtung als Ganzes
RAVE
HVA
Strategy
Maps
BSC
ABC
ICIndex
Liahona
H.O.M.
E.S.
VCS
CIV
EVA
Market
to Book
Value
Ermittlung eines monetären Wertes
Beschreibung mit Indikatoren
= Messverfahren mit Bewertung
= Messverfahren ohne Bewertung
Abkürzungen:
EVA: Economic Value Added
HVA: Holistic Value Approach
BSC: Balanced-Scorecard
CIV: Calculated Intangible Value
Abbildung 3:
RAVE: Real Asset Value Enhancer
LV: Lif etime Value-Ansätze
VCS: Value Chain Scoreboard
ABC: Activity Based Costing
Bewertungsansätze für immaterielle Vermögenswerte
Quelle: Alwert 2005, S. 26
Einige wichtige Methoden sind jedoch nicht in Abbildung 3 dargestellt. Beispielsweise
fehlen Herangehensweisen zur Beschreibung der internen verborgenen Ressource Mitarbeiter & Führung, wie das Human Capital Market Value (HCMV), das Workonomics-Prinzip
oder das Human Ressource Accounting. Bewertungskonzepte zur Bestimmung des Wertes
von geistigem Eigentum, wie Marken oder Lizenzen & Patente, sind gleichermaßen nicht
Bestandteil der Illustration. Darunter fallen Methoden wie das Konzept des kundenorientierten Markenwertes, Indikatoren zur Bestimmung des Patentwertes und die Marktbewer-
Nutzung von verborgenen Unternehmensressourcen in Krisensituationen
353
tung nach YOUNG & RUBICAM. Der Bezug zwischen Methoden zur Unternehmenssanierung
und den verborgenen Ressourcen ist durchweg möglich, aber nicht immer sofort eindeutig
darstellbar. Grund hierfür ist vor allem die Veränderlichkeit der Methoden über die Krisenphasen hinweg. Je latenter und bedrohlicher die Unternehmenskrise wird, desto schwieriger
ist die Verknüpfung von Methode und Ressource. In der Liquiditätskrise steht die Beschaffung monetärer Mittel im Vordergrund. Eine nachhaltige Sanierung des Unternehmens ist
nachrangig und wird daher sekundär verfolgt. Die Methoden selbst können grundsätzlich in
jeder Krisenphase eingesetzt werden. Eine Nutzenmaximierung ist aber meist nur in einer
bestimmten Phase möglich. Somit kann in der Liquiditätskrise durchaus eine Methode zur
Strategiefindung angewandt werden, welche sich jedoch kurzfristig nicht auf die verfügbaren Finanzmittel des Unternehmens auswirken wird. Ebenso besteht in der Strategiekrise
die Möglichkeit Gesellschaftsanteile zu veräußern, obwohl dafür noch keine Notwendigkeit
besteht. Für eine erfolgreiche Sanierung ist jedoch die reine Fokussierung auf verborgene
Ressourcen nicht ausreichend. Hier ist zusätzlich ein umfassender Methoden- und Strategieeinsatz nötig, der die verborgenen Ressourcen unterstützt. Somit bedingt eine erfolgreiche Sanierung weitere, notwendige Erfolgsfaktoren. Grundsätzlich sind Erfolgsfaktoren je
nach ihrer Ausprägung maßgeblich für den Erfolg oder Misserfolg unternehmerischen
Handels verantwortlich (vgl. Pinkwart et al. 2005, S. 199). Sie stehen mit den verborgenen
Ressourcen, die nicht oder nur ungenau quantifiziert werden können, aber in Abhängigkeit
ihrer Kombination und Ausprägung einen Mehrwert stiften, in einer wechselseitigen Beziehung und bedingen sich zum Teil gegenseitig. Zu den Erfolgsfaktoren zählen unter anderem
die Berücksichtigung der Unternehmenssituation, die Branchenzugehörigkeit sowie weitere
individuelle, unternehmensspezifische Faktoren. Zahlreiche Ansätze in der Literatur bilden
den Turnaround-Prozess zur Sanierung ab (vgl. Faulhaber; Grabow 2009, S. 20; vgl. Kelber
2004, S. 122f.; vgl. Bibeault 1982, S. 92; vgl. Chowdhury 2002, S. 256; vgl. Lenahan 1999,
S. 15; vgl. Fetterman 2003, S. 9ff.). Sie weisen alle einen vier- oder fünfgliedrigen Aufbau
auf, sind im Kern ähnlich und inhaltlich sowie zeitlich interdependent (vgl. Chowdhury
2002, S. 256). Nach FAULHABER umfasst der Turnaround-Prozess die Crash-Phase, den
Restrukturierungsbeginn, die Durchsetzung der Restrukturierung sowie die Neuausrichtung
und deren Sicherung. In den Phasen 1 und 2 hat die Sicherstellung der Liquidität die oberste Priorität. Daraufhin wird in den Phasen 2 und 3 das Turnaround-Konzept erstellt. Daran
anschließend folgen in Phase 3 und 4 die Umsetzung der Restrukturierung und die Etablierung des neuausgerichteten Unternehmenskonzepts. In der nachfolgenden Abbildung werden die Phasen gemäß FAULHABER aufgezeigt und die Schritte innerhalb der Phasen beschrieben. Die Einleitung von Maßnahmen basiert auf dem Erkennen einer möglichen Unternehmenskrise (vgl. Meusel 2009, S. 11). Unternehmen, die sich in einer Krisensituation
befinden, durchlaufen im Vorfeld einer Insolvenz die drei Phasen Strategiekrise, Ertragskrise und Liquiditätskrise. Diese sind gekennzeichnet durch eine Verschlechterung der Erfolgspotenziale, dem Unterschreiten von Erfolgszielen beziehungsweise eine angespannte
Liquiditätssituation. Je weiter eine Krise fortgeschritten ist, desto deutlicher die spürbaren
Signale und desto limitierter der Handlungsspielraum. Jede Krisenphase kann mithilfe
geeigneter Früherkennungsinstrumente und der fallspezifischen Ausprägung von Indikatoren identifiziert werden. Handlungsoptionen, welche den Turnaround vollziehen vermögen,
sind an die Krisensituation und den damit einhergehenden Handlungsdruck anzupassen
oder auszuwählen. Folglich ist eine krisenphasenspezifische Anpassung des TurnaroundManagements notwendig.
354
Horst Wildemann
Die Erzielung eines situationsspezifischen Turnaround
Auf Grund der Komplexität, welche diese Situationen annehmen können, ist jedoch keine
allgemeingültige Vorgehensweise definierbar. Totalitäres Ziel des Turnaround-Managements ist die nachhaltige Ausgestaltung des Unternehmens. Hierbei gilt es das Augenmerk
auf die bereits im Unternehmen vorhanden verborgenen Ressourcen zu legen und diese
gezielt einzusetzen. Je nach Krisenart und -verlauf verändern sich auch der Modus der
Umstrukturierung und die nötige Intensität des Turnarounds. So durchlaufen in ihrer Existenz bedrohte Unternehmen alle Phasen des Turnaround-Managements, während andere,
die rechtzeitig auf Warnsignale geachtet haben, Phasen schneller durchlaufen oder sogar
ganzheitlich außer Acht lassen können (vgl. Bibeault 1982, S. 91).
Handlungsspielraum
Strategischer
Turnaround
Taktischer
Turnaround
Operativer
Turnaround
Strategiekrise
Ertragskrise
Erzwungener
Turnaround
Liquiditätskrise
Zeit
Abbildung 4:
Insolvenz
Turnaround in den jeweiligen Krisenphasen
Quelle: ohne Angabe
Insgesamt unterscheiden PINKWART und KOLB (2000) vier Turnaround-Arten, die zugeordnet zu den einzelnen Krisenphasen der Abbildung 4 entnommen werden können. Die
Unterscheidungskriterien belaufen sich auf die noch verfügbare Reaktionszeit, die einsetzbaren Analyse- und Planungsinstrumente und die Kombination aus kurz-, mittel- und langfristigen Korrekturmaßnahmen (vgl. Pinkwart 2000, S. 6ff.). Die Bewertung von verborgenen Ressourcen in Krisenphasen kann durch ein Vorgehens- und ein Bewertungsmodell
realisiert werden. Die erste Komponente dieses Modells beinhaltet die Einflussgrößen.
Diese setzen sich aus der aktuellen Situation des Unternehmens sowie die spezifisch ausgeprägte Relevanz der Ressourcen zusammen. Die zweite Komponente, die Ressourcenbewertung, beinhaltet einen Bewertungskatalog aller Ressourcen. Die Ressourcenausprägung
wird flankiert mit den Einflussgrößen die Ressourcenbewertung. Die Methodenempfehlung
355
Nutzung von verborgenen Unternehmensressourcen in Krisensituationen
Analyse der verborgenen
Ressourcen
Ressourcenrelevanz
Unternehmenssituation
zur Nutzung der verborgenen Ressourcen ist in strategische und operative Ansätze aufzugliedern.
Symptome
Typologisierung
1.Schwellenwerte
2.Quantitative
Indikatoren
3.Qualitative
Indikatoren
Keine Krise
Strategiekrise
Nutzwertanalyse
Ertragskrise
Liquiditätskrise
• Ressource 1
• Ressource 2
1.Weniger
wichtig
2.Gleich wichtig
3.Wichtiger als
•…
Kundenbeziehung
gering
Quantitative
Einschätzung
hoch
Organisation &
Prozesse
gering
hoch
gering
hoch
gering
hoch
gering
hoch
gering
hoch
Lieferantenbeziehung
gering
Qualitative
Einschätzung
Priorisierung
• Ressource 3
Produkte &
Produktprogramm
Bewertungskatalog:
Handlungsdruck
hoch
Ideen &
Innovationen
Lizenzen &
Patente
gering
hoch
Potenziale
und Defizite
Mitarbeiter &
Führung
Marke
gering
hoch
Gesellschafter &
Kapitalgeber
Typenspezifische Handlungsempfehlung inklusiver Methodenwahl
Strategische Methodenempfehlung
Abbildung 5:
Operative Methodenempfehlung
Turnaround-Modell zur Nutzung von verborgenen Unternehmensressourcen
Quelle: Eigene Darstellung
Die Unternehmenssituation lässt sich durch verschiedene Kriterien abbilden (vergleiche
Abbildung 5). Auf Basis der illustrierten Kennzahlen findet eine Typologisierung der aktuellen Situation eines Unternehmens statt. Weiterhin fließt die Relevanz der Ressourcen als
weitere Einflussgröße in das Modell ein. Die Ausprägung der Relevanzen variiert von Unternehmen zu Unternehmen. Daher ist eine individuelle Analyse dieser Größe notwendig.
Die Kombination von Ressourcenrelevanz und der Einschätzung der Ressourcenausprägung in einem definierten Bewertungskatalog ermöglicht qualifizierte Aussagen über bestehende Potenziale und Defizite eines Unternehmens zu treffen. Hieraus können zudem
Handlungsoptionen abgeleitet werden. Der Handlungsdruck, diese umzusetzen, wird durch
356
Horst Wildemann
die Typologisierung und damit der Unternehmenssituation induziert. Die Unternehmenssituation wird innerhalb der Typologisierung abgebildet und fußt auf Schwellenwerten sowie
quantitativen und qualitativen Indikatoren. Auf Basis der aufgezeigten Faktoren findet eine
Typologisierung in die Klassen keine Krise, Strategie-, Ertrags- und Liquiditätskrise statt.
Je nach Ausprägung der Typologisierung erfährt das Unternehmen unterschiedlich hohen
Handlungsdruck. Ist ein Unternehmen in der Liquiditätskrise positioniert, gilt es primär
langangelegte Investitionen in flüssige Mittel umzuwandeln, um die Liquidität vorübergehend zu erhöhen. Demgegenüber besitzt ein Unternehmen in der Strategiekrise weitreichendere Spielräume um die Geschäftstätigkeit nachhaltig zu sichern. Zur umfänglichen
Analyse der verborgenen Ressourcen ist die Relevanz der Ressource für das jeweilige Unternehmen ein bedeutsamer Faktor. Dabei wird die Relevanz der Ressource innerhalb des
Unternehmens definiert. Kernelement der Analyse der verborgenen Ressourcen stellt ein
Bewertungskatalog dar, der aus Bewertungskriterien in Form von Fragen und Kennzahlen
bestehen kann. Ziel ist die objektive Ermittlung einer qualitativen und quantitativen Einschätzung von Sachverhalten im Unternehmen. Die Analyse der verborgenen Ressourcen
wirkt sich auf das Scoreboard aus. Je nach Einschätzung der jeweiligen Fragen und Kennzahlen innerhalb des Bewertungskatalogs, ist die jeweilige Ressource ausgeprägt. Schwächer ausgeprägte Ressourcen weisen Potenziale oder Defizite auf, die es fallspezifisch auszuschöpfen oder zu überwinden gilt. Typenspezifische Handlungsempfehlungen erfolgen
daher auf Basis der Unternehmenssituation, Relevanz der Ressource und des Scoreboards.
Mit zunehmendem Krisenfortschritt erhöht sich der Handlungsdruck auf ein Unternehmen.
Dies bedeutet im Umkehrschluss eine Reduktion möglicher Handlungsoptionen und erfordert deren Priorisierung. Mit zunehmendem Handlungsdruck werden daher entweder nur
die relevantesten verborgenen Ressourcen zur Überwindung der Krise genutzt oder die
irrelevantesten auf Outsourcing-Potenziale untersucht. Eine frühzeitige Krisenprävention
und die Nutzung von strategischen sowie operativen Methoden sind für KMUs essentiell,
um nachhaltig und langfristig erfolgreich zu agieren.
Literatur
Alwert, K. (2005): Wissensbilanzen – Im Spannungsfeld zwischen Forschung und Praxis. In: Kai Mertins,
Alwert Kay und Peter Heisig (Hg.): Wissensbilanzen. Intellektuelles Kapital erfolgreich nutzen und entwickeln; mit 16 Tabellen. Berlin [u.a.]: Springer, S. 19–39.
Andriessen, D. (2004): Making sense of intellectual capital. Designing a method for the valuation of intangibles. Amsterdam, Boston: Elsevier.
Becker, D.; Steiner, A. (2005): Immaterielles Vermögen erfolgreich managen – Status Quo und Entwicklung. In: ZfCM – Zeitschrift für Controlling & Management 49 (Sonderheft 3), S. 20–28.
Bellmann, K. (1991): Latente ökonomische Ressourcen in der Nutzungsdauer von Gebrauchsgütern, In: Peter
Milling (Hg.): Systemmanagement und Managementsysteme, Duncker & Humblot, Berlin, S. 99-123
Bellmann, K.; Gerster B. (2006): Netzwerkmanagement kleiner und mittlerer Unternehmen. Eine theoretische und empirische Untersuchung. In: Thorsten Blecker (Hg.): Wertschöpfungsnetzwerke, Erich
Schmidt Verlag GmbH & Co., S. 53-68.
Bibeault, D. B. (1982): Corporate turnaround. How managers turn losers into winners. New York;
Montréal: McGraw-Hill.
Böckenförde, B. (1991): Unternehmenssanierung. Stuttgart: Schäffer, Verl. für Wirtschaft und Steuern.
Nutzung von verborgenen Unternehmensressourcen in Krisensituationen
357
Brunner, O.; Conze, W.; Koselleck, R. (1982): Geschichtliche Grundbegriffe. Historisches Lexikon zur
politisch-sozialen Sprache in Deutschland. Stuttgart: Klett-Cotta.
Chowdhury, S. D. (2002): Turnarounds. A stage theory perspective. In: Canadian Journal of Administrative
Science 19 (3), S. 249–266.
Creditreform e.V. (2011): Kriseneffekte beim Eigenkapital. Die Folgen der Rezession für die Kapitalausstattung des Mittelstandes. In: Creditreform Wirtschaftsforschung 4 (11), S. 1–5.
Eustace, C.; Bianchi, P. (2001): The intangible economy impact and policy issues. Report of the High Level
Expert Group on the Intangible Economy. Luxembourg: Office for Official Publications of the European
Communities.
Faulhaber, P.; Grabow, H.-J. (2009): Turnaround-Management in der Praxis. Umbruchphasen nutzen - neue
Stärken entwickeln. 4. Aufl. Frankfurt; New York: Campus-Verlag.
Fetterman, W. H. (2003): The Team Approach to Turnarounds. Employing Financial and Operational
Expertise. In: The Journal of Private Equity 6 (3), S. 9–12.
Hinterhuber, H. H. (Hg.) (2006): Kundenorientierte Unternehmensführung. Kundenorientierung, Kundenzufriedenheit, Kundenbindung. 5. Aufl. Wiesbaden: Gabler.
Höhn, R. (1974): Unternehmensführung ist Krisenmanagement. In: Blick durch die Wirtschaft, 1974.
Horváth, P.; Möller, K. (Hg.) (2004): Intangibles in der Unternehmenssteuerung. Strategien und Instrumente zur Wertsteigerung des immateriellen Kapitals. München: Vahlen.
Janker, C. G. (2004): Multivariate Lieferantenbewertung. Empirisch gestützte Konzeption eines anforderungsgerechten Bewertungssystems. 1. Aufl. Wiesbaden: Dt. Univ.-Verl.
Kelber, F. (2004): Turnaround-Management von dotcoms. Lohmar: Eul Verlag.
Koppelmann, U. (2004): Beschaffungsmarketing. 4. Aufl. Berlin [u.a.]: Springer.
KPMG AG Wirtschaftsprüfungsgesellschaft (Hg.) (2008): Patente, Marken, Verträge, Kundenbeziehungen
– Werttreiber des 21. Jahrhunderts. Online verfügbar unter http://www.kpmg.de/docs/
StudiePatente_211207.pdf.
Kraus, R. (2005): Strategisches Wertschöpfungsdesign. Ein konzeptioneller Ansatz zur innovativen Gestaltung der Wertschöpfung. Wiesbaden: Gabler.
Krystek, U. (1987): Unternehmungskrisen. Beschreibung, Vermeidung und Bewältigung überlebenskritischer Prozesse in Unternehmungen. Wiesbaden: Gabler.
Krystek, U.; Moldenhauer, R.; Angster, E. (2007): Handbuch Krisen- und Restrukturierungsmanagement.
Generelle Konzepte, Spezialprobleme, Praxisberichte. Stuttgart: Kohlhammer.
Lenahan, T. (1999): Turnaround management. Oxford; Boston, Mass: Butterworth Heinemann.
Meusel, D. (2009): Turnaround-Management: Die Rolle der Finanzpartner und Investoren. Die Rolle der
Finanzpartner und Investoren. Hamburg: Igel-Verlag.
Müller, R. (1986): Krisenmanagement in der Unternehmung. Vorgehen, Maßnahmen und Organisation. 2.
Aufl. Frankfurt am Main u.a: Lang.
North, K. (2010): Wissensorientierte Unternehmensführung. Wertschöpfung durch Wissen. 5. Aufl. Wiesbaden: Gabler.
Picot, A.; Neuburger, R. (2005): Controlling von Wissen. In: ZfCM – Zeitschrift für Controlling & Management 49 (Sonderheft 3), S. 76–84.
Pinkwart, A. (2000): Marketing-Strategien für den Unternehmens-Turnaround. In: Jörn-Axel Meyer (Hg.):
Jahrbuch der KMU-Forschung 2000. Marketing in kleinen und mittleren Unternehmen. München:
Vahlen, S. 165–182.
358
Horst Wildemann
Pinkwart, A.; Kolb, S.; Heinemann, D. (2005): Unternehmen aus der Krise führen. Die TurnaroundBalanced-Scorecard als ganzheitliches Konzept zur Wiederherstellung des Unternehmenserfolgs von
kleinen und mittleren Unternehmen. Stuttgart: Deutscher Sparkassenverlag.
Seefelder, G. (2007): Unternehmenssanierung. Zerschlagung vermeiden, Ursachen analysieren, Konzepte
finden, Chancen erkennen. 2. Aufl. Stuttgart: Schäffer-Poeschel.
Statistisches Bundesamt (Hg.) (2011): Bruttoinlandsprodukt 2010 für Deutschland. Begleitmaterial zur Pressekonferenz am 12. Januar 2011 in Wiesbaden. Bundesministerium des Innern. Online verfügbar unter
http://www.orghandbuch.de/cln_110/nn_414074/OrganisationsHandbuch/DE/6__MethodenTechniken/
65__Bewertungsverfahren/651__Quantitative/quantitative-node.html?__nnn=true.
Statistisches Bundesamt (Hg.) (2012): Bruttoinlandsprodukt für Deutschland 2010. Online verfügbar unter
https://www.destatis.de/DE/PresseService/Presse/Pressekonferenzen/2011/BIP2010/Pressebroschuere_BI
P2010.pdf?__blob=publicationFile.
Stewart, T. A. (1997): Intellectual capital. The new wealth of organizations. New York: Doubleday / Currency.
Evaluation and Content Analysis of the DAX-30-CSR-reports
within the Period from 2007-2009
Jan Wirsam
1
Introduction
Previously, along with increasing awareness and consensus being noted, that companies not
only achieve business success, but also that the interests of its employees, society and the
environment should be integrated into corporate activities (Figge et al., 2002). Many companies have adopted these socio-economic responsibility issues (Corporate Social Responsibility) already, by environmental and social standards in their management processes and
integration into the value chain (Loew et al., 2004). Normally they document this commitment in the form of sustainability reports.
The central idea of this study is to provide a comprehensive overview of the sustainability reporting of DAX companies in Germany.
DAX® is the blue chip index of the German stock exchange. It contains the largest market capitalization and exchange turnover of 30 German companies (the headquarters are
based in Germany) from all business sectors.
2
Methodology and Aim of Research
The applied methodology is a comparison of the reports by defined parameters. A short
content analysis will allow further findings. The reports will be clustered based on established certification authorities like the Global Reporting Initiative (GRI-Guidelines 2006).
The guidelines of the Global Reporting Initiative (GRI) establish criteria for the concept
and content of sustainability reports. The GRI is a network of corporate and employee representatives, civil society, investors and auditors. Since 1997, this group is working on the
continuous development of guidelines for CSR-reporting. The GRI guidelines are the only
international framework for CSR-reporting. The initial guidelines were submitted in 1999
and have been revised several times.
The results presented will contain an overview of the reports regarding basic factors. In
conclusion we demonstrate a transparency on the key aspects of the CSR-reports of the
DAX-30-companies. The study presents data on the questions of who is reporting how
much and in what form.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_26,
© Springer Fachmedien Wiesbaden 2013
360
Jan Wirsam
To collect the data, research was conducted by internet. The results of this search for sustainability reporting have been verified partly by telephone interviews and e-mail communication with individual companies.
3
Relevance of Sustainability Reports
Nowadays the sustainability report can be called a standard tool of internal and external
communications of the DAX-30 companies, which underlines the importance of the sustainable development of corporate governance. The existence of a sustainability report is of
course no guarantee that a company really follows a sustainable strategy (Müller, 2007).
For large listed companies sustainability reports are increasingly a tool for investors as well
as non-financial external stake holders. They also provide an ecological and social "balance" in addition to the financial reports and allow insights of the quantity and quality of
their activities (Daub 2005).
The intention for sustainable coverage may vary. A sustainability report in any case creates transparency and allows the assessment of business activity (Kolk, 2004). To improve
the reliability and accuracy of information supplied on this, several guidelines and standards of auditing are now available.
In context of the present study the guidelines of the Global Reporting Initiative and the
directives of the UN Global Compact will be recognized (Adams et al., 2004).
4
Awareness of Sustainability Reports by the DAX-30-Companies
Out of the 30 companies listed on the DAX (as of January 2010), 26 published a report
corresponding to sustainability. These CSR-reports are available in all business sectors.
Tab. 1 provides an overview.
In each case the latest report of a company was analysed. The data for the development of
sustainability reporting in the company, the details of the quality of the data, the applied
standards and attestations and further statements were aspects of the analysis of the sustainability reports and the websites of the companies. Some direct inquiries of the companies
were added.
361
Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009
Table 1:
CSR-Reproting of the DAX30-companies Part 1
Sector
Adidas AG
Allianz SE
BASF SE
Bayer AG
Beiersdorf
AG
BMW AG
(St)
Commerzbank AG
Daimler AG
Deutsche
Bank AG
Deutsche
Börse AG
Deutsche
Lufthansa
AG
Deutsche
Post AG
Deutsche
Telekom AG
E.ON AG
Report Title
Sport
SPORT MATTERS
Sustainability Performance Review
2008
Insurance
Allianz
Sustainability Report
Chemical
Report 2008. Economic, environmental and social
performance
Pharma
Sustainability Report
2008
Cosmetics
Sustainability Report
2008
Automotive
Sustainable Value
Report 2008
Banking
Corporate
Responsibility Report 2009
Automotive
Sustainable Report
2009
Banking
Corporate Social
Responsibility Report 2008
Banking
Corporate
Responsibility 2008
Aviation
Balance. Key data on
sustainability at Lufthansa. Issue 2009
Transportation
Sustainability Report
2009
Telecommunicatio The 2009 Corporate
n
Responsibility Report
Energy
CR Reporting 2008
Fresenius SE Medical
(Vz)
Medical
Fresenius
Medical Care
no report available
no report available
Report
Type
Sustainability
Year
Pages
Mar 09
69
SustainSep 09
ability
Integrated Mar 09
257
Sustainability
Sustainability
Sustainability
Sustainability
Jun 09
118
Apr 09
264
Sep 09
114
Dec 09
98
Sustainability
Sustainability
Mar 09
72
May 09
115
Sustainability
Sustainability
Mar 09
36
May 09
121
Sustainability
Sustainability
Apr 09
58
Jul 09
66
Sustainability
May 09
131
362
Jan Wirsam
Table 1 (Continuation)
Sector
Report Title
Chemical
Sustainability Report
2008
no report available
Corporate/Sustainability
Report 2008
Corporate Responsibility Online Report 2009
Management Report on
Sustainability
Henkel
KGaA (Vz)
Infineon AG
K+S AG
IT
Chemical
Linde AG
Chemical
MAN SE (St) Automotive
Merck KGaA Pharma
Metro AG
(St)
Münchener
Rück AG
Retail
Insurance
RWE AG (St) Energy
Salzgitter AG Heavy Industries
SAP AG
Software
Siemens AG
Electronic
ThyssenKrupp AG
Volkswagen
AG (Vz)
Heavy Industries
Automotive
5
Year
Pages
Feb 09
38
Sustainability
Mar 09
129
Sustainability
Community and
Social
Community and
Social
Sustainability
Sustainability
Oct 09
116
Nov 09
17
Jul 09
74
Jul 08
83
Sustainability
Apr 09
SAP 2008
Sustainability Report
Sustainability Report
2008
Annual Report 07/08
Sustainability
Sustainability
Integrated
May 09
Sustainability Report
2009/2010
Sustainability
Corporate
Responsibility Report
2009
Sustainability Report
2007
Sustainability (2006);
various updates until
2009
Our Sustainability.
Status 2008
no report available
Report
Type
Sustainability
Sep 07
30
Jun 09
178
Apr 09
260
Sep 09
66
Title, Focus, Scope of the CSR-reports
Regarding the choice of titles for their publications, the DAX-companies show only little
creativity. They give their CSR reports mainly the names CSR Report or Sustainability
Report. An exception is the report of Lufthansa, which is called „Balance”.
Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009
363
The investigation has revealed that it has become the standard for listed companies to
publish sustainability reports in addition to the annual business and financial reports. Distinctions were therefore made in the analysis between pure CSR-reporting (in Tab. 1 labelled as “Sustainability”), built-in reports (Annual Report and Sustainability Report will
be consolidated into one report, labelled as integrated) and reports that only contain some
aspects such as social and health (as Health and Social labelled). Examples for companies
that provide an integrated report are BASF and ThyssenKrupp. These companies have their
sustainability reports integrated in their annual reports. A few companies did not report on
all aspects of CSR. MAN and Merck focus their reports on social and health issues. No
reports were available at the moment of research of Infinieon, Fresenius, Fresenius Medical
Care and Salzgitter.
The average CSR-report has around 109 pages. The most extensive reports are provided
by the chemical and pharmaceutical industries. With 264 pages, Beiersdorf provided the
most extensive report. MAN compiled its report on only 17 pages.
An almost year-by-year reporting is recognisable. Almost all companies have published
sustainability reports in 2009. Only Metro AG published a version from previous years. It is
assumed that the year-by-year reporting will be established as standard.
6
Ways of Publication
Different media and formats of reporting were used by the companies (See Tab. 2). The key
question is whether the information will be offered exclusively on the Internet (usually
retrievable as PDF-or HTML-document), or whether there is a printed version. The major
companies position is that a printed copy of the report is not necessary and the cost of shipping could be waived. Currently, sustainability reports were offered via print and internet
by about 75% of the examined companies. The trend is apparent that the companies have
not increased the provision of hard-copy versions. Not increasing the provision of hardcopy versions appears to be the trend.
Few companies go so far and stop the distribution of paper-based exemplars/copies. SAP
and Munich Re published their sustainability report solely on the Internet. It is not to be
expected that sustainability reporting via Internet will replace the printed reports. Rather the
internet-based way of publication and the classic way should be combined and coordinated.
7
Reporting Guidelines and Auditing Standards
Information on guidelines and standards that allow a comparison were established using the
guidelines of the Global Reporting Initiative (GRI) and the United Nations Global Compact.
The GRI guidelines are currently the only global policy framework for the content of sustainability reports (Moneva et al., 2006). In the year 2009 nearly 75% (19 of 26) of the
DAX-CSR-reports oriented themselves on the GRI guidelines. BASF, Bayer, Daimler,
Deutsche Telekom and Volkswagen received an A+ ranking, which means a full compliance with the GRI guidelines.
364
Jan Wirsam
Furthermore, 10 of the DAX companies explicitly follow the guidelines of the UNGlobal Compact. The UN-Global Compact is an initiative to encourage businesses worldwide to adopt sustainable and socially responsible policies, and to report on their implementation. It is a principle based framework stating ten principles in the areas of anticorruption, human rights, labour and the environment (Williams, 2008).
The external review and attestation of the sustainability reports is not yet a standard. Only
a few reports have been fully and extensively reviewed by audit firms, some reports were
commented on by independent research institutions.
8
Structure and Content
The structure of the CSR report demonstrates that it is an absolute top priority by the companies. The introduction of a sustainability report, usually starts with a CEO message,
which provides the intention of the report and the strategy of the company. Based on the
introduction, various aspects of reporting follow. Ideally, these are based on the requirements of the GRI reporting guidelines. This typically includes:
•
•
•
•
•
•
Vision and strategy of the company, including CEO-message
Organization Profile
Report Parameters
Governance, commitments and engagement
Performance indicators (economic, environmental and social)
Information on reporting
In accordance with the scale and quality of data a company can then evaluate the report,
either externally or internally with appropriate endorsements.
Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009
Table 2:
Adidas AG
365
CSR-Reporting of the DAX30-companies Part 2
Guidelines
GRIGlobal
Ranking
Compact
no inforno information
mation
Media
Content
PDF, Internet, no hard
copy
HTML,
summary as
PDF
CEO Message, 2008 Issues, Performance Data, Progress and Targets, Glossary, Contact
CEO Message, Our Strategy, Core
Issues, Our stakeholders, Our
Performance, Sustainable financial
Services, Climate Change, Demographic Change, Microinsurance,
Health, Studies and Publications,
Allianz Knowledge
CEO Message, Management
analysis, Corporate Governance,
Consolidated Financial Statements, Supplementary Information
on Oil and Gas Producing Activities, Information Service
CEO Message, Strategy and Management, Focus Issues, Performance Report, Further Information
CEO Message, Economics, Products, Environmental Protection,
Employees, Society, Dialog,
Global Reporting Initiative
CEO Message, Sustainability
Management, Economics, Product
responsibility, Group-wide environmental protection, Employees,
Society, Key facts and figures
CEO Message, Editorial, The new
Commerzbank, Market & Customers, Environment, Employees,
Society, Corporate responsibility
at major Group companies, Commerzank sustainability performance, Commerzbank CR programme, GRI Content Index,
Glossary
Allianz SE
B (self
declared)
yes
BASF SE
A+ (GRI
checked)
yes
PDF
Bayer AG
A+ (GRI
checked)
yes
PDF, Print,
HTML
Beiersdorf
AG
undeclared no information
PDF
BMW AG
(St)
A (GRI
checked)
yes
PDF, Print
Commerzbank AG
A (GRI
checked)
yes
PDF, Print
366
Jan Wirsam
Table 2 (Continuation)
Daimler AG
Guidelines
Global
GRI-Ranking Compact
A+ (GRI
yes
checked)
Deutsche
Bank AG
A (GRI
checked)
yes
Deutsche
Börse AG
no information no information
no information no informaDeutsche
Lufthansa AG
tion
Deutsche Post B+ (self
AG
declared)
no information
Deutsche
Telekom AG
A+ (GRI
checked)
no information
E.ON AG
undeclared
yes
Fresenius SE
(Vz)
Fresenius
Medical Care
no report
available
no report
available
Media
Content
PDF, Print CEO message, The company,
Managing Sustainability, Economy, Environmental protection,
innovation and safety, Employees, Customers and society,
PDF, Print CEO message, Dialog, Sustainability, Corporate Volunteering,
Social Investments, Art, Education, Supplementary Information
PDF, Print CEO message, Overview of
Deutsche Börse, Corporate
Citizenship, Environment, Employees, Economy
PDF, Print CEO message, The Lufthansa
Group, Our business, Social
responsibility, Environment,
Corporate citizenship, SWISS
PDF, Print CEO message, Achievements,
Challenges, sustainability ratings
PDF, Print CEO message, Responsible
corporate governance, Supplier
relationships, Responsibility
begins at home, Infrastructure
and broadband networks, Customer solutions, Facts and figures
PDF
CEO message, CR-Reporting,
CR-Management, CR-Dialog,
CR-Marketplace, CREnvironment, CR-Community,
Careers-Work Environment,
CR-Reporting
Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009
367
Table 2 (Continuation)
Media
Content
Guidelines
Global
GRI-Ranking Compact
no informa- PDF, Print CEO message, Sustainability
Henkel KGaA B (self
(Vz)
declared)
tion
Council, Sustainability Strategy,
Values and management, Sustainability stewardship, Sustainable brands and techniques,
Production and logistics, Employees and jobs, Social engagement, Stakeholder dialogue
Infineon AG
no report
available
K+S AG
undeclared
no informa- PDF, Print CEO message, Sustainable
tion
Management and Growth, The
K+S Group, Economy, Ecology,
Social Responsibility, Governance Structures, Appendix
Linde AG
undeclared
no informa- PDF
About this report, Fundamention
tals, Fields of Action, Divisions,
Roadmap, GRI Index
MAN SE (St) no information no informa- PDF, Print Management Report on
tion
Sustainability
Merck KGaA B (self
yes
PDF, Print CEO message, Company prodeclared)
file, Leadership and values,
Responsibility for pharmaceutical products, Responsibility for
chemical products, Responsibility for employees, Responsibility for the environment, Responsibility for the community,
Our Goals, Facts and Figures
Metro AG (St) no information no informa- PDF, Print CEO message, Company, Suption
ply Chain and products, Customer Service, Environment,
Employees, Social Commitment, Key figures, Objectives
C (self
no informa- HTML
Strategy, Challenges, Economy,
Münchener
Rück AG
declared)
tion
Ecology, Society, Employees,
Facts
368
Jan Wirsam
Table 2 (Continuation)
Media
Content
Guidelines
Global
GRI-Ranking Compact
RWE AG (St) no information no informa- PDF, Print Our Goal: More Growth with
tion
lower Carbon emissions, Status
report: Strategy and Management, Energy and Climate,
Marketplace, Workplace,
Community, Key Figures
Salzgitter AG no report
available
SAP AG
B+ (GRI
no informa- HTML
CEO message, About SAP,
checked)
tion
Stakeholder Engagement and
Materiality, Employees, Social
Investment, Environment, Corporate Governance, Products
and Services for Sustainability,
About this Report
Siemens AG
undeclared
Yes
PDF, Print CEO message, Profile, Framework, In Focus, Management,
Key figures, Goals, Evaluation,
Indices
ThyssenKrupp no information no informa- PDF, Print part of the general report
AG
tion
A+ (GRI
no informa- PDF, Print CEO message, Strategy and
Volkswagen
AG (Vz)
checked)
tion
Management, Ambitions, Key
Indicators
9
Recapitulation
In summary, almost all DAX companies provide sustainability reports. Only Fresenius,
Fresenius Medical Care, Infinieon and Salzgitter have not provided any eco-social publications. Quality of presentation and scope of the reports vary. Some reports, like those from
Deutsche Bank, Deutsche Börse, Commerzbank or MAN, focus more on good activities
than on the really important environmental improvements in the core business. Adidas,
Allianz, BMW, Deutsche Post, Henkel, RWE on the other hand inform very comprehensively, mostly very systematically and sometimes self critically, using measurable criteria
about strategies, products, goals and achievements.
In many cases, however, the credibility could be improved, due to not only the lack of
data, but also because of the absence of external examinations (MacLean et al., 2007). A
more comprehensive external audit of the reports should evolve in the coming years and
Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009
369
become a standard. Transparency is not achieved by collecting a lot of data but by selecting
on the right one. This requires more standardisation and an external audit.
10 Conclusion
The encouraging result of this study is that the majority of the DAX companies provide
sustainability reports. Measured by the total number of enterprises of all, the integrated
reporting increases, regarding economic, social and environmental aspects of business activities. Most of the DAX-CSR-reports comply with the worldwide accepted GRIguidelines.
So far, however, there are no legal obligations to demand sustainability-reports. Only
some countries have legal regulations for the integration of non-financial indicators in the
annual reports.
It is urgently necessary, that national and international discussions on the reporting of
sustainability issues are more intense and become more results-oriented. The present study
contributes to this debate by a quantified picture of the status quo of the DAX-submit sustainability reports.
References
Journal Article:
Adams, CA and Evans, R (2004). Accountability, Completeness, Credibility and the Audit Expectations
Gap, in: Journal of corporate citizenship, Vol. 14, Summer 2004, p. 97–115.
Daub, C-H (2007). Assessing the quality of sustainability reporting: an alternative methodological approach, in: Journal of Cleaner Production, Volume 15, Issue 1, 2007, p. 75–85.
Figge, F and Hahn, T and Schaltegger, S and Wagner, M (2002). The Sustainability Balanced Scorecard –
linking sustainability management to business strategy, in Business Strategy and the Environment, Vol.
11, 2002, p. 269–284.
Kolk, A (2004). A decade of sustainability reporting: developments and significance, in: International
Journal of Environment and Sustainable Development, Volume 3, Issue 1, 2004, p. 51–64.
MacLean, R and Rebernak, K (2007). Closing the Credibility Gap: The Challenges of Corporate Responsibility Reporting, in: Environmental Quality Management, 2007, p. 1–6.
Moneva, JM and Archel, P and Correa, C (2006). GRI and the camouflaging of corporate unsustainability,
in: Accounting Forum, Volume 30, Issue 2, June 2006, p. 121–137.
Book:
Loew, T and Ankele, K and Braun, S and Clausen, J (2004). Bedeutung der CSR-Diskussion für Nachhaltigkeit und die Anforderungen an Unternehmen, Berlin: IÖW.
Book chapter:
Williams, OF. (2008). The UN Global Compact: The challenge and the promise, in: Flynn, G (ed.)
Leadership and Business Ethics. Springer, 2008, p. 229–251.
370
Jan Wirsam
Internet:
GRI-Guidelines (2006). Sustainability Reporting Guidelines. Version
globalreporting.org/ReportingFramework/G3Guidelines/ (10.1.2010).
3.0
in:
http://www.
Müller, U (2007). Greenwash in Zeiten des Klimawandels, online: http://www.lobbycontrol.de/download/
greenwash-studie.pdf (10.1.2010).
Sustainability Reports (online, 10.01.2010):
Adidas AG:
http://www.adidas-group.com/en/SER2007/gri_index.asp
Allianz SE
https://www.allianz.com/static-resources/en/about_allianz/sustainability/media/documents/
sustainable_development_summary_report_2009.pdf
BASF SE
http://www.bericht.basf.com/2008/de/serviceseiten/willkommen.html
Bayer AG
http://www.sustainability2008.bayer.com/en/Sustainable-Development-Report-2008.pdfx
Beiersdorf AG
http://www.nachhaltigkeit.beiersdorf.de/Our-Way/About-this-Report/Download-Center.aspx?l=2
BMW AG (St)
http://www.bmwgroup.com/bmwgroup_prod/e/0_0_www_bmwgroup_com/verantwortung/publikationen/
sustainable_value_report_2008/_pdf/SVR_2008_engl_Gesamtversion.pdf
Commerzbank AG
https://www.commerzbank.com/media/konzern/engagement/CR_Bericht_2009_EN.pdf
Daimler AG
http://sustainability2009.daimler.com
Deutsche Bank AG
http://www.db.com/csr/en/download/DBF_CSR08_EN_72dpi.pdf
Deutsche Börse AG
http://deutsche-boerse.com/dbag/dispatch/de/kir/gdb_navigation/about_us/12_Corporate_Responsibility
Deutsche Lufthansa AG
http://verantwortung.lufthansa.com/de.html
Deutsche Post AG
http://www.dp-dhl.de/sustainabilityreport/2008/servicepages/welcome.html
Deutsche Telekom AG
http://www.telekom.com/cr-report
E.ON AG
http://www.eon.com/de/unternehmen/29268.jsp
Henkel KGaA (Vz)
http://www.henkel.com/cps/rde/xchg/henkel_com/hs.xsl/sustainability.htm
Evaluation and Content Analysis of the DAX-30-CSR-reports within the Period from 2007-2009
371
K+S AG
http://www.k-plus-s.com/export/sites/k-plus-s.com/de/pdf/2009/ub2008.pdf
Linde AG
http://cr_report_2009_en.linde.com/linde/en/home.html
MAN SE (St)
http://www.man.de/MAN-Downloadgalleries/All/1Unternehmen/Nachhaltigkeit/MAN_NB_2008_d_s.pdf
Merck KgaA
http://www.merck.de/company.merck.de/en/images/Merck_CR_Report_2009_EN_tcm82_42348.pdf
Metro AG (St)
http://www.metrogroup.de/multimedia/microsite/Nachhaltigkeitsbericht-2007/pdf/NHB2007-en.pdf
Münchener Rück AG
http://www.munichre.com/sustainability/en/homepage/default.aspx
RWE AG (St)
http://www.rwe.com/web/cms/mediablob/en/346190/data/238424/56203/rwe/responsibility/key-data/
gri-record-2008/blob.pdf
SAP AG
http://www.sapsustainabilityreport.com/
Siemens AG
http://w1.siemens.com/responsibility/report/08/pool/en/sustainability_report_2008.pdf
ThyssenKrupp AG
http://www.thyssenkrupp.com/de/engagement/index.html
Volkswagen AG (Vz)
http://www.sustainabilityreport2009.volkswagenag.com
Networks, Anomy and Open Innovation:
Some Conceptual Views
Jochen Wittmann
1
Introduction
Technological, political, economic and environmental discontinuities cause rising
uncertainty, volatility and environmental complexity. They intensify change as well as
competition in the free market systems. Organizations and entrepreneurs face new
challenges to survive in highly competitive markets with their goods and services. Perlitz
and Löbler (1985) empirically analyze the causes of innovation and underline that
“willingness to innovate presupposes crisis” (Perlitz and Löbler, 1995: 100). Innovations
seem to be a core approach to retaining competitiveness, despite critics who favor other
strategies without focus on innovation and growth (Jackson 2011, Paech 2012). Fischer
emphasizes the outstanding roles of pioneers and open innovation in innovation processes
(Fischer 2008).
Bellmann and Haritz (2001) underline the advantages of (innovation) networks for timelimited endeavors in contrast to traditional, monolithic organizations in dynamic
environments. But on the one side network participants risk substitution and diffusion of
competencies through cooperation and coordination (Bellmann 2001), which influence the
nature of the bonds as well as the structure of the network and cause uncertainty (Johanson
and Mattson 1991). On the other side external volatility and ambiguity lead to the erosion
of rule and principle compliance inside organizations including networks (Ouchi 1991) and
can cause anomic behavior by their members (Faßauer and Schirmer 2006), which can
strengthen as well as weaken the network.
Freiling et al. (2008) emphasize that firm competitiveness in markets is influenced by
non-homogeneous availability of competences and resources, which is obvious in turbulent,
fluid environments. These environmental conditions lead to the necessity of permanent
adaptation of competencies in enterprises. The evolution of networks seems a valuable field
of analyses to understand the necessary competence development and motivation of
network participants to master anomy and to innovate.
W. Kersten, J. Wittmann (Hrsg.), Kompetenz,Interdisziplinarität und Komplexität
in der Betriebswirtschaftslehre, DOI 10.1007/978-3-658-03462-7_27,
© Springer Fachmedien Wiesbaden 2013
374
2
Jochen Wittmann
Basics of networks
2.1 Tenets of networks
Networks are a form of coordination between market and hierarchy, which are traditional
terms of transaction theory (Bellmann 2001). “A network is a form of economic
organisation between market and hierarchy, which is characterised by the realisation of
competitive advantages and a polycentric structure, and is strategically led by one or more
enterprises. The chiefly stable relations within the network of independent enterprises are
marked more by cooperation and reciprocity than by competition” (Sydow, 1993: 82).
Other authors like Ouchi (1991) argue that between market and hierarchy the clan or club
as social group is a valuable form of coordination and cooperation beside networks (Ouchi
1991; Weder 1993), where common values and beliefs as well as traditions characterize the
mode of control. Mildenberger (1998) as well as Kohlsdorf (2008) underline the
significance of common cultural understanding and identity for networks, too.
Cooperation inside inter-organisational networks makes the coordination of competencies
necessary on a trust-based mode of coordination. Tugendhat (1994) identifies cooperation
as norm-based and norm-conforming to three core prerequisites: no harm, support and no
betrayal to cooperation partners. Further on an esprit de corps, trust and strong cultural
cohesion and identity are necessary, because the control of norm-conforming behavior is
very difficult.
Bellmann identifies several characteristics of networks (Bellmann 2001):
- Project oriented (time-limited) cooperation;
- Core and complementary competencies: Complementary competences overarch and
connect the core competencies of the participants as a conditio sine qua non of
cooperation in networks to optimize the network performance (“economies of skills”).
- Heterarchical networking: situational and problem focused participants have changing
leadership roles as focal primi inter pares inside the network, which prevents a dominant
hierarchical leadership.
- Holonic partnership between partial autonomous and economic independent network
participants, so called holons.
- Cooperation and competition: network partners often participate in other networks, which
also have competitive relations to the network (coopetition).
Transaction theory grounds the connection of transaction costs and modes of interaction on
the one side and the specificity of goods and services on the other side. It classifies the
forms of interaction between market and hierarchy, which mirrors on the one side the
independency and on the other side the dependency (see Figure 1).
Networks, Anomy and Open Innovation: Some Conceptual Views
Figure 1:
375
Transaction costs in context of specificity and forms of interaction (Bellmann, 2001: 42)
2.2 Basics of competency
Network cohesion and performance heavily depends on competencies and their permanent
adaptation in fluid, uncertain environments. “Competencies mean a repeatable non-random
ability to render competitive output. This ability is based on knowledge channeled by rules
and patterns” (Freiling et al., 2008: 1151). Bellmann differentiates between core and
complementary competencies, which often have comprehensive characteristics, like
logistics or governance modes (Bellmann 2001).
Coordination and interaction, especially within networks, depend on communication
(Luhmann 1995). On the lowest level the exchange of signals and data is relevant (see
Table 1). In a further procedure information is the transformation of data and signals
through interpretation. The next level of communication is knowledge/expertise, which is
naturally based on information. Knowledge (management) is the basis of competence and
the build-up relevant to competence management. Innovation is also defined as result of
knowledge generating processes (Bellmann and Haritz 2001).
376
Jochen Wittmann
The core differentiation of knowledge is explicit and implicit/tacit knowledge, which is a
prerequisite for competence build-up. Tacit knowledge is unique for the enterprise and core
for competencies. According to Frost and Osterloh the existence of implicit (tacit) and
explicit knowledge refers to motivation and organization (cited in Mühlbacher 2007).
The last step of communication is the exchange of competencies, which are based on
knowledge advantages. For example, innovativeness is a competency and the results are
innovations (Mühlbacher 2007). Learning effects often lead to knowledge evolution and the
build-up of especially (complementary) competencies of the network as a whole and the
different network partners.
Table 1:
Content of interaction
2.3 Cooperation and competition in context of competence development
The diffusion and substitution of competencies can replace cooperation with competition
inside the network and force the network participants to upgrade their competencies. Haritz
and Mack (2008) exemplify a model with two players inside a network, where incentives
for developing of competencies are discussed and game theoretically argued. They
distinguish between an individual and a collective level of competence development inside
a network, where benefits of cooperation depend on the one side on the will to transfer tacit
and/or explicit knowledge and on the other side on the specificity of own competencies
combined with the willingness of learning (Haritz and Mack 2008).
Competencies by the network participants have limitative, additional or substitutional
character. E.g., the packaging competency of an OEM has a limitative character, the
competency of a coating supplier can have on the one side an additional character, if
additional innovative colors or innovative paint shops are ordered, which add the product
Networks, Anomy and Open Innovation: Some Conceptual Views
377
programme, and on the other side substitutional character, if the colors are easily
replaceable by competitors.
The competition inside networks and the low level of binding lead to attractiveness for
outsiders to compete with network participants for replacement. Therefore it is necessary to
have a look at the creation of networks – the evolutionary process.
2.4 Evolution process of networks
The evolution process of networks clarifies the composition of networks, which is
comparable with a network life-cycle. Mildenberger (1998) defines the network foundation
and dissolution as external activities and decision points outside the network evolution
process in the narrower sense, which is out of interest for the network creation. He
describes the evolution of entrepreneurial (production) networks in a wider sense, which
covers several stages (Mildenberger 1998): network foundation, self-description, selfconstitution, autopoiesis (self-maintaining) and network dissolution. In the phase of
network foundation lone acting enterprises under market conditions (microscopic chaos)
recognize growing common interest in cooperation with other lone acting enterprises. In the
stages of self-description, self-constitution and autopoiesis the network builds up an acting
entity and a common intent/target, which lead at the end of the day to a network identity
and culture (Kohlsdorf 2008). As long as the total benefit of the network and its participants
is sufficient as long as the network interactions and relations are stable and attractive.
The positive sum game (win-win situation) [Competency C(x+y) > C x + C y] is a
prerequisite for network cohesion and identity, which can change into a zero-sum game
(win-lose situation) [C(x+y) = C x + C y], when the competence level and the benefits erode
(Jehle and Stüllenberg 2001). In the case of a (rapid) diffusion and obsolescence of (core &
complementary) competencies of network partners, the benefits of the network are
endangered. Simultaneously the attractiveness declines and the entrance and exit barriers of
the network drop. The dissolution of the network or one of the network participants is the
consequence of shrinking competencies and lowering of the competitive position. The
leaving relevant enterprise is back in the macroscopic chaos according to Mildenberger
(1998). Here seems to be a fuzzy spectrum, which needs to be defined clearly and further
clarification.
What is the right definition about the spectrum outside of the network’s inner environment
(Mildenberger 1998) and how do enterprises behave there in context of pressure to
innovate?
3
The phenomenon of “anomy” as network condition
3.1 Basics of anomy
The deviation of norm-conforming behavior inside networks has different reasons as
described. Especially in fluid environments the effectiveness of norms is low because of
uncertainty and ambiguity, which is also relevant in context of the characteristics of
networks with their lower entry and exit barriers in comparison to hierarchical
378
Jochen Wittmann
organizations. Hereby it is necessary to introduce the term ‘anomy’. In the sociological
context it originally has a negative connotation and is in use by criminology (Trotha 1980).
Different definitions are available:
- Anomy is a mismatch caused by a decline of (social) rules (Durkheim 1897, 1977).
- The limited access to resources of a collective, like an enterprise or a network, motivates
individuals or collectives to anomic (non-norm conforming/non-standard) behavior
(Merton 1949).
- Faßauer and Schirmer (2006) transfer the concept of anomy to performance management
and define anomy as low effectiveness of explicit and implicit new norms of performance
accomplishment.
A strong differentiation to other terms like chaos and anarchy is necessary in order to
remain in a clear setting for further analyses. The microscopic and macroscopic chaos
according to Mildenberger (1998) includes enterprises, which act under market conditions
and do not comply with traditional definitions of chaos. Anarchy according to Hobbes
means the state of disorder and a second form of anarchy by Kronman accepts property
rights but lacks transactional insecurity because of missing overarching institutions (cited in
Weder 1993).
In the context of this paper anomy is used with a neutral connotation relating on the nonstandard behavior and reduction of cooperation/coordination within collectives caused by a
change of norms or a lack of resources. The reasons for this could be internal or external
factors, which can be induced voluntarily as well as coercively based on economic and
other reasons as well. Non-norm conforming behavior is also the result of under – or overqualification and the non-realization of objections/requirements.
3.2 Strategies of adaptation in context of anomy
According to Merton (1949) there are five strategies of adaptation to overcome anomy. He
distinguishes between the strategies of conformity, innovation, ritualism, retreatism and
rebellion. In analogy to the concept of Merton the modes of adaptation transfer to the
network and its participants, where the network identity is equivalent to Merton’s cultural
goals of the society and the (performance) level of individual and collective competencies
inside a network are equivalent of Merton’s institutionalized means of the society. The
differentiation of the types is the acceptance (+), the rejection (-) of network identity and of
meeting the level of network competencies or the exit of the network and the build-up of
(completely) new competencies (+-) (see Table 2).
379
Networks, Anomy and Open Innovation: Some Conceptual Views
Table 2:
Strategies of adaptation
Strategy of
adaptation
Network identity
Level of competencies
Conformity
+
+
Innovation
+
-
Rituali