Forschung aktuell 2015
Transcription
Forschung aktuell 2015
Opusmundi - Dein Start in die Arbeitswelt! Finde hier Deinen Traumjob! l l e u t k a g Forschun 2015 8 ISSN 1613-495 ® Von zufriedenen Mitarbeitern empfohlen. Da müssen wir uns erstmal setzen: Schon zum zweiten Mal in Folge wurde ebm-papst nach unabhängiger Mitarbeiter-Befragung als einer der 50 Top-Arbeitgeber in Deutschland ausgezeichnet! Das bestätigt unsere verantwortungsvolle Unternehmenskultur und zeigt, dass weltweit führende Ventilatoren und Motoren nur mit begeisterten Mitarbeitern entstehen können. Finden auch Sie Ihren Platz: www.ebmpapst.com/karriere Liebe Leserinnen und Leser, das zurückliegende Forschungsjahr 2014 war für die Hochschulen für Angewandte Wissenschaften (HAWen) in Baden-Württemberg ein spannendes Jahr. Das von den HAWen bereits seit Längerem geforderte Promotionsrecht bestimmte die Diskussionen. Der Umstand, dass die HAWen bislang kein eigenes Promotionsrecht haben, ist insbesondere im Hinblick auf die in den letzten Jahren deutlich ausgeweiteten Forschungsaktivitäten der HAWen zu betrachten und in Frage zu stellen. Das diesbezügliche Drittmittelaufkommen hat sich an den HAWen in Baden-Württemberg seit dem Jahr 1995 um den Faktor neun bis zehn erhöht. Seit dem Jahr 2004 ist das durchschnittliche Drittmittelaufkommen pro Professur im Land von rund 6 000 Euro auf fast 18 000 Euro gestiegen. Eng mit dieser Tatsache verknüpft ist auch die Quote der forschungsaktiven Professoren an der Hochschule Karlsruhe, die aktuell bei 23 Prozent liegt. Im April 2014 trat in Baden-Württemberg ein neues Landeshochschulgesetz in Kraft. Durch die darin erstmals enthaltene Weiterentwicklungsklausel existiert nun eine Basis für eventuelle weitere Promotionsmöglichkeiten, denn das Wissenschaftsministerium kann demnach einem Zusammenschluss von HAWen nach evaluations- und qualitätsgeleiteten Kriterien das Promotionsrecht befristet und thematisch begrenzt verleihen. Die konkrete Ausgestaltung dieser Klausel wird derzeit intensiv diskutiert, und es sind noch zahlreiche Fragen zu klären. Die Möglichkeit kooperativer Promotionsverfahren zusammen mit Universitäten soll nach wie vor bestehen bleiben, die HAWen streben darüber hinaus jedoch ein partielles Promotionsrecht über die Mitgliedschaft in einem promoti- onsberechtigten Hochschulverbund an. Hierzu hat die Rektorenkonferenz der Hochschulen für Angewandte Wissenschaften in BadenWürttemberg eine Arbeitsgruppe eingesetzt, die Rechtsfragen im Zusammenhang mit der Ausgestaltung der Weiterentwicklungsklausel ausleuchtet und einen Vorschlag für den Hochschulverband ausarbeiten soll. Als forschungsstärkste HAW in Baden-Württemberg ist die Hochschule Karlsruhe in dieser Arbeitsgemeinschaft selbstverständlich vertreten. Durch diese politischen Tendenzen aber auch aufgrund des frühzeitig entwickelten Interesses und einer vorausschauenden Hochschulstrategie für qualitativ hochwertige angewandte Forschung bleibt die Hochschule Karlsruhe in ihren Forschungsschwerpunkten „Energieeffizienz und Mobilität“, „Materialien, Prozesse und Systeme“ und „Intelligente Systeme“ mit zahlreichen Forschungsprojekten am Puls der Zeit. Zukünftiges Ziel ist es, die unternommenen Anstrengungen weiter zu intensivieren. Auch in der aktuellen Ausgabe unseres jährlich erscheinenden Forschungsberichts möchten wir Ihnen einen Einblick in die vielfältigen Aktivitäten und Projekte der Hochschule geben. Schwerpunkte dieser Ausgabe sind die Themen: • IT & Kommunikation • Bauwesen • Umweltschutztechnik • Maschinenbau Mit unserer Rubrik „Schlaglichter“ möchten wir Ihnen weitere spannende Projekte kurz vorstellen. Mein Dank gilt auch in diesem Jahr allen Kolleginnen und Kollegen, die ihre Ergebnisse in diesem Be- richt veröffentlichen. Vielen Dank auch all denen, die redaktionell und organisatorisch an der Publikation dieses Forschungsberichts mitgewirkt haben. Ihnen als Leserinnen und Lesern wünsche ich bei der Lektüre interessante Einblicke in die Forschungsaktivitäten unserer Hochschule. Prof. Dr. Markus Stöckner Prorektor für Forschung, Infrastruktur und Qualitätsmanagement Impressum ISSN 1613-4958 Hochschule Karlsruhe – Technik und Wirtschaft. Forschung aktuell 2015 Herausgeber Rektorat der Hochschule Karlsruhe Technik und Wirtschaft Redaktion Prof. Dr. Markus Stöckner Prorektor der Hochschule Karlsruhe Cordula Boll Geschäftsstelle für Öffentlichkeitsarbeit und Marketing der Hochschule Karlsruhe swk@hs-karlsruhe.de Englisch-Lektorat Lynn Beechey-Volz Institut für Fremdsprachen der Hochschule Karlsruhe Layout Alfons Muntean Geschäftsstelle für Öffentlichkeitsarbeit und Marketing Grafik Martina Ritzert mr-graphics Fotos Titelbild: T. Schwerdt (3D-Darstellung der Mikrostruktur eines gerichtet erstarrten ternären Eutektikums, Institute of Materials and Processes – IMP) Für den Inhalt der Beiträge sind die Autoren verantwortlich. Auflage: 3000 Stück, März 2015 Satz, Anzeigen und Verlag VMK Verlag für Marketing und Kommunikation GmbH & Co. KG Faberstraße 17, 67590 Monsheim Telefon: 06243/909-0, Telefax: 06243/909-400 E-Mail: info@vmk-verlag.de www.vmk-verlag.de Druck VMK-Druckerei GmbH Faberstraße 17, 67590 Monsheim Telefon: 06243/909-110, Telefax: 06243/909-100 E-Mail: info@vmk-druckerei.de 2 | Forschung aktuell 2015 Zukunft braucht Visionen... www.guentner.de ...und jemanden, der sie umsetzt. Die Güntner GmbH & Co. KG entwickelt, produziert und vertreibt Wärmeaustauscher für Kälte- und Verfahrenstechnik. Unsere Produkte stehen für höchste Qualität, abgestimmt auf die spezifischen Bedürfnisse internationaler Kunden. Informieren Sie sich! Inhalt Stand der Forschung an der Hochschule Karlsruhe – Technik und Wirtschaft 6 Markus Stöckner und Elena Stamm IT & Kommunikation Optimization Methods in Networked Production Machines 8 Norbert Link Modellierung und Simulation der Starrkörperbewegung in Rückschlagventilen 13 Marcus Jainta, Andreas Reiter, Anastasia August, Fabian Moik und Britta Nestler Dynamische Lastverteilung auf einem HPC Framework mit nachrichtenbasierter Kommunikation 16 Constantin Heisler, Johannes Hötzer, Markus Maier, Andreas Reiter, Michael Selzer und Britta Nestler Personalized Web Learning by joining OER 19 Peter A. Henning und Kevin Fuchs Die Bedeutung von DAAD-Hochschulkooperationen für die angewandte Forschung in Entwicklungsländern: Geodatennutzung in Ostafrika 23 Gertrud Schaab E-Wiki – Wissensplattform für die Entwicklung klimaschonender Technologien und Systeme 27 Héctor Arruga, Daniel Burkard, Jan Zepp, Joachim Kaiser und Maurice Kettner Kinder- und Jugendmedienschutz im Internet – eine empirische Studie zur Akzeptanz von Schutzmaßnahmen in den neuen Medien 32 Melina Hillenbrand und Stefanie Regier Bauwesen Entwicklung eines Instandhaltungsplans für die Hochbauten der Österreichischen Bundesbahn (ÖBB) 35 Carolin Bahr, Gerhard Hofer, Markus Seper und Michael Walter Nachhaltige Bauplanung mittelständischer Unternehmen 39 Hermann Hütter Dauerhaftigkeit von Betonen mit rezyklierter Gesteinskörnung Sandra Lichtblau, Stefan Linsel und Fernando Martirena 4 | Forschung aktuell 2015 44 Umweltschutztechnik Energieeffiziente Stadtentwicklungsplanung für die Altstadt Biberachs im Spannungsfeld von CO2-Reduktion und Denkmalschutz 48 Robert Blaszczyk und Christoph Hupfer Neuroregler zur Temperaturregelung eines Modellhauses im Vergleich mit klassischen Reglern 52 Hans-Werner Dorschner, Peter Huber, Alexander Schweigert, Lukas Brombacher und Stefan Paschek Kooperatives Promotionskolleg: Partikelgrößenverteilung in Eisbreigemischen und Untersuchungen zur Haftung von Eis auf Aluminium-Oberflächen 57 Jakob Schaaf, Matthias Koffler und Michael Kauffeld Maschinenbau Ein neues makromechanisches Werkstoffmodell zur Erklärung des Phänomens der ausgeprägten Streckgrenze mit Lüderseffekt 63 Rainer Schwab und Otto Ernst Bernhardi Transport of bulk solids on a new type of vibratory conveyor 66 Christof Krülle Funkenerosive Fertigung von geometrisch definierten Bohrungen – Untersuchung von Parametereinflüssen auf die Geometrie und Produktivität 70 Matthias Risto und Rüdiger Haas Schlaglichter Thermozyklisch betriebene Metalloxidgassensorarrays zur Brandfrüherkennung 75 Jens Knoblauch, Navas Illyaskutty und Heinz Kohler Berücksichtigung von Produkttechnologiesprüngen in der Planung von Produktionssystemen 79 Claas Christian Wuttke und Stefan Haas Durch Kollaboration zum erfolgreichen Entrepreneur – Erschaffung und Nutzen der Entrepreneur Crowd 82 Raphael Pfeffer, Roman Roor, Karl Dübon und Reimar Hofmann Neue Konzepte zur Messung der Risikobereitschaft bei Privatanlegern 85 Franz Nees und Stefanie Regier Forschung aktuell 2015 | 5 Stand der Forschung an der Hochschule Karlsruhe – Technik und Wirtschaft Der Ausbau der anwendungsorientierten Forschung an der Hochschule Karlsruhe – Technik und Wirtschaft (HsKA) ist ein profilbildendes Element zur strategischen Entwicklung und Positionierung der Hochschule. Neben der qualitativ hochwertigen Lehre bildet die Forschung eine wichtige Säule für einen zeitgemäßen Hochschulbetrieb. Sie unterstützt die wissenschaftliche Ausbildung mit aktuellen Themen und Studienprojekten, insbesondere in den Masterstudiengängen. Die Hochschule ist Innovationspartner in Forschungs- und Entwicklungsprojekten für Wirtschaft und Industrie. Die Hochschulleitung fördert diese Entwicklung aktiv in verschiedenen Bereichen und fordert seit einigen Jahren bei Neuberufungen, dass neben dem erforderlichen Praxisbezug auch die Forschungsaffinität gewährleistet ist. Mit diesen und anderen Maßnahmen setzt die HsKA auf ihre Stärken und kann sich seit vielen Jahren als eine der forschungsstärksten Hochschulen für Angewandte Wissenschaften (HAW) in Baden-Württemberg behaupten. Das Pro-Kopf-Drittmittelaufkommen der 120 forschungsstärksten Professorinnen und Professoren an HAWen in Baden-Württemberg liegt derzeit bei rund 255 000 Euro jährlich. 17 dieser Professuren sind an der Hochschule Karlsruhe angesiedelt. Die immer umfangreicheren Forschungsaktivitäten der HsKA werden in zwei zentralen Forschungseinrichtungen gebündelt – dem Institut für Angewandte Forschung (IAF) und dem Institute of Materials and Processes (IMP). Neben diesen beiden zentralen Instituten bestehen weitere dezentrale Forschungseinrichtungen. So betreibt das Institut für Energieeffiziente Mobilität der Fakultät für Maschinenbau und Mechatronik eine sehr erfolgreiche Kooperation mit der SEW Eurodrive, dem Weltmarkführer bei Elektromotoren. Weitere Fakultätsinstitute wie beispielsweise das Institut für Grund- und Straßenbau (IGS) befinden sich auf klarem Wachstumskurs. thematisch auf die Entwicklung neuer Modellierungsund Simulationstechniken für Anwendungen bei Werkstoffsimulationen, auf die Optimierung von Verfahren in der Produktions- und Fertigungstechnik und auf Berechnungen und Anwendungen in der Fluiddynamik. Das Forschungsprofil der HsKA wird durch drei interdisziplinäre Schwerpunkte geprägt, die in der Forschungslandkarte der Hochschulrektorenkonferenz (HRK) verortet und damit als solche auch unabhängig evaluiert sind. Der Fokus des Forschungsschwerpunkts „Materialien, Prozesse und Systeme“ liegt auf neuen Modellierungstechniken für die Werkstoffsimulation und Optimierungen in der Produktions- und Fertigungstechnik sowie Fluiddynamik. Im Forschungsschwerpunkt „Intelligente Systeme“ werden solche Systeme erforscht, die sich über die Verarbeitung von Signalen oder die Interpretation des Nutzerverhaltens individuell an den Nutzer anpassen. Die Energiebereitstellung und -speicherung einzelner Verkehrsträgertechnologien wie beispielsweise neue Antriebkonzepte sind im Forschungsschwerpunkt „Energieeffizienz und Mobilität“ Thema. Ende 2014 waren 42 Professorinnen und Professoren am IAF und vier am IMP tätig, die von insgesamt 146 Mitarbeiterinnen und Mitarbeiter im Mittelbau und in der Verwaltung in den jeweiligen Instituten unterstützt werden. Dabei entfallen auf Forschungsprojekte des IAF 90 und des IMP 49 Mitarbeiterinnen und Mitarbeiter. In der IMP-Geschäftsstelle arbeiteten eine und in der des IAF sechs Mitarbeiterinnen und Mitarbeiter. 65 Studierende wirkten als studentische Hilfskräfte in den Projekten der zentralen Institute mit. Die sonstigen sechs Mitarbeiterinnen und Mitarbeiter waren dort z. B. als Netzwerkadministrator oder Übersetzer tätig. Auch in anderen Organisationseinheiten der HsKA betätigten 150 Das IAF ist die zentrale, anwendungsorientierte Forschungs- und Entwicklungseinrichtung. Im Gegensatz zu den anderen Forschungs- und Entwicklungseinrichtungen an der Hochschule Karlsruhe arbeitet das IAF fakultäts- und themenübergreifend und stellt den Forschenden ein geeignetes Umfeld zur Durchführung von Forschungs- und Entwicklungsarbeiten aus allen Bereichen der Hochschule zur Verfügung. 50 100 50 0 42 professorale Mitglieder IAF Das im Jahr 2009 gegründete IMP ist auf einen Forschungsbereich spezialisiert und konzentriert sich 6 | Forschung aktuell 2015 14 4 96 51 5 1 Projekt-/ studentische sonstige Verwaltungs- Hilfskräfte Mitarbeiter mitarbeiter IMP Abb. 1: Anzahl der professoralen Mitglieder sowie der Mitarbeiterinnen und Mitarbeiter des IAF und IMP 2014 sich Professorinnen und Professoren, Mitarbeiterinnen und Mitarbeiter in der Forschung; sie sind aber nicht gesondert erfasst. Die Finanzierung der Mitarbeiterinnen und Mitarbeiter der beiden zentralen Forschungseinrichtungen erfolgt ausschließlich aus Drittmitteln. Zusätzlich stellt das Rektorat 4,5 Stellen für die fachliche Organisation der Forschung in den verschiedenen Forschungsbereichen zur Verfügung. Die Drittmitteleinnahmen der HsKA beliefen sich in 2014 insgesamt auf knapp 5,6 Mio. Euro, rechnet man das kooperative Promotionskolleg hinzu. Somit ist eine positive Steigerung der Drittmitteleinnahmen im betrachteten Zeitraum von 2008 an mit Ausnahme des Jahres 2011 zu erkennen. Die am IAF bearbeiteten Projekte erreichten 2014 die Summe von 4,0 Mio. Euro, die des IMP 1,2 Mio. Euro. Aktuell arbeiten die Wissenschaftlerinnen und Wissenschaftler an rund 140 Forschungsprojekten. Wo früher die Drittmittel der Hochschule größtenteils aus Landesprogrammen stammten, wird heute die Mehrheit der Mittel aus Bundesprogrammen bezogen. Die Professorinnen und Professoren sowie die Mitarbeiterinnen und Mitarbeiter der Hochschule haben 2014 (Stand: 16.01.2015) insgesamt 190 wissenschaftliche Publikationen veröffentlicht, wovon 41 als Zeitschriftenaufsatz oder Dissertation erfolgreich ein PeerReview-Verfahren durchlaufen haben. 97 Publikationen in der Summe und davon 20 mit Peer-Review sind am IAF erschienen sowie 20 am IMP und davon zehn mit Peer-Review. 180 160 140 120 100 80 60 73 20 11 40 20 0 10 97 20 insgesamt IAF IMP davon Peer-Review Rest Abb. 3: Anzahl der erfassten Publikationen 2014, insgesamt und mit Peer-Review Umsatz in Mio. € 6,0 5,5 5,0 4,5 4,0 3,5 3,0 2,5 2,0 1,5 1,0 0,5 0 0,21 0,32 0,39 0,27 0,13 0,11 1,22 1,16 1,48 1,32 1,28 0,36 1,05 2,12 2,08 3,23 2,49 2,88 3,57 4,05 2008 2009 2010 2011 2012 2013 2014 Autoren Prof. Dr.-Ing. Markus Stöckner Prorektor für Forschung, Infrastruktur und Qualitätsmanagement Elena Stamm M.A. Akademische Mitarbeiterin im Publikations- und Qualitätsmanagement Abb. 2: Umsatzentwicklung IAF und IMP von 2008 bis 2014 In Kooperation mit mehreren Universitäten wie z. B. der Bergakademie Freiberg oder der TU Dresden finden Promotionen an der HsKA statt. Zusammen mit dem Karlsruher Institut für Technologie (KIT) werden darüber hinaus Promotionsvorhaben im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Graduiertenkollegs und des kooperativen Promotionskollegs durchgeführt. Insgesamt 50 laufende Promotionsverfahren wurden Ende 2014 an der HsKA betreut und fünf Doktoranden schlossen ihre Promotion 2014 ab. In den kommenden Jahren werden diese Zahlen steigen, denn das rechtlich für HAWen bisher nur mögliche kooperative Promotionsverfahren soll zukünftig durch ein befristet und thematisch begrenztes Promotionsrecht für Zusammenschlüsse von HAWen ergänzt werden. Die rechtlichen Grundlagen dafür sind im Landeshochschulgesetz vom April 2014 gelegt worden. Forschung aktuell 2015 | 7 IT & Kommunikation Optimization Methods in Networked Production Machines Norbert Link Introduction Optimization is well established in manufacturing especially for the planning of factories and workflows, where discrete optimization is used. On the machine level a continuous optimization task in the parameter space is considered. Each parameter value combination produces certain properties of the product when the process is executed. If the deviation from desired properties is measured and assessed a “cost” value can be assigned to the result. This cost is a consequence of the process parameters and can be directly assigned to them. If a cost value is assigned to each point in the parameter space, a cost function is defined. Optimization is finding the minimum cost function over the parameter space. In addition other quantities such as energy, processing time or wear and tear of equipment can be included in the cost function. Usually these functions are not given as analytic functions of the process parameters, which would make optimization an easy task. In most cases cost can only be determined by looking at the result, where the quality is determined via dedicated experiments. This means that a process model relating the output to the input and the process parameters is lacking. This model can be represented as a function, where the dependent variables describe the output. The independent variables are the process parameters and quantities describing the input and possible variations in process conditions. Such process models cannot be derived analytically for almost all real manufacturing processes. Consequently they must be derived from experimental data (based on real experiments or numerical simulations). Model building is a regression task for which methods already exist, but which are still subject to intense research [1]. Once the model is set up, the parameter values which produce the desired output from the given input can be retrieved fully automatically and without any delay. This is performed by the determination of the so-called level-set of the model function. Methods for revealing the level-set of a function already exist [1]. If the conditions are fixed and the input and the desired output of a process are always the same, the model required contracts to one single point in the parameter space. This is a case for classical optimum search methods [2]. The most challenging optimization governs disturbances which occur during process execution in order to guide the process along an optimum path through the state space by dynamically adjusting the process parameters [3]. 8 | Forschung aktuell 2015 This requires not only an optimal decision strategy under uncertain conditions but also an estimation of the actual process state as a decision basis [4]. Another complication arises from the real-time requirements of such a closed-loop control, which requires low computational complexity of the implemented algorithms. The corresponding methods are still subject to basic research [5]. Some are already being considered for application in continuous flow processes but only proposed for use in discrete manufacturing processes. The latter is part of ongoing research and not included in the report. The following discussion presents the main ideas for implementing optimization with strictly controlled processes, where disturbances do not affect the process. Finding the Optimal Process Parameter for Strongly Controlled, Single-Task Processes If the process model cannot be given explicitly (which is almost always the case), the parameter space has to be sampled in order to find the optimum. The process is executed for the sampled parameter values and the resulting cost function values are determined. In this way the cost function is known for the sampled parameter space points. If only one single task without any variations is considered, there is only one single optimal process parameter combination to be found. The goal here is not to explore the cost function in order to set up a process model but to search for the optimum of the unknown cost function most effectively. Usually processes have a couple of parameters, which is why the parameter space is multi-dimensional. Efficient methods turn the multi-dimensional search into a one-dimensional line search, such as Nelder-Mead, Gradient-Descent, Newton-Raphson or Levenberg-Marquart. An implementation of such methods on the machine aims to guide an experimenter (human or another machine) to find the optimum with the lowest number of experiments. The machine will propose process parameter values to be executed and get a result in return. It will select the next trial parameter values and continue the procedure until a satisfactory result is achieved. This is the basic method. The algorithm also requires the definition of the optimization task. This includes specification of the process parameters, of the product end result quantities and of the cost function. The product end result quantity might be a product dimension (such as the size) and the cost function the square of the deviation of this dimension from a given goal value. The algorithm Du bist auf der Suche nach neuen Möglichkeiten? Einer Arbeitsstelle in einem innovativen und menschlich geprägten Arbeitsumfeld? Dann herzlich willkommen bei Daimler TSS, dem IT-Spezialisten für Daimler! discover.daimler-tss.de „Wir sind nicht nur Daimler. Sondern auch.“ Discover new dimensions. Tilo, 30 Jahre, IT Service Manager Ein Unternehmen der Daimler AG IT & Kommunikation also requires reasonable starting values for the process parameters. The whole procedure is summarized on the left of figure 1, where a resistance spot welding process is used to illustrate the point. Here only two process parameters (welding current and welding time) are considered and the resulting spot diameter size is the product end result quantity. The cost is specified as proposed above. The right side of figure 1 shows the cost function according to the “hidden” process model. The blue-orange surface over the two-dimensional parameter space represents the resulting size. The black curve is the intersection of the surface with the plane representing the desired 5 mm size. All of the parameter values produce a size of 5 mm. The gray surface is the calculated quadratic deviation from 5 mm and represents the cost as a function of the parameters. The initial parameter values are indicated by the yellow spots both on the size function and on the cost function surfaces. The yellow arrow points to the next proposed trial. Goal: Find parameter values popt which produce desired result rd by minimum number of stepwise trials Repeat until optimizer suggests end goal=size(I,T) cost=(size-5.0)^2 F=2.8 KN, d1= 0.9 mm, d2=1.4mm 1. Start with reasonable process parameters pi with i=0 Size (mm) D 6 7.2 2. Do experiment with pi 4 2 3. Measure result ri 4. Input ri to optimizer (seeking to minimize i.e.(ri-rd)2) 0 -0,803 Current (kA) 5. Receive next parameters pi+1 y x Time (ms) z x: I(6...12kA) y: T(100...350ms) Fig. 1: Optimization procedure for Strongly Controlled, SingleTask Processes At this point some of the direct mathematical parameter optimization methods are used for static non discrete non stochastic mostly unconstrained functions (for more details see Schwefel “Evolution and Optimum Seeking” [1]). They can be found under the general heading of hill climbing strategies because their method of searching for a maximum corresponds closely to the intuitive way a sightless climber might feel his way from a valley up to the highest peak of a mountain. For minimum problems the sense of the displacements is simply reversed, otherwise uphill or ascent and downhill or descent methods are identical. Whereas mathematical programming methods are dominant in operations research and the special methods of functional optimization in control theory, hill climbing strategies are most frequently applied in engineering design. 10 | Forschung aktuell 2015 Optimal Process Parameter Retrieval from Models of Strongly Controlled, Variable-Task Processes Thus far it has been assumed that the process should always produce the same output from the same welldefined input and also that the conditions are constant and the disturbances are small during the process execution, allowing the process to be executed with a fixed set of parameters. The next major optimization potential lies in the release of the rigidity of processes, or in the increase of processing flexibility. This has been known for a while, but the measurements are difficult and therefore widely untouched in practice. Flexibility means that even with varying input an optimum output can still be achieved with minimum effort. The next step would be to also allow for defining varying output. Therefore it is desirable to adapt the process to any changes in the input, the conditions and the process goals with no extra effort. This can be achieved if the process parameter values can be derived from a specification of input, conditions and goals (which together define a task). The process parameters define a processing method, so what is sought, is called task-tomethod transformation (T2MT). The task-to-method transformation has already been investigated and published in a scientific journal article [2], the main ideas of which are described in the following section. The relevant literature is also cited in this article. The basic principle of the T2MT is to create a process model function and to evaluate the function for a given goal in order to retrieve the appropriate process parameters. This model function represents the functional dependency of the goals values from the process parameters as shown in figure 2. Process model function Solution (level set) Task goal Size (mm) 7.2 D 6 4 2 Current (kA) y x z x: I(4...20kA) y: T(5...40ms) -0,803 0 Time (ms) Fig. 2: Process model (goal) function (size) of the process parameters (time, current) Once this model function exists, the retrieval of the process parameters is quite simple (in principle, not computationally): The goal function is a surface over the space of process parameters. The goal defines a parallel plane over the same space and the process parameter values, which fulfil the task (solution), are merely the intersection curve between the surface and the plane. IT & Kommunikation The points of the intersection curve are called the level set and are all solutions of the given task. How can the goal function be constructed? If there is an analytical process model, everything is done, however this is usually not the case. The knowledge about a specific process is usually only accessible via realworld experiments or (if first principal equations can be solved for the process) via simulated experiments. The core idea is to gather knowledge about a process by sampling the space of the process parameters, where the outcome is always measured and represented by quality measures. Based on a set of such samples the outcome can be modeled as a function of the parameters. This function can be determined via regression analysis and finally forms the process model or goal function. The outcome can be defined according to the application. It can be a simple binary (good/bad) or a multi-valued complex number. The function found by regression covers the whole space of process parameters, even regions, which are not feasible for the process or which are not supported by experimental data. It is therefore necessary to add two more models, which indicate whether parameter values are part of the allowed regions: the feasibility function and the support function. Both are binary functions indicating the parameter space regions, where the goal function can be evaluated. Finally all three process model functions represent all the necessary information, which enables the fully automatic derivation of the proper process parameters for a given process task. In this way the process equipment can optimally adapt to variations in the process task and enable flexible production. References [1] J. Pollak, S. A. Sarveniazi, N. Link, Retrieval of process methods from task descriptions and generalized data representations, The International Journal of Advanced Manufacturing Technology, 53.5-8 (2011), pp. 829–840. [2] H.-P. P. Schwefel, Evolution and optimum seeking: the sixth generation, John Wiley & Sons, Inc., 1993. Steinbeis – Transferpartner der Hochschule Karlsruhe Steinbeis arbeitet seit Jahrzehnten vertrauensvoll mit der deutschen Hochschullandschaft zusammen. Diese erfolgreiche Zusammenarbeit ist 2008 an der Hochschule Karlsruhe im Kooperationsunternehmen Steinbeis Transferzentren GmbH an der Hochschule Karlsruhe gemündet, das eine noch engere Zusammenarbeit im Wissens- und Technologietransfer ermöglicht. Zahlreiche Steinbeis-Unternehmen an der Hochschule bieten insbesondere kleinen und mittelständischen Unternehmen maßgeschneiderte Problemlösungen an. Steinbeis unterstützt Professoren, Studenten und Mitarbeiter der Hochschule dabei, ihr fachliches Know-how im Einklang mit ihrer wissenschaftlichen Arbeit in die Anwendung im Unternehmen zu bringen. Davon profitieren Hochschule und Wirtschaft gleichermaßen: die Praxisnähe sichert die Aktualität der Lehre und Ausbildung, der wissenschaftliche Fortschritt der Hochschule fördert direkt den Marktvorsprung der Unternehmen. g 11. Juni 2015 | Eröffnun ruhe Steinbeis-Haus Karls ampus auf dem Hochschul-C Steinbeis-Stiftung | Haus der Wirtschaft | Willi-Bleicher-Str. 19 | 70174 Stuttgart 136678-2015-02 | Bild: iStockphoto ©Pei Ling Hoo Forschung aktuell 2015 | 11 IT & Kommunikation [3] M. Senn, J. Schäfer, J. Pollak, N. Link, A system-oriented approach for the optimal control of process chains under stochastic influences, in: AIP Conference Proceedings 1389, 2011, pp. 419–422. [4] M. Senn, N. Link, A universal model for hidden state observation in adaptive process controls, International Journal on Advances in Intelligent Systems 4 (3–4) (2012), pp. 245–255. [5] M. Senn, N. Link, J. Pollak, J. H. Lee, Reducing the computational effort of optimal process controllers for continuous state spaces by using incremental learning and post-decision state formulations, Journal of Process Control, 24(3) (2014), pp. 133–143. Zusammenfassung Die Optimierung in Fertigungsmaschinen hat zum Ziel, die Parameter des kontrollierten Fertigungsprozesses so zu führen, dass mit kleinstem Aufwand das beste Ergebnis erzielt wird. Bei stark kontrollierten Prozessen genügt es, einmal die optimalen Einstellungen der Prozessleitgrößen zu eruieren und den Prozess damit auszuführen. Ist die Aufgabe variabel, so müssen für jede Prozessausführung die optimalen Parameter gefunden werden. Treten während der Prozessausführung Störeinflüsse auf, müssen währenddessen die Parameter zeitlich so geführt werden, dass der Prozess einen Pfad in seinem Zustandsraum durchläuft, der insgesamt den Aufwand bei optimalem Ergebnis minimiert. Der Artikel stellt entsprechende Methodenklassen für diese Optimierungsaufgaben vor. Abstract The goal of optimizing manufacturing machines within the parameters of controlled integrated processes is to achieve the best possible results with the lowest possible effort. In the case of strongly controlled processes, which repetitively execute the same task and have negligible fluctuations, it is sufficient to find the optimal settings of the process parameters once and to re-use those with every process execution. However if the task varies 12 | Forschung aktuell 2015 with respect to the goal, the input and the process conditions, then the optimal process parameter values have to be found for each process execution. Furthermore, if disturbances affect the execution of the process it is even more complicated to optimize. In this case the parameters should be adjusted on-line in such a way that the process follows a path in its state space, which minimizes the total effort and maximizes the resulting quality. If a product is manufactured by chained processes, an optimum process path must be. This paper proposes various methods which can be implemented on manufacturing machines. Autor Prof. Dr. Norbert Link Professor at the Faculty of Computer Science and Business Information Systems at the Karlsruhe University of Applied Sciences. Contact Prof. Dr. Norbert Link Karlsruhe University of Applied Sciences Faculty of Computer Science and Business Information Systems Moltkestrasse 30 76133 Karlsruhe Germany E-mail: norbert.link@hs-karlsruhe.de IT & Kommunikation Modellierung und Simulation der Starrkörperbewegung in Rückschlagventilen Marcus Jainta, Andreas Reiter, Anastasia August, Fabian Moik und Britta Nestler Motivation Es gibt viele technische Anwendungen, bei denen Bewegungen von Starrkörpern in Strömungen von großer Bedeutung sind. Dazu gehören beispielsweise die Erstarrung von Metall- oder Eiskristallen, insbesondere deren Bewegung als starre Körper in flüssiger oder gasförmiger, strömender Umgebung. Auch Simulationen von Bewegungen größerer Körper sind für viele technische Anwendungen relevant. Die Dynamik eines Rückschlagventils beispielsweise kann durch ein Simulationsmodell der Starrkörperbewegung beschrieben werden. Auf der Grundlage von simulationsgestützten Voraussagen kann die Geometrie von Ventilen derart optimiert werden, dass der unerwünschte Schlupf an Flüssigkeit bei geschlossenem Ventil reduziert wird. Am Institute of Materials and Processes der Hochschule Karlsruhe wurde dazu der Löser zur Berechnung der Navier-Stokes-Gleichungen mit dem Phasenfeldmodell, das die Kristallevolution beschreibt, gekoppelt. Hierbei wurde eine Methode zur künstlichen Gebietserweiterung verwendet, die im Folgenden erläutert wird. Simulationsmethode Die Starrkörperbewegung wird im Zusammenspiel von einer Phasenfeldmethode zur Beschreibung der Festund Flüssigbereiche mit einem Strömungslöser zur Ermittlung des Geschwindigkeitsfelds modelliert. Die Fest- und Flüssigzustände werden bei der Phasenfeldmethode durch die Werte eines Ordnungsparameters j beschrieben. Dieser muss bei dem hier verwendeten Phasenfeldmodell zwischen 0 und 1 liegen, wobei 0 einen rein flüssigen und 1 einen rein festen Zustand kennzeichnet. Eine besondere Eigenschaft der Methode besteht darin, dass die Variable j im Randbereich des Festkörpers glatt von 0 nach 1 übergeht. Diesen Übergang nennt man diffuse Phasengrenzschicht. Wenngleich eine Modellierung ohne scharfe Phasengrenzfläche zu nummerischen Herausforderungen in der Beschreibung des Starrkörperverhaltens führt, ist sie im Hinblick auf eine zukünftige Modellierung von Kristallwachstum in einer Mehrphasenströmung unerlässlich. Der Strömungslöser der institutseigenen Pace3D-Software basiert auf den Erhaltungsgleichungen nach Navier-Stokes. Das Geschwindigkeitsfeld wird hierbei unter Berücksichtigung der Massen- und Impulserhaltung berechnet. Prinzipiell werden die Navier-Stokes-Gleichungen nur in dem vom Phasenfeld als flüssig markierten Bereich gelöst. Bei der Methode der künstlichen Gebietserweiterung wird das Starrkörpergebiet nicht isoliert betrachtet; stattdessen wird das Strömungsgebiet auf den Festkörperbereich erweitert. Das bedeutet, dass in einem ersten Schritt alle Teilgebiete als Flüssigkeiten unterschiedlicher Dichte und Viskosität betrachtet werden, für die ein vorläufiges Geschwindigkeitsfeld berechnet wird. Für alle Bereiche mit Festphasenanteilen muss allerdings eine Rückkorrektur vorgenommen werden, damit die Geschwindigkeit dort der einer Starrkörperbewegung entspricht. Hierzu verwendet man die DLMMethode (Distributed-Lagrange-Multiplikator), die einen a) c) b) d) Abb. 1: Simulation der Abfolge von Ventilstellungen in einem Rückschlagventil: die Serie startet mit der neutralen Anfangsstellung (a) und zeigt in (b) den Zustand kurz nach Erreichen der Durchflussstellung; Teilbild (c) lässt den Wechsel von Durchströmungs- in Sperrrichtung erkennen, während (d) den Zustand kurz nach Erreichen der Sperrstellung darstellt. Forschung aktuell 2015 | 13 IT & Kommunikation Korrekturterm für die Geschwindigkeiten der Festkörperzellen definiert. Dabei wird für jeden Körper der gesamte Impuls sowie der Drehimpuls bezüglich seines Schwerpunkts mithilfe des vorläufigen Geschwindigkeitsfelds ermittelt. Dadurch lässt sich die Geschwindigkeit eines äquivalenten Starrkörpers an jedem Punkt beschreiben und die Werte aus dem Strömungslöser können im Festkörperbereich entsprechend angepasst werden. Um die Bewegung des Starrkörpers zu verfolgen, wird die Grenzfläche des Phasenfelds abhängig vom Geschwindigkeitsfeld verschoben. Erste Anwendungen Die Funktionsweise eines Rückschlagventils besteht darin, durch ein Schließelement die Strömung eines Fluids in die Durchlassrichtung zu ermöglichen und in die Gegenrichtung zu unterbinden. Dabei wird der Schließkörper (z. B. eine Kugel) in die Durchlassöffnung gedrückt, wenn gegen die Durchlassrichtung ein Strömungsdruck besteht. Beim Strömungsdruck in die Durchlassrichtung trennt sich die Kugel von ihrem Sitz und das Fluid kann strömen. Das Rückschlagventil diente als erstes Anwendungsbeispiel, oben beschriebene Methode zu testen. Und die ersten Simulationen zeigen gute Ergebnisse: die Formerhaltung des Starrkörpers ist zu jedem Zeitpunkt gegeben, sowohl wenn der Körper nur durch einen Druckgradienten beschleunigt wird, als auch wenn ein Gitter den Festkörper abrupt abbremst. Die Ergebnisse der durchgeführten Simulationen zeigen, dass das Verhalten des Starrkörpers – insbesondere im Kontakt 10 9 8 7 6 5 80 100 120 140 160 180 200 220 Simulationszeit in Frames Abb. 2: Messung der Durchflussgeschwindigkeit im Rückschlagventil. Die gestrichelten Linien korrelieren mit den Stellungen, die in Abbildung 1 gezeigt wurden. mit dem Gitter – umso besser abgebildet wird, je höher die Viskosität im Starrkörperbereich des künstlich erweiterten Gebiets gewählt wird. Ausblick Wie die Simulation am Rückschlagventil zeigt, konnte die Methode zur künstlichen Gebietserweiterung mit DLM erfolgreich umgesetzt werden und stellt eine geeignete Möglichkeit dar, die Starrkörperbewegung in einer Phasenfeldumgebung zu modellieren. Dieser Ansatz soll zukünftig verwendet werden, um das Kristallwachstum von bewegten Keimen in der Schmelze abzubilden. NEU: PEPS Version 8.0 Camtek.de 14 | Forschung aktuell 2015 neue Benutzeroberfläche neue Maschinenraum-Simulation neue High-Speed-Fräs-Strategien IT & Kommunikation Abstract Models for a realistic description of the motion of rigid bodies in a fluid flow are important for technical applications. We present a method to couple fluid flow to a phase-field model, which is generally applied to phase transformations. Using a fictitious domain method, we extend the Navier-Stokes equations into the solid region. The forces required for the cohesion of the rigid body are obtained by means of a distributed Lagrange multiplier, resulting in an admissible distribution of velocities in the whole simulation domain. The model was tested in simulations of the operation of a check valve. Zusammenfassung Modelle, die die Bewegung von starren Körpern in einem strömenden Fluid realitätsnah beschreiben, sind von großer Bedeutung für technische Anwendungen. Es wird eine Methode zur Kopplung des Strömungsverhaltens von Fluiden an das Phasenfeldmodell vorgestellt, mit dem im Allgemeinen Phasentransformationen untersucht werden. Dabei werden die Navier-Stokes-Gleichungen unter Verwendung der „fictitious domain method“ auf den Festbereich erweitert. Die Kräfte, die für den inneren Zusammenhalt der Starrkörper notwendig sind, werden durch einen verteilten Lagrange Multiplikator ermittelt. Dies führt im gesamten Simulationsgebiet zu einem zulässigen Geschwindigkeitsfeld. Das Modell wurde in Simulationen verschiedener Betriebszustände eines Rückschlagventils erfolgreich getestet. Autoren Marcus Jainta M.Sc. Akademischer Mitarbeiter am Institute of Materials and Processes (IMP) der Hochschule Karlsruhe und am Institute of Applied Materials – Computational Materials Science des Karlsruher Instituts für Technologie (KIT) Dipl.-Ing. Andreas Reiter Wissenschaftlicher Mitarbeiter am Institute of Applied Materials – Computational Materials Science des Karlsruher Instituts für Technologie (KIT) Dr. Anastasia August Projektleiterin und akademische Mitarbeiterin am Institute of Materials and Processes (IMP) der Hochschule Karlsruhe und am Institute of Applied Materials – Computational Materials Science des Karlsruher Instituts für Technologie (KIT) Fabian Moik B.Sc. Maschinenbaustudent des Karlsruher Instituts für Technologie (KIT) Prof. Dr. Britta Nestler Professorin an der Fakultät für Informatik und Wirtschaftsinformatik der Hochschule Karlsruhe und Leiterin des Institute of Applied Materials – Computational Materials Science des Karlsruher Instituts für Technologie (KIT) Kontakt Prof. Dr. Britta Nestler Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Informatik und Wirtschaftsinformatik Moltkestraße 30 76133 Karlsruhe E-Mail: britta.nestler@hs-karlsruhe.de Telefon: 0721 925-1504 Forschung aktuell 2015 | 15 IT & Kommunikation Dynamische Lastverteilung auf einem HPC Framework mit nachrichtenbasierter Kommunikation Constantin Heisler, Johannes Hötzer, Markus Maier, Andreas Reiter, Michael Selzer und Britta Nestler Motivation In der Physik gibt es Problemstellungen, die sich nur mithilfe von realitätsnahen, komplexen Modellen beschreiben lassen. Ein Beispiel, das vor allem in der Materialforschung weit verbreitet ist, ist das Phasenfeldmodell. Dieses beschreibt die zeitliche Entwicklung von Mehrphasensystemen, wie sie unter anderem beim Kristallwachstum in Schmelzen auftreten. Hierfür muss ein System gekoppelter, partieller Differenzialgleichungen auf zum Teil sehr großen Rechengebieten gelöst werden, wodurch der Einsatz von Hochleistungsrechnern erforderlich wird. Um die vorhandenen Rechenressourcen möglichst effizient zu nutzen, werden im Bereich des High Performance Computing (HPC) bereits seit Jahren Techniken entwickelt, die es ermöglichen, auf mehreren CPUs parallel zu simulieren. Eine Möglichkeit besteht darin, über eine Gebietszerlegung den Rechenbereich in kleinere Teilbereiche zu unterteilen, die dann jeweils von einem Prozess berechnet werden (s. Abb. 1). Während der Berechnung müssen die Prozesse häufig miteinander kommunizieren, was zu Wartezeiten führt, wenn sich die Berechnungszeiten für die Teilgebiete unterscheiden. Diese Wartezeiten können verkürzt werden, indem die Größe der einzelnen Gebiete entweder vor dem Start der Simulation angegeben oder zur Laufzeit angepasst wird (s. Abb. 2). Abb. 1: Zerlegung eines Gebiets in kleinere Teilgebiete Abb. 2: Anpassung der Größe der Teilgebiete zur Laufzeit 16 | Forschung aktuell 2015 Ein solches Prinzip wird auch im Simulationsprogramm PACE3D (Parallel Algorithms for Crystal Evolution in 3D) verwendet, das an der Hochschule Karlsruhe entwickelt wird. Eine dynamische Anpassung der Teilgebiete in nur eine Raumrichtung wurde in [1] beschrieben. Darauf aufbauend wurde in [2] eine Binärbaumzerlegung in alle Raumrichtungen implementiert. Keiner dieser Ansätze erlaubt es jedoch dem Nutzer sein Vorwissen über die zu erwarteten Rechenlasten vollständig einzubringen. Wird beispielsweise Kristallwachstum untersucht, so ist in vielen Fällen der zu erwartende Verlauf bereits näherungsweise vor Beginn der Simulation bekannt. Dieses Wissen kann genutzt werden, um eine optimale Lastverteilung zur Laufzeit der Simulation zu erreichen. Hierfür wurde eine Beschreibungssprache für den PACE3D-Löser entwickelt und das Framework wurde entsprechend angepasst. Dadurch lassen sich bestehende Lastverteilungsalgorithmen weiter nutzen, können aber zusätzlich verschachtelt und formal beschrieben werden. Die Beschreibungssprache In der bisherigen Realisierung wird sowohl die Berechnung der einzelnen Teilgebiete als auch die Anpassung der Gebietsgrößen von den einzelnen Prozessen bzw. Workern durchgeführt. Wird die Steuerung der Lastverteilung nicht von den Workern selbst übernommen, sondern zentral geregelt, ermöglicht dies eine wesentlich flexiblere Anpassung der jeweiligen Gebietsgrößen. Somit können die Teilgebiete an die spezifische Problemstellung einer Simulation anpasst werden, um so eine möglichst effiziente Lastverteilung zu erzielen. Diese Flexibilität wird mithilfe der neuen Sprache erreicht, über die der Nutzer die Aufteilung der Teilgebiete steuern kann. Die Beschreibungssprache ist dabei aus zwei Elementen aufgebaut. Die Teilgebiete auf der untersten Ebene werden von den Workern berechnet. Für die Lastverteilung werden diese entlang einer oder mehrerer Raumrichtungen zu größeren Gebieten gruppiert. Diese können solange weiter zusammengefasst werden, bis auf der obersten Ebene das Gesamtgebiet abgedeckt wird. Für jede dieser Gruppen lässt sich die Art und Dimension (1D, 2D oder 3D) der Lastverteilung vorgeben. Das PACE3D Framework bietet bereits eine Schnittstelle für das CAD-Austauschformat nach ISO-10303-21 [3] an, das als Basis zur Entwicklung der Beschreibungssprache für die Lastverteilung dient. Dessen Syntax ist über die IT & Kommunikation – für Menschen lesbare – Wirth Syntax Notation (WSN) [4] beschrieben. Diese besteht aus nummerierten Regeln mit zugehöriger Beschreibung. Abb. 3: Beispiel einer zweidimensionalen Zerlegung eines Rechengebiets durch zwei Gruppen mit dynamischer Lastverteilung in z-Richtung innerhalb der jeweiligen Gruppe #0 = BLOCK(); #1 = LB1D(.Z., (#0, #0, #0)); #2 = !GROUP(.X., (#1, #1)); /* keine weitere Unterteilung */ /* zerteile das Gebiet in Kombination mit einer eindimensionalen Lastverteilung in drei Teile entlang der z-Richtung und wende auf diese Regel #0 an */ /* zerteile das Gebiet in xRichtung in zwei gleich große Teile und wende auf diese Regel #1 an */ Abb. 4: Wirth Syntax Notation (WSN) zur Zerlegung des zweidimensionalen Rechengebiets Der Nutzer kann über dieselbe Notation alle relevanten Informationen zur Gebietszerlegung angeben. Dies ist in Abbildung 3 und 4 für eine zweidimensionale Zerlegung des Rechengebiets illustriert. Die Unterteilung erfolgt zunächst in zwei Gruppen konstanter Größe entlang der x-Richtung. Diese werden wiederum entlang der z-Richtung in drei Teilgebiete unterteilt, deren Größe über einen eindimensionalen Lastverteilungsalgorithmus gesteuert wird. Entstehen Wartezeiten aufgrund unterschiedlicher Rechenzeiten für die einzelnen Teilbereiche, wird eine Verschiebung der Gebietsgrenzen innerhalb der Gruppen durchgeführt. Auch komplexere Zerlegungen in alle drei Raumrichtungen, wie in Abbildung 5 dargestellt, können mit nur wenigen Anweisungen erzeugt werden. Zudem kann direkt vorgegeben werden, dass beispielsweise lediglich die farblich hervorgehobenen Bereiche einer dynamischen Lastverteilung unterliegen sollen. Dies stellt einen wesentlichen Vorteil gegenüber globalen Lastverteilungen dar, da ein Verschieben der Bereichsgrenzen aufgrund der geringen Größe der Blöcke mit wenig zusätzlichem Aufwand verbunden ist, aber damit dennoch vergleichbare Verringerungen der Wartezeiten erreicht werden. Ergebnis Mithilfe der entwickelten Beschreibungssprache ist eine kompakte und universelle Beschreibung belie- Abb. 5: komplexe Zerlegung eines Rechengebiets in alle drei Raumrichtungen biger Gebietszerlegungen und der Art der Lastverteilung möglich. Neben einer Festlegung der Aufteilung des Rechengebiets vor dem Start der Simulation kann auch eine Lastverteilung zur Laufzeit erfolgen bzw. eine Kombination aus beiden Varianten. Hierdurch ist es auf einfache Weise möglich, große und komplexe Simulationen – wie in Abbildung 6 gezeigt – effizient auf mehreren tausend CPUs zu berechnen. Vor allem die klare und kompakte Struktur der Sprache ermöglicht eine schnelle, einfache und fehlerfreie Anpassung der Zerlegung und Art der Lastverteilung. Abb. 6: Simulation eines ternären Eutektikums. Eine gerichtete Erstarrung mit periodischen Randbedingungen in einem Simulationsgebiet von 200 x 200 x 1600 Forschung aktuell 2015 | 17 IT & Kommunikation Literatur [1] A. Vondrous, M. Selzer, J. Hötzer, B. Nestler, Parallel computing for phase-field models, International Journal of High Performance Computing Applications, 28(1), 2014, pp. 61–72. [2] J. Hötzer, Dynamische Lastverteilung für einen finite Differenzen Löser, Master-Thesis, Hochschule Karlsruhe – Technik und Wirtschaft, Mai 2011. [3] ISO. ISO TC 184/SC4/WG11 N287: Industrial automation systems and integration – Product data representation and exchange – Part 21: Implementation methods: Clear text encoding of the exchange structure, August 2013. [4] N. Wirth, What can we do about the unnecessary diversity of notation for syntactic definitions?, Commun. ACM, 20(11), 1977, pp. 822–823. [5] B. Nestler, H. Garcke, B. Stinner, Multicomponent alloy solidification: Phase-field modeling and simulations, Physical Review E, 71(4), 2005, 041609. Abstract Current load balancing techniques focus on the dynamic adjustment of the simulation domains. In many cases, the approximate evolution of the simulation is already known in advance. This meta knowledge is, however, only partially used in purely static decompositions per use case. The description language presented here enables the user to create problem-specific domain decompositions combining, possibly nested, static and dynamic load balancing elements through simple syntax. Zusammenfassung Bisherige Verfahren zur Lastverteilung haben ihren Fokus hauptsächlich auf die Umsetzung der dynamischen Gebietsgrößenanpassung gesetzt. Das in vielen Fällen vorhandene Vorwissen über den zu erwartenden Verlauf einer Simulation wird dabei nur sehr eingeschränkt genutzt. Lediglich bei einer rein statischen Gebietsunterteilung ist dieses in Form von Gebietsanteilen je nach Anwendungsfall eingeflossen. Die hier vorgestellte Beschreibungssprache ermöglicht es dem Nutzer, auf einfache Weise speziell auf seinen Anwendungsfall angepasste Kombinationen von – bei Bedarf verschachtelten – statischen und dynamischen Gebietsunterteilungen zu erzeugen. Autoren Constantin Heisler B.Sc. und Markus Maier B.Eng. Akademische Mitarbeiter am Institute of Materials and Processes (IMP) der Hochschule Karlsruhe Johannes Hötzer M.Sc., Dipl.-Ing. Andreas Reiter und Michael Selzer M.Sc. Doktoranden am IMP der Hochschule Karlsruhe und am Karlsruher Institut für Technologie (KIT) Prof. Dr. Britta Nestler Professorin an der Fakultät für Informatik und Wirtschaftsinformatik und Direktorin der Abteilung Computational Materials Science and Engineering (CSME) am IMP der Hochschule Karlsruhe sowie Professorin am Institut für Angewandte Materialien (IAM) des Karlsruher Instituts für Technologie (KIT) Kontakt Prof. Dr. Britta Nestler Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Informatik und Wirtschaftsinformatik Moltkestraße 30 76133 Karlsruhe E-Mail: britta.nestler@hs-karlsruhe.de Telefon: 0721 925-1504 18 | Forschung aktuell 2015 IT & Kommunikation Personalized Web Learning by joining OER Peter A. Henning und Kevin Fuchs Introduction For the past few years, one of the most heatedly debated topics in technology enhanced learning (TEL) has been the possibility of distributing free knowledge to large audiences via internet in Massive(ly) Open Online Courses (MOOCs). This special form of Open Educational Resources (OER) has gained popularity due to increased bandwidth and the spread of mobile digital devices even to remote areas of the world. UNESCO gave this field of TEL a tremendous push at its 2012 OER conference and enthusiastically claims that OER could provide a solution to the world’s educational problems [1]. Along with many other TEL practitioners, we take a more differentiated view on this, because broadcast video lectures have a long history and are not really considered state of the art in TEL. Particular technical and didactical challenges that concern fundamental aspects of MOOC learning are language, cultural background of learners, and individual learning habits and learning discipline to mention some of the most prominent ones. Further, if one really wishes to produce a high quality video of a full lecture, production costs could be as high as 50 000 € [2], making their creation and maintenance problematic for many institutions. Fortunately, the rapid development of technology has resulted in an increased availability of small OER. Public platforms contain large numbers of small clips, texts and pictures about almost any subject that one could think of teaching or learning. We have investigated how MOOC learning can be made more personal, humancentered and interactive by using a specially enabled Learning Management System (LMS), and how small OER can be effectively collected and stitched together in order to economically create MOOC-like courses. Technical approach to personalization of learning processes The EU FP7 project INTUITEL provides a new approach to adaptive learning. Current Adaptive Learning Environments (ALE) are either test-driven or curriculumdriven, i.e. they either follow a behaviorist or cognitivist learner model [3]. INTUITEL in contrast follows a constructivist approach by leaving full freedom of choice to the learners while non-intrusively guiding them through a sequence of learning steps. Each of these learning steps consist of “absorbing” one knowledge object (KO) of 3–10 minutes and all of them are inter-connected through concrete sequences called learning pathways (LPs). The desired personalization consists of selecting a particular ordering of KOs based on considering well-defined LPs and all the aforementioned aspects for an individual learner. This challenge has two parts: Firstly, the didactical and more theoretical aspects, which we address in [4], and secondly, the technological aspects and problems of applying this concept to MOOCs, which we will focus on here. Fig. 1: Building blocks of an INTUITEL-enhanced LMS In order to prove the concept, INTUITEL is implemented for five different leading eLearning platforms (eXact LCMS, Clix, Crayons, ILIAS and Moodle). This entails six main components: 1. A lightweight data interface with an open specification that may be applied to every type of LMS 2. A pedagogical ontology (PO), based on Meder’s web didactics [5] and insights gained from the L3 project [6], to provide the vocabulary and relations necessary for enhancing courses with didactical and technical metadata [7] 3. The Semantic Learning Object Model (SLOM) which describes how learning material needs to be annotated in order to be interpretable by the INTUITEL system 4. A back-end, which aggregates the required information and uses it to create learning recommendations and feedback 5. A communication layer (CL) for the management of message distribution 6. An editor to comfortably annotate learning content compliant to the SLOM format Forschung aktuell 2015 | 19 IT & Kommunikation Within the suggested approach, the learning process is analyzed by considering the learning pathway of a learner through a course and by gathering additional data. The system maps this data to so called didactic factors (DF) that are symbolic statements with each of them having a distinct meaning for the learning process (e.g. learning speed or media type preferences). This allows to give feedback and to personalize the learning process by deducing that a certain knowledge object is better suited to this learner than another. Moreover, it is also possible to state why this is the case. This enables the learners to self-reflect and thus increases their metacognitive skills. Technically, the information is processed in the INTUITEL backend using Java software and semantic reasoning engines. Its task is to enhance and interpret individualized ontologies in order to identify the most suitable knowledge objects with regard to the most suitable learning pathways and the current situation as expressed by the didactic factors. It therefore generates semantic queries and starts the most efficient reasoning engine for the specific query. Thus, INTUITEL builds on the results and insights of the THESEUS project and, in particular, the HERAKLES Reasoning Broker [8]. Joining OER This INTUITEL technology may be used to overcome the MOOC problems stated in the introduction. Course authors are not restricted in their choice of what learning material they provide and which style they do it in – they just need to find suitable small OER and interconnect them in a didactically meaningful way using the INTUITEL Editor. Therefore, INTUITEL provides the ‘glue’ needed and the means to interpret this composite course object with its Semantic Learning Object Model, SLOM. The important aspect for the MOOC problem is that the INTUITEL metadata treats the concrete learning content as resources from the RDF/RDFS/OWL syntax, i.e., it is only linked to the content. Therefore, the resources may reside anywhere on the global internet and only need to be accessible by the LMS. The task of providing courses to a learner can thus be split. The LMS provides a meaningful frame for the learning process (e.g. the user interface) and INTUITEL provides the individualized references to the most appropriate content elements. As long as the LMS loads the referenced material seamlessly, such a distributed INTUITEL course will appear as an adaptive sequence of pages to the learner, independent of where they actually originate. Consider, as an example, a course on Beethoven: It could start with an introductory text from Wikipedia, 20 | Forschung aktuell 2015 and then offer a virtual tour through the Beethoven house in Bonn/Germany, proceeding with an audio file residing on a US server and produced by the Chicago Symphony Orchestra and so on. All of these pages and media are presented as adaptive recommendation, taking into account the learner’s history as well as his current situation and behavior in the framework of the didactical model. Every learner experiences individual tutoring, even dialogues with the INTUITEL system, without requiring a large monolithic production effort. The INTUITEL approach may also affect content production in general. Not only does it preserve the high level of freedom for course creation, but also allows novel ways of collaboration in teaching. Authors from all over the world can link their small OER and provide their learners with a huge knowledge space. It is conceivable that such a knowledge space can attract as many learners as one of the current MOOCs, but more flexibly and with almost unlimited individuality. A course designer can contribute to this knowledge space not only by adding new learning content, but also by adding more metadata. Easier cultural adaptation is only one of the many possibilities offered by this approach. Summary and Outlook In this paper we have outlined a way to make OER more suitable for a greater variability of learning needs by high-level semantic annotations and by running them in an enhanced LMS. INTUITEL therefore contributes to key aspects of OER, i.e. how to create online courses in a didactically meaningful way, how to add semantic interoperability, and how LMSs can assist in that. In our estimate, this could also be used for a semantic reconstruction of current MOOCs which will resolve some of their problems of maintainability and adaptability. The INTUITEL technology serves as the ‘glue’ for integrating a variety of learning content into a greater knowledge space. By providing the information on the learning process in a suitable format, INTUITEL also opens the doors for other technologies such as learning analytics and data mining in the educational sector. With the insights that can be gained from a data driven perspective, this could result in new didactical approaches and thus enhance education in general. References [1] UNESCO World OER Congress releases 2012 Paris OER Declaration (UNESCO, Paris 2012). [2] Consensual figure given at the 2014 conference ”MOOCs or POOCs”, Ministry of Science and Art, State of Baden-Wuerttemberg, Stuttgart, April 2014. » Tierisch preiswerten All-in-one-Service ¿nden Sie bei uns! » Druckerzeugnisse von A-Z » Lernen Sie uns kennen – wir visualisieren Ihr Know How VMK Druckerei GmbH Faberstrasse 17 67590 Monsheim Tel. 0049.6243.909.110 Fax 0049.6243.909.100 info@vmk-druckerei.de www.vmk-druckerei.de Wir bieten innovativen Köpfen den Raum für ihre Ideen! Das Kompetenzzentrum für Unternehmensgründungen 300 + UNTERNEHMEN BETREUT 97% ERFOLGSQUOTE 6.000 ARBEITSPLÄTZE GESCHAFFEN © Tink66/pixelio.de Haid-und-Neu-Str. 7 · 76131 Karlsruhe Telefon 0721-174 271 · www.technologiefabrik-ka.de SAP® University Alliances ?81/$+6/8>/+?0.3/<,/3>=A/6> von morgen vorbereiten Die nächste Fachkräftegeneration für das digitale Unternehmen ausbilden Mit den Angeboten des Programms SAP® University Alliances werden Studierende optimal auf eine Karriere im Umfeld von SAP vorbereitet – sei es bei einem der Kunden und Partner der SAP oder bei SAP selbst. Eines dieser Angebote ist das Programm SAP Student Entrepreneurship zur Förderung der Studierenden im Bereich Unternehmensgründung. Innovationen vorantreiben – mit der nächsten Anwendergeneration Junge, kluge Köpfe können ihr Wissen und ihre Ideen aktiv einbringen, indem sie an Wettbewerben sowie gemeinsamen Innovations- und Forschungsprojekten teilnehmen. Unterstützt werden diese Crowdsourcing-Projekte durch die Plattform SAP HANA® Cloud. Die Digitalisierung von Lehre und Forschung ermöglichen /<+5+./73=-2/8'/6>/<ėH8/8=3-2.?<-2./8*?1+81D?8/?/=>/8# [$/-2896913/8@ė6631 8/?/ė163-25/3>/8L/2</8./?8.#>?.3/</8./:<9F>3/</8@97/<0961</3-2/8#-2?6?81=09<7+> der Massive Open Online Courses (MOOCs) auf der Plattform openSAP und können ihre Arbeit über die SAP-Cloud abwickeln. Mach mit! Werde Mitglied der Community! Studio SAP | 37021deDE (15/02) © 2015 SAP SE oder ein SAP-Konzernunternehmen. Alle Rechte vorbehalten. Verbrauchsausweis, Heizenergieverbrauchskennwert 97 kWh/m2a, Stromverbrauchskennwert 75 kWh/m2a, Erdgas IT & Kommunikation [3] K. Koedinger, M. Tanner, 7 Things You Should Know About Intelligent Tutoring Systems, (July 2013) Retrieved 16 Dec 2013, from https://net. educause.edu/ir/library/pdf/ELI7098.pdf. [4] P. A. Henning, C. Swertz, F. Heberle, et al., Learning Pathway Recommendation based on a Pedagogical Ontology and its Implementation in Moodle, in: Proceedings der DeLFI 2014 - 12. E-Learning Fachtagung Informatik der Gesellschaft für Informatik e.V. (GI), GI Lecture Notes in Informatics P-233 (2014), 39–50. [5] C. Swertz, F. Heberle, P. A. Henning, et al., A Pedagogical Ontology as a Playground in Adaptive Elearning Envi-ronments, in: Horbach, M. (ed), INFORMATIK 2013: Informatik angepasst an Mensch, Organisation und Umwelt, GI-Edition Lecture Notes in Informatics (LNI), P-220 (2013), 1955–1960. [6] N. Meder, Web-Didaktik: Eine neue Didaktik webbasierten, vernetzten Lernens, Bertelsmann, Bielefeld, 2006. [7] T. Leidig, L3 –Towards and Open Learning Environment, ACM Journal of Educational Resources in Computing, Vol. 1 No. 1(2001). [8] J. Bock, T. Tserendorj, Y. Xu, et al., A Reasoning Broker Framework for OWL, in: R. Hoekstra, P.F. Patel-Schneider (eds), Proceedings of the 6th International Workshop on OWL: Experiences and Directions (OWLED 2009), CEUR WS proceedings, Chantilly (2009). The research leading to these results was co-funded in the 7th framework programme of the European Union (FP7-ICT-2011.8, Challenge 8.1) under grant no. 318496. This article is based on a text published in context of the DeLFI 2014 conference (GI Lecture Notes in Informatics, P-233, 39-50). For more information on INTUITEL, please visit www.intuitel.eu. 22 | Forschung aktuell 2015 Zusammenfassung Die Verfasser argumentieren, dass die qualitativen und didaktischen Probleme von MOOCs durch die Verwendung von kleinen Open Educational Resources überwunden werden können, die entlang von vordefinierten Lernpfaden mit entsprechender semantischer Annotation zu großen Kursen zusammengefügt werden. Dieser neue Ansatz erfordert nicht nur konzeptionelle Arbeit und die Entwicklung neuer Werkzeuge, sondern auch ein neues Metadatenformat und Software, die die semantischen Beschreibungen interpretiert und die Reaktionen der Lernenden misst. Das EU-FP7-Projekt INTUITEL widmet sich diesem Ziel und wendet diese Technologien in einer neuartigen Lernumgebung an. Abstract The writers argue that quality issues and didactical concerns of MOOCs can be overcome by using small Open Educational Resources, joining them along predefined learning pathways with proper semantic annotations into large courses. This new approach not only requires conceptual work and corresponding support tools, but also a new meta data format and software which interprets the semantic annotations and measures a learner’s response to these. The EU FP7 project INTUITEL is devoted to this goal and employs these technologies in a new learning environment. Autoren Prof. Dr. Peter A. Henning Professor at the Faculty of Computer Science and Business Information Systems at Karlsruhe University of Applied Sciences Dipl.-Inform. (FH) Kevin Fuchs Academic Assistent at the Institute of Applied Research at Karlsruhe University of Applied Sciences Contact Prof. Dr. Peter A. Henning Karlsruhe University of Applied Sciences Faculty of Computer Science and Business Information Systems Moltkestrasse 30 76133 Karlsruhe Germany E-mail: peter.henning@hs-karlsruhe.de Phone: +49 721 925-1508 IT & Kommunikation Die Bedeutung von DAAD-Hochschulkooperationen für die angewandte Forschung in Entwicklungsländern: Geodatennutzung in Ostafrika Gertrud Schaab 1. Hintergrund Im BMBF-Forschungsverbund BIOTA-Ostafrika (2001– 2010) war die Hochschule Karlsruhe für die Geodatenprozessierung verantwortlich. Mit am Ende mehr als 500 Geodatensätzen zu drei Waldgebieten in Kenia und Uganda [1] wurde nicht nur zur Beantwortung interdisziplinärer Biodiversitätsfragestellungen beigetragen, sondern man war in Ostafrika auch aktiv an Implementationen (z. B. Waldmanagementplanung, Aufbau eines Informationszentrums) und Maßnahmen des Capacity Building beteiligt.[2] Die regelmäßige Präsenz und die enge Zusammenarbeit vor Ort hatten zu einem weiten Netzwerk geführt. Dabei zeigte sich, dass in Ostafrika das Interesse an einer professionellen Verarbeitung von Daten in einem Geographischen Informationssystem (GIS) groß war. Bei genauer Betrachtung wurde jedoch deutlich, dass die Verwendung von Geodaten über die reine Visualisierung in Karten oft nicht hinausging. Gründe hierfür wurden der sehr oft fehlenden Fähigkeit, Karten überhaupt lesen oder interpretieren zu können zugeschrieben. Damit fehlt es aber an der Voraussetzung, das Potenzial raumbezogener Informationen zur Beantwortung gesellschaftsrelevanter Fragen zu nutzen. Bereits 2005–2006 hatte die Hochschule Karlsruhe im Projekt GeoTeach CensoPhil, das von der EU im Rahmen des ASIA-IT&C-Programms gefördert wurde, an zwei philippinischen Universitäten Erfahrungen zum Aufbau von Kapazitäten im GIS-Bereich gesammelt. [3] Dabei lag der Fokus auf der Ausbildung zu GIS von jeweils zwei Mitarbeitern, der Anleitung dieser bei der Erstellung von Lehrmaterialien sowie dem Aufbau je eines GIS-Labors. Trotz kurzer Laufzeit hat das Projekt sich als überaus nachhaltig erwiesen: die Lehre zu GIS ist an beiden Universitäten über Fakultätsgrenzen hinweg fest etabliert.[4] In Ostafrika kann die Geomatik nach wie vor als ein relativ junges Feld bezeichnet werden. Ihr weitverbreitetes Werkzeug GIS erfährt zwar wachsende Aufmerksamkeit, da es im Ressourcenmanagement, den Kommunalverwaltungen, im Umweltschutz oder der regionalen Planung eingesetzt werden kann. Jedoch geschieht dies dort sehr oft alleine für die Visualisie- rung bzw. Kartenerstellung. Karten werden schon viele Jahrhunderte zur Orientierung, aber auch für das Aufdecken und die Kommunikation komplexer Wirkungszusammenhänge genutzt. Dies ist der Grund, warum GIS heutzutage so viel Aufmerksamkeit erfährt. Denn neben der Möglichkeit der Kartenerstellung beinhaltet es eine Vielzahl an Funktionalitäten für einfache bis hochkomplexe Analysen, um neue Informationen aus Geodaten abzuleiten. Damit nun in Ostafrika das Potenzial von GIS in seiner Fülle genutzt wird, braucht es die Universitäten, denen dort die Rolle zufällt, neue Theorien und Techniken relevanten Anwendungen zuzuführen sowie darin auszubilden. 2. Das DAAD-Hochschulkooperationsprojekt UnivGisKoop Unter der Bezeichnung „Fachbezogene Partnerschaften mit Hochschulen in Entwicklungsländern” [5] des Deutschen Akademischen Austauschdienstes (DAAD) werden Projekte durchgeführt, die der Strukturbildung dieser Hochschulen dienen sollen, sei es durch Curriculaentwicklung, die Einrichtung neuer Studiengänge oder die gegenseitige Anerkennung von Studienabschlüssen. Die Mittel werden vom Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) zur Verfügung gestellt, insbesondere für den Austausch zwischen den Projektbeteiligten. UnivGisKoop (Streamlining GIS Teaching while Emphasizing a Regional Focus, a German-Ugandan-Kenyan University Cooperation) hat nicht die Entwicklung eines neuen Studiengangs zum Ziel, sondern das „Streamlining“ aktueller GIS-Lehre in bereits existierende curriculare Strukturen. Hierfür werden Lehrmaterialien für Vorlesungen und Übungen entwickelt. Das den beiden GIS-Modulen vorgeschaltete Modul „Geodata Use“ stellt hierbei einen neuen Ansatz dar. Die Übungen berücksichtigen Geodatenanwendungen von regionaler Relevanz. Die Partnerschaft zielt dabei auch auf die Verbesserung der Kapazitäten an ausgewählten ostafrikanischen Universitäten durch den Transfer von Wissen aus Deutschland. Die Harmonisierung der GIS-Lehre – nicht nur über Fakultäts- sondern auch Ländergrenzen hinweg – hat zudem den Nutzen, einen Beitrag für die Studierendenmobilität zwischen afrikanischen Universitäten zu leisten. Involviert sind drei Forschung aktuell 2015 | 23 IT & Kommunikation Hochschulen: Die noch junge Masinde Muliro University of Science and Technology (MMUST) aus Kakamega im Westen Kenias, die sich in unmittelbarer Nähe zum Hauptuntersuchungsgebiet von BIOTA-Ost befindet, hat über 10 000 Studierende an fünf Fakultäten. GIS wird in fast allen Fakultäten gelehrt, aber auf unterschiedlichem Niveau, nicht aufeinander abgestimmt, mit Geodaten, ohne regionalen Bezug und veralteter Software auf unzureichender Computerausstattung. Makerere University (MAK) in Kampala, der Hauptstadt Ugandas, ist die älteste Universität Ostafrikas und hat 40 000 Studierende an neun Colleges und einer School. GIS wird hier ebenfalls gelehrt, wobei mehrere Computerpools zur Verfügung stehen. Auch hier fehlt es an Zusammenarbeit und Abstimmung zwischen den Fachbereichen, von der insbesondere die Lehre in den Nicht-Geomatikstudiengängen profitieren würde. An der Hochschule Karlsruhe erhalten die Studierenden der Bachelor- und Masterstudiengängen, in denen es vorrangig um die Goinformationsverarbeitung geht, eine fundierte Ausbildung zu GIS. Das Lehrkonzept aufeinander abgestimmter Theorie und Praxis wurde über viele Jahre weiterentwickelt und umfasst mittlerweile auch die GIS-Programmierung als dritte Stufe. 3. Bedeutung für die angewandte Forschung a) Kontinuität in der Kooperation UnivGisKoop hat seinen Hintergrund im Projekt BIOTA. Es entstand aus dem Bedarf nach einer auf die Bedürfnisse zugeschnittenen GIS-Ausbildung, um Geodaten umfassender zu nutzen. Auch wenn Forschungsprojekte aus finanzieller Sicht gesehen die attraktiveren Projekte sind, liegt der besondere Wert der Kooperation in der Überbrückung von Zeiten ohne Forschungsgelder. UnivGisKoop ermöglicht die Kontinuität in der Präsenz vor Ort und die Fortführung der innerhalb von BIOTA begonnenen Aktivitäten. b) Förderung der Eigeninitiative In einem Entwicklungsland stellt die solide Aufbereitung von Lehrinhalten für ein sich rapide entwickelndes Feld wie die Geomatik eine besondere Herausforderung dar. Es werden jedoch nicht einfach an der Hochschule Karlsruhe entwickelte Einheiten übernommen, vielmehr wird Eigeninitiative gefordert und gefördert, dies auch explizit über die Erarbeitung von Lehrmaterialien hinaus. Mithilfe von DAAD-Mitteln ist es nun möglich an der MMUST ein GIS-Labor aufzubauen. Das GIS-Labor sowie die Beschäftigung mit den regionalen Geodaten werden helfen, weitere Ideen möglicher Forschungsund Entwicklungsprojekte zu generieren. c) Schließen von Wissenslücken In Ostafrika ist im Gegensatz zur westlichen Welt das Kartenlesen weder Teil der Kultur, noch wird ihm in der Schulausbildung Bedeutung zugemessen. Deshalb wird den eigentlichen zwei Modulen zu GIS ein eigenes Modul zur Geodatennutzung vorangeschoben, das grundlegendes Verständnis für Karten und somit auch für Geodaten inhärente Merkmale schafft. Dieser neue Ansatz wird zum Erfolg führen, wenn die Lehrenden die Inhalte selbst verinnerlicht haben. Bei der Vermittlung an die breite Masse Studierender ganz unterschiedlicher Fachrichtungen wird auf das Prinzip der Multiplikatoren gesetzt, wobei die wenigen GIS-Experten weitere Lehrende anleiten. Damit sorgt das Projekt dafür, dass zukünftig auch in Ostafrika das Potenzial von Geodaten für das Wohl der Gesellschaft besser genutzt wird. Die Absolventen erhalten damit bessere Chancen auf dem Arbeitsmarkt (auch hier boomt ITC) und der wissenschaftliche Nachwuchs wird in der Handhabung heute wichtiger Werkzeuge fundiert ausgebildet. Das Schließen von Wissenslücken der direkt in das Projekt Involvierten wird durch die Begleitung bei der Erarbeitung der Lehrmaterialien ermöglicht, besonders intensiv erfolgt dies während der gemeinsamen Projekttreffen (s. Abb. 1). Abb. 1: Eindrücke von Projektworkshop-Aktivitäten zu für die beiden Regionen verfügbaren Geodaten und Tools an der HsKA (Aug. 2012) sowie zu einer Probelehreinheit an der MMUST (Aug. 2013), (Fotos: G. Schaab) 24 | Forschung aktuell 2015 IT & Kommunikation Abb. 2: Die partizipative Entwicklung von Materialien für die Umweltbildung, hier das Kartenspiel zu den Regeln der lokalen Waldnutzung im Einsatz in einem am Waldrand gelegenen Dorf sowie das Puzzle zur Waldveränderung im Test mit Studierenden der MMUST (Fotos: M. Paul (li.) und R. Joseph (re.)) d) Vor-Ort-Erfahrungen ermöglichen Fachbezogene Partnerschaften bieten deutschen Studierenden bzw. dem wissenschaftlichen Nachwuchs die Möglichkeit mehrere Monate an den Hochschulen in den Entwicklungsländern zu verbringen, als Praxissemester oder für eine Studienabschlussarbeit. Dabei steht nicht der Umgang mit einer Vielzahl neuester Techniken im Vordergrund, sondern vielmehr das Kennenlernen und Zurechtkommen in einer fremden Kultur. Innerhalb des UnivGisKoop-Projekts wurden beispielsweise für eine Master-Thesis partizipativ zusammen mit der Bevölkerung Environmental Education Tools entwickelt.[6] Die Materialien haben zum Ziel, die Bevölkerung für den Schutz der Wälder zu sensibilisieren, sie zu informieren und Handlungsanweisungen zu geben. Somit sind, aufbauend auf BIOTA-Arbeiten und die Ideale angewandter Forschung fortführend, vier Tools entstanden, darunter ein Puzzle zu den Waldveränderungen und eine Art Memory zu den Waldnutzungsregeln (s. Abb. 2), deren Produktion für den Einsatz vor Ort nun noch ansteht. [3] P. Freckmann, G. Schaab, Capacity Building zu Geoinformationsverarbeitung für die zentralen und südlichen Philippinen, in: Hochschule Karlsruhe – Technik und Wirtschaft, Forschung aktuell, 2007, S. 89–90. Referenzen [1] www.biotaafrica.org/East_GISWeb1_ba.php?Page_ ID=L600_04 [7] G. Schaab, Experiences from testing map visualizations in a developing country as the basis for a research framework, in: Proceedings (CD-ROM) der 24th International Cartographic Conference (ICC 2009) ‘The World’s Geo-Spatial Solutions’, 15.-21. November 2009, Santiago de Chile (Chile), conf. theme 17 Users. [2] G. Schaab, T. Lübker, T. Lung, N. Mitchell, Remotely sensed data for sustainable biodiversity management. The case model of Kakamega Forest in western Kenya, in: Proceedings (digital) des 33nd International Symposium on Remote Sensing of Environment ‘Sustaining the Millennium Development Goals’, 4.-8. Mai 2009, Stresa, Lago Maggiore (Italien), ref. 479. [4] M. A. Pandan, Geographic Information System (GIS) development at the University of St. La Salle, Bacolod City, in: Proceedings (digital) der AGSE 2012 & FOSS4G-SEA ‘Geoinformation – Catalyst for Planning, Development and Good Governance’, 16.-20. Juli 2012, Johor Bahru (Malaysia), 2. ergänzte Auflage, S. 255–259. [5] www.daad.de/entwicklung/hochschulen/zusammenarbeit/partnerschaften/08480.de.html [6] L. Paul, Participatory development of tools for environmental education in the area of Kakamega, Kenya, unveröffentlichte Master-Thesis, Hochschule Karlsruhe, Studiengang Geomatics, 2014. Forschung aktuell 2015 | 25 IT & Kommunikation LERNEN SIE UNS KENNEN | Abstract During the research project BIOTA East Africa the need for improved training in the use of GIS became apparent. The more than 500 geodatasets which were made available to the project partners were considered as an ideal basis for this training. This opportunity was offered in the frame of the DAAD-funded university cooperation UnivGisKoop. The article describes the formation and aims of UnivGisKoop and discusses their importance for continuing sustainable geomatic-related applied research in the area. Zusammenfassung Der Bedarf nach besserer Ausbildung zu GIS hatte sich während des Forschungsprojekts BIOTA-Ostafrika herauskristallisiert. Die über 500 Geodatensätze, die den Projektpartnern in Kenia und Uganda überlassen wurden, stellen hierfür eine ideale Basis dar. Die Chance bot sich im Rahmen der vom DAAD geförderten Hochschulkooperation UnivGisKoop. Der Artikel stellt das Zustandekommen und die Ziele von UnivGisKoop vor und diskutiert ihre Bedeutung für die Fortsetzung und Nachhaltigkeit der angewandten Forschung in der Geomatik. Autorin Prof. Dr. Gertrud Schaab Professorin an der Fakultät für Informationsmanagement und Medien Kontakt Prof. Dr. Gertrud Schaab Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Informationsmanagement und Medien Hoffstraße 3 76133 Karlsruhe E-Mail: gertrud.schaab@hs-karlsruhe.de 26 | Forschung aktuell 2015 WIR VISUALISIEREN IHR KNOW HOW | DRUCKERZEUGNISSVON A - Z HIER DRUCKEN VMK Druckerei GmbH Faberstrasse 17 67590 Monsheim Tel. 0049.6243.909.110 Fax 0049.6243.909.100 info@vmk-druckerei.de www.vmk-druckerei.de IT & Kommunikation E-Wiki – Wissensplattform für die Entwicklung klimaschonender Technologien und Systeme Héctor Arruga, Daniel Burkard, Jan Zepp, Joachim Kaiser und Maurice Kettner Die Planung und Auslegung umweltschonender Technologien erfordert eine Zugänglichkeit zu fundierten Wissensquellen. Die zur Bewältigung solcher Ingenieurleistungen benötigten Informationen verteilen sich heute auf verschiedene Print- und Onlinemedien. Hierzu zählen Fach- und Lehrbücher, Promotionen und weitere wissenschaftliche Veröffentlichungen ebenso wie zahlreiche Internetseiten mit teils zweifelhafter Kompetenz. Wissensrecherche und -strukturierung gestalten sich aufgrund dieser Informationsvielfalt oftmals aufwendig und zeitintensiv. Für konkrete ingenieurtechnische Anwendungen mangelt es den verfügbaren Quellen zudem häufig an der erforderlichen Wissenstiefe. Transparenz und Struktur der Informationen sind vielerorts unbefriedigend. Um diese Schwachpunkte zu beseitigen, wurde die umfangreiche und öffentliche „E-Wiki“-Plattform (http://www.e-wiki.net) entwickelt. Sie sammelt den Stand der Technik und Wissenschaft von klimaschonenden und energieeffizienten Technologien und bietet hilfreiche Berechnungstools für deren Entwicklung. Die Informationen werden in einem kostenfreien Online-Portal in einer deutlich strukturierten und wissenschaftlichen Weise bereitstellt. Das E-Wiki ermöglicht eine effektive und schnelle Suche nach Informationen und unterstützt die Entwicklung umweltschonender und energieeffizienter Technologien. Die Förderung des Projekts erfolgt im Rahmen der Nationalen Klimaschutzinitiative durch das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Das Projekt wird durch das Institut für Kälte-, Klima- und Umwelttechnik (IKKU) an der Hochschule Karlsruhe unter der Leitung von Prof. Dr.Ing. Maurice Kettner durchgeführt. Projektpartner ist das Kompetenzzentrum Energie Karlsruhe (KZE). Das KZE wird hierbei durch das Unternehmen Alcion Ingenieure GmbH vertreten. Es unterstützt die Hochschule Karlsruhe sowohl bei der Auswahl von Hard- und Software als auch bei den Inhalten des E-Wikis. Zielgruppe Das E-Wiki stellt eine Plattform für diejenigen dar, die sich für das Thema „erneuerbare Energien und klimaschonende Technologien“ interessieren. Es soll sie in ihrer Fachkompetenz bei der Planung und Realisierung von energieeffizienten und nachhaltig klimaschonenden Systemen und Anlagen unterstützen. Das Projekt richtet sich gleichermaßen an Schüler, Privatpersonen, Ingenieure und Wissenschaftler in Forschungsinstituten, Universitäten und Unternehmen. Das E-Wiki stellt eine direkte Schnittstelle zwischen Akademikern, Unternehmen und Verbrauchern dar. Die Vorkenntnisse des jeweiligen Anwenders werden in den Artikeln berücksichtigt, indem man die Schwierigkeitsgrade „Einsteiger“, „Anwender“ und „Experte“ auswählen kann. Abb. 1: zielgerichtete Suche von Artikeln auf der E-Wiki-Plattform Forschung aktuell 2015 | 27 IT & Kommunikation Benutzergruppen und Zugriff auf die Plattform E-Wiki-Benutzer werden entsprechend ihren Rechten in verschiedene Gruppen unterteilt. Dadurch wird sichergestellt, dass Aktionen wie Freigabe von Benutzern und Artikeln nur durch dafür qualifizierte Personen durchgeführt werden. E-Wiki ist kostenlos und frei zugänglich. Nach der Anmeldung verfügen die Benutzer zunächst nur über eine Leseberechtigung auf den Content. Wenn sie einen eigenen Artikel erstellen oder vorhandene Artikel bearbeiten wollen, müssen sie erst von einem E-Wiki-Administrator als „Mitschreiber“ freigeschaltet werden. Alternativ gibt es die Möglichkeit, mit einem Gastkonto (Leseberechtigung) die EWiki-Plattform zu nutzen. Es kann mit den Zugangsdaten „Gastzugang“ für den Benutzernamen sowie dem Passwort „Hochschule“ genutzt werden. Strukturierung der Inhalte Die Artikel auf E-Wiki werden in zahlreiche Kategorien unterteilt. Alle beinhalten das Thema Energie und Energieeffizienz. Als Beispiele können „regenerative Energien“, „Kraft-Wärme-Kopplung“ oder „Kälte- und Wärmetechnik“ genannt werden. Abgesehen von der Betrachtung der Wissenstiefe werden die Artikel gemäß weiterer Kriterien sortiert. Die Bewertung durch die Benutzer der Plattform, die Aktualität, der Urheber und inhaltsbeschreibende Stichworte („Tags“) werden in einer Box in der Kopfzeile des Artikels angezeigt (s. Abb. 2). Sie können als Suchparameter in einem zielgerichteten Suchalgorithmus eingestellt werden (s. Abb. 1). Abb. 2: Vorlage eines Artikels in E-Wiki-Plattform 28 | Forschung aktuell 2015 Neben der Bereitstellung von Wissen in Form von Artikeln wird auch eine breite Vielfalt von Ressourcen zur Verfügung gestellt. Diese bestehen aus Broschüren, Videos, nützlichen Berechnungstools, Büchern, Fachvorträgen oder Artikeln aus Fachmagazinen. Ebenso findet man Informationsartikel über E-Wiki, das Erstellen von Artikeln im Mediawiki-Format und häufig gestellte Fragen (FAQ, Frequently Asked Questions). Sicherung der Artikelqualität Die wissenschaftliche Qualität jedes Artikels wird durch einen gründlichen Überprüfungsprozess durch einen Fachreferenten (mit Administratorrechten) gesichert. Wenn der Artikel fachlich richtig ist, wird dieser in E-Wiki freigegeben und als eine bestätigte Version angezeigt. Die Fachreferenten sind derzeit Professoren und Mitarbeiter der Hochschule Karlsruhe. In Zukunft werden diese Aufgaben auch von externen Fachreferenten übernommen. Bei Fragen, Problemen, Verbesserungsvorschlägen und Fehlermeldungen kann sich der Benutzer direkt per E-Mail oder mittels eines Kontaktformulars an die Administratoren wenden. Ausblick Parallel zur Optimierung der Plattform wird E-Wiki aktuell als ein fachdidaktisches Lehrtool an der Hochschule Karlsruhe eingeführt. Ziel ist die Vernetzung von Lehrressourcen, die sich mit dem Thema „Energieeffizienz“ befassen. Dadurch soll die selbständige wissenschaftliche Arbeit der Studierenden in den Vorlesungen der Masterstudiengänge gefördert werden. Sie können Energiewende. Innovativ. Machen » Die EnBW steht für Energie, Innovation und Kompetenz. Für unsere Kunden gestalten unsere Mitarbeiter schon heute die Energiewelt von morgen. Als eines der bedeutendsten Energieunternehmen in Deutschland werden wir viel bewegen. Wir treiben die Energiewende aktiv voran, bauen erneuerbare Energien aus, machen unsere Städte nachhaltiger und unsere Netze intelligenter. In dieser sich stark veränderten Energiewelt stellen wir auch weiterhin eine zuverlässige Versorgung sicher. Dazu brauchen wir Talente, die ihr Fachwissen und neue Impulse einbringen. Ob Praktikum, Abschlussarbeit oder Werkstudententätigkeit: Wir bieten Ihnen vielfältige Perspektiven und Freiraum für eigene Ideen. Machen Sie mit und entdecken Sie die Vielfalt der EnBW unter www.enbw.com/karriere Verfahrenstechnik Bei uns findest Du Deinen Traumberuf! www.opusmundi.de Hol‘ Dir die App! Nachrichtentechnik triebswirtschaft app.opusmundi.de Bauingenieurwesen IT & Kommunikation Themen selbstständig in Kleingruppen erarbeiten und diese in Form von Fachartikeln und Studien dokumentieren, die wiederum auf E-Wiki veröffentlicht werden. Die Plattform enthält auch aktuelle und zusätzliche Lehrmaterialien, Vorlesungsskripte, Lernkontrollen und Frageseiten. Zusätzlich wird an der Vermarktung und Verbreitung der Plattform gearbeitet. Eine Berichterstattung über E-Wiki erfolgt demnächst in Fachmagazinen und auf Webseiten. Damit erreicht E-Wiki die größtmögliche Anzahl von potenziellen Benutzern aus verschiedenen Bildungskreisen. Eine weitere Unterstützung von verschiedenen Forschungsinstitutionen, Hochschulen, Universitäten, Firmen und Partnern wird angestrebt. Sie mögen ihr Wissen, neueste Forschungsergebnisse oder Produktinformationen auf der Webseite veröffentlichen, „weil Wissen unendlich ist“. Abb. 3: Verteilung der Artikel in E-Wiki Abstract The E-Wiki online platform gathers information about state-of-the-art climate-friendly and energyefficient technologies. It focusses on a wide variety of users (from beginners to experts). It provides articles and other resources e.g. calculation tools, flyers and videos. The scientific quality of the content is guaranteed through a review process carried out by experts in the field. In addition, the subdivision of articles according to several categories and keywords enables fast and effective information research. Autoren Ing. Héctor Arruga, Daniel Burkard M.Sc. und Jan Zepp B.Eng Akademische Mitarbeiter am Institut für Kälte-, Klima- und Umwelttechnik (IKKU) und am Institut für Angewandte Forschung (IAF) Joachim Kaiser, Staatl.-gepr. Betriebswirt Mitarbeiter am Institut für Angewandte Forschung (IAF) Prof. Dr.-Ing. Maurice Kettner Professor an der Fakultät für Maschinenbau und Mechatronik Zusammenfassung Die E-Wiki-Online-Plattform sammelt den Stand der Technik und Wissenschaft klimaschonender und energieeffizienter Technologien. Die Unterteilung nach Wissenstiefe der Inhalte (Einsteiger bis Experte) wird den Ansprüchen einer breiten Anwenderschicht gerecht. Artikel, Ressourcen wie Berechnungstools, Broschüren und Videos werden bereitgestellt. Die wissenschaftliche Qualität der Inhalte wird von Fachexperten durch einen Überprüfungsprozess gesichert. Die Unterteilung der Artikel entsprechend verschiedener Kategorien und Stichworte ermöglicht eine schnelle und effektive Suche nach Informationen. Kontakt Prof. Dr.-Ing. Maurice Kettner Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Maschinenbau und Mechatronik Institut für Kälte-, Klima- und Umwelttechnik Moltkestraße 30 76133 Karlsruhe E-Mail: maurice.kettner@hs-karlsruhe.de Telefon: 0721 925-1845 oder -1422 30 | Forschung aktuell 2015 Jeder Erfolg hat seine Geschichte. Eine für alle(s). Absolventen/innen Studenten/innen Der Geschäftsbereich Automotive Aftermarket ist für das weltweite Aftermarket-Geschäft verantwortlich. In über 140 Ländern stellen wir unseren Kunden Kfz-Ersatzteile, technische Informationen sowie Diagnostics Hard-/Software/Services zur Verfügung. Von unserem Global Distribution Center in Karlsruhe aus steuern wir unsere weltweiten Aktivitäten. Ihre Einsatzbereiche: zen und Controlling Vertrieb Personal Marketing Logistik Praktikum Werksstudententätigkeit neeprogramm PreMaster Programm Direkteinstieg Jeder Erfolg hat seinen Anfang. Bewerben Sie sich jetzt. Robert Bosch GmbH Personalabteilung Karlsruhe Postfach 41 09 60, 76225 Karlsruhe Tel. 0721 942-2385 Clarissa.Carsten@de.bosch.com www.bosch-career.de Finan- Strategy Ihre Möglichkeiten: Trai- Für Karlsruhe. Natürlich. Die neue Käppsele-App der Stadtwerke. Damit haben Sie alles im Griff. News zu Karlsruhe Stadtmobil buchen Zählerstand eingeben, Tarife vergleichen Energie sparen und Klima schützen ... alles, was Zukunft hat. Hier downloaden! www.stadtwerke-karlsruhe.de IT & Kommunikation Kinder- und Jugendmedienschutz im Internet – eine empirische Studie zur Akzeptanz von Schutzmaßnahmen in den neuen Medien Melina Hillenbrand und Stefanie Regier Herausforderungen des Kinderschutzes im Internet Bereits schon sehr kleine Kinder entdecken das Internet für sich. Als „Digital Natives“ wachsen Kinder und Jugendliche heutzutage mit diesem Medium auf. Doch die reine Bedienkompetenz dieser Nutzergruppe geht noch lange nicht einher mit angemessener Medienkompetenz. Hier sind insbesondere die Eltern gefragt: Gewaltdarstellung, verstörende und beängstigende Inhalte, sexuelle Belästigung, „Abzocke“ und Betrug sind nur einige der von Eltern wahrgenommenen bzw. tatsächlich existierenden Risiken im Internet.[1] 93 % der in einer ZDF-Studie befragten Eltern sind der Meinung, dass Kinder und Jugendliche im Alter ihrer eigenen Kinder vor möglichen negativen Einflüssen der Medien geschützt werden sollten.[1] Demgegenüber steht allerdings die tatsächliche Nutzung von Schutzmaßnahmen, die Kinder und Jugendliche vor negativen Erlebnissen bewahren können: So setzen laut einer deutschen Studie lediglich 21–27 % der Eltern Jugendschutzsoftware bei der Internetnutzung ihrer Kinder ein.[2] Vor diesem Hintergrund stellt sich die Frage, was Eltern daran hindert, ihre Kinder vor den Risiken bestmöglich zu schützen und die im Rahmen des Jugendmedienschutzes zur Verfügung stehenden Schutzmaßnahmen wie z. B. Betriebssystem-Einstellungen, Softwarelösungen für Computer, Smartphones und Tablets oder spezielle Internetangebote für Kinder und Jugendliche als Schutzräume einzusetzen. Im Rahmen eines Forschungsprojekts an der Hochschule Karlsruhe wurde hierzu auf Basis aktueller Erkenntnisse ein Ursache-Wirkungsmodell aufgestellt, das die Einflussfaktoren auf die elterliche Akzeptanz von Schutzmaßnahmen zu erklären versucht. Darauf aufbauend soll eine empirische Untersuchung letztendlich in Handlungsempfehlungen zum Thema Kinder- und Jugendschutz im Internet münden. Studienkonzeption zur Akzeptanz von Kinder- und Jugendschutzmaßnahmen Auf Basis aktueller Forschungsergebnisse, insbesondere dem vom Hans-Bredow-Institut entwickelten hypothetischen Bezugssystem im Elternhaus [2] und bestehenden Theorien aus der Konsumentenverhaltens- und Technologieakzeptanzforschung, wurde das in Abbildung 1 dargestellte Untersuchungsmodell abgeleitet. 32 | Forschung aktuell 2015 Dieses soll Einflussfaktoren identifizieren, die die Akzeptanz von Kinderschutzmaßnahmen ausmachen. Markenvertrauen Wahrgenommene Bedienfreundlichkeit H7.1 Medienkompetenz der Eltern Wahrgenommene Wirksamkeit Wahrgenommener Schutzbedarf Einstellung Intention Informationsverhalten Geschlecht der Eltern Bildung der Eltern Alter der Kinder Anzahl der im Haushalt lebenden Kinder Abb. 1: Untersuchungsmodell In die empirische Überprüfung des Untersuchungsmodells flossen die vollständigen Daten von insgesamt 289 Probanden ein, die im Rahmen einer Online-Befragung an der Studie teilnahmen. Davon waren knapp 65 % Frauen und 35 % Männer. Das Untersuchungsmodell wurde anschließend kausal-analytisch mithilfe von SmartPLS ausgewertet, um die vermuteten Ursache-Wirkungsbeziehungen zu prüfen. Die dem aktuellen Standard entsprechenden Gütekriterien für die Kausalmodellierung deuten allesamt auf eine sehr gute Erklärungskraft des Modells hin. Erkenntnisse und Implikationen für die Praxis und Forschung Um die Nutzung von Schutzmaßnahmen durch die Eltern zu steigern ist es zunächst notwendig, eine möglichst positive Einstellung der Eltern gegenüber diesen zu generieren. Eine solche positive Einstellung wird im Wesentlichen durch die wahrgenommene Wirksamkeit der jeweiligen Schutzmaßnahme, das Markenvertrauen in den Anbieter der Schutzmaßnahme und den wahrgenommenen Schutzbedarf der Kinder determiniert. Während sich die Medienkompetenz einerseits positiv auf das Informationsverhalten der Eltern aus- IT & Kommunikation wirkt, sind negative Effekte dieser auf die wahrgenommene Wirksamkeit der Maßnahme, den wahrgenommenen Schutzbedarf sowie letztendlich die Einstellung festzustellen. Demgegenüber wirken sich das Informationsverhalten der Eltern sowie deren Medienkompetenz negativ auf die wahrgenommene Wirksamkeit und die Einstellung zur Schutzmaßnahme aus. Die Ergebnisse der Untersuchung implizieren eine Vielzahl an Handlungsempfehlungen für die Hersteller und Anbieter von Schutzmaßnahmen, aber auch für staatliche und private Institutionen, deren Aufgabengebiet den Kinder- und Jugendmedienschutz umfassen: 1. Es ist unabdingbar, dass Hersteller von Schutzmaßnahmen den Eltern Instrumente zur Verfügung stellen, die auch wirksam sind. Dass dies aktuell nicht der Fall ist, zeigen z. B. auch die Ergebnisse der SIP-Benchmark-Studie 2014.[3] Hier erhielt keine der getesteten Schutzmaßnahmen in der Kategorie „Wirksamkeit“ auch nur annähernd das Prädikat „hervorragend“, was einem Punktwert von 4 entspricht. Die Schutzmaßnahmen für PCs wurden im besten Fall mit einer 1,8, die für Smartphones und Tablets mit 1,5 bewertet. Es ist die Aufgabe der Anbieter, ihre Produkte im Hinblick auf Wirksamkeit zu optimieren und damit die vorhandene Skepsis der Eltern zu beseitigen. Daneben spielen die Aufklärung der Eltern und entsprechend die Vermittlung der Notwendigkeit von Schutzmaßnahmen eine wesentliche Rolle. 2. Sind optimierte und damit wirksamere Produkte verfügbar, wird zudem davon ausgegangen, dass sich die aktuell negativen Einflüsse der Medienkompetenz und des Informationsverhalten der Eltern auf die Einstellung in positive Einflüsse umwandeln würden. Denn wenn Eltern zufriedenstellende Bewertungen über Schutzmaßnahmen finden bzw. Eltern Kenntnis von wirkungsvollen Schutzmaßnahmen haben, wirkt sich dies auch positiv auf ihre Einstellung und damit auf die Nutzung aus. Die aktuell im Internet auffindbaren negativen Bewertungen im Hinblick auf Jugendschutzmaßnahmen vermitteln den Eltern ein entsprechend negatives Bild. Im Ergebnis wirken sich folglich das Informationsverhalten und die Medienkompetenz ebenfalls negativ auf die Einstellung der Eltern aus. Wenn Hersteller ihre Schutzmaßnahmen in Bezug auf die Wirksamkeit optimierten, so kann davon ausgegangen werden, dass sich in Zukunft auch positive Bewertungen zu den Schutzmaßnahmen im Internet finden lassen, die sich dann wiederum positiv auf die Einstellung der Eltern auswirken würden. 3. Daneben spielt bei der Meinungsbildung im Zusammenhang mit der Wirksamkeit von Schutzmaßnahmen das Markenvertrauen eine starke Rolle. Eltern setzen im Hinblick auf die Qualität von Schutzmaßnahmen auf Markenprodukte. Es sollten also gerade die marktführenden Hersteller in diesem Segment ihren Vertrauensvorsprung nutzen, um ihre Produkte am Markt zu positionieren und entsprechend Vertrauen in die Wirksamkeit zu schaffen. 4. Als weitere positive Determinante der Einstellung wurde der wahrgenommene Schutzbedarf identifiziert. Eltern, die sich der möglichen negativen Risiken des Internets bewusst sind, haben eine positivere Einstellung zu den Schutzmaßnahmen als Eltern, die sich damit nicht auseinandersetzen. Aus diesem Grund sollten Eltern auf diese möglichen negativen Risiken frühzeitig und effektiv aufmerksam gemacht werden. Dies kann im Rahmen von Kommunikationsmaßnahmen z. B. in Form von Informationskampagnen über mögliche negative Inhalte und Gefahren, aber auch zu konkreten Schutzmaßnahmen umgesetzt werden. Hierbei sollte unbedingt eine Marke oder eine staatliche Institution als Gütesiegel oder aber ein Testimonial zur Schaffung von Vertrauen eingesetzt werden. Die Informationen können bereits in Kindergärten und Schulen in Form von Kursen oder Seminaren verbreitet werden. Auch für weitere Forschungsarbeiten lassen sich anhand der gewonnenen Erkenntnisse Ansätze ableiten: • Die Intention mit einer Varianzaufklärung von 0,808 liefert zwar ein sehr gutes Ergebnis, allerdings lässt dieser Wert auch auf andere, noch nicht betrachtete Einflussgrößen schließen. Daher sollten weitere Studien sich mit diesem Thema beschäftigen und nicht identifizierte Determinanten ermitteln. • Auch sollte die wahrgenommene Wirksamkeit in zusätzlichen Studien genauer betrachtet werden. Es gilt zu klären, welche Aspekte und Produktfeatures für Eltern die Wahrnehmung der Wirksamkeit prägen, um anschließend auf Optimierungsmaßnahmen für das Produktangebot schließen zu können. • Zur Verbesserung der Wirksamkeit von Schutzmaßnahmen wird zudem empfohlen, auch die Hersteller und Anbieter von diesen in zukünftige Studien einzubeziehen. Die Studien sollten darauf abzielen, Schwierigkeiten und Hemmnisse bei der Entwicklung und Vermarktung von Schutzmaßnahmen seitens der Hersteller und Anbieter zu identifizieren. Forschung aktuell 2015 | 33 IT & Kommunikation • Des Weiteren gilt es zu klären, welche Gründe explizit die negativen Einflüsse des Informationsverhaltens und der Medienkompetenz der Eltern auf die Einstellung verursachen. Mit den gewonnenen Erkenntnissen kann anschließend z. B. das Informations- und Produktangebot erweitert und optimiert werden. Literatur [1] U. Hasebrink, H.-D. Schröder, G. Schuhmacher, Kinder- und Jugendmedienschutz: Herausforderungen durch Medienkonvergenz: Ergebnisse einer repräsentativen Elternbefragung, in: Jugendmedienschutz in der digitalen Generation. Fakten und Positionen aus der Wissenschaft und Praxis, herausgegeben von T. Bellut, 2012. [2] S. Dreyer, D. Hajok, U. Hasebrink, Jugendmedienschutz im Elternhaus: Kenntnisse, Erwartungen und Nutzung: Stand der Forschung, http://www. hans-bredow-institut.de/webfm_send/639, 2012. [3] SIP-Bench, Benchmarking of Parental Control Tools for the Online Protection of Children, http://www. sipbench.eu, 2014. Abstract The internet offers a broad range of possibilities for children, which can be entertaining, interactive and educational. However, using the internet also involves risks and challenges. Today only relatively few parents use technological assistance to protect their children from the potential negative influences of the internet. As part of a research project at the Karlsruhe University of Applied Sciences the acceptance factors of special protective measures for children using the internet were analyzed. The findings support recommendations on ways to improve parental awareness of how children can use the internet safely. Zusammenfassung Das Internet eröffnet Kindern eine große Bandbreite an Möglichkeiten, von Informationen und Interaktion bis hin zur Unterhaltung. Doch ebenso birgt es Risiken und Herausforderungen. Bislang schützen nur wenige Eltern ihre Kinder unter Zuhilfenahme von technischen Mitteln bei der Nutzung des Internets vor möglichen negativen Auswirkungen. Offensichtlich fehlt ein breites Bewusstsein um Schutzmaßnahmen in diesem Kontext. Im vorliegenden Artikel werden diejenigen Determinanten aufgezeigt, die die elterliche Akzeptanz von Schutzmaßnahmen beeinflussen. Die Forschungsresultate können einen wichtigen Beitrag zum Schutz von Kindern und Jugendlichen vor möglichen negativen Erfahrungen im Internet leisten. Autoren Melina Hillenbrand M.Sc. Absolventin der Wirtschaftsinformatik der Hochschule Karlsruhe und Angestellte der 1&1 Mail & Media GmbH, Karlsruhe Prof. Dr. Stefanie Regier Professorin für Marketing und Marktforschung an der Fakultät für Informatik und Wirtschaftsinformatik der Hochschule Karlsruhe Kontakt Prof. Dr. Stefanie Regier Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Informatik und Wirtschaftsinformatik Moltkestraße 30 76133 Karlsruhe E-Mail: stefanie.regier@hs-karlsruhe.de 34 | Forschung aktuell 2015 Bauwesen Entwicklung eines Instandhaltungsplans für die Hochbauten der Österreichischen Bundesbahn (ÖBB) Carolin Bahr, Gerhard Hofer, Markus Seper und Michael Walter Einführung Die ÖBB-Infrastruktur AG ist mit knapp 5 000 Hochbauten und einer Grundstücksfläche von ca. 197 Mio. Quadratmetern Eigentümerin eines der größten Immobilienportfolien in Österreich. Außergewöhnlich ist nicht nur der Umfang, sondern auch die Heterogenität des Portfolios. Die Hochbauten umfassen mehr als 50 unterschiedliche Gebäude- und Anlagenarten, angefangen von Betriebs- und Wohngebäuden bis hin zu Kläranlagen und Müllsammelplätzen. Instandhaltungsplan Im Rahmen des Projekts wird ein Instandhaltungsplan entwickelt, mit dessen Hilfe die Instandhaltungsverantwortlichen der Österreichischen Bundesbahn den Werterhalt sowie die verkehrs- und betriebssichere Verfügbarkeit der ÖBB-Hochbauten unter Berücksichtigung der Wirtschaftlichkeit sicherstellen können. Hierfür ist es notwendig eine strukturierte und dokumentierte Gesamtheit der Aufgaben zu erarbeiten, die zur Umsetzung der Instandhaltung notwendig sind. Diese umfassen neben der Festlegung von Inhalt und Umfang des Instandhaltungsbegriffs u. a. die • unterschiedlichen Instandhaltungsmaßnahmen • konkreten Instandhaltungstätigkeiten und deren Beschreibung • Zuständigkeiten mit den entsprechenden Personalqualifikationen • Instandhaltungsstrategie • Zyklen bzw. Intervalle Bei der Erarbeitung des Hochbau-Instandhaltungsplans wurde darauf geachtet, dass die Inhalte den spezifischen Anforderungen der ÖBB und deren Anlagen gerecht werden. Darüber hinaus wurde – soweit möglich – auf bestehende Normen und Richtlinien so- Abb. 1: links: Personenübergang; rechts oben: Wien, Prater Stern; rechts unten: Hauptbahnhof St. Pölten Forschung aktuell 2015 | 35 Bauwesen wie in der Praxis bereits etablierte Daten zurückgegriffen. So erfolgt die grundsätzliche Strukturierung des Tätigkeitskatalogs auf Basis der Baugliederung nach der ÖNORM 1801-1 „Bauprojekt- und Objektmanagement Teil 1: Objekterrichtung“ [1] und die Differenzierung der jeweiligen Instandhaltungsmaßnahmen wie z. B. Wartungs- oder Inspektionsmaßnahmen nach der ÖNORM EN 13306:2010 „Instandhaltung – Begriffe der Instandhaltung“ [2] und DIN 31051:2012 „Grundlagen der Instandhaltung“ [3]. Durch die Clusterung der Anlagen wird eine Optimierung des Instandhaltungsaufwands erreicht, da sich die Anzahl der zu betrachtenden Bauelemente im Tätigkeitskatalog sowie bei der Zustandsbewertung minimiert. Für jedes Cluster werden nur die Elemente betrachtet, die für die jeweils zugeordneten Anlagen relevant sind. So können z. B. bei der Betrachtung von Überdachungen (s. Abb. 2) technische Anlagen wie beispielsweise die Wärmeerzeugung unberücksichtigt bleiben, da sie in diesem Cluster nicht vorhanden sind. Clusterung Zur Strukturierung der zahlreichen Hochbauten der ÖBB-Infrastruktur AG wurden diese in vier Cluster eingeteilt: • baukonstruktive und technische Anlagen • vorwiegend baukonstruktive Anlagen (offen) • vorwiegend baukonstruktive Anlagen (geschlossen) • vorwiegend technische Anlagen Instandhaltungsmaßnahmen Der Instandhaltungsplan beinhaltet die planbaren Erhaltungsmaßnahmen der Wartung, Inspektion und Instandsetzung (vgl. Abb. 3). Die Beschreibung der Cluster ist in Tabelle 1 dargestellt. Darüber hinaus können Entstörungsmaßnahmen im Instandhaltungsplan dokumentiert werden. Dies ermöglicht eine Überprüfung, inwiefern die ursprünglich geplanten Erhaltungsmaßnahmen ausreichend sind. Fallen verstärkt Entstörungsmaßnahmen an, so könnten diese ein Hinweis auf mangelnde Wartungsoder Inspektionsmaßnahmen sein. Cluster Charakteristik Beschreibung Cluster 1 baukonstruktiv und technisch überdachte und umschlossene Anlagen aus Leicht- und Massivbau, die mit technischen Anlagen ausgestattet sind, z. B. Betriebs- und Wohngebäude sowie Hallen und Schuppen Cluster 2 vorwiegend baukonstruktiv (offen) waagrechte Flächen zum Aufenthalt und zur Begehung oder flach ansteigende Auffahrten zum Überwinden eines Höhenunterschieds, zum Teil auch leicht umschlossene (z. B. Zäune) oder gemauerte Nebenanlagen wie z. B. Rampen und Ladeeinrichtungen Cluster 3 vorwiegend baukonstruktiv (geschlossen) frei auf Stützen ruhende oder als Teil eines Gebäudes (ähnlich einem Vordach) als horizontale (zum Teil leicht geneigte) Fläche ausgeführte, nicht umschlossene Überdachung Cluster 4 vorwiegend technisch Tiefbauanlagen zur Bewirtschaftung und Versorgung wie z. B. Anlagen und Einrichtungen der Trink- und Nutzwasserversorgung Tab. 1: Beschreibung der Cluster Abb. 2: Beispiel Cluster 3 „Überdachungen“ – Anlagenarten mit den zu betrachtenden Elementen (nach ÖNORM B-1801-1) 36 | Forschung aktuell 2015 Bauwesen Abb. 3: Grundmaßnahmen der Instandhaltung – Übersicht und Zuordnung zu Erhaltungs- und Investitionsmaßnamen Art der Überprüfung, Fristen und Funktionsanforderungen Der Instandhaltungsplan sieht vier Arten der Überprüfung der Hochbauten vor: • augenscheinliche Sichtkontrolle vor Ort • periodische, handnahe Sichtkontrolle • weitergehende Überprüfung • Übernahme der Letztverantwortung Es wird jeweils der Umfang der Überprüfungsarten sowie deren Fristen und die dafür erforderlichen Funktionsanforderungen hinsichtlich der mindestens geforderten Ausbildung der verantwortlichen Personen beschrieben. Darüber hinaus können zusätzliche Kontrollen erforderlich sein, wenn bauliche oder bauphysikalische Veränderungen am Bauwerk vorgenommen werden. Auch Belastungsänderungen durch Umnutzungen, zusätzliche Lasten im Gebäude oder außergewöhnliche Ereignisse wie beispielsweise Extremwetter können Schäden am Gebäude hervorrufen und müssen daher durch zusätzliche Sichtkontrollen berücksichtigt werden. Darüber hinaus sind die Anlagen ca. drei bis fünf Monate vor Ablauf der Gewährleistungspflicht durch eine sachkundige Person zu überprüfen. Tätigkeitskatalog Ergänzend zum Instandhaltungsplan wurde ein Tätigkeitskatalog erarbeitet, der einen Überblick über die notwendigen Instandhaltungstätigkeiten in Form eines interaktiven Excel-Tools darstellt. Hierfür können in der Startregisterkarte zunächst die Grunddaten der betrachteten Anlage eingegeben und das entsprechende Cluster ausgewählt werden. Durch die Auswahl des Clusters werden in der Registerkarte die für die Betrachtung notwendigen und nach ÖNORM gegliederten Bauteile für die Bearbeitung angezeigt. Zu jedem Bauteil gibt es eine Kurzbeschreibung sowie eine Erläuterung der notwendigen Tätigkeit. Diese wird einer der Maßnahmenarten „Inspektion“, „Wartung“ oder „In- standsetzung“ zugeordnet und es wird abhängig von der Instandhaltungsstrategie ein Turnus für jede Tätigkeit vorgeschlagen. Ausblick Im nächsten Arbeitspaket wird die Österreichische Bundesbahn hinsichtlich der Zustandsbewertung ihrer baulichen und technischen Anlagen wissenschaftlich von der Hochschule Karlsruhe unterstützt. Hierfür werden zunächst bestehende Methoden und am Markt erhältliche Softwaretools analysiert. Darüber hinaus wird untersucht, inwiefern diese den spezifischen Anforderungen der ÖBB gerecht werden oder ggf. angepasst werden müssen. Ein Benchmarking der unterschiedlichen Verfahren sowie eine fundierte Ausarbeitung der Vor- und Nachteile wird Grundlage bei der Entscheidungsfindung und der Methodenwahl sein. Quellen [1] ÖNORM B 1801-1:2009-6: Bauprojekt- und Objektmanagement – Teil 1: Objekterrichtung, Österreichisches Normungsinstitut, Wien, 2009. [2] ÖNORM EN 13306:2010-10: Instandhaltung – Begriffe der Instandhaltung, Österreichisches Normungsinstitut, Wien, 2010. [3] DIN 31051:2012-09: Grundlagen der Instandhaltung, Deutsches Institut für Normung, Beuth Verlag, Berlin, 2012. [4] VDI 6200:2010 Standsicherheit von Bauwerken – Regelmäßige Überprüfung. Forschung aktuell 2015 | 37 Bauwesen Abstract The Austrian Federal Railways (ÖBB) is the owner of one of Austria’s largest real estate portfolios. In addition to the enormous scope of real estates and facilities, their diversity is also exceptional. In the context of this project a maintenance plan is being developed, by which the ÖBB can guarantee the continued value and reliability of their transport and operational facilities. In this context, the economic efficiency is also considered. Zusammenfassung Die Österreichische Bundesbahn (ÖBB) ist Eigentümerin eines der größten Immobilienportfolios in Österreich. Neben dem enormen Umfang an Immobilien ist auch die Vielfalt der Gebäudeund Anlagen außergewöhnlich. Im Rahmen des Projekts wird ein Instandhaltungsplan entwickelt, mit dem die ÖBB den Werterhalt sowie die verkehrs- und betriebssichere Verfügbarkeit ihrer Anlagen sicherstellen kann. Hierbei wird auch die Wirtschaftlichkeit berücksichtigt. Autoren Prof. Dr.-Ing. Carolin Bahr Professorin an der Fakultät für Architektur und Bauwesen der Hochschule Karlsruhe Dipl.-Ing. Gerhard Hofer Projektleiter Instandhaltungsplan Hochbau NEU, Streckenmanagement und Anlagenentwicklung bei der ÖBB-Infrastruktur AG, Innsbruck Dipl.-Ing. Markus Seper Fachexperte Hochbau, Integration Technik Center Anlagen, Streckenmanagement und Anlagenentwicklung bei der ÖBB-Infrastruktur AG, Wien Dr. techn. Dipl.-Ing. Michael Walter Leiter Integration Technik Center Anlagen, Streckenmanagement und Anlagenentwicklung bei der ÖBB-Infrastruktur AG, Wien Kontakt Prof. Dr.-Ing. Carolin Bahr Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Architektur und Bauwesen Moltkestraße 30 76133 Karlsruhe E-Mail: carolin.bahr@hs-karlsruhe.de Telefon: 0721 925-2730 38 | Forschung aktuell 2015 'VCBMMBSFOFOGàS8FMUNFJTUFSTDIBGUFO'PSTDIVOHTVOE-BCPSHFCÊVEF 'MVHIÊGFO&JOLBVGT[FOUSFO%JFCJH(SVQQFCFSÊUQMBOUVOECFUSFJCU JOUFSOBUJPOBMF(SPQSPKFLUF.JUGBTU.JUBSCFJUFSO(FTFMMTDIBGUFO VOE4UBOEPSUFOWFSFJOJHUCJHEJF7PS[àHFFJOFT'BNJMJFOCFUSJFCTNJU EFOFOFJOFTJOUFSOBUJPOBMPQFSJFSFOEFO6OUFSOFINFOT 7FSTUÊSLFO4JFFJOFEFSHSÚUFO*OHFOJFVSHFTFMMTDIBGUFO%FVUTDIMBOET 8JSTVDIFOEFVUTDIMBOEXFJU *OHFOJFVSFNX EFS'BDISJDIUVOHFO &MFLUSPUFDIOJL/BDISJDIUFOUFDIOJL7FSTPSHVOHTUFDIOJL&OFSHJFUFDIOJL +FU[UCFXFSCFO CJH(SVQQF,BUIBSJOB0UUJOHFS&ISNBOOTUSBF,BSMTSVIF PEFSLBSSJFSF!CJHHSVQQFDPN Bauwesen Nachhaltige Bauplanung mittelständischer Unternehmen Hermann Hütter Einleitung Systematische Nachhaltigkeitsbetrachtungen sollten zur Standardvorgehensweise in der Bauplanung gehören. Planungen, die ganzheitliche optimierte Investitions- und Folgekosten (Lebenszykluskostenansatz) sowie minimierte ökologische Auswirkungen der vorgesehenen Bauobjekte (Ökologie) sowie optimierte sozioökonomische Wirkungen aufweisen, sollten selbstverständlich sein. Gerade vor dem Hintergrund der aktuell geführten politischen Diskussionen zum Weltklima wäre dies ein wichtiger Mosaikstein in der globalen Betrachtung. Zertifizierungssysteme für Gebäude (beispielsweise die Deutsche Gesellschaft für Nachhaltiges Bauen – DGNB, das Bewertungssystem Nachhaltiges Bauen – BNB, die Leadership in Energy and Environmental Design – LEED oder die Building Research Establishment Environmental Assessment Method – BREEAM) stellen – jedes System auf seine Weise – eine Vergleichbarkeit der jeweils betrachteten Kriterien im Gegensatz zu klassifizierten Referenzobjekten her. Damit geht einher, dass ein gewisser Standard hergestellt und dokumentiert wird, der sich auf die Vermarktung der Gebäude (Vermietung, Kauf, Verkauf) positiv auswirken soll. Planungen großer Gebäude werden mehr und mehr an Vorgaben hinsichtlich der zu erreichenden Zertifizierungseinstufungen ausgerichtet. Damit besteht dort eine definierte Anforderung an Planung, Realisierung und Betrieb. Bei mittelständischen Unternehmen fehlen diese Vorgaben weitgehend. Im Forschungsprojekt „Anwenderzentrum“, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird, wurden für typische Projekte mittelständischer Planungs- und Bauträgerunternehmen Nachhaltigkeitsbetrachtungen durchgeführt. Über eine Erhebung und Modifikation der Planungsprozesse sollen die Nachhaltigkeitsbetrachtungen systematisch und nutzbringend eingebunden werden. Im Vordergrund stehen dabei die beiden Teilaspekte der Nachhaltigkeit, die Ökonomie (Life Cycle Costing – LCC, Lebenszykluskosten – LZK) und die Ökologie (Life Cycle Assessment – LCA). Grundlagen für die Berechnungen der Lebenszykluskosten sind dabei Kostenstrukturen der Investitionskosten nach DIN 276 sowie der Baufolgekosten nach DIN 18960. Die Betrachtungen zu den ökologischen Wirkungen beruhen auf den Angaben in Datenbanken.[1] Schwerpunkt der Betrachtungen liegt auf dem Hochbau; berücksichtigt wurden unter anderem Wohnen, Büro und Verwaltung als Neubau und im Bauen im Bestand. Im Folgenden wird ein kurzer Überblick über ausgewählte Ergebnisse und den möglichen Nutzen für mittelständische Planungs- und Bauträgerunternehmen gegeben sowie eine Erweiterung dieser Betrachtungen in Richtung Nachhaltigkeitsmanagement angeregt. Abb. 1: Nachhaltigkeitsbericht: Stammdaten (Ausschnitt) Werkzeuge Der Auswahl eines Softwaresystems zur Berechnung der Lebenszykluskosten und der ökologischen Wirkungen eines Bauprojekts ist eine intensive Marktrecherche vorangegangen. Es gibt wenige Tools, die sich dieser umfassenden Aufgabe eingehend widmen. Als leistungsstarkes Werkzeug, das beide Berechnungen in sich vereint, ist die Auswahl schließlich auf die LEGEP®-Software gefallen. Überlegungen, eigene Berechnungsprogramme im Rahmen des Forschungsprojekts zu entwickeln, wurden vor dem Hintergrund der Komplexität dieser Aufgabenstellung und der Ziele des Forschungsprojekts nicht weiter verfolgt. Projekte Eine größere Zahl an Projekten wurde umfangreichen Berechnungen und Optimierungen unterzogen. In allen Fällen konnte nachgewiesen werden, dass die sys- Forschung aktuell 2015 | 39 Bauwesen tematisch und vollständig durchgeführten Berechnungen im Ergebnis zu kostengünstigeren und ökologisch besseren Gebäuden führen. Bauteilaufbauten sowie ausgewählte Materialien sind dabei zwei wesentliche Stellschrauben zur Verbesserung. Meist können in der optimierten Auswahl von Bauteilen (bspw. Fassaden, Böden, Wände, Dächer) konkrete Verbesserungen erzielt werden, die sich nicht nur ökologisch positiv auswirken, sondern auch eine Reduzierung der Lebenszykluskosten zur Folge haben. In jedem Fall findet eine intensive Auseinandersetzung mit langfristigen Vorteilen und eine intensive Suche nach möglichen Optimierungen statt. Damit sollten Nachteile wie der in frühen Leistungsphasen entstehende Mehraufwand durch Vorteile und Zusatznutzen kompensierbar sein. Die Sicherheit der Softwareanwendung und die Stabilität der erzielten Ergebnisse sollten bei einer breiteren Anwendung noch verbessert werden, sodass zukünftig auch eine größere Anwenderzahl gute Ergebnisse erzielen kann. Ausschnitte aus dem im Forschungsprojekt entwickelten Nachhaltigkeitsbericht zeigen die Abbildungen für ein Wohngebäude. Die Berechnungen wurden weitgehend mit der LEGEP-Software durchgeführt. In Abbildung 1 sind die Stammdaten dargestellt. Neben den Kenndaten des Gebäudes können auch Informationen zur Anzahl der jeweils verwendeten Elemente in der Software LEGEP entnommen werden. Abbildung 2 gibt einen Auszug aus den ökologischen Betrachtungen der LEGEP-Software wieder. So sind die Materialanteile und deren Klassifizierung ausgewiesen, ökologische Wirkbilanzen (beispielhaft: Treibhauspotenzial und Ozonabbaupotenzial) dargestellt sowie die Energiebedarfe benannt. Abbildung 4 zeigt zum einen in der einzelnen Säule die Aufteilung der Investitions- und der Folgekosten auf Kostengruppen der DIN 276 bzw. der DIN 18960, zum anderen im Sinne des Nachhaltigkeitsmanagements den Vergleich mehrerer Berechnungen (bspw. für die Planungsstände A, B und C), die den Verlauf der Optimierungen transparent darstellen und dokumentieren. Prozesse Die Modellierung von Planungsprozessen wurde ergänzt um die notwendigen Prozessschritte für die Nachhaltigkeitsberechnungen. Einen Ausschnitt aus dem Modell der Leistungsphase „Entwurfsplanung“ zeigt Abbildung 3. Insgesamt ist aus den Modellen zu erkennen, dass in den frühen Leistungsphasen umfassender gearbeitet werden muss, beispielsweise muss das Gebäudemodell aufgebaut und fortgeschrieben werden. In den Folgephasen reduziert sich der Aufwand jedoch deutlich, da jeweils auf die 40 | Forschung aktuell 2015 Ökologie, Materialanteile Mineralisches Baumaterial 15.094.599 Andere Materialanteil in kg für Neubau und Instandsetzung Ökologie, Wirkbilanzen Betrachtungszeitraum 80 Jahre Treibhauspotenzial kg CO2-Äq Ozonschichtabbaupotenzial kg CFC11-Äq Ökologie, Energie- und Stofffluss Betrachtungszeitraum 80 Jahre Primärenergie erneuerbar in MJ ohne Entsorgung Primärenergie nicht erneuerbar in MJ ohne Entsorgung Abb. 2: Nachhaltigkeitsbericht – Ökologie (Ausschnitt) vorhandenen Datenstrukturen für weitere Leistungen aufgebaut werden kann. Bauwesen Altern. Lösungs-ansätze nach unterschiedl. Anforderungen untersuchen? LCC-Betrachtung? Standardzyklen wählen? Abb. 3: Prozessmodell (Ausschnitt) Nutzen Mittelständische Unternehmen können durch eine frühzeitige Integration der Betrachtungen in den transparenten und systematisch gesteuerten Prozessablauf erheblichen Nutzen generieren, der an mehreren Stellen noch gesteigert werden kann. Dies sind neben einer verbesserten Effizienz im Planungsprozess selbst insbesondere die Berechnung der Lebenszykluskosten und ökologischen Wirkungen sowie vollständige und belastbare Kostenermittlungen, konsistente Massen auch in der energetischen Betrachtung, Energieausweis, LV-Vorschlag inklusive Bepreisung etc. Nachhaltigkeitsmanagement Der Managementansatz wird in Anlehnung an Deming formuliert, der den sog. PDCA-Zyklus beschrieben und etabliert hat. Dieser sieht vor, dass mit den Elementen „Planung“, „Durchführung“, „Kontrolle“ und „Steuerung“ die vier wesentlichen Bausteine einer zielorientierten Vorgehensweise gegeben sind. So ist es möglich, die im Rahmen der Planung definierten Ziele bis zum Projektende auch einhalten zu können. Dieser Ansatz wird auf die Nachhaltigkeitsbetrachtungen im Bauplanungsprozess angewendet. Die Bauplanung selbst ist gegliedert in fünf Projektstufen (AHO – Ausschuss der Verbände und Kammern der Ingenieure und Architekten für die Honorarordnung e.V.) bzw. neun Leistungsphasen (HOAI – Honorarordnung für Architekten und Ingenieure), je nachdem, aus welcher Sicht die Betrachtungen erfolgen sol- len. Nachhaltigkeitsziele werden zu Beginn des Planungsprozesses über eine erste Bewertung der Projektidee definiert, was über eine grobe Modellierung des vorgesehenen Gebäudes bzw. der Varianten und Alternativen erfolgen kann. Ergänzend hierzu geben die Gebäudezertifikate DGNB bzw. BNB – bezogen auf Referenzgebäude – zu verschiedenen Kriterien Maximalwerte vor, die es im Rahmen der objektbezogenen Planung und Optimierung zu unterschreiten gilt. Für den Einstieg in ein umfassendes Nachhaltigkeitsmanagement sind die zu erreichenden Ziele also definierbar. Im Rahmen der Projektstufen „Planung“, die die Leistungsphasen „Vorplanung“, „Entwurfsplanung“ und „Genehmigungsplanung“ umfasst, sowie „Ausführungsvorbereitung“, die die Leistungsphasen „Ausführungsplanung“, „Vorbereiten der Vergabe“ und „Mitwirken bei der Vergabe“ umfasst, unterzieht das Nachhaltigkeitsmanagement die erzielten Zwischenergebnisse jeweils einer umfassenden Bewertung, wobei die einmal aufgebaute Gebäudemodellierung weiterverwendet und an den Planungsfortschritt angepasst wird. Die Ergebnisse werden im erweiterten Nachhaltigkeitsbericht dargestellt (s. Abb. 4) und mit den Projektzielen verglichen, Optimierungspotenziale werden aufgezeigt und als Empfehlung bzw. Vorgaben in die jeweils nächste Phase aufgenommen. Unterstützt wird dieses Vorgehen durch den im Forschungsprojekt „Anwenderzentrum“ entwickelten Nachhaltigkeitsbericht, der die nötige Transparenz hierfür bereitstellt. Forschung aktuell 2015 | 41 Bauwesen luskosten und ökologische Wirkungen systematisch und umfassend optimiert werden. Auch für die spätere Nutzung sind damit wichtige Grundlagen gelegt, da die zu erwartenden Bewirtschaftungskosten in den dargestellten Bereichen bereits während der Planung bekannt sind. Literatur [1] Ökobaudat, WECOBIS, www.nachhaltigesbauen.de Abstract Medium sized enterprises such as planning offices, project developers and construction companies, that design and construct buildings, can take advantage of the systematic consideration of sustainability aspects during the designing phases. The sustainability report has been developed for this purpose. For each work stage the important aspects of Life Cycle Costing (LCC) and Life Cycle Assessment (LCA) are transparently documented. This report can also be extended to a sustainability management system, to thoroughly optimize the planning and construction of a building. *DIN 276:2008 KG 330-340* Reinigung *DIN 18960:2008 Abb. 4: Erweiterung Nachhaltigkeitsbericht: Nachhaltigkeitsmanagement Fazit und Ausblick Mittelständische Unternehmen bewegen sich oft in einem fokussierten engen Marktsegment, haben spezielle Produkte und sind damit erfolgreich. Deshalb tun sie sich oft schwer damit, weitergehende Betrachtungen anzustellen, da der Aufwand hoch und der Nutzen gering eingeschätzt wird. Im Rahmen des Forschungsprojekts „Anwenderzentrum“ konnte gezeigt werden, dass – trotz der vorhandenen Einstiegshürde – mit umfassenden Berechnungen der Lebenszykluskosten und der ökologischen Wirkungen aufgelegter Planungen deutliche Optimierungen möglich sind. Dem späteren Nutzer bringt dies erhebliche monetäre Vorteile und der Umwelt geringere ökologische Auswirkungen. Wird die Methodik darüber hinaus so erweitert, dass Nachhaltigkeitsmanagement betrieben wird, kann nicht nur intern, sondern auch gegenüber den Kunden aufgezeigt werden, dass die erarbeiteten Planungen auch im Hinblick auf Lebenszyk- 42 | Forschung aktuell 2015 Zusammenfassung Mittelständische Bau- und Planungsunternehmen können systematische Nachhaltigkeitsbetrachtungen (LZK und LCA) für die selbst entwickelten und geplanten Bauprojekte einsetzen. Hierzu sind neben Methoden der Berechnung auch Hilfestellungen in Form eines Nachhaltigkeitsberichts erarbeitet worden, der eine transparente Darstellung der Ergebnisse unterstützt. Wird die Vorgehensweise so erweitert, dass Nachhaltigkeitsmanagement betrieben wird, ist eine systematische und transparente Optimierung zum Nutzen der Kunden und der Unternehmen möglich. Autor Prof. Dr.-Ing. Hermann Hütter Professor für Baumanagement an der Fakultät für Architektur und Bauwesen der Hochschule Karlsruhe Kontakt Prof. Dr.-Ing. Hermann Hütter Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Architektur und Bauwesen Moltkestraße 30 76133 Karlsruhe E-Mail: hermann.huetter@hs-karlsruhe.de Telefon: 0721 925-2718 Bauwesen TEAMS WORK. Weil Erfolg nur im Miteinander entstehen kann. Für jede Aufgabe die beste Lösung finden: dieses Credo ließ die Ed. Züblin AG zur Nummer 1 im deutschen Hoch- und Ingenieurbau aufsteigen. Möglich wird dies durch das Know-how und das Engagement unserer rund 14.000 Mitarbeiterinnen und Mitarbeiter, die als ein Team komplexe Bauvorhaben termin- und qualitätsgerecht realisieren. Ergreifen Sie die Initiative und steigen Sie bei uns ein: über unser Traineeprogramm, eine Ausbildung, ein Duales Studium, ein Praktikum oder direkt im gewünschten Job. Werden Sie ein Teil unseres Teams. Wenn wir gemeinsam an einem Strang ziehen, dann sind die Möglichkeiten grenzenlos – auch hinsichtlich Ihres persönlichen Karriereweges. www.zueblin.de Ed. Züblin AG, Human Resource Development Albstadtweg 3, 70567 Stuttgart Regionaler Standort: Direktion Karlsruhe Forschung aktuell 2015 | 43 Bauwesen Dauerhaftigkeit von Betonen mit rezyklierter Gesteinskörnung Sandra Lichtblau, Stefan Linsel und Fernando Martirena Wenn hohe Nachhaltigkeitseffekte erzielt werden sollen, ist der Einsatz erneuerbarer Ressourcen unumgänglich. Circa 80 % des Gewichts von Beton sind Zuschläge resp. Gesteinskörnungen, die zu den Betonstoffkosten weniger beitragen. Die Gewinnung geeigneter Gesteinskörnungen zur Einführung in den Beton ist eine Herausforderung der Zukunft, da weltweit der Bedarf an Betonstrukturen im öffentlichen und privaten Baubereich weiterhin deutlich zunimmt. Allerdings ist die Gewinnung von Gesteinskörnungen aus Steinbrüchen grundsätzlich begrenzt. Das Centro de Investigación y Desarrollo de las Estructuras y los Materiales (CIDEM) an der Universidad Central de las Villas (Cuba), der Studiengang Bauingenieurwesen der Fakultät für Architektur und Bauwesen und die Öffentliche Baustoffprüfstelle der Hochschule Karlsruhe – Technik und Wirtschaft erarbeiten daher Möglichkeiten, Recyclingbeton für die Produktion von Gesteinskörnung zu verwenden und möglichst auszuschöpfen. Zielsetzung ist u. a. Betone mit Zuführung von rezyklierten Gesteinskörnungen zu entwickeln, die wie übliche Normalbetone zielsicher für Beton- und Stahlbetonkonstruktionen eingesetzt werden können. Im Folgenden sollen hier einige Teilergebnisse einer Studie aufgezeigt werden, die durch studentische Mitwirkung im Forschungsteam auf Cuba realisiert wurden. Der Einfluss des Feinanteils rezyklierter Gesteinskörnung auf die Betoneigenschaften wurde bereits zuvor in umfangreichen Forschungsarbeiten ermittelt. Während der Aufbereitung des zu betrachtenden rezyklierten Materials wird 5 bis 7 % des Gewichts als feines Material gebildet. Damit verändert sich der Wasserbedarf und das sich ausbildende Porengefüge des Betons, was maßgeblich die Druckfestigkeiten und Dauerhaftigkeiten damit hergestellter Betonstrukturen beeinflusst. Eine Möglichkeit besteht darin das rezyklierte Material vorab zu waschen, um die Feinanteile zu reduzieren, wenngleich bei diesem Vorgang meist zu entsorgender Schlamm anfällt. In Nebenarbeiten werden derzeit Möglichkeiten der betontechnologischen Wiederverwendung des anfallenden Schlamms erarbeitet. Das rezyklierte Material besitzt im Kontaktzonenbereich zahlreiche porige Partikel, die die Gesamtporosität erhöhen. Mechanische Eigenschaften sowie die Dauerhaftigkeit werden dadurch direkt beeinflusst. In Abbildung 1 ist beispielhaft eine elektronenrastermikroskopische Aufnahme dargestellt. 44 | Forschung aktuell 2015 Abb. 1: mikroskopische Aufnahme rezykliertem Materials Im Rahmen des laufenden Forschungsprojekts wurden in einem Teilabschnitt Einflüsse der rezyklierten Gesteinskörnung auf die Dauerhaftigkeit damit hergestellter Betone untersucht. Primär sind dabei Carbonatisierungs- und Chlorideindringvorgänge sowie Formänderungsvorgänge wichtig. Praxisverwertbare und damit belastbare Versuchsvorgänge hierfür benötigen längere Zeiten und finden momentan noch in den Laboratorien auf Cuba und an der Öffentlichen Baustoffprüfstelle der Hochschule Karlsruhe statt. Im Vorfeld des Projekts wurden Trocknungsschwindvorgänge, die auch zu Mikrorissbildungen führen, betrachtet, da diese in eine Bewertung und in ein Bemessungskonzept zur Dauerhaftigkeit einfließen müssen. Trocknungsschwindvorgänge werden maßgebend durch Änderungen der Temperatur und der relativen Luftfeuchte beeinflusst, wobei zwischen inneren und äußeren Einflussfaktoren unterschieden wird. Erstere werden u. a. durch Zementart und -gehalt, Wasser-Zement-Wert sowie Eigenschaften und Zusammensetzung der Gesteinskörnung gebildet. Äußere Einflussfaktoren wiederum sind insbesondere Umgebungsbedingungen wie Lufttemperatur, relative Feuchte und Bauteilabmessungen. Hier sollen erste Ergebnisse – ermittelt an drei differierenden Betonen in den Laboratorien der Partner auf Cuba – dargestellt werden, die sich nur in Art und Proportion natürlicher zu rezyklierter Gesteinskörnung unterscheiden. Damit soll hier ein Vergleich der Einflüsse rezyklierter Gesteinskörnungen erarbeitet werden, um u. a. die Übertragbarkeit von Dauerhaftigkeitsprogno- Bauwesen tische Sicherstellung üblicher Druckfestigkeitswerte für den Hoch- und Ingenieurbau erlauben (s. Abb. 3). Dabei unterscheiden sich die dargestellten Betonzusammensetzungen wie folgt: • M2 = Beton mit 50 % rezyklierter Gesteinskörnung • M3 = Beton mit 100 % rezyklierter Gesteinskörnung Druckfestigkeiten in N/mm2 semodellen, die für Normalbetone entwickelt wurden, auf Betone mit rezyklierter Gesteinskörnung zu prüfen. Die Betonzusammensetzungen wurden zur Erzielung optimierter Packungsdichten unter Hinzunahme von theoretischen und rheologischen Modellen, die sich in der Praxis bewährt haben, festgelegt. Es wurden zylindrische Probekörper (Durchmesser = 100 mm und Länge = 200 mm) für die Bestimmung der Druckfestigkeiten und Absorptionskennwerte hergestellt. Prismen der Abmessungen Länge x Breite x Höhe = 75 mm x 75 mm x 280 mm wurden für die Bestimmung des Schwindverhaltens angefertigt (vgl. Abb. 2). Die Probekörper wurden zwei Umgebungsbedingungen ausgesetzt: (a) heiß-feucht: Temperatur 60 °C und rel. Feuchtigkeit 90 % (b) kühl-trocken: Temperatur 23 °C und rel. Feuchtigkeit 50 % 35 30 25 20 15 10 5 0 7 Tage M3 M2 28 Tage Abb. 3: Druckfestigkeit geprüfter Betone in einem Betonalter von 7 und 28 Tagen In Abbildung 4 sind Messergebnisse des Dehnverhaltens der Betonprismen dargestellt, die feucht-trockenen Zyklen unterworfen wurden, womit das Schwinden durch Trocknen (Trocknungsschwinden) simuliert wird. Neben den Betonen M2 und M3 ist ein weiterer Beton M1 als Normalbeton, d. h. mit üblicher Gesteinskörnung, dargestellt. Die Ordinatenachse stellt die Verformungseigenschaften dar, die der Beton durch einen definierten Feucht-Trocken-Zyklus erhalten hat. Der Beton mit 100 % rezyklierter Gesteinskörnung weist u. a. aufgrund der eingetragenen erhöhten Porositäten die größten Verformungen auf. In aktuellen, auch digitalmikroskopischen Untersuchungen werden derzeit qualitative Materialkennwerte erarbeitet. Die Ergebnisse stimmen sehr gut mit denen der Druckfestigkeitsmessungen überein. Je höher der Gehalt an rezykliertem Material ist, desto höher ist auch das Schwinden durch Trocknen (Trocknungsschwinden) -0,08 -0,07 -0,06 -0,05 Abb. 2: Probekörper für Schwindmessungen -0,04 -0,03 Deformation (%) Die Druckfestigkeiten werden durch die Zugabe von rezyklierter Gesteinskörnung beeinflusst. Diese können sogar, in Abhängigkeit von der Art der verwendeten rezyklierten Gesteinskörnung, bei einem Einsatz von 100 % Recyclingmaterial bis zur Hälfte reduziert werden. Umfangreiche Untersuchungen im Forschungsvorhaben zeigen auf, dass bei geschickter Festlegung der gesamten Betonbestandteile bei einer Verwendung von 50 % Gesteinskörnung als Recyclingmaterial Betonfestigkeiten eingestellt werden können, die auch eine bauprak- -0,02 -0,01 0 0,01 0,02 28 30 Zeit (Tagen) 32 34 36 38 M1 40 42 M2 44 M3 Abb. 4: Schwindverhalten einzelner Probenserien bei definiertem Klimaszenario Forschung aktuell 2015 | 45 Bauwesen sowie die Porosität des Materials. Die Schwindmaße der Betone, die aus 100 % rezykliertem Material hergestellt wurden, sind im vorliegenden Betrachtungsfall größer als jene eines üblichen Normalbetons. Mit einem speziell entwickelten Granulationsverfahren kann Recyclingmaterial veredelt werden, indem eine dünne Zementleimschicht die Oberflächen nicht nur homogenisiert, sondern auch dichtet. In Abbildung 5 sind umhüllte Recyclingmaterialkörner und deren – auch augenscheinlich – homogene Strukturen zu erkennen. Erste Tastversuchsergebnisse auch zum Trocknungsschwindverhalten mit diesem Verfahren hergestellter Betone zeigen – auch unter Einbezug des Schwingverhaltens – deutlich größere Vergleichbarkeiten bei den Materialkennwerte zwischen Beton mit rezyklierter Gesteinskörnung und üblicher Gesteinskörnung. Mit den im Weiteren zu definierenden und erarbeitenden Materialkennwerten sollen für die planerische Praxis ausreichend sichere Daten zur Verfügung gestellt werden, damit Bauwerksdaten für die Trag- und Gebrauchs- Abstract Ensuring the durability of a building is a major contribution to efficient construction both economically and in terms of conservation of resources. This is especially applicable to engineering projects where concrete structures are subjected to unusual loads. These days research projects focus on the development of appropriate prediction models in order to define the best concrete mixtures that ensure sufficient durability. Using recycled aggregate has a very positive influence on the ecology of a building. With regard to the latest state of technology, there are several outstanding issues to be resolved in order to also provide reliable data concerning durability when using recycled aggregate. Zusammenfassung Die Sicherstellung dauerhafter Bauwerke ist ein wichtiger Beitrag für kapital- und ressourcenschonendes Bauen. Dies gilt insbesondere im Bereich des Ingenieurbaus, wo Betonbauwerke besonderer Belastung ausgesetzt sind. Die Entwicklung geeigneter Vorhersagemodelle zur Festlegung optimaler Betonzusammensetzungen für die Sicherstellung genügender Dauerhaftigkeiten ist Bestandteil zahlreicher heutiger Forschungsvorhaben im Bauwesen. Mit dem Einsatz rezyklierter Gesteinskörnung kann 46 | Forschung aktuell 2015 Abb. 5: durch Umhüllungsprozesse veredelte rezyklierte Gesteinskörnung fähigkeitsnachweise sowie für die Dauerhaftigkeitsbemessung auch mit abweichenden Zugabemengen an Recyclingmaterial positioniert werden können. Bzgl. der Dauerhaftigkeit werden derzeit die oben erwähnten Chlorideindring- und Carbonatisierungsversuche durchgeführt, deren Ergebnisse in Kürze vorliegen werden. vor allem die Ökologie der Bauwerke besonders positiv beeinflusst werden. Hierzu sind jedoch nach aktuellem Stand der Technik mehrere offene Fragenstellungen zu bearbeiten, wenn mit dem Einsatz rezyklierter Gesteinskörnung ebenso zielsicher Dauerhaftigkeitsaspekte angegeben werden sollen. Autoren Sandra Lichtblau M.Eng. Studentische Hilfskraft an der Öffentlichen Baustoffprüfstelle der Hochschule Karlsruhe Prof. Dr. Stefan Linsel Professor an der Fakultät für Architektur und Bauwesen der Hochschule Karlsruhe Prof. Dr. Sc. Ing. Fernando Martirena Direktor des Centro de Investigación y Desarrollo de las Estructuras y los Materiales (CIDEM) an der Facultad de Construcciones der Universidad Central de las Villas (Cuba) Kontakt Prof. Dr. Stefan Linsel Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Architektur und Bauwesen Moltkestraße 30 76133 Karlsruhe E-Mail: stefan.linsel@hs-karlsruhe.de ThyssenKrupp Headquarter Essen, DGNB-Zertifikat Gold Bauwesen GANZHEITLICHE LÖSUNGEN FÜR IHREN ERFOLG –––––– Energetisch optimiert und wirtschaftlich effizient: Nachhaltige Immobilien entstehen aus ganzheitlichen Lösungen für Energiekonzepte, aus dem optimalen Zusammenspiel von Gebäudehülle, Technikkonzept und erneuerbaren Energien. Schont die Ressourcen, erhöht die Nutzerqualität, bietet Sicherheit für Ihre Investition. Über den gesamten Lebenszyklus hinweg. Mit Brief und Siegel und mit Bilfinger. –––––– BILFINGER HOCHBAU www.hochbau.bilfinger.com Heberger System-Bau GmbH Altreutweg 15 68809 Neulußheim Telefon 0 62 05/3 99-0 Telefax 0 62 05/3 99-2 00 Kompetenz am Bau: - System- und Industriebau - Betonfertigteile - Lärmschutzsysteme - Parkhausbau hebau.system-bau@heberger.de www.heberger.de Forschung aktuell 2015 | 47 Umweltschutztechnik Energieeffiziente Stadtentwicklungsplanung für die Altstadt Biberachs im Spannungsfeld von CO2-Reduktion und Denkmalschutz Robert Blaszczyk und Christoph Hupfer Einleitung Die Reduktion der CO2-Emissionen hat sich im umweltpolitischen Handeln zur größten Herausforderung unserer Zeit entwickelt. Es ist unbestritten, dass der Ausstoß von Treibhausgasen Einfluss auf die Erderwärmung und den damit einhergehenden Klimawandel hat. Mit passiven Maßnahmen, beispielsweise dem Aufbringen einer Wärmedämmung auf die Außenwände eines Hauses, lassen sich CO2-Emissionen reduzieren. Aber auch aktive Maßnahmen wie eine CO2-neutrale Energiegewinnung tragen zur Reduktion des Ausstoßes von Treibhausgasen bei. In denkmalgeschütztem Bestand greifen diese Ansätze jedoch nicht. Daher stellt sich die Frage: Gibt es andere Wege und Möglichkeiten, um in historischen Altstädten CO2-Emissionnen zu reduzieren, und welchen Beitrag kann die Mobilitätsforschung hierzu leisten? Im interdisziplinären Forschungsprojekt „eCO2centric“ wurde am Beispiel der Altstadt von Biberach untersucht, welche Veränderungsbedarfe und Handlungsoptionen einer ökologisch nachhaltigen Stadtentwicklung sinnvoll und realisierbar sind. Von wissenschaftlicher Seite waren die Fachbereiche Energie, Klima, Denkmalschutz sowie Stadt- und Verkehrsplanung beteiligt. Zu- Modal Split (Wege) (Haushaltsbefragungen Stadt Biberach) 40 23 11 Modal Split – Verkehrsleistung pro Person verkehrsmittelabhängige CO2-Faktoren (feste Größe) CO2-Emissionen pro Person nach Stadtteilen w Pk .. Bu s 20 durchschnittliche Weglänge nach Verkehrsmitteln Untersuchungsgebiet Die Stadt Biberach ist ein Mittelzentrum mit ca. 31 000 Einwohnern und teilt sich – neben der Kernstadt – in weitere vier Stadtteile auf. Die Altstadt bildet das Zentrum von Biberach und 1 886 Bewohner haben dort ihren Wohnsitz. Neben der Wohnnutzung ist die Altstadt das Ziel zahlreicher Aktivitäten. Sie bietet attraktive Aufenthalts- und Einkaufsmöglichkeiten, aber auch vielfache Gastronomie- und Dienstleistungsangebote haben dort ihren Sitz. Biberach ist eine ehemalige Reichsstadt und geht auf das 11. Jahrhundert zurück. Das Stadtbild wird von mittelalterlicher Architektur geprägt. Der Verlauf der ehemaligen Stadtmauer ist auch heute noch als kla- Pk Fu ß Ra d 3 Wege pro Person sätzlich waren die Stadt Biberach und die Stadtwerke als Industriepartner vertreten. Eine besondere Herausforderung bestand darin, die komplexe Gemengelage an unterschiedlichen Interessen, Informationen und Daten so zu analysieren und aufzubereiten, dass sie eine belastbare Entscheidungsgrundlage für die Haftungsträger darstellt. Die Projektabwicklung wurde in drei Meilensteinen zusammengefasst und beinhaltete die Bestandsaufnahme im Ist-Zustand, das Abgrenzen von Potenzialen sowie die Entwicklung von Maßnahmen und deren Bündelung zu Szenarien. Modal Split (Wege) (Haushaltsbefragungen Stadt Biberach) 40 23 11 (MiD 2008 nach Verkehrsmitteln, Kreistyp/Stadtgröße) Modal Split – Verkehrsleistung pro Person verkehrsmittelabhängige CO2-Faktoren (feste Größe) Modal Split – Verkehrsaufkommen nach Altersgruppen und Kreistyp Einteilung Stadt Biberach in Kreistypen durchschnittliche Weglänge (MiD 2008 nach Verkehrsmitteln, Altersgruppen und Kreistyp) Modal Split – Verkehrsaufkommen nach Verkehrsmitteln, Altersgruppen und Kreistyp verkehrsmittelabhängige CO2-Faktoren (feste Größe) Abb. 1: Darstellung der unterschiedlichen Vorgehensweisen zur Bilanzierung der CO2-Emissionen 48 CO2-Emissionen pro Person nach Stadtteilen w Pk .. Bu s 20 (Haushaltsbefragungen Stadt Biberach) durchschnittliche Weglänge Pk Fu ß Ra d 3 Wege pro Person | Forschung aktuell 2015 CO2-Emissionen pro Altersgruppen und Kreistyp Umweltschutztechnik re Grenze der Altstadt erkennbar. Ihr Verlauf entspricht zu einem großen Teil dem heutigen Straßenring, der die Altstadt umkreist. Jedoch weist dieser eine starke Trennwirkung zwischen der Altstadt und dem Rest der Stadt auf. CO2-Emissionen im Ist-Zustand Für die Ermittlung der CO2-Emissionen im Quellverkehr wurde ein System aufgebaut, das eine datenbestandsabhängige Bilanzierung der Emissionen sichert. Durch die Möglichkeit, Eingangselemente individuell auszutauschen, können sowohl lokale Befragungswerte als auch Durchschnittswerte aus deutschlandweiten Erhebungen für die Ermittlung der Emissionsmenge angewendet und/oder kombiniert werden. Mit zunehmender Genauigkeit der Eingangsgrößen steigt auch die Genauigkeit der bilanzierten Emissionen. Die für eine CO2-Bilanzierung erforderlichen Mobilitätskenngrößen wurden vor allem aus den im Jahr 2002 in Biberach durchgeführten Haushaltsbefragungen abgeleitet. Lediglich bei der Kenngröße zur durchschnittlichen Weglänge wurde auf Werte des MiD2008 zurückgegriffen.[1] Neben den Quellverkehren wurden auch Altstadt-Zielverkehre bilanziert. Hierzu gehören Freizeitaktivitäten wie Einkaufen, private Besuche, Gastronomieaufenthalte, aber auch Pendlerfahrten, Bring- und Holverkehre oder Wirtschaftsverkehre. Auf Basis der vorhandenen Daten wurde für einen Altstadtbewohner eine durchschnittliche Emissionsmenge von 1,6 Tonnen CO2 infolge seiner Mobilitätsbedürfnisse ermittelt. Bei 1 886 Bewohnern wurden insgesamt 2 942 Tonnen CO2 im Jahr emittiert. Für die Zielverkehre (Besucher der Altstadt infolge einer Aktivität) wurde eine Emissionsgröße von rund 2 392 Tonnen CO2 errechnet. Potenziale zur CO2-Reduzierung in der Mobilität Für die Potenzialbetrachtung wurden das Verkehrsverhalten der Altstadtbewohner sowie die Altstadt-Zielverkehre analysiert. Erwartungsgemäß ist zu beobachten, dass mit zunehmender Entfernung zur Altstadt der Anteil der Fuß- und Radwege sinkt: Während die Altstadtbewohner durchschnittlich 55 % aller Wege zu Fuß oder mit dem Rad zurücklegten, lag dieser Anteil in den angrenzenden Gebieten bei 44 %, in nicht angrenzenden Gebieten bei 23 %. Da sich die ÖPNV-Nutzung unabhängig von der Entfernung zur Altstadt im Bereich von etwa 6 % bewegt, steigt entsprechend mit zunehmender Entfernung der Anteil der Pkw-Fahrten. Besonders auffällig ist die Verkehrsmittelwahl für die in die Altstadt führenden Wege mit einer Entfernung von bis zu zwei Kilometern: 50 % dieser „kurzen“ Wege wurden mit dem Pkw zurückgelegt; der Radanteil lag bei lediglich 11 %, obwohl diese Weglängen typische Radfahrerstrecken sind. Neben dem Individualverkehr wurde im weiteren Verlauf auch das ÖPNV-Angebot sowie die Radinfrastruktur detailliert analysiert, um Veränderungspotenziale aufzudecken. Abb. 2: Darstellung der Flächen, die vom Zentrum der Altstadt zu Fuß innerhalb von fünf, zehn und 15 Minuten erreicht werden können Szenarien Grundsätzlich stellt sich zunächst die Frage, an welchen Punkten es möglich ist, CO2-Emissionen im Mobilitätsbereich zu reduzieren. Der Gedanke, die Verkehrsmittelwahl zugunsten des Umweltverbunds (ÖPNV, Radfahrer und Fußgänger) zu beeinflussen, liegt nahe. Jedoch sind Verhaltensänderungen im Bereich der Mobilität schwer durchzusetzen. Nur mit sogenannten Push-and-pull-Maßnahmen, der Attraktivitätssteigerung eines Verkehrsmittels (zumeist des Umweltverbunds) bei gleichzeitiger Attraktivitätsminderung eines anderen Verkehrsmittels (zumeist des motorisierten Individualverkehrs), lässt sich die Verkehrsmittelwahl beeinflussen. Beispielsweise würde die Senkung des Parkplatzangebots bei gleichzeitiger Verbesserung des ÖPNV-Angebots auf eine verstärkte Nutzung des öffentlichen Verkehrs abzielen. In der Biberacher Altstadt wurden konsequente CO2reduzierende Maßnahmen in drei ganzheitlichen, interdisziplinären Szenarien erarbeitet, ohne die Erreichbarkeit negativ zu beeinflussen. Die Szenarien bauen stufenartig aufeinander auf. Mit zunehmender Intensität der Maßnahmen steigt auch das Potenzial der CO2-Ersparnis. Im Bereich der Mobilität zielen die Szenarien darauf ab, die Biberacher Altstadt vor allem für Fußgänger und Radfahrer attraktiver und sicherer zu gestalten und so deren Anteil am Modal Split zu erhöhen. Grundsätzlich soll dies durch eine Reduzierung von Wartezeiten, der Minimierung von Umwegen und einer Bewusstseinsstärkung für Verkehrsmittel des Umweltverbunds erfolgen. Die Einführung eines Fußgängerleitsystems soll die Orientierung und das Forschung aktuell 2015 | 49 Umweltschutztechnik Gefühl für kurze fußgängertaugliche Weglängen verstärken. Szenario 1 – Füße als Verkehrsmittel Im ersten Szenario liegt der Fokus verstärkt auf den Fußgängerwegen innerhalb der Altstadt. Aufgrund der kurzen Entfernungen (aus dem Zentrum der Altstadt erreicht man jedes weitere Ziel innerhalb der Altstadt in maximal fünf Minuten) sollen diese Wege vorwiegend zu Fuß zurückgelegt werden. Mit einer Begrenzung der Parkierungsdauer auf 30 Minuten bei gleichzeitiger Reduzierung des Stellplatzangebots ist eine Einfahrt in die Altstadt lediglich für kurze Erledigungen möglich. Durch die kürzere Parkierungsdauer kann ein Stellplatz häufiger genutzt werden; daher kann auch eine geringere Kapazität an Stellplätzen vorgehalten werden. Für längere Aufenthalte sind die Parkierungsanlagen am Altstadtring zu benutzen. Die gewonnenen Parkierungsflächen werden städtebaulich in ansprechende Aufenthaltsflächen umgestaltet und das Zu-Fuß-Gehen attraktiver gemacht. Szenario 2 – Wege in die Altstadt zu Fuß, mit dem Rad oder dem ÖPNV Aufbauend auf dem ersten liegt im zweiten Szenario der Fokus auf den Wegen zur Altstadt. Hier sollen Bewohner animiert werden, die Wege in die Altstadt verstärkt mit umweltverträglichen Verkehrsmitteln zurückzulegen. Kurze Wege von und zu angrenzenden Wohngebieten sollen zu Fuß, mittlere Wege mit dem Rad oder dem ÖPNV beschritten werden. Durch eine gegenüber Szenario 1 strengere Einfahrtsbeschränkung in die Altstadt (Einfahrt nur noch für notwendige Verkehre wie Beladen und Anliefern, Dienstleistungen und Arztbesuche sowie für Anwohner) ist demgegenüber die Nutzung umweltfreundlicher Verkehrsmittel deutlich attraktiver, da diese in die Altstadt einfahren können und somit die Verkehrsteilnehmer näher an ihr Ziel bringen. Des Weiteren soll die zerschneidende Wirkung des Straßenrings reduziert werden. Durch eine Minimierung der Wartezeiten sowie die Einrichtung komfortabler und sicherer Querungsmöglichkeiten sollen Umwege reduziert und der Weg in die Altstadt attraktiver werden. Für den Individualverkehr wird die Fahrt entlang des Rings unattraktiver. Die Schaltung der Lichtsignalanlagen wird nicht für den Individualverkehr entlang des Rings koordiniert, sondern entsprechend der Bedürfnisse der Verkehrsteilnehmer des Umweltverbunds quer zum Ring. Szenario 3 – CO2 minimal Im dritten Szenario soll die maximal mögliche Menge an CO2 eingespart werden. Hierzu dürfen neben Anwohnern nur noch Fahrzeuge ohne einen Verbren- 50 | Forschung aktuell 2015 nungsmotor in die Altstadt einfahren. Der Effekt aus den Szenarien 1 und 2 wird so nochmal verstärkt. Die dann frei werdenden Flächen werden ebenfalls zugunsten von Aufenthaltsqualität umverteilt. Einsparpotenzial CO2 Für die Ermittlung der CO2-Einsparpotenziale, die sich aus den beschriebenen Szenarien ergeben, wurden entsprechend der Maßnahmen Annahmen getroffen, die eine Verlagerung der Wege von Pkw auf Verkehrsmittel des Umweltverbunds beschreiben. Die CO2Einsparung beträgt im ersten Szenario rund 11 %, im zweiten ca. 17 % und im dritten 22 %. Fazit Die Projektergebnisse zeigen, dass gerade in den kompakten Altstadtstrukturen großes Potenzial in der Nahmobilität liegt. Kurze und mittlere Strecken werden heute zu einem großen Teil mit dem Pkw zurückgelegt, weil die Infrastruktur darauf ausgelegt ist und dies das bequemste und schnellste Fortbewegungsmittel in Biberach ist. Nur mit Maßnahmen zugunsten des Umweltverbunds lässt sich ein Umdenken einleiten und sowohl CO2-Emissionen reduzieren als auch die Aufenthaltsqualität in der Altstadt steigern. Literatur [1] infas, DLR: Mobilität in Deutschland 2008 – deutschlandweite Erhebungen zum Mobilitätsverhalten, eigene Auswertungen des Auswertetools „Mobilität in Tabellen“ (MIT), http://www.mobilitaet-in-deutschland.de/02_MiD2008/index.htm, 2010. Umweltschutztechnik Abstract The potential for reducing CO2 emissions in historical towns using passive measures such as the installation of thermal insulation is limited. As a result individual solutions for buildings with historical monument protection are required. In this research project ways of reducing CO2-emissions are explored especially in the field of mobility. In the historical town of Biberach we analyzed traffic behavior, modeling carbon dioxide emissions from different means of transport and present the possible measures in three scenarios. Zusammenfassung In historischen Altstädten ist das Potenzial, CO2-Emissionnen durch passive Maßnahmen wie die Wärmedämmung zu reduzieren, gering. Da Standardlösungen aus Denkmalschutzgründen nicht greifen, werden alternative Wege gesucht, CO2-Emissionen einzusparen. Die Hochschule Karlsruhe untersuchte, welchen Beitrag die Mobilität hierzu leisten kann. Am Beispiel der Stadt Biberach an der Riß wurden anhand des Nutzerverhaltens CO2-Emissionen bilanziert, das Verkehrsangebot untersucht und hieraus resultierende Veränderungspotenziale in Form von Szenarien entwickelt. Autoren Robert Blaszczyk M.Eng. Akademischer Mitarbeiter im Studiengang Verkehrssystemmanagement an der Fakultät für Informationsmanagement und Medien der Hochschule Karlsruhe Prof. Dr.-Ing. Christoph Hupfer Professor und Dekan der Fakultät für Informationsmanagement und Medien Kontakt Robert Blaszczyk Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Informationsmanagement und Medien Moltkestraße 30 76133 Karlsruhe E-Mail: robert.blaszczyk@hs-karlsruhe.de Telefon: 0721 925-2589 Dein neuer Arbeitgeber... I Vermessung I Geotechnik I Geoinformatik I Entwicklung I intermetric GmbH I Industriestr. 24 I 70565 Stuttgart I T 0711 780039 - 2 I www.intermetric.de Forschung aktuell 2015 | 51 Umweltschutztechnik Neuroregler zur Temperaturregelung eines Modellhauses im Vergleich mit klassischen Reglern Hans-Werner Dorschner, Peter Huber, Alexander Schweigert, Lukas Brombacher und Stefan Paschek Einleitung Um einem zukünftig steigenden Energiepreis entgegenzuwirken und den CO2-Ausstoß zu verringern, ist es notwendig verstärkt auf erneuerbare Energien umzusteigen. Durch die von der Bundesregierung initiierte Energiewende werden Schritte eingeleitet, die dieses Vorhaben umsetzen sollen. Eine Kombination aus Eisspeicher und Photovoltaik in Verbindung mit intelligenter und anpassungsfähiger Regelung kann einen wichtigen Beitrag hierfür liefern, die Stromkosten der Haushalte senken und den CO2-Ausstoß verringern. In einem vorangegangenen Forschungsprojekt wurden die Verwendbarkeit eines Eisspeichers als Energiespeicher sowie die Einsatzfähigkeit von neuronalen Netzen als mögliche intelligente Regelungsalgorithmen untersucht. Die vorgestellten Ergebnisse des aktuellen Forschungsprojekts bauen auf diesen Erkenntnissen auf und werden sie weiterführen. Dabei wurde ein Demonstrationshaus aufgebaut, das in der Lage ist, neuronale Netze zur Temperaturregelung eines standardisierten Einfamilienhauses zu verwenden. Das Demonstrationshaus ermöglicht, die Temperatur mehrerer Räume unabhängig voneinander zu regeln sowie den Energieverbrauch eines Wohnhauses zu simulieren. Im Haus werden ein Eisspeicher und eine Photovoltaikanlage mit Akkumulator als Energiequelle und -senke simuliert, um nachhaltig Strom zu speichern bzw. zu erzeugen (s. Abb. 1). wickeln und zu erproben. Zudem können Daten wie das Wetter, zukünftige Strompreisentwicklungen usw. berücksichtigt werden, um ein optimales Ausnutzen der regenerativen Energien zu ermöglichen. Dabei handelt es sich um ein mehrdimensionales Optimierungsproblem, das die drei Operationen „Kaufen von elektrischer Energie aus dem Stromnetz“, „Speichern von elektrischer oder thermischer Energie“ und „Verkaufen von elektrischer Energie in das Stromnetz“ beinhaltet. Hintergrund dieses Vorgehens ist die Tatsache, dass regenerative Energien oftmals dann verfügbar sind, wenn sie nicht benötigt werden, bzw. dann benötigt werden, wenn sie nicht oder nicht ausreichend verfügbar sind wie z. B. abends, nachts oder in kalten Jahreszeiten. Zusätzlich wird der Demoaufbau auch dazu genutzt, ein intelligentes Energiemanagementkonzept zu ent- Materialien und Methoden Um eine geeignete Regelstrecke zur Verfügung zu stellen, wurde in einem ersten Schritt ein einzelner Modellraum als Modell gefertigt. Der Modellraum kann über Peltier-Element in Kombination mit Lüftern und Kühlkörpern geheizt und gekühlt werden. Die Temperatur des Raumes wird über Thermoelemente gemessen. Als Mess- und Steuereinheit dient ein Arduino Mikrocontroller. Der schematische Aufbau des Raumes ist in Abbildung 2 dargestellt. elektrische Energie thermische Energie Haus Photovoltaik Photothermie Klimasystem Eisspeicher Abb. 1: Schema des Hauses 52 | Forschung aktuell 2015 Wärmepumpe Haushaltsgeräte Problem- und Aufgabenstellung Aufgabenstellung dieses Projekts war es zu überprüfen, ob neuronale Netze für eine Temperaturregelung verwendet werden können. Die Netze sollen dabei durch unterschiedliche Trainingsverfahren trainiert werden, um den Modellraum auf eine Solltemperatur zu bringen. Vor allem sollen die Netze dazu in der Lage sein, sich aus einem untrainierten Zustand an die Strecke anzupassen, sodass ein Vortrainieren in einer Simulation nicht notwendig ist. Des Weiteren soll das Energiemanagement des Hauses ebenfalls über ein neuronales Netz realisiert werden. Als Steuer- und Regelsoftware wird LabVIEW in Kombination mit MATLAB verwendet. Hierdurch kann MATLAB-Code für die Neuroregler als LabVIEW-Block umgesetzt werden. In einem zweiten Schritt wurde ein Modellhaus bestehend aus sieben Räumen aufgebaut. Für diese Anwendung wurde eine eigene Bedienoberfläche (Graphical User Interface – GUI) in Lab- Umweltschutztechnik Modellraum Halogenlampe TE Umgebung TE TE Lüfter Input Layer Kühlkörper Treiberstufe TEC USB Hidden Layer Output Layer Treiberstufe Kühlkörper Mess- und Steuereinheit sowie zwischen Außen- und Raumtemperatur enthalten. Die Ausgangsschicht umfasst ein Neuron, das die Stellgröße für die Kühl- und Heizelemente liefert. Mess- und Steuereinheit Lüfter e1 Rechner y USB e2 Abb. 2: Prinzipschaltbild eines Modellraums VIEW entwickelt. Dadurch ist es möglich, die Vorgänge in der Temperatur- und Energieregelung grafisch zu visualisieren und zu beobachten sowie Messungen zu starten und Messwerte aufzunehmen (s. Abb. 3). Um die Neuroregler zu entwerfen, musste eine grundlegende Architektur festgelegt werden. Als Netzwerksarchitektur wurde hierfür „multilayer feedforward“ gewählt. Dabei besteht das neuronale Netz aus einer Eingangsschicht zur Erfassung der Eingänge, zwei versteckten Schichten zur Berechnung und einer Ausgangsschicht zur Bildung der Ausgänge (s. Abb. 4). Die Eingangsschicht besteht aus zwei Neuronen, die die normierte Differenz zwischen Soll- und Ist-Temperatur e1: Fehlereingang Soll-/Ist-Temperatur e2: Fehlereingang Außen-/Ist-Temperatur y: Stellgrößenausgang Abb. 4: Struktur des Neuroreglers zur Temperaturregelung Trainiert wurden die Netze mit dem BackpropergationAlgorithmus in Kombination mit Reinforcement-Learning. Die Art, wie der Netzfehler berechnet wird, ist durch Reinforcement-Learning definiert. Hierbei wird die Aktion des neuronalen Netzes durch eine Bewertungsfunktion beurteilt. Hat die Aktion das Netz näher an den Sollwert gebracht, wird das Netz durch eine Abb. 3: GUI zur Steuerung und Messung des Modellhauses Forschung aktuell 2015 | 53 Umweltschutztechnik Vergrößerung der Gewichtsfaktoren „belohnt“. Wenn die Aktion einen gegenteiligen Effekt hat, wird der Neuroregler durch eine Verringerung der Gewichtsfaktoren „bestraft“. Das Energiemanagement erfolgt ebenfalls über ein neuronales Netz. Dazu sammelt das Netz Daten über die Sonneneinstrahlung, den aktuellen Strompreis/Solarstromverkaufspreis und den zukünftigen, vorhergesagten Preisen. Aus diesen Daten trifft es anschließend die Entscheidung, ob der Solarstrom gespeichert, verkauft oder verwendet wird. rekt an der realen Strecke trainiert wird. Dabei wurde ein einziges neuronales Netz verwendet, um sowohl das Heizen als auch Kühlen zu erlernen. Zu erkennen ist, dass das Regelverhalten im Laufe der Zeit immer besser wird. Bereits nach ca. 600 sec ist der Neuroregler in der Lage, dem Sollverhalten befriedigend zu folgen. Weitere Durchgänge erhöhen die Qualität der Regelung weiter. Da es sich hierbei um mehrere Durchgänge handelt und der Neuroregler nicht instabil wird, ist auch die Langzeitstabilität gewährleistet. Praktische Durchführung In einem ersten Schritt wurde die regelungstechnische Strecke im Kühlverhalten identifiziert. Dabei wurde festgestellt, dass sich der Raum wie ein PT1-DT1-Element verhält. Anschließend erfolgte der Entwurf der Neuroregler. Das erste neuronale Netz wurde fest für die Lösung dieser Strecke trainiert. Im nächsten Schritt wurden vortrainierte Neuroregler mithilfe des Backpropergation-Algorithmus direkt an der Strecke weitertrainiert. Im letzten Schritt wurde ein vollkommen untrainiertes neuronales Netz auf der realen Strecke trainiert. Anschließend wurde das Training auf fünf weitere Modellräume übertragen und jeweils ein Neuroregler pro Raum vorgesehen. Ergebnisse In Abbildung 5 ist der Verlauf der Regeldifferenz dargestellt. Dabei wurde in allen Fällen eine Solltemperaturdifferenz von 5 °C vorgegeben. Wie in der Grafik zu erkennen ist, bleibt bei reiner P-Reglung eine bleibende Regeldifferenz, bei PI- und Neuroregler wird diese Regeldifferenz komplett ausgeregelt. Die Ausregelzeit beträgt beim PI-Regler 150 sec, bei P- und Neuroregler jeweils ca. 130 sec. Abbildung 6 zeigt das Verhalten eines komplett untrainierten Neuroreglers, der durch Backpropergation di6 5 4 Temperatur/C° 3 2 1 0 100 Zeit/s 200 300 Fehler P-Regler 400 Fehler KNN 500 600 700 Fehler PI-Regler Abb. 5: Vergleich des Regelfehlerverlaufs von P-Regler (K=30), PI-Regler (Kp=15; KI=0,1) und vortrainiertem neuronalen Netz 54 | Forschung aktuell 2015 Abb. 6: Heiz- und Kühlverlauf eines untrainierten neuronalen Netzes Zusammenfassung und Ausblick In dem hier vorgestellten Forschungsprojekt wurden neuronale Netze verwendet, um Temperaturregler für ein Modellhaus zu entwickeln. Dabei konnten anpassungsfähige Neuroregler realisiert werden. Der Vergleich mit klassischen P- und PI-Reglern hat gezeigt, dass die Neuroregler teilweise bessere Ergebnisse liefern. Ihr Hauptvorteil liegt jedoch neben dem vergleichbaren Regelverhalten darin, dass sie kein mathematisches Modell der Strecke mit ihren vielfältigen Ein- und Ausgangsgrößen benötigen. Bei dem in diesem Forschungsprojekt betrachteten Problem der Regelung eines Wohnhauses mit regenerativem Energieeinsatz treten vielfältige Ein- und Ausgangsgrößen auf, deren Einflüsse mathematisch nicht genau beschreibbar sind, um eine befriedigende konventionelle Regelung zu implementieren. Des Weiteren wurde ein neuronales Netz zum Energiemanagement entwickelt, um eine optimale Verwendung des regenerativen Energieeintrags zu gewährleisten. Um dem Benutzer eine einfache Schnittstelle zum Erfassen der Daten und zur Steuerung des Hauses zu bieten, wurde eine grafische Bedienoberfläche in LabVIEW erstellt. Umweltschutztechnik Abstract This article introduces a modern concept for intelligent climate and energy management in homes. Neural networks were used in order to establish a flexible and adaptive controller. These neural controllers are able to react autonomously to the parameter changes of a house. Further, a pre-simulation is not required as they can be trained directly in the house. The neural controller has been benchmarked against standard P and PI controllers for their performance. A model house which could be heated and cooled was created as benchmark model-plant. It was also used to implement the energy management network. Zusammenfassung Der Artikel stellt ein modernes Konzept zur intelligenten Temperaturregelung und zum Energiemanagement in Wohnhäusern vor. Dabei wurden neuronale Netze verwendet, um anpassungsfähige Regler zu erstellen. Diese Neuroregler haben die Fähigkeit autonom auf Parameteränderungen eines Hauses zu reagieren und können direkt am Haus ohne Vorsimulation trainiert werden. Die erstellten Neuroregler wurden anschließend mit Standard-P- und PI-Reglern verglichen und bewertet. Als Vergleichsstrecke wurde ein kühl- und heizbares Modellhaus entwickelt, das zusätzlich noch für das Energiemanagement herangezogen wurde. Autoren Prof. Dr.-Ing. Hans-Werner Dorschner Professor an der Fakultät für Maschinenbau und Mechatronik der Hochschule Karlsruhe Peter Huber M.Eng. Laborbetriebsleiter an der Fakultät für Maschinenbau und Mechatronik Alexander Schweigert B.Eng, Lukas Brombacher B.Eng und Stefan Paschek M.Sc. Akademische Mitarbeiter an der Fakultät für Maschinenbau und Mechatronik Kontakt Peter Huber Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Maschinenbau und Mechatronik Moltkestraße 30 76133 Karlsruhe E-Mail: peter.huber@hs-karlsruhe.de WIR VERBINDEN KOMPETENZ VEREIN DEUTSCHER INGENIEURE Mitglied werden und Netzwerk ausbauen in der größten Ingenieurvereinigung Deutschlands. vdi.de/studium vdi.de/mitglied-werden Forschung aktuell 2015 | 55 Forschung Entwicklung Messungen Prototypen Institut für Luft- und Kältetechnik gGmbH Innovation braucht kühle Köpfe. Kryotechnik & Tieftemperaturphysik Kälte- und Wärmepumpentechnik Luft- und Klimatechnik Angewandte Werkstofftechnik Angewandte Energietechnik Unsere Natur braucht klimafreundliche CO2-Kältetechnik. Epta braucht Dich! %HUWROW%UHFKW$OOHH 'UHVGHQ 7HOHIRQ 7HOHID[ ZZZLONGUHVGHQGH Finde Deinen Traumjob: eptarefrigeration.com/de/offene-stellen Epta Deutschland GmbH, Ludolf-Krehl Straße 7-11, 68167 Mannheim Personal@epta-deutschland.com Meisterschulung in Vollzeit oder Teilzeit VZ: 02.03.2015 / TZ: 06.11.2015 Sachkundelehrgang für Quereinsteiger ( zum Erwerb Zertifikat Kategorie I ) Sonderzertifizierung Inhalte entsprechend VO(EG) 303/2008 ( aktuelle Termine auf www.i-k-k-e.com ) Umweltschutztechnik Kooperatives Promotionskolleg: Partikelgrößenverteilung in Eisbreigemischen und Untersuchungen zur Haftung von Eis auf Aluminium-Oberflächen Jakob Schaaf, Matthias Koffler und Michael Kauffeld Kooperatives Promotionskolleg: Gefügestrukturanalyse und Prozessbewertung Ziel des gemeinsamen Promotionskollegs „Gefügestrukturanalyse und Prozessbewertung“ ist die experimentelle und theoretische Erforschung von Strukturbildungsmechanismen in unterschiedlichen Materialsystemen und für eine Vielzahl verschiedener Prozessabläufe. Das Promotionskolleg besteht aus einem Forschungsprogramm sowie einem begleitenden Studienprogramm und umfasst zwölf Dissertationsprojekte, die jeweils von einer Professorin oder einem Professor des Karlsruher Instituts für Technologie (KIT) und der Hochschule Karlsruhe betreut werden. Die einzelnen Promotionsprojekte bilden dabei gemeinsame kollegübergreifende Forschungsbereiche. Diese sind fünf Themenfeldern zugeordnet, die unterschiedlicher experimenteller und theoretischer Ausrichtung sind. Im Folgenden sollen die ersten Ergebnisse der Themen „Eisbrei – Partikelgrößenverteilung in Eisbreigemischen“ und „Untersuchungen zur Anhaftung von Eis auf Aluminium-Oberflächen“ vorgestellt werden. Eisbrei – Partikelgrößenverteilung in Eisbreigemischen: Einleitung und Motivation Eisbrei (Ice Slurry) ist ein effizientes, zweiphasiges Sekundärkältemittel, das aus einer flüssigen Phase besteht und mit kleinen Eispartikeln gemischt ist. Die Basisflüssigkeit ist Wasser mit einem gefrierpunktsenkenden Stoff. Hier werden kommerziell überwiegend die Zusatzstoffe Ethanol, Propylenglykol und Natriumchlorid eingesetzt.[1] Bedingt durch die gespeicherte Kristallisationswärme in den Eispartikeln -1 von 333 [kJ·kgEis ] besitzt Eisbrei ein Vielfaches der Energiedichte eines vergleichbaren, einphasigen Kälteträgers. Weitere Informationen zu Eisbrei sind auf der Homepage des Instituts für Kälte-, Klima- und Umwelttechnik (IKKU) der Hochschule Karlsruhe zu finden.[2] Sobald das Gemisch Eisbrei den Eiserzeuger verlässt, hat es eine bestimmte Partikelgrößenverteilung. Für die Nutzung von Eisbrei ist die Partikelgrößenverteilung eine wichtige Kenngröße, da diese die mechanischen und thermodynamischen Eigenschaften des Fluids signifikant beeinflusst. Für Eisbrei mit größeren Partikeln wird in Speichertanks eine höhere Rührerleistung benötigt, und größere Eispartikel haben ein schlechteres Oberflächen-Volumen-Verhältnis. Dies führt zu einer geringeren Abschmelzleistung. Die Partikelgrößen in Eisbrei ändern sich in Abhängigkeit von verschiedenen Parametern mit der Lagerdauer (Alterung). Dies sind vor allem Abrieb, Anlagerung (Agglomeration) und OstwaldReifung. Die Einflussgrößen auf die Alterung der Eispartikel und somit die Grundlagen zur Erzeugung von gezielten Partikelgrößen werden in diesem Projekt untersucht. Mithilfe dieser Erkenntnisse wird es möglich, gezielt kleine Partikel in einem Eisbreisystem zu erzeugen und somit die Effizienz zu steigern. Analyse der Eispartikel im Eisbrei Um die Änderungen der Partikel zu ermitteln ist ein Analyseverfahren notwendig. Hier können jedoch herkömmliche Partikelmessmethoden nicht eingesetzt werden. Bei der Messung der Eispartikel bestehen die Herausforderungen darin, dass die Analyse unter adiabatischen Bedingungen (ohne Wärmeaustauch) erfolgen muss und dass Eispartikel in Flüssigkeit schwer zu detektieren sind. Ein optisches Verfahren liefert nur mittels spezieller Beleuchtungstechnik ausreichend kontrastreiche Bilder. Hier wird auf eine abgewandelte Form der Phasenkontrastmethode zurückgegriffen. Um Überlagerungen der Partikel zu vermeiden, werden diese in einem Miniatur-Strömungskanal vereinzelt. Das Ergebnis sind somit kontrastreiche, plastisch wirkende Bilder (s. Abb. 1) der Eispartikel. Abb. 1: vereinzelte Eispartikel im 2 x 2 mm Strömungskanal, beleuchtet über Phasenkontrast Die Partikel können auf diese Weise auf Standardwerte wie Durchmesser, Umfang, Fläche, Abweichung von der Kreisform ausgewertet werden. Hierbei wird jedoch die Kugelform der Partikel vorausgesetzt. Basierend auf der Vermutung, dass die Eispartikel – zumindest zeitweise Forschung aktuell 2015 | 57 Umweltschutztechnik oder bei bestimmten Bedingungen – hexagonal scheibenförmig sind, werden die Interpretationen der Ergebnisse durch die Annahme der Kugelform verfälscht. Die bisher in der Forschung angewandte Untersuchungsmethode der Eispartikel wurde in diesem Projekt erweitert. Mit einer an der Hochschule Karlsruhe entwickelten speziellen Analysezelle ist die simultane Untersuchung mehrerer Betrachtungsebenen der Eispartikel möglich. Über eine Anordnung aus mehreren spiegelnden Flächen ist es möglich, den Rechteckkanal von zwei Seiten zu beleuchten und zu beobachten. Eine besondere Herausforderung stellt hierbei die extrem geringe Baugröße der optischen Komponenten dar. Die verwendeten Spezialspiegelplatten haben eine Größe von nur 1 x 3 x 30 mm (vergleichbar mit der Größe zweier Zündhölzer). Abb. 3: Partikel im Strömungskanal, reales und gewandeltes Binärbild Rückschlüsse auf die volumetrische Änderung der Partikel über die Speicherdauer hinweg gezogen werden. Ausblick Die erarbeitete Methode konnte erste vielversprechende Ergebnisse liefern. Eine auf den bisherigen Erkenntnissen aufbauende, optimierte Messzelle befindet sich in Entwicklung. Erste Langzeituntersuchungen von Eisbrei aus den Versuchsanlagen des IKKU werden in Kürze stattfinden. Abb. 2: Analysezelle und Schnittdarstellung des Strömungskanals mit Spezialspiegelplatten Der Eisbrei wird durch die entwickelte Analysezelle (s. Abb. 2) geleitet und die Partikel werden aufgrund des kleinen Strömungskanals vereinzelt. Die Beleuchtung der Eispartikel erfolgt von unten und – durch die eine Spiegelplatte – von links. Über ein Mikroskop wird der Kanal simultan von oben und von der rechten Seite (über die zweite Spiegelplatte) beobachtet. Dadurch entstehen zwei um 90° zueinander versetzte, zeitgleiche Bilder des Strömungskanals und der im Kanal befindlichen Eispartikel. Durch die zweite Ansicht gewinnt man weiterführende Informationen über die dreidimensionale Form der Eispartikel. Die zeitliche Veränderung der Partikel kann somit noch exakter beschrieben werden. Die so entstandenen Bilder (s. Abb. 3) werden über spezielle mathematische Algorithmen in auswertbare Binärbilder gewandelt. Über die geometrischen Parameter der Bilder können dann in Dauermessungen 58 | Forschung aktuell 2015 Untersuchungen zur Anhaftung von Eis auf Aluminium-Oberflächen: Einleitung und Motivation Die Eispartikel für Eisbrei werden in sogenannten Eisbreierzeugern bzw. -generatoren hergestellt. Als Methoden zur Erzeugung der Eispartikel sind einige bekannt. Detaillierte Informationen hierzu sind im Handbook on Ice Slurries [3] zu finden. Viele energieeffiziente Methoden werden aufgrund der Ausfall- und Wartungshäufigkeit nicht eingesetzt. Eine derzeit sehr verbreitete Methode der Eisbreierzeugung ist die der schabenden Elemente. Dabei wird das Fluid über eine gekühlte Wärmeübertragerwand geleitet. Die Temperatur der Wand liegt unter der Gefrierpunktstemperatur des Fluids, sodass sich Eiskristalle an der Wand bilden. Die Eiskristalle werden nach einer Wachstumsphase mit Schabern, Bürsten oder Schleuderstäben von der Wand gelöst. Hierbei müssen mindestens die Adhäsionskräfte zwischen der Oberfläche und dem Eispartikel überwunden werden (zerbrechen die Eispartikel sind größere Kräfte notwendig). Die Elemente zur Lösung der Eiskristalle müssen bewegt werden, benötigen eine Antriebsenergie und sind verschleißanfällig. Die Antriebsenergie wird zur Bewegung der Elemente benötigt und als Wärmeenergie in das Eisbreimedium übertragen. Sie muss daher zweifach berücksichtigt werden (elektrischer Antrieb + zusätzlich notwendige Kälteleistung). In einem neuen Verfahren zur Eisbreierzeugung werden die mechanischen Elemente ersetzt. Hierzu wird die Oberflä- Gemeinsam die Zukunft gestalten. Viessmann ist einer der international führenden Hersteller effizienter Heiz-, Industrie- und Kühlsysteme und bietet ein umfassendes Dienstleistungsangebot. Unsere Produkte sparen Energie und schonen Umwelt und Klima. Engagierten und qualifizierten Absolventinnen und Absolventen bieten wir die Möglichkeit, bei und mit Viessmann in eine erfolgreiche Zukunft zu starten. Mehr erfahren Sie unter: www.viessmann.de Viessmann Werke GmbH & Co. KG Viessmannstr. 1 · 35107 Allendorf (Eder) Telefon: 06452 70-0 · Fax: 06452 70-2780 E-Mail: info@viessmann.de PERFEKT, UM NACH OBEN ZU KOMMEN: IHR BERUFSEINSTIEG BEI EINEM MARKTFÜHRER. –4 °C erzeugen BITZER Verdichter in Produkttests, um sicherzustellen, dass Kletterhaken nicht brechen. EINSTIEGSPROGRAMM FÜR INGENIEURE (M/W) Kälte- und Klimatechnik leisten weltweit einen unverzichtbaren Beitrag, zum Beispiel in der Gebäudeklimatisierung oder der Transportkühlung. Das Herzstück dabei: Verdichter von BITZER. Rund um den Globus setzen circa 3.200 Mitarbeiter täglich alles daran, dass sich unsere Kunden auf BITZER Qualität und Leistung verlassen können. BITZER hat das Ziel, ingenieurwissenschaftliche Schlüsselpositionen mit Mitarbeitern aus den eigenen Reihen zu besetzen. Ab Oktober 2015 erhalten Sie innerhalb des 18-monatigen Ausbildungsprogramms durch wechselnde Abteilungseinsätze an unseren deutschen Standorten sowie in einer ausländischen Tochtergesellschaft die Chance, Ihre fachliche und soziale Kompetenz weiterzuentwickeln. AUSBILDUNGSSCHWERPUNKTE Sie eignen sich fundierte Produkt- und Anwendungskenntnisse in enger Zusammenarbeit mit Ihren Mentoren an, führen Marktanalysen sowie Vertriebswegeuntersuchungen durch und beraten sowohl nationale als auch internationale Kunden. Im Troubleshooting vor Ort arbeiten Sie ebenso mit wie in der Produktentwicklung, im Versuch und in der Qualitätssicherung. Außerdem lernen Sie Fertigungsabläufe und -verfahren sowie die Fertigungsvorbereitung und -planung kennen. VORAUSSETZUNGEN Sie haben ein ingenieurwissenschaftliches Studium mit Schwerpunkt Kälte-, Klima- und Umwelttechnik abgeschlossen und verfügen über erste Fach- und Branchenkenntnisse? 6SUHFKHQ6LHGDUEHUKLQDXVVHKUJXW(QJOLVFKXQGKDEHQ6LHJXWH062I¿FH.HQQWQLVVH":HQQ6LHDXHUGHPQRFKKRKHV(QJDJHPHQWVRZLH7HDPXQG.RPPXQLNDWLRQV fähigkeit mitbringen und bereit sind, im Ausland zu arbeiten, sollten wir uns kennenlernen! KONTAKT Interessiert? Dann freuen wir uns auf Ihre aussagekräftige Bewerbung per E-Mail oder Post an: BITZER Kühlmaschinenbau GmbH // +XPDQ5HVRXUFHV(VFKHQEUQQOHVWUDH6LQGHO¿QJHQUHFUXLWLQJ#ELW]HUGHZZZELW]HUGH Mark Harris beantwortet Ihnen gerne erste Fragen: Tel +49 (0)70 31 932-43 81. Umweltschutztechnik Messung der Adhäsionskräfte Die Adhäsionskräfte zwischen Eis und einer metallischen Oberfläche sind stärker als die kohäsiven Kräfte im Eis, was eine Herausforderung an den Messaufbau darstellt. Üblicherweise werden hierfür Scherkraftmessungen durchgeführt und diese dann in Richtung der Haftkraft umgerechnet. Scherkraftversuche sind für die Messung mit thermischer Kristallablösung nicht geeignet, da die Reibung zwischen Eis und Oberfläche (fest-fest) durch das Aufschmelzen von Eis zu Wasser (fest-flüssig-fest) variiert. Die Zwischenstufen sind bei Scherkraftversuchen zwar erkennbar, jedoch kann bei der Umrechnung in die Haftrichtung nicht zwischen Reibung und Restadhäsion unterschieden wer- 60 | Forschung aktuell 2015 F Fluid F Erzeugung der Wärmestromdichte An den Wärmestrom in die Verbindungstelle werden hohe Anforderungen gestellt. Für die gesamte in das System eingebrachte Wärmeenergie wird zusätzliche Kühlleistung benötigt. Der Wärmestrom soll möglichst direkt an der Kontaktstelle entstehen, damit der Energieeintrag gering gehalten wird (weniger Material wird erwärmt). Die Wärmestromdichte muss größer als die Wärmeleitfähigkeit des Wärmeübertragermaterials sein, sodass sich die Kontaktstelle über den Schmelzpunkt des Wassers erwärmt. Je größer die Wärmestromdichte ist, umso schneller ist der Temperaturanstieg an der Kontaktstelle und die Schmelztemperatur wird erreicht. Wieviel Energie für die Phasenumwandlung an der Kontaktstelle benötigt wird, ist Gegenstand der Untersuchungen. Die Wärmeströme an der Kontaktstelle werden durch induktive Erwärmung erzeugt. Bei der induktiven Erwärmung wird über ein elektromagnetisches Wechselfeld ein elektrischer Leiter (hier die Wärmeübertragerwand aus Aluminium) erwärmt. Durch den sogenannten Skineffekt ändert sich die Eindringtiefe der Wirbelströme in das Material durch eine Änderung der Frequenz. Die Wirbelströme erzeugen eine Erwärmung des Materials. Je höher die Frequenz, desto geringer die Eindringtiefe. Eine Erhöhung der magnetischen Feldstärke hat eine Erhöhung der Wirbelströme zur Folge, wodurch die Wärmestromdichte ansteigt. Die induktive Erwärmung erfüllt alle für die Untersuchungen geforderten Bedingungen und kann stufenlos variiert werden. den. Für die Messungen wird ein Stirnabreißverfahren eingesetzt, bei dem die Adhäsionsfläche kleiner als die Gegenfläche ist. Somit werden kohäsive Brüche vermindert. Über ein weiteres Messverfahren werden kohäsive Bruchstellen erkannt und die Messwerte als ungültig gekennzeichnet. Die Messungen der Adhäsionskraft umfassen die Grenzschicht fest-fest (s. Abb. 4 links) ohne thermische Einflüsse bis hin zu fest-flüssig-fest bei vollständiger Flüssigkeitstrennschicht (s. Abb. 4 rechts). In Abbildung 5 sind die maximale und minimale Adhäsionskraft gestrichelt dargestellt. Die blauen Kurven stellen mögliche Verläufe zwischen den Grenzwerten, d. h. bei nicht vollständiger Flüssigkeitsschicht in der Grenzfläche, dar. Eispartikel Flüssigkeitsschicht Aluminium Abb. 4: Grenzbereiche der Versuchsreihen links: fest-fest; rechts: fest-flüssig-fest fest-fest Kraft/Fläche che des Wärmeübertragers nach der Wachstumsphase kurzzeitig erwärmt, sodass die angefrorenen Eispartikel an der Verbindungstelle schmelzen. Wird die gesamte Verbindung zwischen Eispartikel und Wärmeübertrager geschmolzen, verringern sich die Adhäsionskräfte erheblich und die verbleibenden Eispartikel können durch die Strömung abgespült werden. In diesem Forschungsprojekt wird der Einfluss der Wärmestromdichte auf die Haftkraft zwischen Eis und Aluminium untersucht. fest-flüssig-fest Zeit t Abb. 5: Adhäsionskräfte zwischen den Maxima Ausblick Vorversuche zur Methode der Adhäsionskraftmessung wurden erfolgreich abgeschlossen. Der Prüfstandsaufbau befindet sich im Endstadium und die Messzelle wird derzeit gefertigt. Erste verwertbare Messwerte werden in Kürze erwartet. Literaturverzeichnis [1] M. Kauffeld, M. J. Wang, V. Goldstein, K. E. Kasza, Ice slurry applications, in: International Journal of Refrigeration, 33(2010), Nr. 8, S. 1491–1505. [2] http://www.hs-karlsruhe.de/ikku.html [3] M. Kauffeld, M. Kawaji, P. Egolf, Handbook on Ice Slurries. Fundamentials and Engineering, Paris: International Institute of Refrigeration, 2005. Umweltschutztechnik Abstract Two research projects from the cooperative program between Karlsruhe University of Applied Sciences and the Karlsruhe Institute of Technology, both on the secondary working fluid Ice Slurry, are presented. In the first project the particle size distribution in ice slurries is analyzed. The requirements of a special analysis-cell to evaluate the structure, shape and size of the ice particles and the design of these cells will be described. The second part of the article is about research on the influence of a heat flux on the adhesive force between ice particles and an aluminum surface. Zusammenfassung Zwei Forschungsthemen aus dem kooperativen Promotionskolleg zwischen der Hochschule Karlsruhe (HsKA) und dem Karlsruher Institut für Technologie (KIT) werden vorgestellt. Im ersten Projekt sollen die Eispartikel in Eisbreigemischen untersucht werden. Die Anforderungen an eine hierfür notwendige Analysezelle zur Auswertung der Struktur, Form und Größe der Eispartikel und deren Aufbau werden beschrieben. Bei dem Projekt zur Haftung von Eis auf Aluminiumoberflächen wird der Einfluss von Wärmeströmen auf die Adhäsions- kräfte in der Grenzschicht untersucht. Die Vorgehensweise und Messmethoden beider Projekte werden in diesem Artikel anschaulich erläutert. Autoren Jakob Schaaf M.Sc. und Matthias Koffler M.Sc. Akademische Mitarbeiter an der Fakultät für Maschinenbau und Mechatronik und Doktoranden im gemeinsamen Promotionskolleg der Hochschule Karlsruhe mit dem Karlsruher Institut für Technologie (KIT) Prof. Dr.-Ing. habil. Michael Kauffeld Professor an der Fakultät für Maschinenbau und Mechatronik und Leiter des Instituts für Kälte-, Klima- und Umwelttechnik (IKKU) der Hochschule Karlsruhe Kontakt Prof. Dr.-Ing. habil. Michael Kauffeld Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Maschinenbau und Mechatronik Institut für Kälte, Klima- und Umwelttechnik (IKKU) Moltkestraße 30 76133 Karlsruhe E-Mail: michael.kauffeld@hs-karlsruhe.de Telefon: 0721 925-1843 Maschinenbau Vakuum-Druck-Gießanlagen · Stranggießanlagen · Schmelzanlagen · Atomizer Das Indutherm-Prinzip: HAND IN HAND ... mit Anwendern aus der Praxis entwickeln wir unsere Metallgießanlagen. ... mit namhaften Universitäten und Instituten forschen wir an neuen Technologien. ... mit Servicepartnern in mehr als 50 Ländern unterstützen wir Industrie und Forschung mit innovativer Gießtechnik. Sägen. Lager. Mehr. KASTO bietet mehr als hochproduktive Sägen und Lager für Langgut und Blech: mehr Engagement, mehr Verantwortung, mehr Ideen, mehr Innovation. Nur qualifizierte und engagierte Mitarbeiter ermöglichen dies. Deshalb bieten wir unseren Bewerbern ein vielseitiges, interessantes Tätigkeitsfeld mit hervorragenden Entwicklungsmöglichkeiten. Wo ist Ihre Hand? Unsere können Sie hier scannen... Erwärmungsanlagen 75045 Walzbachtal · Telefon 07203/9218-0 www.indutherm.de/hand 62 | Forschung aktuell 2015 Mehr über das „Mehr“ unter www.kasto.de Maschinenbau Ein neues makromechanisches Werkstoffmodell zur Erklärung des Phänomens der ausgeprägten Streckgrenze mit Lüderseffekt Rainer Schwab und Otto Ernst Bernhardi Einleitung Das typische, „normale“ Verhalten von Werkstoffen ohne ausgeprägte Streckgrenze ist der sanfte Übergang vom elastischen in den elastisch-plastischen Bereich im Zugversuch. Im Gegensatz dazu weisen Werkstoffe mit ausgeprägter Streckgrenze einen abrupten Übergang in den elastisch-plastischen Bereich auf. Er äußert sich durch einen charakteristischen Kraftabfall, gefolgt von einem Bereich mit fast konstanter Spannung. Im Bereich mit fast konstanter Spannung verformt sich die Zugprobe nicht gleichmäßig plastisch, sondern inhomogen in Form von plastischen Verformungsbändern (s. Punkte 1 bis 3 in Abb. 1). Abb. 2: Verformungsmuster am Boden einer Sprühdose aus feuerverzinntem Stahlblech Abb. 1: plastisches Verhalten von Werkstoffen mit ausgeprägter Streckgrenze im Zugversuch Erst wenn sich die Verformungsbänder vollständig durch den eigentlichen Prüfbereich der Zugprobe ausgebreitet haben, erfolgt die weitere plastische Verformung homogen mit der typischen Verfestigung, wie sie bei vielen metallischen Werkstoffen auftritt. Die plastischen Verformungsbänder wurden erstmals vor mehr als 150 Jahren unabhängig von Piobert et al. [1] und Lüders [2] beschrieben. Daher werden sie häufig als Lüdersbänder bezeichnet. Sie erzeugen ein charakteristisches Oberflächenprofil in plastisch verformten Werkstücken und lassen sich in einigen Fällen gut beobachten. Als Beispiel ist in Abbildung 2 der Boden einer Sprühdose aus feuerverzinntem Stahlblech zu sehen. Das Muster an der Oberfläche ist beim Umformen durch die inhomogene plastische Verformung in Form von Lüdersbändern entstanden. Bisweilen als Ausnahmeverhalten erachtet, tritt das Phänomen der ausgeprägten Streckgrenze bei einer überraschenden Vielzahl von Werkstoffen auf [3]: am bekanntesten und bedeutendsten bei den oft verwendeten kohlenstoffarmen Baustählen, aber auch bei vielen anderen Werkstoffen mit kubisch-raumzentrierter Struktur wie Wolfram, manchen Aluminium- und Kupferlegierungen, bestimmten ultrafeinkörnigen Werkstoffen und sogar Gesteinen. Als Variante beobachtet man es bei einigen Kunststoffen, Gedächtnislegierungen, zellulären und körnigen Materialien. Das wissenschaftliche Verständnis des Phänomens der ausgeprägten Streckgrenze ist außerordentlich wichtig, weil man nur mit ihm viele Erscheinungen und Probleme in der Praxis erklären und Weiterentwicklungen gezielt vorantreiben kann. Obwohl das Phänomen schon lange bekannt ist und intensiv untersucht wurde, blieben viele Fragen offen: • Was ist der eigentliche Grund für die ausgeprägte Streckgrenze? • Wodurch kommt die obere Streckgrenze zustande? • Wie entsteht das Spannungsniveau an der unteren Streckgrenze? Überraschend ist, dass bei den meisten bisherigen Erklärungen atomistische und mikromechanische Ansätze dominierten und der Aspekt der makromechanischen Vorgänge überwiegend unberücksichtigt blieb. Forschung aktuell 2015 | 63 Maschinenbau Das neue makromechanische Werkstoffmodell Um das Phänomen der ausgeprägten Streckgrenze mit Lüderseffekt konsistent zu erklären, wurde ein neues makromechanisches Werkstoffmodell entwickelt [4]. Es basiert auf drei wesentlichen Punkten (s. Abb. 3): • Die wirkliche, „wahre“ obere Streckgrenze (true upper yield strength ReH(tr)) ist viel höher als üblicherweise beobachtet. • Das wirkliche, „wahre“ Werkstoffverhalten mit dem Einsetzen der plastischen Verformung ist nicht das beobachtete, sondern das „ganz normale“ mit „normaler“ Verfestigung, beginnend mit einer wahren Streckgrenze ReL(tr). • Das Spannungsniveau an der beobachteten unteren Streckgrenze (observed lower yield strength ReL(obs)) ist überwiegend eine Folge des dreiachsigen Spannungszustands, der sich am Rand des Lüdersbands (der Lüdersfront) entwickelt. die schlichte Abwesenheit von (beweglichen) Versetzungen. Warum sieht man die wahre untere Streckgrenze nicht im Zugversuch? Dies liegt am dreiachsigen Spannungszustand, der sich zwangsläufig am Rand des Lüdersbands (an der Lüdersfront) entwickelt. Der noch elastische Bereich der Probe wird quer zur Beanspruchungsrichtung unter Druckspannungen gesetzt, der Rand des plastischen Bereichs unter Zugspannungen. Analytische und numerische Rechnungen Um das neue makromechanische Werkstoffmodell zu bestätigen, wurde neben experimentellen Untersuchungen ein analytischer Ansatz entwickelt und numerische Rechnungen wurden durchgeführt. Details sind in [4] beschrieben. Das wesentliche Ergebnis des analytischen Ansatzes ist die Tatsache, dass sich die beobachtete untere Streckgrenze ReL(obs) als dynamisches Spannungsgleichgewicht aus der wahren oberen und der wahren unteren Streckgrenze ergibt: ReL(obs) = 2 2 ReH(tr) + √ReH(tr) + 8ReL(tr) 4 Mehrere hundert Finite-Elemente-Rechnungen mit unterschiedlichen Geometrien und verschiedenen Parametern haben das neue Werkstoffmodell grundsätzlich bestätigt. Als Beispiel ist das Ergebnis der Simulation eines Zugversuchs in Abbildung 4 zu sehen. Abb. 3: wahres und beobachtetes Werkstoffverhalten im Zugversuch an einem typischen Baustahl Entscheidende Fragen und Überlegungen hierbei sind: Warum wird die wahre obere Streckgrenze im üblichen Zugversuch meist nicht gemessen? Dies liegt in erster Linie an der nahezu nie ausreichend symmetrischen Einspannung der Proben im Zugversuch. Selbst kleine Abweichungen von wenigen hundertstel Millimetern führen zu merklichen Biegespannungen in der Probe mit Spannungsspitzen am Rand und vorzeitigem Fließbeginn. Auch Eigenspannungen in der Probe können mitwirken. Wie kommt die wahre obere Streckgrenze zustande? Sie beruht grundsätzlich auf einer anfänglichen Behinderung der plastischen Verformung im Werkstoff. Das kann ein Festhalten von Versetzungen durch Kohlenstoff-, Stickstoff- und andere Atome sein oder 64 | Forschung aktuell 2015 Ausblick Das makroskopische neue Werkstoffmodell beschreibt das Phänomen der ausgeprägten Streckgrenze mit Lüderseffekt grundsätzlich richtig. Hiermit ist es erstmals möglich, die plastische Verformung von Werkstoffen mit ausgeprägter Streckgrenze korrekt in FEM-Rechnungen zu erfassen. Die Kombination dieses Modells mit mikromechanischen Ansätzen und Experimenten zeigt, dass die wahre obere Streckgrenze mit abnehmender Korngröße in Stählen viel stärker ansteigt als die wahre untere Streckgrenze. Unterhalb einer bestimmten Korngröße kann es deswegen vorkommen, dass die beobachtete untere Streckgrenze die Zugfestigkeit übersteigt. Dies führt zu einer speziellen Form von plastischer Instabilität und damit geringer plastischer Verformbarkeit ultrafeinkörniger Stähle. Literatur [1] G. Piobert, A.J. Morin, I. Didion, Commission des principes du tir de l‘école de Metz, Mémorial de l‘Artillerie 5(1842), pp. 501–552. [2] W. Lüders, Über die Äußerung der Elasticität an stahlartigen Eisenstäben und Stahlstäben, und Maschinenbau 0,02 0,04 0,06 0,08 0,014 0,016 0,018 1e 0,010 0,012 Spannungs-Dehnungsverlauf eines Integrationspunktes im Zentrum der Probe (nicht an der Oberfläche) Äquivalente plastische Dehnung Abb. 4: FEM-Simulation eines Zugversuchs an einem Stahl mit ausgeprägter Streckgrenze; neues Werkstoffmodell; statische Berechnung (implicit) mit ReH(tr) = 500 N/mm2 und ReL(tr) = 150 N/mm2 über eine beim Biegen solcher Stäbe beobachtete Molecularbewegung, Dinglers Polytechnisches Journal, 155(1860), pp. 18–22. [4] R. Schwab, V. Ruff, On the nature of the yield point phenomenon, Acta Materialia 61 Heft 5(2013), pp. 1798–1808. [3] E. O. Hall, Yield point phenomena in metals and alloys, Macmillan, London 1970. Abstract The yield point phenomenon has been known to occur in some steels and other materials for more than 150 years now. In spite of many experimental investigations and micromechanical approaches, the phenomenon and the related Lüders effect is still not fully understood. This contribution describes a new macro mechanical model which explains the Lüders effect consistently. Analytical approaches, experimental results and numerical calculations confirm the material model. Zusammenfassung Seit mehr als 150 Jahren ist das Phänomen der ausgeprägten Streckgrenze in einigen Stählen und anderen Werkstoffen bekannt. Trotz vieler experimenteller Untersuchungen und mikromechanischer Ansätze ist das Phänomen, insbesondere der damit verbundene Lüderseffekt, nicht vollständig verstanden. Der Beitrag beschreibt ein grundle- gendes makromechanisches Werkstoffmodell, das den Lüderseffekt konsistent erklärt. Analytische Ansätze, experimentelle Ergebnisse und numerische Rechnungen bestätigen das Werkstoffmodell. Autoren Prof. Dr.-Ing. Rainer Schwab und Prof. Dr.-Ing. Otto Ernst Bernhardi Professoren an der Fakultät für Maschinenbau und Mechatronik der Hochschule Karlsruhe Kontakt Prof. Dr.-Ing. Rainer Schwab Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Maschinenbau und Mechatronik Moltkestraße 30 76133 Karlsruhe E-Mail: rainer.schwab@hs-karlsruhe.de Telefon: 0721 925-1902 Forschung aktuell 2015 | 65 Maschinenbau Transport of bulk solids on a new type of vibratory conveyor Christof Krülle Introduction Vibratory conveyors are commonly used for discharging, conveying, and distributing bulk materials in many branches of industry, such as chemical or food processing, small-parts assembly mechanics, or in sugar or oil refineries and foundries [1, 2, 3]. In addition to transport, vibration can be utilized to screen, separate, compact or loosen products. Open troughs are used for conveying bulk materials, closed tubes for dust-sealed goods, and work piece-specific rails for conveying oriented parts. Considering the many parameters involved, the performance of a vibratory conveyor is difficult to predict theoretically. Obvious design parameters are: (i) vibration mode (linear, circular, or elliptic), (ii) amplitude A and frequency f of the oscillations, (iii) inclination or declination of the conveyor, (vi) and the modulus of elasticity of the trough’s inner surface, which can be coated with rubber, plastic, etc. Three different principles of conveying can be distinguished: Sliding: Here the deck is moved horizontally by a crank-beam mechanism by means of asymmetric forward and backward motions. The material always remains in contact with the trough’s surface and is transported forward relative to the deck by a stick-slip drag movement. Throwing: If the vertical component of acceleration exceeds gravity, the material loses contact during part of the conveying cycle and is repeatedly forced to perform ballistic flights. Complicated sequences of a rest phase, a positive (or negative) sliding phase, and a flight phase have to be considered. The net transport in the forward (or even backward) direction depends on the coefficient of friction between the particles and the trough and on the coefficient of restitution for the collision with the deck. Ratcheting: Motivated by advances in the investigations of fluctuation-driven ratchets a new transport mechanism has recently been proposed [4, 5]: horizontal transport of granular particles can be achieved in a purely vertically vibrated system, if the symmetry is broken by an asymmetric periodic sawtooth-shaped profile of the base. Since the transport phenomena on vibratory conveyors involve the nonlinear interaction of many-particle 66 | Forschung aktuell 2015 systems with complex behavior, the investigation of their dynamic properties is a challenging subject. The most important questions currently under investigation are: (i) How does the velocity of granular transport depend on external parameters of the drive like the amplitude and frequency of the oscillation, the vibration mode, or the inclination of the trough, and internal bulk parameters like the coefficient of restitution, friction coefficients, and the filling height? (ii) Are there segregation effects in bi-disperse or polydisperse systems? (iii) Could these results lead to optimized industrial devices like conveyor systems, metering devices, sieves, mixers, dryers, or coolers? 10 cm 1 2 3 4 5 Fig. 1: Annular vibratory conveyor: (1) torus-shaped vibrated trough, (2) adjustable support, (3) elastic band, (4) driving module with unbalanced masses, (5) electric motor Experimental setup To address these questions, a prototype annular conveyor system (see Fig. 1) has been constructed for long systematic studies of the transport properties without disturbing boundary conditions [6, 7]. A light-weight, torus-shaped vibrating channel construction (carbon fiber strengthened epoxy) with an average diameter of 450 mm and a channel width of 50 mm is connected with four symmetrically arranged rotating vibrators. In Maschinenbau matically with a PC based image processing system, which detects the passage of the tracer through a line perpendicular to the trough and stores each passage time on a hard disk. Figure 3 shows the normalized transport velocity n* = nr/Aw of a bulk solid on the vibratory conveyor driven by circular vibration as a function of the dimensionless machine number K = Aw2/g, where g is the acceleration of gravity. Below a critical value K | 0.4 the grains follow the agitation of the tray without being transported. The onset of particle movements is hindered by frictional forces between grains and the substrate. Above this threshold, the bulk velocity initially increases before reaching its first maximum of half the circulation speed Aw of the circular motion for a machine number K = 1.1. Surprisingly, increasing the excitation further leads to a deceleration of the granular flow, and even to a reversal of its direction of motion in the range 2.6 < K < 4.0. This alternating behaviour repeats itself at still higher machine numbers. In contrast, an individual glass bead is propagated in the same direction for all accelerations. Normalized transport velocity v* = vtr/Aω principle, this conveyor can be excited in all six degrees of freedom individually, or in a combination of two of them. The excitation is a result of the simultaneous counter rotation of unbalanced masses, which are coupled with a gear as shown in Fig. 2(a). If two synchronously acting linear vibrators are oriented perpendicularly, then - through appropriate choice of the phase shift j between the two - the shape of the vibration can be chosen and numerous Lissajous figures (linear, circular, elliptic) can be produced (see Fig. 2(b)). Fig. 2: (a) Driving module with four unbalanced masses, (b) Side views for three principal modes of operation: linear (phase shift j = 0), circular (j = p/2), and elliptic (j = p/4) For the first experiments, a vibration mode was chosen consisting of a torsional vibration around the symmetry axis of the apparatus, superposed with a vertical oscillation. If, for example, the fixed phase shift j between these two perpendicular oscillations is chosen to be p/2, then each point on the trough traces a circular path in a vertical plane tangent to the trough at that point. In short, the support agitates the particles via vertical circular vibration. Results For the transport experiments, the channel is loaded with 450 g of carefully sieved glass beads with a mean diameter of 1.1 mm. The layer thickness of the grains is about five particle diameters. The average flow velocity is determined by tracking a colored tracer particle that is carried along with the bulk. This is done auto- 0,4 Transport direction 0,2 0,0 -0,2 -0,4 -0,6 3 1 2 0 Machine number K = Aω2/g 4 5 6 7 bulk solid, vibration amplitude A = 0.5 mm bulk solid, vibration amplitude A = 1.7 mm single bead Fig. 3: Non-dimensional transport velocity of a bulk solid consisting of five layers of glass beads on the vibratory conveyor by circular vibration, compared with the mean velocity of a single bead Through the application of different unbalanced masses, the vibration amplitude A was varied between 0.5 and 2.4 mm. It was found that the transport velocity increases linearly with the driving amplitude, whereas the critical machine numbers, where the transport direction reverses, is independent of the oscillation amplitude, at least in the range K < 5. In addition, it was found that the surface of the bulk doesn’t always remain flat. The first appearance of waves occurs at K | 2.4, where periodic maxima and Forschung aktuell 2015 | 67 Maschinenbau tal study of the transport of granular materials by inclined vibratory conveyors, Powder Technology, 87, 1996, pp. 203–210. [4] I. Derényi, P. Tegzes, T. Vicsek, Collective transport in locally asymmetric periodic structures, Chaos, 8, 1998, pp. 657–664. Fig. 4: Standing waves at the surface of the transported bulk solid for machine number K = 2.4 minima are seen, quickly oscillating up and down (see Fig. 4). In our system, because of the symmetry breaking caused by the circular drive of the vibratory conveyor, these surface waves travel and therefore influence the bulk velocity. Conclusions The vibratory conveyor presented is a prototype device for systematic studies of the transport properties of bulk solids on vibrating surfaces. For the first investigations, a vertical vibration was superimposed with a rotary oscillation around the vertical symmetry axis of the annular channel and a ninety degree phase difference. This induced the vertical, nearly level circular path for each section of the channel. A non-monotonous relationship of the transport velocity to the non-dimensional acceleration K was found. For industrial applications, the observed reversal effect is relevant as the direction of granular flow can be selected by the frequency of the excitation alone. One could employ such two-way conveyors for example in larger cascading transport systems as control elements to convey the material to different processes as needed. In the near future, considerable trials measuring the transport and mixing properties of bulk solids by diverse vibration adjustments are planned. In addition, this prototype conveyor system can be used to study the long-time rheological behaviour of other material classes in detail, such as liquids, suspensions, slurries or slushes. References [1] G. Pajer, H. Kuhnt, F. Kuhnt, Fördertechnik – Stetigförderer, VEB Verlag Technik, Berlin, 1988, pp. 226–255. [2] F.J.C. Rademacher, L. Ter Borg, On the theoretical and experimental conveying speed of granular solids on vibratory conveyors, Forschung im Ingenieurwesen, 60, 1994, pp. 261–283. [3] E. M. Sloot, N.P. Kruyt, Theoretical and experimen- 68 | Forschung aktuell 2015 [5] Z. Farkas, P. Tegzes, A. Vukics, T. Vicsek, Transitions in the horizontal transport of vertically vibrated granular layers, Physical Review E, 60, 1999, pp. 7022–7031. [6] M. Rouijaa, C. Krülle, I. Rehberg, R. Grochowski, P. Walzel, Transportverhalten und Strukturbildung granularer Materie auf Schwingförderern, Chemie Ingenieur Technik, 76, 2004, pp. 62–65. [7] R. Grochowski, P. Walzel, M. Rouijaa, C.A. Kruelle, I. Rehberg, Reversing granular flow on a vibratory conveyor, Applied Physics Letters, 84, 2004, pp. 1019–1021. Maschinenbau Zusammenfassung Vibrations- oder Schwingförderer werden in der industriellen Fertigung routinemäßig zum kontrollierten Transport von Schüttgütern eingesetzt. Fördergüter wie z. B. Holzpellets, O-Ringe oder Kartoffelchips können dabei durch drei verschiedene Mechanismen in die gewünschte Richtung bewegt werden. Ziel des Projekts ist eine systematische Untersuchung des Transportverhaltens in Abhängigkeit von drei prinzipiellen Schwingungsformen: linear, zirkular und elliptisch. Für die industrielle Anwendung ist relevant, dass es der kürzlich gefundene „Umkehreffekt“ erlaubt, die Bewegungsrichtung eines Schüttgutflusses allein durch die Frequenz der angeregten Schwingung zu selektieren. Abstract Vibratory conveyors are routinely used in industrial production for controlled transportation of bulk solids. The transported goods, such as wood pellets, o-rings, or potato chips, can be moved in the desired direction through three different mechanisms. The goal of this project is a systematic investigation of the dependence of the transport behavior on three principle oscillation modes: linear, circular, and elliptic. The recently observed “reversal effect” is relevant for industrial applications as the direction of granular flow is selected solely through the frequency of the induced vibrations. Autor Prof. Dr. rer. nat. habil. Christof Krülle Professor in the Faculty of Mechanical Engineering and Mechatronics at Karlsruhe University of Applied Sciences Contact Prof. Dr. rer. nat. habil. Christof Krülle Karlsruhe University of Applied Sciences Faculty of Mechanical Engineering and Mechatronics Moltkestrasse 30 76133 Karlsruhe Germany e-mail: christof.kruelle@hs-karlsruhe.de Wir bringen Sie in Position! Mit unseren hochpräzisen Komponenten, Einheiten und Systemen für alle Linear- und Rundbewegungen in der Automatisierungstechnik und im Präzisionsmaschinenbau. Alles aus einer Hand + + + + + + Mechanische Komponenten Motorische Präzisionsführungen Rundtische Komplettsysteme Mehrachssysteme Antriebs- und Steuerungstechnik Föhrenbach GmbH Lindenstraße 34 • D-79843 Löffingen-Unadingen Tel. +49 (0)7707 159 0 • Fax +49 (0)7707 159 80 info@foehrenbach.com www.foehrenbach.com PRÄZISION • FLEXIBILITÄT • ZUVERLÄSSIGKEIT • DESIGN Forschung aktuell 2015 | 69 Maschinenbau Funkenerosive Fertigung von geometrisch definierten Bohrungen – Untersuchung von Parametereinflüssen auf die Geometrie und Produktivität Matthias Risto und Rüdiger Haas Einleitung Bei der Fertigung von Bauteilen müssen häufig Formelemente wie z. B. Bohrungen eingebracht werden, die geometrischen Spezifikationen unterliegen. Da bei der Bohrerosion nahezu keine mechanischen Kräfte auftreten, hat das Verfahren einen klaren Vorteil gegenüber den spanenden Fertigungsverfahren in der Bearbeitung von harten oder zähen Werkstoffen. Daher wird die Bohrerosion neben der Fertigung von Startlochbohrungen, bei denen kaum Anforderungen an die Geometrie bestehen, auch in der Fertigung von Kühlbohrungen in Spritzgießwerkzeugen und Turbinenschaufeln eingesetzt. Hierbei stellt die Bohrerosion eine Schlüsseltechnologie dar und nimmt einen wichtigen Fertigungsschritt in der Wertschöpfungskette ein. Im Rahmen der hier vorgestellten Arbeit wurde Technologiewissen für die funkenerosive Fertigung von geometrisch definierten Bohrungen erarbeitet. Funkenerosion Die Funkenerosion gehört nach [1] den thermischen Abtragverfahren an und wird in die drei Verfahrensvarianten des funkenerosiven Senkens, Schneidens sowie Schleifens gegliedert.[2] Der Abtrag findet in einem isolierenden Arbeitsmedium, dem sogenannten Dielektrikum, statt. Aufgrund von stochastisch auftretenden elektrischen Entladungen zwischen zwei elektrisch leitfähigen Werkstoffen kommt es zu einem kontinuierlichen Abtrag. Prinzipiell können alle Werkstoffe bearbeitet werden, die eine elektrische Mindestleitfähigkeit aufweisen. Die Bohrerosion wird als abbildendes Fertigungsverfahren der Senkerosion zugeordnet. Hierbei wird eine rotationssymmetrische, rotierende Werkzeugelektrode verwendet, um Bohrungen in einem Werkstück zu erzeugen. Allerdings bestehen grundlegende Unterschiede zur Senkerosion. Unter anderem erfordern die hohe thermische Belastung der Werkzeugelektrode und die großen Bohrtiefen eine aktive Druckspülung durch das Innere der Elektrode, um das Werkzeug zu kühlen und die Abtragpartikel aus dem Funkenspalt zu spülen. Demgegenüber wird bei der Senkerosion der Funkenspalt meist durch eine Abhebebewegung der Elektrode gespült. Weiterhin ist in der Bohrerosion eine gewisse elekt- 70 | Forschung aktuell 2015 rische Leitfähigkeit des Arbeitsmediums gewünscht. Dies führt zu einem größeren Funkenspalt und nach [3] zu besseren Spülbedingungen. Kenntnisse der Senkerosion lassen sich daher nur bedingt auf die Bohrerosion übertragen. Versuchsrandbedingungen Im Rahmen des Projekts wurde ein definierter Bohrungsdurchmesser von DB = 2 mm gefertigt. Die Versuche wurden an einer Bohrerodiermaschine der bes-Funkenerosion GmbH durchgeführt. Als Versuchswerkstück wurde der Kaltarbeitsstahl X153CrVMo12-1 (DIN 1.2379) verwendet. Der Werkstoff zeichnet sich aufgrund des hohen Volumengehalts harter Karbide im Gefüge durch einen hohen Widerstand gegen abrasiven und adhäsiven Verschleiß aus.[4] Da die typischen Einsatzgebiete dieses Werkstoffs nach [5] in der Fertigung von Spritzgießwerkzeugen sowie Schneid- und Stanzwerkzeugen liegen, bietet er sich als Versuchswerkstück an. Als Werkzeugelektrode wurden 620 mm lange Kupferelektroden mit vier Spülkanälen (Typ-B) verwendet (s. Abb. 1). Abb. 1: Elektrodenquerschnitt: Typ-B (links), Typ-D (rechts) Der Elektrodendurchmesser wurde von DE = 1,6 mm bis DE = 1,9 mm in 0,1 mm Schritten variiert. Alle Versuche wurden in dem auf Wasser basierenden Dielektrikum IonoVit S der oelheld GmbH durchgeführt. Der Kostenaufwand wurde aus der Summe der Maschinenkosten, den Personal- und Materialkosten gebildet (s. Tab. 1) und ist von dem erzielbaren Vorschub und dem relativen Längenverschleiß der Elektrode abhängig. Ein Elektrodenwechsel wurde mit drei Minuten berücksichtigt. Als Bohrtiefe wurden 20 mm festgelegt. Maschinenbau Position Einheit Betrag Maschinenstundensatz [€/h] 41 Raumstundensatz [€/h] 2,25 Personalstundensatz [€/h] 40 Elektrodeneinzelkosten [€/WKZ] 4,8 verzichtet, da dies erfahrungsgemäß zu einer Gratbildung am Bohrungseintritt führt. Tab. 1: Randbedingungen für die Berechnung der Gesamtproduktivität Ergebnisse Der Soll-Bohrungsdurchmesser von DB = 2 mm konnte mit allen Elektrodendurchmessern realisiert werden. Die Kombinationen für den Entladestrom und die Entladedauer sind in Abbildung 2 zu sehen. 60 A Bohrungsdurchmesser DB= 2 mm = const. 50 45 40 25 20 0,06 15 10 60 100 0 Entladedauer te 150 Versuchsparameter 1.2379 Wst: Wkz: Kupfer B Wkz-Typ: negativ Wkz-Pol.: Dielektrikum: IonoVit S Uz [V]: 70 Ƭ [%]: 80 q [l/h]: variabel GAP [-]: 20 K [-]: 15 200 250 300 350 DE 1,9 DE 1,8 DE 1,6 DE 1,7 Lösungsfeld Abb. 2: Lösungsfeld für den Entladestrom und die Entladedauer zur Fertigung eines Bohrungsdurchmessers von DB = 2 mm mit vier unterschiedlichen Elektrodendurchmessern Mit dem Elektrodendurchmesser von DE = 1,9 mm wurde lediglich eine Parameterkombination erarbeitet. Mit geringerer Entladedauer bei gleichzeitig höherem Entladestrom können aufgrund der Stromanstiegszeit keine ausgeprägten Rechteckimpulse gewährleistet werden. Bei Entladeströmen unterhalb von 10 A konnte kein produktiver Bohrprozess erzielt werden. Entsprechend wurde auch für den Elektrodendurchmesser von DE = 1,6 mm nur eine Parameterkombination erarbeitet. Die Höhe des Entladestroms von ie = 55 A stellt den maximal möglichen Entladestrom des Generators dar. Auf eine weitere Steigerung der Entladedauer, bei gleichzeitiger Reduzierung des Entladestroms, wurde Zylindrizitätsabweichung tZ in mm Entladestrom ie 35 30 Der geforderte Bohrungsdurchmesser von DE = 2 mm konnte unter Verwendung eines Elektrodendurchmessers von DE = 1,7 mm und DE = 1,8 mm über verschiedene Einstellungen der elektrischen Einflussparameter erzielt werden. Die unterschiedlichen Einstellungen der Parameterkombinationen führten zu unterschiedlich starker Ausprägung der Zylindrizitätsabweichung (s. Abb. 3). Mit steigender Entladedauer – bei gleichzeitig abnehmendem Entladestrom – war ein Trend zu einer größeren Zylindrizitätsabweichung festzustellen. Dies lässt sich darauf zurückführen, dass mit dem Durchbruch der Elektrode durch das Werkstück beide nicht länger durch das Dielektrikum voneinander isoliert sind. Der Erosionsprozess findet vielmehr an der Luft statt. Im Gegensatz zu flüssigen Dielektrika fehlt bei gasförmigen Dielektrika die Einschnürungswirkung auf den Plasmakanal.[6] Dadurch breiten sich die Plasmakanalfußpunkte mit höherer Entladedauer stärker aus und die Tiefe der Einzelentladekrater nimmt ab, was zu einer größeren Differenz zwischen Bohrungseintritts- und -austrittsdurchmesser führt. 0,05 0,04 0,03 1 2 Parameterkombination PK Versuchsparameter PK: 1 2 3 DE[mm]: 1,7 = const. ie-[A]: 52 40 31 te[μs]: 100 200 300 q[l/h]: 10 = const. K[-]: 15 = const. 3 Mittelwert Mittelwert +/- Stdabw. Abb. 3: Zylindrizitätsabweichung in Abhängigkeit unterschiedlicher Parameterkombinationen für den Entladestrom und die Entladedauer Mit größerem Elektrodendurchmesser verringert sich auch die in den Bohrprozess einzukoppelnde Entladeenergie. Daraus ergibt sich eine geringere laterale Spaltweite und eine kleinere Zylindrizitätsabweichung in Abhängigkeit des verwendeten Elektrodendurchmessers (s. Abb. 4). Forschung aktuell 2015 | 71 Maschinenbau Zylindrizitätsabweichung tZ in mm 0,10 produktivität ähnlich dem Elektrodendurchmesser von DE = 1,8 mm erzielt werden. Dies lässt sich auf höhere Druckverluste und der daraus resultierenden mangelnden Spülung bei Typ-B-Elektroden, verglichen mit Typ-DElektroden, zurückführen. Dadurch wird der Arbeitsspalt nur unzureichend dekontaminiert, was zu einem vergleichsweise geringen Vorschub bei gleichzeitig hohem relativen Längenverschleiß führt. Die Verwendung eines Elektrodendurchmessers von DE = 1,9 mm führt zu der geringsten Zylindrizitätsabweichung der Bohrung, jedoch auch zu einem sehr geringen Vorschub und dadurch zu einer geringen Gesamtproduktivität. Diese ist durch die geringe eingekoppelte Entladeenergie bedingt. 0,06 0,06 0,04 0,02 0 1,6 1,8 1,7 1,9 Elektrodendurchmesser DE in mm Versuchsparameter DE[mm]: 1,6 1,7 1,8 ie[A]: 55 52 21 te[μs]: 400 150 100 q[l/h]: 10 10 12 K[-]: 35 80 15 1,9 18 20 7 5 Mittelwert Mittelwert +/- Stdabw. Abb. 4: Zylindrizitätsabweichung in Abhängigkeit des verwendeten Elektrodendurchmessers Die Gesamtproduktivität wurde aus dem Verhältnis von Bohrungsanzahl (Output) zu Kostenaufwand (Input) berechnet. Mit einem Elektrodendurchmesser von DE = 1,7 mm konnte unter den gegebenen Randbedingungen die größte Gesamtproduktivität erzielt werden (s. Abb. 5). Fazit Ein gegebener Soll-Bohrungsdurchmesser kann mit unterschiedlichen Elektrodendurchmessern gefertigt werden. Steht die Zylinderform der Bohrung im Vordergrund, sollte ein möglichst großer Elektrodendurchmesser verwendet werden. Ist eine hohe Gesamtproduktivität zu erzielen und die Zylinderform als sekundäre Zielgröße zu betrachten, kann ein kleinerer Elektrodendurchmesser gewählt werden. Sind mehrere Parameterkombinationen für den Entladestrom und die Entladedauer für einen Elektrodendurchmesser möglich, ist ein höherer Entladestrom einer höheren Entladedauer vorzuziehen, um eine möglichst geringe Zylindrizitätsabweichung zu erzielen. 2,0 Literatur [1] DIN 8580, Fertigungsverfahren – Begriffe, Einteilung, Beuth Verlag GmbH Berlin, 2003. Gesamtproduktivität n € [2] VDI-Richtlinie 3400, Elektroerosive Bearbeitung – Begriffe, Verfahren, Anwendung, Beuth Verlag GmbH Berlin, 1975. 1,0 0,5 0 0 50 100 150 200 250 300 n 400 [3] A. Karden, Funkenerosive Senkbearbeitung mit leistungssteigernden Elektrodenwerkstoffen und Arbeitsmedien, Dissertation, RWTH Aachen, 2000. Anzahl Bohrungen Versuchsparameter DE[mm]: 1,6 1,7 1,8 55 52 21 ie[A]: te[μs]: 400 150 100 q[l/h]: 10 10 12 K[-]: 35 80 15 1,9 18 20 7 5 DE 1,6 DE1,8 DE 1,7 DE 1,9 Abb. 5: Gesamtproduktivität in Abhängigkeit der Bohrungsanzahl für die vier verwendeten Elektrodendurchmesser Dies ergibt sich aufgrund des hohen Vorschubs bei gleichzeitig geringem relativen Längenverschleiß von unter 100%. Mit einem Elektrodendurchmesser von DE = 1,6 mm konnte trotz höherer Entladeenergie, verglichen mit der 1,7-mm-Elektrode, nur eine Gesamt- 72 | Forschung aktuell 2015 [4] Dörrenberg Edelstahl, Datenblatt 1.2379 (X153CrMoV12), Hg. v. Dörrenberg Edelstahl, zuletzt geprüft am 24.09.2014. [5] D. Nuetzel, Th. Hartmann, Nickel-Eisen Hartlotfolien mit Schmelztemperaturen < 1000 °C, in: Proceedings of the 8th international Conference on Brazing, High Temperature Brazing and Diffusion Bonding, 2007. [6] F.-J. Siebers, Funkenerosives Senken mit wässrigen Arbeitsmedien – Grundlagen, Technologie und Wirtschaftlichkeit, Dissertation, RWTH Aachen, 1993. Maschinenbau JS GmbH Abstract The aim of the project was the accurate and efficient manufacturing of a specified borehole diameter using electrical discharge drilling. The advantage of electrical discharge drilling, compared to conventional manufacturing methods, is that the hardness or toughness of the material is irrelevant. Different diameters and machining settings were used for the manufacturing of the borehole diameter. The influence of the diameter of the tool and the machining settings on the geometry of the borehole and the productivity are shown. ɵ REFERENZSYSTEME ɵ ROTIERSPINDELN ɵ RUNDTEILTISCHE EINE STARKE VERBINDUNG Zusammenfassung Das Ziel des Projektes bestand darin, einen vorgegebenen Bohrungsdurchmesser mithilfe der Bohrerosion möglichst genau und produktiv zu fertigen. Der Vorteil der Bohrerosion gegenüber konventionellen Fertigungsverfahren besteht darin, dass die Härte oder Zähigkeit des Werkstoffs keine Rolle spielt. Für die Fertigung des Bohrungsdurchmessers wurden unterschiedliche Werkzeugdurchmesser und Maschineneinstellungen verwendet. Es wird aufgezeigt, wie sich die Wahl des Werkzeugdurchmessers und der Maschineneinstellungen auf die Geometrie der Bohrung und die Produktivität auswirken kann. Autoren Matthias Risto M.Sc. Akademischer Mitarbeiter am Institute of Materials and Processes (IMP) der Hochschule Karlsruhe Prof. Dr.-Ing. Rüdiger Haas Professor an der Fakultät für Maschinenbau und Mechatronik und Geschäftsführender Direktor des Institute of Materials and Processes (IMP) Kontakt Matthias Risto M.Sc. Hochschule Karlsruhe – Technik und Wirtschaft Institute of Materials and Processes (IMP) Abteilung Fertigung und Produktion Moltkestraße 30 76133 Karlsruhe E-Mail: matthias.risto@hs-karlsruhe.de Telefon: 0721 925-2143 Ein- und mehrachsige Rundteiltische sowie Rotierspindeln gepaart mit hochpräzisen Spannmitteln: Eine starke Verbindung für innovative Fertigungsverfahren in der Funkenerosion und Laserbearbeitung. Für Draht-/Senkerodiermaschinen, HSC-, Fräsmaschinen, Bearbeitungszentren, Messmaschinen Forschung aktuell 2015 | 73 www.hirschmanngmbh.com www.js-hirschmann.com Schlaglichter Thermozyklisch betriebene Metalloxidgassensorarrays zur Brandfrüherkennung Jens Knoblauch, Navas Illyaskutty und Heinz Kohler Einführung Metalloxidgassensoren sind chemoresistive Sensoren, deren Leitwert sehr empfindlich auf Änderungen der umgebenden Gasatmosphäre reagiert. Wegen ihrer hohen Sensitivität bei vergleichsweise geringen Kosten finden sie klassische Anwendungen in der Luftgüteüberwachung oder Leckagedetektion. Aufgrund ihrer geringen Selektivität sind jedoch die möglichen Anwendungsfelder stark eingeschränkt. Um diesen Nachteil auszugleichen, werden am Institut für Sensorik und Informationssysteme (ISIS) der Hochschule Karlsruhe zwei Lösungsansätze verfolgt. Anstatt wie bisher üblich den Sensor bei einer fixen Betriebstemperatur zu betreiben, wird die Temperatur zyklisch zwischen festgelegten Temperaturgrenzen in einem Dreieckprofil variiert. Durch kontinuierliches Aufzeichnen des Leitwerts über einen Zyklus ergibt sich ein sogenanntes Leitwert-ZeitProfil (LZP), das spezifische Merkmale für die vorliegende Gasatmosphäre zeigt [1]. Da diese Merkmalsausbildung von der verwendeten sensitiven Schicht abhängt, lässt sich die Menge an gewonnen Informationen durch Kombination mehrerer unterschiedlicher Schichten zu einem Sensorarray erhöhen. Die Interdigitalelektroden werden in Dünnschichttechnik (PVD) metallisiert, anschließend werden in Dickschichttechnik die sensitiven Schichten (s. Abb.1) aufgebracht. Zur Charakterisierung des Arrays stehen diverse Untersuchungen zur Verfügung: thermische Analyse mittels IR-Mikroskop, Schichtdickenbestimmung mittels konfokaler Mikroskopie und Elektronenmikroskopaufnahmen zur Mikrostrukturbestimmung. Applikation Aufgrund der erhöhten Selektivität durch die thermozyklische Betriebsweise eines Sensorarrays eignen sich die Sensoren beispielsweise zur Brandfrüherkennung. Klassische Branderkennungssysteme nutzen z. B. oft Lufttrübungssensorik zur Detektion von Rauch. Typischerweise entsteht dieser jedoch erst bei einem offenen Feuer. Schwelbrände oder Kabelbrände in der Entstehungsphase könnten also, wenn man die dabei entstehenden Gase detektiert, bereits in einem früheren Stadium erkannt werden, bevor es zu Rauchbildung kommt. Im aktuellen Forschungsprojekt wird die Reaktion des Sensorarrays auf diese indikativen Gase von Kabelbränden im frühen Stadium untersucht, um charakteristische LZP-Strukturen zu finden, mit denen Abb. 1: Sensorarray (links oben); Falschfarben-Darstellung mit IR-Kamera (rechts oben); Konfokalmikroskopaufnahme zur Schichtdickenbestimmung (links unten); SEM-Aufnahme einer Sensorschicht (rechts unten, in Kooperation mit dem Institut für Funktionale Grenzflächen des Karlsruher Instituts für Technologie (KIT) Campus Nord) Abb. 2: Kabelprobe (oben) bei 14 A Belastung sowie (unten) die gemessene LZP der entstehenden Gaskompositionen Forschung aktuell 2015 | 75 Schlaglichter die sichere Detektion unabhängig von Störeinflüssen möglich ist. Zu diesem Zweck wurde ein Messaufbau konstruiert, der es erlaubt, Kabelproben definiert zu überhitzen oder mit elektrischen Strömen zu überlasten und die entstehenden Emissionen auf die Sensoren zu leiten. 500 450 400 0,8 Temp 0,6 350 300 250 200 150 0,4 0,2 0,0 0 20 Time/s 40 60 100 50 0 80 100 120 140 160 180 +Pd(1%) pure SnO2 +ZnO(1%) +Pt(1%) Temperature/C° normalized Conductance 1,0 Current Excitation 16 A rel. Concentration 50% Abb. 3: Kabelprobe (oben) bei 16 A Belastung sowie (unten) die gemessene LZP der entstehenden Gaskompositionen Zwei LZP-Aufnahmen des Sensorarrays aus einem Überlastungsexperiment sind in Abbildung 2 und 3 zu sehen. Diese zeigen eine Kabelprobe (PVC-Isolation, zugelassen für max. 2 A) bei Belastung mit elektrischen Strömen von 14 A und 16 A. Während bei 14 A ein leichtes Verfärben beobachtet werden kann, kommt es bei 16 A bereits zu starker Degeneration der Polymerschicht. Vergleicht man diese Beobachtungen mit den zugehörigen Sensorsignalen, zeigen sich die in Abbildung 2 und 3 dargestellten LZP. Hier wurde der Leitwert zur besseren Vergleichbarkeit der Schichtmaterialien normiert, um den Fokus auf die Profilform zu legen. Beide Szenarien führen zu einem deutlichen Anstieg des Sensorsignals, jedoch unterscheiden sich die beobachteten Profile stark. Es ist zu erwarten, dass beim Erhitzen des Kabels zuerst vorhandene, leicht flüchtige Stoffe (z. B. Weichmacher) entweichen, bevor es zu einer Zersetzung des Polymers kommt. Diese Unterschiede schlagen sich deutlich in unterschiedlichen Profilformen der LZP nieder. Durch Kalibrieren 76 | Forschung aktuell 2015 kann ein Sensorsystem zur Detektion dieser Pyrolysegase ertüchtigt werden, um frühzeitig bei Kabelüberlastungen z. B. in Kabelschränken zu alarmieren. Zur Analyse derartiger Sensorsignale wurden in Kooperation mit dem Institut für Angewandte Informatik (IAI) des KIT (Campus Nord) die zugehörigen numerischen Algorithmen [2] entwickelt, die neben der Gasidentifikation auch eine quantitative Analyse erlauben. Aussicht Vorläufige Pyrolyseversuche ergaben eine gute Sensitivität der ausgewählten Sensorschichten auf Emissionen von überlasteten und überhitzten Litzen. In weiteren Experimenten muss nun die optimale Sensorschichtenkombination für die gewählte Anwendung gefunden werden, die nicht nur gute Sensitivitäten und eindeutige Profilformen, sondern auch robuste Ergebnisse bei Störeinwirkungen liefert. Auch soll untersucht werden, wie sich komplexere Kabelmaterialien wie z. B. mehrlagige Kabelisolationen unter den beschriebenen Bedingungen verhalten. In einem BMBF-Förderprojekt im Verbund mit dem IAI und zwei Unternehmen wird bereits an einer Multisensorplattform gearbeitet, die gegen Projektende bereits erste Tests in Schaltschränken oder ähnlichen Umgebungen außerhalb des Labors erlauben soll. Literatur [1] K. Frank, V. Magapu, V. Schindler, H. Kohler, H.B. Keller, R. Seifert, Chemical analysis with tin oxide gas sensors: choice of additives, method of operation and analysis of numeric signal, 7th East Asian Conference on Chemical Sensors, Dec. 3–5, 2007, Singapore, SENSOR LETTERS 6(2008), p. 908–911. [2] J. Knoblauch, N. Illyaskutty, H. Kohler et al., Sensor System Applying Thermally Modulated MOG for Early Detection of Fires in Electrical Cabinets, in: Universität Duisburg-Essen (Hg.), Proceedings of the 15th International Conference on Automatic Fire Detection, Vol. 2, 2014, S. 105–112. [3] R. Seifert, H.B. Keller, K. Frank, H. Kohler, ProSens – an Efficient Mathematical Procedure for Calibration and Evaluation of Tin Oxide Gas Sensor Data, Sensor Letters, Vol. 9/1, 7–10, 2011. Investieren in die Zukunft. Verlag für Marketing und Kommunikation www.vmk-verlag.de Ideen Ihre Partner für Publikationen GmbH & Co. KG Faberstraße 17 | 67590 Monsheim [fon] ++49.(0)6243.909.0 [fax] ++49.(0)6243.909.400 [mail] info@vmk-verlag.de [web] www.vmk-verlag.de Kompetenz Erfahrung Drucksachen aller Art Faber aber b rstraß ber straße straß e1 17 | 6759 590 Monsheim Monsheim Mo im [fon] fo fon] ++49. 4 9. (0 (0)6 0)62 0) )62 62 43.90 3.909.110 9. 9.110 [fax] [fax fax] fa ax] x]] ++49 ++49. 4 (0) (0)62 (0)6 (0 243.90 43 43.90 9.100 [maill ] info@ fo@ o@vm vmk-d vmk v k-d rucke c rei.d de [web] web] eb] b ] www.v www. v m k-dr ucker uckerei.de ei.de .de Ideen haben kann ich überall. Realisieren kann ich sie hier. e und S tu d ie re n d /b so lv en te n la u h sc H o ch t ch u es g en n ab so lv en tin Menschen mit Pioniergeist und Leidenschaft haben E.G.O. international und über Branchengrenzen hinweg zu einem technologischen Impulsgeber gemacht. Lust, diese Tradition noch im Studium fortzusetzen? Ihrem Talent, den Freiraum und die Unterstützung zu gönnen, die es zum Entfalten braucht? Dann tun Sie es einfach: im Rahmen eines Praktikums, ihrer Werkstudententätigkeit oder Ihrer Abschlussarbeit. www.egoproducts.com/karriere Schlaglichter Abstract The article is about investigation of a metal-oxide gas sensor array, prepared for early detection of overloaded electrical cables. The chip, which has four different gas sensitive layers, is operated thermo cyclically. A setup for generation of pyrolysis gases is described. From the resulting conductanceover-time-profiles at pyrolysis gas exposure and numerical analysis, pyrolysis gases can be identified in an early stage. This enables fire alarms or cut-offs before a colour change of the cables is visible. Zusammenfassung Der Artikel befasst sich mit einem Metalloxid-Gassensorarray zur Früherkennung von überlasteten elektrischen Kabeln. Dieser besteht aus vier unterschiedlichen gassensitiven Wirkschichten auf einem thermozyklisch geheizten Chip. Ein Aufbau zur experimentellen Simulation der Pyrolysegase und zur Begasung des Sensorarrays wird vorgestellt. Anhand der Leitwertzeitprofile und deren numerischer Analyse werden die aus der Isolation entweichenden Pyrolysegase frühzeitig identifiziert, was die Auslösung eines Alarms oder die Abschaltung der Anlage ermöglicht, noch bevor eine Verfärbung der Isolationsmaterialien zu beobachten ist. Autor Jens Knoblauch M.Eng. Akademischer Mitarbeiter am Institut für Sensorik und Informationssysteme (ISIS) der Hochschule Karlsruhe Dr. Navas Illyaskutty Akademischer Mitarbeiter am ISIS der Hochschule Karlsruhe Prof. Dr. Heinz Kohler Professor an der Fakultät für Elektro- und Informationstechnik der Hochschule Karlsruhe und Sprecher des ISIS Kontakt Prof. Dr. Heinz Kohler Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Elektro- und Informationstechnik Moltkestraße 30 76133 Karlsruhe E-Mail: heinz.kohler@hs-karlsruhe.de Telefon: 0721 925-1282 78 | Forschung aktuell 2015 $OV0HQVFKÀHOPLUGHU(LQVWLHJGXUFK SHUV|QOLFKH(LQDUEHLWXQJOHLFKW 3$7(1ʫ ʫ3$7(17( Als Mitarbeiterin inspiriert mich das innovative Umfeld, in dem fast täglich ein neues Patent entsteht. Das ist meine Formel für Zufriedenheit. People for Process Automation Endress+Hauser ist ein international führender Anbieter von Messgeräten, Dienstleistungen und Lösungen für die industrielle Verfahrenstechnik. Eine Mitarbeit bei uns verbindet immer zwei Seiten: die technische plus die menschliche. Das Ergebnis: ein Mehr an Zufriedenheit. Jeden Tag. ,QIRUPLHUHQʫʫ%HZHUEHQJHKWDPHLQIDFKVWHQXQWHU www.endress.com/karriere Endress+Hauser GmbH+Co. KG Katrin Schmidt / Melanie Stock Hauptstraße 1 79689 Maulburg Tel. +49 7622 28 3000 Schlaglichter Berücksichtigung von Produkttechnologiesprüngen in der Planung von Produktionssystemen Claas Christian Wuttke und Stefan Haas Problemstellung Gerade die für Deutschland so wichtigen High-Tech-Industrien sind einem stetig beschleunigtem technologischen Wandel unterworfen. Aus makroskopischer Sicht wird durch kontinuierliche Innovationen die Wettbewerbsfähigkeit dieser Branchen gesichert. Notwendig dazu sind Technologiesprünge: Lässt sich die Leistungsfähigkeit einer Technologie trotz erheblicher Investition in ihre Weiterentwicklung nicht mehr steigern, so wird der Wechsel auf eine Zukunftsstrategie angestrebt. Deren Leistungsfähigkeit hat aber häufig noch nicht das Niveau der abzulösenden Basistechnologie erreicht, benötigt noch erhebliche Investitionen in die Entwicklung und/oder es fehlen noch die technischen, wirtschaftlichen oder rechtlichen Rahmenbedingungen für einen wirtschaftlichen Einsatz. Selbst wenn ein Technologiewechsel als sicher angenommen werden kann, bereitet der unklare Zeitpunkt des absehbaren Technologiesprungs besonders bei der Gestaltung von Produktionssystemen erhebliche Probleme. Handlungsbedarf Typische Beispiele für diese Problematik finden sich u. a. in der Automobilindustrie: Es besteht wenig Zweifel daran, dass zukünftige Fahrzeuge einen sehr hohen Anteil an Leichtbauteilen aufweisen [1] und elektrisch angetrieben sein werden [2]. Auch an der Mensch/Maschine-Schnittstelle (Cockpit) sowie der Kommunikation der Fahrzeuge mit ihrer Umgebung bis hin zum autonomen Fahren sind deutliche Technologiesprünge zu erwarten. Während aber die Innovationen im Cockpit sowie in der Kommunikation für den Nutzer sehr große Veränderungen mit sich bringen, ist zu erwarten, dass ihr Einfluss auf die Produktionssysteme begrenzt bleiben wird. Hier werden vorwiegend bewährte Montageverfahren und gegebenenfalls neue Prüfeinrichtungen zum Einsatz kommen. Ganz anders liegt der Fall bei den neuen Karosserie-Antriebstechnologien: Leichtbauteile aus Faserverbundwerkstoffen werden grundsätzlich mit anderen Fertigungsverfahren hergestellt als Blechteile. Des Weiteren ist auch klar, dass Elektromotoren grundverschiedene Fertigungsverfahren benötigen als Verbrennungsmotoren. Weil sowohl die Beschaffung hochwertiger Produktionsanlagen, deren Anordnung in spezifisch ausgestatteten Fabrikhallen, aber auch die Einstellung und Ausbildung von qualifiziertem Personal langfristige Entscheidungen sind, müssen wegen der zunehmenden Innovationsgeschwindigkeit schon bei den ersten Planungen zukünftige Technologiesprünge berücksichtigt werden. Da der Bedarf an Zeit und Mitteln für die Anpassung von Produktionssystemen auf neue Technologien die Wettbewerbsfähigkeit der Unternehmen erheblich beeinflusst, müssen diese schon direkt so ausgelegt werden, dass sie schnell und mit geringem Aufwand angepasst werden können; sie müssen also über die typische Stückzahl- und TypenFlexibilität hinaus wandlungsfähig sein. Lösungsansatz Der Ansatz, Produktionssysteme wandlungsfähig zu gestalten, ist keinesfalls neu.[3, 4] Das Innovative des im Folgenden vorgestellten Vorgehens beruht darauf, die notwendige Wandlungsfähigkeit eines neuen Produktionssystems bereits im Produktentwicklungsprozess zu berücksichtigen.[5] Dazu sind fünf Schritte notwendig, die Abbildung 1 entnommen werden können: 1. die Wandlungstreiber, also die Ursachen für den Wandlungsbedarf, sind zu identifizieren und 2. daraus sind Vorgaben für die Entwicklung des Produkts sowie der Fertigungsprozesse abzuleiten. Diese ersten beiden Schritte verlangen spezifisches Methodenwissen und können zu unternehmensinternen Zielkonflikten führen, sodass sie von einer zentralen Stelle, z. B. einem Wandlungsfähigkeitsteam, umgesetzt werden müssen. Anschließend werden dann Strategische Ebene 1 Wandlungstreiber analysieren Quality Gate 2 3 4 5 Fragenkatalog Entwicklungsvorgaben ableiten Quality Gate Passendes Produkt- und Prozesskonzept entwickeln Quality Gate Technisches Maßnahmen aus den Konzepten ableiten Quality Gate Fragenkatalog Fragenkatalog Fragenkatalog Maßnahmen im PEP umsetzen ... Quality Gate Fragenkatalog Operative Ebene Abb. 1: Herleitung von Maßnahmen zur Erreichung der Wandlungsfähigkeit Forschung aktuell 2015 | 79 Schlaglichter 5. unter gegenseitiger Validierung in die jeweilige Planung umgesetzt. Vorschläge für die konkreten Fragekataloge können [6] entnommen werden. Umsetzung Zur erfolgreichen Umsetzung des oben beschriebenen Ansatzes sind zwei Voraussetzungen zu erfüllen: Erstens muss die Wandlungsfähigkeit von Produkten und Produktionssystemen als Unternehmensziel definiert und über die Zielentwicklung in die Abteilungen gebracht werden. Unterstützt wird die Zielerreichung durch eine Stabsstelle mit spezialisierten Fachleuten. Hier kann nicht nur das notwendige methodische Know-how gebündelt, sondern auch unternehmensinternen Zielkonflikten vorgebeugt werden. Diese Vorgehensweise hat sich bei der Einführung von Initiativen zur Corporate Social Responsibility, Corporate Governance oder auch von Lean-Strategien etc. bewährt. Die zweite Voraussetzung für die Berücksichtigung von Technologiesprüngen in der Planung von Produktionssystemen liegt in der Integration der bereits oben genannten fünf Schritte zur Erreichung wandlungsfähiger Produkte und Produktionssysteme im Produktentstehungsprozess. Abbildung 2 verdeutlicht den angepassten Produktentstehungsprozess. Ausblick Um den neuen Produktentwicklungsprozess in konkreten Projekten einsetzen zu können, wurden mehrere Fragenkataloge entwickelt, mit denen nach jedem Planungsabschnitt geprüft werden kann, ob die vorgesehene Wandlungsfähigkeit gegenüber Technologiesprüngen erreicht wird. Diese werden in Unternehmen der Automobil- und -zulieferindustrie auf Praktikabilität und Vollständigkeit überprüft. Als Weiterentwicklung des Lösungsansatzes wäre es sicherlich sehr interessant, die Gestaltung von Zuliefernetzwerken zu berücksichtigen. Deren Planung ist schon im Rahmen der Stückzahl- und Typenflexibilität, d. h. auch ohne den Einfluss von Technologiesprüngen, oftmals problematisch. Einige der oben skizzierten Ergebnisse entstanden im Rahmen einer Master-Thesis an der Fakultät für Wirtschaftswissenschaften [6] sowie in enger Zusammenarbeit mit dem Fraunhofer Institut für Produktionstechnik und Automatisierung FhG-IPA in Stuttgart im Rahmen des BMBF-Projektes ARENA 2036. Weitere Ergebnisse können [5] entnommen werden. 80 | Forschung aktuell 2015 Schritt 1: Wandlungstreiber auswählen Produktentwicklung Prozessentwicklung Marktanalyse 1 Schritt 2: Entwicklungsvorgaben ableiten Lastenheft erstellen 2 Prüfung Lastenheft Funktionen und Wirkprinzipien ermitteln Schritt 3: Produktkonzept erstellen 3 Schritt 4: technische Maßnahmen ableiten 4 Modularisierung Produkt Erstellung Entwürfe Produktgestaltung Ausarbeitung Dokumentation Schritt 3: Prozesskonzept erstellen 4 Grobplanung Prozess Feinplanung Prozess 5 Quality Gate Klassisches PEP-Element Neues PEP-Element 3 Schritt 4: technische Maßnahmen ableiten Schritt 5: Maßnahmen umsetzen 4. daraus konkrete technische Maßnahmen abgeleitet. Schließlich werden diese Maßnahmen Produktplanung WF-Team Schritt 5: Maßnahmen umsetzen 3. parallel Konzepte für das Produkt sowie die notwendigen Fertigungsprozesse erstellt und 5 Ausarbeitung Anforderungsliste Betriebsmittel Systemeinführung, Hochlauf und Betrieb Abb. 2: Berücksichtigung der Wandlungsfähigkeit im Produktentwicklungsprozess (PEP) Literatur [1] E. Rauschnabel, B. Adams, LightWeightPro – Leichtbauteile großer Länge aus Rohrhalbzeugen umformen, in: wt Werkstattstechnik online, 103(2013), S. 796–801. [2] F.-J. Wöstmann, Neue Antriebskonzepte und Komponenten für Elektroautos, in: wt Werkstattstechnik online, 101(2011), S. 456–457. [3] E. Westkämper, et. al., Ansätze zur Wandlungsfähigkeit von Produktionsunternehmen: ein Bezugsrahmen für die Unternehmensentwicklung im turbolenten Umfeld, in: wt Werkstattstechnik online, 90(2000), S. 22–26. [4] P. Nyhus, et. al., Wandlungsfähige Produktionssysteme: Heute die Industrie von morgen gestalten, Hannover, 2008. [5] S. Haas, E. Sheehan, C.C Wuttke, M. Lickefett, Zukunftsfähige Produktionssysteme: Berücksichtigung der Wandlungsfähigkeit im Produktentstehungsprozess, in: ZWF Zeitschrift für wirtschaftlichen Fabrikbetrieb, 109(2014), 3, S. 133–137. Schlaglichter [6] S. Haas, Zukunftsfähige Produktionssysteme durch Berücksichtigung der Wandlungsfähigkeit im Produktentstehungsprozess, Master-Thesis, Fakultät für Wirtschaftswissenschaften, Hochschule Karlsruhe, 2014. Abstract This article describes the influence of technology leaps on the planning of production systems. The way in which specific approaches and methods can help to systematically identify imponderable factors and consider them in the design of production systems is shown. In this way identification of the break-through-point is the main challenge rather than the identification of new technologies themselves. The initial stage in solving this problem is to anticipate the need for appropriate adaptability of the new production system, which will surpass the standard flexibility offered concerning types and quantities of products. Zusammenfassung Der Artikel beschreibt den Einfluss von Technologiesprüngen auf die Planung von Produktionssystemen und zeigt Ansätze und Methoden auf, mit denen diese Unwägbarkeiten systematisch identifiziert und in der Gestaltung neuer Produktionssysteme berücksichtigt werden können. Dabei stellt weniger die Identifizierung neuer Technologien an sich als viel- mehr der Zeitpunkt ihres Durchbruchs eine besondere Herausforderung dar. Zentraler Ansatzpunkt für die Lösung dieser Problematik ist die Vorausplanung einer angemessenen Wandlungsfähigkeit der neuen Produktionssysteme, die über deren reguläre Typenund Stückzahlflexibilität signifikant hinausgeht. Autoren Prof. Dr.-Ing. Claas Christian Wuttke Professor für Produktion und Logistik an der Fakultät für Wirtschaftswissenschaften Stefan Haas M.Sc. Absolvent des Masterstudienganges Wirtschaftsingenieurwesen an der Hochschule Karlsruhe und Entwicklungsingenieur bei der Trumpf Laser GmbH Kontakt Prof. Dr.-Ing. Claas Christian Wuttke Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Wirtschaftswissenschaften Moltkestraße 30 76133 Karlsruhe E-Mail: claas-christian.wuttke@hs-karlsruhe.de Forschung aktuell 2015 | 81 Schlaglichter Durch Kollaboration zum erfolgreichen Entrepreneur – Erschaffung und Nutzen der Entrepreneur Crowd Raphael Pfeffer, Roman Roor, Karl Dübon und Reimar Hofmann Einleitung Ein wesentlicher Erfolgsfaktor bei Unternehmensgründungen ist die Vernetzung mit Unterstützern, die unkompliziert fehlendes Erfahrungswissen der Gründer kompensieren, ohne dass sofort Kosten anfallen, die in frühen Gründungsphasen untragbar wären. Das Internet bietet neue Möglichkeiten, solche Netzwerke aufzubauen. Im Folgenden werden wesentliche Bausteine vorgestellt, mit deren Hilfe Gründerinitiativen optimale Unterstützung finden können. Ein Beispiel, wie dies konkret umgesetzt werden kann, wird mit der Web-2.0Plattform SeedUp vorgestellt. Gründungspotenziale mit SeedUp ausschöpfen Mit der Gründerplattform SeedUp wird das Ziel verfolgt, potenzielle Entrepreneure und Ihre Partner effizienter zusammenzuführen. Besonders die finanziellen Aspekte am Anfang einer Unternehmensgründung stellen für unerfahrene Entrepreneure große Hürden dar. Auf der einen Seite gibt es eine nicht übersehbare Zahl unterschiedlichster Förderungsprogramme, die Beratungsstunden übernehmen oder bezuschussen und kostengünstige Kredite vergeben, auf der anderen Seite erfordert jedes Programm eigene Vorgaben über Aufbau und Struktur der zu erstellenden Geschäftspläne. Virtuelle Kollaboration durch Web 2.0 Nur die wenigsten Gründerprojekte können alleine durch eine Person bewältigt werden. Oft fehlt es an Expertise oder der Zeitraum bis zur Marktreife wäre ohne Unterstützung zu lang. Virtuelle Kollaboration, bei der die Kommunikation zwischen den Teammitgliedern über virtuelle Medien geschieht, schafft hier neue Möglichkeiten – insbesondere zur überregionalen und internationalen Zusammenarbeit, weil weder räumliche noch zeitliche Nähe gegeben sein muss.[1] Untersuchungen dazu haben gezeigt, dass durch die fehlende Nähe klassische Anreizfaktoren wie zum Beispiel die sichtbaren Statussymbole am Arbeitsplatz an Bedeutung verlieren. Stattdessen nehmen übergeordnete Ziele und monetäre Anreize für virtuelle Teams eine wichtigere Rolle ein. [2] Zur Mitarbeit in einem Gründernetzwerk sind externe Partner wie Kapitalgeber, Steuerberater oder Anwälte durch ihr eigenes Geschäftsinteresse motiviert. Damit ein Netzwerk funktioniert, sind aber auch Beiträge erforderlich, die über das unmittelbare Eigeninteresse hinausgehen, z. B. durch kostenlose Tipps aus dem eigenen Erfahrungswissen oder das Bewerten und Kommentieren von anderen Beiträgen – auch von Gründern. Gerade bei einem Web-2.0-Netzwerk muss dies durch ein geeignetes Anreizsystem sichergestellt werden, das dafür sorgt, dass sich ein dynamisch wachsendes, virtuelles Team bildet und verteilte und schwer zugängliche Informationen zentral zusammenträgt. Auch spieltheoretische Untersuchungen bestätigen, dass durch den Einsatz von symbolischen Anreizobjekten, auch ohne materiellen Wert, kooperatives Verhalten möglich ist.[3] Eine standardisierte Übersicht und interaktive Führung durch diese Informationen ist ein Hauptaspekt der Gründerplattform SeedUp. Durch die Unterstützung der virtuellen Kollaboration mit einer übergreifenden Instanz kann die gebündelte Intelligenz von Gründern genutzt werden. Der Gründer spart sich überflüssige Termine und wertvolle Zeit. 82 | Forschung aktuell 2015 Gründungsfinanzierung Mit SeedUp wird das Ziel verfolgt Gründungsinteressierte und Kapitalgeber ohne Umwege zu vermitteln. Dabei sollen nicht nur einzelne regionale oder funktionale Finanzierungsformen angeboten werden (Geldgeber aus Business-Angel-Vereinen, Crowdfunding …), sondern die gesamte Palette an Finanzierungsund Gründungsformen zur Verfügung stehen.[4, 5] Frei parametrisierbare Filter und Auswahlstrukturen ermöglichen es, optimale Matches zu finden und diese auf intuitive Weise vergleichen zu können. Anreizsystem Zunächst ist ein Anreiz für Geldgeber und Entrepreneure bereits durch die potenzielle Erweiterung der eigenen Geschäftskontakte, dem Wissenserwerb und -erweiterung im Netzwerk geschaffen. Es können sich sowohl für die Gründer- als auch die Kapitalgeberseite attraktive Opportunitäten ergeben. Zudem eröffnet sich damit für Kapitalgeber ein weiterer Vertriebskanal. Damit Gründungsbeteiligte sich jedoch nachhaltig am Netzwerk beteiligen, ist ein erweitertes Anreizsystem erforderlich. Entschädigungen für gegenseitige Hilfestellungen und den Wissensaustausch sowie das Zusammentragen von Informationen machen ein geeignetes Bonussystem erforderlich, das den Aufwand der Beteiligten ver- Schlaglichter Abb. 1: Gründerplattform SeedUp gütet. Darüber hinaus finden auch auf internen Ebenen virtuelle Kooperationen statt. So werden zum Beispiel Businesspläne in der Regel von mehreren Personen erarbeitet. Um die Ausarbeitung effizienter zu gestalten, erlaubt ein Online-Businessplangenerator die gleichzeitige Bearbeitung der Inhalte. Das Team kann virtuell von jedem Ort der Welt den ersten Schritt zur erfolgreichen Kapitalakquise erarbeiten. outsourcen oder modular einkaufen [6]. Die Höhe der Kosten kann in den ersten Phasen der Gründung über den weiteren Erfolg der Unternehmung entscheiden. SeedUp verteilt in Absprache mit dem Entrepreneur vorhandene Ressourcen intelligent auf qualifizierte Experten, verbindet den Entrepreneur mit ausgewählten Dienstleistern und ermöglicht so den Fokus auf das Kerngeschäft. Transaktionskosten optimieren Gründungsprozesse erfordern eine Vielzahl von Aufgaben mit hohem Ressourcenaufwand, die jedoch nicht alle zur Kernaufgabe des Unternehmens gehören. Dazu zählt oft Grundlegendes wie Buchhaltung, IT-Infrastruktur und Rechtsbeistand. Entrepreneure müssen sich auf die Geschäftsidee, ihre Kernkompetenz und das Entrepreneurial Design konzentrieren – jeder sollte das machen, was er am besten kann. Nicht beherrschte Kompetenzen sollte der Entrepreneur stattdessen Zusammenfassung Das Web 2.0 bietet besondere Möglichkeiten zur Unterstützung von Gründungsprozessen insbesondere in der Zusammenführung und Zusammenarbeit der Gründungsbeteiligten. Voraussetzung hierfür ist die Integration eines Anreizsystems, um bei den Beteiligten die Bereitschaft zu nützlichen Unterstützungsleistungen für Gründer zu erreichen. Mit SeedUP werden Gründungbeteiligte, Instrumente zur Unterstützung der Gründungsschritte und die notwendigen Anreiz- Forschung aktuell 2015 | 83 Schlaglichter systeme in einem gemeinsamen Gründerportal verknüpft. An diesem Beispiel wurde im Themengebiet der Gründungsfinanzierung dargestellt, wie mit Einsatz dieser kollaborativen Bestandteile typische Gründungsbarrieren abgebaut werden können. Literatur [1] M. Herczeg, Virtuelle Teams: Erkenntnisse über die Nutzung von Video Conferencing und Application Sharing bei der Unterstützung virtueller Teams, Inst. Arbeit und Technik, 2000. [2] G. Hertel, U. Konradt, Telekooperation und virtuelle Teamarbeit, München & Oldenbourg, Interaktive Medien, 2007. [3] G. Camera, M. Casari, M. Bigoni, Money and trust among strangers, Proceedings of the National Academy of Sciences, 110(37), 2013, pp. 14889– 14893. [4] B. Fischer, Finanzierung und Beratung junger Startup-Unternehmen: Betriebswirtschaftliche Analyse aus Gründerperspektive, Deutscher Universitätsverlag, 2004. [5] Ch. Hahn, Finanzierung und Besteuerung von Start-up-Unternehmen: Praxisbuch für erfolgreiche Gründer, Wiesbaden, Springer Fachmedien, 2013. [6] G. Faltin, Kopf schlägt Kapital: Die ganz andere Art, ein Unternehmen zu gründen – Von der Lust, ein Entrepreneur zu sein, Carl Hanser Verlag GmbH & Company KG, 2012. Abstract Entrepreneurs face many barriers on the path to starting a successful business. Many of these barriers could be removed if entrepreneurs had access to a network of supporters willing to cooperate. This article will show how the formation of such a network can be assisted by means of Web 2.0. This requires a platform for efficient communication, including instruments and methods for recurring tasks, and an effective incentive scheme. SeedUp is a platform for entrepreneurs, which aims to meet these requirements. Using the example of start-up financing this article shows how the necessary components can be combined and shaped concretely. Zusammenfassung Viele Entrepreneure scheitern bereits auf dem Weg zur Gründung. Doch einige Barrieren könnten abgebaut werden, würde Gründern ein Netzwerk von kollaborationswilligen Unterstützern zur Verfügung stehen. Im Folgenden soll gezeigt werden, wie mit Mitteln des Web 2.0 die Entstehung eines solchen Netzwerks forciert werden kann. Notwendig hierzu sind eine effiziente Kommunikationsplattform, verschiedene Methoden und Instrumente sowie ein entsprechendes Anreizsystem. Mit der Gründerplattform SeedUp sollen diese Anforderungen realisiert werden. Am Beispiel des Prozessschrittes „Gründungsfinanzierung“ wird gezeigt, wie dies konkret ausgestaltet und die notwendigen Bestandteile zusammengefügt werden können. Autoren Dipl.-Wi.-Ing. Raphael Pfeffer und Roman Roor M.Sc. Unternehmensgründer von SeedUp Prof. Dr. Karl Dübon und Prof. Dr. Reimar Hofmann Professoren an der Fakultät für Informatik und Wirtschaftsinformatik der Hochschule Karlsruhe Kontakt Prof. Dr. Karl Dübon Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Informatik und Wirtschaftsinformatik Moltkestraße 30 76133 Karlsruhe E-Mail: karl.duebon@hs-karlsruhe.de 84 | Forschung aktuell 2015 Schlaglichter Neue Konzepte zur Messung der Risikobereitschaft bei Privatanlegern Franz Nees und Stefanie Regier Ausgangssituation Für Privatanleger ergibt sich aus der Kapitalmarktsituation das Dilemma, dass sie mit der Rendite sicherer Anlagen nicht zufrieden sein können. Gleichzeitig scheuen sie häufig Risiken, die mit einer besseren Performance einhergehen. Banken stehen also vor der Herausforderung, Kunden im Hinblick auf deren persönliche Präferenzen hinsichtlich Risiko und Rendite zu beraten, dabei gleichzeitig gesetzliche Rahmenbedingungen und Marktgegebenheiten zu berücksichtigen. Unterstützend kann bei dieser Aufgabe der sinnvolle Einsatz von Informationstechnologie sein. Methodische Grundlagen Im Rahmen eines Forschungsprojekts an der Hochschule Karlsruhe zur Aufdeckung der Risikobereitschaft von Anlegern wurde versucht, Verfahren aus dem Bereich der Marktforschung auf das Feld der Anlageberatung zu transformieren. Primär geht es in der Marktforschung auch darum, Wünsche und Einstellungen von Kunden zu ermitteln, sodass die Ausgangsbasis vergleichbar ist. Allerdings interessiert sich die Marktforschung häufig für die Präferenzen von ganzen Kundengruppen. Dagegen ist die Anlageberatung etwas sehr Individuelles, das nur unter Berücksichtigung der jeweiligen persönlichen Umstände, der Präferenzen und des bestehenden Vermögens des Kunden erfolgen kann. Gesucht war also ein Verfahren, das Erkenntnisse über Präferenzen von Individuen liefert. Als Ausgangsbasis für diese Aufgabenstellung wurde die Choice-Based-Conjoint-Analyse (CBC) gewählt, die auf der ökonomischen Entscheidungstheorie aufbaut und Probanden mit reinen Tradeoff-Entscheidungen konfrontiert. Dabei erwies sich die CBC HB, die Individual-Nutzenwerte mithilfe hierarchi- scher bayesianischer (HB) Modelle schätzt, am besten für die Anlageberatung geeignet. Immer dort, wo individuell zu wenige Informationen über die Präferenzen von Merkmalen und Ausprägungen vorhanden sind, wird die Lücke mithilfe einer HB-Schätzung aus der Präferenzverteilung einer Gesamtpopulation abgeleitet. Untersuchungsdesign Den Probanden werden verschiedene fiktive Finanzprodukte vorgelegt, die die relevanten Einzelmerkmale enthalten. Sie wählen dann über eine Folge von mehreren Befragungsschritten immer wieder unter einer Reihe von Produktbündeln ein präferiertes Produkt aus. Da die Präferenzen des Individuums und nicht die einer Gruppe gesucht werden, sind pro Proband zwischen 20 und 30 Auswahlentscheidungen erforderlich. Am Ende der Befragung lässt sich dann aus den gesammelten Antworten der Trade-off zwischen den einzelnen Merkmalen eines Finanzprodukts genau bestimmen. Für die Anlageentscheidung wurden folgende Merkmale als besonders relevant angesehen: • Risiko: Maximaler Kapitalverlust in einem Jahr • Rendite: Ertrag der Anlage innerhalb eines Jahres • Anlagebetrag: Betrag, der in ein einzelnes Produkt investiert wird • Anlagedauer: Gesamthorizont der Vermögensanlage • Liquidität: Zeit bis zur möglichen Verfügbarkeit des Kapitals • verfügbares Kapital: Gesamtsumme aller Assets Der Einsatz dieser Methode im Kontext der Anlageberatung führt idealerweise dazu, dass sich die Einflussfaktoren identifizieren lassen, die für die Anlageentschei- Rendite pro Jahr 8,5 % Rendite 22 % Rendite 3,5 % Rendite Maximaler Kapitalverlust pro Jahr 8,5 % Risiko 100 % Risiko 60 % Risiko Anlagenbetrag 20 Tsd. € 5 Tsd. € 50 Tsd. € Verfügbarkeit des Kapitals 12 Monate 12 Monate 30 Tage Ich würde keinen dieser Vorschläge wählen Abb. 1: Beispiel für Entscheidungsalternativen innerhalb eines Befragungsschritts Forschung aktuell 2015 | 85 Schlaglichter dungen den Ausschlag geben. Grundlage der Analyse bildet die oben vorgestellte CBC-Methode mit hierarchisch bayesianischen Modellen. Die gewonnenen Erkenntnisse sollen als Hilfsmittel für die Anlageberatung dienen. Da dieses Vorgehen den Anleger selbst mit einbezieht, dient es auch dazu, ihm vor der eigentlichen Anlageentscheidung die eigenen Präferenzen klar zu machen. Die Befragung besteht aus zwei Schritten. Im ersten Teil gibt der Proband den geplanten Investitionszeitraum und das verfügbare Kapital an. Im zweiten Teil erfolgt dann die eigentliche Ermittlung der Präferenzstruktur. Dazu müssen die Probanden nun 20 bis 30 Trade-off-Entscheidungen treffen, wie sie exemplarisch in Abbildung 1 zu sehen sind. Der Zeitaufwand pro Proband liegt in der Größenordnung von 15 Minuten. Ergebnisse der Untersuchung Die beschriebene Befragung wurde im Rahmen der Studie anonym von einer kleineren Zahl von fachkundigen Teilnehmern aus dem Bankenumfeld beantwortet. Die Ergebnisse sind wegen der geringen Anzahl der Antworten zwar statistisch nicht repräsentativ; primär ging es jedoch um die grundsätzliche Verwendbarkeit der gewählten Methode für den vorgesehenen Zweck. Dies erscheint nach den bisherigen Erkenntnissen sehr gut möglich. Über die Gesamtheit aller ausgewerteten Fragebögen werden die Anlageentscheidungen der Studienteilnehmer vorrangig vom Risiko geprägt, die relative Wichtigkeit im Hinblick auf die Anlageentscheidung liegt bei über 70%, wobei kleinere Risiken bevorzugt werden. Die erwartete Rendite geht mit einer relativen Wichtigkeit von etwa 25% in die Entscheidung ein, ebenfalls im Zusammenhang mit dem Vorzug höherer Renditen. Kaum Einfluss auf die Anlageentscheidung nehmen mit jeweils weniger als 3% schließlich die Losgröße und der Anlagehorizont der Einzelinvestition. Bevorzugt werden von den Probanden kleinere Losgrößen für die Anlage in einzelnen Investments. Abb. 2: Gesamtergebnis der Stichprobe im Rahmen der Studie – relative Wichtigkeit der Einflussfaktoren 86 | Forschung aktuell 2015 Die zentrale Fragestellung der Studie war aber nicht die Ermittlung der Anlagemotive einer Kundengruppe, sondern vielmehr die Ermittlung individueller Motive. Und hier ergeben sich nun völlig neue Möglichkeiten, denn für jeden Teilnehmer an der Studie und damit potenziell für jeden einzelnen Beratungskunden einer Bank kann die persönliche Interessenlage auf die gleiche Weise aus den Befragungsergebnissen ermittelt werden. Jedem Individualergebnis kann dann als Benchmark ein Gesamt- oder Gruppenergebnis gegenübergestellt werden. Im Folgenden wird dies an einer zufällig herausgegriffenen Person im Rahmen der Testbefragungen illustriert. Abb. 3: Ergebnis für einen zufällig gewählten Teilnehmer an der Studie – relative Wichtigkeit der Einflussfaktoren Wie zu erkennen ist, unterscheiden sich die Anlagemotive dieses Individuums erheblich von der Referenzgruppe. Das Risiko spielt hier eine kleinere Rolle und die Rendite hat für diesen potenziellen Anleger eine deutlich höhere Bedeutung. Aber auch der Anlagebetrag einer Einzelinvestition und die Liquidität einer Anlage spielt für die hier ausgewählte Testperson eine durchaus bedeutsame Rolle. Einem solchen Kunden müsste die Bank offenkundig auch andere Anlageprodukte anbieten als dem Durchschnittskunden. Er erwartet eine höhere Rendite und wird bei einer schlechten Performance seiner Anlagen entsprechend unzufrieden sein. Gleichzeitig kann der Berater diesem Kunden auch von Anfang an bewusst machen, dass er aufgrund seiner geäußerten Präferenzen ein größeres Risiko tragen muss als der Durchschnitt. Falls das Portfolio dann tatsächlich Verluste erleidet, wird er es unter diesen Voraussetzungen wohl auch eher tolerieren. Fazit Obwohl also die weitere Ausarbeitung der vorgestellten Methodik noch nötig ist, kann ein erstes positives Fazit gezogen werden: • Der Einfluss der Einzelfaktoren auf die individuelle Anlageentscheidung eines Kunden kann eindeutig Schlaglichter quantifiziert werden, ohne dass eine zeitlich umfassende Befragung notwendig wird. Die Teilnehmer an der Studie benötigten für einen Durchlauf etwa 15 Minuten. • Im Design der vorliegenden Studie waren vier Faktoren berücksichtigt worden. Diese Anzahl lässt sich bei Bedarf durchaus noch erhöhen, sodass eine weitere Differenzierung möglich ist. • Die Ergebnisse sind für Berater und Kunde gleichermaßen transparent und differenziert. Abstract As part of a research project at the Karlsruhe University of Applied Sciences we analyzed customer’s risk behavior using the Choice-Based-Conjoint (CBC). The CBC is a market research technique used to determine which features new products should have. Each respondent is shown a set of concepts with different risk and return specifications and asked to choose a preference for investment. First results show that CBC could be a suitable instrument for measuring the willingness of private investors to take risks. Zusammenfassung Im Rahmen eines Forschungsprojekts an der Hochschule Karlsruhe wurde versucht, die Risikobereitschaft von Anlegern mit Methoden der Marktforschung zu messen. Dabei wurden mithilfe der Choice-Based-Conjoint Präferenzen im Hinblick auf Risiko und Rendite von Anlagekunden anhand hypothetischer Anlageentscheidungen erhoben. Die Probanden bekamen verschiedene Sets unter- schiedlicher Risiko-/Rendite-Kombinationen vorgelegt. Erste Ergebnisse der Untersuchung legen ein positives Fazit im Hinblick auf die Eignung der Methode zur indirekten Messung von Risikobereitschaft von Anlegern nahe. Autoren Prof. Franz Nees Professor an der Fakultät für Informatik und Wirtschaftsinformatik Prof. Dr. Stefanie Regier Professorin an der Fakultät für Informatik und Wirtschaftsinformatik Kontakt Prof. Dr. Stefanie Regier Hochschule Karlsruhe – Technik und Wirtschaft Fakultät für Informatik und Wirtschaftsinformatik Moltkestraße 30 76133 Karlsruhe E-Mail: stefanie.regier@hs-karlsruhe.de Forschung aktuell 2015 | 87 Bei uns findest Du Deinen Traumberuf! www.opusmundi.de Hol‘ Dir die App! Besuch‘ uns auf und schenk‘ uns einen app.opusmundi.de www.facebook.com/Opusmundi.de Kann man angehende Ingenieure in die Fußstapfen Rudolf Diesels treten lassen? MAN kann. Rudolf Diesel wäre heute stolz auf Sie.1893 hat der passionierte Ingenieur bei MAN in Augsburg einen Motor entwickelt, der immer noch die ganze Welt bewegt: den Dieselmotor. Heute baut MAN weltweit Trucks und Busse, wir sind Weltmarktführer bei Großdieselmotoren und Turbomaschinen für maritime und stationäre Anwendungen und konstruieren vom Propeller bis zum Turbolader alles, was die Welt antreibt. Um den visionären Ideen Rudolf Diesels gerecht zu werden, forschen und entwickeln wir bei MAN immer weiter an noch besseren und effizienteren Antrieben. Und das zusammen mit jungen Ingenieuren, die mit frischen Ideen und jeder Menge Herzblut die Grenzen des Machbaren immer weiter verschieben. Und so in seine Fußstapfen treten. Rudolf Diesel wäre stolz auf Sie. man.eu/karriere Engineering the Future – since 1758. SEW-EURODRIVE—Driving the world Wer zu uns kommt, schätzt den kleinen Unterschied. . t u v. c ww om w Den zwischen Reden und Machen. ID : 91 Ingenieure mit Erfindungsgeist und Gestaltungswillen gesucht. Wir sind einer der Innovationsführer weltweit im Bereich Antriebstechnologie. Wir sind facettenreich genug, um Ihren Ehrgeiz mit immer wieder spannenden Projekten herauszufordern. Und klein genug, um Ihre Ideen ohne große Umwege in die Tat umsetzen zu können. SEW-EURODRIVE hat für Ingenieure aus den Bereichen Entwicklung, Vertrieb, Engineering, Softwareentwicklung und Service zahlreiche interessante Perspektiven zu bieten. Also: Haben Sie Lust, in einem engagierten Team etwas Gutes noch besser zu machen? Dann herzlich willkommen bei SEW-EURODRIVE! Jetzt informieren über Praktikum, Abschlussarbeit und Berufseinstieg: www.karriere.sew-eurodrive.de 05 063525