Forschung aktuell 2015

Transcription

Forschung aktuell 2015
Opusmundi - Dein Start in die Arbeitswelt!
Finde hier Deinen Traumjob!
l
l
e
u
t
k
a
g
Forschun
2015
8
ISSN 1613-495
®
Von zufriedenen Mitarbeitern empfohlen.
Da müssen wir uns erstmal setzen: Schon zum zweiten Mal in Folge wurde ebm-papst
nach unabhängiger Mitarbeiter-Befragung als einer der 50 Top-Arbeitgeber in Deutschland
ausgezeichnet! Das bestätigt unsere verantwortungsvolle Unternehmenskultur und
zeigt, dass weltweit führende Ventilatoren und Motoren nur mit begeisterten Mitarbeitern
entstehen können. Finden auch Sie Ihren Platz: www.ebmpapst.com/karriere
Liebe Leserinnen und Leser,
das zurückliegende Forschungsjahr
2014 war für die Hochschulen für
Angewandte Wissenschaften (HAWen) in Baden-Württemberg ein
spannendes Jahr. Das von den HAWen bereits seit Längerem geforderte Promotionsrecht bestimmte
die Diskussionen. Der Umstand,
dass die HAWen bislang kein eigenes Promotionsrecht haben, ist
insbesondere im Hinblick auf die in
den letzten Jahren deutlich ausgeweiteten Forschungsaktivitäten der
HAWen zu betrachten und in Frage zu stellen. Das diesbezügliche
Drittmittelaufkommen hat sich an
den HAWen in Baden-Württemberg
seit dem Jahr 1995 um den Faktor
neun bis zehn erhöht. Seit dem
Jahr 2004 ist das durchschnittliche
Drittmittelaufkommen pro Professur im Land von rund 6 000 Euro
auf fast 18 000 Euro gestiegen. Eng
mit dieser Tatsache verknüpft ist
auch die Quote der forschungsaktiven Professoren an der Hochschule Karlsruhe, die aktuell bei
23 Prozent liegt.
Im April 2014 trat in Baden-Württemberg ein neues Landeshochschulgesetz in Kraft. Durch die
darin erstmals enthaltene Weiterentwicklungsklausel existiert nun
eine Basis für eventuelle weitere
Promotionsmöglichkeiten, denn das
Wissenschaftsministerium kann
demnach einem Zusammenschluss
von HAWen nach evaluations- und
qualitätsgeleiteten Kriterien das
Promotionsrecht befristet und thematisch begrenzt verleihen. Die
konkrete Ausgestaltung dieser Klausel wird derzeit intensiv diskutiert,
und es sind noch zahlreiche Fragen
zu klären. Die Möglichkeit kooperativer Promotionsverfahren zusammen mit Universitäten soll nach wie
vor bestehen bleiben, die HAWen
streben darüber hinaus jedoch ein
partielles Promotionsrecht über die
Mitgliedschaft in einem promoti-
onsberechtigten Hochschulverbund
an. Hierzu hat die Rektorenkonferenz der Hochschulen für Angewandte Wissenschaften in BadenWürttemberg eine Arbeitsgruppe
eingesetzt, die Rechtsfragen im Zusammenhang mit der Ausgestaltung
der Weiterentwicklungsklausel ausleuchtet und einen Vorschlag für
den Hochschulverband ausarbeiten
soll. Als forschungsstärkste HAW in
Baden-Württemberg ist die Hochschule Karlsruhe in dieser Arbeitsgemeinschaft selbstverständlich
vertreten.
Durch diese politischen Tendenzen
aber auch aufgrund des frühzeitig
entwickelten Interesses und einer
vorausschauenden Hochschulstrategie für qualitativ hochwertige
angewandte Forschung bleibt die
Hochschule Karlsruhe in ihren Forschungsschwerpunkten „Energieeffizienz und Mobilität“, „Materialien, Prozesse und Systeme“ und
„Intelligente Systeme“ mit zahlreichen Forschungsprojekten am Puls
der Zeit. Zukünftiges Ziel ist es, die
unternommenen Anstrengungen
weiter zu intensivieren.
Auch in der aktuellen Ausgabe unseres jährlich erscheinenden Forschungsberichts möchten wir Ihnen
einen Einblick in die vielfältigen
Aktivitäten und Projekte der Hochschule geben. Schwerpunkte dieser
Ausgabe sind die Themen:
• IT & Kommunikation
• Bauwesen
• Umweltschutztechnik
• Maschinenbau
Mit unserer Rubrik „Schlaglichter“
möchten wir Ihnen weitere spannende Projekte kurz vorstellen.
Mein Dank gilt auch in diesem Jahr
allen Kolleginnen und Kollegen,
die ihre Ergebnisse in diesem Be-
richt veröffentlichen. Vielen Dank
auch all denen, die redaktionell
und organisatorisch an der Publikation dieses Forschungsberichts
mitgewirkt haben.
Ihnen als Leserinnen und Lesern
wünsche ich bei der Lektüre interessante Einblicke in die Forschungsaktivitäten unserer Hochschule.
Prof. Dr. Markus Stöckner
Prorektor für Forschung, Infrastruktur und Qualitätsmanagement
Impressum
ISSN 1613-4958
Hochschule Karlsruhe – Technik und Wirtschaft.
Forschung aktuell 2015
Herausgeber
Rektorat der Hochschule Karlsruhe
Technik und Wirtschaft
Redaktion
Prof. Dr. Markus Stöckner
Prorektor der Hochschule Karlsruhe
Cordula Boll
Geschäftsstelle für Öffentlichkeitsarbeit
und Marketing der Hochschule Karlsruhe
swk@hs-karlsruhe.de
Englisch-Lektorat
Lynn Beechey-Volz
Institut für Fremdsprachen der
Hochschule Karlsruhe
Layout
Alfons Muntean
Geschäftsstelle für Öffentlichkeitsarbeit
und Marketing
Grafik
Martina Ritzert
mr-graphics
Fotos Titelbild: T. Schwerdt (3D-Darstellung der
Mikrostruktur eines gerichtet erstarrten ternären
Eutektikums, Institute of Materials and Processes
– IMP)
Für den Inhalt der Beiträge sind die Autoren
verantwortlich.
Auflage: 3000 Stück, März 2015
Satz, Anzeigen und Verlag
VMK Verlag für Marketing und
Kommunikation GmbH & Co. KG
Faberstraße 17, 67590 Monsheim
Telefon: 06243/909-0, Telefax: 06243/909-400
E-Mail: info@vmk-verlag.de
www.vmk-verlag.de
Druck
VMK-Druckerei GmbH
Faberstraße 17, 67590 Monsheim
Telefon: 06243/909-110, Telefax: 06243/909-100
E-Mail: info@vmk-druckerei.de
2
| Forschung aktuell 2015
Zukunft braucht
Visionen...
www.guentner.de
...und jemanden,
der sie umsetzt.
Die Güntner GmbH & Co. KG
entwickelt, produziert und
vertreibt Wärmeaustauscher
für Kälte- und Verfahrenstechnik. Unsere Produkte
stehen für höchste Qualität,
abgestimmt auf die spezifischen Bedürfnisse internationaler Kunden.
Informieren Sie sich!
Inhalt
Stand der Forschung an der Hochschule Karlsruhe – Technik und Wirtschaft
6
Markus Stöckner und Elena Stamm
IT & Kommunikation
Optimization Methods in Networked Production Machines
8
Norbert Link
Modellierung und Simulation der Starrkörperbewegung in Rückschlagventilen
13
Marcus Jainta, Andreas Reiter, Anastasia August, Fabian Moik und Britta Nestler
Dynamische Lastverteilung auf einem HPC Framework mit nachrichtenbasierter Kommunikation 16
Constantin Heisler, Johannes Hötzer, Markus Maier, Andreas Reiter, Michael Selzer und Britta Nestler
Personalized Web Learning by joining OER
19
Peter A. Henning und Kevin Fuchs
Die Bedeutung von DAAD-Hochschulkooperationen für die angewandte Forschung
in Entwicklungsländern: Geodatennutzung in Ostafrika
23
Gertrud Schaab
E-Wiki – Wissensplattform für die Entwicklung klimaschonender Technologien und Systeme 27
Héctor Arruga, Daniel Burkard, Jan Zepp, Joachim Kaiser und Maurice Kettner
Kinder- und Jugendmedienschutz im Internet – eine empirische Studie zur Akzeptanz von
Schutzmaßnahmen in den neuen Medien
32
Melina Hillenbrand und Stefanie Regier
Bauwesen
Entwicklung eines Instandhaltungsplans für die Hochbauten der Österreichischen
Bundesbahn (ÖBB)
35
Carolin Bahr, Gerhard Hofer, Markus Seper und Michael Walter
Nachhaltige Bauplanung mittelständischer Unternehmen
39
Hermann Hütter
Dauerhaftigkeit von Betonen mit rezyklierter Gesteinskörnung
Sandra Lichtblau, Stefan Linsel und Fernando Martirena
4
| Forschung aktuell 2015
44
Umweltschutztechnik
Energieeffiziente Stadtentwicklungsplanung für die Altstadt Biberachs im Spannungsfeld
von CO2-Reduktion und Denkmalschutz
48
Robert Blaszczyk und Christoph Hupfer
Neuroregler zur Temperaturregelung eines Modellhauses im Vergleich mit klassischen Reglern 52
Hans-Werner Dorschner, Peter Huber, Alexander Schweigert, Lukas Brombacher und Stefan Paschek
Kooperatives Promotionskolleg: Partikelgrößenverteilung in Eisbreigemischen und
Untersuchungen zur Haftung von Eis auf Aluminium-Oberflächen
57
Jakob Schaaf, Matthias Koffler und Michael Kauffeld
Maschinenbau
Ein neues makromechanisches Werkstoffmodell zur Erklärung des Phänomens der
ausgeprägten Streckgrenze mit Lüderseffekt
63
Rainer Schwab und Otto Ernst Bernhardi
Transport of bulk solids on a new type of vibratory conveyor
66
Christof Krülle
Funkenerosive Fertigung von geometrisch definierten Bohrungen – Untersuchung von
Parametereinflüssen auf die Geometrie und Produktivität
70
Matthias Risto und Rüdiger Haas
Schlaglichter
Thermozyklisch betriebene Metalloxidgassensorarrays zur Brandfrüherkennung
75
Jens Knoblauch, Navas Illyaskutty und Heinz Kohler
Berücksichtigung von Produkttechnologiesprüngen in der Planung von Produktionssystemen
79
Claas Christian Wuttke und Stefan Haas
Durch Kollaboration zum erfolgreichen Entrepreneur – Erschaffung und Nutzen der
Entrepreneur Crowd
82
Raphael Pfeffer, Roman Roor, Karl Dübon und Reimar Hofmann
Neue Konzepte zur Messung der Risikobereitschaft bei Privatanlegern
85
Franz Nees und Stefanie Regier
Forschung aktuell 2015 |
5
Stand der Forschung an der Hochschule Karlsruhe –
Technik und Wirtschaft
Der Ausbau der anwendungsorientierten Forschung
an der Hochschule Karlsruhe – Technik und Wirtschaft
(HsKA) ist ein profilbildendes Element zur strategischen Entwicklung und Positionierung der Hochschule. Neben der qualitativ hochwertigen Lehre bildet die
Forschung eine wichtige Säule für einen zeitgemäßen
Hochschulbetrieb. Sie unterstützt die wissenschaftliche Ausbildung mit aktuellen Themen und Studienprojekten, insbesondere in den Masterstudiengängen. Die
Hochschule ist Innovationspartner in Forschungs- und
Entwicklungsprojekten für Wirtschaft und Industrie.
Die Hochschulleitung fördert diese Entwicklung aktiv
in verschiedenen Bereichen und fordert seit einigen
Jahren bei Neuberufungen, dass neben dem erforderlichen Praxisbezug auch die Forschungsaffinität gewährleistet ist. Mit diesen und anderen Maßnahmen setzt
die HsKA auf ihre Stärken und kann sich seit vielen Jahren als eine der forschungsstärksten Hochschulen für
Angewandte Wissenschaften (HAW) in Baden-Württemberg behaupten. Das Pro-Kopf-Drittmittelaufkommen
der 120 forschungsstärksten Professorinnen und Professoren an HAWen in Baden-Württemberg liegt derzeit
bei rund 255 000 Euro jährlich. 17 dieser Professuren
sind an der Hochschule Karlsruhe angesiedelt.
Die immer umfangreicheren Forschungsaktivitäten der
HsKA werden in zwei zentralen Forschungseinrichtungen gebündelt – dem Institut für Angewandte Forschung
(IAF) und dem Institute of Materials and Processes (IMP).
Neben diesen beiden zentralen Instituten bestehen weitere dezentrale Forschungseinrichtungen. So betreibt
das Institut für Energieeffiziente Mobilität der Fakultät
für Maschinenbau und Mechatronik eine sehr erfolgreiche Kooperation mit der SEW Eurodrive, dem Weltmarkführer bei Elektromotoren. Weitere Fakultätsinstitute
wie beispielsweise das Institut für Grund- und Straßenbau (IGS) befinden sich auf klarem Wachstumskurs.
thematisch auf die Entwicklung neuer Modellierungsund Simulationstechniken für Anwendungen bei Werkstoffsimulationen, auf die Optimierung von Verfahren
in der Produktions- und Fertigungstechnik und auf Berechnungen und Anwendungen in der Fluiddynamik.
Das Forschungsprofil der HsKA wird durch drei interdisziplinäre Schwerpunkte geprägt, die in der Forschungslandkarte der Hochschulrektorenkonferenz (HRK) verortet und damit als solche auch unabhängig evaluiert
sind. Der Fokus des Forschungsschwerpunkts „Materialien, Prozesse und Systeme“ liegt auf neuen Modellierungstechniken für die Werkstoffsimulation und Optimierungen in der Produktions- und Fertigungstechnik
sowie Fluiddynamik. Im Forschungsschwerpunkt „Intelligente Systeme“ werden solche Systeme erforscht,
die sich über die Verarbeitung von Signalen oder die
Interpretation des Nutzerverhaltens individuell an den
Nutzer anpassen. Die Energiebereitstellung und -speicherung einzelner Verkehrsträgertechnologien wie beispielsweise neue Antriebkonzepte sind im Forschungsschwerpunkt „Energieeffizienz und Mobilität“ Thema.
Ende 2014 waren 42 Professorinnen und Professoren
am IAF und vier am IMP tätig, die von insgesamt 146
Mitarbeiterinnen und Mitarbeiter im Mittelbau und in
der Verwaltung in den jeweiligen Instituten unterstützt
werden. Dabei entfallen auf Forschungsprojekte des IAF
90 und des IMP 49 Mitarbeiterinnen und Mitarbeiter. In
der IMP-Geschäftsstelle arbeiteten eine und in der des
IAF sechs Mitarbeiterinnen und Mitarbeiter. 65 Studierende wirkten als studentische Hilfskräfte in den Projekten der zentralen Institute mit. Die sonstigen sechs
Mitarbeiterinnen und Mitarbeiter waren dort z. B. als
Netzwerkadministrator oder Übersetzer tätig. Auch in
anderen Organisationseinheiten der HsKA betätigten
150
Das IAF ist die zentrale, anwendungsorientierte Forschungs- und Entwicklungseinrichtung. Im Gegensatz
zu den anderen Forschungs- und Entwicklungseinrichtungen an der Hochschule Karlsruhe arbeitet das IAF
fakultäts- und themenübergreifend und stellt den Forschenden ein geeignetes Umfeld zur Durchführung von
Forschungs- und Entwicklungsarbeiten aus allen Bereichen der Hochschule zur Verfügung.
50
100
50
0
42
professorale
Mitglieder
IAF
Das im Jahr 2009 gegründete IMP ist auf einen Forschungsbereich spezialisiert und konzentriert sich
6
| Forschung aktuell 2015
14
4
96
51
5
1
Projekt-/
studentische sonstige
Verwaltungs- Hilfskräfte
Mitarbeiter
mitarbeiter
IMP
Abb. 1: Anzahl der professoralen Mitglieder sowie der Mitarbeiterinnen und Mitarbeiter des IAF und IMP 2014
sich Professorinnen und Professoren, Mitarbeiterinnen
und Mitarbeiter in der Forschung; sie sind aber nicht
gesondert erfasst. Die Finanzierung der Mitarbeiterinnen und Mitarbeiter der beiden zentralen Forschungseinrichtungen erfolgt ausschließlich aus Drittmitteln.
Zusätzlich stellt das Rektorat 4,5 Stellen für die fachliche Organisation der Forschung in den verschiedenen
Forschungsbereichen zur Verfügung.
Die Drittmitteleinnahmen der HsKA beliefen sich in
2014 insgesamt auf knapp 5,6 Mio. Euro, rechnet man
das kooperative Promotionskolleg hinzu. Somit ist
eine positive Steigerung der Drittmitteleinnahmen
im betrachteten Zeitraum von 2008 an mit Ausnahme
des Jahres 2011 zu erkennen. Die am IAF bearbeiteten Projekte erreichten 2014 die Summe von 4,0 Mio.
Euro, die des IMP 1,2 Mio. Euro. Aktuell arbeiten die
Wissenschaftlerinnen und Wissenschaftler an rund
140 Forschungsprojekten. Wo früher die Drittmittel
der Hochschule größtenteils aus Landesprogrammen
stammten, wird heute die Mehrheit der Mittel aus
Bundesprogrammen bezogen.
Die Professorinnen und Professoren sowie die Mitarbeiterinnen und Mitarbeiter der Hochschule haben
2014 (Stand: 16.01.2015) insgesamt 190 wissenschaftliche Publikationen veröffentlicht, wovon 41 als Zeitschriftenaufsatz oder Dissertation erfolgreich ein PeerReview-Verfahren durchlaufen haben. 97 Publikationen
in der Summe und davon 20 mit Peer-Review sind am
IAF erschienen sowie 20 am IMP und davon zehn mit
Peer-Review.
180
160
140
120
100
80
60
73
20
11
40
20
0
10
97
20
insgesamt
IAF
IMP
davon Peer-Review
Rest
Abb. 3: Anzahl der erfassten Publikationen 2014, insgesamt
und mit Peer-Review
Umsatz in Mio. €
6,0
5,5
5,0
4,5
4,0
3,5
3,0
2,5
2,0
1,5
1,0
0,5
0
0,21
0,32
0,39
0,27
0,13
0,11
1,22
1,16
1,48
1,32
1,28
0,36
1,05
2,12
2,08
3,23
2,49
2,88
3,57
4,05
2008
2009
2010
2011
2012
2013
2014
Autoren
Prof. Dr.-Ing. Markus Stöckner
Prorektor für Forschung, Infrastruktur und Qualitätsmanagement
Elena Stamm M.A.
Akademische Mitarbeiterin im Publikations- und
Qualitätsmanagement
Abb. 2: Umsatzentwicklung IAF und IMP von 2008 bis 2014
In Kooperation mit mehreren Universitäten wie z. B.
der Bergakademie Freiberg oder der TU Dresden finden
Promotionen an der HsKA statt. Zusammen mit dem
Karlsruher Institut für Technologie (KIT) werden darüber hinaus Promotionsvorhaben im Rahmen des von
der Deutschen Forschungsgemeinschaft (DFG) geförderten Graduiertenkollegs und des kooperativen Promotionskollegs durchgeführt. Insgesamt 50 laufende
Promotionsverfahren wurden Ende 2014 an der HsKA
betreut und fünf Doktoranden schlossen ihre Promotion 2014 ab. In den kommenden Jahren werden diese
Zahlen steigen, denn das rechtlich für HAWen bisher
nur mögliche kooperative Promotionsverfahren soll zukünftig durch ein befristet und thematisch begrenztes
Promotionsrecht für Zusammenschlüsse von HAWen ergänzt werden. Die rechtlichen Grundlagen dafür sind im
Landeshochschulgesetz vom April 2014 gelegt worden.
Forschung aktuell 2015 |
7
IT & Kommunikation
Optimization Methods in Networked Production Machines
Norbert Link
Introduction
Optimization is well established in manufacturing especially for the planning of factories and workflows,
where discrete optimization is used. On the machine
level a continuous optimization task in the parameter
space is considered. Each parameter value combination produces certain properties of the product when
the process is executed. If the deviation from desired
properties is measured and assessed a “cost” value
can be assigned to the result. This cost is a consequence of the process parameters and can be directly
assigned to them. If a cost value is assigned to each
point in the parameter space, a cost function is defined. Optimization is finding the minimum cost function over the parameter space. In addition other quantities such as energy, processing time or wear and tear
of equipment can be included in the cost function.
Usually these functions are not given as analytic functions of the process parameters, which would make
optimization an easy task. In most cases cost can
only be determined by looking at the result, where
the quality is determined via dedicated experiments.
This means that a process model relating the output to
the input and the process parameters is lacking. This
model can be represented as a function, where the dependent variables describe the output. The independent variables are the process parameters and quantities describing the input and possible variations in
process conditions. Such process models cannot be
derived analytically for almost all real manufacturing
processes. Consequently they must be derived from
experimental data (based on real experiments or numerical simulations). Model building is a regression
task for which methods already exist, but which are
still subject to intense research [1]. Once the model is
set up, the parameter values which produce the desired output from the given input can be retrieved fully
automatically and without any delay. This is performed
by the determination of the so-called level-set of the
model function. Methods for revealing the level-set of
a function already exist [1]. If the conditions are fixed
and the input and the desired output of a process are
always the same, the model required contracts to one
single point in the parameter space. This is a case for
classical optimum search methods [2]. The most challenging optimization governs disturbances which occur during process execution in order to guide the process along an optimum path through the state space
by dynamically adjusting the process parameters [3].
8
| Forschung aktuell 2015
This requires not only an optimal decision strategy under uncertain conditions but also an estimation of the
actual process state as a decision basis [4]. Another
complication arises from the real-time requirements
of such a closed-loop control, which requires low computational complexity of the implemented algorithms.
The corresponding methods are still subject to basic
research [5]. Some are already being considered for
application in continuous flow processes but only proposed for use in discrete manufacturing processes.
The latter is part of ongoing research and not included
in the report. The following discussion presents the
main ideas for implementing optimization with strictly
controlled processes, where disturbances do not affect the process.
Finding the Optimal Process Parameter for Strongly
Controlled, Single-Task Processes
If the process model cannot be given explicitly (which
is almost always the case), the parameter space has to
be sampled in order to find the optimum. The process is
executed for the sampled parameter values and the resulting cost function values are determined. In this way
the cost function is known for the sampled parameter
space points. If only one single task without any variations is considered, there is only one single optimal process parameter combination to be found. The goal here
is not to explore the cost function in order to set up a
process model but to search for the optimum of the unknown cost function most effectively. Usually processes
have a couple of parameters, which is why the parameter space is multi-dimensional. Efficient methods turn
the multi-dimensional search into a one-dimensional
line search, such as Nelder-Mead, Gradient-Descent,
Newton-Raphson or Levenberg-Marquart. An implementation of such methods on the machine aims to guide
an experimenter (human or another machine) to find
the optimum with the lowest number of experiments.
The machine will propose process parameter values to
be executed and get a result in return. It will select the
next trial parameter values and continue the procedure
until a satisfactory result is achieved. This is the basic
method. The algorithm also requires the definition of
the optimization task. This includes specification of the
process parameters, of the product end result quantities and of the cost function. The product end result
quantity might be a product dimension (such as the
size) and the cost function the square of the deviation
of this dimension from a given goal value. The algorithm
Du bist auf der Suche nach neuen Möglichkeiten?
Einer Arbeitsstelle in einem innovativen und
menschlich geprägten Arbeitsumfeld?
Dann herzlich willkommen bei Daimler TSS,
dem IT-Spezialisten für Daimler!
discover.daimler-tss.de
„Wir sind nicht nur Daimler.
Sondern auch.“
Discover new dimensions.
Tilo, 30 Jahre,
IT Service Manager
Ein Unternehmen der Daimler AG
IT & Kommunikation
also requires reasonable starting values for the process
parameters. The whole procedure is summarized on the
left of figure 1, where a resistance spot welding process
is used to illustrate the point. Here only two process parameters (welding current and welding time) are considered and the resulting spot diameter size is the product
end result quantity. The cost is specified as proposed
above. The right side of figure 1 shows the cost function
according to the “hidden” process model. The blue-orange surface over the two-dimensional parameter space
represents the resulting size. The black curve is the intersection of the surface with the plane representing the
desired 5 mm size. All of the parameter values produce
a size of 5 mm. The gray surface is the calculated quadratic deviation from 5 mm and represents the cost as a
function of the parameters. The initial parameter values
are indicated by the yellow spots both on the size function and on the cost function surfaces. The yellow arrow
points to the next proposed trial.
Goal: Find parameter values popt which produce desired result rd
by minimum number of stepwise trials
Repeat until optimizer suggests end
goal=size(I,T) cost=(size-5.0)^2
F=2.8 KN, d1= 0.9 mm, d2=1.4mm
1. Start with reasonable
process parameters
pi with i=0
Size (mm)
D
6
7.2
2. Do experiment with pi
4
2
3. Measure result ri
4. Input ri to optimizer
(seeking to minimize
i.e.(ri-rd)2)
0
-0,803
Current (kA)
5. Receive next
parameters pi+1
y
x
Time (ms)
z
x: I(6...12kA) y: T(100...350ms)
Fig. 1: Optimization procedure for Strongly Controlled, SingleTask Processes
At this point some of the direct mathematical parameter optimization methods are used for static non discrete non stochastic mostly unconstrained functions
(for more details see Schwefel “Evolution and Optimum
Seeking” [1]). They can be found under the general
heading of hill climbing strategies because their method of searching for a maximum corresponds closely to
the intuitive way a sightless climber might feel his way
from a valley up to the highest peak of a mountain. For
minimum problems the sense of the displacements is
simply reversed, otherwise uphill or ascent and downhill or descent methods are identical. Whereas mathematical programming methods are dominant in operations research and the special methods of functional
optimization in control theory, hill climbing strategies
are most frequently applied in engineering design.
10
| Forschung aktuell 2015
Optimal Process Parameter Retrieval from Models of
Strongly Controlled, Variable-Task Processes
Thus far it has been assumed that the process should
always produce the same output from the same welldefined input and also that the conditions are constant
and the disturbances are small during the process execution, allowing the process to be executed with a fixed
set of parameters. The next major optimization potential lies in the release of the rigidity of processes, or
in the increase of processing flexibility. This has been
known for a while, but the measurements are difficult
and therefore widely untouched in practice. Flexibility
means that even with varying input an optimum output can still be achieved with minimum effort. The next
step would be to also allow for defining varying output.
Therefore it is desirable to adapt the process to any
changes in the input, the conditions and the process
goals with no extra effort. This can be achieved if the
process parameter values can be derived from a specification of input, conditions and goals (which together
define a task). The process parameters define a processing method, so what is sought, is called task-tomethod transformation (T2MT). The task-to-method
transformation has already been investigated and
published in a scientific journal article [2], the main
ideas of which are described in the following section.
The relevant literature is also cited in this article. The
basic principle of the T2MT is to create a process model
function and to evaluate the function for a given goal in
order to retrieve the appropriate process parameters.
This model function represents the functional dependency of the goals values from the process parameters
as shown in figure 2.
Process model function
Solution (level set)
Task goal
Size (mm)
7.2 D
6
4
2
Current (kA)
y
x
z
x: I(4...20kA) y: T(5...40ms)
-0,803
0
Time (ms)
Fig. 2: Process model (goal) function (size) of the process parameters (time, current)
Once this model function exists, the retrieval of the process parameters is quite simple (in principle, not computationally): The goal function is a surface over the
space of process parameters. The goal defines a parallel
plane over the same space and the process parameter
values, which fulfil the task (solution), are merely the
intersection curve between the surface and the plane.
IT & Kommunikation
The points of the intersection curve are called the level
set and are all solutions of the given task.
How can the goal function be constructed? If there is
an analytical process model, everything is done, however this is usually not the case. The knowledge about
a specific process is usually only accessible via realworld experiments or (if first principal equations can
be solved for the process) via simulated experiments.
The core idea is to gather knowledge about a process by
sampling the space of the process parameters, where
the outcome is always measured and represented by
quality measures. Based on a set of such samples the
outcome can be modeled as a function of the parameters. This function can be determined via regression
analysis and finally forms the process model or goal
function. The outcome can be defined according to the
application. It can be a simple binary (good/bad) or a
multi-valued complex number. The function found by regression covers the whole space of process parameters,
even regions, which are not feasible for the process
or which are not supported by experimental data. It is
therefore necessary to add two more models, which indicate whether parameter values are part of the allowed
regions: the feasibility function and the support function. Both are binary functions indicating the parameter
space regions, where the goal function can be evaluated. Finally all three process model functions represent
all the necessary information, which enables the fully
automatic derivation of the proper process parameters
for a given process task. In this way the process equipment can optimally adapt to variations in the process
task and enable flexible production.
References
[1] J. Pollak, S. A. Sarveniazi, N. Link, Retrieval of
process methods from task descriptions and generalized data representations, The International
Journal of Advanced Manufacturing Technology,
53.5-8 (2011), pp. 829–840.
[2] H.-P. P. Schwefel, Evolution and optimum seeking: the sixth generation, John Wiley & Sons, Inc.,
1993.
Steinbeis – Transferpartner der
Hochschule Karlsruhe
Steinbeis arbeitet seit Jahrzehnten vertrauensvoll mit der deutschen Hochschullandschaft zusammen. Diese erfolgreiche Zusammenarbeit ist 2008 an der Hochschule Karlsruhe im Kooperationsunternehmen Steinbeis Transferzentren GmbH
an der Hochschule Karlsruhe gemündet, das eine noch engere Zusammenarbeit im
Wissens- und Technologietransfer ermöglicht.
Zahlreiche Steinbeis-Unternehmen an der Hochschule bieten insbesondere kleinen
und mittelständischen Unternehmen maßgeschneiderte Problemlösungen an.
Steinbeis unterstützt Professoren, Studenten und Mitarbeiter der Hochschule dabei,
ihr fachliches Know-how im Einklang mit ihrer wissenschaftlichen Arbeit in die
Anwendung im Unternehmen zu bringen. Davon profitieren Hochschule und
Wirtschaft gleichermaßen: die Praxisnähe sichert die Aktualität der Lehre und
Ausbildung, der wissenschaftliche Fortschritt der Hochschule fördert direkt den
Marktvorsprung der Unternehmen.
g
11. Juni 2015 | Eröffnun
ruhe
Steinbeis-Haus Karls
ampus
auf dem Hochschul-C
Steinbeis-Stiftung | Haus der Wirtschaft | Willi-Bleicher-Str. 19 | 70174 Stuttgart
136678-2015-02 | Bild: iStockphoto ©Pei Ling Hoo
Forschung aktuell 2015 |
11
IT & Kommunikation
[3] M. Senn, J. Schäfer, J. Pollak, N. Link, A system-oriented approach for the optimal control of process
chains under stochastic influences, in: AIP Conference Proceedings 1389, 2011, pp. 419–422.
[4] M. Senn, N. Link, A universal model for hidden
state observation in adaptive process controls,
International Journal on Advances in Intelligent
Systems 4 (3–4) (2012), pp. 245–255.
[5] M. Senn, N. Link, J. Pollak, J. H. Lee, Reducing the
computational effort of optimal process controllers for continuous state spaces by using incremental learning and post-decision state formulations, Journal of Process Control, 24(3) (2014), pp.
133–143.
Zusammenfassung
Die Optimierung in Fertigungsmaschinen hat
zum Ziel, die Parameter des kontrollierten Fertigungsprozesses so zu führen, dass mit kleinstem
Aufwand das beste Ergebnis erzielt wird. Bei stark
kontrollierten Prozessen genügt es, einmal die
optimalen Einstellungen der Prozessleitgrößen zu
eruieren und den Prozess damit auszuführen. Ist
die Aufgabe variabel, so müssen für jede Prozessausführung die optimalen Parameter gefunden
werden. Treten während der Prozessausführung
Störeinflüsse auf, müssen währenddessen die
Parameter zeitlich so geführt werden, dass der
Prozess einen Pfad in seinem Zustandsraum durchläuft, der insgesamt den Aufwand bei optimalem
Ergebnis minimiert. Der Artikel stellt entsprechende Methodenklassen für diese Optimierungsaufgaben vor.
Abstract
The goal of optimizing manufacturing machines
within the parameters of controlled integrated processes is to achieve the best possible results with
the lowest possible effort. In the case of strongly
controlled processes, which repetitively execute
the same task and have negligible fluctuations,
it is sufficient to find the optimal settings of the
process parameters once and to re-use those with
every process execution. However if the task varies
12
| Forschung aktuell 2015
with respect to the goal, the input and the process
conditions, then the optimal process parameter
values have to be found for each process execution. Furthermore, if disturbances affect the execution of the process it is even more complicated to
optimize. In this case the parameters should be
adjusted on-line in such a way that the process follows a path in its state space, which minimizes the
total effort and maximizes the resulting quality. If
a product is manufactured by chained processes,
an optimum process path must be. This paper proposes various methods which can be implemented
on manufacturing machines.
Autor
Prof. Dr. Norbert Link
Professor at the Faculty of Computer Science and
Business Information Systems at the Karlsruhe
University of Applied Sciences.
Contact
Prof. Dr. Norbert Link
Karlsruhe University of Applied Sciences
Faculty of Computer Science and Business Information Systems
Moltkestrasse 30
76133 Karlsruhe
Germany
E-mail: norbert.link@hs-karlsruhe.de
IT & Kommunikation
Modellierung und Simulation der Starrkörperbewegung in
Rückschlagventilen
Marcus Jainta, Andreas Reiter, Anastasia August, Fabian Moik und Britta Nestler
Motivation
Es gibt viele technische Anwendungen, bei denen Bewegungen von Starrkörpern in Strömungen von großer Bedeutung sind. Dazu gehören beispielsweise
die Erstarrung von Metall- oder Eiskristallen, insbesondere deren Bewegung als starre Körper in flüssiger oder gasförmiger, strömender Umgebung. Auch
Simulationen von Bewegungen größerer Körper sind
für viele technische Anwendungen relevant. Die Dynamik eines Rückschlagventils beispielsweise kann
durch ein Simulationsmodell der Starrkörperbewegung beschrieben werden. Auf der Grundlage von simulationsgestützten Voraussagen kann die Geometrie
von Ventilen derart optimiert werden, dass der unerwünschte Schlupf an Flüssigkeit bei geschlossenem
Ventil reduziert wird. Am Institute of Materials and
Processes der Hochschule Karlsruhe wurde dazu der
Löser zur Berechnung der Navier-Stokes-Gleichungen
mit dem Phasenfeldmodell, das die Kristallevolution
beschreibt, gekoppelt. Hierbei wurde eine Methode
zur künstlichen Gebietserweiterung verwendet, die im
Folgenden erläutert wird.
Simulationsmethode
Die Starrkörperbewegung wird im Zusammenspiel von
einer Phasenfeldmethode zur Beschreibung der Festund Flüssigbereiche mit einem Strömungslöser zur
Ermittlung des Geschwindigkeitsfelds modelliert. Die
Fest- und Flüssigzustände werden bei der Phasenfeldmethode durch die Werte eines Ordnungsparameters
j beschrieben. Dieser muss bei dem hier verwendeten
Phasenfeldmodell zwischen 0 und 1 liegen, wobei 0
einen rein flüssigen und 1 einen rein festen Zustand
kennzeichnet. Eine besondere Eigenschaft der Methode besteht darin, dass die Variable j im Randbereich
des Festkörpers glatt von 0 nach 1 übergeht. Diesen
Übergang nennt man diffuse Phasengrenzschicht.
Wenngleich eine Modellierung ohne scharfe Phasengrenzfläche zu nummerischen Herausforderungen in
der Beschreibung des Starrkörperverhaltens führt, ist
sie im Hinblick auf eine zukünftige Modellierung von
Kristallwachstum in einer Mehrphasenströmung unerlässlich. Der Strömungslöser der institutseigenen
Pace3D-Software basiert auf den Erhaltungsgleichungen nach Navier-Stokes. Das Geschwindigkeitsfeld
wird hierbei unter Berücksichtigung der Massen- und
Impulserhaltung berechnet.
Prinzipiell werden die Navier-Stokes-Gleichungen nur
in dem vom Phasenfeld als flüssig markierten Bereich
gelöst. Bei der Methode der künstlichen Gebietserweiterung wird das Starrkörpergebiet nicht isoliert betrachtet; stattdessen wird das Strömungsgebiet auf den Festkörperbereich erweitert. Das bedeutet, dass in einem
ersten Schritt alle Teilgebiete als Flüssigkeiten unterschiedlicher Dichte und Viskosität betrachtet werden,
für die ein vorläufiges Geschwindigkeitsfeld berechnet
wird. Für alle Bereiche mit Festphasenanteilen muss
allerdings eine Rückkorrektur vorgenommen werden,
damit die Geschwindigkeit dort der einer Starrkörperbewegung entspricht. Hierzu verwendet man die DLMMethode (Distributed-Lagrange-Multiplikator), die einen
a)
c)
b)
d)
Abb. 1: Simulation der Abfolge von Ventilstellungen in einem Rückschlagventil: die Serie startet mit der neutralen Anfangsstellung
(a) und zeigt in (b) den Zustand kurz nach Erreichen der Durchflussstellung; Teilbild (c) lässt den Wechsel von Durchströmungs- in
Sperrrichtung erkennen, während (d) den Zustand kurz nach Erreichen der Sperrstellung darstellt.
Forschung aktuell 2015 |
13
IT & Kommunikation
Korrekturterm für die Geschwindigkeiten der Festkörperzellen definiert. Dabei wird für jeden Körper der gesamte
Impuls sowie der Drehimpuls bezüglich seines Schwerpunkts mithilfe des vorläufigen Geschwindigkeitsfelds
ermittelt. Dadurch lässt sich die Geschwindigkeit eines
äquivalenten Starrkörpers an jedem Punkt beschreiben und die Werte aus dem Strömungslöser können im
Festkörperbereich entsprechend angepasst werden. Um
die Bewegung des Starrkörpers zu verfolgen, wird die
Grenzfläche des Phasenfelds abhängig vom Geschwindigkeitsfeld verschoben.
Erste Anwendungen
Die Funktionsweise eines Rückschlagventils besteht
darin, durch ein Schließelement die Strömung eines
Fluids in die Durchlassrichtung zu ermöglichen und
in die Gegenrichtung zu unterbinden. Dabei wird der
Schließkörper (z. B. eine Kugel) in die Durchlassöffnung gedrückt, wenn gegen die Durchlassrichtung ein
Strömungsdruck besteht. Beim Strömungsdruck in die
Durchlassrichtung trennt sich die Kugel von ihrem Sitz
und das Fluid kann strömen.
Das Rückschlagventil diente als erstes Anwendungsbeispiel, oben beschriebene Methode zu testen. Und
die ersten Simulationen zeigen gute Ergebnisse: die
Formerhaltung des Starrkörpers ist zu jedem Zeitpunkt
gegeben, sowohl wenn der Körper nur durch einen
Druckgradienten beschleunigt wird, als auch wenn ein
Gitter den Festkörper abrupt abbremst. Die Ergebnisse der durchgeführten Simulationen zeigen, dass das
Verhalten des Starrkörpers – insbesondere im Kontakt
10
9
8
7
6
5
80 100 120 140 160 180 200 220
Simulationszeit in Frames
Abb. 2: Messung der Durchflussgeschwindigkeit im Rückschlagventil. Die gestrichelten Linien korrelieren mit den Stellungen, die in Abbildung 1 gezeigt wurden.
mit dem Gitter – umso besser abgebildet wird, je höher die Viskosität im Starrkörperbereich des künstlich
erweiterten Gebiets gewählt wird.
Ausblick
Wie die Simulation am Rückschlagventil zeigt, konnte die Methode zur künstlichen Gebietserweiterung
mit DLM erfolgreich umgesetzt werden und stellt eine
geeignete Möglichkeit dar, die Starrkörperbewegung
in einer Phasenfeldumgebung zu modellieren. Dieser
Ansatz soll zukünftig verwendet werden, um das Kristallwachstum von bewegten Keimen in der Schmelze
abzubilden.
NEU: PEPS Version 8.0
Camtek.de
14
| Forschung aktuell 2015
neue Benutzeroberfläche
neue Maschinenraum-Simulation
neue High-Speed-Fräs-Strategien
IT & Kommunikation
Abstract
Models for a realistic description of the motion
of rigid bodies in a fluid flow are important for
technical applications. We present a method to
couple fluid flow to a phase-field model, which
is generally applied to phase transformations.
Using a fictitious domain method, we extend the
Navier-Stokes equations into the solid region. The
forces required for the cohesion of the rigid body
are obtained by means of a distributed Lagrange
multiplier, resulting in an admissible distribution
of velocities in the whole simulation domain. The
model was tested in simulations of the operation
of a check valve.
Zusammenfassung
Modelle, die die Bewegung von starren Körpern in
einem strömenden Fluid realitätsnah beschreiben,
sind von großer Bedeutung für technische Anwendungen. Es wird eine Methode zur Kopplung des
Strömungsverhaltens von Fluiden an das Phasenfeldmodell vorgestellt, mit dem im Allgemeinen
Phasentransformationen untersucht werden.
Dabei werden die Navier-Stokes-Gleichungen unter
Verwendung der „fictitious domain method“ auf
den Festbereich erweitert. Die Kräfte, die für den
inneren Zusammenhalt der Starrkörper notwendig sind, werden durch einen verteilten Lagrange
Multiplikator ermittelt. Dies führt im gesamten
Simulationsgebiet zu einem zulässigen Geschwindigkeitsfeld. Das Modell wurde in Simulationen
verschiedener Betriebszustände eines Rückschlagventils erfolgreich getestet.
Autoren
Marcus Jainta M.Sc.
Akademischer Mitarbeiter am Institute of Materials
and Processes (IMP) der Hochschule Karlsruhe und
am Institute of Applied Materials – Computational Materials Science des Karlsruher Instituts für
Technologie (KIT)
Dipl.-Ing. Andreas Reiter
Wissenschaftlicher Mitarbeiter am Institute of Applied Materials – Computational Materials Science
des Karlsruher Instituts für Technologie (KIT)
Dr. Anastasia August
Projektleiterin und akademische Mitarbeiterin
am Institute of Materials and Processes (IMP) der
Hochschule Karlsruhe und am Institute of Applied
Materials – Computational Materials Science des
Karlsruher Instituts für Technologie (KIT)
Fabian Moik B.Sc.
Maschinenbaustudent des Karlsruher Instituts für
Technologie (KIT)
Prof. Dr. Britta Nestler
Professorin an der Fakultät für Informatik und
Wirtschaftsinformatik der Hochschule Karlsruhe
und Leiterin des Institute of Applied Materials –
Computational Materials Science des Karlsruher
Instituts für Technologie (KIT)
Kontakt
Prof. Dr. Britta Nestler
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Informatik und Wirtschaftsinformatik
Moltkestraße 30
76133 Karlsruhe
E-Mail: britta.nestler@hs-karlsruhe.de
Telefon: 0721 925-1504
Forschung aktuell 2015 |
15
IT & Kommunikation
Dynamische Lastverteilung auf einem HPC Framework mit
nachrichtenbasierter Kommunikation
Constantin Heisler, Johannes Hötzer, Markus Maier, Andreas Reiter, Michael Selzer und Britta Nestler
Motivation
In der Physik gibt es Problemstellungen, die sich
nur mithilfe von realitätsnahen, komplexen Modellen beschreiben lassen. Ein Beispiel, das vor allem
in der Materialforschung weit verbreitet ist, ist das
Phasenfeldmodell. Dieses beschreibt die zeitliche
Entwicklung von Mehrphasensystemen, wie sie unter
anderem beim Kristallwachstum in Schmelzen auftreten. Hierfür muss ein System gekoppelter, partieller Differenzialgleichungen auf zum Teil sehr großen
Rechengebieten gelöst werden, wodurch der Einsatz
von Hochleistungsrechnern erforderlich wird. Um die
vorhandenen Rechenressourcen möglichst effizient
zu nutzen, werden im Bereich des High Performance
Computing (HPC) bereits seit Jahren Techniken entwickelt, die es ermöglichen, auf mehreren CPUs parallel
zu simulieren. Eine Möglichkeit besteht darin, über
eine Gebietszerlegung den Rechenbereich in kleinere
Teilbereiche zu unterteilen, die dann jeweils von einem Prozess berechnet werden (s. Abb. 1). Während
der Berechnung müssen die Prozesse häufig miteinander kommunizieren, was zu Wartezeiten führt,
wenn sich die Berechnungszeiten für die Teilgebiete
unterscheiden. Diese Wartezeiten können verkürzt
werden, indem die Größe der einzelnen Gebiete entweder vor dem Start der Simulation angegeben oder
zur Laufzeit angepasst wird (s. Abb. 2).
Abb. 1: Zerlegung eines Gebiets in kleinere Teilgebiete
Abb. 2: Anpassung der Größe der Teilgebiete zur Laufzeit
16
| Forschung aktuell 2015
Ein solches Prinzip wird auch im Simulationsprogramm
PACE3D (Parallel Algorithms for Crystal Evolution in 3D)
verwendet, das an der Hochschule Karlsruhe entwickelt
wird. Eine dynamische Anpassung der Teilgebiete in nur
eine Raumrichtung wurde in [1] beschrieben. Darauf
aufbauend wurde in [2] eine Binärbaumzerlegung in alle
Raumrichtungen implementiert. Keiner dieser Ansätze
erlaubt es jedoch dem Nutzer sein Vorwissen über die
zu erwarteten Rechenlasten vollständig einzubringen.
Wird beispielsweise Kristallwachstum untersucht, so ist
in vielen Fällen der zu erwartende Verlauf bereits näherungsweise vor Beginn der Simulation bekannt. Dieses
Wissen kann genutzt werden, um eine optimale Lastverteilung zur Laufzeit der Simulation zu erreichen. Hierfür
wurde eine Beschreibungssprache für den PACE3D-Löser entwickelt und das Framework wurde entsprechend
angepasst. Dadurch lassen sich bestehende Lastverteilungsalgorithmen weiter nutzen, können aber zusätzlich verschachtelt und formal beschrieben werden.
Die Beschreibungssprache
In der bisherigen Realisierung wird sowohl die Berechnung der einzelnen Teilgebiete als auch die Anpassung der Gebietsgrößen von den einzelnen Prozessen
bzw. Workern durchgeführt. Wird die Steuerung der
Lastverteilung nicht von den Workern selbst übernommen, sondern zentral geregelt, ermöglicht dies
eine wesentlich flexiblere Anpassung der jeweiligen
Gebietsgrößen. Somit können die Teilgebiete an die
spezifische Problemstellung einer Simulation anpasst
werden, um so eine möglichst effiziente Lastverteilung zu erzielen. Diese Flexibilität wird mithilfe der
neuen Sprache erreicht, über die der Nutzer die Aufteilung der Teilgebiete steuern kann. Die Beschreibungssprache ist dabei aus zwei Elementen aufgebaut. Die
Teilgebiete auf der untersten Ebene werden von den
Workern berechnet. Für die Lastverteilung werden diese entlang einer oder mehrerer Raumrichtungen zu
größeren Gebieten gruppiert. Diese können solange
weiter zusammengefasst werden, bis auf der obersten Ebene das Gesamtgebiet abgedeckt wird. Für jede
dieser Gruppen lässt sich die Art und Dimension (1D,
2D oder 3D) der Lastverteilung vorgeben. Das PACE3D
Framework bietet bereits eine Schnittstelle für das
CAD-Austauschformat nach ISO-10303-21 [3] an, das
als Basis zur Entwicklung der Beschreibungssprache
für die Lastverteilung dient. Dessen Syntax ist über die
IT & Kommunikation
– für Menschen lesbare – Wirth Syntax Notation (WSN)
[4] beschrieben. Diese besteht aus nummerierten Regeln mit zugehöriger Beschreibung.
Abb. 3: Beispiel einer zweidimensionalen Zerlegung eines
Rechengebiets durch zwei Gruppen mit dynamischer Lastverteilung in z-Richtung innerhalb der jeweiligen Gruppe
#0 = BLOCK();
#1 = LB1D(.Z., (#0, #0, #0));
#2 = !GROUP(.X., (#1, #1));
/* keine weitere Unterteilung */
/* zerteile das Gebiet in Kombination mit einer eindimensionalen Lastverteilung in drei Teile
entlang der z-Richtung und
wende auf diese Regel #0 an */
/* zerteile das Gebiet in xRichtung in zwei gleich große
Teile und wende auf diese Regel
#1 an */
Abb. 4: Wirth Syntax Notation (WSN) zur Zerlegung des zweidimensionalen Rechengebiets
Der Nutzer kann über dieselbe Notation alle relevanten Informationen zur Gebietszerlegung angeben. Dies
ist in Abbildung 3 und 4 für eine zweidimensionale
Zerlegung des Rechengebiets illustriert. Die Unterteilung erfolgt zunächst in zwei Gruppen konstanter
Größe entlang der x-Richtung. Diese werden wiederum
entlang der z-Richtung in drei Teilgebiete unterteilt,
deren Größe über einen eindimensionalen Lastverteilungsalgorithmus gesteuert wird. Entstehen Wartezeiten aufgrund unterschiedlicher Rechenzeiten für die
einzelnen Teilbereiche, wird eine Verschiebung der
Gebietsgrenzen innerhalb der Gruppen durchgeführt.
Auch komplexere Zerlegungen in alle drei Raumrichtungen, wie in Abbildung 5 dargestellt, können mit
nur wenigen Anweisungen erzeugt werden. Zudem
kann direkt vorgegeben werden, dass beispielsweise
lediglich die farblich hervorgehobenen Bereiche einer
dynamischen Lastverteilung unterliegen sollen. Dies
stellt einen wesentlichen Vorteil gegenüber globalen
Lastverteilungen dar, da ein Verschieben der Bereichsgrenzen aufgrund der geringen Größe der Blöcke mit
wenig zusätzlichem Aufwand verbunden ist, aber damit dennoch vergleichbare Verringerungen der Wartezeiten erreicht werden.
Ergebnis
Mithilfe der entwickelten Beschreibungssprache ist
eine kompakte und universelle Beschreibung belie-
Abb. 5: komplexe Zerlegung eines Rechengebiets in alle drei
Raumrichtungen
biger Gebietszerlegungen und der Art der Lastverteilung möglich. Neben einer Festlegung der Aufteilung
des Rechengebiets vor dem Start der Simulation kann
auch eine Lastverteilung zur Laufzeit erfolgen bzw. eine
Kombination aus beiden Varianten. Hierdurch ist es auf
einfache Weise möglich, große und komplexe Simulationen – wie in Abbildung 6 gezeigt – effizient auf mehreren tausend CPUs zu berechnen. Vor allem die klare
und kompakte Struktur der Sprache ermöglicht eine
schnelle, einfache und fehlerfreie Anpassung der Zerlegung und Art der Lastverteilung.
Abb. 6: Simulation eines ternären Eutektikums. Eine gerichtete
Erstarrung mit periodischen Randbedingungen in einem Simulationsgebiet von 200 x 200 x 1600
Forschung aktuell 2015 |
17
IT & Kommunikation
Literatur
[1] A. Vondrous, M. Selzer, J. Hötzer, B. Nestler, Parallel computing for phase-field models, International Journal of High Performance Computing Applications, 28(1), 2014, pp. 61–72.
[2] J. Hötzer, Dynamische Lastverteilung für einen finite Differenzen Löser, Master-Thesis, Hochschule
Karlsruhe – Technik und Wirtschaft, Mai 2011.
[3] ISO. ISO TC 184/SC4/WG11 N287: Industrial automation systems and integration – Product data
representation and exchange – Part 21: Implementation methods: Clear text encoding of the
exchange structure, August 2013.
[4] N. Wirth, What can we do about the unnecessary
diversity of notation for syntactic definitions?,
Commun. ACM, 20(11), 1977, pp. 822–823.
[5] B. Nestler, H. Garcke, B. Stinner, Multicomponent
alloy solidification: Phase-field modeling and simulations, Physical Review E, 71(4), 2005, 041609.
Abstract
Current load balancing techniques focus on the
dynamic adjustment of the simulation domains.
In many cases, the approximate evolution of the
simulation is already known in advance. This meta
knowledge is, however, only partially used in
purely static decompositions per use case. The description language presented here enables the user
to create problem-specific domain decompositions
combining, possibly nested, static and dynamic
load balancing elements through simple syntax.
Zusammenfassung
Bisherige Verfahren zur Lastverteilung haben ihren
Fokus hauptsächlich auf die Umsetzung der dynamischen Gebietsgrößenanpassung gesetzt. Das in vielen
Fällen vorhandene Vorwissen über den zu erwartenden Verlauf einer Simulation wird dabei nur sehr eingeschränkt genutzt. Lediglich bei einer rein statischen
Gebietsunterteilung ist dieses in Form von Gebietsanteilen je nach Anwendungsfall eingeflossen. Die
hier vorgestellte Beschreibungssprache ermöglicht
es dem Nutzer, auf einfache Weise speziell auf seinen
Anwendungsfall angepasste Kombinationen von – bei
Bedarf verschachtelten – statischen und dynamischen
Gebietsunterteilungen zu erzeugen.
Autoren
Constantin Heisler B.Sc. und Markus Maier B.Eng.
Akademische Mitarbeiter am Institute of Materials
and Processes (IMP) der Hochschule Karlsruhe
Johannes Hötzer M.Sc., Dipl.-Ing. Andreas Reiter
und Michael Selzer M.Sc.
Doktoranden am IMP der Hochschule Karlsruhe
und am Karlsruher Institut für Technologie (KIT)
Prof. Dr. Britta Nestler
Professorin an der Fakultät für Informatik und
Wirtschaftsinformatik und Direktorin der Abteilung
Computational Materials Science and Engineering
(CSME) am IMP der Hochschule Karlsruhe sowie
Professorin am Institut für Angewandte Materialien
(IAM) des Karlsruher Instituts für Technologie (KIT)
Kontakt
Prof. Dr. Britta Nestler
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Informatik und Wirtschaftsinformatik
Moltkestraße 30
76133 Karlsruhe
E-Mail: britta.nestler@hs-karlsruhe.de
Telefon: 0721 925-1504
18
| Forschung aktuell 2015
IT & Kommunikation
Personalized Web Learning by joining OER
Peter A. Henning und Kevin Fuchs
Introduction
For the past few years, one of the most heatedly debated
topics in technology enhanced learning (TEL) has been
the possibility of distributing free knowledge to large audiences via internet in Massive(ly) Open Online Courses
(MOOCs). This special form of Open Educational Resources (OER) has gained popularity due to increased bandwidth and the spread of mobile digital devices even to
remote areas of the world. UNESCO gave this field of TEL a
tremendous push at its 2012 OER conference and enthusiastically claims that OER could provide a solution to the
world’s educational problems [1]. Along with many other
TEL practitioners, we take a more differentiated view on
this, because broadcast video lectures have a long history and are not really considered state of the art in TEL.
Particular technical and didactical challenges that concern
fundamental aspects of MOOC learning are language, cultural background of learners, and individual learning habits and learning discipline to mention some of the most
prominent ones. Further, if one really wishes to produce
a high quality video of a full lecture, production costs
could be as high as 50 000 € [2], making their creation
and maintenance problematic for many institutions.
Fortunately, the rapid development of technology has
resulted in an increased availability of small OER. Public platforms contain large numbers of small clips, texts
and pictures about almost any subject that one could
think of teaching or learning. We have investigated how
MOOC learning can be made more personal, humancentered and interactive by using a specially enabled
Learning Management System (LMS), and how small
OER can be effectively collected and stitched together
in order to economically create MOOC-like courses.
Technical approach to personalization of learning
processes
The EU FP7 project INTUITEL provides a new approach
to adaptive learning. Current Adaptive Learning Environments (ALE) are either test-driven or curriculumdriven, i.e. they either follow a behaviorist or cognitivist learner model [3]. INTUITEL in contrast follows
a constructivist approach by leaving full freedom of
choice to the learners while non-intrusively guiding
them through a sequence of learning steps.
Each of these learning steps consist of “absorbing” one
knowledge object (KO) of 3–10 minutes and all of them
are inter-connected through concrete sequences called
learning pathways (LPs). The desired personalization
consists of selecting a particular ordering of KOs based
on considering well-defined LPs and all the aforementioned aspects for an individual learner. This challenge
has two parts: Firstly, the didactical and more theoretical aspects, which we address in [4], and secondly, the
technological aspects and problems of applying this
concept to MOOCs, which we will focus on here.
Fig. 1: Building blocks of an INTUITEL-enhanced LMS
In order to prove the concept, INTUITEL is implemented
for five different leading eLearning platforms (eXact
LCMS, Clix, Crayons, ILIAS and Moodle). This entails
six main components:
1. A lightweight data interface with an open specification that may be applied to every type of LMS
2. A pedagogical ontology (PO), based on Meder’s
web didactics [5] and insights gained from the L3
project [6], to provide the vocabulary and relations
necessary for enhancing courses with didactical
and technical metadata [7]
3. The Semantic Learning Object Model (SLOM) which
describes how learning material needs to be annotated in order to be interpretable by the INTUITEL
system
4. A back-end, which aggregates the required information and uses it to create learning recommendations and feedback
5. A communication layer (CL) for the management of
message distribution
6. An editor to comfortably annotate learning content
compliant to the SLOM format
Forschung aktuell 2015 |
19
IT & Kommunikation
Within the suggested approach, the learning process
is analyzed by considering the learning pathway of a
learner through a course and by gathering additional
data. The system maps this data to so called didactic
factors (DF) that are symbolic statements with each of
them having a distinct meaning for the learning process (e.g. learning speed or media type preferences).
This allows to give feedback and to personalize the
learning process by deducing that a certain knowledge object is better suited to this learner than another. Moreover, it is also possible to state why this is the
case. This enables the learners to self-reflect and thus
increases their metacognitive skills.
Technically, the information is processed in the INTUITEL backend using Java software and semantic reasoning engines. Its task is to enhance and interpret individualized ontologies in order to identify the most suitable
knowledge objects with regard to the most suitable
learning pathways and the current situation as expressed by the didactic factors. It therefore generates
semantic queries and starts the most efficient reasoning engine for the specific query. Thus, INTUITEL builds
on the results and insights of the THESEUS project and,
in particular, the HERAKLES Reasoning Broker [8].
Joining OER
This INTUITEL technology may be used to overcome the
MOOC problems stated in the introduction. Course authors are not restricted in their choice of what learning
material they provide and which style they do it in – they
just need to find suitable small OER and interconnect
them in a didactically meaningful way using the INTUITEL Editor. Therefore, INTUITEL provides the ‘glue’ needed and the means to interpret this composite course
object with its Semantic Learning Object Model, SLOM.
The important aspect for the MOOC problem is that the
INTUITEL metadata treats the concrete learning content
as resources from the RDF/RDFS/OWL syntax, i.e., it
is only linked to the content. Therefore, the resources
may reside anywhere on the global internet and only
need to be accessible by the LMS. The task of providing courses to a learner can thus be split. The LMS
provides a meaningful frame for the learning process
(e.g. the user interface) and INTUITEL provides the individualized references to the most appropriate content
elements. As long as the LMS loads the referenced material seamlessly, such a distributed INTUITEL course
will appear as an adaptive sequence of pages to the
learner, independent of where they actually originate.
Consider, as an example, a course on Beethoven: It
could start with an introductory text from Wikipedia,
20
| Forschung aktuell 2015
and then offer a virtual tour through the Beethoven
house in Bonn/Germany, proceeding with an audio file
residing on a US server and produced by the Chicago
Symphony Orchestra and so on. All of these pages and
media are presented as adaptive recommendation,
taking into account the learner’s history as well as his
current situation and behavior in the framework of the
didactical model. Every learner experiences individual
tutoring, even dialogues with the INTUITEL system,
without requiring a large monolithic production effort.
The INTUITEL approach may also affect content production in general. Not only does it preserve the high level
of freedom for course creation, but also allows novel
ways of collaboration in teaching. Authors from all over
the world can link their small OER and provide their
learners with a huge knowledge space. It is conceivable that such a knowledge space can attract as many
learners as one of the current MOOCs, but more flexibly and with almost unlimited individuality. A course
designer can contribute to this knowledge space not
only by adding new learning content, but also by adding more metadata. Easier cultural adaptation is only
one of the many possibilities offered by this approach.
Summary and Outlook
In this paper we have outlined a way to make OER more
suitable for a greater variability of learning needs by
high-level semantic annotations and by running them
in an enhanced LMS. INTUITEL therefore contributes to
key aspects of OER, i.e. how to create online courses
in a didactically meaningful way, how to add semantic
interoperability, and how LMSs can assist in that. In
our estimate, this could also be used for a semantic
reconstruction of current MOOCs which will resolve
some of their problems of maintainability and adaptability. The INTUITEL technology serves as the ‘glue’ for
integrating a variety of learning content into a greater
knowledge space. By providing the information on the
learning process in a suitable format, INTUITEL also
opens the doors for other technologies such as learning analytics and data mining in the educational sector. With the insights that can be gained from a data
driven perspective, this could result in new didactical
approaches and thus enhance education in general.
References
[1] UNESCO World OER Congress releases 2012 Paris
OER Declaration (UNESCO, Paris 2012).
[2] Consensual figure given at the 2014 conference
”MOOCs or POOCs”, Ministry of Science and Art,
State of Baden-Wuerttemberg, Stuttgart, April
2014.
» Tierisch preiswerten
All-in-one-Service
¿nden Sie bei uns!
» Druckerzeugnisse von A-Z
» Lernen Sie uns kennen –
wir visualisieren Ihr Know How
VMK Druckerei GmbH
Faberstrasse 17
67590 Monsheim
Tel. 0049.6243.909.110
Fax 0049.6243.909.100
info@vmk-druckerei.de
www.vmk-druckerei.de
Wir bieten
innovativen Köpfen
den Raum
für ihre Ideen!
Das Kompetenzzentrum
für Unternehmensgründungen
300 + UNTERNEHMEN
BETREUT
97% ERFOLGSQUOTE
6.000 ARBEITSPLÄTZE
GESCHAFFEN
© Tink66/pixelio.de
Haid-und-Neu-Str. 7 · 76131 Karlsruhe
Telefon 0721-174 271 · www.technologiefabrik-ka.de
SAP® University Alliances
?81/$+6/8>/+?0.3/<,/3>=A/6>
von morgen vorbereiten
Die nächste Fachkräftegeneration für das digitale Unternehmen ausbilden
Mit den Angeboten des Programms SAP® University Alliances werden Studierende optimal auf
eine Karriere im Umfeld von SAP vorbereitet – sei es bei einem der Kunden und Partner der
SAP oder bei SAP selbst. Eines dieser Angebote ist das Programm SAP Student Entrepreneurship
zur Förderung der Studierenden im Bereich Unternehmensgründung.
Innovationen vorantreiben – mit der nächsten Anwendergeneration
Junge, kluge Köpfe können ihr Wissen und ihre Ideen aktiv einbringen, indem sie an Wettbewerben sowie gemeinsamen Innovations- und Forschungsprojekten teilnehmen. Unterstützt
werden diese Crowdsourcing-Projekte durch die Plattform SAP HANA® Cloud.
Die Digitalisierung von Lehre und Forschung ermöglichen
/<+5+./73=-2/8'/6>/<ėH8/8=3-2.?<-2./8*?1+81D?8/?/=>/8# [$/-2896913/8@ė6631
8/?/ė163-25/3>/8L/2</8./?8.#>?.3/</8./:<9F>3/</8@97/<0961</3-2/8#-2?6?81=09<7+>
der Massive Open Online Courses (MOOCs) auf der Plattform openSAP und können ihre
Arbeit über die SAP-Cloud abwickeln.
Mach mit! Werde
Mitglied der Community!
Studio SAP | 37021deDE (15/02) © 2015 SAP SE oder ein SAP-Konzernunternehmen. Alle Rechte vorbehalten.
Verbrauchsausweis, Heizenergieverbrauchskennwert 97 kWh/m2a, Stromverbrauchskennwert 75 kWh/m2a, Erdgas
IT & Kommunikation
[3] K. Koedinger, M. Tanner, 7 Things You Should
Know About Intelligent Tutoring Systems, (July
2013) Retrieved 16 Dec 2013, from https://net.
educause.edu/ir/library/pdf/ELI7098.pdf.
[4] P. A. Henning, C. Swertz, F. Heberle, et al., Learning Pathway Recommendation based on a Pedagogical Ontology and its Implementation in Moodle, in: Proceedings der DeLFI 2014 - 12. E-Learning
Fachtagung Informatik der Gesellschaft für Informatik e.V. (GI), GI Lecture Notes in Informatics
P-233 (2014), 39–50.
[5] C. Swertz, F. Heberle, P. A. Henning, et al., A Pedagogical Ontology as a Playground in Adaptive
Elearning Envi-ronments, in: Horbach, M. (ed), INFORMATIK 2013: Informatik angepasst an Mensch,
Organisation und Umwelt, GI-Edition Lecture Notes in Informatics (LNI), P-220 (2013), 1955–1960.
[6] N. Meder, Web-Didaktik: Eine neue Didaktik webbasierten, vernetzten Lernens, Bertelsmann, Bielefeld, 2006.
[7] T. Leidig, L3 –Towards and Open Learning Environment, ACM Journal of Educational Resources in
Computing, Vol. 1 No. 1(2001).
[8] J. Bock, T. Tserendorj, Y. Xu, et al., A Reasoning
Broker Framework for OWL, in: R. Hoekstra, P.F.
Patel-Schneider (eds), Proceedings of the 6th International Workshop on OWL: Experiences and
Directions (OWLED 2009), CEUR WS proceedings,
Chantilly (2009).
The research leading to these results was co-funded in
the 7th framework programme of the European Union
(FP7-ICT-2011.8, Challenge 8.1) under grant no. 318496.
This article is based on a text published in context of
the DeLFI 2014 conference (GI Lecture Notes in Informatics, P-233, 39-50). For more information on INTUITEL,
please visit www.intuitel.eu.
22
| Forschung aktuell 2015
Zusammenfassung
Die Verfasser argumentieren, dass die qualitativen
und didaktischen Probleme von MOOCs durch die
Verwendung von kleinen Open Educational Resources überwunden werden können, die entlang
von vordefinierten Lernpfaden mit entsprechender
semantischer Annotation zu großen Kursen zusammengefügt werden. Dieser neue Ansatz erfordert
nicht nur konzeptionelle Arbeit und die Entwicklung
neuer Werkzeuge, sondern auch ein neues Metadatenformat und Software, die die semantischen
Beschreibungen interpretiert und die Reaktionen
der Lernenden misst. Das EU-FP7-Projekt INTUITEL
widmet sich diesem Ziel und wendet diese Technologien in einer neuartigen Lernumgebung an.
Abstract
The writers argue that quality issues and didactical concerns of MOOCs can be overcome by using
small Open Educational Resources, joining them
along predefined learning pathways with proper
semantic annotations into large courses. This new
approach not only requires conceptual work and
corresponding support tools, but also a new meta
data format and software which interprets the
semantic annotations and measures a learner’s
response to these. The EU FP7 project INTUITEL is
devoted to this goal and employs these technologies in a new learning environment.
Autoren
Prof. Dr. Peter A. Henning
Professor at the Faculty of Computer Science and
Business Information Systems at Karlsruhe University of Applied Sciences
Dipl.-Inform. (FH) Kevin Fuchs
Academic Assistent at the Institute of Applied Research at Karlsruhe University of Applied Sciences
Contact
Prof. Dr. Peter A. Henning
Karlsruhe University of Applied Sciences
Faculty of Computer Science and Business Information Systems
Moltkestrasse 30
76133 Karlsruhe
Germany
E-mail: peter.henning@hs-karlsruhe.de
Phone: +49 721 925-1508
IT & Kommunikation
Die Bedeutung von DAAD-Hochschulkooperationen für
die angewandte Forschung in Entwicklungsländern:
Geodatennutzung in Ostafrika
Gertrud Schaab
1. Hintergrund
Im BMBF-Forschungsverbund BIOTA-Ostafrika (2001–
2010) war die Hochschule Karlsruhe für die Geodatenprozessierung verantwortlich. Mit am Ende mehr als
500 Geodatensätzen zu drei Waldgebieten in Kenia
und Uganda [1] wurde nicht nur zur Beantwortung interdisziplinärer Biodiversitätsfragestellungen beigetragen, sondern man war in Ostafrika auch aktiv an
Implementationen (z. B. Waldmanagementplanung,
Aufbau eines Informationszentrums) und Maßnahmen
des Capacity Building beteiligt.[2] Die regelmäßige
Präsenz und die enge Zusammenarbeit vor Ort hatten
zu einem weiten Netzwerk geführt. Dabei zeigte sich,
dass in Ostafrika das Interesse an einer professionellen Verarbeitung von Daten in einem Geographischen
Informationssystem (GIS) groß war. Bei genauer Betrachtung wurde jedoch deutlich, dass die Verwendung
von Geodaten über die reine Visualisierung in Karten
oft nicht hinausging. Gründe hierfür wurden der sehr
oft fehlenden Fähigkeit, Karten überhaupt lesen oder
interpretieren zu können zugeschrieben. Damit fehlt es
aber an der Voraussetzung, das Potenzial raumbezogener Informationen zur Beantwortung gesellschaftsrelevanter Fragen zu nutzen.
Bereits 2005–2006 hatte die Hochschule Karlsruhe im
Projekt GeoTeach CensoPhil, das von der EU im Rahmen des ASIA-IT&C-Programms gefördert wurde, an
zwei philippinischen Universitäten Erfahrungen zum
Aufbau von Kapazitäten im GIS-Bereich gesammelt.
[3] Dabei lag der Fokus auf der Ausbildung zu GIS von
jeweils zwei Mitarbeitern, der Anleitung dieser bei der
Erstellung von Lehrmaterialien sowie dem Aufbau je
eines GIS-Labors. Trotz kurzer Laufzeit hat das Projekt
sich als überaus nachhaltig erwiesen: die Lehre zu GIS
ist an beiden Universitäten über Fakultätsgrenzen hinweg fest etabliert.[4]
In Ostafrika kann die Geomatik nach wie vor als ein
relativ junges Feld bezeichnet werden. Ihr weitverbreitetes Werkzeug GIS erfährt zwar wachsende Aufmerksamkeit, da es im Ressourcenmanagement, den
Kommunalverwaltungen, im Umweltschutz oder der
regionalen Planung eingesetzt werden kann. Jedoch
geschieht dies dort sehr oft alleine für die Visualisie-
rung bzw. Kartenerstellung. Karten werden schon viele
Jahrhunderte zur Orientierung, aber auch für das Aufdecken und die Kommunikation komplexer Wirkungszusammenhänge genutzt. Dies ist der Grund, warum
GIS heutzutage so viel Aufmerksamkeit erfährt. Denn
neben der Möglichkeit der Kartenerstellung beinhaltet es eine Vielzahl an Funktionalitäten für einfache
bis hochkomplexe Analysen, um neue Informationen
aus Geodaten abzuleiten. Damit nun in Ostafrika das
Potenzial von GIS in seiner Fülle genutzt wird, braucht
es die Universitäten, denen dort die Rolle zufällt, neue
Theorien und Techniken relevanten Anwendungen zuzuführen sowie darin auszubilden.
2. Das DAAD-Hochschulkooperationsprojekt UnivGisKoop
Unter der Bezeichnung „Fachbezogene Partnerschaften mit Hochschulen in Entwicklungsländern” [5] des
Deutschen Akademischen Austauschdienstes (DAAD)
werden Projekte durchgeführt, die der Strukturbildung
dieser Hochschulen dienen sollen, sei es durch Curriculaentwicklung, die Einrichtung neuer Studiengänge
oder die gegenseitige Anerkennung von Studienabschlüssen. Die Mittel werden vom Bundesministerium
für wirtschaftliche Zusammenarbeit und Entwicklung
(BMZ) zur Verfügung gestellt, insbesondere für den
Austausch zwischen den Projektbeteiligten. UnivGisKoop (Streamlining GIS Teaching while Emphasizing a
Regional Focus, a German-Ugandan-Kenyan University
Cooperation) hat nicht die Entwicklung eines neuen
Studiengangs zum Ziel, sondern das „Streamlining“
aktueller GIS-Lehre in bereits existierende curriculare
Strukturen. Hierfür werden Lehrmaterialien für Vorlesungen und Übungen entwickelt. Das den beiden
GIS-Modulen vorgeschaltete Modul „Geodata Use“
stellt hierbei einen neuen Ansatz dar. Die Übungen
berücksichtigen Geodatenanwendungen von regionaler Relevanz. Die Partnerschaft zielt dabei auch auf
die Verbesserung der Kapazitäten an ausgewählten
ostafrikanischen Universitäten durch den Transfer
von Wissen aus Deutschland. Die Harmonisierung der
GIS-Lehre – nicht nur über Fakultäts- sondern auch
Ländergrenzen hinweg – hat zudem den Nutzen, einen
Beitrag für die Studierendenmobilität zwischen afrikanischen Universitäten zu leisten. Involviert sind drei
Forschung aktuell 2015 |
23
IT & Kommunikation
Hochschulen: Die noch junge Masinde Muliro University of Science and Technology (MMUST) aus Kakamega
im Westen Kenias, die sich in unmittelbarer Nähe zum
Hauptuntersuchungsgebiet von BIOTA-Ost befindet,
hat über 10 000 Studierende an fünf Fakultäten. GIS
wird in fast allen Fakultäten gelehrt, aber auf unterschiedlichem Niveau, nicht aufeinander abgestimmt,
mit Geodaten, ohne regionalen Bezug und veralteter
Software auf unzureichender Computerausstattung.
Makerere University (MAK) in Kampala, der Hauptstadt
Ugandas, ist die älteste Universität Ostafrikas und
hat 40 000 Studierende an neun Colleges und einer
School. GIS wird hier ebenfalls gelehrt, wobei mehrere
Computerpools zur Verfügung stehen. Auch hier fehlt
es an Zusammenarbeit und Abstimmung zwischen den
Fachbereichen, von der insbesondere die Lehre in den
Nicht-Geomatikstudiengängen profitieren würde. An
der Hochschule Karlsruhe erhalten die Studierenden
der Bachelor- und Masterstudiengängen, in denen es
vorrangig um die Goinformationsverarbeitung geht,
eine fundierte Ausbildung zu GIS. Das Lehrkonzept
aufeinander abgestimmter Theorie und Praxis wurde
über viele Jahre weiterentwickelt und umfasst mittlerweile auch die GIS-Programmierung als dritte Stufe.
3. Bedeutung für die angewandte Forschung
a) Kontinuität in der Kooperation
UnivGisKoop hat seinen Hintergrund im Projekt BIOTA.
Es entstand aus dem Bedarf nach einer auf die Bedürfnisse zugeschnittenen GIS-Ausbildung, um Geodaten
umfassender zu nutzen. Auch wenn Forschungsprojekte aus finanzieller Sicht gesehen die attraktiveren
Projekte sind, liegt der besondere Wert der Kooperation in der Überbrückung von Zeiten ohne Forschungsgelder. UnivGisKoop ermöglicht die Kontinuität in der
Präsenz vor Ort und die Fortführung der innerhalb von
BIOTA begonnenen Aktivitäten.
b) Förderung der Eigeninitiative
In einem Entwicklungsland stellt die solide Aufbereitung von Lehrinhalten für ein sich rapide entwickelndes
Feld wie die Geomatik eine besondere Herausforderung
dar. Es werden jedoch nicht einfach an der Hochschule Karlsruhe entwickelte Einheiten übernommen, vielmehr wird Eigeninitiative gefordert und gefördert, dies
auch explizit über die Erarbeitung von Lehrmaterialien
hinaus. Mithilfe von DAAD-Mitteln ist es nun möglich an
der MMUST ein GIS-Labor aufzubauen. Das GIS-Labor
sowie die Beschäftigung mit den regionalen Geodaten
werden helfen, weitere Ideen möglicher Forschungsund Entwicklungsprojekte zu generieren.
c) Schließen von Wissenslücken
In Ostafrika ist im Gegensatz zur westlichen Welt das
Kartenlesen weder Teil der Kultur, noch wird ihm in der
Schulausbildung Bedeutung zugemessen. Deshalb wird
den eigentlichen zwei Modulen zu GIS ein eigenes Modul
zur Geodatennutzung vorangeschoben, das grundlegendes Verständnis für Karten und somit auch für Geodaten
inhärente Merkmale schafft. Dieser neue Ansatz wird
zum Erfolg führen, wenn die Lehrenden die Inhalte selbst
verinnerlicht haben. Bei der Vermittlung an die breite
Masse Studierender ganz unterschiedlicher Fachrichtungen wird auf das Prinzip der Multiplikatoren gesetzt,
wobei die wenigen GIS-Experten weitere Lehrende anleiten. Damit sorgt das Projekt dafür, dass zukünftig auch
in Ostafrika das Potenzial von Geodaten für das Wohl der
Gesellschaft besser genutzt wird. Die Absolventen erhalten damit bessere Chancen auf dem Arbeitsmarkt (auch
hier boomt ITC) und der wissenschaftliche Nachwuchs
wird in der Handhabung heute wichtiger Werkzeuge fundiert ausgebildet. Das Schließen von Wissenslücken der
direkt in das Projekt Involvierten wird durch die Begleitung bei der Erarbeitung der Lehrmaterialien ermöglicht,
besonders intensiv erfolgt dies während der gemeinsamen Projekttreffen (s. Abb. 1).
Abb. 1: Eindrücke von Projektworkshop-Aktivitäten zu für die beiden Regionen verfügbaren Geodaten und Tools an der HsKA (Aug.
2012) sowie zu einer Probelehreinheit an der MMUST (Aug. 2013), (Fotos: G. Schaab)
24
| Forschung aktuell 2015
IT & Kommunikation
Abb. 2: Die partizipative Entwicklung von Materialien für die Umweltbildung, hier das Kartenspiel zu den Regeln der lokalen Waldnutzung im Einsatz in einem am Waldrand gelegenen Dorf sowie das Puzzle zur Waldveränderung im Test mit Studierenden der
MMUST (Fotos: M. Paul (li.) und R. Joseph (re.))
d) Vor-Ort-Erfahrungen ermöglichen
Fachbezogene Partnerschaften bieten deutschen Studierenden bzw. dem wissenschaftlichen Nachwuchs
die Möglichkeit mehrere Monate an den Hochschulen
in den Entwicklungsländern zu verbringen, als Praxissemester oder für eine Studienabschlussarbeit. Dabei steht nicht der Umgang mit einer Vielzahl neuester Techniken im Vordergrund, sondern vielmehr das
Kennenlernen und Zurechtkommen in einer fremden
Kultur. Innerhalb des UnivGisKoop-Projekts wurden
beispielsweise für eine Master-Thesis partizipativ zusammen mit der Bevölkerung Environmental Education Tools entwickelt.[6] Die Materialien haben zum
Ziel, die Bevölkerung für den Schutz der Wälder zu
sensibilisieren, sie zu informieren und Handlungsanweisungen zu geben. Somit sind, aufbauend auf BIOTA-Arbeiten und die Ideale angewandter Forschung
fortführend, vier Tools entstanden, darunter ein Puzzle zu den Waldveränderungen und eine Art Memory zu
den Waldnutzungsregeln (s. Abb. 2), deren Produktion
für den Einsatz vor Ort nun noch ansteht.
[3] P. Freckmann, G. Schaab, Capacity Building zu
Geoinformationsverarbeitung für die zentralen und
südlichen Philippinen, in: Hochschule Karlsruhe –
Technik und Wirtschaft, Forschung aktuell, 2007, S.
89–90.
Referenzen
[1] www.biotaafrica.org/East_GISWeb1_ba.php?Page_
ID=L600_04
[7] G. Schaab, Experiences from testing map visualizations in a developing country as the basis for
a research framework, in: Proceedings (CD-ROM)
der 24th International Cartographic Conference
(ICC 2009) ‘The World’s Geo-Spatial Solutions’,
15.-21. November 2009, Santiago de Chile (Chile),
conf. theme 17 Users.
[2] G. Schaab, T. Lübker, T. Lung, N. Mitchell, Remotely sensed data for sustainable biodiversity management. The case model of Kakamega Forest in
western Kenya, in: Proceedings (digital) des 33nd
International Symposium on Remote Sensing of
Environment ‘Sustaining the Millennium Development Goals’, 4.-8. Mai 2009, Stresa, Lago Maggiore (Italien), ref. 479.
[4] M. A. Pandan, Geographic Information System
(GIS) development at the University of St. La Salle, Bacolod City, in: Proceedings (digital) der AGSE
2012 & FOSS4G-SEA ‘Geoinformation – Catalyst
for Planning, Development and Good Governance’, 16.-20. Juli 2012, Johor Bahru (Malaysia),
2. ergänzte Auflage, S. 255–259.
[5] www.daad.de/entwicklung/hochschulen/zusammenarbeit/partnerschaften/08480.de.html
[6] L. Paul, Participatory development of tools for environmental education in the area of Kakamega,
Kenya, unveröffentlichte Master-Thesis, Hochschule Karlsruhe, Studiengang Geomatics, 2014.
Forschung aktuell 2015 |
25
IT & Kommunikation
LERNEN SIE UNS KENNEN |
Abstract
During the research project BIOTA East Africa
the need for improved training in the use of GIS
became apparent. The more than 500 geodatasets
which were made available to the project partners
were considered as an ideal basis for this training.
This opportunity was offered in the frame of the
DAAD-funded university cooperation UnivGisKoop.
The article describes the formation and aims of
UnivGisKoop and discusses their importance for
continuing sustainable geomatic-related applied
research in the area.
Zusammenfassung
Der Bedarf nach besserer Ausbildung zu GIS hatte
sich während des Forschungsprojekts BIOTA-Ostafrika herauskristallisiert. Die über 500 Geodatensätze, die den Projektpartnern in Kenia und Uganda überlassen wurden, stellen hierfür eine ideale
Basis dar. Die Chance bot sich im Rahmen der vom
DAAD geförderten Hochschulkooperation UnivGisKoop. Der Artikel stellt das Zustandekommen und
die Ziele von UnivGisKoop vor und diskutiert ihre
Bedeutung für die Fortsetzung und Nachhaltigkeit
der angewandten Forschung in der Geomatik.
Autorin
Prof. Dr. Gertrud Schaab
Professorin an der Fakultät für Informationsmanagement und Medien
Kontakt
Prof. Dr. Gertrud Schaab
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Informationsmanagement und Medien
Hoffstraße 3
76133 Karlsruhe
E-Mail: gertrud.schaab@hs-karlsruhe.de
26
| Forschung aktuell 2015
WIR VISUALISIEREN IHR KNOW
HOW | DRUCKERZEUGNISSVON A - Z
HIER DRUCKEN
VMK Druckerei GmbH
Faberstrasse 17
67590 Monsheim
Tel. 0049.6243.909.110
Fax 0049.6243.909.100
info@vmk-druckerei.de
www.vmk-druckerei.de
IT & Kommunikation
E-Wiki – Wissensplattform für die Entwicklung klimaschonender Technologien und Systeme
Héctor Arruga, Daniel Burkard, Jan Zepp, Joachim Kaiser und Maurice Kettner
Die Planung und Auslegung umweltschonender Technologien erfordert eine Zugänglichkeit zu fundierten
Wissensquellen. Die zur Bewältigung solcher Ingenieurleistungen benötigten Informationen verteilen sich
heute auf verschiedene Print- und Onlinemedien. Hierzu zählen Fach- und Lehrbücher, Promotionen und weitere wissenschaftliche Veröffentlichungen ebenso wie
zahlreiche Internetseiten mit teils zweifelhafter Kompetenz. Wissensrecherche und -strukturierung gestalten
sich aufgrund dieser Informationsvielfalt oftmals aufwendig und zeitintensiv. Für konkrete ingenieurtechnische Anwendungen mangelt es den verfügbaren Quellen zudem häufig an der erforderlichen Wissenstiefe.
Transparenz und Struktur der Informationen sind vielerorts unbefriedigend. Um diese Schwachpunkte zu
beseitigen, wurde die umfangreiche und öffentliche
„E-Wiki“-Plattform (http://www.e-wiki.net) entwickelt.
Sie sammelt den Stand der Technik und Wissenschaft
von klimaschonenden und energieeffizienten Technologien und bietet hilfreiche Berechnungstools für deren Entwicklung. Die Informationen werden in einem
kostenfreien Online-Portal in einer deutlich strukturierten und wissenschaftlichen Weise bereitstellt. Das
E-Wiki ermöglicht eine effektive und schnelle Suche
nach Informationen und unterstützt die Entwicklung
umweltschonender und energieeffizienter Technologien. Die Förderung des Projekts erfolgt im Rahmen der
Nationalen Klimaschutzinitiative durch das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Das Projekt wird durch das Institut
für Kälte-, Klima- und Umwelttechnik (IKKU) an der
Hochschule Karlsruhe unter der Leitung von Prof. Dr.Ing. Maurice Kettner durchgeführt. Projektpartner ist
das Kompetenzzentrum Energie Karlsruhe (KZE). Das
KZE wird hierbei durch das Unternehmen Alcion Ingenieure GmbH vertreten. Es unterstützt die Hochschule
Karlsruhe sowohl bei der Auswahl von Hard- und Software als auch bei den Inhalten des E-Wikis.
Zielgruppe
Das E-Wiki stellt eine Plattform für diejenigen dar, die
sich für das Thema „erneuerbare Energien und klimaschonende Technologien“ interessieren. Es soll sie in
ihrer Fachkompetenz bei der Planung und Realisierung
von energieeffizienten und nachhaltig klimaschonenden Systemen und Anlagen unterstützen. Das Projekt
richtet sich gleichermaßen an Schüler, Privatpersonen,
Ingenieure und Wissenschaftler in Forschungsinstituten, Universitäten und Unternehmen. Das E-Wiki stellt
eine direkte Schnittstelle zwischen Akademikern, Unternehmen und Verbrauchern dar. Die Vorkenntnisse
des jeweiligen Anwenders werden in den Artikeln berücksichtigt, indem man die Schwierigkeitsgrade „Einsteiger“, „Anwender“ und „Experte“ auswählen kann.
Abb. 1: zielgerichtete Suche von Artikeln auf der E-Wiki-Plattform
Forschung aktuell 2015 |
27
IT & Kommunikation
Benutzergruppen und Zugriff auf die Plattform
E-Wiki-Benutzer werden entsprechend ihren Rechten
in verschiedene Gruppen unterteilt. Dadurch wird sichergestellt, dass Aktionen wie Freigabe von Benutzern und Artikeln nur durch dafür qualifizierte Personen durchgeführt werden. E-Wiki ist kostenlos und frei
zugänglich. Nach der Anmeldung verfügen die Benutzer zunächst nur über eine Leseberechtigung auf den
Content. Wenn sie einen eigenen Artikel erstellen oder
vorhandene Artikel bearbeiten wollen, müssen sie erst
von einem E-Wiki-Administrator als „Mitschreiber“
freigeschaltet werden. Alternativ gibt es die Möglichkeit, mit einem Gastkonto (Leseberechtigung) die EWiki-Plattform zu nutzen. Es kann mit den Zugangsdaten „Gastzugang“ für den Benutzernamen sowie dem
Passwort „Hochschule“ genutzt werden.
Strukturierung der Inhalte
Die Artikel auf E-Wiki werden in zahlreiche Kategorien unterteilt. Alle beinhalten das Thema Energie und
Energieeffizienz. Als Beispiele können „regenerative
Energien“, „Kraft-Wärme-Kopplung“ oder „Kälte- und
Wärmetechnik“ genannt werden. Abgesehen von der
Betrachtung der Wissenstiefe werden die Artikel gemäß weiterer Kriterien sortiert. Die Bewertung durch
die Benutzer der Plattform, die Aktualität, der Urheber und inhaltsbeschreibende Stichworte („Tags“)
werden in einer Box in der Kopfzeile des Artikels angezeigt (s. Abb. 2). Sie können als Suchparameter in
einem zielgerichteten Suchalgorithmus eingestellt
werden (s. Abb. 1).
Abb. 2: Vorlage eines Artikels in E-Wiki-Plattform
28
| Forschung aktuell 2015
Neben der Bereitstellung von Wissen in Form von Artikeln wird auch eine breite Vielfalt von Ressourcen zur
Verfügung gestellt. Diese bestehen aus Broschüren,
Videos, nützlichen Berechnungstools, Büchern, Fachvorträgen oder Artikeln aus Fachmagazinen. Ebenso
findet man Informationsartikel über E-Wiki, das Erstellen von Artikeln im Mediawiki-Format und häufig gestellte Fragen (FAQ, Frequently Asked Questions).
Sicherung der Artikelqualität
Die wissenschaftliche Qualität jedes Artikels wird durch
einen gründlichen Überprüfungsprozess durch einen
Fachreferenten (mit Administratorrechten) gesichert.
Wenn der Artikel fachlich richtig ist, wird dieser in E-Wiki
freigegeben und als eine bestätigte Version angezeigt.
Die Fachreferenten sind derzeit Professoren und Mitarbeiter der Hochschule Karlsruhe. In Zukunft werden
diese Aufgaben auch von externen Fachreferenten übernommen. Bei Fragen, Problemen, Verbesserungsvorschlägen und Fehlermeldungen kann sich der Benutzer
direkt per E-Mail oder mittels eines Kontaktformulars an
die Administratoren wenden.
Ausblick
Parallel zur Optimierung der Plattform wird E-Wiki aktuell als ein fachdidaktisches Lehrtool an der Hochschule
Karlsruhe eingeführt. Ziel ist die Vernetzung von Lehrressourcen, die sich mit dem Thema „Energieeffizienz“
befassen. Dadurch soll die selbständige wissenschaftliche Arbeit der Studierenden in den Vorlesungen der
Masterstudiengänge gefördert werden. Sie können
Energiewende. Innovativ. Machen »
Die EnBW steht für Energie, Innovation und Kompetenz. Für unsere Kunden
gestalten unsere Mitarbeiter schon heute die Energiewelt von morgen.
Als eines der bedeutendsten Energieunternehmen in Deutschland werden
wir viel bewegen.
Wir treiben die Energiewende aktiv voran, bauen erneuerbare Energien aus,
machen unsere Städte nachhaltiger und unsere Netze intelligenter. In dieser
sich stark veränderten Energiewelt stellen wir auch weiterhin eine
zuverlässige Versorgung sicher.
Dazu brauchen wir Talente, die ihr Fachwissen und neue Impulse einbringen.
Ob Praktikum, Abschlussarbeit oder Werkstudententätigkeit: Wir bieten
Ihnen vielfältige Perspektiven und Freiraum für eigene Ideen.
Machen Sie mit und entdecken Sie die Vielfalt der EnBW unter
www.enbw.com/karriere
Verfahrenstechnik
Bei
uns findest Du Deinen
Traumberuf!
www.opusmundi.de
Hol‘ Dir die App!
Nachrichtentechnik
triebswirtschaft
app.opusmundi.de
Bauingenieurwesen
IT & Kommunikation
Themen selbstständig in Kleingruppen erarbeiten und
diese in Form von Fachartikeln und Studien dokumentieren, die wiederum auf E-Wiki veröffentlicht werden.
Die Plattform enthält auch aktuelle und zusätzliche
Lehrmaterialien, Vorlesungsskripte, Lernkontrollen
und Frageseiten. Zusätzlich wird an der Vermarktung
und Verbreitung der Plattform gearbeitet. Eine Berichterstattung über E-Wiki erfolgt demnächst in Fachmagazinen und auf Webseiten. Damit erreicht E-Wiki die
größtmögliche Anzahl von potenziellen Benutzern aus
verschiedenen Bildungskreisen. Eine weitere Unterstützung von verschiedenen Forschungsinstitutionen,
Hochschulen, Universitäten, Firmen und Partnern wird
angestrebt. Sie mögen ihr Wissen, neueste Forschungsergebnisse oder Produktinformationen auf der Webseite veröffentlichen, „weil Wissen unendlich ist“.
Abb. 3: Verteilung der Artikel in E-Wiki
Abstract
The E-Wiki online platform gathers information
about state-of-the-art climate-friendly and energyefficient technologies. It focusses on a wide variety
of users (from beginners to experts). It provides
articles and other resources e.g. calculation tools,
flyers and videos. The scientific quality of the content is guaranteed through a review process carried
out by experts in the field. In addition, the subdivision of articles according to several categories and
keywords enables fast and effective information
research.
Autoren
Ing. Héctor Arruga, Daniel Burkard M.Sc. und Jan
Zepp B.Eng
Akademische Mitarbeiter am Institut für Kälte-,
Klima- und Umwelttechnik (IKKU) und am Institut
für Angewandte Forschung (IAF)
Joachim Kaiser, Staatl.-gepr. Betriebswirt
Mitarbeiter am Institut für Angewandte Forschung
(IAF)
Prof. Dr.-Ing. Maurice Kettner
Professor an der Fakultät für Maschinenbau und
Mechatronik
Zusammenfassung
Die E-Wiki-Online-Plattform sammelt den Stand
der Technik und Wissenschaft klimaschonender
und energieeffizienter Technologien. Die Unterteilung nach Wissenstiefe der Inhalte (Einsteiger
bis Experte) wird den Ansprüchen einer breiten
Anwenderschicht gerecht. Artikel, Ressourcen wie
Berechnungstools, Broschüren und Videos werden
bereitgestellt. Die wissenschaftliche Qualität
der Inhalte wird von Fachexperten durch einen
Überprüfungsprozess gesichert. Die Unterteilung
der Artikel entsprechend verschiedener Kategorien und Stichworte ermöglicht eine schnelle und
effektive Suche nach Informationen.
Kontakt
Prof. Dr.-Ing. Maurice Kettner
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Maschinenbau und Mechatronik
Institut für Kälte-, Klima- und Umwelttechnik
Moltkestraße 30
76133 Karlsruhe
E-Mail: maurice.kettner@hs-karlsruhe.de
Telefon: 0721 925-1845 oder -1422
30
| Forschung aktuell 2015
Jeder Erfolg hat seine Geschichte.
Eine für alle(s).
Absolventen/innen
Studenten/innen
Der Geschäftsbereich Automotive Aftermarket ist für das weltweite Aftermarket-Geschäft verantwortlich. In über 140 Ländern
stellen wir unseren Kunden Kfz-Ersatzteile, technische Informationen sowie Diagnostics Hard-/Software/Services zur Verfügung.
Von unserem Global Distribution Center in Karlsruhe aus steuern
wir unsere weltweiten Aktivitäten.
Ihre Einsatzbereiche:
zen und Controlling
Vertrieb
Personal
Marketing
Logistik
Praktikum
Werksstudententätigkeit
neeprogramm
PreMaster Programm
Direkteinstieg
Jeder Erfolg hat seinen Anfang. Bewerben Sie sich jetzt.
Robert Bosch GmbH
Personalabteilung Karlsruhe
Postfach 41 09 60, 76225 Karlsruhe
Tel. 0721 942-2385
Clarissa.Carsten@de.bosch.com
www.bosch-career.de
Finan-
Strategy Ihre Möglichkeiten:
Trai-
Für Karlsruhe.
Natürlich.
Die neue Käppsele-App der Stadtwerke.
Damit haben Sie alles im Griff.
News zu Karlsruhe
Stadtmobil buchen
Zählerstand eingeben,
Tarife vergleichen
Energie sparen und Klima schützen
... alles, was Zukunft hat.
Hier
downloaden!
www.stadtwerke-karlsruhe.de
IT & Kommunikation
Kinder- und Jugendmedienschutz im Internet – eine
empirische Studie zur Akzeptanz von Schutzmaßnahmen
in den neuen Medien
Melina Hillenbrand und Stefanie Regier
Herausforderungen des Kinderschutzes im Internet
Bereits schon sehr kleine Kinder entdecken das Internet für sich. Als „Digital Natives“ wachsen Kinder und
Jugendliche heutzutage mit diesem Medium auf. Doch
die reine Bedienkompetenz dieser Nutzergruppe geht
noch lange nicht einher mit angemessener Medienkompetenz. Hier sind insbesondere die Eltern gefragt:
Gewaltdarstellung, verstörende und beängstigende
Inhalte, sexuelle Belästigung, „Abzocke“ und Betrug
sind nur einige der von Eltern wahrgenommenen bzw.
tatsächlich existierenden Risiken im Internet.[1] 93 %
der in einer ZDF-Studie befragten Eltern sind der Meinung, dass Kinder und Jugendliche im Alter ihrer eigenen Kinder vor möglichen negativen Einflüssen der
Medien geschützt werden sollten.[1] Demgegenüber
steht allerdings die tatsächliche Nutzung von Schutzmaßnahmen, die Kinder und Jugendliche vor negativen Erlebnissen bewahren können: So setzen laut
einer deutschen Studie lediglich 21–27 % der Eltern
Jugendschutzsoftware bei der Internetnutzung ihrer
Kinder ein.[2] Vor diesem Hintergrund stellt sich die
Frage, was Eltern daran hindert, ihre Kinder vor den
Risiken bestmöglich zu schützen und die im Rahmen
des Jugendmedienschutzes zur Verfügung stehenden
Schutzmaßnahmen wie z. B. Betriebssystem-Einstellungen, Softwarelösungen für Computer, Smartphones und Tablets oder spezielle Internetangebote für
Kinder und Jugendliche als Schutzräume einzusetzen.
Im Rahmen eines Forschungsprojekts an der Hochschule Karlsruhe wurde hierzu auf Basis aktueller Erkenntnisse ein Ursache-Wirkungsmodell aufgestellt,
das die Einflussfaktoren auf die elterliche Akzeptanz
von Schutzmaßnahmen zu erklären versucht. Darauf
aufbauend soll eine empirische Untersuchung letztendlich in Handlungsempfehlungen zum Thema Kinder- und Jugendschutz im Internet münden.
Studienkonzeption zur Akzeptanz von Kinder- und
Jugendschutzmaßnahmen
Auf Basis aktueller Forschungsergebnisse, insbesondere dem vom Hans-Bredow-Institut entwickelten hypothetischen Bezugssystem im Elternhaus [2] und bestehenden Theorien aus der Konsumentenverhaltens- und
Technologieakzeptanzforschung, wurde das in Abbildung 1 dargestellte Untersuchungsmodell abgeleitet.
32
| Forschung aktuell 2015
Dieses soll Einflussfaktoren identifizieren, die die Akzeptanz von Kinderschutzmaßnahmen ausmachen.
Markenvertrauen
Wahrgenommene
Bedienfreundlichkeit
H7.1
Medienkompetenz
der Eltern
Wahrgenommene
Wirksamkeit
Wahrgenommener
Schutzbedarf
Einstellung
Intention
Informationsverhalten
Geschlecht der Eltern
Bildung der Eltern
Alter der Kinder
Anzahl der im
Haushalt lebenden
Kinder
Abb. 1: Untersuchungsmodell
In die empirische Überprüfung des Untersuchungsmodells flossen die vollständigen Daten von insgesamt
289 Probanden ein, die im Rahmen einer Online-Befragung an der Studie teilnahmen. Davon waren knapp
65 % Frauen und 35 % Männer. Das Untersuchungsmodell wurde anschließend kausal-analytisch mithilfe von SmartPLS ausgewertet, um die vermuteten
Ursache-Wirkungsbeziehungen zu prüfen. Die dem
aktuellen Standard entsprechenden Gütekriterien für
die Kausalmodellierung deuten allesamt auf eine sehr
gute Erklärungskraft des Modells hin.
Erkenntnisse und Implikationen für die Praxis und
Forschung
Um die Nutzung von Schutzmaßnahmen durch die Eltern zu steigern ist es zunächst notwendig, eine möglichst positive Einstellung der Eltern gegenüber diesen
zu generieren. Eine solche positive Einstellung wird im
Wesentlichen durch die wahrgenommene Wirksamkeit der jeweiligen Schutzmaßnahme, das Markenvertrauen in den Anbieter der Schutzmaßnahme und den
wahrgenommenen Schutzbedarf der Kinder determiniert. Während sich die Medienkompetenz einerseits
positiv auf das Informationsverhalten der Eltern aus-
IT & Kommunikation
wirkt, sind negative Effekte dieser auf die wahrgenommene Wirksamkeit der Maßnahme, den wahrgenommenen Schutzbedarf sowie letztendlich die Einstellung
festzustellen. Demgegenüber wirken sich das Informationsverhalten der Eltern sowie deren Medienkompetenz negativ auf die wahrgenommene Wirksamkeit und
die Einstellung zur Schutzmaßnahme aus.
Die Ergebnisse der Untersuchung implizieren eine Vielzahl an Handlungsempfehlungen für die Hersteller und
Anbieter von Schutzmaßnahmen, aber auch für staatliche und private Institutionen, deren Aufgabengebiet
den Kinder- und Jugendmedienschutz umfassen:
1. Es ist unabdingbar, dass Hersteller von Schutzmaßnahmen den Eltern Instrumente zur Verfügung
stellen, die auch wirksam sind. Dass dies aktuell
nicht der Fall ist, zeigen z. B. auch die Ergebnisse
der SIP-Benchmark-Studie 2014.[3] Hier erhielt keine der getesteten Schutzmaßnahmen in der Kategorie „Wirksamkeit“ auch nur annähernd das Prädikat „hervorragend“, was einem Punktwert von 4
entspricht. Die Schutzmaßnahmen für PCs wurden
im besten Fall mit einer 1,8, die für Smartphones
und Tablets mit 1,5 bewertet. Es ist die Aufgabe
der Anbieter, ihre Produkte im Hinblick auf Wirksamkeit zu optimieren und damit die vorhandene
Skepsis der Eltern zu beseitigen. Daneben spielen
die Aufklärung der Eltern und entsprechend die
Vermittlung der Notwendigkeit von Schutzmaßnahmen eine wesentliche Rolle.
2. Sind optimierte und damit wirksamere Produkte
verfügbar, wird zudem davon ausgegangen, dass
sich die aktuell negativen Einflüsse der Medienkompetenz und des Informationsverhalten der Eltern
auf die Einstellung in positive Einflüsse umwandeln würden. Denn wenn Eltern zufriedenstellende
Bewertungen über Schutzmaßnahmen finden bzw.
Eltern Kenntnis von wirkungsvollen Schutzmaßnahmen haben, wirkt sich dies auch positiv auf ihre Einstellung und damit auf die Nutzung aus. Die aktuell
im Internet auffindbaren negativen Bewertungen im
Hinblick auf Jugendschutzmaßnahmen vermitteln
den Eltern ein entsprechend negatives Bild. Im Ergebnis wirken sich folglich das Informationsverhalten und die Medienkompetenz ebenfalls negativ auf
die Einstellung der Eltern aus. Wenn Hersteller ihre
Schutzmaßnahmen in Bezug auf die Wirksamkeit
optimierten, so kann davon ausgegangen werden,
dass sich in Zukunft auch positive Bewertungen zu
den Schutzmaßnahmen im Internet finden lassen,
die sich dann wiederum positiv auf die Einstellung
der Eltern auswirken würden.
3. Daneben spielt bei der Meinungsbildung im Zusammenhang mit der Wirksamkeit von Schutzmaßnahmen das Markenvertrauen eine starke Rolle. Eltern
setzen im Hinblick auf die Qualität von Schutzmaßnahmen auf Markenprodukte. Es sollten also gerade
die marktführenden Hersteller in diesem Segment
ihren Vertrauensvorsprung nutzen, um ihre Produkte am Markt zu positionieren und entsprechend Vertrauen in die Wirksamkeit zu schaffen.
4. Als weitere positive Determinante der Einstellung
wurde der wahrgenommene Schutzbedarf identifiziert. Eltern, die sich der möglichen negativen
Risiken des Internets bewusst sind, haben eine positivere Einstellung zu den Schutzmaßnahmen als
Eltern, die sich damit nicht auseinandersetzen. Aus
diesem Grund sollten Eltern auf diese möglichen negativen Risiken frühzeitig und effektiv aufmerksam
gemacht werden. Dies kann im Rahmen von Kommunikationsmaßnahmen z. B. in Form von Informationskampagnen über mögliche negative Inhalte
und Gefahren, aber auch zu konkreten Schutzmaßnahmen umgesetzt werden. Hierbei sollte unbedingt eine Marke oder eine staatliche Institution als
Gütesiegel oder aber ein Testimonial zur Schaffung
von Vertrauen eingesetzt werden. Die Informationen können bereits in Kindergärten und Schulen in
Form von Kursen oder Seminaren verbreitet werden.
Auch für weitere Forschungsarbeiten lassen sich anhand der gewonnenen Erkenntnisse Ansätze ableiten:
• Die Intention mit einer Varianzaufklärung von 0,808
liefert zwar ein sehr gutes Ergebnis, allerdings lässt
dieser Wert auch auf andere, noch nicht betrachtete
Einflussgrößen schließen. Daher sollten weitere Studien sich mit diesem Thema beschäftigen und nicht
identifizierte Determinanten ermitteln.
• Auch sollte die wahrgenommene Wirksamkeit in zusätzlichen Studien genauer betrachtet werden. Es
gilt zu klären, welche Aspekte und Produktfeatures
für Eltern die Wahrnehmung der Wirksamkeit prägen, um anschließend auf Optimierungsmaßnahmen für das Produktangebot schließen zu können.
• Zur Verbesserung der Wirksamkeit von Schutzmaßnahmen wird zudem empfohlen, auch die Hersteller
und Anbieter von diesen in zukünftige Studien einzubeziehen. Die Studien sollten darauf abzielen,
Schwierigkeiten und Hemmnisse bei der Entwicklung und Vermarktung von Schutzmaßnahmen seitens der Hersteller und Anbieter zu identifizieren.
Forschung aktuell 2015 |
33
IT & Kommunikation
• Des Weiteren gilt es zu klären, welche Gründe explizit
die negativen Einflüsse des Informationsverhaltens
und der Medienkompetenz der Eltern auf die Einstellung verursachen. Mit den gewonnenen Erkenntnissen kann anschließend z. B. das Informations- und
Produktangebot erweitert und optimiert werden.
Literatur
[1] U. Hasebrink, H.-D. Schröder, G. Schuhmacher,
Kinder- und Jugendmedienschutz: Herausforderungen durch Medienkonvergenz: Ergebnisse einer repräsentativen Elternbefragung, in: Jugendmedienschutz in der digitalen Generation. Fakten
und Positionen aus der Wissenschaft und Praxis,
herausgegeben von T. Bellut, 2012.
[2] S. Dreyer, D. Hajok, U. Hasebrink, Jugendmedienschutz im Elternhaus: Kenntnisse, Erwartungen
und Nutzung: Stand der Forschung, http://www.
hans-bredow-institut.de/webfm_send/639, 2012.
[3] SIP-Bench, Benchmarking of Parental Control Tools
for the Online Protection of Children, http://www.
sipbench.eu, 2014.
Abstract
The internet offers a broad range of possibilities
for children, which can be entertaining, interactive
and educational. However, using the internet also
involves risks and challenges. Today only relatively
few parents use technological assistance to protect
their children from the potential negative influences
of the internet. As part of a research project at the
Karlsruhe University of Applied Sciences the acceptance factors of special protective measures for
children using the internet were analyzed. The findings support recommendations on ways to improve
parental awareness of how children can use the
internet safely.
Zusammenfassung
Das Internet eröffnet Kindern eine große Bandbreite an Möglichkeiten, von Informationen und
Interaktion bis hin zur Unterhaltung. Doch ebenso
birgt es Risiken und Herausforderungen. Bislang
schützen nur wenige Eltern ihre Kinder unter Zuhilfenahme von technischen Mitteln bei der Nutzung
des Internets vor möglichen negativen Auswirkungen. Offensichtlich fehlt ein breites Bewusstsein
um Schutzmaßnahmen in diesem Kontext. Im
vorliegenden Artikel werden diejenigen Determinanten aufgezeigt, die die elterliche Akzeptanz von
Schutzmaßnahmen beeinflussen. Die Forschungsresultate können einen wichtigen Beitrag zum
Schutz von Kindern und Jugendlichen vor möglichen negativen Erfahrungen im Internet leisten.
Autoren
Melina Hillenbrand M.Sc.
Absolventin der Wirtschaftsinformatik der Hochschule Karlsruhe und Angestellte der 1&1 Mail &
Media GmbH, Karlsruhe
Prof. Dr. Stefanie Regier
Professorin für Marketing und Marktforschung an
der Fakultät für Informatik und Wirtschaftsinformatik der Hochschule Karlsruhe
Kontakt
Prof. Dr. Stefanie Regier
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Informatik und Wirtschaftsinformatik
Moltkestraße 30
76133 Karlsruhe
E-Mail: stefanie.regier@hs-karlsruhe.de
34
| Forschung aktuell 2015
Bauwesen
Entwicklung eines Instandhaltungsplans für die Hochbauten der Österreichischen Bundesbahn (ÖBB)
Carolin Bahr, Gerhard Hofer, Markus Seper und Michael Walter
Einführung
Die ÖBB-Infrastruktur AG ist mit knapp 5 000 Hochbauten und einer Grundstücksfläche von ca. 197 Mio.
Quadratmetern Eigentümerin eines der größten Immobilienportfolien in Österreich. Außergewöhnlich ist
nicht nur der Umfang, sondern auch die Heterogenität
des Portfolios. Die Hochbauten umfassen mehr als 50
unterschiedliche Gebäude- und Anlagenarten, angefangen von Betriebs- und Wohngebäuden bis hin zu
Kläranlagen und Müllsammelplätzen.
Instandhaltungsplan
Im Rahmen des Projekts wird ein Instandhaltungsplan
entwickelt, mit dessen Hilfe die Instandhaltungsverantwortlichen der Österreichischen Bundesbahn den
Werterhalt sowie die verkehrs- und betriebssichere
Verfügbarkeit der ÖBB-Hochbauten unter Berücksichtigung der Wirtschaftlichkeit sicherstellen können.
Hierfür ist es notwendig eine strukturierte und dokumentierte Gesamtheit der Aufgaben zu erarbeiten, die
zur Umsetzung der Instandhaltung notwendig sind.
Diese umfassen neben der Festlegung von Inhalt und
Umfang des Instandhaltungsbegriffs u. a. die
• unterschiedlichen Instandhaltungsmaßnahmen
• konkreten Instandhaltungstätigkeiten und deren Beschreibung
• Zuständigkeiten mit den entsprechenden Personalqualifikationen
• Instandhaltungsstrategie
• Zyklen bzw. Intervalle
Bei der Erarbeitung des Hochbau-Instandhaltungsplans wurde darauf geachtet, dass die Inhalte den
spezifischen Anforderungen der ÖBB und deren Anlagen gerecht werden. Darüber hinaus wurde – soweit
möglich – auf bestehende Normen und Richtlinien so-
Abb. 1: links: Personenübergang; rechts oben: Wien, Prater Stern; rechts unten: Hauptbahnhof St. Pölten
Forschung aktuell 2015 |
35
Bauwesen
wie in der Praxis bereits etablierte Daten zurückgegriffen. So erfolgt die grundsätzliche Strukturierung des
Tätigkeitskatalogs auf Basis der Baugliederung nach
der ÖNORM 1801-1 „Bauprojekt- und Objektmanagement Teil 1: Objekterrichtung“ [1] und die Differenzierung der jeweiligen Instandhaltungsmaßnahmen wie
z. B. Wartungs- oder Inspektionsmaßnahmen nach der
ÖNORM EN 13306:2010 „Instandhaltung – Begriffe der
Instandhaltung“ [2] und DIN 31051:2012 „Grundlagen
der Instandhaltung“ [3].
Durch die Clusterung der Anlagen wird eine Optimierung
des Instandhaltungsaufwands erreicht, da sich die Anzahl der zu betrachtenden Bauelemente im Tätigkeitskatalog sowie bei der Zustandsbewertung minimiert.
Für jedes Cluster werden nur die Elemente betrachtet,
die für die jeweils zugeordneten Anlagen relevant sind.
So können z. B. bei der Betrachtung von Überdachungen (s. Abb. 2) technische Anlagen wie beispielsweise
die Wärmeerzeugung unberücksichtigt bleiben, da sie
in diesem Cluster nicht vorhanden sind.
Clusterung
Zur Strukturierung der zahlreichen Hochbauten der
ÖBB-Infrastruktur AG wurden diese in vier Cluster eingeteilt:
• baukonstruktive und technische Anlagen
• vorwiegend baukonstruktive Anlagen (offen)
• vorwiegend baukonstruktive Anlagen (geschlossen)
• vorwiegend technische Anlagen
Instandhaltungsmaßnahmen
Der Instandhaltungsplan beinhaltet die planbaren Erhaltungsmaßnahmen der Wartung, Inspektion und Instandsetzung (vgl. Abb. 3).
Die Beschreibung der Cluster ist in Tabelle 1 dargestellt.
Darüber hinaus können Entstörungsmaßnahmen im
Instandhaltungsplan dokumentiert werden. Dies ermöglicht eine Überprüfung, inwiefern die ursprünglich geplanten Erhaltungsmaßnahmen ausreichend
sind. Fallen verstärkt Entstörungsmaßnahmen an, so
könnten diese ein Hinweis auf mangelnde Wartungsoder Inspektionsmaßnahmen sein.
Cluster
Charakteristik
Beschreibung
Cluster 1
baukonstruktiv und technisch
überdachte und umschlossene Anlagen aus Leicht- und Massivbau, die mit technischen Anlagen ausgestattet sind, z. B. Betriebs- und Wohngebäude sowie Hallen und Schuppen
Cluster 2
vorwiegend baukonstruktiv
(offen)
waagrechte Flächen zum Aufenthalt und zur Begehung oder flach ansteigende Auffahrten
zum Überwinden eines Höhenunterschieds, zum Teil auch leicht umschlossene (z. B. Zäune)
oder gemauerte Nebenanlagen wie z. B. Rampen und Ladeeinrichtungen
Cluster 3
vorwiegend baukonstruktiv
(geschlossen)
frei auf Stützen ruhende oder als Teil eines Gebäudes (ähnlich einem Vordach) als horizontale (zum Teil leicht geneigte) Fläche ausgeführte, nicht umschlossene Überdachung
Cluster 4
vorwiegend technisch
Tiefbauanlagen zur Bewirtschaftung und Versorgung wie z. B. Anlagen und Einrichtungen der
Trink- und Nutzwasserversorgung
Tab. 1: Beschreibung der Cluster
Abb. 2: Beispiel Cluster 3 „Überdachungen“ – Anlagenarten mit den zu betrachtenden Elementen (nach ÖNORM B-1801-1)
36
| Forschung aktuell 2015
Bauwesen
Abb. 3: Grundmaßnahmen der Instandhaltung – Übersicht und Zuordnung zu Erhaltungs- und Investitionsmaßnamen
Art der Überprüfung, Fristen und Funktionsanforderungen
Der Instandhaltungsplan sieht vier Arten der Überprüfung der Hochbauten vor:
• augenscheinliche Sichtkontrolle vor Ort
• periodische, handnahe Sichtkontrolle
• weitergehende Überprüfung
• Übernahme der Letztverantwortung
Es wird jeweils der Umfang der Überprüfungsarten sowie deren Fristen und die dafür erforderlichen Funktionsanforderungen hinsichtlich der mindestens geforderten Ausbildung der verantwortlichen Personen
beschrieben. Darüber hinaus können zusätzliche Kontrollen erforderlich sein, wenn bauliche oder bauphysikalische Veränderungen am Bauwerk vorgenommen
werden. Auch Belastungsänderungen durch Umnutzungen, zusätzliche Lasten im Gebäude oder außergewöhnliche Ereignisse wie beispielsweise Extremwetter
können Schäden am Gebäude hervorrufen und müssen
daher durch zusätzliche Sichtkontrollen berücksichtigt werden. Darüber hinaus sind die Anlagen ca. drei
bis fünf Monate vor Ablauf der Gewährleistungspflicht
durch eine sachkundige Person zu überprüfen.
Tätigkeitskatalog
Ergänzend zum Instandhaltungsplan wurde ein Tätigkeitskatalog erarbeitet, der einen Überblick über die
notwendigen Instandhaltungstätigkeiten in Form eines interaktiven Excel-Tools darstellt. Hierfür können
in der Startregisterkarte zunächst die Grunddaten der
betrachteten Anlage eingegeben und das entsprechende Cluster ausgewählt werden. Durch die Auswahl des
Clusters werden in der Registerkarte die für die Betrachtung notwendigen und nach ÖNORM gegliederten
Bauteile für die Bearbeitung angezeigt. Zu jedem Bauteil gibt es eine Kurzbeschreibung sowie eine Erläuterung der notwendigen Tätigkeit. Diese wird einer der
Maßnahmenarten „Inspektion“, „Wartung“ oder „In-
standsetzung“ zugeordnet und es wird abhängig von
der Instandhaltungsstrategie ein Turnus für jede Tätigkeit vorgeschlagen.
Ausblick
Im nächsten Arbeitspaket wird die Österreichische
Bundesbahn hinsichtlich der Zustandsbewertung ihrer
baulichen und technischen Anlagen wissenschaftlich
von der Hochschule Karlsruhe unterstützt. Hierfür werden zunächst bestehende Methoden und am Markt erhältliche Softwaretools analysiert. Darüber hinaus wird
untersucht, inwiefern diese den spezifischen Anforderungen der ÖBB gerecht werden oder ggf. angepasst
werden müssen. Ein Benchmarking der unterschiedlichen Verfahren sowie eine fundierte Ausarbeitung der
Vor- und Nachteile wird Grundlage bei der Entscheidungsfindung und der Methodenwahl sein.
Quellen
[1] ÖNORM B 1801-1:2009-6: Bauprojekt- und Objektmanagement – Teil 1: Objekterrichtung, Österreichisches Normungsinstitut, Wien, 2009.
[2] ÖNORM EN 13306:2010-10: Instandhaltung – Begriffe der Instandhaltung, Österreichisches Normungsinstitut, Wien, 2010.
[3] DIN 31051:2012-09: Grundlagen der Instandhaltung, Deutsches Institut für Normung, Beuth Verlag, Berlin, 2012.
[4] VDI 6200:2010 Standsicherheit von Bauwerken –
Regelmäßige Überprüfung.
Forschung aktuell 2015 |
37
Bauwesen
Abstract
The Austrian Federal Railways (ÖBB) is the owner
of one of Austria’s largest real estate portfolios.
In addition to the enormous scope of real estates
and facilities, their diversity is also exceptional. In
the context of this project a maintenance plan is
being developed, by which the ÖBB can guarantee
the continued value and reliability of their transport and operational facilities. In this context, the
economic efficiency is also considered.
Zusammenfassung
Die Österreichische Bundesbahn (ÖBB) ist Eigentümerin eines der größten Immobilienportfolios
in Österreich. Neben dem enormen Umfang an
Immobilien ist auch die Vielfalt der Gebäudeund Anlagen außergewöhnlich. Im Rahmen des
Projekts wird ein Instandhaltungsplan entwickelt,
mit dem die ÖBB den Werterhalt sowie die verkehrs- und betriebssichere Verfügbarkeit ihrer
Anlagen sicherstellen kann. Hierbei wird auch die
Wirtschaftlichkeit berücksichtigt.
Autoren
Prof. Dr.-Ing. Carolin Bahr
Professorin an der Fakultät für Architektur und
Bauwesen der Hochschule Karlsruhe
Dipl.-Ing. Gerhard Hofer
Projektleiter Instandhaltungsplan Hochbau NEU,
Streckenmanagement und Anlagenentwicklung bei
der ÖBB-Infrastruktur AG, Innsbruck
Dipl.-Ing. Markus Seper
Fachexperte Hochbau, Integration Technik Center
Anlagen, Streckenmanagement und Anlagenentwicklung bei der ÖBB-Infrastruktur AG, Wien
Dr. techn. Dipl.-Ing. Michael Walter
Leiter Integration Technik Center Anlagen, Streckenmanagement und Anlagenentwicklung bei der
ÖBB-Infrastruktur AG, Wien
Kontakt
Prof. Dr.-Ing. Carolin Bahr
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Architektur und Bauwesen
Moltkestraße 30
76133 Karlsruhe
E-Mail: carolin.bahr@hs-karlsruhe.de
Telefon: 0721 925-2730
38
| Forschung aktuell 2015
'V•CBMMBSFOFOGàS8FMUNFJTUFSTDIBGUFO'PSTDIVOHTVOE-BCPSHFCÊVEF
'MVHIÊGFO&JOLBVGT[FOUSFO%JFCJH(SVQQFCFSÊUQMBOUVOECFUSFJCU
JOUFSOBUJPOBMF(SP•QSPKFLUF.JUGBTU.JUBSCFJUFSO(FTFMMTDIBGUFO
VOE4UBOEPSUFOWFSFJOJHUCJHEJF7PS[àHFFJOFT'BNJMJFOCFUSJFCTNJU
EFOFOFJOFTJOUFSOBUJPOBMPQFSJFSFOEFO6OUFSOFINFOT
7FSTUÊSLFO4JFFJOFEFSHSڕUFO*OHFOJFVSHFTFMMTDIBGUFO%FVUTDIMBOET
8JSTVDIFOEFVUTDIMBOEXFJU
*OHFOJFVSFNX
EFS'BDISJDIUVOHFO
&MFLUSPUFDIOJL/BDISJDIUFOUFDIOJL7FSTPSHVOHTUFDIOJL&OFSHJFUFDIOJL
+FU[UCFXFSCFO
CJH(SVQQF,BUIBSJOB0UUJOHFS&ISNBOOTUSB•F,BSMTSVIF
PEFSLBSSJFSF!CJHHSVQQFDPN
Bauwesen
Nachhaltige Bauplanung mittelständischer Unternehmen
Hermann Hütter
Einleitung
Systematische Nachhaltigkeitsbetrachtungen sollten zur Standardvorgehensweise in der Bauplanung
gehören. Planungen, die ganzheitliche optimierte Investitions- und Folgekosten (Lebenszykluskostenansatz) sowie minimierte ökologische Auswirkungen der
vorgesehenen Bauobjekte (Ökologie) sowie optimierte sozioökonomische Wirkungen aufweisen, sollten
selbstverständlich sein. Gerade vor dem Hintergrund
der aktuell geführten politischen Diskussionen zum
Weltklima wäre dies ein wichtiger Mosaikstein in der
globalen Betrachtung. Zertifizierungssysteme für Gebäude (beispielsweise die Deutsche Gesellschaft für
Nachhaltiges Bauen – DGNB, das Bewertungssystem
Nachhaltiges Bauen – BNB, die Leadership in Energy
and Environmental Design – LEED oder die Building
Research Establishment Environmental Assessment
Method – BREEAM) stellen – jedes System auf seine
Weise – eine Vergleichbarkeit der jeweils betrachteten Kriterien im Gegensatz zu klassifizierten Referenzobjekten her. Damit geht einher, dass ein gewisser
Standard hergestellt und dokumentiert wird, der sich
auf die Vermarktung der Gebäude (Vermietung, Kauf,
Verkauf) positiv auswirken soll. Planungen großer Gebäude werden mehr und mehr an Vorgaben hinsichtlich der zu erreichenden Zertifizierungseinstufungen
ausgerichtet. Damit besteht dort eine definierte Anforderung an Planung, Realisierung und Betrieb. Bei mittelständischen Unternehmen fehlen diese Vorgaben
weitgehend. Im Forschungsprojekt „Anwenderzentrum“, das vom Bundesministerium für Bildung und
Forschung (BMBF) gefördert wird, wurden für typische
Projekte mittelständischer Planungs- und Bauträgerunternehmen Nachhaltigkeitsbetrachtungen durchgeführt. Über eine Erhebung und Modifikation der
Planungsprozesse sollen die Nachhaltigkeitsbetrachtungen systematisch und nutzbringend eingebunden
werden. Im Vordergrund stehen dabei die beiden Teilaspekte der Nachhaltigkeit, die Ökonomie (Life Cycle
Costing – LCC, Lebenszykluskosten – LZK) und die
Ökologie (Life Cycle Assessment – LCA). Grundlagen
für die Berechnungen der Lebenszykluskosten sind
dabei Kostenstrukturen der Investitionskosten nach
DIN 276 sowie der Baufolgekosten nach DIN 18960.
Die Betrachtungen zu den ökologischen Wirkungen
beruhen auf den Angaben in Datenbanken.[1] Schwerpunkt der Betrachtungen liegt auf dem Hochbau; berücksichtigt wurden unter anderem Wohnen, Büro und
Verwaltung als Neubau und im Bauen im Bestand. Im
Folgenden wird ein kurzer Überblick über ausgewählte
Ergebnisse und den möglichen Nutzen für mittelständische Planungs- und Bauträgerunternehmen gegeben sowie eine Erweiterung dieser Betrachtungen in
Richtung Nachhaltigkeitsmanagement angeregt.
Abb. 1: Nachhaltigkeitsbericht: Stammdaten (Ausschnitt)
Werkzeuge
Der Auswahl eines Softwaresystems zur Berechnung
der Lebenszykluskosten und der ökologischen Wirkungen eines Bauprojekts ist eine intensive Marktrecherche vorangegangen. Es gibt wenige Tools, die
sich dieser umfassenden Aufgabe eingehend widmen.
Als leistungsstarkes Werkzeug, das beide Berechnungen in sich vereint, ist die Auswahl schließlich auf
die LEGEP®-Software gefallen. Überlegungen, eigene
Berechnungsprogramme im Rahmen des Forschungsprojekts zu entwickeln, wurden vor dem Hintergrund
der Komplexität dieser Aufgabenstellung und der Ziele
des Forschungsprojekts nicht weiter verfolgt.
Projekte
Eine größere Zahl an Projekten wurde umfangreichen
Berechnungen und Optimierungen unterzogen. In allen Fällen konnte nachgewiesen werden, dass die sys-
Forschung aktuell 2015 |
39
Bauwesen
tematisch und vollständig durchgeführten Berechnungen im Ergebnis zu kostengünstigeren und ökologisch
besseren Gebäuden führen. Bauteilaufbauten sowie
ausgewählte Materialien sind dabei zwei wesentliche
Stellschrauben zur Verbesserung. Meist können in der
optimierten Auswahl von Bauteilen (bspw. Fassaden,
Böden, Wände, Dächer) konkrete Verbesserungen
erzielt werden, die sich nicht nur ökologisch positiv
auswirken, sondern auch eine Reduzierung der Lebenszykluskosten zur Folge haben. In jedem Fall findet
eine intensive Auseinandersetzung mit langfristigen
Vorteilen und eine intensive Suche nach möglichen
Optimierungen statt. Damit sollten Nachteile wie der
in frühen Leistungsphasen entstehende Mehraufwand
durch Vorteile und Zusatznutzen kompensierbar sein.
Die Sicherheit der Softwareanwendung und die Stabilität der erzielten Ergebnisse sollten bei einer breiteren Anwendung noch verbessert werden, sodass
zukünftig auch eine größere Anwenderzahl gute Ergebnisse erzielen kann.
Ausschnitte aus dem im Forschungsprojekt entwickelten Nachhaltigkeitsbericht zeigen die Abbildungen für ein Wohngebäude. Die Berechnungen wurden
weitgehend mit der LEGEP-Software durchgeführt. In
Abbildung 1 sind die Stammdaten dargestellt. Neben
den Kenndaten des Gebäudes können auch Informationen zur Anzahl der jeweils verwendeten Elemente
in der Software LEGEP entnommen werden. Abbildung
2 gibt einen Auszug aus den ökologischen Betrachtungen der LEGEP-Software wieder. So sind die Materialanteile und deren Klassifizierung ausgewiesen,
ökologische Wirkbilanzen (beispielhaft: Treibhauspotenzial und Ozonabbaupotenzial) dargestellt sowie
die Energiebedarfe benannt. Abbildung 4 zeigt zum einen in der einzelnen Säule die Aufteilung der Investitions- und der Folgekosten auf Kostengruppen der DIN
276 bzw. der DIN 18960, zum anderen im Sinne des
Nachhaltigkeitsmanagements den Vergleich mehrerer
Berechnungen (bspw. für die Planungsstände A, B und
C), die den Verlauf der Optimierungen transparent darstellen und dokumentieren.
Prozesse
Die Modellierung von Planungsprozessen wurde ergänzt um die notwendigen Prozessschritte für die
Nachhaltigkeitsberechnungen. Einen Ausschnitt aus
dem Modell der Leistungsphase „Entwurfsplanung“
zeigt Abbildung 3. Insgesamt ist aus den Modellen
zu erkennen, dass in den frühen Leistungsphasen
umfassender gearbeitet werden muss, beispielsweise muss das Gebäudemodell aufgebaut und fortgeschrieben werden. In den Folgephasen reduziert
sich der Aufwand jedoch deutlich, da jeweils auf die
40
| Forschung aktuell 2015
Ökologie, Materialanteile
Mineralisches
Baumaterial
15.094.599
Andere
Materialanteil in kg für Neubau und Instandsetzung
Ökologie, Wirkbilanzen
Betrachtungszeitraum 80 Jahre
Treibhauspotenzial
kg CO2-Äq
Ozonschichtabbaupotenzial kg CFC11-Äq
Ökologie, Energie- und Stofffluss
Betrachtungszeitraum 80 Jahre
Primärenergie erneuerbar
in MJ ohne Entsorgung
Primärenergie nicht
erneuerbar in MJ ohne
Entsorgung
Abb. 2: Nachhaltigkeitsbericht – Ökologie (Ausschnitt)
vorhandenen Datenstrukturen für weitere Leistungen
aufgebaut werden kann.
Bauwesen
Altern.
Lösungs-ansätze
nach unterschiedl.
Anforderungen
untersuchen?
LCC-Betrachtung?
Standardzyklen wählen?
Abb. 3: Prozessmodell (Ausschnitt)
Nutzen
Mittelständische Unternehmen können durch eine
frühzeitige Integration der Betrachtungen in den transparenten und systematisch gesteuerten Prozessablauf
erheblichen Nutzen generieren, der an mehreren Stellen noch gesteigert werden kann. Dies sind neben einer verbesserten Effizienz im Planungsprozess selbst
insbesondere die Berechnung der Lebenszykluskosten und ökologischen Wirkungen sowie vollständige
und belastbare Kostenermittlungen, konsistente Massen auch in der energetischen Betrachtung, Energieausweis, LV-Vorschlag inklusive Bepreisung etc.
Nachhaltigkeitsmanagement
Der Managementansatz wird in Anlehnung an Deming
formuliert, der den sog. PDCA-Zyklus beschrieben
und etabliert hat. Dieser sieht vor, dass mit den Elementen „Planung“, „Durchführung“, „Kontrolle“ und
„Steuerung“ die vier wesentlichen Bausteine einer
zielorientierten Vorgehensweise gegeben sind. So ist
es möglich, die im Rahmen der Planung definierten
Ziele bis zum Projektende auch einhalten zu können.
Dieser Ansatz wird auf die Nachhaltigkeitsbetrachtungen im Bauplanungsprozess angewendet. Die
Bauplanung selbst ist gegliedert in fünf Projektstufen
(AHO – Ausschuss der Verbände und Kammern der
Ingenieure und Architekten für die Honorarordnung
e.V.) bzw. neun Leistungsphasen (HOAI – Honorarordnung für Architekten und Ingenieure), je nachdem,
aus welcher Sicht die Betrachtungen erfolgen sol-
len. Nachhaltigkeitsziele werden zu Beginn des Planungsprozesses über eine erste Bewertung der Projektidee definiert, was über eine grobe Modellierung
des vorgesehenen Gebäudes bzw. der Varianten und
Alternativen erfolgen kann. Ergänzend hierzu geben
die Gebäudezertifikate DGNB bzw. BNB – bezogen
auf Referenzgebäude – zu verschiedenen Kriterien
Maximalwerte vor, die es im Rahmen der objektbezogenen Planung und Optimierung zu unterschreiten
gilt. Für den Einstieg in ein umfassendes Nachhaltigkeitsmanagement sind die zu erreichenden Ziele also
definierbar. Im Rahmen der Projektstufen „Planung“,
die die Leistungsphasen „Vorplanung“, „Entwurfsplanung“ und „Genehmigungsplanung“ umfasst, sowie
„Ausführungsvorbereitung“, die die Leistungsphasen
„Ausführungsplanung“, „Vorbereiten der Vergabe“
und „Mitwirken bei der Vergabe“ umfasst, unterzieht
das Nachhaltigkeitsmanagement die erzielten Zwischenergebnisse jeweils einer umfassenden Bewertung, wobei die einmal aufgebaute Gebäudemodellierung weiterverwendet und an den Planungsfortschritt
angepasst wird. Die Ergebnisse werden im erweiterten Nachhaltigkeitsbericht dargestellt (s. Abb. 4) und
mit den Projektzielen verglichen, Optimierungspotenziale werden aufgezeigt und als Empfehlung bzw.
Vorgaben in die jeweils nächste Phase aufgenommen. Unterstützt wird dieses Vorgehen durch den im
Forschungsprojekt „Anwenderzentrum“ entwickelten
Nachhaltigkeitsbericht, der die nötige Transparenz
hierfür bereitstellt.
Forschung aktuell 2015 |
41
Bauwesen
luskosten und ökologische Wirkungen systematisch und
umfassend optimiert werden. Auch für die spätere Nutzung sind damit wichtige Grundlagen gelegt, da die zu erwartenden Bewirtschaftungskosten in den dargestellten
Bereichen bereits während der Planung bekannt sind.
Literatur
[1] Ökobaudat, WECOBIS, www.nachhaltigesbauen.de
Abstract
Medium sized enterprises such as planning offices, project developers and construction companies, that design and construct buildings, can take
advantage of the systematic consideration of sustainability aspects during the designing phases.
The sustainability report has been developed for
this purpose. For each work stage the important
aspects of Life Cycle Costing (LCC) and Life Cycle
Assessment (LCA) are transparently documented.
This report can also be extended to a sustainability
management system, to thoroughly optimize the
planning and construction of a building.
*DIN 276:2008
KG 330-340*
Reinigung
*DIN 18960:2008
Abb. 4: Erweiterung Nachhaltigkeitsbericht: Nachhaltigkeitsmanagement
Fazit und Ausblick
Mittelständische Unternehmen bewegen sich oft in einem fokussierten engen Marktsegment, haben spezielle Produkte und sind damit erfolgreich. Deshalb tun sie
sich oft schwer damit, weitergehende Betrachtungen
anzustellen, da der Aufwand hoch und der Nutzen gering eingeschätzt wird. Im Rahmen des Forschungsprojekts „Anwenderzentrum“ konnte gezeigt werden, dass
– trotz der vorhandenen Einstiegshürde – mit umfassenden Berechnungen der Lebenszykluskosten und der
ökologischen Wirkungen aufgelegter Planungen deutliche Optimierungen möglich sind. Dem späteren Nutzer
bringt dies erhebliche monetäre Vorteile und der Umwelt
geringere ökologische Auswirkungen. Wird die Methodik
darüber hinaus so erweitert, dass Nachhaltigkeitsmanagement betrieben wird, kann nicht nur intern, sondern
auch gegenüber den Kunden aufgezeigt werden, dass die
erarbeiteten Planungen auch im Hinblick auf Lebenszyk-
42
| Forschung aktuell 2015
Zusammenfassung
Mittelständische Bau- und Planungsunternehmen
können systematische Nachhaltigkeitsbetrachtungen (LZK und LCA) für die selbst entwickelten und
geplanten Bauprojekte einsetzen. Hierzu sind neben Methoden der Berechnung auch Hilfestellungen in Form eines Nachhaltigkeitsberichts erarbeitet worden, der eine transparente Darstellung der
Ergebnisse unterstützt. Wird die Vorgehensweise
so erweitert, dass Nachhaltigkeitsmanagement
betrieben wird, ist eine systematische und transparente Optimierung zum Nutzen der Kunden und
der Unternehmen möglich.
Autor
Prof. Dr.-Ing. Hermann Hütter
Professor für Baumanagement an der Fakultät für
Architektur und Bauwesen der Hochschule Karlsruhe
Kontakt
Prof. Dr.-Ing. Hermann Hütter
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Architektur und Bauwesen
Moltkestraße 30
76133 Karlsruhe
E-Mail: hermann.huetter@hs-karlsruhe.de
Telefon: 0721 925-2718
Bauwesen
TEAMS
WORK.
Weil Erfolg nur im Miteinander entstehen kann. Für jede Aufgabe die
beste Lösung finden: dieses Credo ließ die Ed. Züblin AG zur Nummer 1 im
deutschen Hoch- und Ingenieurbau aufsteigen. Möglich wird dies durch das
Know-how und das Engagement unserer rund 14.000 Mitarbeiterinnen und
Mitarbeiter, die als ein Team komplexe Bauvorhaben termin- und qualitätsgerecht realisieren. Ergreifen Sie die Initiative und steigen Sie bei uns ein: über
unser Traineeprogramm, eine Ausbildung, ein Duales Studium, ein Praktikum
oder direkt im gewünschten Job. Werden Sie ein Teil unseres Teams.
Wenn wir gemeinsam an einem Strang ziehen, dann sind die Möglichkeiten
grenzenlos – auch hinsichtlich Ihres persönlichen Karriereweges.
www.zueblin.de
Ed. Züblin AG, Human Resource Development
Albstadtweg 3, 70567 Stuttgart
Regionaler Standort: Direktion Karlsruhe
Forschung aktuell 2015 |
43
Bauwesen
Dauerhaftigkeit von Betonen mit rezyklierter
Gesteinskörnung
Sandra Lichtblau, Stefan Linsel und Fernando Martirena
Wenn hohe Nachhaltigkeitseffekte erzielt werden sollen, ist der Einsatz erneuerbarer Ressourcen unumgänglich. Circa 80 % des Gewichts von Beton sind Zuschläge
resp. Gesteinskörnungen, die zu den Betonstoffkosten
weniger beitragen. Die Gewinnung geeigneter Gesteinskörnungen zur Einführung in den Beton ist eine Herausforderung der Zukunft, da weltweit der Bedarf an
Betonstrukturen im öffentlichen und privaten Baubereich weiterhin deutlich zunimmt. Allerdings ist die
Gewinnung von Gesteinskörnungen aus Steinbrüchen
grundsätzlich begrenzt. Das Centro de Investigación y
Desarrollo de las Estructuras y los Materiales (CIDEM) an
der Universidad Central de las Villas (Cuba), der Studiengang Bauingenieurwesen der Fakultät für Architektur
und Bauwesen und die Öffentliche Baustoffprüfstelle der
Hochschule Karlsruhe – Technik und Wirtschaft erarbeiten daher Möglichkeiten, Recyclingbeton für die Produktion von Gesteinskörnung zu verwenden und möglichst
auszuschöpfen. Zielsetzung ist u. a. Betone mit Zuführung von rezyklierten Gesteinskörnungen zu entwickeln,
die wie übliche Normalbetone zielsicher für Beton- und
Stahlbetonkonstruktionen eingesetzt werden können.
Im Folgenden sollen hier einige Teilergebnisse einer
Studie aufgezeigt werden, die durch studentische Mitwirkung im Forschungsteam auf Cuba realisiert wurden.
Der Einfluss des Feinanteils rezyklierter Gesteinskörnung auf die Betoneigenschaften wurde bereits zuvor
in umfangreichen Forschungsarbeiten ermittelt. Während der Aufbereitung des zu betrachtenden rezyklierten Materials wird 5 bis 7 % des Gewichts als feines Material gebildet. Damit verändert sich der Wasserbedarf
und das sich ausbildende Porengefüge des Betons, was
maßgeblich die Druckfestigkeiten und Dauerhaftigkeiten damit hergestellter Betonstrukturen beeinflusst.
Eine Möglichkeit besteht darin das rezyklierte Material
vorab zu waschen, um die Feinanteile zu reduzieren,
wenngleich bei diesem Vorgang meist zu entsorgender Schlamm anfällt. In Nebenarbeiten werden derzeit
Möglichkeiten der betontechnologischen Wiederverwendung des anfallenden Schlamms erarbeitet. Das
rezyklierte Material besitzt im Kontaktzonenbereich
zahlreiche porige Partikel, die die Gesamtporosität
erhöhen. Mechanische Eigenschaften sowie die Dauerhaftigkeit werden dadurch direkt beeinflusst. In Abbildung 1 ist beispielhaft eine elektronenrastermikroskopische Aufnahme dargestellt.
44
| Forschung aktuell 2015
Abb. 1: mikroskopische Aufnahme rezykliertem Materials
Im Rahmen des laufenden Forschungsprojekts wurden in einem Teilabschnitt Einflüsse der rezyklierten
Gesteinskörnung auf die Dauerhaftigkeit damit hergestellter Betone untersucht. Primär sind dabei Carbonatisierungs- und Chlorideindringvorgänge sowie Formänderungsvorgänge wichtig. Praxisverwertbare und damit
belastbare Versuchsvorgänge hierfür benötigen längere Zeiten und finden momentan noch in den Laboratorien auf Cuba und an der Öffentlichen Baustoffprüfstelle
der Hochschule Karlsruhe statt. Im Vorfeld des Projekts
wurden Trocknungsschwindvorgänge, die auch zu Mikrorissbildungen führen, betrachtet, da diese in eine
Bewertung und in ein Bemessungskonzept zur Dauerhaftigkeit einfließen müssen. Trocknungsschwindvorgänge werden maßgebend durch Änderungen der Temperatur und der relativen Luftfeuchte beeinflusst, wobei
zwischen inneren und äußeren Einflussfaktoren unterschieden wird. Erstere werden u. a. durch Zementart
und -gehalt, Wasser-Zement-Wert sowie Eigenschaften
und Zusammensetzung der Gesteinskörnung gebildet.
Äußere Einflussfaktoren wiederum sind insbesondere
Umgebungsbedingungen wie Lufttemperatur, relative
Feuchte und Bauteilabmessungen.
Hier sollen erste Ergebnisse – ermittelt an drei differierenden Betonen in den Laboratorien der Partner auf
Cuba – dargestellt werden, die sich nur in Art und Proportion natürlicher zu rezyklierter Gesteinskörnung unterscheiden. Damit soll hier ein Vergleich der Einflüsse
rezyklierter Gesteinskörnungen erarbeitet werden, um
u. a. die Übertragbarkeit von Dauerhaftigkeitsprogno-
Bauwesen
tische Sicherstellung üblicher Druckfestigkeitswerte für
den Hoch- und Ingenieurbau erlauben (s. Abb. 3). Dabei
unterscheiden sich die dargestellten Betonzusammensetzungen wie folgt:
• M2 = Beton mit 50 % rezyklierter Gesteinskörnung
• M3 = Beton mit 100 % rezyklierter Gesteinskörnung
Druckfestigkeiten in N/mm2
semodellen, die für Normalbetone entwickelt wurden,
auf Betone mit rezyklierter Gesteinskörnung zu prüfen.
Die Betonzusammensetzungen wurden zur Erzielung
optimierter Packungsdichten unter Hinzunahme von
theoretischen und rheologischen Modellen, die sich in
der Praxis bewährt haben, festgelegt. Es wurden zylindrische Probekörper (Durchmesser = 100 mm und Länge
= 200 mm) für die Bestimmung der Druckfestigkeiten
und Absorptionskennwerte hergestellt. Prismen der
Abmessungen Länge x Breite x Höhe = 75 mm x 75 mm
x 280 mm wurden für die Bestimmung des Schwindverhaltens angefertigt (vgl. Abb. 2). Die Probekörper wurden zwei Umgebungsbedingungen ausgesetzt:
(a) heiß-feucht: Temperatur 60 °C und rel. Feuchtigkeit
90 %
(b) kühl-trocken: Temperatur 23 °C und rel. Feuchtigkeit 50 %
35
30
25
20
15
10
5
0
7 Tage
M3
M2
28 Tage
Abb. 3: Druckfestigkeit geprüfter Betone in einem Betonalter
von 7 und 28 Tagen
In Abbildung 4 sind Messergebnisse des Dehnverhaltens der Betonprismen dargestellt, die feucht-trockenen Zyklen unterworfen wurden, womit das Schwinden
durch Trocknen (Trocknungsschwinden) simuliert wird.
Neben den Betonen M2 und M3 ist ein weiterer Beton
M1 als Normalbeton, d. h. mit üblicher Gesteinskörnung, dargestellt. Die Ordinatenachse stellt die Verformungseigenschaften dar, die der Beton durch einen
definierten Feucht-Trocken-Zyklus erhalten hat. Der Beton mit 100 % rezyklierter Gesteinskörnung weist u. a.
aufgrund der eingetragenen erhöhten Porositäten die
größten Verformungen auf. In aktuellen, auch digitalmikroskopischen Untersuchungen werden derzeit qualitative Materialkennwerte erarbeitet.
Die Ergebnisse stimmen sehr gut mit denen der Druckfestigkeitsmessungen überein. Je höher der Gehalt
an rezykliertem Material ist, desto höher ist auch das
Schwinden durch Trocknen (Trocknungsschwinden)
-0,08
-0,07
-0,06
-0,05
Abb. 2: Probekörper für Schwindmessungen
-0,04
-0,03
Deformation (%)
Die Druckfestigkeiten werden durch die Zugabe von rezyklierter Gesteinskörnung beeinflusst. Diese können
sogar, in Abhängigkeit von der Art der verwendeten
rezyklierten Gesteinskörnung, bei einem Einsatz von
100 % Recyclingmaterial bis zur Hälfte reduziert werden.
Umfangreiche Untersuchungen im Forschungsvorhaben
zeigen auf, dass bei geschickter Festlegung der gesamten Betonbestandteile bei einer Verwendung von 50 %
Gesteinskörnung als Recyclingmaterial Betonfestigkeiten eingestellt werden können, die auch eine bauprak-
-0,02
-0,01
0
0,01
0,02
28
30
Zeit (Tagen)
32
34
36
38
M1
40
42
M2
44
M3
Abb. 4: Schwindverhalten einzelner Probenserien bei definiertem Klimaszenario
Forschung aktuell 2015 |
45
Bauwesen
sowie die Porosität des Materials. Die Schwindmaße
der Betone, die aus 100 % rezykliertem Material hergestellt wurden, sind im vorliegenden Betrachtungsfall größer als jene eines üblichen Normalbetons.
Mit einem speziell entwickelten Granulationsverfahren
kann Recyclingmaterial veredelt werden, indem eine
dünne Zementleimschicht die Oberflächen nicht nur homogenisiert, sondern auch dichtet. In Abbildung 5 sind
umhüllte Recyclingmaterialkörner und deren – auch
augenscheinlich – homogene Strukturen zu erkennen.
Erste Tastversuchsergebnisse auch zum Trocknungsschwindverhalten mit diesem Verfahren hergestellter
Betone zeigen – auch unter Einbezug des Schwingverhaltens – deutlich größere Vergleichbarkeiten bei den
Materialkennwerte zwischen Beton mit rezyklierter Gesteinskörnung und üblicher Gesteinskörnung.
Mit den im Weiteren zu definierenden und erarbeitenden
Materialkennwerten sollen für die planerische Praxis
ausreichend sichere Daten zur Verfügung gestellt werden, damit Bauwerksdaten für die Trag- und Gebrauchs-
Abstract
Ensuring the durability of a building is a major contribution to efficient construction both economically and in terms of conservation of resources. This
is especially applicable to engineering projects
where concrete structures are subjected to unusual
loads. These days research projects focus on the
development of appropriate prediction models in
order to define the best concrete mixtures that ensure sufficient durability. Using recycled aggregate
has a very positive influence on the ecology of a
building. With regard to the latest state of technology, there are several outstanding issues to be
resolved in order to also provide reliable data concerning durability when using recycled aggregate.
Zusammenfassung
Die Sicherstellung dauerhafter Bauwerke ist ein
wichtiger Beitrag für kapital- und ressourcenschonendes Bauen. Dies gilt insbesondere im Bereich
des Ingenieurbaus, wo Betonbauwerke besonderer
Belastung ausgesetzt sind. Die Entwicklung geeigneter Vorhersagemodelle zur Festlegung optimaler
Betonzusammensetzungen für die Sicherstellung
genügender Dauerhaftigkeiten ist Bestandteil zahlreicher heutiger Forschungsvorhaben im Bauwesen.
Mit dem Einsatz rezyklierter Gesteinskörnung kann
46
| Forschung aktuell 2015
Abb. 5: durch Umhüllungsprozesse veredelte rezyklierte Gesteinskörnung
fähigkeitsnachweise sowie für die Dauerhaftigkeitsbemessung auch mit abweichenden Zugabemengen an
Recyclingmaterial positioniert werden können. Bzgl.
der Dauerhaftigkeit werden derzeit die oben erwähnten
Chlorideindring- und Carbonatisierungsversuche durchgeführt, deren Ergebnisse in Kürze vorliegen werden.
vor allem die Ökologie der Bauwerke besonders
positiv beeinflusst werden. Hierzu sind jedoch nach
aktuellem Stand der Technik mehrere offene Fragenstellungen zu bearbeiten, wenn mit dem Einsatz
rezyklierter Gesteinskörnung ebenso zielsicher
Dauerhaftigkeitsaspekte angegeben werden sollen.
Autoren
Sandra Lichtblau M.Eng.
Studentische Hilfskraft an der Öffentlichen Baustoffprüfstelle der Hochschule Karlsruhe
Prof. Dr. Stefan Linsel
Professor an der Fakultät für Architektur und Bauwesen der Hochschule Karlsruhe
Prof. Dr. Sc. Ing. Fernando Martirena
Direktor des Centro de Investigación y Desarrollo
de las Estructuras y los Materiales (CIDEM) an der
Facultad de Construcciones der Universidad Central de las Villas (Cuba)
Kontakt
Prof. Dr. Stefan Linsel
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Architektur und Bauwesen
Moltkestraße 30
76133 Karlsruhe
E-Mail: stefan.linsel@hs-karlsruhe.de
ThyssenKrupp Headquarter Essen, DGNB-Zertifikat Gold
Bauwesen
GANZHEITLICHE
LÖSUNGEN FÜR
IHREN ERFOLG
––––––
Energetisch optimiert und wirtschaftlich
effizient: Nachhaltige Immobilien entstehen
aus ganzheitlichen Lösungen für Energiekonzepte, aus dem optimalen Zusammenspiel
von Gebäudehülle, Technikkonzept und erneuerbaren Energien. Schont die Ressourcen,
erhöht die Nutzerqualität, bietet Sicherheit
für Ihre Investition. Über den gesamten
Lebenszyklus hinweg. Mit Brief und Siegel
und mit Bilfinger.
––––––
BILFINGER HOCHBAU
www.hochbau.bilfinger.com
Heberger System-Bau GmbH
Altreutweg 15
68809 Neulußheim
Telefon 0 62 05/3 99-0
Telefax 0 62 05/3 99-2 00
Kompetenz am Bau:
- System- und Industriebau
- Betonfertigteile
- Lärmschutzsysteme
- Parkhausbau
hebau.system-bau@heberger.de
www.heberger.de
Forschung aktuell 2015 |
47
Umweltschutztechnik
Energieeffiziente Stadtentwicklungsplanung für
die Altstadt Biberachs im Spannungsfeld von
CO2-Reduktion und Denkmalschutz
Robert Blaszczyk und Christoph Hupfer
Einleitung
Die Reduktion der CO2-Emissionen hat sich im umweltpolitischen Handeln zur größten Herausforderung
unserer Zeit entwickelt. Es ist unbestritten, dass der
Ausstoß von Treibhausgasen Einfluss auf die Erderwärmung und den damit einhergehenden Klimawandel hat.
Mit passiven Maßnahmen, beispielsweise dem Aufbringen einer Wärmedämmung auf die Außenwände eines
Hauses, lassen sich CO2-Emissionen reduzieren. Aber
auch aktive Maßnahmen wie eine CO2-neutrale Energiegewinnung tragen zur Reduktion des Ausstoßes von
Treibhausgasen bei. In denkmalgeschütztem Bestand
greifen diese Ansätze jedoch nicht. Daher stellt sich die
Frage: Gibt es andere Wege und Möglichkeiten, um in
historischen Altstädten CO2-Emissionnen zu reduzieren, und welchen Beitrag kann die Mobilitätsforschung
hierzu leisten?
Im interdisziplinären Forschungsprojekt „eCO2centric“
wurde am Beispiel der Altstadt von Biberach untersucht, welche Veränderungsbedarfe und Handlungsoptionen einer ökologisch nachhaltigen Stadtentwicklung
sinnvoll und realisierbar sind. Von wissenschaftlicher
Seite waren die Fachbereiche Energie, Klima, Denkmalschutz sowie Stadt- und Verkehrsplanung beteiligt. Zu-
Modal Split (Wege)
(Haushaltsbefragungen
Stadt Biberach)
40
23
11
Modal Split –
Verkehrsleistung
pro Person
verkehrsmittelabhängige
CO2-Faktoren
(feste Größe)
CO2-Emissionen
pro Person
nach Stadtteilen
w
Pk
..
Bu
s
20
durchschnittliche
Weglänge nach
Verkehrsmitteln
Untersuchungsgebiet
Die Stadt Biberach ist ein Mittelzentrum mit ca. 31 000
Einwohnern und teilt sich – neben der Kernstadt – in
weitere vier Stadtteile auf. Die Altstadt bildet das Zentrum von Biberach und 1 886 Bewohner haben dort ihren
Wohnsitz. Neben der Wohnnutzung ist die Altstadt das
Ziel zahlreicher Aktivitäten. Sie bietet attraktive Aufenthalts- und Einkaufsmöglichkeiten, aber auch vielfache
Gastronomie- und Dienstleistungsangebote haben dort
ihren Sitz. Biberach ist eine ehemalige Reichsstadt und
geht auf das 11. Jahrhundert zurück. Das Stadtbild wird
von mittelalterlicher Architektur geprägt. Der Verlauf
der ehemaligen Stadtmauer ist auch heute noch als kla-
Pk
Fu
ß
Ra
d
3
Wege pro Person
sätzlich waren die Stadt Biberach und die Stadtwerke
als Industriepartner vertreten. Eine besondere Herausforderung bestand darin, die komplexe Gemengelage
an unterschiedlichen Interessen, Informationen und
Daten so zu analysieren und aufzubereiten, dass sie
eine belastbare Entscheidungsgrundlage für die Haftungsträger darstellt. Die Projektabwicklung wurde in
drei Meilensteinen zusammengefasst und beinhaltete
die Bestandsaufnahme im Ist-Zustand, das Abgrenzen
von Potenzialen sowie die Entwicklung von Maßnahmen und deren Bündelung zu Szenarien.
Modal Split (Wege)
(Haushaltsbefragungen
Stadt Biberach)
40
23
11
(MiD 2008 nach
Verkehrsmitteln,
Kreistyp/Stadtgröße)
Modal Split –
Verkehrsleistung
pro Person
verkehrsmittelabhängige
CO2-Faktoren
(feste Größe)
Modal Split –
Verkehrsaufkommen
nach Altersgruppen
und Kreistyp
Einteilung Stadt
Biberach in Kreistypen
durchschnittliche
Weglänge
(MiD 2008 nach
Verkehrsmitteln,
Altersgruppen und
Kreistyp)
Modal Split –
Verkehrsaufkommen
nach Verkehrsmitteln,
Altersgruppen und
Kreistyp
verkehrsmittelabhängige
CO2-Faktoren
(feste Größe)
Abb. 1: Darstellung der unterschiedlichen Vorgehensweisen zur Bilanzierung der CO2-Emissionen
48
CO2-Emissionen
pro Person
nach Stadtteilen
w
Pk
..
Bu
s
20
(Haushaltsbefragungen
Stadt Biberach)
durchschnittliche
Weglänge
Pk
Fu
ß
Ra
d
3
Wege pro Person
| Forschung aktuell 2015
CO2-Emissionen
pro Altersgruppen
und Kreistyp
Umweltschutztechnik
re Grenze der Altstadt erkennbar. Ihr Verlauf entspricht
zu einem großen Teil dem heutigen Straßenring, der
die Altstadt umkreist. Jedoch weist dieser eine starke
Trennwirkung zwischen der Altstadt und dem Rest der
Stadt auf.
CO2-Emissionen im Ist-Zustand
Für die Ermittlung der CO2-Emissionen im Quellverkehr wurde ein System aufgebaut, das eine datenbestandsabhängige Bilanzierung der Emissionen sichert.
Durch die Möglichkeit, Eingangselemente individuell
auszutauschen, können sowohl lokale Befragungswerte als auch Durchschnittswerte aus deutschlandweiten
Erhebungen für die Ermittlung der Emissionsmenge angewendet und/oder kombiniert werden. Mit zunehmender Genauigkeit der Eingangsgrößen steigt auch die
Genauigkeit der bilanzierten Emissionen. Die für eine
CO2-Bilanzierung erforderlichen Mobilitätskenngrößen
wurden vor allem aus den im Jahr 2002 in Biberach
durchgeführten Haushaltsbefragungen abgeleitet. Lediglich bei der Kenngröße zur durchschnittlichen Weglänge wurde auf Werte des MiD2008 zurückgegriffen.[1]
Neben den Quellverkehren wurden auch Altstadt-Zielverkehre bilanziert. Hierzu gehören Freizeitaktivitäten
wie Einkaufen, private Besuche, Gastronomieaufenthalte, aber auch Pendlerfahrten, Bring- und Holverkehre oder Wirtschaftsverkehre. Auf Basis der vorhandenen Daten wurde für einen Altstadtbewohner eine
durchschnittliche Emissionsmenge von 1,6 Tonnen
CO2 infolge seiner Mobilitätsbedürfnisse ermittelt. Bei
1 886 Bewohnern wurden insgesamt 2 942 Tonnen CO2
im Jahr emittiert. Für die Zielverkehre (Besucher der Altstadt infolge einer Aktivität) wurde eine Emissionsgröße von rund 2 392 Tonnen CO2 errechnet.
Potenziale zur CO2-Reduzierung in der Mobilität
Für die Potenzialbetrachtung wurden das Verkehrsverhalten der Altstadtbewohner sowie die Altstadt-Zielverkehre analysiert. Erwartungsgemäß ist zu beobachten, dass mit zunehmender Entfernung zur Altstadt
der Anteil der Fuß- und Radwege sinkt: Während die
Altstadtbewohner durchschnittlich 55 % aller Wege zu
Fuß oder mit dem Rad zurücklegten, lag dieser Anteil
in den angrenzenden Gebieten bei 44 %, in nicht angrenzenden Gebieten bei 23 %. Da sich die ÖPNV-Nutzung unabhängig von der Entfernung zur Altstadt im
Bereich von etwa 6 % bewegt, steigt entsprechend mit
zunehmender Entfernung der Anteil der Pkw-Fahrten.
Besonders auffällig ist die Verkehrsmittelwahl für die
in die Altstadt führenden Wege mit einer Entfernung
von bis zu zwei Kilometern: 50 % dieser „kurzen“ Wege
wurden mit dem Pkw zurückgelegt; der Radanteil lag
bei lediglich 11 %, obwohl diese Weglängen typische
Radfahrerstrecken sind. Neben dem Individualverkehr
wurde im weiteren Verlauf auch das ÖPNV-Angebot
sowie die Radinfrastruktur detailliert analysiert, um
Veränderungspotenziale aufzudecken.
Abb. 2: Darstellung der Flächen, die vom Zentrum der Altstadt
zu Fuß innerhalb von fünf, zehn und 15 Minuten erreicht werden
können
Szenarien
Grundsätzlich stellt sich zunächst die Frage, an welchen Punkten es möglich ist, CO2-Emissionen im
Mobilitätsbereich zu reduzieren. Der Gedanke, die
Verkehrsmittelwahl zugunsten des Umweltverbunds
(ÖPNV, Radfahrer und Fußgänger) zu beeinflussen,
liegt nahe. Jedoch sind Verhaltensänderungen im Bereich der Mobilität schwer durchzusetzen. Nur mit
sogenannten Push-and-pull-Maßnahmen, der Attraktivitätssteigerung eines Verkehrsmittels (zumeist des
Umweltverbunds) bei gleichzeitiger Attraktivitätsminderung eines anderen Verkehrsmittels (zumeist des
motorisierten Individualverkehrs), lässt sich die Verkehrsmittelwahl beeinflussen. Beispielsweise würde
die Senkung des Parkplatzangebots bei gleichzeitiger
Verbesserung des ÖPNV-Angebots auf eine verstärkte
Nutzung des öffentlichen Verkehrs abzielen.
In der Biberacher Altstadt wurden konsequente CO2reduzierende Maßnahmen in drei ganzheitlichen,
interdisziplinären Szenarien erarbeitet, ohne die Erreichbarkeit negativ zu beeinflussen. Die Szenarien
bauen stufenartig aufeinander auf. Mit zunehmender
Intensität der Maßnahmen steigt auch das Potenzial
der CO2-Ersparnis. Im Bereich der Mobilität zielen die
Szenarien darauf ab, die Biberacher Altstadt vor allem
für Fußgänger und Radfahrer attraktiver und sicherer
zu gestalten und so deren Anteil am Modal Split zu
erhöhen. Grundsätzlich soll dies durch eine Reduzierung von Wartezeiten, der Minimierung von Umwegen
und einer Bewusstseinsstärkung für Verkehrsmittel
des Umweltverbunds erfolgen. Die Einführung eines
Fußgängerleitsystems soll die Orientierung und das
Forschung aktuell 2015 |
49
Umweltschutztechnik
Gefühl für kurze fußgängertaugliche Weglängen verstärken.
Szenario 1 – Füße als Verkehrsmittel
Im ersten Szenario liegt der Fokus verstärkt auf den
Fußgängerwegen innerhalb der Altstadt. Aufgrund
der kurzen Entfernungen (aus dem Zentrum der Altstadt erreicht man jedes weitere Ziel innerhalb der
Altstadt in maximal fünf Minuten) sollen diese Wege
vorwiegend zu Fuß zurückgelegt werden. Mit einer
Begrenzung der Parkierungsdauer auf 30 Minuten bei
gleichzeitiger Reduzierung des Stellplatzangebots ist
eine Einfahrt in die Altstadt lediglich für kurze Erledigungen möglich. Durch die kürzere Parkierungsdauer
kann ein Stellplatz häufiger genutzt werden; daher
kann auch eine geringere Kapazität an Stellplätzen
vorgehalten werden. Für längere Aufenthalte sind die
Parkierungsanlagen am Altstadtring zu benutzen. Die
gewonnenen Parkierungsflächen werden städtebaulich in ansprechende Aufenthaltsflächen umgestaltet
und das Zu-Fuß-Gehen attraktiver gemacht.
Szenario 2 – Wege in die Altstadt zu Fuß, mit dem
Rad oder dem ÖPNV
Aufbauend auf dem ersten liegt im zweiten Szenario der Fokus auf den Wegen zur Altstadt. Hier sollen
Bewohner animiert werden, die Wege in die Altstadt
verstärkt mit umweltverträglichen Verkehrsmitteln
zurückzulegen. Kurze Wege von und zu angrenzenden
Wohngebieten sollen zu Fuß, mittlere Wege mit dem
Rad oder dem ÖPNV beschritten werden. Durch eine
gegenüber Szenario 1 strengere Einfahrtsbeschränkung in die Altstadt (Einfahrt nur noch für notwendige
Verkehre wie Beladen und Anliefern, Dienstleistungen
und Arztbesuche sowie für Anwohner) ist demgegenüber die Nutzung umweltfreundlicher Verkehrsmittel
deutlich attraktiver, da diese in die Altstadt einfahren
können und somit die Verkehrsteilnehmer näher an
ihr Ziel bringen. Des Weiteren soll die zerschneidende Wirkung des Straßenrings reduziert werden. Durch
eine Minimierung der Wartezeiten sowie die Einrichtung komfortabler und sicherer Querungsmöglichkeiten sollen Umwege reduziert und der Weg in die
Altstadt attraktiver werden. Für den Individualverkehr
wird die Fahrt entlang des Rings unattraktiver. Die
Schaltung der Lichtsignalanlagen wird nicht für den
Individualverkehr entlang des Rings koordiniert, sondern entsprechend der Bedürfnisse der Verkehrsteilnehmer des Umweltverbunds quer zum Ring.
Szenario 3 – CO2 minimal
Im dritten Szenario soll die maximal mögliche Menge an CO2 eingespart werden. Hierzu dürfen neben
Anwohnern nur noch Fahrzeuge ohne einen Verbren-
50
| Forschung aktuell 2015
nungsmotor in die Altstadt einfahren. Der Effekt aus
den Szenarien 1 und 2 wird so nochmal verstärkt. Die
dann frei werdenden Flächen werden ebenfalls zugunsten von Aufenthaltsqualität umverteilt.
Einsparpotenzial CO2
Für die Ermittlung der CO2-Einsparpotenziale, die sich
aus den beschriebenen Szenarien ergeben, wurden
entsprechend der Maßnahmen Annahmen getroffen,
die eine Verlagerung der Wege von Pkw auf Verkehrsmittel des Umweltverbunds beschreiben. Die CO2Einsparung beträgt im ersten Szenario rund 11 %, im
zweiten ca. 17 % und im dritten 22 %.
Fazit
Die Projektergebnisse zeigen, dass gerade in den
kompakten Altstadtstrukturen großes Potenzial in der
Nahmobilität liegt. Kurze und mittlere Strecken werden
heute zu einem großen Teil mit dem Pkw zurückgelegt,
weil die Infrastruktur darauf ausgelegt ist und dies das
bequemste und schnellste Fortbewegungsmittel in
Biberach ist. Nur mit Maßnahmen zugunsten des Umweltverbunds lässt sich ein Umdenken einleiten und
sowohl CO2-Emissionen reduzieren als auch die Aufenthaltsqualität in der Altstadt steigern.
Literatur
[1] infas, DLR: Mobilität in Deutschland 2008 – deutschlandweite Erhebungen zum Mobilitätsverhalten, eigene Auswertungen des Auswertetools „Mobilität in
Tabellen“ (MIT), http://www.mobilitaet-in-deutschland.de/02_MiD2008/index.htm, 2010.
Umweltschutztechnik
Abstract
The potential for reducing CO2 emissions in historical towns using passive measures such as the
installation of thermal insulation is limited. As a
result individual solutions for buildings with historical monument protection are required. In this
research project ways of reducing CO2-emissions
are explored especially in the field of mobility. In
the historical town of Biberach we analyzed traffic
behavior, modeling carbon dioxide emissions from
different means of transport and present the possible measures in three scenarios.
Zusammenfassung
In historischen Altstädten ist das Potenzial,
CO2-Emissionnen durch passive Maßnahmen wie
die Wärmedämmung zu reduzieren, gering. Da
Standardlösungen aus Denkmalschutzgründen
nicht greifen, werden alternative Wege gesucht,
CO2-Emissionen einzusparen. Die Hochschule
Karlsruhe untersuchte, welchen Beitrag die
Mobilität hierzu leisten kann. Am Beispiel der
Stadt Biberach an der Riß wurden anhand des
Nutzerverhaltens CO2-Emissionen bilanziert, das
Verkehrsangebot untersucht und hieraus resultierende Veränderungspotenziale in Form von
Szenarien entwickelt.
Autoren
Robert Blaszczyk M.Eng.
Akademischer Mitarbeiter im Studiengang Verkehrssystemmanagement an der Fakultät für Informationsmanagement und Medien der Hochschule
Karlsruhe
Prof. Dr.-Ing. Christoph Hupfer
Professor und Dekan der Fakultät für Informationsmanagement und Medien
Kontakt
Robert Blaszczyk
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Informationsmanagement und Medien
Moltkestraße 30
76133 Karlsruhe
E-Mail: robert.blaszczyk@hs-karlsruhe.de
Telefon: 0721 925-2589
Dein neuer Arbeitgeber...
I Vermessung I Geotechnik I Geoinformatik I Entwicklung I
intermetric GmbH I Industriestr. 24 I 70565 Stuttgart I T 0711 780039 - 2 I www.intermetric.de
Forschung aktuell 2015 |
51
Umweltschutztechnik
Neuroregler zur Temperaturregelung eines Modellhauses
im Vergleich mit klassischen Reglern
Hans-Werner Dorschner, Peter Huber, Alexander Schweigert, Lukas Brombacher und Stefan Paschek
Einleitung
Um einem zukünftig steigenden Energiepreis entgegenzuwirken und den CO2-Ausstoß zu verringern, ist
es notwendig verstärkt auf erneuerbare Energien umzusteigen. Durch die von der Bundesregierung initiierte
Energiewende werden Schritte eingeleitet, die dieses
Vorhaben umsetzen sollen. Eine Kombination aus Eisspeicher und Photovoltaik in Verbindung mit intelligenter und anpassungsfähiger Regelung kann einen
wichtigen Beitrag hierfür liefern, die Stromkosten der
Haushalte senken und den CO2-Ausstoß verringern. In
einem vorangegangenen Forschungsprojekt wurden
die Verwendbarkeit eines Eisspeichers als Energiespeicher sowie die Einsatzfähigkeit von neuronalen Netzen
als mögliche intelligente Regelungsalgorithmen untersucht. Die vorgestellten Ergebnisse des aktuellen Forschungsprojekts bauen auf diesen Erkenntnissen auf
und werden sie weiterführen. Dabei wurde ein Demonstrationshaus aufgebaut, das in der Lage ist, neuronale
Netze zur Temperaturregelung eines standardisierten
Einfamilienhauses zu verwenden. Das Demonstrationshaus ermöglicht, die Temperatur mehrerer Räume
unabhängig voneinander zu regeln sowie den Energieverbrauch eines Wohnhauses zu simulieren. Im Haus
werden ein Eisspeicher und eine Photovoltaikanlage
mit Akkumulator als Energiequelle und -senke simuliert, um nachhaltig Strom zu speichern bzw. zu erzeugen (s. Abb. 1).
wickeln und zu erproben. Zudem können Daten wie
das Wetter, zukünftige Strompreisentwicklungen usw.
berücksichtigt werden, um ein optimales Ausnutzen
der regenerativen Energien zu ermöglichen. Dabei
handelt es sich um ein mehrdimensionales Optimierungsproblem, das die drei Operationen „Kaufen von
elektrischer Energie aus dem Stromnetz“, „Speichern
von elektrischer oder thermischer Energie“ und „Verkaufen von elektrischer Energie in das Stromnetz“
beinhaltet. Hintergrund dieses Vorgehens ist die Tatsache, dass regenerative Energien oftmals dann verfügbar sind, wenn sie nicht benötigt werden, bzw.
dann benötigt werden, wenn sie nicht oder nicht ausreichend verfügbar sind wie z. B. abends, nachts oder
in kalten Jahreszeiten.
Zusätzlich wird der Demoaufbau auch dazu genutzt,
ein intelligentes Energiemanagementkonzept zu ent-
Materialien und Methoden
Um eine geeignete Regelstrecke zur Verfügung zu stellen, wurde in einem ersten Schritt ein einzelner Modellraum als Modell gefertigt. Der Modellraum kann
über Peltier-Element in Kombination mit Lüftern und
Kühlkörpern geheizt und gekühlt werden. Die Temperatur des Raumes wird über Thermoelemente gemessen. Als Mess- und Steuereinheit dient ein Arduino Mikrocontroller. Der schematische Aufbau des Raumes
ist in Abbildung 2 dargestellt.
elektrische Energie
thermische Energie
Haus
Photovoltaik
Photothermie
Klimasystem
Eisspeicher
Abb. 1: Schema des Hauses
52
| Forschung aktuell 2015
Wärmepumpe
Haushaltsgeräte
Problem- und Aufgabenstellung
Aufgabenstellung dieses Projekts war es zu überprüfen, ob neuronale Netze für eine Temperaturregelung
verwendet werden können. Die Netze sollen dabei
durch unterschiedliche Trainingsverfahren trainiert
werden, um den Modellraum auf eine Solltemperatur zu bringen. Vor allem sollen die Netze dazu in der
Lage sein, sich aus einem untrainierten Zustand an die
Strecke anzupassen, sodass ein Vortrainieren in einer
Simulation nicht notwendig ist. Des Weiteren soll das
Energiemanagement des Hauses ebenfalls über ein
neuronales Netz realisiert werden.
Als Steuer- und Regelsoftware wird LabVIEW in Kombination mit MATLAB verwendet. Hierdurch kann
MATLAB-Code für die Neuroregler als LabVIEW-Block
umgesetzt werden. In einem zweiten Schritt wurde
ein Modellhaus bestehend aus sieben Räumen aufgebaut. Für diese Anwendung wurde eine eigene Bedienoberfläche (Graphical User Interface – GUI) in Lab-
Umweltschutztechnik
Modellraum
Halogenlampe
TE
Umgebung
TE
TE
Lüfter
Input Layer
Kühlkörper
Treiberstufe
TEC
USB
Hidden Layer
Output Layer
Treiberstufe
Kühlkörper
Mess- und
Steuereinheit
sowie zwischen Außen- und Raumtemperatur enthalten. Die Ausgangsschicht umfasst ein Neuron, das die
Stellgröße für die Kühl- und Heizelemente liefert.
Mess- und
Steuereinheit
Lüfter
e1
Rechner
y
USB
e2
Abb. 2: Prinzipschaltbild eines Modellraums
VIEW entwickelt. Dadurch ist es möglich, die Vorgänge
in der Temperatur- und Energieregelung grafisch zu
visualisieren und zu beobachten sowie Messungen zu
starten und Messwerte aufzunehmen (s. Abb. 3).
Um die Neuroregler zu entwerfen, musste eine grundlegende Architektur festgelegt werden. Als Netzwerksarchitektur wurde hierfür „multilayer feedforward“
gewählt. Dabei besteht das neuronale Netz aus einer
Eingangsschicht zur Erfassung der Eingänge, zwei
versteckten Schichten zur Berechnung und einer Ausgangsschicht zur Bildung der Ausgänge (s. Abb. 4). Die
Eingangsschicht besteht aus zwei Neuronen, die die
normierte Differenz zwischen Soll- und Ist-Temperatur
e1: Fehlereingang Soll-/Ist-Temperatur
e2: Fehlereingang Außen-/Ist-Temperatur
y: Stellgrößenausgang
Abb. 4: Struktur des Neuroreglers zur Temperaturregelung
Trainiert wurden die Netze mit dem BackpropergationAlgorithmus in Kombination mit Reinforcement-Learning. Die Art, wie der Netzfehler berechnet wird, ist
durch Reinforcement-Learning definiert. Hierbei wird
die Aktion des neuronalen Netzes durch eine Bewertungsfunktion beurteilt. Hat die Aktion das Netz näher
an den Sollwert gebracht, wird das Netz durch eine
Abb. 3: GUI zur Steuerung und Messung des Modellhauses
Forschung aktuell 2015 |
53
Umweltschutztechnik
Vergrößerung der Gewichtsfaktoren „belohnt“. Wenn
die Aktion einen gegenteiligen Effekt hat, wird der
Neuroregler durch eine Verringerung der Gewichtsfaktoren „bestraft“. Das Energiemanagement erfolgt
ebenfalls über ein neuronales Netz. Dazu sammelt das
Netz Daten über die Sonneneinstrahlung, den aktuellen Strompreis/Solarstromverkaufspreis und den zukünftigen, vorhergesagten Preisen. Aus diesen Daten
trifft es anschließend die Entscheidung, ob der Solarstrom gespeichert, verkauft oder verwendet wird.
rekt an der realen Strecke trainiert wird. Dabei wurde
ein einziges neuronales Netz verwendet, um sowohl
das Heizen als auch Kühlen zu erlernen. Zu erkennen
ist, dass das Regelverhalten im Laufe der Zeit immer
besser wird. Bereits nach ca. 600 sec ist der Neuroregler in der Lage, dem Sollverhalten befriedigend
zu folgen. Weitere Durchgänge erhöhen die Qualität
der Regelung weiter. Da es sich hierbei um mehrere
Durchgänge handelt und der Neuroregler nicht instabil wird, ist auch die Langzeitstabilität gewährleistet.
Praktische Durchführung
In einem ersten Schritt wurde die regelungstechnische
Strecke im Kühlverhalten identifiziert. Dabei wurde festgestellt, dass sich der Raum wie ein PT1-DT1-Element verhält. Anschließend erfolgte der Entwurf der Neuroregler.
Das erste neuronale Netz wurde fest für die Lösung dieser Strecke trainiert. Im nächsten Schritt wurden vortrainierte Neuroregler mithilfe des Backpropergation-Algorithmus direkt an der Strecke weitertrainiert. Im letzten
Schritt wurde ein vollkommen untrainiertes neuronales
Netz auf der realen Strecke trainiert. Anschließend wurde das Training auf fünf weitere Modellräume übertragen
und jeweils ein Neuroregler pro Raum vorgesehen.
Ergebnisse
In Abbildung 5 ist der Verlauf der Regeldifferenz dargestellt. Dabei wurde in allen Fällen eine Solltemperaturdifferenz von 5 °C vorgegeben. Wie in der Grafik zu
erkennen ist, bleibt bei reiner P-Reglung eine bleibende Regeldifferenz, bei PI- und Neuroregler wird diese
Regeldifferenz komplett ausgeregelt. Die Ausregelzeit
beträgt beim PI-Regler 150 sec, bei P- und Neuroregler
jeweils ca. 130 sec.
Abbildung 6 zeigt das Verhalten eines komplett untrainierten Neuroreglers, der durch Backpropergation di6
5
4
Temperatur/C°
3
2
1
0
100
Zeit/s
200
300
Fehler P-Regler
400
Fehler KNN
500
600 700
Fehler PI-Regler
Abb. 5: Vergleich des Regelfehlerverlaufs von P-Regler (K=30),
PI-Regler (Kp=15; KI=0,1) und vortrainiertem neuronalen Netz
54
| Forschung aktuell 2015
Abb. 6: Heiz- und Kühlverlauf eines untrainierten neuronalen
Netzes
Zusammenfassung und Ausblick
In dem hier vorgestellten Forschungsprojekt wurden
neuronale Netze verwendet, um Temperaturregler für
ein Modellhaus zu entwickeln. Dabei konnten anpassungsfähige Neuroregler realisiert werden. Der Vergleich mit klassischen P- und PI-Reglern hat gezeigt,
dass die Neuroregler teilweise bessere Ergebnisse
liefern. Ihr Hauptvorteil liegt jedoch neben dem vergleichbaren Regelverhalten darin, dass sie kein mathematisches Modell der Strecke mit ihren vielfältigen Ein- und Ausgangsgrößen benötigen. Bei dem in
diesem Forschungsprojekt betrachteten Problem der
Regelung eines Wohnhauses mit regenerativem Energieeinsatz treten vielfältige Ein- und Ausgangsgrößen
auf, deren Einflüsse mathematisch nicht genau beschreibbar sind, um eine befriedigende konventionelle Regelung zu implementieren. Des Weiteren wurde
ein neuronales Netz zum Energiemanagement entwickelt, um eine optimale Verwendung des regenerativen Energieeintrags zu gewährleisten. Um dem Benutzer eine einfache Schnittstelle zum Erfassen der Daten
und zur Steuerung des Hauses zu bieten, wurde eine
grafische Bedienoberfläche in LabVIEW erstellt.
Umweltschutztechnik
Abstract
This article introduces a modern concept for intelligent climate and energy management in homes.
Neural networks were used in order to establish
a flexible and adaptive controller. These neural
controllers are able to react autonomously to the
parameter changes of a house. Further, a pre-simulation is not required as they can be trained directly in the house. The neural controller has been
benchmarked against standard P and PI controllers
for their performance. A model house which could
be heated and cooled was created as benchmark
model-plant. It was also used to implement the
energy management network.
Zusammenfassung
Der Artikel stellt ein modernes Konzept zur intelligenten Temperaturregelung und zum Energiemanagement in Wohnhäusern vor. Dabei wurden
neuronale Netze verwendet, um anpassungsfähige
Regler zu erstellen. Diese Neuroregler haben die
Fähigkeit autonom auf Parameteränderungen
eines Hauses zu reagieren und können direkt am
Haus ohne Vorsimulation trainiert werden. Die
erstellten Neuroregler wurden anschließend mit
Standard-P- und PI-Reglern verglichen und bewertet. Als Vergleichsstrecke wurde ein kühl- und
heizbares Modellhaus entwickelt, das zusätzlich
noch für das Energiemanagement herangezogen
wurde.
Autoren
Prof. Dr.-Ing. Hans-Werner Dorschner
Professor an der Fakultät für Maschinenbau und
Mechatronik der Hochschule Karlsruhe
Peter Huber M.Eng.
Laborbetriebsleiter an der Fakultät für Maschinenbau und Mechatronik
Alexander Schweigert B.Eng, Lukas Brombacher
B.Eng und Stefan Paschek M.Sc.
Akademische Mitarbeiter an der Fakultät für Maschinenbau und Mechatronik
Kontakt
Peter Huber
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Maschinenbau und Mechatronik
Moltkestraße 30
76133 Karlsruhe
E-Mail: peter.huber@hs-karlsruhe.de
WIR VERBINDEN KOMPETENZ
VEREIN DEUTSCHER INGENIEURE
Mitglied werden und Netzwerk ausbauen in der
größten Ingenieurvereinigung Deutschlands.
vdi.de/studium
vdi.de/mitglied-werden
Forschung aktuell 2015 |
55
Forschung
Entwicklung
Messungen
Prototypen
Institut für Luft- und
Kältetechnik gGmbH
Innovation braucht
kühle Köpfe.
Kryotechnik & Tieftemperaturphysik
Kälte- und Wärmepumpentechnik
Luft- und Klimatechnik
Angewandte Werkstofftechnik
Angewandte Energietechnik
Unsere Natur braucht klimafreundliche CO2-Kältetechnik.
Epta braucht Dich!
%HUWROW%UHFKW$OOHH
'UHVGHQ
7HOHIRQ
7HOHID[
ZZZLONGUHVGHQGH
Finde Deinen Traumjob: eptarefrigeration.com/de/offene-stellen
Epta Deutschland GmbH, Ludolf-Krehl Straße 7-11, 68167 Mannheim
Personal@epta-deutschland.com
Meisterschulung in Vollzeit oder Teilzeit
VZ: 02.03.2015 / TZ: 06.11.2015
Sachkundelehrgang für Quereinsteiger
( zum Erwerb Zertifikat Kategorie I )
Sonderzertifizierung
Inhalte entsprechend VO(EG) 303/2008
( aktuelle Termine auf www.i-k-k-e.com )
Umweltschutztechnik
Kooperatives Promotionskolleg: Partikelgrößenverteilung
in Eisbreigemischen und Untersuchungen zur Haftung von
Eis auf Aluminium-Oberflächen
Jakob Schaaf, Matthias Koffler und Michael Kauffeld
Kooperatives Promotionskolleg: Gefügestrukturanalyse und Prozessbewertung
Ziel des gemeinsamen Promotionskollegs „Gefügestrukturanalyse und Prozessbewertung“ ist die experimentelle und theoretische Erforschung von Strukturbildungsmechanismen in unterschiedlichen Materialsystemen
und für eine Vielzahl verschiedener Prozessabläufe. Das
Promotionskolleg besteht aus einem Forschungsprogramm sowie einem begleitenden Studienprogramm
und umfasst zwölf Dissertationsprojekte, die jeweils
von einer Professorin oder einem Professor des Karlsruher Instituts für Technologie (KIT) und der Hochschule
Karlsruhe betreut werden. Die einzelnen Promotionsprojekte bilden dabei gemeinsame kollegübergreifende Forschungsbereiche. Diese sind fünf Themenfeldern
zugeordnet, die unterschiedlicher experimenteller und
theoretischer Ausrichtung sind. Im Folgenden sollen die
ersten Ergebnisse der Themen „Eisbrei – Partikelgrößenverteilung in Eisbreigemischen“ und „Untersuchungen zur Anhaftung von Eis auf Aluminium-Oberflächen“
vorgestellt werden.
Eisbrei – Partikelgrößenverteilung in Eisbreigemischen: Einleitung und Motivation
Eisbrei (Ice Slurry) ist ein effizientes, zweiphasiges
Sekundärkältemittel, das aus einer flüssigen Phase
besteht und mit kleinen Eispartikeln gemischt ist. Die
Basisflüssigkeit ist Wasser mit einem gefrierpunktsenkenden Stoff. Hier werden kommerziell überwiegend die Zusatzstoffe Ethanol, Propylenglykol und
Natriumchlorid eingesetzt.[1] Bedingt durch die gespeicherte Kristallisationswärme in den Eispartikeln
-1
von 333 [kJ·kgEis
] besitzt Eisbrei ein Vielfaches der
Energiedichte eines vergleichbaren, einphasigen Kälteträgers. Weitere Informationen zu Eisbrei sind auf der
Homepage des Instituts für Kälte-, Klima- und Umwelttechnik (IKKU) der Hochschule Karlsruhe zu finden.[2]
Sobald das Gemisch Eisbrei den Eiserzeuger verlässt,
hat es eine bestimmte Partikelgrößenverteilung. Für die
Nutzung von Eisbrei ist die Partikelgrößenverteilung
eine wichtige Kenngröße, da diese die mechanischen
und thermodynamischen Eigenschaften des Fluids signifikant beeinflusst. Für Eisbrei mit größeren Partikeln
wird in Speichertanks eine höhere Rührerleistung benötigt, und größere Eispartikel haben ein schlechteres
Oberflächen-Volumen-Verhältnis. Dies führt zu einer geringeren Abschmelzleistung. Die Partikelgrößen in Eisbrei ändern sich in Abhängigkeit von verschiedenen
Parametern mit der Lagerdauer (Alterung). Dies sind vor
allem Abrieb, Anlagerung (Agglomeration) und OstwaldReifung. Die Einflussgrößen auf die Alterung der Eispartikel und somit die Grundlagen zur Erzeugung von gezielten Partikelgrößen werden in diesem Projekt
untersucht. Mithilfe dieser Erkenntnisse wird es möglich, gezielt kleine Partikel in einem Eisbreisystem zu
erzeugen und somit die Effizienz zu steigern.
Analyse der Eispartikel im Eisbrei
Um die Änderungen der Partikel zu ermitteln ist ein
Analyseverfahren notwendig. Hier können jedoch herkömmliche Partikelmessmethoden nicht eingesetzt
werden. Bei der Messung der Eispartikel bestehen die
Herausforderungen darin, dass die Analyse unter adiabatischen Bedingungen (ohne Wärmeaustauch) erfolgen muss und dass Eispartikel in Flüssigkeit schwer
zu detektieren sind. Ein optisches Verfahren liefert nur
mittels spezieller Beleuchtungstechnik ausreichend
kontrastreiche Bilder. Hier wird auf eine abgewandelte Form der Phasenkontrastmethode zurückgegriffen.
Um Überlagerungen der Partikel zu vermeiden, werden diese in einem Miniatur-Strömungskanal vereinzelt. Das Ergebnis sind somit kontrastreiche, plastisch
wirkende Bilder (s. Abb. 1) der Eispartikel.
Abb. 1: vereinzelte Eispartikel im 2 x 2 mm Strömungskanal,
beleuchtet über Phasenkontrast
Die Partikel können auf diese Weise auf Standardwerte
wie Durchmesser, Umfang, Fläche, Abweichung von der
Kreisform ausgewertet werden. Hierbei wird jedoch die
Kugelform der Partikel vorausgesetzt. Basierend auf der
Vermutung, dass die Eispartikel – zumindest zeitweise
Forschung aktuell 2015 |
57
Umweltschutztechnik
oder bei bestimmten Bedingungen – hexagonal scheibenförmig sind, werden die Interpretationen der Ergebnisse durch die Annahme der Kugelform verfälscht. Die
bisher in der Forschung angewandte Untersuchungsmethode der Eispartikel wurde in diesem Projekt erweitert.
Mit einer an der Hochschule Karlsruhe entwickelten
speziellen Analysezelle ist die simultane Untersuchung
mehrerer Betrachtungsebenen der Eispartikel möglich.
Über eine Anordnung aus mehreren spiegelnden Flächen ist es möglich, den Rechteckkanal von zwei Seiten
zu beleuchten und zu beobachten. Eine besondere Herausforderung stellt hierbei die extrem geringe Baugröße der optischen Komponenten dar. Die verwendeten
Spezialspiegelplatten haben eine Größe von nur 1 x 3 x
30 mm (vergleichbar mit der Größe zweier Zündhölzer).
Abb. 3: Partikel im Strömungskanal, reales und gewandeltes
Binärbild
Rückschlüsse auf die volumetrische Änderung der Partikel über die Speicherdauer hinweg gezogen werden.
Ausblick
Die erarbeitete Methode konnte erste vielversprechende Ergebnisse liefern. Eine auf den bisherigen Erkenntnissen aufbauende, optimierte Messzelle befindet sich
in Entwicklung. Erste Langzeituntersuchungen von Eisbrei aus den Versuchsanlagen des IKKU werden in Kürze
stattfinden.
Abb. 2: Analysezelle und Schnittdarstellung des Strömungskanals mit Spezialspiegelplatten
Der Eisbrei wird durch die entwickelte Analysezelle (s.
Abb. 2) geleitet und die Partikel werden aufgrund des
kleinen Strömungskanals vereinzelt. Die Beleuchtung
der Eispartikel erfolgt von unten und – durch die eine
Spiegelplatte – von links. Über ein Mikroskop wird der
Kanal simultan von oben und von der rechten Seite (über
die zweite Spiegelplatte) beobachtet. Dadurch entstehen zwei um 90° zueinander versetzte, zeitgleiche Bilder des Strömungskanals und der im Kanal befindlichen
Eispartikel. Durch die zweite Ansicht gewinnt man weiterführende Informationen über die dreidimensionale
Form der Eispartikel. Die zeitliche Veränderung der Partikel kann somit noch exakter beschrieben werden.
Die so entstandenen Bilder (s. Abb. 3) werden über
spezielle mathematische Algorithmen in auswertbare
Binärbilder gewandelt. Über die geometrischen Parameter der Bilder können dann in Dauermessungen
58
| Forschung aktuell 2015
Untersuchungen zur Anhaftung von Eis auf Aluminium-Oberflächen: Einleitung und Motivation
Die Eispartikel für Eisbrei werden in sogenannten Eisbreierzeugern bzw. -generatoren hergestellt. Als Methoden zur Erzeugung der Eispartikel sind einige bekannt.
Detaillierte Informationen hierzu sind im Handbook on
Ice Slurries [3] zu finden. Viele energieeffiziente Methoden werden aufgrund der Ausfall- und Wartungshäufigkeit nicht eingesetzt. Eine derzeit sehr verbreitete
Methode der Eisbreierzeugung ist die der schabenden
Elemente. Dabei wird das Fluid über eine gekühlte Wärmeübertragerwand geleitet. Die Temperatur der Wand
liegt unter der Gefrierpunktstemperatur des Fluids, sodass sich Eiskristalle an der Wand bilden. Die Eiskristalle werden nach einer Wachstumsphase mit Schabern,
Bürsten oder Schleuderstäben von der Wand gelöst.
Hierbei müssen mindestens die Adhäsionskräfte zwischen der Oberfläche und dem Eispartikel überwunden
werden (zerbrechen die Eispartikel sind größere Kräfte
notwendig). Die Elemente zur Lösung der Eiskristalle
müssen bewegt werden, benötigen eine Antriebsenergie und sind verschleißanfällig. Die Antriebsenergie
wird zur Bewegung der Elemente benötigt und als Wärmeenergie in das Eisbreimedium übertragen. Sie muss
daher zweifach berücksichtigt werden (elektrischer Antrieb + zusätzlich notwendige Kälteleistung). In einem
neuen Verfahren zur Eisbreierzeugung werden die mechanischen Elemente ersetzt. Hierzu wird die Oberflä-
Gemeinsam die Zukunft gestalten.
Viessmann ist einer der international führenden Hersteller effizienter Heiz-, Industrie- und Kühlsysteme und bietet
ein umfassendes Dienstleistungsangebot. Unsere Produkte sparen Energie und schonen Umwelt und Klima.
Engagierten und qualifizierten Absolventinnen und Absolventen bieten wir die Möglichkeit, bei und mit Viessmann
in eine erfolgreiche Zukunft zu starten. Mehr erfahren Sie unter: www.viessmann.de
Viessmann Werke GmbH & Co. KG
Viessmannstr. 1 · 35107 Allendorf (Eder)
Telefon: 06452 70-0 · Fax: 06452 70-2780
E-Mail: info@viessmann.de
PERFEKT, UM NACH OBEN ZU KOMMEN:
IHR BERUFSEINSTIEG BEI EINEM MARKTFÜHRER.
–4 °C erzeugen BITZER Verdichter
in Produkttests, um sicherzustellen, dass
Kletterhaken nicht brechen.
EINSTIEGSPROGRAMM FÜR INGENIEURE (M/W)
Kälte- und Klimatechnik leisten weltweit einen unverzichtbaren Beitrag, zum Beispiel in der Gebäudeklimatisierung oder der Transportkühlung. Das Herzstück dabei: Verdichter von BITZER. Rund um den Globus setzen circa 3.200 Mitarbeiter täglich alles daran, dass sich unsere Kunden auf BITZER Qualität und Leistung verlassen können.
BITZER hat das Ziel, ingenieurwissenschaftliche Schlüsselpositionen mit Mitarbeitern aus den eigenen Reihen zu besetzen. Ab Oktober 2015 erhalten Sie innerhalb des
18-monatigen Ausbildungsprogramms durch wechselnde Abteilungseinsätze an unseren deutschen Standorten sowie in einer ausländischen Tochtergesellschaft die Chance,
Ihre fachliche und soziale Kompetenz weiterzuentwickeln.
AUSBILDUNGSSCHWERPUNKTE
Sie eignen sich fundierte Produkt- und Anwendungskenntnisse in enger Zusammenarbeit mit Ihren Mentoren an, führen Marktanalysen sowie Vertriebswegeuntersuchungen
durch und beraten sowohl nationale als auch internationale Kunden. Im Troubleshooting vor Ort arbeiten Sie ebenso mit wie in der Produktentwicklung, im Versuch und in
der Qualitätssicherung. Außerdem lernen Sie Fertigungsabläufe und -verfahren sowie die Fertigungsvorbereitung und -planung kennen.
VORAUSSETZUNGEN
Sie haben ein ingenieurwissenschaftliches Studium mit Schwerpunkt Kälte-, Klima- und Umwelttechnik abgeschlossen und verfügen über erste Fach- und Branchenkenntnisse?
6SUHFKHQ6LHGDUEHUKLQDXVVHKUJXW(QJOLVFKXQGKDEHQ6LHJXWH062I¿FH.HQQWQLVVH":HQQ6LHDX‰HUGHPQRFKKRKHV(QJDJHPHQWVRZLH7HDPXQG.RPPXQLNDWLRQV
fähigkeit mitbringen und bereit sind, im Ausland zu arbeiten, sollten wir uns kennenlernen!
KONTAKT
Interessiert? Dann freuen wir uns auf Ihre aussagekräftige Bewerbung per E-Mail oder Post an: BITZER Kühlmaschinenbau GmbH //
+XPDQ5HVRXUFHV(VFKHQEUQQOHVWUD‰H6LQGHO¿QJHQUHFUXLWLQJ#ELW]HUGHZZZELW]HUGH
Mark Harris beantwortet Ihnen gerne erste Fragen: Tel +49 (0)70 31 932-43 81.
Umweltschutztechnik
Messung der Adhäsionskräfte
Die Adhäsionskräfte zwischen Eis und einer metallischen Oberfläche sind stärker als die kohäsiven Kräfte
im Eis, was eine Herausforderung an den Messaufbau
darstellt. Üblicherweise werden hierfür Scherkraftmessungen durchgeführt und diese dann in Richtung
der Haftkraft umgerechnet. Scherkraftversuche sind
für die Messung mit thermischer Kristallablösung
nicht geeignet, da die Reibung zwischen Eis und Oberfläche (fest-fest) durch das Aufschmelzen von Eis zu
Wasser (fest-flüssig-fest) variiert. Die Zwischenstufen
sind bei Scherkraftversuchen zwar erkennbar, jedoch
kann bei der Umrechnung in die Haftrichtung nicht zwischen Reibung und Restadhäsion unterschieden wer-
60
| Forschung aktuell 2015
F
Fluid
F
Erzeugung der Wärmestromdichte
An den Wärmestrom in die Verbindungstelle werden
hohe Anforderungen gestellt. Für die gesamte in das
System eingebrachte Wärmeenergie wird zusätzliche
Kühlleistung benötigt. Der Wärmestrom soll möglichst
direkt an der Kontaktstelle entstehen, damit der Energieeintrag gering gehalten wird (weniger Material wird
erwärmt). Die Wärmestromdichte muss größer als die
Wärmeleitfähigkeit des Wärmeübertragermaterials sein,
sodass sich die Kontaktstelle über den Schmelzpunkt
des Wassers erwärmt. Je größer die Wärmestromdichte ist, umso schneller ist der Temperaturanstieg an
der Kontaktstelle und die Schmelztemperatur wird erreicht. Wieviel Energie für die Phasenumwandlung an
der Kontaktstelle benötigt wird, ist Gegenstand der Untersuchungen. Die Wärmeströme an der Kontaktstelle
werden durch induktive Erwärmung erzeugt. Bei der induktiven Erwärmung wird über ein elektromagnetisches
Wechselfeld ein elektrischer Leiter (hier die Wärmeübertragerwand aus Aluminium) erwärmt. Durch den sogenannten Skineffekt ändert sich die Eindringtiefe der
Wirbelströme in das Material durch eine Änderung der
Frequenz. Die Wirbelströme erzeugen eine Erwärmung
des Materials. Je höher die Frequenz, desto geringer die
Eindringtiefe. Eine Erhöhung der magnetischen Feldstärke hat eine Erhöhung der Wirbelströme zur Folge,
wodurch die Wärmestromdichte ansteigt. Die induktive
Erwärmung erfüllt alle für die Untersuchungen geforderten Bedingungen und kann stufenlos variiert werden.
den. Für die Messungen wird ein Stirnabreißverfahren
eingesetzt, bei dem die Adhäsionsfläche kleiner als
die Gegenfläche ist. Somit werden kohäsive Brüche
vermindert. Über ein weiteres Messverfahren werden
kohäsive Bruchstellen erkannt und die Messwerte als
ungültig gekennzeichnet. Die Messungen der Adhäsionskraft umfassen die Grenzschicht fest-fest (s. Abb.
4 links) ohne thermische Einflüsse bis hin zu fest-flüssig-fest bei vollständiger Flüssigkeitstrennschicht (s.
Abb. 4 rechts). In Abbildung 5 sind die maximale und
minimale Adhäsionskraft gestrichelt dargestellt. Die
blauen Kurven stellen mögliche Verläufe zwischen den
Grenzwerten, d. h. bei nicht vollständiger Flüssigkeitsschicht in der Grenzfläche, dar.
Eispartikel
Flüssigkeitsschicht
Aluminium
Abb. 4: Grenzbereiche der Versuchsreihen links: fest-fest;
rechts: fest-flüssig-fest
fest-fest
Kraft/Fläche
che des Wärmeübertragers nach der Wachstumsphase
kurzzeitig erwärmt, sodass die angefrorenen Eispartikel
an der Verbindungstelle schmelzen. Wird die gesamte
Verbindung zwischen Eispartikel und Wärmeübertrager
geschmolzen, verringern sich die Adhäsionskräfte erheblich und die verbleibenden Eispartikel können durch
die Strömung abgespült werden. In diesem Forschungsprojekt wird der Einfluss der Wärmestromdichte auf die
Haftkraft zwischen Eis und Aluminium untersucht.
fest-flüssig-fest
Zeit t
Abb. 5: Adhäsionskräfte zwischen den Maxima
Ausblick
Vorversuche zur Methode der Adhäsionskraftmessung
wurden erfolgreich abgeschlossen. Der Prüfstandsaufbau befindet sich im Endstadium und die Messzelle
wird derzeit gefertigt. Erste verwertbare Messwerte
werden in Kürze erwartet.
Literaturverzeichnis
[1] M. Kauffeld, M. J. Wang, V. Goldstein, K. E. Kasza,
Ice slurry applications, in: International Journal of
Refrigeration, 33(2010), Nr. 8, S. 1491–1505.
[2] http://www.hs-karlsruhe.de/ikku.html
[3] M. Kauffeld, M. Kawaji, P. Egolf, Handbook on Ice
Slurries. Fundamentials and Engineering, Paris:
International Institute of Refrigeration, 2005.
Umweltschutztechnik
Abstract
Two research projects from the cooperative program between Karlsruhe University of Applied Sciences and the Karlsruhe Institute of Technology,
both on the secondary working fluid Ice Slurry,
are presented. In the first project the particle size
distribution in ice slurries is analyzed. The requirements of a special analysis-cell to evaluate the
structure, shape and size of the ice particles and
the design of these cells will be described. The
second part of the article is about research on
the influence of a heat flux on the adhesive force
between ice particles and an aluminum surface.
Zusammenfassung
Zwei Forschungsthemen aus dem kooperativen
Promotionskolleg zwischen der Hochschule Karlsruhe (HsKA) und dem Karlsruher Institut für Technologie (KIT) werden vorgestellt. Im ersten Projekt
sollen die Eispartikel in Eisbreigemischen untersucht werden. Die Anforderungen an eine hierfür
notwendige Analysezelle zur Auswertung der
Struktur, Form und Größe der Eispartikel und deren
Aufbau werden beschrieben. Bei dem Projekt zur
Haftung von Eis auf Aluminiumoberflächen wird
der Einfluss von Wärmeströmen auf die Adhäsions-
kräfte in der Grenzschicht untersucht. Die Vorgehensweise und Messmethoden beider Projekte
werden in diesem Artikel anschaulich erläutert.
Autoren
Jakob Schaaf M.Sc. und Matthias Koffler M.Sc.
Akademische Mitarbeiter an der Fakultät für Maschinenbau und Mechatronik und Doktoranden im
gemeinsamen Promotionskolleg der Hochschule
Karlsruhe mit dem Karlsruher Institut für Technologie (KIT)
Prof. Dr.-Ing. habil. Michael Kauffeld
Professor an der Fakultät für Maschinenbau und
Mechatronik und Leiter des Instituts für Kälte-,
Klima- und Umwelttechnik (IKKU) der Hochschule
Karlsruhe
Kontakt
Prof. Dr.-Ing. habil. Michael Kauffeld
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Maschinenbau und Mechatronik
Institut für Kälte, Klima- und Umwelttechnik (IKKU)
Moltkestraße 30
76133 Karlsruhe
E-Mail: michael.kauffeld@hs-karlsruhe.de
Telefon: 0721 925-1843
Maschinenbau
Vakuum-Druck-Gießanlagen · Stranggießanlagen · Schmelzanlagen · Atomizer
Das Indutherm-Prinzip:
HAND IN HAND
... mit Anwendern aus der Praxis entwickeln wir unsere Metallgießanlagen.
... mit namhaften Universitäten und Instituten forschen wir an neuen Technologien.
... mit Servicepartnern in mehr als 50
Ländern unterstützen wir Industrie und
Forschung mit innovativer Gießtechnik.
Sägen. Lager. Mehr.
KASTO bietet mehr als hochproduktive Sägen und Lager für
Langgut und Blech: mehr Engagement, mehr Verantwortung,
mehr Ideen, mehr Innovation. Nur qualifizierte und engagierte
Mitarbeiter ermöglichen dies. Deshalb bieten wir unseren
Bewerbern ein vielseitiges, interessantes Tätigkeitsfeld mit
hervorragenden Entwicklungsmöglichkeiten.
Wo ist Ihre Hand?
Unsere können Sie
hier scannen...
Erwärmungsanlagen
75045 Walzbachtal · Telefon 07203/9218-0
www.indutherm.de/hand
62
| Forschung aktuell 2015
Mehr über das „Mehr“ unter
www.kasto.de
Maschinenbau
Ein neues makromechanisches Werkstoffmodell zur
Erklärung des Phänomens der ausgeprägten Streckgrenze mit Lüderseffekt
Rainer Schwab und Otto Ernst Bernhardi
Einleitung
Das typische, „normale“ Verhalten von Werkstoffen
ohne ausgeprägte Streckgrenze ist der sanfte Übergang vom elastischen in den elastisch-plastischen Bereich im Zugversuch. Im Gegensatz dazu weisen Werkstoffe mit ausgeprägter Streckgrenze einen abrupten
Übergang in den elastisch-plastischen Bereich auf.
Er äußert sich durch einen charakteristischen Kraftabfall, gefolgt von einem Bereich mit fast konstanter
Spannung. Im Bereich mit fast konstanter Spannung
verformt sich die Zugprobe nicht gleichmäßig plastisch, sondern inhomogen in Form von plastischen
Verformungsbändern (s. Punkte 1 bis 3 in Abb. 1).
Abb. 2: Verformungsmuster am Boden einer Sprühdose aus
feuerverzinntem Stahlblech
Abb. 1: plastisches Verhalten von Werkstoffen mit ausgeprägter
Streckgrenze im Zugversuch
Erst wenn sich die Verformungsbänder vollständig
durch den eigentlichen Prüfbereich der Zugprobe ausgebreitet haben, erfolgt die weitere plastische Verformung homogen mit der typischen Verfestigung, wie
sie bei vielen metallischen Werkstoffen auftritt. Die
plastischen Verformungsbänder wurden erstmals vor
mehr als 150 Jahren unabhängig von Piobert et al. [1]
und Lüders [2] beschrieben. Daher werden sie häufig
als Lüdersbänder bezeichnet. Sie erzeugen ein charakteristisches Oberflächenprofil in plastisch verformten Werkstücken und lassen sich in einigen Fällen gut
beobachten. Als Beispiel ist in Abbildung 2 der Boden
einer Sprühdose aus feuerverzinntem Stahlblech zu
sehen. Das Muster an der Oberfläche ist beim Umformen durch die inhomogene plastische Verformung in
Form von Lüdersbändern entstanden.
Bisweilen als Ausnahmeverhalten erachtet, tritt das
Phänomen der ausgeprägten Streckgrenze bei einer
überraschenden Vielzahl von Werkstoffen auf [3]: am
bekanntesten und bedeutendsten bei den oft verwendeten kohlenstoffarmen Baustählen, aber auch bei vielen
anderen Werkstoffen mit kubisch-raumzentrierter Struktur wie Wolfram, manchen Aluminium- und Kupferlegierungen, bestimmten ultrafeinkörnigen Werkstoffen und
sogar Gesteinen. Als Variante beobachtet man es bei
einigen Kunststoffen, Gedächtnislegierungen, zellulären und körnigen Materialien. Das wissenschaftliche
Verständnis des Phänomens der ausgeprägten Streckgrenze ist außerordentlich wichtig, weil man nur mit ihm
viele Erscheinungen und Probleme in der Praxis erklären
und Weiterentwicklungen gezielt vorantreiben kann.
Obwohl das Phänomen schon lange bekannt ist und
intensiv untersucht wurde, blieben viele Fragen offen:
• Was ist der eigentliche Grund für die ausgeprägte
Streckgrenze?
• Wodurch kommt die obere Streckgrenze zustande?
• Wie entsteht das Spannungsniveau an der unteren
Streckgrenze?
Überraschend ist, dass bei den meisten bisherigen
Erklärungen atomistische und mikromechanische Ansätze dominierten und der Aspekt der makromechanischen Vorgänge überwiegend unberücksichtigt blieb.
Forschung aktuell 2015 |
63
Maschinenbau
Das neue makromechanische Werkstoffmodell
Um das Phänomen der ausgeprägten Streckgrenze mit
Lüderseffekt konsistent zu erklären, wurde ein neues
makromechanisches Werkstoffmodell entwickelt [4].
Es basiert auf drei wesentlichen Punkten (s. Abb. 3):
• Die wirkliche, „wahre“ obere Streckgrenze (true upper yield strength ReH(tr)) ist viel höher als üblicherweise beobachtet.
• Das wirkliche, „wahre“ Werkstoffverhalten mit dem
Einsetzen der plastischen Verformung ist nicht das
beobachtete, sondern das „ganz normale“ mit „normaler“ Verfestigung, beginnend mit einer wahren
Streckgrenze ReL(tr).
• Das Spannungsniveau an der beobachteten unteren
Streckgrenze (observed lower yield strength ReL(obs))
ist überwiegend eine Folge des dreiachsigen Spannungszustands, der sich am Rand des Lüdersbands
(der Lüdersfront) entwickelt.
die schlichte Abwesenheit von (beweglichen) Versetzungen.
Warum sieht man die wahre untere Streckgrenze nicht
im Zugversuch? Dies liegt am dreiachsigen Spannungszustand, der sich zwangsläufig am Rand des Lüdersbands (an der Lüdersfront) entwickelt. Der noch
elastische Bereich der Probe wird quer zur Beanspruchungsrichtung unter Druckspannungen gesetzt, der
Rand des plastischen Bereichs unter Zugspannungen.
Analytische und numerische Rechnungen
Um das neue makromechanische Werkstoffmodell zu
bestätigen, wurde neben experimentellen Untersuchungen ein analytischer Ansatz entwickelt und numerische Rechnungen wurden durchgeführt. Details
sind in [4] beschrieben. Das wesentliche Ergebnis des
analytischen Ansatzes ist die Tatsache, dass sich die
beobachtete untere Streckgrenze ReL(obs) als dynamisches Spannungsgleichgewicht aus der wahren oberen und der wahren unteren Streckgrenze ergibt:
ReL(obs) =
2
2
ReH(tr) + √ReH(tr)
+ 8ReL(tr)
4
Mehrere hundert Finite-Elemente-Rechnungen mit
unterschiedlichen Geometrien und verschiedenen Parametern haben das neue Werkstoffmodell grundsätzlich bestätigt. Als Beispiel ist das Ergebnis der Simulation eines Zugversuchs in Abbildung 4 zu sehen.
Abb. 3: wahres und beobachtetes Werkstoffverhalten im Zugversuch an einem typischen Baustahl
Entscheidende Fragen und Überlegungen hierbei sind:
Warum wird die wahre obere Streckgrenze im üblichen
Zugversuch meist nicht gemessen? Dies liegt in erster
Linie an der nahezu nie ausreichend symmetrischen
Einspannung der Proben im Zugversuch. Selbst kleine
Abweichungen von wenigen hundertstel Millimetern
führen zu merklichen Biegespannungen in der Probe
mit Spannungsspitzen am Rand und vorzeitigem Fließbeginn. Auch Eigenspannungen in der Probe können
mitwirken.
Wie kommt die wahre obere Streckgrenze zustande?
Sie beruht grundsätzlich auf einer anfänglichen Behinderung der plastischen Verformung im Werkstoff.
Das kann ein Festhalten von Versetzungen durch
Kohlenstoff-, Stickstoff- und andere Atome sein oder
64
| Forschung aktuell 2015
Ausblick
Das makroskopische neue Werkstoffmodell beschreibt
das Phänomen der ausgeprägten Streckgrenze mit Lüderseffekt grundsätzlich richtig. Hiermit ist es erstmals
möglich, die plastische Verformung von Werkstoffen
mit ausgeprägter Streckgrenze korrekt in FEM-Rechnungen zu erfassen. Die Kombination dieses Modells
mit mikromechanischen Ansätzen und Experimenten
zeigt, dass die wahre obere Streckgrenze mit abnehmender Korngröße in Stählen viel stärker ansteigt als
die wahre untere Streckgrenze. Unterhalb einer bestimmten Korngröße kann es deswegen vorkommen,
dass die beobachtete untere Streckgrenze die Zugfestigkeit übersteigt. Dies führt zu einer speziellen Form
von plastischer Instabilität und damit geringer plastischer Verformbarkeit ultrafeinkörniger Stähle.
Literatur
[1] G. Piobert, A.J. Morin, I. Didion, Commission des
principes du tir de l‘école de Metz, Mémorial de
l‘Artillerie 5(1842), pp. 501–552.
[2] W. Lüders, Über die Äußerung der Elasticität an
stahlartigen Eisenstäben und Stahlstäben, und
Maschinenbau
0,02
0,04
0,06
0,08
0,014
0,016
0,018
1e
0,010
0,012
Spannungs-Dehnungsverlauf eines Integrationspunktes im Zentrum
der Probe (nicht an der
Oberfläche)
Äquivalente
plastische
Dehnung
Abb. 4: FEM-Simulation eines Zugversuchs an einem Stahl mit ausgeprägter Streckgrenze; neues Werkstoffmodell; statische Berechnung (implicit) mit ReH(tr) = 500 N/mm2 und ReL(tr) = 150 N/mm2
über eine beim Biegen solcher Stäbe beobachtete Molecularbewegung, Dinglers Polytechnisches
Journal, 155(1860), pp. 18–22.
[4] R. Schwab, V. Ruff, On the nature of the yield point
phenomenon, Acta Materialia 61 Heft 5(2013), pp.
1798–1808.
[3] E. O. Hall, Yield point phenomena in metals and
alloys, Macmillan, London 1970.
Abstract
The yield point phenomenon has been known to
occur in some steels and other materials for more
than 150 years now. In spite of many experimental
investigations and micromechanical approaches,
the phenomenon and the related Lüders effect
is still not fully understood. This contribution
describes a new macro mechanical model which
explains the Lüders effect consistently. Analytical
approaches, experimental results and numerical
calculations confirm the material model.
Zusammenfassung
Seit mehr als 150 Jahren ist das Phänomen der
ausgeprägten Streckgrenze in einigen Stählen und
anderen Werkstoffen bekannt. Trotz vieler experimenteller Untersuchungen und mikromechanischer Ansätze ist das Phänomen, insbesondere der
damit verbundene Lüderseffekt, nicht vollständig
verstanden. Der Beitrag beschreibt ein grundle-
gendes makromechanisches Werkstoffmodell, das
den Lüderseffekt konsistent erklärt. Analytische
Ansätze, experimentelle Ergebnisse und numerische Rechnungen bestätigen das Werkstoffmodell.
Autoren
Prof. Dr.-Ing. Rainer Schwab und
Prof. Dr.-Ing. Otto Ernst Bernhardi
Professoren an der Fakultät für Maschinenbau und
Mechatronik der Hochschule Karlsruhe
Kontakt
Prof. Dr.-Ing. Rainer Schwab
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Maschinenbau und Mechatronik
Moltkestraße 30
76133 Karlsruhe
E-Mail: rainer.schwab@hs-karlsruhe.de
Telefon: 0721 925-1902
Forschung aktuell 2015 |
65
Maschinenbau
Transport of bulk solids on a new type of vibratory conveyor
Christof Krülle
Introduction
Vibratory conveyors are commonly used for discharging, conveying, and distributing bulk materials in many
branches of industry, such as chemical or food processing, small-parts assembly mechanics, or in sugar
or oil refineries and foundries [1, 2, 3]. In addition to
transport, vibration can be utilized to screen, separate,
compact or loosen products. Open troughs are used for
conveying bulk materials, closed tubes for dust-sealed
goods, and work piece-specific rails for conveying
oriented parts. Considering the many parameters involved, the performance of a vibratory conveyor is difficult to predict theoretically. Obvious design parameters are: (i) vibration mode (linear, circular, or elliptic),
(ii) amplitude A and frequency f of the oscillations, (iii)
inclination or declination of the conveyor, (vi) and the
modulus of elasticity of the trough’s inner surface,
which can be coated with rubber, plastic, etc.
Three different principles of conveying can be distinguished:
Sliding: Here the deck is moved horizontally by a
crank-beam mechanism by means of asymmetric forward and backward motions. The material always remains in contact with the trough’s surface and is transported forward relative to the deck by a stick-slip drag
movement.
Throwing: If the vertical component of acceleration exceeds gravity, the material loses contact during part
of the conveying cycle and is repeatedly forced to perform ballistic flights. Complicated sequences of a rest
phase, a positive (or negative) sliding phase, and a
flight phase have to be considered. The net transport
in the forward (or even backward) direction depends
on the coefficient of friction between the particles and
the trough and on the coefficient of restitution for the
collision with the deck.
Ratcheting: Motivated by advances in the investigations of fluctuation-driven ratchets a new transport
mechanism has recently been proposed [4, 5]: horizontal transport of granular particles can be achieved
in a purely vertically vibrated system, if the symmetry
is broken by an asymmetric periodic sawtooth-shaped
profile of the base.
Since the transport phenomena on vibratory conveyors involve the nonlinear interaction of many-particle
66
| Forschung aktuell 2015
systems with complex behavior, the investigation of
their dynamic properties is a challenging subject. The
most important questions currently under investigation are: (i) How does the velocity of granular transport depend on external parameters of the drive like
the amplitude and frequency of the oscillation, the
vibration mode, or the inclination of the trough, and
internal bulk parameters like the coefficient of restitution, friction coefficients, and the filling height? (ii)
Are there segregation effects in bi-disperse or polydisperse systems? (iii) Could these results lead to
optimized industrial devices like conveyor systems,
metering devices, sieves, mixers, dryers, or coolers?
10 cm
1
2
3
4
5
Fig. 1: Annular vibratory conveyor: (1) torus-shaped vibrated
trough, (2) adjustable support, (3) elastic band, (4) driving
module with unbalanced masses, (5) electric motor
Experimental setup
To address these questions, a prototype annular conveyor system (see Fig. 1) has been constructed for long
systematic studies of the transport properties without
disturbing boundary conditions [6, 7]. A light-weight,
torus-shaped vibrating channel construction (carbon
fiber strengthened epoxy) with an average diameter
of 450 mm and a channel width of 50 mm is connected
with four symmetrically arranged rotating vibrators. In
Maschinenbau
matically with a PC based image processing system,
which detects the passage of the tracer through a line
perpendicular to the trough and stores each passage
time on a hard disk. Figure 3 shows the normalized
transport velocity n* = nr/Aw of a bulk solid on the vibratory conveyor driven by circular vibration as a function of the dimensionless machine number K = Aw2/g,
where g is the acceleration of gravity. Below a critical
value K | 0.4 the grains follow the agitation of the tray
without being transported. The onset of particle movements is hindered by frictional forces between grains
and the substrate. Above this threshold, the bulk velocity initially increases before reaching its first maximum of half the circulation speed Aw of the circular
motion for a machine number K = 1.1. Surprisingly,
increasing the excitation further leads to a deceleration of the granular flow, and even to a reversal of its
direction of motion in the range 2.6 < K < 4.0. This alternating behaviour repeats itself at still higher machine numbers. In contrast, an individual glass bead is
propagated in the same direction for all accelerations.
Normalized transport velocity v* = vtr/Aω
principle, this conveyor can be excited in all six degrees
of freedom individually, or in a combination of two of
them. The excitation is a result of the simultaneous
counter rotation of unbalanced masses, which are coupled with a gear as shown in Fig. 2(a). If two synchronously acting linear vibrators are oriented perpendicularly, then - through appropriate choice of the phase
shift j between the two - the shape of the vibration can
be chosen and numerous Lissajous figures (linear, circular, elliptic) can be produced (see Fig. 2(b)).
Fig. 2: (a) Driving module with four unbalanced masses, (b)
Side views for three principal modes of operation: linear (phase
shift j = 0), circular (j = p/2), and elliptic (j = p/4)
For the first experiments, a vibration mode was chosen
consisting of a torsional vibration around the symmetry axis of the apparatus, superposed with a vertical
oscillation. If, for example, the fixed phase shift j between these two perpendicular oscillations is chosen
to be p/2, then each point on the trough traces a circular path in a vertical plane tangent to the trough at that
point. In short, the support agitates the particles via
vertical circular vibration.
Results
For the transport experiments, the channel is loaded
with 450 g of carefully sieved glass beads with a mean
diameter of 1.1 mm. The layer thickness of the grains is
about five particle diameters. The average flow velocity is determined by tracking a colored tracer particle
that is carried along with the bulk. This is done auto-
0,4
Transport direction
0,2
0,0
-0,2
-0,4
-0,6
3
1
2
0
Machine number K = Aω2/g
4
5
6
7
bulk solid, vibration amplitude A = 0.5 mm
bulk solid, vibration amplitude A = 1.7 mm
single bead
Fig. 3: Non-dimensional transport velocity of a bulk solid consisting of five layers of glass beads on the vibratory conveyor
by circular vibration, compared with the mean velocity of a
single bead
Through the application of different unbalanced masses, the vibration amplitude A was varied between 0.5
and 2.4 mm. It was found that the transport velocity
increases linearly with the driving amplitude, whereas
the critical machine numbers, where the transport direction reverses, is independent of the oscillation amplitude, at least in the range K < 5.
In addition, it was found that the surface of the bulk
doesn’t always remain flat. The first appearance of
waves occurs at K | 2.4, where periodic maxima and
Forschung aktuell 2015 |
67
Maschinenbau
tal study of the transport of granular materials by
inclined vibratory conveyors, Powder Technology,
87, 1996, pp. 203–210.
[4] I. Derényi, P. Tegzes, T. Vicsek, Collective transport
in locally asymmetric periodic structures, Chaos,
8, 1998, pp. 657–664.
Fig. 4: Standing waves at the surface of the transported bulk
solid for machine number K = 2.4
minima are seen, quickly oscillating up and down (see
Fig. 4). In our system, because of the symmetry breaking caused by the circular drive of the vibratory conveyor, these surface waves travel and therefore influence the bulk velocity.
Conclusions
The vibratory conveyor presented is a prototype device
for systematic studies of the transport properties of
bulk solids on vibrating surfaces. For the first investigations, a vertical vibration was superimposed with a rotary oscillation around the vertical symmetry axis of the
annular channel and a ninety degree phase difference.
This induced the vertical, nearly level circular path for
each section of the channel. A non-monotonous relationship of the transport velocity to the non-dimensional acceleration K was found. For industrial applications,
the observed reversal effect is relevant as the direction
of granular flow can be selected by the frequency of
the excitation alone. One could employ such two-way
conveyors for example in larger cascading transport
systems as control elements to convey the material to
different processes as needed. In the near future, considerable trials measuring the transport and mixing
properties of bulk solids by diverse vibration adjustments are planned. In addition, this prototype conveyor
system can be used to study the long-time rheological
behaviour of other material classes in detail, such as
liquids, suspensions, slurries or slushes.
References
[1] G. Pajer, H. Kuhnt, F. Kuhnt, Fördertechnik –
Stetigförderer, VEB Verlag Technik, Berlin, 1988,
pp. 226–255.
[2] F.J.C. Rademacher, L. Ter Borg, On the theoretical
and experimental conveying speed of granular
solids on vibratory conveyors, Forschung im Ingenieurwesen, 60, 1994, pp. 261–283.
[3] E. M. Sloot, N.P. Kruyt, Theoretical and experimen-
68
| Forschung aktuell 2015
[5] Z. Farkas, P. Tegzes, A. Vukics, T. Vicsek, Transitions in the horizontal transport of vertically vibrated granular layers, Physical Review E, 60,
1999, pp. 7022–7031.
[6] M. Rouijaa, C. Krülle, I. Rehberg, R. Grochowski,
P. Walzel, Transportverhalten und Strukturbildung
granularer Materie auf Schwingförderern, Chemie
Ingenieur Technik, 76, 2004, pp. 62–65.
[7] R. Grochowski, P. Walzel, M. Rouijaa, C.A. Kruelle,
I. Rehberg, Reversing granular flow on a vibratory
conveyor, Applied Physics Letters, 84, 2004, pp.
1019–1021.
Maschinenbau
Zusammenfassung
Vibrations- oder Schwingförderer werden in der
industriellen Fertigung routinemäßig zum kontrollierten Transport von Schüttgütern eingesetzt.
Fördergüter wie z. B. Holzpellets, O-Ringe oder Kartoffelchips können dabei durch drei verschiedene
Mechanismen in die gewünschte Richtung bewegt
werden. Ziel des Projekts ist eine systematische
Untersuchung des Transportverhaltens in Abhängigkeit von drei prinzipiellen Schwingungsformen:
linear, zirkular und elliptisch. Für die industrielle
Anwendung ist relevant, dass es der kürzlich gefundene „Umkehreffekt“ erlaubt, die Bewegungsrichtung eines Schüttgutflusses allein durch die Frequenz der angeregten Schwingung zu selektieren.
Abstract
Vibratory conveyors are routinely used in industrial
production for controlled transportation of bulk solids. The transported goods, such as wood pellets,
o-rings, or potato chips, can be moved in the desired direction through three different mechanisms.
The goal of this project is a systematic investigation
of the dependence of the transport behavior on
three principle oscillation modes: linear, circular,
and elliptic. The recently observed “reversal effect”
is relevant for industrial applications as the direction of granular flow is selected solely through the
frequency of the induced vibrations.
Autor
Prof. Dr. rer. nat. habil. Christof Krülle
Professor in the Faculty of Mechanical Engineering and Mechatronics at Karlsruhe University of
Applied Sciences
Contact
Prof. Dr. rer. nat. habil. Christof Krülle
Karlsruhe University of Applied Sciences
Faculty of Mechanical Engineering and Mechatronics
Moltkestrasse 30
76133 Karlsruhe
Germany
e-mail: christof.kruelle@hs-karlsruhe.de
Wir bringen Sie in Position!
Mit unseren hochpräzisen Komponenten,
Einheiten und Systemen für alle Linear- und
Rundbewegungen in der Automatisierungstechnik und im Präzisionsmaschinenbau.
Alles aus einer Hand
+
+
+
+
+
+
Mechanische Komponenten
Motorische Präzisionsführungen
Rundtische
Komplettsysteme
Mehrachssysteme
Antriebs- und Steuerungstechnik
Föhrenbach GmbH
Lindenstraße 34 • D-79843 Löffingen-Unadingen
Tel. +49 (0)7707 159 0 • Fax +49 (0)7707 159 80
info@foehrenbach.com
www.foehrenbach.com
PRÄZISION • FLEXIBILITÄT • ZUVERLÄSSIGKEIT • DESIGN
Forschung aktuell 2015 |
69
Maschinenbau
Funkenerosive Fertigung von geometrisch definierten
Bohrungen – Untersuchung von Parametereinflüssen auf
die Geometrie und Produktivität
Matthias Risto und Rüdiger Haas
Einleitung
Bei der Fertigung von Bauteilen müssen häufig Formelemente wie z. B. Bohrungen eingebracht werden,
die geometrischen Spezifikationen unterliegen. Da
bei der Bohrerosion nahezu keine mechanischen
Kräfte auftreten, hat das Verfahren einen klaren
Vorteil gegenüber den spanenden Fertigungsverfahren in der Bearbeitung von harten oder zähen
Werkstoffen. Daher wird die Bohrerosion neben der
Fertigung von Startlochbohrungen, bei denen kaum
Anforderungen an die Geometrie bestehen, auch in
der Fertigung von Kühlbohrungen in Spritzgießwerkzeugen und Turbinenschaufeln eingesetzt. Hierbei
stellt die Bohrerosion eine Schlüsseltechnologie dar
und nimmt einen wichtigen Fertigungsschritt in der
Wertschöpfungskette ein. Im Rahmen der hier vorgestellten Arbeit wurde Technologiewissen für die
funkenerosive Fertigung von geometrisch definierten
Bohrungen erarbeitet.
Funkenerosion
Die Funkenerosion gehört nach [1] den thermischen
Abtragverfahren an und wird in die drei Verfahrensvarianten des funkenerosiven Senkens, Schneidens
sowie Schleifens gegliedert.[2] Der Abtrag findet in
einem isolierenden Arbeitsmedium, dem sogenannten Dielektrikum, statt. Aufgrund von stochastisch
auftretenden elektrischen Entladungen zwischen zwei
elektrisch leitfähigen Werkstoffen kommt es zu einem kontinuierlichen Abtrag. Prinzipiell können alle
Werkstoffe bearbeitet werden, die eine elektrische
Mindestleitfähigkeit aufweisen. Die Bohrerosion wird
als abbildendes Fertigungsverfahren der Senkerosion
zugeordnet. Hierbei wird eine rotationssymmetrische,
rotierende Werkzeugelektrode verwendet, um Bohrungen in einem Werkstück zu erzeugen. Allerdings
bestehen grundlegende Unterschiede zur Senkerosion. Unter anderem erfordern die hohe thermische Belastung der Werkzeugelektrode und die großen Bohrtiefen eine aktive Druckspülung durch das Innere der
Elektrode, um das Werkzeug zu kühlen und die Abtragpartikel aus dem Funkenspalt zu spülen. Demgegenüber wird bei der Senkerosion der Funkenspalt meist
durch eine Abhebebewegung der Elektrode gespült.
Weiterhin ist in der Bohrerosion eine gewisse elekt-
70
| Forschung aktuell 2015
rische Leitfähigkeit des Arbeitsmediums gewünscht.
Dies führt zu einem größeren Funkenspalt und nach [3]
zu besseren Spülbedingungen. Kenntnisse der Senkerosion lassen sich daher nur bedingt auf die Bohrerosion übertragen.
Versuchsrandbedingungen
Im Rahmen des Projekts wurde ein definierter Bohrungsdurchmesser von DB = 2 mm gefertigt. Die Versuche wurden an einer Bohrerodiermaschine der
bes-Funkenerosion GmbH durchgeführt. Als Versuchswerkstück wurde der Kaltarbeitsstahl X153CrVMo12-1
(DIN 1.2379) verwendet. Der Werkstoff zeichnet sich
aufgrund des hohen Volumengehalts harter Karbide im
Gefüge durch einen hohen Widerstand gegen abrasiven
und adhäsiven Verschleiß aus.[4] Da die typischen Einsatzgebiete dieses Werkstoffs nach [5] in der Fertigung
von Spritzgießwerkzeugen sowie Schneid- und Stanzwerkzeugen liegen, bietet er sich als Versuchswerkstück an. Als Werkzeugelektrode wurden 620 mm lange
Kupferelektroden mit vier Spülkanälen (Typ-B) verwendet (s. Abb. 1).
Abb. 1: Elektrodenquerschnitt: Typ-B (links), Typ-D (rechts)
Der Elektrodendurchmesser wurde von DE = 1,6 mm
bis DE = 1,9 mm in 0,1 mm Schritten variiert. Alle
Versuche wurden in dem auf Wasser basierenden
Dielektrikum IonoVit S der oelheld GmbH durchgeführt. Der Kostenaufwand wurde aus der Summe der
Maschinenkosten, den Personal- und Materialkosten
gebildet (s. Tab. 1) und ist von dem erzielbaren Vorschub und dem relativen Längenverschleiß der Elektrode abhängig. Ein Elektrodenwechsel wurde mit
drei Minuten berücksichtigt. Als Bohrtiefe wurden
20 mm festgelegt.
Maschinenbau
Position
Einheit
Betrag
Maschinenstundensatz
[€/h]
41
Raumstundensatz
[€/h]
2,25
Personalstundensatz
[€/h]
40
Elektrodeneinzelkosten
[€/WKZ]
4,8
verzichtet, da dies erfahrungsgemäß zu einer Gratbildung am Bohrungseintritt führt.
Tab. 1: Randbedingungen für die Berechnung der Gesamtproduktivität
Ergebnisse
Der Soll-Bohrungsdurchmesser von DB = 2 mm konnte
mit allen Elektrodendurchmessern realisiert werden.
Die Kombinationen für den Entladestrom und die Entladedauer sind in Abbildung 2 zu sehen.
60
A
Bohrungsdurchmesser DB= 2 mm = const.
50
45
40
25
20
0,06
15
10
60
100
0
Entladedauer te
150
Versuchsparameter
1.2379
Wst:
Wkz:
Kupfer
B
Wkz-Typ:
negativ
Wkz-Pol.:
Dielektrikum: IonoVit S
Uz [V]:
70
Ƭ [%]:
80
q [l/h]:
variabel
GAP [-]:
20
K [-]:
15
200
250
300
350
DE 1,9
DE 1,8
DE 1,6
DE 1,7
Lösungsfeld
Abb. 2: Lösungsfeld für den Entladestrom und die Entladedauer
zur Fertigung eines Bohrungsdurchmessers von DB = 2 mm mit
vier unterschiedlichen Elektrodendurchmessern
Mit dem Elektrodendurchmesser von DE = 1,9 mm wurde lediglich eine Parameterkombination erarbeitet.
Mit geringerer Entladedauer bei gleichzeitig höherem
Entladestrom können aufgrund der Stromanstiegszeit
keine ausgeprägten Rechteckimpulse gewährleistet
werden. Bei Entladeströmen unterhalb von 10 A konnte
kein produktiver Bohrprozess erzielt werden. Entsprechend wurde auch für den Elektrodendurchmesser von
DE = 1,6 mm nur eine Parameterkombination erarbeitet. Die Höhe des Entladestroms von ie = 55 A stellt
den maximal möglichen Entladestrom des Generators
dar. Auf eine weitere Steigerung der Entladedauer, bei
gleichzeitiger Reduzierung des Entladestroms, wurde
Zylindrizitätsabweichung tZ in mm
Entladestrom ie
35
30
Der geforderte Bohrungsdurchmesser von DE = 2 mm
konnte unter Verwendung eines Elektrodendurchmessers von DE = 1,7 mm und DE = 1,8 mm über verschiedene Einstellungen der elektrischen Einflussparameter
erzielt werden. Die unterschiedlichen Einstellungen
der Parameterkombinationen führten zu unterschiedlich starker Ausprägung der Zylindrizitätsabweichung
(s. Abb. 3). Mit steigender Entladedauer – bei gleichzeitig abnehmendem Entladestrom – war ein Trend zu
einer größeren Zylindrizitätsabweichung festzustellen. Dies lässt sich darauf zurückführen, dass mit dem
Durchbruch der Elektrode durch das Werkstück beide
nicht länger durch das Dielektrikum voneinander isoliert sind. Der Erosionsprozess findet vielmehr an der
Luft statt. Im Gegensatz zu flüssigen Dielektrika fehlt
bei gasförmigen Dielektrika die Einschnürungswirkung auf den Plasmakanal.[6] Dadurch breiten sich
die Plasmakanalfußpunkte mit höherer Entladedauer stärker aus und die Tiefe der Einzelentladekrater
nimmt ab, was zu einer größeren Differenz zwischen
Bohrungseintritts- und -austrittsdurchmesser führt.
0,05
0,04
0,03
1
2
Parameterkombination PK
Versuchsparameter
PK:
1
2
3
DE[mm]: 1,7 = const.
ie-[A]: 52 40 31
te[μs]: 100 200 300
q[l/h]: 10 = const.
K[-]:
15 = const.
3
Mittelwert
Mittelwert +/- Stdabw.
Abb. 3: Zylindrizitätsabweichung in Abhängigkeit unterschiedlicher Parameterkombinationen für den Entladestrom und die
Entladedauer
Mit größerem Elektrodendurchmesser verringert sich
auch die in den Bohrprozess einzukoppelnde Entladeenergie. Daraus ergibt sich eine geringere laterale
Spaltweite und eine kleinere Zylindrizitätsabweichung
in Abhängigkeit des verwendeten Elektrodendurchmessers (s. Abb. 4).
Forschung aktuell 2015 |
71
Maschinenbau
Zylindrizitätsabweichung tZ in mm
0,10
produktivität ähnlich dem Elektrodendurchmesser von
DE = 1,8 mm erzielt werden. Dies lässt sich auf höhere
Druckverluste und der daraus resultierenden mangelnden Spülung bei Typ-B-Elektroden, verglichen mit Typ-DElektroden, zurückführen. Dadurch wird der Arbeitsspalt
nur unzureichend dekontaminiert, was zu einem vergleichsweise geringen Vorschub bei gleichzeitig hohem
relativen Längenverschleiß führt. Die Verwendung eines
Elektrodendurchmessers von DE = 1,9 mm führt zu der geringsten Zylindrizitätsabweichung der Bohrung, jedoch
auch zu einem sehr geringen Vorschub und dadurch zu
einer geringen Gesamtproduktivität. Diese ist durch die
geringe eingekoppelte Entladeenergie bedingt.
0,06
0,06
0,04
0,02
0
1,6
1,8
1,7
1,9
Elektrodendurchmesser DE in mm
Versuchsparameter
DE[mm]: 1,6 1,7 1,8
ie[A]:
55 52 21
te[μs]: 400 150 100
q[l/h]: 10 10 12
K[-]:
35 80 15
1,9
18
20
7
5
Mittelwert
Mittelwert +/- Stdabw.
Abb. 4: Zylindrizitätsabweichung in Abhängigkeit des verwendeten Elektrodendurchmessers
Die Gesamtproduktivität wurde aus dem Verhältnis
von Bohrungsanzahl (Output) zu Kostenaufwand (Input) berechnet. Mit einem Elektrodendurchmesser
von DE = 1,7 mm konnte unter den gegebenen Randbedingungen die größte Gesamtproduktivität erzielt
werden (s. Abb. 5).
Fazit
Ein gegebener Soll-Bohrungsdurchmesser kann mit
unterschiedlichen Elektrodendurchmessern gefertigt
werden. Steht die Zylinderform der Bohrung im Vordergrund, sollte ein möglichst großer Elektrodendurchmesser verwendet werden. Ist eine hohe Gesamtproduktivität zu erzielen und die Zylinderform als sekundäre
Zielgröße zu betrachten, kann ein kleinerer Elektrodendurchmesser gewählt werden. Sind mehrere Parameterkombinationen für den Entladestrom und die Entladedauer für einen Elektrodendurchmesser möglich, ist
ein höherer Entladestrom einer höheren Entladedauer
vorzuziehen, um eine möglichst geringe Zylindrizitätsabweichung zu erzielen.
2,0
Literatur
[1] DIN 8580, Fertigungsverfahren – Begriffe, Einteilung, Beuth Verlag GmbH Berlin, 2003.
Gesamtproduktivität
n
€
[2] VDI-Richtlinie 3400, Elektroerosive Bearbeitung
– Begriffe, Verfahren, Anwendung, Beuth Verlag
GmbH Berlin, 1975.
1,0
0,5
0
0
50
100
150
200
250
300
n
400
[3] A. Karden, Funkenerosive Senkbearbeitung mit
leistungssteigernden Elektrodenwerkstoffen und
Arbeitsmedien, Dissertation, RWTH Aachen, 2000.
Anzahl Bohrungen
Versuchsparameter
DE[mm]: 1,6 1,7 1,8
55 52 21
ie[A]:
te[μs]: 400 150 100
q[l/h]: 10 10 12
K[-]:
35 80 15
1,9
18
20
7
5
DE 1,6
DE1,8
DE 1,7
DE 1,9
Abb. 5: Gesamtproduktivität in Abhängigkeit der Bohrungsanzahl für die vier verwendeten Elektrodendurchmesser
Dies ergibt sich aufgrund des hohen Vorschubs bei
gleichzeitig geringem relativen Längenverschleiß von
unter 100%. Mit einem Elektrodendurchmesser von
DE = 1,6 mm konnte trotz höherer Entladeenergie, verglichen mit der 1,7-mm-Elektrode, nur eine Gesamt-
72
| Forschung aktuell 2015
[4] Dörrenberg Edelstahl, Datenblatt 1.2379 (X153CrMoV12), Hg. v. Dörrenberg Edelstahl, zuletzt geprüft am 24.09.2014.
[5] D. Nuetzel, Th. Hartmann, Nickel-Eisen Hartlotfolien mit Schmelztemperaturen < 1000 °C, in: Proceedings of the 8th international Conference on
Brazing, High Temperature Brazing and Diffusion
Bonding, 2007.
[6] F.-J. Siebers, Funkenerosives Senken mit wässrigen
Arbeitsmedien – Grundlagen, Technologie und Wirtschaftlichkeit, Dissertation, RWTH Aachen, 1993.
Maschinenbau
JS GmbH
Abstract
The aim of the project was the accurate and
efficient manufacturing of a specified borehole diameter using electrical discharge drilling. The advantage of electrical discharge drilling, compared
to conventional manufacturing methods, is that
the hardness or toughness of the material is irrelevant. Different diameters and machining settings
were used for the manufacturing of the borehole
diameter. The influence of the diameter of the tool
and the machining settings on the geometry of the
borehole and the productivity are shown.
ɵ REFERENZSYSTEME
ɵ ROTIERSPINDELN
ɵ RUNDTEILTISCHE
EINE STARKE
VERBINDUNG
Zusammenfassung
Das Ziel des Projektes bestand darin, einen
vorgegebenen Bohrungsdurchmesser mithilfe der
Bohrerosion möglichst genau und produktiv zu
fertigen. Der Vorteil der Bohrerosion gegenüber
konventionellen Fertigungsverfahren besteht
darin, dass die Härte oder Zähigkeit des Werkstoffs
keine Rolle spielt. Für die Fertigung des Bohrungsdurchmessers wurden unterschiedliche Werkzeugdurchmesser und Maschineneinstellungen
verwendet. Es wird aufgezeigt, wie sich die Wahl
des Werkzeugdurchmessers und der Maschineneinstellungen auf die Geometrie der Bohrung und
die Produktivität auswirken kann.
Autoren
Matthias Risto M.Sc.
Akademischer Mitarbeiter am Institute of Materials
and Processes (IMP) der Hochschule Karlsruhe
Prof. Dr.-Ing. Rüdiger Haas
Professor an der Fakultät für Maschinenbau und
Mechatronik und Geschäftsführender Direktor des
Institute of Materials and Processes (IMP)
Kontakt
Matthias Risto M.Sc.
Hochschule Karlsruhe – Technik und Wirtschaft
Institute of Materials and Processes (IMP)
Abteilung Fertigung und Produktion
Moltkestraße 30
76133 Karlsruhe
E-Mail: matthias.risto@hs-karlsruhe.de
Telefon: 0721 925-2143
Ein- und mehrachsige Rundteiltische
sowie Rotierspindeln gepaart mit
hochpräzisen Spannmitteln:
Eine starke Verbindung für innovative
Fertigungsverfahren in der Funkenerosion und Laserbearbeitung.
Für Draht-/Senkerodiermaschinen,
HSC-, Fräsmaschinen, Bearbeitungszentren, Messmaschinen
Forschung aktuell 2015 |
73
www.hirschmanngmbh.com
www.js-hirschmann.com
Schlaglichter
Thermozyklisch betriebene Metalloxidgassensorarrays zur
Brandfrüherkennung
Jens Knoblauch, Navas Illyaskutty und Heinz Kohler
Einführung
Metalloxidgassensoren sind chemoresistive Sensoren,
deren Leitwert sehr empfindlich auf Änderungen der
umgebenden Gasatmosphäre reagiert. Wegen ihrer
hohen Sensitivität bei vergleichsweise geringen Kosten finden sie klassische Anwendungen in der Luftgüteüberwachung oder Leckagedetektion. Aufgrund ihrer
geringen Selektivität sind jedoch die möglichen Anwendungsfelder stark eingeschränkt. Um diesen Nachteil auszugleichen, werden am Institut für Sensorik und
Informationssysteme (ISIS) der Hochschule Karlsruhe
zwei Lösungsansätze verfolgt. Anstatt wie bisher üblich
den Sensor bei einer fixen Betriebstemperatur zu betreiben, wird die Temperatur zyklisch zwischen festgelegten Temperaturgrenzen in einem Dreieckprofil variiert.
Durch kontinuierliches Aufzeichnen des Leitwerts über
einen Zyklus ergibt sich ein sogenanntes Leitwert-ZeitProfil (LZP), das spezifische Merkmale für die vorliegende Gasatmosphäre zeigt [1]. Da diese Merkmalsausbildung von der verwendeten sensitiven Schicht abhängt,
lässt sich die Menge an gewonnen Informationen durch
Kombination mehrerer unterschiedlicher Schichten zu
einem Sensorarray erhöhen. Die Interdigitalelektroden werden in Dünnschichttechnik (PVD) metallisiert,
anschließend werden in Dickschichttechnik die sensitiven Schichten (s. Abb.1) aufgebracht. Zur Charakterisierung des Arrays stehen diverse Untersuchungen zur
Verfügung: thermische Analyse mittels IR-Mikroskop,
Schichtdickenbestimmung mittels konfokaler Mikroskopie und Elektronenmikroskopaufnahmen zur Mikrostrukturbestimmung.
Applikation
Aufgrund der erhöhten Selektivität durch die thermozyklische Betriebsweise eines Sensorarrays eignen sich
die Sensoren beispielsweise zur Brandfrüherkennung.
Klassische Branderkennungssysteme nutzen z. B. oft
Lufttrübungssensorik zur Detektion von Rauch. Typischerweise entsteht dieser jedoch erst bei einem offenen Feuer. Schwelbrände oder Kabelbrände in der
Entstehungsphase könnten also, wenn man die dabei
entstehenden Gase detektiert, bereits in einem früheren Stadium erkannt werden, bevor es zu Rauchbildung kommt. Im aktuellen Forschungsprojekt wird die
Reaktion des Sensorarrays auf diese indikativen Gase
von Kabelbränden im frühen Stadium untersucht, um
charakteristische LZP-Strukturen zu finden, mit denen
Abb. 1: Sensorarray (links oben); Falschfarben-Darstellung mit
IR-Kamera (rechts oben); Konfokalmikroskopaufnahme zur
Schichtdickenbestimmung (links unten); SEM-Aufnahme einer
Sensorschicht (rechts unten, in Kooperation mit dem Institut
für Funktionale Grenzflächen des Karlsruher Instituts für Technologie (KIT) Campus Nord)
Abb. 2: Kabelprobe (oben) bei 14 A Belastung sowie (unten) die
gemessene LZP der entstehenden Gaskompositionen
Forschung aktuell 2015 |
75
Schlaglichter
die sichere Detektion unabhängig von Störeinflüssen
möglich ist. Zu diesem Zweck wurde ein Messaufbau
konstruiert, der es erlaubt, Kabelproben definiert zu
überhitzen oder mit elektrischen Strömen zu überlasten und die entstehenden Emissionen auf die Sensoren
zu leiten.
500
450
400
0,8
Temp
0,6
350
300
250
200
150
0,4
0,2
0,0
0 20
Time/s
40
60
100
50
0
80 100 120 140 160 180
+Pd(1%)
pure SnO2
+ZnO(1%)
+Pt(1%)
Temperature/C°
normalized Conductance
1,0
Current Excitation 16 A
rel. Concentration 50%
Abb. 3: Kabelprobe (oben) bei 16 A Belastung sowie (unten) die
gemessene LZP der entstehenden Gaskompositionen
Zwei LZP-Aufnahmen des Sensorarrays aus einem
Überlastungsexperiment sind in Abbildung 2 und 3 zu
sehen. Diese zeigen eine Kabelprobe (PVC-Isolation,
zugelassen für max. 2 A) bei Belastung mit elektrischen Strömen von 14 A und 16 A. Während bei 14 A ein
leichtes Verfärben beobachtet werden kann, kommt
es bei 16 A bereits zu starker Degeneration der Polymerschicht. Vergleicht man diese Beobachtungen mit
den zugehörigen Sensorsignalen, zeigen sich die in
Abbildung 2 und 3 dargestellten LZP. Hier wurde der
Leitwert zur besseren Vergleichbarkeit der Schichtmaterialien normiert, um den Fokus auf die Profilform
zu legen. Beide Szenarien führen zu einem deutlichen
Anstieg des Sensorsignals, jedoch unterscheiden sich
die beobachteten Profile stark. Es ist zu erwarten, dass
beim Erhitzen des Kabels zuerst vorhandene, leicht
flüchtige Stoffe (z. B. Weichmacher) entweichen, bevor es zu einer Zersetzung des Polymers kommt. Diese
Unterschiede schlagen sich deutlich in unterschiedlichen Profilformen der LZP nieder. Durch Kalibrieren
76
| Forschung aktuell 2015
kann ein Sensorsystem zur Detektion dieser Pyrolysegase ertüchtigt werden, um frühzeitig bei Kabelüberlastungen z. B. in Kabelschränken zu alarmieren. Zur
Analyse derartiger Sensorsignale wurden in Kooperation mit dem Institut für Angewandte Informatik (IAI)
des KIT (Campus Nord) die zugehörigen numerischen
Algorithmen [2] entwickelt, die neben der Gasidentifikation auch eine quantitative Analyse erlauben.
Aussicht
Vorläufige Pyrolyseversuche ergaben eine gute Sensitivität der ausgewählten Sensorschichten auf Emissionen von überlasteten und überhitzten Litzen. In
weiteren Experimenten muss nun die optimale Sensorschichtenkombination für die gewählte Anwendung
gefunden werden, die nicht nur gute Sensitivitäten und
eindeutige Profilformen, sondern auch robuste Ergebnisse bei Störeinwirkungen liefert. Auch soll untersucht
werden, wie sich komplexere Kabelmaterialien wie z. B.
mehrlagige Kabelisolationen unter den beschriebenen
Bedingungen verhalten. In einem BMBF-Förderprojekt
im Verbund mit dem IAI und zwei Unternehmen wird
bereits an einer Multisensorplattform gearbeitet, die
gegen Projektende bereits erste Tests in Schaltschränken oder ähnlichen Umgebungen außerhalb des Labors
erlauben soll.
Literatur
[1] K. Frank, V. Magapu, V. Schindler, H. Kohler, H.B.
Keller, R. Seifert, Chemical analysis with tin oxide
gas sensors: choice of additives, method of operation and analysis of numeric signal, 7th East Asian
Conference on Chemical Sensors, Dec. 3–5, 2007,
Singapore, SENSOR LETTERS 6(2008), p. 908–911.
[2] J. Knoblauch, N. Illyaskutty, H. Kohler et al., Sensor System Applying Thermally Modulated MOG
for Early Detection of Fires in Electrical Cabinets,
in: Universität Duisburg-Essen (Hg.), Proceedings
of the 15th International Conference on Automatic
Fire Detection, Vol. 2, 2014, S. 105–112.
[3] R. Seifert, H.B. Keller, K. Frank, H. Kohler, ProSens
– an Efficient Mathematical Procedure for Calibration and Evaluation of Tin Oxide Gas Sensor Data,
Sensor Letters, Vol. 9/1, 7–10, 2011.
Investieren in
die Zukunft.
Verlag für Marketing
und Kommunikation
www.vmk-verlag.de
Ideen
Ihre Partner
für Publikationen
GmbH & Co. KG
Faberstraße 17 | 67590 Monsheim
[fon]
++49.(0)6243.909.0
[fax]
++49.(0)6243.909.400
[mail] info@vmk-verlag.de
[web] www.vmk-verlag.de
Kompetenz
Erfahrung
Drucksachen aller Art
Faber
aber
b rstraß
ber
straße
straß
e1
17 | 6759
590 Monsheim
Monsheim
Mo
im
[fon]
fo
fon]
++49.
4 9. (0
(0)6
0)62
0)
)62
62 43.90
3.909.110
9.
9.110
[fax]
[fax
fax]
fa
ax]
x]]
++49
++49.
4 (0)
(0)62
(0)6
(0
243.90
43
43.90
9.100
[maill ] info@
fo@
o@vm
vmk-d
vmk
v
k-d rucke
c rei.d
de
[web]
web]
eb]
b ] www.v
www. v m k-dr ucker
uckerei.de
ei.de
.de
Ideen haben kann ich überall.
Realisieren kann ich sie hier.
e und
S tu d ie re n d
/b so lv en te n
la
u
h
sc
H o ch
t
ch
u
es
g
en
n
ab so lv en tin
Menschen mit Pioniergeist und Leidenschaft
haben E.G.O. international und über Branchengrenzen hinweg zu einem technologischen
Impulsgeber gemacht. Lust, diese Tradition
noch im Studium fortzusetzen? Ihrem Talent,
den Freiraum und die Unterstützung zu gönnen,
die es zum Entfalten braucht? Dann tun Sie
es einfach: im Rahmen eines Praktikums, ihrer
Werkstudententätigkeit oder Ihrer Abschlussarbeit. www.egoproducts.com/karriere
Schlaglichter
Abstract
The article is about investigation of a metal-oxide
gas sensor array, prepared for early detection of
overloaded electrical cables. The chip, which has
four different gas sensitive layers, is operated
thermo cyclically. A setup for generation of pyrolysis
gases is described. From the resulting conductanceover-time-profiles at pyrolysis gas exposure and numerical analysis, pyrolysis gases can be identified
in an early stage. This enables fire alarms or cut-offs
before a colour change of the cables is visible.
Zusammenfassung
Der Artikel befasst sich mit einem Metalloxid-Gassensorarray zur Früherkennung von überlasteten
elektrischen Kabeln. Dieser besteht aus vier unterschiedlichen gassensitiven Wirkschichten auf einem thermozyklisch geheizten Chip. Ein Aufbau zur
experimentellen Simulation der Pyrolysegase und
zur Begasung des Sensorarrays wird vorgestellt.
Anhand der Leitwertzeitprofile und deren numerischer Analyse werden die aus der Isolation entweichenden Pyrolysegase frühzeitig identifiziert, was
die Auslösung eines Alarms oder die Abschaltung
der Anlage ermöglicht, noch bevor eine Verfärbung
der Isolationsmaterialien zu beobachten ist.
Autor
Jens Knoblauch M.Eng.
Akademischer Mitarbeiter am Institut für Sensorik
und Informationssysteme (ISIS) der Hochschule
Karlsruhe
Dr. Navas Illyaskutty
Akademischer Mitarbeiter am ISIS der Hochschule
Karlsruhe
Prof. Dr. Heinz Kohler
Professor an der Fakultät für Elektro- und Informationstechnik der Hochschule Karlsruhe und
Sprecher des ISIS
Kontakt
Prof. Dr. Heinz Kohler
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Elektro- und Informationstechnik
Moltkestraße 30
76133 Karlsruhe
E-Mail: heinz.kohler@hs-karlsruhe.de
Telefon: 0721 925-1282
78
| Forschung aktuell 2015
$OV0HQVFKÀHOPLUGHU(LQVWLHJGXUFK
SHUV|QOLFKH(LQDUEHLWXQJOHLFKW
3$7(1ʫ
ʫ3$7(17(
Als Mitarbeiterin inspiriert mich das innovative
Umfeld, in dem fast täglich ein neues Patent entsteht.
Das ist meine Formel für Zufriedenheit.
People for Process Automation
Endress+Hauser ist ein international führender Anbieter
von Messgeräten, Dienstleistungen und Lösungen für die
industrielle Verfahrenstechnik. Eine Mitarbeit bei uns verbindet immer zwei Seiten: die technische plus die menschliche. Das Ergebnis: ein Mehr an Zufriedenheit. Jeden Tag.
,QIRUPLHUHQʫʫ%HZHUEHQJHKWDPHLQIDFKVWHQXQWHU
www.endress.com/karriere
Endress+Hauser GmbH+Co. KG
Katrin Schmidt / Melanie Stock
Hauptstraße 1
79689 Maulburg
Tel. +49 7622 28 3000
Schlaglichter
Berücksichtigung von Produkttechnologiesprüngen in der
Planung von Produktionssystemen
Claas Christian Wuttke und Stefan Haas
Problemstellung
Gerade die für Deutschland so wichtigen High-Tech-Industrien sind einem stetig beschleunigtem technologischen Wandel unterworfen. Aus makroskopischer Sicht
wird durch kontinuierliche Innovationen die Wettbewerbsfähigkeit dieser Branchen gesichert. Notwendig
dazu sind Technologiesprünge: Lässt sich die Leistungsfähigkeit einer Technologie trotz erheblicher Investition in ihre Weiterentwicklung nicht mehr steigern,
so wird der Wechsel auf eine Zukunftsstrategie angestrebt. Deren Leistungsfähigkeit hat aber häufig noch
nicht das Niveau der abzulösenden Basistechnologie
erreicht, benötigt noch erhebliche Investitionen in die
Entwicklung und/oder es fehlen noch die technischen,
wirtschaftlichen oder rechtlichen Rahmenbedingungen für einen wirtschaftlichen Einsatz. Selbst wenn ein
Technologiewechsel als sicher angenommen werden
kann, bereitet der unklare Zeitpunkt des absehbaren
Technologiesprungs besonders bei der Gestaltung von
Produktionssystemen erhebliche Probleme.
Handlungsbedarf
Typische Beispiele für diese Problematik finden sich
u. a. in der Automobilindustrie: Es besteht wenig Zweifel daran, dass zukünftige Fahrzeuge einen sehr hohen
Anteil an Leichtbauteilen aufweisen [1] und elektrisch
angetrieben sein werden [2]. Auch an der Mensch/Maschine-Schnittstelle (Cockpit) sowie der Kommunikation der Fahrzeuge mit ihrer Umgebung bis hin zum autonomen Fahren sind deutliche Technologiesprünge zu
erwarten. Während aber die Innovationen im Cockpit
sowie in der Kommunikation für den Nutzer sehr große
Veränderungen mit sich bringen, ist zu erwarten, dass
ihr Einfluss auf die Produktionssysteme begrenzt bleiben wird. Hier werden vorwiegend bewährte Montageverfahren und gegebenenfalls neue Prüfeinrichtungen
zum Einsatz kommen. Ganz anders liegt der Fall bei den
neuen Karosserie-Antriebstechnologien: Leichtbauteile aus Faserverbundwerkstoffen werden grundsätzlich
mit anderen Fertigungsverfahren hergestellt als Blechteile. Des Weiteren ist auch klar, dass Elektromotoren
grundverschiedene Fertigungsverfahren benötigen als
Verbrennungsmotoren. Weil sowohl die Beschaffung
hochwertiger Produktionsanlagen, deren Anordnung
in spezifisch ausgestatteten Fabrikhallen, aber auch
die Einstellung und Ausbildung von qualifiziertem Personal langfristige Entscheidungen sind, müssen wegen
der zunehmenden Innovationsgeschwindigkeit schon
bei den ersten Planungen zukünftige Technologiesprünge berücksichtigt werden. Da der Bedarf an Zeit
und Mitteln für die Anpassung von Produktionssystemen auf neue Technologien die Wettbewerbsfähigkeit
der Unternehmen erheblich beeinflusst, müssen diese
schon direkt so ausgelegt werden, dass sie schnell und
mit geringem Aufwand angepasst werden können; sie
müssen also über die typische Stückzahl- und TypenFlexibilität hinaus wandlungsfähig sein.
Lösungsansatz
Der Ansatz, Produktionssysteme wandlungsfähig zu gestalten, ist keinesfalls neu.[3, 4] Das Innovative des im
Folgenden vorgestellten Vorgehens beruht darauf, die
notwendige Wandlungsfähigkeit eines neuen Produktionssystems bereits im Produktentwicklungsprozess zu
berücksichtigen.[5] Dazu sind fünf Schritte notwendig,
die Abbildung 1 entnommen werden können:
1. die Wandlungstreiber, also die Ursachen für den
Wandlungsbedarf, sind zu identifizieren und
2. daraus sind Vorgaben für die Entwicklung des Produkts sowie der Fertigungsprozesse abzuleiten.
Diese ersten beiden Schritte verlangen spezifisches Methodenwissen und können zu unternehmensinternen Zielkonflikten führen, sodass sie
von einer zentralen Stelle, z. B. einem Wandlungsfähigkeitsteam, umgesetzt werden müssen. Anschließend werden dann
Strategische Ebene
1
Wandlungstreiber analysieren
Quality Gate
2
3
4
5
Fragenkatalog
Entwicklungsvorgaben ableiten
Quality Gate
Passendes Produkt- und
Prozesskonzept entwickeln
Quality Gate
Technisches Maßnahmen aus
den Konzepten ableiten
Quality Gate
Fragenkatalog
Fragenkatalog
Fragenkatalog
Maßnahmen im PEP umsetzen
...
Quality Gate
Fragenkatalog
Operative Ebene
Abb. 1: Herleitung von Maßnahmen zur Erreichung der Wandlungsfähigkeit
Forschung aktuell 2015 |
79
Schlaglichter
5. unter gegenseitiger Validierung in die jeweilige
Planung umgesetzt. Vorschläge für die konkreten
Fragekataloge können [6] entnommen werden.
Umsetzung
Zur erfolgreichen Umsetzung des oben beschriebenen Ansatzes sind zwei Voraussetzungen zu erfüllen:
Erstens muss die Wandlungsfähigkeit von Produkten
und Produktionssystemen als Unternehmensziel definiert und über die Zielentwicklung in die Abteilungen
gebracht werden. Unterstützt wird die Zielerreichung
durch eine Stabsstelle mit spezialisierten Fachleuten. Hier kann nicht nur das notwendige methodische
Know-how gebündelt, sondern auch unternehmensinternen Zielkonflikten vorgebeugt werden. Diese Vorgehensweise hat sich bei der Einführung von Initiativen
zur Corporate Social Responsibility, Corporate Governance oder auch von Lean-Strategien etc. bewährt.
Die zweite Voraussetzung für die Berücksichtigung
von Technologiesprüngen in der Planung von Produktionssystemen liegt in der Integration der bereits oben
genannten fünf Schritte zur Erreichung wandlungsfähiger Produkte und Produktionssysteme im Produktentstehungsprozess. Abbildung 2 verdeutlicht den angepassten Produktentstehungsprozess.
Ausblick
Um den neuen Produktentwicklungsprozess in konkreten Projekten einsetzen zu können, wurden mehrere Fragenkataloge entwickelt, mit denen nach jedem
Planungsabschnitt geprüft werden kann, ob die vorgesehene Wandlungsfähigkeit gegenüber Technologiesprüngen erreicht wird. Diese werden in Unternehmen
der Automobil- und -zulieferindustrie auf Praktikabilität und Vollständigkeit überprüft. Als Weiterentwicklung des Lösungsansatzes wäre es sicherlich sehr
interessant, die Gestaltung von Zuliefernetzwerken zu
berücksichtigen. Deren Planung ist schon im Rahmen
der Stückzahl- und Typenflexibilität, d. h. auch ohne
den Einfluss von Technologiesprüngen, oftmals problematisch. Einige der oben skizzierten Ergebnisse
entstanden im Rahmen einer Master-Thesis an der
Fakultät für Wirtschaftswissenschaften [6] sowie in
enger Zusammenarbeit mit dem Fraunhofer Institut für
Produktionstechnik und Automatisierung FhG-IPA in
Stuttgart im Rahmen des BMBF-Projektes ARENA 2036.
Weitere Ergebnisse können [5] entnommen werden.
80
| Forschung aktuell 2015
Schritt 1:
Wandlungstreiber
auswählen
Produktentwicklung
Prozessentwicklung
Marktanalyse
1
Schritt 2:
Entwicklungsvorgaben ableiten
Lastenheft
erstellen
2
Prüfung
Lastenheft
Funktionen und
Wirkprinzipien
ermitteln
Schritt 3:
Produktkonzept
erstellen
3
Schritt 4:
technische Maßnahmen ableiten
4
Modularisierung Produkt
Erstellung
Entwürfe
Produktgestaltung
Ausarbeitung
Dokumentation
Schritt 3:
Prozesskonzept
erstellen
4
Grobplanung
Prozess
Feinplanung
Prozess
5
Quality Gate
Klassisches PEP-Element
Neues PEP-Element
3
Schritt 4:
technische Maßnahmen ableiten
Schritt 5: Maßnahmen umsetzen
4. daraus konkrete technische Maßnahmen abgeleitet. Schließlich werden diese Maßnahmen
Produktplanung
WF-Team
Schritt 5: Maßnahmen umsetzen
3. parallel Konzepte für das Produkt sowie die notwendigen Fertigungsprozesse erstellt und
5
Ausarbeitung
Anforderungsliste
Betriebsmittel
Systemeinführung, Hochlauf
und Betrieb
Abb. 2: Berücksichtigung der Wandlungsfähigkeit im Produktentwicklungsprozess (PEP)
Literatur
[1] E. Rauschnabel, B. Adams, LightWeightPro –
Leichtbauteile großer Länge aus Rohrhalbzeugen umformen, in: wt Werkstattstechnik online,
103(2013), S. 796–801.
[2] F.-J. Wöstmann, Neue Antriebskonzepte und Komponenten für Elektroautos, in: wt Werkstattstechnik online, 101(2011), S. 456–457.
[3] E. Westkämper, et. al., Ansätze zur Wandlungsfähigkeit von Produktionsunternehmen: ein Bezugsrahmen für die Unternehmensentwicklung im turbolenten Umfeld, in: wt Werkstattstechnik online,
90(2000), S. 22–26.
[4] P. Nyhus, et. al., Wandlungsfähige Produktionssysteme: Heute die Industrie von morgen gestalten, Hannover, 2008.
[5] S. Haas, E. Sheehan, C.C Wuttke, M. Lickefett,
Zukunftsfähige Produktionssysteme: Berücksichtigung der Wandlungsfähigkeit im Produktentstehungsprozess, in: ZWF Zeitschrift für wirtschaftlichen Fabrikbetrieb, 109(2014), 3, S. 133–137.
Schlaglichter
[6] S. Haas, Zukunftsfähige Produktionssysteme durch
Berücksichtigung der Wandlungsfähigkeit im Produktentstehungsprozess, Master-Thesis, Fakultät
für Wirtschaftswissenschaften, Hochschule Karlsruhe, 2014.
Abstract
This article describes the influence of technology
leaps on the planning of production systems. The
way in which specific approaches and methods can
help to systematically identify imponderable factors and consider them in the design of production
systems is shown. In this way identification of the
break-through-point is the main challenge rather
than the identification of new technologies themselves. The initial stage in solving this problem is
to anticipate the need for appropriate adaptability
of the new production system, which will surpass
the standard flexibility offered concerning types
and quantities of products.
Zusammenfassung
Der Artikel beschreibt den Einfluss von Technologiesprüngen auf die Planung von Produktionssystemen
und zeigt Ansätze und Methoden auf, mit denen
diese Unwägbarkeiten systematisch identifiziert und
in der Gestaltung neuer Produktionssysteme berücksichtigt werden können. Dabei stellt weniger die
Identifizierung neuer Technologien an sich als viel-
mehr der Zeitpunkt ihres Durchbruchs eine besondere Herausforderung dar. Zentraler Ansatzpunkt für
die Lösung dieser Problematik ist die Vorausplanung
einer angemessenen Wandlungsfähigkeit der neuen
Produktionssysteme, die über deren reguläre Typenund Stückzahlflexibilität signifikant hinausgeht.
Autoren
Prof. Dr.-Ing. Claas Christian Wuttke
Professor für Produktion und Logistik an der Fakultät für Wirtschaftswissenschaften
Stefan Haas M.Sc.
Absolvent des Masterstudienganges Wirtschaftsingenieurwesen an der Hochschule Karlsruhe und
Entwicklungsingenieur bei der Trumpf Laser GmbH
Kontakt
Prof. Dr.-Ing. Claas Christian Wuttke
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Wirtschaftswissenschaften
Moltkestraße 30
76133 Karlsruhe
E-Mail: claas-christian.wuttke@hs-karlsruhe.de
Forschung aktuell 2015 |
81
Schlaglichter
Durch Kollaboration zum erfolgreichen Entrepreneur –
Erschaffung und Nutzen der Entrepreneur Crowd
Raphael Pfeffer, Roman Roor, Karl Dübon und Reimar Hofmann
Einleitung
Ein wesentlicher Erfolgsfaktor bei Unternehmensgründungen ist die Vernetzung mit Unterstützern, die unkompliziert fehlendes Erfahrungswissen der Gründer
kompensieren, ohne dass sofort Kosten anfallen, die in
frühen Gründungsphasen untragbar wären. Das Internet bietet neue Möglichkeiten, solche Netzwerke aufzubauen. Im Folgenden werden wesentliche Bausteine
vorgestellt, mit deren Hilfe Gründerinitiativen optimale
Unterstützung finden können. Ein Beispiel, wie dies
konkret umgesetzt werden kann, wird mit der Web-2.0Plattform SeedUp vorgestellt.
Gründungspotenziale mit SeedUp ausschöpfen
Mit der Gründerplattform SeedUp wird das Ziel verfolgt,
potenzielle Entrepreneure und Ihre Partner effizienter
zusammenzuführen. Besonders die finanziellen Aspekte am Anfang einer Unternehmensgründung stellen für
unerfahrene Entrepreneure große Hürden dar. Auf der
einen Seite gibt es eine nicht übersehbare Zahl unterschiedlichster Förderungsprogramme, die Beratungsstunden übernehmen oder bezuschussen und kostengünstige Kredite vergeben, auf der anderen Seite
erfordert jedes Programm eigene Vorgaben über Aufbau und Struktur der zu erstellenden Geschäftspläne.
Virtuelle Kollaboration durch Web 2.0
Nur die wenigsten Gründerprojekte können alleine durch
eine Person bewältigt werden. Oft fehlt es an Expertise
oder der Zeitraum bis zur Marktreife wäre ohne Unterstützung zu lang. Virtuelle Kollaboration, bei der die
Kommunikation zwischen den Teammitgliedern über
virtuelle Medien geschieht, schafft hier neue Möglichkeiten – insbesondere zur überregionalen und internationalen Zusammenarbeit, weil weder räumliche noch
zeitliche Nähe gegeben sein muss.[1] Untersuchungen
dazu haben gezeigt, dass durch die fehlende Nähe klassische Anreizfaktoren wie zum Beispiel die sichtbaren
Statussymbole am Arbeitsplatz an Bedeutung verlieren.
Stattdessen nehmen übergeordnete Ziele und monetäre Anreize für virtuelle Teams eine wichtigere Rolle ein.
[2] Zur Mitarbeit in einem Gründernetzwerk sind externe
Partner wie Kapitalgeber, Steuerberater oder Anwälte
durch ihr eigenes Geschäftsinteresse motiviert. Damit
ein Netzwerk funktioniert, sind aber auch Beiträge erforderlich, die über das unmittelbare Eigeninteresse
hinausgehen, z. B. durch kostenlose Tipps aus dem eigenen Erfahrungswissen oder das Bewerten und Kommentieren von anderen Beiträgen – auch von Gründern.
Gerade bei einem Web-2.0-Netzwerk muss dies durch
ein geeignetes Anreizsystem sichergestellt werden, das
dafür sorgt, dass sich ein dynamisch wachsendes, virtuelles Team bildet und verteilte und schwer zugängliche
Informationen zentral zusammenträgt. Auch spieltheoretische Untersuchungen bestätigen, dass durch den
Einsatz von symbolischen Anreizobjekten, auch ohne
materiellen Wert, kooperatives Verhalten möglich ist.[3]
Eine standardisierte Übersicht und interaktive Führung
durch diese Informationen ist ein Hauptaspekt der
Gründerplattform SeedUp. Durch die Unterstützung
der virtuellen Kollaboration mit einer übergreifenden
Instanz kann die gebündelte Intelligenz von Gründern
genutzt werden. Der Gründer spart sich überflüssige
Termine und wertvolle Zeit.
82
| Forschung aktuell 2015
Gründungsfinanzierung
Mit SeedUp wird das Ziel verfolgt Gründungsinteressierte und Kapitalgeber ohne Umwege zu vermitteln.
Dabei sollen nicht nur einzelne regionale oder funktionale Finanzierungsformen angeboten werden (Geldgeber aus Business-Angel-Vereinen, Crowdfunding
…), sondern die gesamte Palette an Finanzierungsund Gründungsformen zur Verfügung stehen.[4, 5] Frei
parametrisierbare Filter und Auswahlstrukturen ermöglichen es, optimale Matches zu finden und diese
auf intuitive Weise vergleichen zu können.
Anreizsystem
Zunächst ist ein Anreiz für Geldgeber und Entrepreneure
bereits durch die potenzielle Erweiterung der eigenen
Geschäftskontakte, dem Wissenserwerb und -erweiterung im Netzwerk geschaffen. Es können sich sowohl für
die Gründer- als auch die Kapitalgeberseite attraktive
Opportunitäten ergeben. Zudem eröffnet sich damit für
Kapitalgeber ein weiterer Vertriebskanal. Damit Gründungsbeteiligte sich jedoch nachhaltig am Netzwerk
beteiligen, ist ein erweitertes Anreizsystem erforderlich. Entschädigungen für gegenseitige Hilfestellungen
und den Wissensaustausch sowie das Zusammentragen
von Informationen machen ein geeignetes Bonussystem erforderlich, das den Aufwand der Beteiligten ver-
Schlaglichter
Abb. 1: Gründerplattform SeedUp
gütet. Darüber hinaus finden auch auf internen Ebenen
virtuelle Kooperationen statt. So werden zum Beispiel
Businesspläne in der Regel von mehreren Personen erarbeitet. Um die Ausarbeitung effizienter zu gestalten,
erlaubt ein Online-Businessplangenerator die gleichzeitige Bearbeitung der Inhalte. Das Team kann virtuell von
jedem Ort der Welt den ersten Schritt zur erfolgreichen
Kapitalakquise erarbeiten.
outsourcen oder modular einkaufen [6]. Die Höhe der
Kosten kann in den ersten Phasen der Gründung über
den weiteren Erfolg der Unternehmung entscheiden.
SeedUp verteilt in Absprache mit dem Entrepreneur
vorhandene Ressourcen intelligent auf qualifizierte
Experten, verbindet den Entrepreneur mit ausgewählten Dienstleistern und ermöglicht so den Fokus auf das
Kerngeschäft.
Transaktionskosten optimieren
Gründungsprozesse erfordern eine Vielzahl von Aufgaben mit hohem Ressourcenaufwand, die jedoch nicht
alle zur Kernaufgabe des Unternehmens gehören.
Dazu zählt oft Grundlegendes wie Buchhaltung, IT-Infrastruktur und Rechtsbeistand. Entrepreneure müssen
sich auf die Geschäftsidee, ihre Kernkompetenz und
das Entrepreneurial Design konzentrieren – jeder sollte
das machen, was er am besten kann. Nicht beherrschte Kompetenzen sollte der Entrepreneur stattdessen
Zusammenfassung
Das Web 2.0 bietet besondere Möglichkeiten zur Unterstützung von Gründungsprozessen insbesondere
in der Zusammenführung und Zusammenarbeit der
Gründungsbeteiligten. Voraussetzung hierfür ist die
Integration eines Anreizsystems, um bei den Beteiligten die Bereitschaft zu nützlichen Unterstützungsleistungen für Gründer zu erreichen. Mit SeedUP werden
Gründungbeteiligte, Instrumente zur Unterstützung
der Gründungsschritte und die notwendigen Anreiz-
Forschung aktuell 2015 |
83
Schlaglichter
systeme in einem gemeinsamen Gründerportal verknüpft. An diesem Beispiel wurde im Themengebiet
der Gründungsfinanzierung dargestellt, wie mit Einsatz dieser kollaborativen Bestandteile typische Gründungsbarrieren abgebaut werden können.
Literatur
[1] M. Herczeg, Virtuelle Teams: Erkenntnisse über
die Nutzung von Video Conferencing und Application Sharing bei der Unterstützung virtueller
Teams, Inst. Arbeit und Technik, 2000.
[2] G. Hertel, U. Konradt, Telekooperation und virtuelle Teamarbeit, München & Oldenbourg, Interaktive Medien, 2007.
[3] G. Camera, M. Casari, M. Bigoni, Money and trust
among strangers, Proceedings of the National
Academy of Sciences, 110(37), 2013, pp. 14889–
14893.
[4] B. Fischer, Finanzierung und Beratung junger Startup-Unternehmen: Betriebswirtschaftliche Analyse
aus Gründerperspektive, Deutscher Universitätsverlag, 2004.
[5] Ch. Hahn, Finanzierung und Besteuerung von
Start-up-Unternehmen: Praxisbuch für erfolgreiche
Gründer, Wiesbaden, Springer Fachmedien, 2013.
[6] G. Faltin, Kopf schlägt Kapital: Die ganz andere
Art, ein Unternehmen zu gründen – Von der Lust,
ein Entrepreneur zu sein, Carl Hanser Verlag GmbH
& Company KG, 2012.
Abstract
Entrepreneurs face many barriers on the path to
starting a successful business. Many of these barriers could be removed if entrepreneurs had access
to a network of supporters willing to cooperate.
This article will show how the formation of such a
network can be assisted by means of Web 2.0. This
requires a platform for efficient communication,
including instruments and methods for recurring
tasks, and an effective incentive scheme. SeedUp
is a platform for entrepreneurs, which aims to meet
these requirements. Using the example of start-up
financing this article shows how the necessary components can be combined and shaped concretely.
Zusammenfassung
Viele Entrepreneure scheitern bereits auf dem Weg
zur Gründung. Doch einige Barrieren könnten abgebaut werden, würde Gründern ein Netzwerk von
kollaborationswilligen Unterstützern zur Verfügung
stehen. Im Folgenden soll gezeigt werden, wie mit
Mitteln des Web 2.0 die Entstehung eines solchen
Netzwerks forciert werden kann. Notwendig hierzu
sind eine effiziente Kommunikationsplattform,
verschiedene Methoden und Instrumente sowie
ein entsprechendes Anreizsystem. Mit der Gründerplattform SeedUp sollen diese Anforderungen
realisiert werden. Am Beispiel des Prozessschrittes „Gründungsfinanzierung“ wird gezeigt, wie
dies konkret ausgestaltet und die notwendigen
Bestandteile zusammengefügt werden können.
Autoren
Dipl.-Wi.-Ing. Raphael Pfeffer und Roman Roor M.Sc.
Unternehmensgründer von SeedUp
Prof. Dr. Karl Dübon und Prof. Dr. Reimar Hofmann
Professoren an der Fakultät für Informatik und
Wirtschaftsinformatik der Hochschule Karlsruhe
Kontakt
Prof. Dr. Karl Dübon
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Informatik und Wirtschaftsinformatik
Moltkestraße 30
76133 Karlsruhe
E-Mail: karl.duebon@hs-karlsruhe.de
84
| Forschung aktuell 2015
Schlaglichter
Neue Konzepte zur Messung der Risikobereitschaft bei
Privatanlegern
Franz Nees und Stefanie Regier
Ausgangssituation
Für Privatanleger ergibt sich aus der Kapitalmarktsituation das Dilemma, dass sie mit der Rendite sicherer Anlagen nicht zufrieden sein können. Gleichzeitig
scheuen sie häufig Risiken, die mit einer besseren
Performance einhergehen. Banken stehen also vor der
Herausforderung, Kunden im Hinblick auf deren persönliche Präferenzen hinsichtlich Risiko und Rendite
zu beraten, dabei gleichzeitig gesetzliche Rahmenbedingungen und Marktgegebenheiten zu berücksichtigen. Unterstützend kann bei dieser Aufgabe der sinnvolle Einsatz von Informationstechnologie sein.
Methodische Grundlagen
Im Rahmen eines Forschungsprojekts an der Hochschule Karlsruhe zur Aufdeckung der Risikobereitschaft von
Anlegern wurde versucht, Verfahren aus dem Bereich
der Marktforschung auf das Feld der Anlageberatung zu
transformieren. Primär geht es in der Marktforschung
auch darum, Wünsche und Einstellungen von Kunden zu
ermitteln, sodass die Ausgangsbasis vergleichbar ist.
Allerdings interessiert sich die Marktforschung häufig
für die Präferenzen von ganzen Kundengruppen. Dagegen ist die Anlageberatung etwas sehr Individuelles,
das nur unter Berücksichtigung der jeweiligen persönlichen Umstände, der Präferenzen und des bestehenden
Vermögens des Kunden erfolgen kann. Gesucht war also
ein Verfahren, das Erkenntnisse über Präferenzen von
Individuen liefert. Als Ausgangsbasis für diese Aufgabenstellung wurde die Choice-Based-Conjoint-Analyse
(CBC) gewählt, die auf der ökonomischen Entscheidungstheorie aufbaut und Probanden mit reinen Tradeoff-Entscheidungen konfrontiert. Dabei erwies sich die
CBC HB, die Individual-Nutzenwerte mithilfe hierarchi-
scher bayesianischer (HB) Modelle schätzt, am besten
für die Anlageberatung geeignet. Immer dort, wo individuell zu wenige Informationen über die Präferenzen von
Merkmalen und Ausprägungen vorhanden sind, wird die
Lücke mithilfe einer HB-Schätzung aus der Präferenzverteilung einer Gesamtpopulation abgeleitet.
Untersuchungsdesign
Den Probanden werden verschiedene fiktive Finanzprodukte vorgelegt, die die relevanten Einzelmerkmale
enthalten. Sie wählen dann über eine Folge von mehreren Befragungsschritten immer wieder unter einer Reihe von Produktbündeln ein präferiertes Produkt aus.
Da die Präferenzen des Individuums und nicht die einer
Gruppe gesucht werden, sind pro Proband zwischen 20
und 30 Auswahlentscheidungen erforderlich. Am Ende
der Befragung lässt sich dann aus den gesammelten
Antworten der Trade-off zwischen den einzelnen Merkmalen eines Finanzprodukts genau bestimmen.
Für die Anlageentscheidung wurden folgende Merkmale als besonders relevant angesehen:
• Risiko: Maximaler Kapitalverlust in einem Jahr
• Rendite: Ertrag der Anlage innerhalb eines Jahres
• Anlagebetrag: Betrag, der in ein einzelnes Produkt
investiert wird
• Anlagedauer: Gesamthorizont der Vermögensanlage
• Liquidität: Zeit bis zur möglichen Verfügbarkeit des
Kapitals
• verfügbares Kapital: Gesamtsumme aller Assets
Der Einsatz dieser Methode im Kontext der Anlageberatung führt idealerweise dazu, dass sich die Einflussfaktoren identifizieren lassen, die für die Anlageentschei-
Rendite pro Jahr
8,5 % Rendite
22 % Rendite
3,5 % Rendite
Maximaler Kapitalverlust
pro Jahr
8,5 % Risiko
100 % Risiko
60 % Risiko
Anlagenbetrag
20 Tsd. €
5 Tsd. €
50 Tsd. €
Verfügbarkeit des Kapitals
12 Monate
12 Monate
30 Tage
Ich würde
keinen dieser
Vorschläge
wählen
Abb. 1: Beispiel für Entscheidungsalternativen innerhalb eines Befragungsschritts
Forschung aktuell 2015 |
85
Schlaglichter
dungen den Ausschlag geben. Grundlage der Analyse
bildet die oben vorgestellte CBC-Methode mit hierarchisch bayesianischen Modellen. Die gewonnenen Erkenntnisse sollen als Hilfsmittel für die Anlageberatung
dienen. Da dieses Vorgehen den Anleger selbst mit einbezieht, dient es auch dazu, ihm vor der eigentlichen
Anlageentscheidung die eigenen Präferenzen klar zu
machen. Die Befragung besteht aus zwei Schritten. Im
ersten Teil gibt der Proband den geplanten Investitionszeitraum und das verfügbare Kapital an. Im zweiten Teil
erfolgt dann die eigentliche Ermittlung der Präferenzstruktur. Dazu müssen die Probanden nun 20 bis 30
Trade-off-Entscheidungen treffen, wie sie exemplarisch
in Abbildung 1 zu sehen sind. Der Zeitaufwand pro Proband liegt in der Größenordnung von 15 Minuten.
Ergebnisse der Untersuchung
Die beschriebene Befragung wurde im Rahmen der
Studie anonym von einer kleineren Zahl von fachkundigen Teilnehmern aus dem Bankenumfeld beantwortet.
Die Ergebnisse sind wegen der geringen Anzahl der
Antworten zwar statistisch nicht repräsentativ; primär
ging es jedoch um die grundsätzliche Verwendbarkeit
der gewählten Methode für den vorgesehenen Zweck.
Dies erscheint nach den bisherigen Erkenntnissen sehr
gut möglich. Über die Gesamtheit aller ausgewerteten
Fragebögen werden die Anlageentscheidungen der
Studienteilnehmer vorrangig vom Risiko geprägt, die
relative Wichtigkeit im Hinblick auf die Anlageentscheidung liegt bei über 70%, wobei kleinere Risiken bevorzugt werden. Die erwartete Rendite geht mit einer relativen Wichtigkeit von etwa 25% in die Entscheidung ein,
ebenfalls im Zusammenhang mit dem Vorzug höherer
Renditen. Kaum Einfluss auf die Anlageentscheidung
nehmen mit jeweils weniger als 3% schließlich die Losgröße und der Anlagehorizont der Einzelinvestition. Bevorzugt werden von den Probanden kleinere Losgrößen
für die Anlage in einzelnen Investments.
Abb. 2: Gesamtergebnis der Stichprobe im Rahmen der Studie
– relative Wichtigkeit der Einflussfaktoren
86
| Forschung aktuell 2015
Die zentrale Fragestellung der Studie war aber nicht
die Ermittlung der Anlagemotive einer Kundengruppe,
sondern vielmehr die Ermittlung individueller Motive.
Und hier ergeben sich nun völlig neue Möglichkeiten,
denn für jeden Teilnehmer an der Studie und damit
potenziell für jeden einzelnen Beratungskunden einer Bank kann die persönliche Interessenlage auf die
gleiche Weise aus den Befragungsergebnissen ermittelt werden. Jedem Individualergebnis kann dann als
Benchmark ein Gesamt- oder Gruppenergebnis gegenübergestellt werden. Im Folgenden wird dies an einer zufällig herausgegriffenen Person im Rahmen der
Testbefragungen illustriert.
Abb. 3: Ergebnis für einen zufällig gewählten Teilnehmer an der
Studie – relative Wichtigkeit der Einflussfaktoren
Wie zu erkennen ist, unterscheiden sich die Anlagemotive dieses Individuums erheblich von der Referenzgruppe. Das Risiko spielt hier eine kleinere Rolle
und die Rendite hat für diesen potenziellen Anleger
eine deutlich höhere Bedeutung. Aber auch der Anlagebetrag einer Einzelinvestition und die Liquidität einer Anlage spielt für die hier ausgewählte Testperson
eine durchaus bedeutsame Rolle. Einem solchen Kunden müsste die Bank offenkundig auch andere Anlageprodukte anbieten als dem Durchschnittskunden.
Er erwartet eine höhere Rendite und wird bei einer
schlechten Performance seiner Anlagen entsprechend
unzufrieden sein. Gleichzeitig kann der Berater diesem
Kunden auch von Anfang an bewusst machen, dass er
aufgrund seiner geäußerten Präferenzen ein größeres
Risiko tragen muss als der Durchschnitt. Falls das Portfolio dann tatsächlich Verluste erleidet, wird er es unter
diesen Voraussetzungen wohl auch eher tolerieren.
Fazit
Obwohl also die weitere Ausarbeitung der vorgestellten Methodik noch nötig ist, kann ein erstes positives
Fazit gezogen werden:
• Der Einfluss der Einzelfaktoren auf die individuelle
Anlageentscheidung eines Kunden kann eindeutig
Schlaglichter
quantifiziert werden, ohne dass eine zeitlich umfassende Befragung notwendig wird. Die Teilnehmer an
der Studie benötigten für einen Durchlauf etwa 15
Minuten.
• Im Design der vorliegenden Studie waren vier Faktoren berücksichtigt worden. Diese Anzahl lässt sich
bei Bedarf durchaus noch erhöhen, sodass eine weitere Differenzierung möglich ist.
• Die Ergebnisse sind für Berater und Kunde gleichermaßen transparent und differenziert.
Abstract
As part of a research project at the Karlsruhe University of Applied Sciences we analyzed customer’s risk
behavior using the Choice-Based-Conjoint (CBC). The
CBC is a market research technique used to determine which features new products should have. Each
respondent is shown a set of concepts with different
risk and return specifications and asked to choose
a preference for investment. First results show that
CBC could be a suitable instrument for measuring the
willingness of private investors to take risks.
Zusammenfassung
Im Rahmen eines Forschungsprojekts an der
Hochschule Karlsruhe wurde versucht, die Risikobereitschaft von Anlegern mit Methoden der
Marktforschung zu messen. Dabei wurden mithilfe
der Choice-Based-Conjoint Präferenzen im Hinblick
auf Risiko und Rendite von Anlagekunden anhand
hypothetischer Anlageentscheidungen erhoben.
Die Probanden bekamen verschiedene Sets unter-
schiedlicher Risiko-/Rendite-Kombinationen vorgelegt. Erste Ergebnisse der Untersuchung legen
ein positives Fazit im Hinblick auf die Eignung der
Methode zur indirekten Messung von Risikobereitschaft von Anlegern nahe.
Autoren
Prof. Franz Nees
Professor an der Fakultät für Informatik und Wirtschaftsinformatik
Prof. Dr. Stefanie Regier
Professorin an der Fakultät für Informatik und Wirtschaftsinformatik
Kontakt
Prof. Dr. Stefanie Regier
Hochschule Karlsruhe – Technik und Wirtschaft
Fakultät für Informatik und Wirtschaftsinformatik
Moltkestraße 30
76133 Karlsruhe
E-Mail: stefanie.regier@hs-karlsruhe.de
Forschung aktuell 2015 |
87
Bei
uns findest Du Deinen
Traumberuf!
www.opusmundi.de
Hol‘ Dir die App!
Besuch‘ uns auf
und schenk‘
uns einen
app.opusmundi.de
www.facebook.com/Opusmundi.de
Kann man angehende
Ingenieure in die Fußstapfen
Rudolf Diesels treten lassen?
MAN kann.
Rudolf Diesel wäre heute stolz auf Sie.1893 hat der passionierte Ingenieur bei MAN in Augsburg einen
Motor entwickelt, der immer noch die ganze Welt bewegt: den Dieselmotor. Heute baut MAN weltweit
Trucks und Busse, wir sind Weltmarktführer bei Großdieselmotoren und Turbomaschinen für maritime
und stationäre Anwendungen und konstruieren vom Propeller bis zum Turbolader alles, was die Welt
antreibt. Um den visionären Ideen Rudolf Diesels gerecht zu werden, forschen und entwickeln wir
bei MAN immer weiter an noch besseren und effizienteren Antrieben. Und das zusammen mit jungen
Ingenieuren, die mit frischen Ideen und jeder Menge Herzblut die Grenzen des Machbaren immer weiter
verschieben. Und so in seine Fußstapfen treten. Rudolf Diesel wäre stolz auf Sie. man.eu/karriere
Engineering the Future – since 1758.
SEW-EURODRIVE—Driving the world
Wer zu uns kommt, schätzt
den kleinen Unterschied.
. t u v.
c
ww
om
w
Den zwischen Reden und Machen.
ID
:
91
Ingenieure mit Erfindungsgeist und Gestaltungswillen gesucht. Wir sind einer
der Innovationsführer weltweit im Bereich Antriebstechnologie. Wir sind facettenreich genug, um Ihren Ehrgeiz mit
immer wieder spannenden Projekten herauszufordern. Und klein genug, um Ihre Ideen ohne große Umwege in die
Tat umsetzen zu können. SEW-EURODRIVE hat für Ingenieure aus den Bereichen Entwicklung, Vertrieb, Engineering,
Softwareentwicklung und Service zahlreiche interessante Perspektiven zu bieten. Also: Haben Sie Lust, in einem
engagierten Team etwas Gutes noch besser zu machen? Dann herzlich willkommen bei SEW-EURODRIVE!
Jetzt informieren über Praktikum, Abschlussarbeit und Berufseinstieg: www.karriere.sew-eurodrive.de
05
063525