Abstract-Band - Fakultät für Informatik, TU Wien

Transcription

Abstract-Band - Fakultät für Informatik, TU Wien
EPILOG
Die Diplomarbeitspräsentation der
Fakultät für Informatik
Sommersemester 2011
Diese Veranstaltung der Fakultät für Informatik wird unterstützt von
EPILOG
Diplomarbeitspräsentation
Das breite Themenspektrum und die vielfältigen Aufgabenstellungen der
Abschlussarbeiten an der Fakultät für Informatik werden jedes Semester beim
EPILOG präsentiert. In einer Posterausstellung sowie in ausgewählten Vorträgen
präsentieren die AbsolventInnen der Fakultät ihre Projekte und stellen sich der
Diskussion mit den Anwesenden. Der EPILOG als Plattform für die Präsentation
hervorragender Abschlussarbeiten dient gleichzeitig dem Austausch über die
aktuelle wissenschaftliche Forschung in den unterschiedlichen Bereichen der
Informatik.
Auszeichnungen und Preise
Die Jury setzt sich aus den BetreuerInnen der nominierten Diplomarbeiten des
letzten halben Jahres zusammen. Sie verleiht an eine/n der Vortragenden den mit
4.000 Euro dotierten „Distinguished Young Alumnus/Alumna”-Award der Fakultät
für Informatik. Beurteilungskriterien sind die Qualität der Diplomarbeit sowie des
gehaltenen Vortrags.
Das beste Poster aller beim EPILOG anwesenden AutorInnen wird mit dem „Best
Poster“-Award in der Höhe von 1.000 Euro ausgezeichnet. Zudem vergibt die Bank
Austria den Firmenpreis „Poster-Award sponsored by Bank Austria“ in der Höhe von
1.000 Euro an ein weiteres Poster.
Lehrenden-Award
Die Fachschaft Informatik zeichnet Lehrende der Fakultät für Informatik in den
Kategorien Beste Lernunterlagen, Beste Übungsunterstützung, Bester Vortrag und
Beste Wissensvermittlung aus.
1
Programm 9. Juni 2011
15:00
Eröffnung der Posterausstellung
16:00
Begrüßung und Einleitung
Gerald Steinhardt, Dekan der Fakultät für Informatik, TU Wien
Adalbert Prechtl, Vizerektor für Lehre, TU Wien
16:15
Vorträge zu den nominierten Diplomarbeiten
17:15
Videopräsentation aus der Lehrveranstaltung
Multimedia - Produktion
Karyn Laudisi und Julian Pölsler
Institut für Softwaretechnik und Interaktive Systeme, TU Wien
17:45
Verleihung des Lehrenden-Award
18:00
Vergabe der Auszeichnungen
2
Vorträge zu den nominierten Diplomarbeiten
Sebastian Gabmeyer
Formalization of the Operation Recorder based on Graph Transformation
Theory
Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Business
Informatics
Abstract der Diplomarbeit siehe Seite 9
Günter Anton Khyo
Language Support for Linux Device Driver Programming
Institut für Computersprachen, Arbeitsbereich für Programmiersprachen und
Übersetzerbau
Abstract der Diplomarbeit siehe Seite 33
Michael Morak
dynASP – A Dynamic Programming-based Answer Set Programming Solver
Institut für Informationssysteme, Arbeitsbereich Database and Artificial Intelligence
Abstract der Diplomarbeit siehe Seite 39
Daniel Prokesch
A Light-Weight Parallel Excecution Layer for Shared-Memory Stream Processing
Institut für Technische Informatik, Arbeitsbereich Real Time Systems
Abstract der Diplomarbeit siehe Seite 65
3
4
DIPLOMARBEITEN
Institute der Fakultät für Informatik
Institut für Softwaretechnik und Interaktive Systeme ............................................ 7
Arbeitsbereich E-Commerce ........................................................................... 7
Arbeitsbereich Business Informatics ................................................................ 9
Arbeitsbereich Interactive Media Systems...................................................... 10
Arbeitsbereich Information and Software Engineering ................................... 13
Institut für Gestaltungs- und Wirkungsforschung ................................................ 21
Arbeitsbereich Human Computer Interaction ................................................. 21
Arbeitsbereich Multidisciplinary Design ......................................................... 24
Institut für Computergraphik und Algorithmen................................................... 27
Arbeitsbereich Computergraphik .................................................................. 27
Arbeitsbereich Algorithmen und Datenstrukturen .......................................... 28
Institut für Computersprachen .......................................................................... 31
Arbeitsbereich Theoretische Informatik und Logik ......................................... 31
Arbeitsbereich Programmiersprachen & Übersetzerbau .................................. 33
Institut für Informationssysteme ....................................................................... 36
Arbeitsbereich Knowledge Based Systems ..................................................... 36
Arbeitsbereich Database and Artificial Intelligence ........................................ 39
Arbeitsbereich Distributed Systems ............................................................... 40
Institut für Rechnergestützte Automation .......................................................... 45
Arbeitsbereich Computer Vision ................................................................... 45
Arbeitsbereich Automatisierungssysteme ...................................................... 47
Institut für Technische Informatik ...................................................................... 61
Arbeitsbereich Embedded Computing Systems ............................................. 61
Arbeitsbereich Real Time Systems................................................................. 61
5
Andere Institute der TU Wien
Institut für Computertechnik ............................................................................. 67
Institut für Automatisierungs- und Regelungstechnik ......................................... 69
Institut für Managementwissenschaften ............................................................ 72
Department für Raumentwicklung, Infrastruktur- und Umweltplanung................. 78
Institut für Geoinformation und Kartographie .................................................... 79
Institut für Statistik und Wahrscheinlichkeitstheorie ............................................ 80
Institut für Wirtschaftsmathematik ..................................................................... 81
Institut für Analysis und Scientific Computing .................................................... 82
Institut „Integriert Studieren“ ............................................................................ 86
In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen
Universität Wien .............................................................................................. 87
Technische Universität Graz .............................................................................. 89
Medizinische Universität Wien .......................................................................... 90
6
Institut für Softwaretechnik und Interaktive Systeme
Arbeitsbereich E-Commerce
Stefan Kögl
Analyse von Kommunikationsstrukturen und Nachrichtenausbreitung am
Beispiel des Microblogging Dienstes Twitter
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl
Twitter, die derzeit wohl bekannteste aller Microblogging Plattformen, war der
Begründer einer neuen Form der Kommunikation. Anfangs per SMS, mittlerweile über Webseiten und Clients von Drittanbietern ermöglicht es den Austausch von Kurznachrichten zwischen Benutzern, die asynchrone Beziehungen
eingehen. Ursprünglich für den privaten Gebrauch gedacht, gewinnt es immer mehr an Bedeutung für eine kommerzielle Verwendung und die rasche
Verbreitung von Nachrichten. Diese Diplomarbeit beschäftigt sich mit der
Entstehungsgeschichte sowie aktuellen Entwicklungen der Plattform. Außerdem werden Motive zur Nutzung und die Bedeutung von Twitter in der heutigen Zeit erläutert. Im praktischen Teil wurde mit Hilfe der von Twitter zur
Verfügung gestellten Programmierschnittstelle eine Datenbasis mit rund
230.000 Tweets und 90.000 Benutzern angelegt. Auf Grundlage dieser
werden Kennzahlen berechnet, Auswertungen über Retweets sowie die
Herkunft und den Zeitpunkt der Erstellung von Tweets gezeigt. Außerdem
werden Charakteristika der Twitterer analysiert. Eine Webanwendung, die auf
Basis einer Google Map eine geografische Aufbereitung der geocodierten
Daten ermöglicht, wurde ebenfalls erstellt. Sie erlaubt es, die Ausbreitung
von Retweets auf einer Karte zu visualisieren.
Michael Leitner
Next Generation Learning in virtuellen Welten am Beispiel von SLOODLE
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl
Die vorliegende Diplomarbeit beleuchtet das Thema des Lernens im virtuellen
Raum am Beispiel des Open Source-Projekts SLOODLE. Im Zuge des stetigen
Wandels zur Informationsgesellschaft lässt sich beobachten, dass sich Lernund Wissensvermittlungsprozesse zunehmend in den virtuellen Raum verlagern und neue Lernformen wie E-Learning es Institutionen ermöglichen, ihr
Bildungsangebot bzw. ihre Bildungsaktivitäten online abzubilden. Den potentiell nächsten Schritt stellt die Gestaltung von immersiven dreidimensio- nalen
Lernumgebungen als Verbindung von Virtual Learning Environments (VLEs)
mit Multi User Virtual Environments (MUVEs) zur Schaffung eines neuen Lernerlebnisses dar. Das im Zuge dieser Diplomarbeit einer kritischen Betrachtung
7
unterzogene SLOODLE-Projekt versteht sich als Integration des Moodle
Kursmanagementsystems in die Onlinewelt von Second Life. Ausgehend von
einer jeweils separaten Betrachtung führt diese Diplomarbeit die beiden
Themenkomplexe "Neue Lernformen" und "Virtuelle Welten" zu einer Behandlung des Lernprozesses im virtuellen Raum zusammen. Im darauffolgenden
Kapitel soll ein Einblick in das Prinzip und die Funktionsweise von SLOODLE
gegeben sowie Möglichkeiten und Einschränkungen beleuchtet werden. Als
praktisches Beispiel wird im nächsten Kapitel ein im Zuge dieser Arbeit
erstellter Prototyp vorgestellt, der als kurzer Showcase einer möglichen
SLOODLE-Unterrichtssequenz dient. Abschliessend soll, basierend auf den
Erfahrungen mit dem Prototyp, ein Ausblick auf die mögliche Entwicklung
zukünftiger Lernformen dargelegt werden.
Roland Piazzi
Analyse der Netzwerkstruktur des österreichischen E-Tourismus-Marktes und
Bestimmung der zentralen Knoten
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Univ.Prof. Dr. Hannes Werthner
In dieser Arbeit wird eine Analyse der Netzwerkstruktur des österreichischen
E-Tourismus-Marktes durchgeführt und die zentralen Knoten dieses Netzwerks
werden mit Hilfe der wichtigsten Zentralitätskennzahlen (Grad-basierte
Zentralität, Nähe-basierte Zentralität, Zwischenzentralität) der sozialen Netzwerkanalyse bestimmt. Das Netzwerk besteht aus den Websites der Tourismusanbieter Österreichs, die durch Links miteinander verbunden sind. In den
Kapiteln 2 und 3 wird eine theoretische Einführung in die Themenge biete ETourismus und Netzwerkanalyse gegeben. Danach folgt in Kapitel 4 die Beschreibung des Crawlers, mit dem die Daten für die Analyse gesammelt werden. In Kapitel 5 wird die methodische Vorgehensweise beim Sammeln der
Daten und der Analyse der Ergebnisse dargelegt. Schließlich werden in
Kapitel 6 die Ergebnisse präsentiert, wobei das Netzwerk zuerst graphisch
dargestellt wird und die berechneten Zentralitätskennzahlen für die Knoten
des Netzwerks angeführt werden. Auch wird das Netzwerk mit einem ähnlichen Netzwerk aus dem Tourismusbereich und mit dem Netzwerk des World
Wide Webs anhand wichtiger Eigenschaften von Netzwerkmodellen verglichen. In der Folge wird die Grad-basierte Zentralität allgemein und die
Zentralitätskennzahl des Eingangsgrads speziell, als relevanteste Kennzahl für
die Ermittlung der zentralen Knoten eines Netzwerks des World Wide Webs
ermittelt, und die zentralen Knoten werden anhand dieser Kennzahl bestimmt
und beschrieben. Insgesamt ergab diese Untersuchung, dass die zentralsten
Websites im Netzwerk die sozialen Medien (Facebook, Youtube und Twitter),
das Tourismusportal Tiscover, das Portal der ÖBB sowie ein Destinationsmanagement-Portal aus Oberösterreich sind.
8
Arbeitsbereich Business Informatics
Sebastian Gabmeyer
Formalization of the Operation Recorder based on Graph Transformation
Theory
Studium: Masterstudium Wirtschaftsinformatik
Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel
With the advent of model-driven development, which places models at the
center of all development efforts, some of the existing deficiencies of codecentric software development approaches have been addressed. However, at
the same time new problems arose, which require, e.g., techniques to
describe, control and verify the evolution of models. Drawing from past
findings in the field of code-centric software evolution is only partly feasible
due to the graph-based nature of models, which renders the porting of
solutions for text-based software development impractical. The graph-based
nature of models suggests the application of graph transformation-theoretic
concepts to models, to formally describe their manipulation by means of
graph-rewriting rules. Though the concepts provided by the theory of graph
transformation may seem intuitive, the specification of rewriting rules is a
non-trivial task, which requires adequate tool support and knowledge of the
underlying theory. Due to the heterogeneity of the employed approaches, a
tool's capability to specify graph rewriting rules and the degree of assistance
offered is hard to determine without prior investigation. Thus, a survey of
existing tools was conducted, which revealed the Operation Recorder as a
suitable tooling environment. In contrast to all other surveyed tools, it offers
a by-demonstration environment, which allows to showcase the intended
transformation instead of requiring its manual construction. The Operation
Recorder, however, lacks a formal basis which prevents the verification of its
transformations. Therefore, a framework to describe attributed graphs with
inheritance, composition and multiplicities is presented with the aim to
embed the Operation Recorder into this framework. For this purpose, a
conceptual alignment is pursued which demonstrates the equivalence and
interchangeability of the concepts provided by the Operation Recorder and
those provided by the theory of graph transformation.
9
Patrick Zwickl
Visual Design and Analysis Support for Answer Set Programming
Studium: Masterstudium Information & Knowledge Management
Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel
In the last decade, logic programming experienced new impetus by the
growth of Answer Set Programming (ASP) as one of the key drivers in the
academic world. However, ASP could not attract the same interest as other
declarative programming languages in practice so far. This lack of interest in
ASP may be explained by the absence of a sufficiently supported software
engineering methodology resulting in a difficulty of designing and
developing ASP programs. No tools supporting the development of ASP
programs are available. So far, no modeling environment has been
introduced in the context of software development based on the ASP
paradigm, which offers valuable abstraction and visualization support during
the development process. This thesis aims at establishing a novel method for
visually designing and analyzing ASP programs. Therefore, a graphical
approach for the visualization of ASP is proposed, which is based on concepts
presented in literature for other declarative approaches. Moreover, concepts
of model engineering are combined with the field of logic programming.
Following a Model-Driven Engineering approach, an ASP-specific modeling
language is established which is able to visualize important facets of ASP. The
modeling language is applied within a graphical editor for the model
creation. The resulting models are transformed to textual ASP programs by a
code generator. The model engineering approaches are used to define the
metamodel, a graphical editor, and to generate the ASP program code from
models. Therefore, the link between the formalism of ASP and the graphical
representation has to be established. Due to the close connection between
ASP and deductive databases---databases with logical reasoning capabilities--the widely used Entity Relationship diagram is applied as initial visualization
method for ASP programs.
Arbeitsbereich Interactive Media Systems
Markus Autengruber
A Vision-Based System for Fingertip Detection on Tracked Interactive Surfaces
Studium: Masterstudium Medieninformatik
Betreuer: Privatdoz. Dr. Hannes Kaufmann
Multi-touch sensing on interactive tabletops and other flat surfaces has
become a major trend in the field of human-computer interaction over the
past years. The main objective is to provide a touch interface for the direct
manipulation of digital content by multiple users at the same time. Within
these terms the appropriate design of the interactive surface as well as the
10
automatic detection and tracking of fingertips are crucial. Popular techniques
for fingertip and touch detection use specific contact-sensitive computer
hardware that is either relying on optical sensing in a controlled environment
or capacitive surface technology. Since such hardware is usually custommade, those interaction systems are mostly expensive, inconvenient to move,
install and operate and not scalable. To overcome these drawbacks, a number
of multi-touch researchers strive for alternative techniques to provide more
adjustable interfaces. Here, everyday surfaces shall be augmented with the
functionality of touch-based user interfaces, while using none but off-theshelf and affordable vision hardware and relying on state-of-the-art computer
vision methods and algorithms. This work starts off with the description,
discussion and evaluation of common surface hardware technologies as well
as existing techniques based on simple video hardware. After that, a set of
straightforward computer vision algorithms is selected in order to develop a
stand-alone software application. The application is capable of continuously
tracking a rectangular surface as well as detecting multiple fingertips that
hover above its top. This work is concluded by providing relevant empirical
results on computer vision-based rectangle and fingertip detection in natural
indoor environments.
Harald Jordan
Runtime-optimised Intra Coding Mode Selection for Real-time H.264/AVC
Video Coding
Studium: Masterstudium Informatikmanagement
Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz
H.264 is a powerful video compression standard using advanced spatial and
temporal encoding techniques. Compared to the MPEG4 Part 2 standard,
H.264 achieves the same visual quality at half of the bitrate. The coding
efficiency of H.264 makes it well suitable for quality- and time-critical video
applications such as low-latency video transmission. This work concentrates
on a part of the H.264 coding process that is used in many of these applications - the spatial (Intra) prediction. This coding tool propagates pixels in a
frame for predicting unknown neighbouring pixel regions. H.264 supports
multiple propagation patterns which are referred to as coding modes. The
challenge of most realtime video encoders is to choose an efficient coding
mode in a reasonable amount of time. This process is called coding mode
selection (CMS) and involves the computation of all possible coding modes
and choosing the best one. This thesis focuses on reducing the
computational complexity of the CMS. First, we investigate the behaviour of
the CMS on a set of test sequences. The impact on the coding efficiency
when using only a reduced number of coding modes is analyzed. Second, we
develop two methods for speeding up the CMS. Both methods skip the
computation of coding modes that are unlikely to improve the coding
efficiency. This results in a significant reduction in the computational
complexity of the encoder.
11
Wolfgang Knecht
Clustered Deep Shadow Maps for Multiple Volumes and Geometry Using
CUDA
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung
Betreuer: Univ.Prof. Dr. Dieter Schmalstieg
In der Computergrafik spielen Schatten eine bedeutende Rolle und tragen
wesentlich zur Atmosphäre in einer drei dimensionalen Szene bei. Das
Zusammenspiel von Schatten volumetrischer Objekte, wie etwa Wolken oder
Rauch, als auch Schatten von polygonaler Geometrie stellt in der
Echtzeitgrafik eine besondere Herausforderung dar. Ziel dieser Diplomarbeit
ist es, qualitativ hochwertige Schatten in Szene mit mehreren volumetrischen
sowie lichtdurchlässigen polygonalen Objekten zu berechnen. Schatten
werden dabei auf Objekte vom selben Typ als auch auf Objekte von
unterschiedlichem Typ geworfen. Dazu wird die Implementierung von Deep
Shadow Maps auf Basis eines Polyhedral Volume Renderers beschrieben. Die
Implementierung unterstützt neben Spot-Lichtquellen auch omnidirektionale
Lichtquellen. Des Weiteren werden zwei verschiedene Methoden beschrieben
wie Deep Shadow Maps abgespeichert werden. Um qualitativ bessere
Ergebnisse zu erzielen, werden Objekte der Szene in Gruppen
zusammengefasst und für jede Gruppe eine separate Deep Shadow Map
berechnet. Auf aktueller Hardware können Schatten in Szenen, bestehend
aus mehreren volumetrischen Objekten sowie polygonaler Geometrie, mit
interaktiven Frameraten berechnet werden.
Wolfgang Morgenbesser
Spracherkennung in mobilen Endgeräten
Studium: Masterstudium Medieninformatik
Betreuer: Ao.Univ.Prof. Dr. Horst Eidenberger
In dieser Arbeit wird ein Spracherkennungssystem mit einfacher
Wortübersetzung für mobile Endgeräte wie Mobiltelefone und PDAs geplant
und auf einem Zielgerät umgesetzt. Dazu werden im ersten Teil die
theoretischen Grundlagen von Sprache und Spracherkennung beleuchtet. Im
Anschluss wird auf prominente Verfahren im Verlauf des Spracherkennungsprozesses eingegangen. Auch werden potentielle Störquellen und
Restriktionen im mobilen Einsatz untersucht. Im zweiten Teil wird die Java MEPlattform vorgestellt, welche als Basis für die praktische Umsetzung des
Spracherkennungssystems dient. Der eigentliche Entwicklungsprozess wird
von der Technologieauswahl, über die tatsächliche Umsetzung bis hin zu
Optimierungen und Schwierigkeiten im Rahmen der praktischen Arbeit
ausgeführt. Die experimentelle Validierung liefert schließlich Informationen
und Aufschlüsse über das eingesetzte System.
12
Arbeitsbereich Information and Software Engineering
Daniel Bründl
Einbettung der Risk Oriented Process Evaluation in das (IT-)
Projektmanagement
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Privatdoz. Dr. Edgar Weippl
Projektmanagement, derzeit ein beliebtes Schlagwort in verschiedenen
Bereichen der Wirtschaft, gewinnt speziell in der Softwareentwicklung immer
mehr an Bedeutung. Kaum ein Vorhaben, und sei es vermeintlich ein noch so
kleines, wird heutzutage ohne ein zumindest rudimentäres Projektmanagement abgewickelt. Einen der Hauptgründe für diese Tatsache kann man in der
Globalisierung orten. Arbeitsverhältnisse werden kontinuierlich aufgeweicht
und hierarchische Strukturen gleichzeitig flexibler gestaltet, um den neuen
Anforderungen schneller und effizienter begegnen zu können. Diese
Strömungen sind grundsätzlich richtig und wichtig; allerdings wird etwaigen
Risiken, welche mit einem derartigen Umstrukturierungsprozess verbunden
sein können, zu wenig Beachtung geschenkt beziehungsweise verfügt das
klassische Projektmanagement über zu wenig brauchbare Vorgehensweisen.
Genau diese Risiken werden jedoch gegebenenfalls über Erfolg oder
Misserfolg eines Projekts entscheiden. Der derzeitige Status quo im (IT)Projektmanagement legt daher den Schluss nahe, dass etwaige auftretende
Risiken nicht in geeigneter Art und Weise behandelt werden. In dieser Arbeit
wird ein möglicher Lösungsvorschlag für dieses Problem erarbeitet. Ein neues
Vorgehensmodell - „Risk Driven Process“ - enthält Elemente der Prozessmodellierung, mit dem ein neues Risikomanagement im Projektmanagement
installiert werden kann. „Risk oriented process evaluation“ nach Jakoubi und
Tjoa wird dabei als Grundlage für den neuen Ansatz verwendet und um die
Anwendung im Projektmanagement erweitert. Schließlich wird das neue
Modell mittels Abarbeitung eines Fallbeispiels untermauert.
Alexander Duggleby
Software-based Atomation of Risk Assessment
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: O.Univ.Prof. Dr. A Min Tjoa
Due to the complex world we live the outcome and consequences of the
decisions we make cannot be fully understood. We have evolved to cope
with this uncertainty in our daily lives. It becomes a challenge when multiple
stakeholders are involved and we are held responsible by others for our
actions. The field of risk research has occupied researches for decades and
produced numerous methods for managing these risks. Even so they are
often incompatible with each other and the results are highly subjective
causing low adoption rates by organisations. These methods seldom define
13
details in process implementation and a lack of tooling support makes the
actual risk assessment phase very cost intensive. The expert sources required
are often interviewed personally and the data processed by hand. This
ultimately leads to less assets being surveyed. This thesis attempts to
automate large parts of the aforementioned process with the help of software
tools. The cost of the whole process can be reduced by designing an
integrated and automated software solution for risk assessment which in turn
allows more assets to be assessed. The basis for the automation is a
systematic assessment of the assets state and hierarchical aggregation of the
resulting risk levels. Common risk management methodologies were
examined, commonalities identified and a generic risk assessment approach
defined. A data model was developed to describe processes based on this
approach. A software prototype based on the derived technical data model
was used to test the validity and aggregation capabilities of the concept
based upon a common risk management methodology for IT security. The
main results of this work are the generic risk assessment process, the design
of a technical model for describing and documenting it and the software
prototype application that supports it.
Riccardo Gottardi
Complex Digital Object Preservation
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber
Diese Arbeit analysiert die Problematik der langfristigen Bewahrung von
elektronischen Dokumenten. Eine neue Herausforderung im Bereich der
digitalen Langzeitarchivierung betrifft komplexen Objekte, die aus mehrerem
einzelnen Objekten bestehen. Um die Erhaltung und Verwendung dieser
Objekte sicherzustellen, müssen deren einzelne Teile analysiert und falls
erforderlich behandelt werden. Das Problem der langfristigen Bewahrung von
digitalen Objekten ist, den Zugriff auf diese unbegrenzt zu sichern. Alle Teile
im Dokument, die sich in obsoleten oder proprietären Formaten befinden,
werden für die langfristige Verwendung in bevorzugte und geeignetere
Formate migriert. Im ersten Teil dieser Arbeit wird der Prozess der
extrahierung der einzelnen Elementen des komplexen Objektes beschrieben.
Danach werden die Objekte migriert und in ein neues komplexes Objekt des
gleichen Formats wie das Ausgangsobjekt zusammengesetzt. Der zweite Teil
der Arbeit zeigt einen Musterfall, wo unterschiedliche Dokumente in ODF
oder ooXML Format mit verschiedenen Alternativen, einschließlich der
Migration mit dem COP Plug-in, migriert werden. Das COP Plug-in ist ein
selbst implementiertes Plug-in für jHove, das die Standard-Features wie die
jHove Identifizierung, Validierung und Charakterisierung der digitalen
Dokumente auf ODF oder ooXML Format einschliesst. Außerdem ermöglicht
die Software die Extraktion der Struktur der Formate und die Herauslösung
kritischer Objekte aus dem komplexen Objekt. Die Ergebnisse dieses
Experimentes zeigen, dass wenn das digitale Dokument als ein komplexes
14
Element behandelt wird, die Qualität der Migration für eine lang-zeit
Archivierung erhöht wird. Dies ist möglich, weil das originale Format bewahrt
bleibt und die Probleme der Unterlemente individuell gelöst werden oder in
einen neuen Format unmgewandelt werden können.
Michael Handler
Semantic Data Integration in (Software+) Engineering Projects
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl
The major problem that arises, when complex systems have to be
engineered, is weak interoperability of tools in one engineering domain and
especially between tools of different engineering domains. Incompatible
syntactical representations of the same semantic concepts make efficient
integration of engineering tools especially difficult. In addition high quality
standards and rapidly changing requirements for large engineering projects
create the need for advanced project management and quality assurance
applications, like end-to-end tests across tool and domain boundaries. To
solve the integration problem often costly and hard to maintain point to point
integration between the tools is done. But these systems are not capable of
fulfilling the requirements of a modern engineering environment, like
robustness, flexibility and usability. The Engineering Knowledge Base (EKB) is
a framework for semantic engineering environment integration. In this thesis
a semantic data integration solution for (software+) engineering is developed
based on the EKB concept. A prototype of the EKB is developed and
integrated into the Open Engineering Service Bus (OpenEngSB). The
prototype is evaluated against the current technical-only integration provided
by the OpenEngSB with the help of two use cases: (1) Definition Of Quality
Criteria Across Tool Data Models in Electrical Engineering and (2) Change
Impact Analysis for Requirement Changes. The empirical evaluation shows
that the EKB is an effective and efficient way to provide the necessary
infrastructure for advanced applications like end-to-end tests across tool
boundaries. Nevertheless additional configuration and maintenance effort is
needed to manage the semantic knowledge. Yet if applications like those
described in the real world use cases have to be performed, the additional
features of the proposed semantic integration framework outbalance these
disadvantages.
15
Mario Imber
A Unified Tooling Framework for Pedestrian Simulation
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Privatdoz. Dr. Edgar Weippl
Mathematical models of walking behaviour of pedestrians find application in
numerous areas including architecture, panic analysis, traffic control, urban
design, retail industry or entertainment. Pedestrian modelling evolved into a
broad field of research with approaches following various different base
concepts. Commercial and prototypical software tools exist to enable analysis
and simulation of pedestrians in a given environment. Existing software
solutions provide highly integrated components used to design simulation
scenarios, run simulations or calculations and visualize or analyse the results.
Though this application structure supports a consistent user experience, it
prohibits the reuse of scenario definitions with different simulation models
due to proprietary interfaces or tightly coupled implementations. This thesis
follows an alternative approach of decoupled scenario creation, attempting
to develop a more flexible tooling framework for unified definition of
pedestrian scenarios. The framework consists of two parts, first the
specification of a generic interface used to describe the parameterization of
scenarios expected by a simulation model and to specify scenario instances
following that parameterization, and second a software tool supporting the
creation of simulation scenarios conforming to that interface. The interface
specification is developed based on a generic model of scenario input data,
which is derived from an analysis of existing models. A categorization of
modelling approaches is given, followed by reviews of selected proposals in
literature providing a broad coverage of the problem field. The technical
realization of the interface in XML is discussed using UML class diagrams. A
Java implementation, the Scenario Builder, is presented as the second
framework part, a software tool realizing user interface concepts that enable
practical adoption of the proposed interface.
Martin Leonhartsberger-Schrott
ASTER - Entwurf und Implementierung eines sensorenbasierenden RubikWürfels als Lernspiel
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Gerald Futschek
Der 1974 von Ern Rubik erfundene "Zauberwürfel" ist für Kinder und
Erwachsene gleichermaßen eines der beliebtesten Puzzlespiele. Diese Arbeit
beantwortet die folgenden Frage: Wie kann eine Implementierung einer
interaktiven, sensorenbasierenden Version des Rubik-Würfels und deren
Einbettung in eine didaktisch wertvolle Software aussehen? Ein würfelförmiges Eingabegerät wurde gebaut und dokumentiert, welches im Inneren
einen Mikrocontroller und diverse Sensoren verbirgt. Deren Messergebnisse
16
werden zu einem Computer übertragen, auf welchem der zweite Teil der
Arbeit zum Einsatz kommt: Ein Programm, das diese Werte interpretiert und
einen virtuellen Rubik-Würfel rendert. Dieser folgt dem Eingabegerät sowohl
in Konfiguration als auch bezüglich der Orientierung im Raum. Diese Arbeit
beschreibt die technischen und mathematischen Grundlagen des Prototyps
und argumentiert die didaktischen Prinzipien der Lernsoftware. Zusätzlich
werden konkrete Unterrichtsszenarien präsentiert, die das entwickelte System
inkorporieren. Außerdem wird die entwickelte Hard- und Software in Bezug
auf ihre Einsetzbarkeit auf älteren Systemen einer Evaluation unterzogen.
Abschließend werden mögliche zukünftige Weiterentwicklungen diskutiert.
Ludwig Meyer
Lightweight UML Model Creation
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl
UML ist ein industrieweit anerkannter Modellieungs-Standard mit 13
Diagrammtypen und einfacher Notation. Obwohl es breite Tool-Unterstützung gibt, sind viele dieser Tools nur schwer bedienbar. Sie leiden unter
nicht optimal entworfenen Benutzeroberflächen mit schwer entzifferbaren
Icons, Pop-Up Fenstern, verschachtelten Menüs und Tab-Panes, etc. Textbasierte Benutzereingabe bietet eine Alternative zu bekannten grafischen
Metaphern. Das open-source Tool UMLet integriert den text-basierten Ansatz
beim Modellieren, um Elemente und Diagramme mittels einfacher Grammatik
zu erstellen. Diese Arbeit vergleicht die Effizienz herkömmlicher GUIs mit
UMLets textbasiertem Interface im Kontext des explorativen UML Modellierens
auf Basis repräsentativer Use-Cases. Die Evaluierung beruht auf einer
vereinfachten Methode zur quantifizierten Messung von Benutzeroberflächen.
Sie betrachtet die Anzahl der durch den Nutzer erforderlichen Interaktionen
zur Erfüllung einer Aufgabe. UMLet ist ein leichtgewichtiges Werkzeug zur
UML Modellierung. Der Fokus liegt auf einem einfachen und verständlichen
Bedienungskonzept. Die Erstellung von Diagrammen so einfach und schnell
wie mit Papier und Bleistift, aber mit den Vorteilen bei der Modifikation und
Verfeinerung am Bildschirm. Ein text-basiertes Interface erhöht die
Bedienungsgeschwindigkeit bei der Erstellung von Diagrammen. Einfache
aber zugleich mächtige Syntax erlaubt die Modifikation einzelner Elemente,
und sogar ganzer Diagrammtypen. Eines der Schlüsselfeatures UMLets ist
seine erweiterbare, modulare Struktur mithilfe eines integrierten JavaCompilers. Die Benutzer können anhand eines einfachen Templates, das
bereits alle notwendige Basisfunktionalität aufweist, einfach und schnell
mittels Java ihre eigenen Elemente erstellen. UMLet bietet eine fast
komplette Unterstützung für UML 2.0 und ist nicht zuletzt durch die
Erweiterbarkeit mit Hilfe der genannten Custom-Elements an die jeweiligen
Anforderungen leicht anpassbar.
17
Christian Österle
Extension of the Business Process Execution Language (BPEL) with
probabilistic time management of choreographies and time constraints in
workflow systems
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: O.Univ.Prof. Dr. A Min Tjoa
WS-BPEL provides a language for describing the behavior of a business
process based on interactions between the process and its partners. The
interactions of partners occurs through web service interfaces which ensure
interoperability between applications by using web standards. Time
management and temporal conformance is an important criteria for business
processes. It ensures that activities are performed in a timely manner and that
the right information is delivered to the right activities at the right time, such
that overall temporal restrictions are satisfied and no deadline is violated.
Deadline violations increase the execution time and cost of business
processes because they require some type of exception handling. The
contribution of this diploma thesis will be the implementation of a tool that
enables users to augment WS-BPEL-processes with temporal information in
design time and a run time component for checking the temporal behavior of
the processes at run time. In design time a valid temporal interval for
(activities of) each process is calculated with consideration for the structure of
each process and the interactions between different processes and then
checked if the model is temporally feasible, i.e. there is a solution satisfying
all temporal constraints. Calculating the temporal intervals and checking the
temporal conformance will be performed for two cenarios. The interval-based
scenario, which allows a variable duration of activities within an interval. The
stochastic scenario, that allows the definition of different activity durations
with different probabilities and also takes the conditional branching behavior
into account. In run time, it is checked if the activities are executed within the
valid calculated intervals at design time. Therefore the time points of all
processes are mapped to a calendar with current dates and times. Then, the
temporal status of each process instance can be monitored.
Alexander Pucher
Resource Efficiency in Tritonsort - Optimization of Resource Utilization in
large-scale external Sorting
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl
Internet scale services like Google Search and Cloud services operate on
massive amounts of information. Timely processing of this data at the scale of
Tera- and Petabytes requires the use of DISC systems, orchestrating large
assets of hardware with frameworks such as Apache Hadoop. Annually, DISC
system performance is compared by Sort Benchmark. Recent results show
18
significant gains in performance, but a substantial loss in resource efficiency
too. The Tritonsort case study is set up to create a top-performing and costeffective system for large-scale Sort Benchmark by emphasizing resource
efficiency over sheer scalability. This paper systematically evaluates resource
efficiency of the Tritonsort prototype and contributes two improved software
components. Objective. Systematic evaluation of resource efficiency of
Tritonsort by comparison to state-of-the-art systems and development of wellperforming components for intermediate data storage and internal sorting.
The solution is deemed effective if Tritonsort is capable of performing 100TB
Gray Sort Indy and Minute Sort Indy benchmarks and provides competitive
performance and cost efficiency. Method. Survey in literature about existing
approaches to distributed parallel sort, design and implementation of internal
sorting and disk I/O components, and evaluation by systematic comparison to
existing systems in terms of performance and resource efficiency. Result.
Tritonsort outperforms state-of-the-art systems in the 2010 Gray Sort Indy and
Minute Sort Indy challenge by a factor of four per cluster node. It improves
upon average throughput per CPU core and disk and achieves higher cost
efficiency. Literature. Anderson and Tucek emphasize the potential of
resource efficient systems and provide a systematic listing of different aspects
of efficiency. Vitter creates the foundation for efficient disk I/O in external
sorting while different Sort Benchmark systems inspire design and
optimization of internal sort.
Florian Schnitzhofer
Automatisierung von Requirements Traceability mittels Information Retrieval
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl
Das Erstellen von Requirements Traceability ist ein ressourcen- und
zeitintensiver Vorgang der schwer automatisierbar ist. Diese Arbeit untersucht
den Einsatz von Information Retrieval Algorithmen zur automatisierten Erkennung von Beziehungen zwischen Anforderungen. Es wird angenommen, dass
der Beziehungstyp Einfluss auf die Analyseergebnisse hat. Dafür werden
folgende drei Beziehungstypen eingeführt: strukturelle Abhängigkeiten,
beschränkende Abhängigkeiten und kosten- und wertrelevante Abhängigkeiten. Zur Überprüfung der These werden ein Vector-Space-Model und ein
Latent-Semantic-Indexing Algorithmus auf zwei Fallstudien mit schablonenartigen Anforderungen angewendet. Die Auswertung der Ergebnisse zeigt,
dass trotz der generell geringen Erkennungsrate die strukturellen Abhängigkeiten besser erkannt werden als andere Beziehungstypen.
19
Martin Tintel
Interdisziplinäre Projekte im Informatikunterricht
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Gerald Futschek
Projektbezogenes Lernen ist eine praxisorientierte Methode, sich Wissen
anzueignen. In einem interdisziplinären Umfeld können nicht nur interessante
Projekte entstehen, sondern auch das Interesse für andere Fächer geweckt
beziehungsweise entdeckt werden. Die Magisterarbeit begleitet in
verschiedenen Schulklassen und stufen Projekte von Anfang bis Ende und
dokumentiert deren Entstehung sowie Umsetzung. Die dabei auftretenden
Herausforderungen werden wie deren Lösung erläutert. Ferner wird erörtert,
wie aufgetretene Probleme bei weiteren Projekten vermieden werden
können. Die Arbeit gibt Einblicke in das Schulleben, die dort verwendeten
Unterrichtsmethoden und die Bündelung verschiedener Lehrmethoden bei
Projekten.
Reinhard Zumpf
On Strategic Approaches to DDoS Defense: Principles, Protection, Practice
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Privatdoz. Dr. Edgar Weippl
Distributed Denial of Service attacks are a major threat on the Internet that
could not be completely fixed until today because we have to deal with a
systematic problem, due to the inherent weaknesses and the principle of
openness of the World Wide Web. This makes it difficult to issue an efficient
solution that provides a strong economic model and deployment incentive
for those responsible and participants in order to make that solution viable
globally. The final goal of my thesis is to bring the different solution attempts
to DDoS defense closer to each other by introducing, comparing, and
evaluating them in the context of the state-of-the-art background about the
DDoS threat which is provided in my thesis, to accomplish a homogenous and
enclosed overview about the current circumstances and difficulties at the
frontline against DDoS attacks. Aggregated state-of-the-art information and
latest research results about the DDoS threat itself are a major part of my
thesis and provide a broad basis to outline the DDoS threat from different
points of view. A novel approach to attack the DDoS business concludes this
thesis.
20
Institut für Gestaltungs- und Wirkungsforschung
Arbeitsbereich Human Computer Interaction
Stephan Bazalka
Preed - Hypertext Application for Sharing and Presenting Digital Artefacts in
Meetings
Studium: Masterstudium Medieninformatik
Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer
This diploma thesis investigates the role of information technology to support
meetings of a group of people in a meeting room. Although research projects
show that there is a need for improvement in the usage of technology in
meetings, very few tools actually support presenting and sharing digital
content, which is an important part of todays meetings. Preed, the setup
accompanying this work, consists of two parts: The software provides a web
based user interface for the participants of a meeting. Using this interface,
the participants are able to share digital artefacts like websites, images, notes
and documents with each other. They are also able to present these artefacts
on the presentation screen, without any action of the presenter. The
hardware setup of Preed provides an HDMI-interface to the presenter,
allowing him/her to connect their laptop and show a presentation or other
digital content. The use of Preed does not require any installation on the
hardware of the meeting participants. During the design and development of
Preed, ethnographic research and sketching played an important role. It was
shown that thorough research and user involvement help in the
understanding of the actual usage scenario as well as in making design
decisions.
Peter Mihalik
Anwendung der Konzepte von WEB 2.0 in WEB 2.0-fremden Domänen
Studium: Masterstudium Medieninformatik
Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer
Diese Diplomarbeit befasst sich mit der praktischen Anwendung der
Prinzipien, die den Begriff Web 2.0 geprägt haben. Im Zuge der Arbeit wurde
eine Bibliotheksanwendung entwickelt, obwohl (oder gerade weil) diese in
Web 2.0-Umgebungen bisher eher untypischen waren. Bei der Konzeptionierung der Anwendung wurde besonderes Augenmerk darauf gelegt,
welche Web 2.0-Technologien vernunftig einsetzbar sind und vor allem wie
einzelne Web 2.0-Konzepte am Besten implementiert werden können. Hinter
dem Begriff Web 2.0 verbirgt sich eine Vielzahl von Konzepten, Technologien
und Richtlinien, die in dieser Arbeit evaluiert werden. Die Prinzipien des Web
2.0, sowie der Begriff selbst, werden im ersten Teil dieser Diplomarbeit
21
definiert und erklärt. Es wird auch auf die geschichtlichen Aspekte des Begriffs
eingegangen. In weiterer Folge werden die theoretischen Ansätze der
Verbindung der Konzepte von Web 2.0 mit den Bibliothekssystemen
evaluiert. Der zweite Teil der Arbeit beschreibt das praktische Anwenden der
im ersten Teil beschriebenen Prinzipien anhand der Entwicklung der
Bibliotheksanwendung des Instituts für Gestaltungs- und Wirkungsforschung
der Technischen Universität Wien.
Thomas Nägele
Clemens Sagmeister
Scribbler - Ein Interface zur Unterstützung kollaborativer Interaktionsformen
für die Arbeit auf gemeinsam genutzten Displays
Studium: Masterstudium Medieninformatik
Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer
Kollaboratives Arbeiten bedeutet das Teilen von Materialien, Dokumenten
und Werkzeugen. Herkömmliche, greifbare Medien schaffen eine Kommunikationsebene zwischen den Personen, auf der es möglich ist, Gedanken, Ideen
und Konzepte rasch und zugänglich aufzubereiten. In der Vergangenheit sind
schon einige Versuche unternommen worden, diese Art des Arbeitens auf
digitalen Medien umzusetzen. So gibt es bereits Ansätze, die die Zusammenarbeit auf einem gemeinsamen großen Display ermöglichen sollen. Jedoch
stößt man bei der Arbeit mit diesen kollaborativen Systemen immer wieder
auf Barrieren, da es bisher noch nicht gelungen ist, eine effiziente und
transparente Schnittstelle zwischen analogen und digitalen Objekten zu
schaffen. Anhand theoretischer und praktischer Ansätze beschreibt die
folgende Arbeit die Unterstützung traditioneller Arbeitsweisen von Designern
auf digitalen Objekten. Das kollaborative System Scribbler setzt auf die wohl
wichtigste Designmethode, das Skizzieren, und versucht eine barrierefreie
Schnittstelle zwischen realen und digitalen Objekten zu schaffen.
Mario Schekulin
Einsatz von Video in E-Learning
Studium: Masterstudium Informatikmanagement
Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl
Es wurde bald nach der Veröffentlichung des ersten Films klar, dass dieses
Medium sich gut dafür eignet Wissen zu vermitteln. Mit der Einführung des
Fernsehers und Videorecordern wurde das Lernen mit Videos massiv
gefördert. Die hohen Erwartungen bezüglich Lernerfolg und Lernzufriedenheit konnten jedoch nicht wirklich erfüllt werden. Durch die Möglichkeiten der
Computertechnologie, besonders durch das Internet und das Web 2.0
entstehen didaktische als auch technologische Trends welche die Anforderungen der Lernforschung besser erfüllen können. In dieser Arbeit wurden
22
real genutzte Umgebungen im Internet untersucht und Testpersonen wurden
dann mit diesen konfrontiert. Mittels Thinking-aloud Methode und
qualitativen Interviews wurden danach die Erkenntnisse erhoben. Es wird
gezeigt welche Erwartungen des Lerners erfüllt und welche Richtlinien
eingehalten werden müssen. Besonders die Möglichkeit der Interaktivität und
wie diese eingesetzt werden kann oder sollte spielt eine große Rolle.
Johannes Wallner
Atemporale Fotografie in Social Maps
Studium: Masterstudium Medieninformatik
Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer
Fotografien sind Darstellungen einer Szene zu einem bestimmten Zeitpunkt.
Im Laufe der Zeit verändern sich jedoch unweigerlich die zu einem
bestimmten Zeitpunkt aufgenommenen Begebenheiten in der Szene.
Aufgrund der umfangreichen Menge an digitalisierten Fotos unterschiedlicher
Zeitpunkte, welche über das Internet zu finden sind, bietet sich die
Darstellung und die Vereinigung der Fotos in einem interaktiven IT-System
an. Dadurch sollen die Veränderungen der Aufnahmen über die Zeit
zielgerichtet dargestellt und mit weiterführenden Informationen wie zum
Beispiel dem Standort, dem Datum und persönlichen Eindrücken zu jener
Aufnahme versehen werden können. Das Resultat dieses computergestützten
Vorgangs soll ein neues, zeitloses Foto aus verschiedenen Bestandteilen
existierender Refotografien darstellen. Diese Arbeit enthält die Konzeption,
Implementierung sowie Anwendertests eines möglichen interaktiven und
sozialen Systems, welches eine kollaborative, selektive Bildsynthese durch die
Anwender des Systems ermöglichen soll. Ein zentrales Element dieses
sozialen Systems stellt die gemeinsame Verwendung einer geografischen
Navigationskomponente in Form einer interaktiven Landkarte dar. Das
Methodische Vorgehen dieser Arbeit umfasst die Konzeption eines
interaktiven Systems basierend auf einer Projektidee, die prototypische
Umsetzung als grafische und interaktive Prototypen sowie die
Implementierung des Systems. Weiters wurden Anwendertests mit einer
ausgewählten Zielgruppe durchgeführt, die neben der Interaktion mit dem
sozialen System auch über die mögliche Nutzung in einem
aufgabenorientierten Kontext Aufschluss geben. Hierbei wurden die
Anwender mit Mockups durch die Innenstadt von Wien geführt um
Refotografien durchzuführen. Die Anwendertests wurden anhand
Beobachtungen, Fragebögen und Einzel- sowie Gruppenbefragungen
durchgeführt. Die Benutzbarkeit des interaktiven Systems und seine
Praxistauglichkeit konnte anhand der Anwendertests gezeigt werden.
23
Arbeitsbereich Multidisciplinary Design
Helmut Chlebecek
"Digital Game-Based Learning" Lernen mit Digitalen Lernspielen
Studium: Masterstudium Medieninformatik
Betreuerin: Associate Prof. Dr. Hilda Tellioglu
Digitale Lernspiele sind eine neue Form des elektronisch unterstutzten
Lernens. Der Fokus bei diesen Lernspielen ist primar auf die Motivation der
Lernenden gerichtet. Das zu vermittelnde Wissen wird dabei eher indirekt
transferiert. Formen der Vermitt- lung bestehen aus Interaktion von Computer
und Mensch und erfolgen multimedial. Die vorliegende Arbeit beschreibt
zunachst die Grundlage von digitalen Lernspielen, das Lernen. Dabei werden
Lernparadigmen und diverse wissensvermittelnde Grundlagen er- ortert. Das
Spiel soll im darauf folgenden Artikel ins Zentrum der Betrachtung geruckt
werden. Dabei werden Definitionen von Spiel sowie die Natur und
Hintergrund des Spiels beschrieben. Des weiteren werden didaktische und
motivationale Aspekte des spielba- sierten Lernens ausfuhrlich behandelt.
Den Theorieteil schließt eine Zusammenfassung und ein Ausblick in die
Zukunft von digitalen Lernspielen ab. Im praktischen Teil der Ar- beit werden
relevante Teile der Umsetzung und Implementierung vom Rechtschreibspiel
Kangurules auf Grund des erworbenen Wissens dokumentiert. Dieses
Rechtschreib- spiel wird evaluiert und getestet. Die Ergebnisse der Evaluation
brachten interessante Erkentnisse zum Vorschein. Aufgrund der
Beobachtungen war eine Tendenz zu erken- nen, die vermuten lasst, dass
durch das vorliegende Rechtschreibspiel nicht besser oder schneller gelernt
werden kann, aber es scheint sichtlich mehr Spaß zu machen.
Petra Ollram
Presentation Support: enHandced - A Gestural Interface Prototype with a Data
Glove
Studium: Masterstudium Medieninformatik
Betreuerin: Associate Prof. Dr. Hilda Tellioglu
The focus of this diploma thesis is the analysis of presentation software and
alternative possibilities of presentation support, especially in a combination
with gestural interfaces. The gesture controlled prototype of an alternative
presentation support software, which is developed in the course of this
thesis, is analysed and evaluated in this regard. The numerousness of
presentations held and heard make is necessary to design the presentation
software in an effective way so both the audience and the presenter can
profit from it. Presentation navigation, features for highlighting important
parts of the content as well as the now popular use of gestural interfaces are
emphasized in the development and analysis of the prototype. The points at
issue are the construction of an easy to build and easy to use data glove as
24
well as the creation of an effective gesture controlled software for interaction
with slideshows. The prototype is evaluated by conducting video observed
user tests where the users have to perform specified tasks with the prototype,
interviews with the six test users as well as with consideration of usability
aspects. The collected data from the observations and the survey afterwards,
allow drawing conclusions about the usage of presentation support features
and navigation, the necessary simplicity of presentation software and data
glove use.
Markus Radits
The Affective PDF Reader
Studium: Masterstudium Medieninformatik
Betreuerin: Univ.Prof. Dr. Ina Wagner
Beim Affective PDF Reader handelt es sich um einen PDF Reader, der in
Echtzeit den Gesichtsausdruck des Users interpretiert um daraus Rückschlüsse
auf den emotionalen Zustand des Lesers zu ziehen. Aus den dadurch
gewonnen Informationen wird visuelles Feedback im Texthintergrund
generiert um dadurch die Möglichkeit einer positiven Beeinflussung des
Leseprozesses zu untersuchen. Die Motivation zum Affective PDF Reader
entstand einerseits durch die großen Fortschritte in den Bereichen Affective
Computing, Signal Processing und Pattern Recognition. Andererseits aus der
Erkenntnis, dass unsere oftmals regungslosen Gesichter bei der Arbeit mit
Computern von keiner positiven Interaktion zeugen. Der Prototyp des
Affective PDF Readers verwendet zur Visualisierung Fußabdrücke, deren
Farbe sich aus dem detektierten Gesichtsausdruck ergibt. Diese Fußabdrücke
dienen dazu die affektiven Reaktionen gemeinsam mit dem Text darzustellen
um dadurch in einer Interaktionsschleife das Lesen positiv zu beeinflussen.
Die Positionen dieser graphischen Objekte werden mit der Maus bestimmt.
Nachdem ein Fußabdruck gezeichnet wurde, wird er langsam ausgeblendet,
um ein Überladen zu vermeiden. Zukünftig soll die Positionierung mit einem
Eyetracker erfolgen. Es hat sich gezeigt, dass visuelles Feedback in solch einer
Anwendung großes Potential in sich birgt und viele neue, interessante Fragen
aufwirft. Wenn die Visualisierung schlicht und nicht aufdringlich ist, kann der
Leseprozess positiv beeinflusst werden.
25
Andreas Sackl
Multiple Datenpreisgabe als Bedrohung der Privatsphäre. Eine empirisch
qualitative Untersuchung zur Risikowahrnehmung im Kontext
allgegenwärtiger Datenerfassung
Studium: Masterstudium Medieninformatik
Betreuer: Ao.Univ.Prof. Dr. Gerald Steinhardt
Die Durchdringung des Alltags mit modernen Computertechnologien wie
zum Beispiel Online Social Networks, Onlinestores oder Kundenkarten führt zu
einem massiven Anstieg der erfassten und verarbeiteten persönlichen Daten.
Die sich daraus ergebenden, mannigfaltigen Risiken hinsichtlich der
Privatsphäre führen zu der Frage, warum betroffene Personen sorglos mit
ihren Daten umgehen und warum es zu einer verzerrten Wahrnehmung
hinsichtlich möglicher Eingriffe in die Privatsphäre und zu einem geringen
Risikobewusstsein kommt. Theoretische Überlegungen bezogen auf den
diffusen Begriff Privatsphäre, kombiniert mit Erkenntnissen der aktuellen
Risikoforschung und sozialpsychologischer Theorien, wie etwa der Begriff
Alltagsbewusstsein, lieferten die Grundlage für die anschließende, empirische
Untersuchung. Als Erhebungsmethode kam das qualitative Verfahren der
Gruppendiskussion zum Einsatz, die Auswertung des erhobenen Materials
erfolgte anhand einer sozialwissen-schaftlichen Hermeneutik, welche die
relevanten Aussagen der Teilnehmer mit den zuvor erarbeiteten
theoretischen Konzepten in Verbindung brachte. Es wurden 5 Diskussionen
mit je 8 TeilnehmerInnen durchgeführt. Es zeigte sich, dass diese fundiertes
Wissen über die Risiken von ICTs bezogen auf die Privatsphäre vorweisen,
jedoch nicht in ihr alltägliches Handeln einbringen konnten. Die betroffenen
Personen wendeten diverse Mechanismen an, um ihr Handeln zu
rechtfertigen, beispielsweise die Betonung der eigenen Handlungskompetenz
oder Hervorhebung der eigenen Stellung als Experten hinsichtlich der Risiken.
Zahlreiche Aussagen deuteten auf eine gewisse Ohnmacht und Hilflosigkeit
gegenüber ICTs hin, die Mechanismen der Datenverarbeitung können
anscheinend weder verstanden noch beeinflusst werden. Dies äußert sich
unter anderem dadurch, dass dem Staat als rechtliche Instanz viel Vertrauen
und Handlungskompetenz entgegengebracht wird.
26
Institut für Computergraphik und Algorithmen
Arbeitsbereich Computergraphik
Stefan Hehr
Scattered Multi-field Volumes
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung
Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller
Diese Arbeit thematisiert den Umgang, im Konkreten die Speicherung, die
GPU-Handhabung, aber vor allem die Darstellung und Visualisierung von
komplexen Volumendatensätzen. Diese können aus unterschiedlichen
Primitiven zusammengesetzt sein wie zum Beispiel aus Dreiecken, Voxel oder
Partikel. Die vorliegenden Daten müssen dabei nicht räumlich voneinander
getrennt sein, sie können sich auch überlappen, gegebenenfalls auch
miteinander interagieren. Ein vorstellbares Szenario wäre eine überflutete
Landschaft, wobei das Gelände in Form eines Dreiecksnetzes, das Wasser als
Volumen und eventueller Niederschlag als Partikel vorliegen. Nach
umfassender Recherche im Bereich der Datenstrukturen (vornehmlich
Bäumen) soll eine geeignete Struktur gewählt und praktisch umgesetzt
werden. Diese Struktur soll nicht nur ermöglichen, große Datenmengen zu
beinhalten, sondern diese auch nach Bedarf schnell und mit möglichst wenig
Aufwand in den Speicher der Grafikkarte schieben zu können. Die Verwaltung
und Zurverfügungstellung der Daten ist der eine Teil, der andere ist die
Auswertung und die abschließende Ausgabe, d.h. das Traversieren durch die
Baumstruktur der Daten. Diese Visualisierung erfolgt durch Ray-Tracing. Die
Umsetzung eines erweiterbaren Ray-Tracers auf der Grafikkarte ist ebenfalls
Bestandteil dieser Arbeit. Aufgabe dieser Arbeit ist es, verschiedene Ideen zu
sammeln, wie die verschiedenen Datensätze gehandhabt werden können, um
eine möglichst schnelle Anzeige zu ermöglichen. Die Ansteuerung des
hybriden Ray-Tracers ist vor allem in der Handhabung des Datenartwechsels
herausfordernd. Zu diesem Zweck wurden drei Methoden angedacht und die
Vielversprechenste implementiert.
Thomas Kment
Spectral data representation techniques for realistic image synthesis
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung
Betreuer: Univ.Prof. Dr. Werner Purgathofer
Digitale Bildsynthese wird in vielen industriellen Anwendungen eingesetzt.
Ein Teilbereich dieser Disziplin ist die physikalisch korrekte Darstellung
natürlicher Phänomene wie beispielsweise die Farbe des blauen Himmels,
oder korrekte Lichtbrechung. Die diesen Phänomenen zugrundeliegenden
physikalischen Effekte erfordern, dass bei der Verarbeitung von
27
Farbinformationen deren spektrale Eigenschaften berücksichtigt werden.
Hierfür wurden über die Jahre einige Methoden entwickelt. Diese stehen vor
der gemeinsamen Herausforderung, komplexe Daten (z.B. fluoreszierende
Lichtquellen) möglichst genau darzustellen. Meine Arbeit vergleicht diese
Verfahren mithilfe der Farbdistanzformel CIEDE2000 und eines großen
Testdatensatzes (NCS Farbatlas) und geht der Frage nach, welchen Einfluss
Tiefpassfilter bei der Veränderung der Abtastrate der Daten haben.
Stefan Marek
Normal Estimation Of Very Large Point Clouds
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung
Betreuer: Associate Prof. Dr. Michael Wimmer
This diploma thesis introduces methods for external sorting and fast k nearest
neighbor searching for very large point clouds. Very large point clouds are
datasets that can not be processed in main memory. This leads to certain
requirements for any used reconstruction technique. The most important
ones are out-of-core memory management and sequential data handling
algorithms. The paper “Stream-Processing Points” by Renato Pajarola shows a
way to design a framework which allows to process a subset of very large
point clouds. A subset is defined as a spatially continuous region holding a
predefined number of points. This diploma thesis is based on the
aforementioned paper and improves on the stream processing pipeline
presented therein. The proposed algorithm for searching the k nearest
neighbors has a complexity of O(N * log(M)), where N are all points in the
point cloud and M are all points in main memory, which is similar to current
state of the art algorithms for in-core processed data sets.
Arbeitsbereich Algorithmen und Datenstrukturen
Karin Oberlechner
Solving the k-Node Minimum Label Spanning Arborescence Problem with
Exact and Heuristic Methods
Studium: Masterstudium Computational Intelligence
Betreuer: Univ.Prof. Dr. Günther Raidl
In this thesis, exact and heuristic methods for solving the k-node minimum
label spanning arborescence (k-MLSA) problem are developed. The k-MLSA
problem is a combination of the minimum label spanning tree problem and
the k-cardinality tree problem, which are both NP-complete. Given a
complete, directed graph in which one or more labels are associated with
each arc, the goal is to derive a minimum cardinality subset of labels such that
their corresponding arcs contain a directed tree connecting at least k nodes
28
of the graph. In addition to exact and heuristic methods for solving the kMLSA problem, this thesis contributes a new preprocessing algorithm for
constructing the initial labels. The heuristic method is a memetic algorithm
(MA). The exact algorithm is based on mathematical programming. It solves
the underlying integer programming formulation by combining branch-andcut with column generation in a branch-and-cut-and-price (BCP) approach. In
this approach, new (label) variables and constraints are added dynamically to
an incomplete initial model during the branch-and-bound process. The new
variables are generated by solving the pricing problem, which is based on the
values of the dual variables of the current solution. Hence, the label variables
no longer need to be constructed in a preprocessing step. As the pricing
problem needs to be solved frequently as part of the overall BCP process,
efficient algorithms are required. For this purpose, a method based on nondominated interval search is proposed. It provides an efficient solution to the
pricing problem as well as to the preprocessing step. The BCP approach
proposed in this thesis can solve larger instances than previously developed
branch-and-cut and branch-and-price algorithms. The new preprocessing
method signicantly reduces computational complexity compared to the
previous method, which has been the bottleneck in the overall procedure.
Michael Pimmer
A Timeslot-Based Heuristic Approach to Construct High-School Timetables
Studium: Masterstudium Computational Intelligence
Betreuer: Univ.Prof. Dr. Günther Raidl
This master thesis describes an algorithm for creating high-school timetables.
We are going to use the instances of the School Benchmarking project. This
project, started in 2007, provides an XML format, an evaluation function and
several real-world instances from various countries. Our approach is to pick a
non-full timeslot. We grade the favorability of all meetings that can be held in
this timeslot: All hard constraints and the goal of completely filling the
timetable have to be considered, as well as the soft-constraints, to obtain
valid solutions with low penalties. This information - the meetings and their
grades, as well as which meetings can be held simultaneously - is represented
as a weighted graph. We perform a heuristic maximum weight clique search
on this graph. If there are meetings with open roles, one out of a certain set
of resources shall be assigned, e.g. any english teacher. This introduces an
additional constraint to the maximum-weight clique search. Before assigning
the found clique to the respective timeslot, all open roles are closed with a
maximum-cardinalty maximum weight matching. On top of this basic
procedure, we are going to implement higher-level solving strategies. We try
to improve the quality of the timteable by partly refilling it or by reassigning
resources and meetings that cause penalty. There are various parameters that
influence the grading of constraints to construct the weighted graph for the
clique search. We will use a hill climbing procedure to search for appropriate
parameter-values. This work describes the given approach in detail. The
29
advantages and disadvantages of this timeslot-based algorithm will be
discussed by evaluating it using the before-mentioned instances. We are also
going to present and discuss the results, which are the first results published
based on the School Benchmarking Project, as well as specifics of the format
and instances.
30
Institut für Computersprachen
Arbeitsbereich Theoretische Informatik und Logik
Christian Hammer
Konzept, Entwicklung und Schulungsmaßnahmen einer Echtzeitansteuerung
von Software durch mobile Geräte
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund
In den letzten Jahren hat sich der Markt für mobile Kommunikation und Telekommunikation zu einem der erfolgreichsten Zukunfts- und Wachstumsbranchen entwickelt. Einhergehend mit der zunehmenden Verbreitung und
Entwicklung von mobilen Geräten und daraus resultierenden, stetig wachsenden Möglichkeit an neuen mobilen Services, werden laufend Anwendungen und Einsatzmöglichkeiten für mobile Geräte entwickelt und realisiert.
Dabei gewinnen die Begriffe Mobilität und Flexibilität eine immer wichtigere
Bedeutung. In der vorliegenden Arbeit werden funktionsfähige Prototypen
einer Spiele-Applikation für eine Großveranstaltung, die sich durch eine
nahezu echtzeit-basierte Ansteuerung der Spielfigur über ein Mobiltelefon
charakterisiert erarbeitet. Beginnend mit einem Überblick über in Frage
kommender Signalübertra-gungs- und Signalempfangsmöglichkeiten werden
diese analysiert und un-tereinander verglichen. Hierbei werden aufgrund
verschiedener für den Anwendungsfall erstellter Kriterien unterschiedliche
Signalübertragungs-technologien (GSM-Sprache/DTMF, GPRS, Bluetooth,
WLAN) und Signal-empfangseinrichtungen (DTMFHardware, DTMF-Software,
Bluetooth-Empfänger, Applikationsserver) auf ihre Eignung hin evaluiert. Aus
diesen Erkenntnissen werden in Folge zwei funktionsfähige Prototypen die
eine Softwareapplikation durch DTMF-Töne bzw. mittels Bluetooth steu-ern verschiedener Technologien konzipiert, implementiert und abschlie-ßend auf
ihre Eigenschaften hin getestet. Ein weiterer Bestandteil dieser Arbeit ist
aufzuzeigen mit welchen Hilfsmitteln und Methoden Anwender in die
Nutzung des Systems eingeschult werden.
Gerhard Niederbrucker
A Numeric Semantics for UML Class Diagrams: Methods and Tools
Studium: Masterstudium Computational Intelligence
Betreuer: Ao.Univ.Prof. Dr. Gernot Salzer
Nowadays the Unified Modeling Language is the standard formalism people
use to specify the structure as well as the behavior of object oriented
systems. Since UML is not limited to any specific domain we will use a subset
of UML class diagrams as formal base for describing functional units like
hardware components and their relationships among each other. So we will
31
use UML class diagrams to set up specifications and want to create concrete
configurations satisfying those specifications. We will present how to define
the precise semantics of UML class diagrams by transforming diagram related
questions to problems of integer linear programming. The definition of a
precise semantics makes it possible to reason about diagram related
questions formally and in our case even automated. For this purpose we will
present a system called Clews which was developed in the context of this
thesis. Clews offers the theory and reasoning tasks presented in this thesis in
a fully automated way. So users of Clews do not need any knowledge about
the formal background and just benefit from the formal reasoning done in the
background. One of the principles of Clews is that it offers the reasoning
tasks in an interactive way. For example the systems checks the consistency of
specifications after each change by the user and immediately shows whether
and where there are inconsistencies. Our semantics directly delivers partial
configurations where all objects but no links are known. Therefore we will
present novel techniques to solve a couple of important problems related to
the creation of links. Because of the conceptual separation of creating objects
and creating links we are also able to solve problems like extending or
repairing given partial configurations with respect to given specifications.
Martin Riener
Integrating Theories into Inference Systems
Studium: Masterstudium Computational Intelligence
Betreuer: Univ.Prof. Dr. Alexander Leitsch
The axiomatization of arithmetical properties in theorem proving creates
many straightforward inference steps. In analyzing mathematical proofs with
the CERES (Cut-Elimination by Resolution) system, it is convenient to hide
these inferences. The central topic of the thesis is the extension of the CERES
method to allow reasoning modulo equational theories. For this, the
inference systems of Sequent Calculus modulo and Extended Narrowing and
Resolution replace their non-equational counterparts in CERES. The method is
illustrated by examples comparing inference modulo the theory of
associativity and commutativity with unit element to inference in the empty
theory.
Edin Srndic
Education of Emergency Personnel for the Adoption of an Electronic Triage
Tag Framework
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund
Training and education have long been accepted as integrant to disaster
readiness, but many currently taught practices are neither evidence-based nor
32
standardized. The need for effective disaster training of emergency personnel
at all levels has been designated by the disaster response community as a
high priority. Triage is a process during emer-gency care which aims at
maximizing the provided care in a situation where the availa-ble resources are
limited by diagnosing injuries and categorizing patients into groups to
determine the priority for treatment and transport. The electronic triage tag
framework increases the quality and amount of medical care for patients in
such situations and in-creases the efficiency of the entire triage process. This
thesis evaluates the main charac-teristics and differences of a conventional
triage system and an electronic triage system, utilizing RFID tags and a
client/server approach based on wireless communication. In-formation
gathering is performed by the mobile triage devices with integrated RFID
reader. Adoption of mobile computing technology can potentially improve
information access, enhance workflow, and promote evidence-based practice
to make informed and effective decisions in the triage process. Handheld
computers or personal digital assis-tants (PDAs) offer portable and
unobtrusive access to clinical data and relevant infor-mation at the point of
care. The education of emergency personnel during the chan-geover from
the conventional triage system to the electronic triage system using mobile
triage devices is the central part of this thesis.
Arbeitsbereich Programmiersprachen & Übersetzerbau
Günter Khyo
Language Support for Linux Device Driver Programming
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Ao.Univ.Prof. Dr. Martin Ertl
The success of any operating system is determined by the quality of device
driver support. About 52% of the Linux kernel code is comprised by device
drivers, accounting for app. 7.4 million lines of code. While managing such a
huge code base is a challenge on its own, Linux device driver developers
have to overcome additional obstacles.The complex, multithreaded programming model of the kernel creates a high potential for bugs and many of them
result into kernel crashes.Drivers constitute the largest and most unreliable
component of the kernel. This thesis analyses the root causes of the device
driver reliability problem, and demonstrates how the current driver
programming model can be improved to assist programmers in creating
better driver code.To examine and test feasible improvements, a prototype
language based on a subset of C was designed with the requirements on
Linux driver development. CiD features additions for three essential device
driver code aspects: concurrency, synchronization and hardware I/O. The
compiler is programmed with basic rules of the concurrency model and is able
to detect common mistakes that lead to deadlocks. Additional consistency
checks support the programmer in generating correct hardware I/O code.Two
33
device drivers have been converted into CiD code to test the language
extensions and the compiler. The results for concurrency and synchronization
are satisfying: race conditions in the data-flow are reported with a false
positive rate of 6 to 21%.The compiler generates correct concurrency and
synchronization code, thus mitigating the potential for deadlocks. The results
show that hardware I/O generator leaves room for improvement, since it
generates 1.5 times more I/O operations than the original driver. Related
approaches show that further optimizations can reduce the gap.In conclusion,
the device driver programming can be made more robust with only minor
alterations to the existing programming model and little compiler complexity.
Daniel Priewasser
Application Layer Multicast in constrained network topologies
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Privatdoz. Dr. Sandford Bessler
I propose Managed Scribe as extension of the Scribe Application Layer
Multicast (ALM) protocol to enable dynamic multicast delivery in constrained
network topologies. Such topologies are available in the Internet Service
Provider (ISP) domains for content distribution. Especially, in the domain of
Internet backbone networks, the rise of new transmission techniques allows
tremendous resource savings. Managed Scribe offers the opportunity to
replace the legacy client/server-infrastructure by state of the art peer-to-peer
technology. Moreover, the dynamic nature allows a plug and play placement
of additional peer nodes. In scenarios of unpredictable user behavior,
minimal configuration effort leads to easy bottleneck removal. As a result, it
offers minimized resource usage during the transmission process. The
implemented Managed Scribe system uses a role-based model to categorize
participating nodes as source, proxy or client. The role of each participant is
configurable and, therefore, in flexible scenarios a node is even able to
change its role during the runtime. Furthermore, the dynamic load balancing
implementation allows the administration to regulate the bandwidth
distribution within the network. This flexibility makes Managed Scribe feasible
for a wide range of target applications, ranging from push-video on demand
services, towards multi-user conference applications. A discrete event
simulator is used to show the correct operation of the prototype, the efficient
multicast pathway creation and the efficient operation of the load-balancing
algorithm. Manages Scribe has high potential to decrement the overall
bandwidth consumption of the Internet. This thesis proves the feasibility of
using the combination of Pastry and Scribe to achieve scalable and efficient
multicast communication. This work is the basis for the implementation of
applications that are based on multicast communication with the need of
certain control over the tree structures.
34
Clemens Punzengruber
Robotersteuerung mittels Genetic Programming fur die RoboCup Standard
Platform League
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Univ.Prof. Dr. Jens Knoop
This master thesis investigates how to generate control programs by means of
Genetic Programming for the RoboCup Standard Platform League. In this
league two teams of humanoid, autonomous NAO robots are competing in a
game of soccer against each other. Instead of programming the whole skill
set manually it is possible to use machine learning techniques to let the
robots learn these skills by themselves. One such technique is called Genetic
Programming, which allows to optimize a population of programs according
to a defined fitness function. The goal of this thesis is to use Genetic
Programming to generate programs which can position the robot to the ball
as fast as possible and precise enough so that the robot is still able to play the
ball. The thesis shows how the manufacturer built-in movement functions of
the robot can be applied in a direct and natural way by the terminal and
function set of the genetic program and can therefore be encoded into the
genomes of the solutions. The actual evolution of the programs was realized
by using a simulator to prevent the expensive robot hardware to suffer from
wear and tear. This also made it possible to conduct the experiments without
the need of supervision. A software framework was created to connect the
simulator, the robot middleware and the used framework for evolutionary
computation. The resulting infrastructure was then used with a genetic
algorithm to find a stable walking parameter set for the simulator. This was a
prerequisite for being able to successfully position the robot. The conducted
experiments successfully generated programs which could position the robot
to the ball. Compared to the manually coded reference solution the best
evolved program conducted its task faster and still enabled the robot to play
the ball. This held true both when using the simulator as well as when trying
out the generated solution on a real robot.
35
Institut für Informationssysteme
Arbeitsbereich Knowledge Based Systems
Seif El-Din Bairakdar
Local Optimization for Multi-Context Systems with Constraint Pushing
Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)
Betreuer: O.Univ.Prof. Dr. Thomas Eiter
Multi-Context Systems (MCS) are formalisms that enable the inter-linkage of
single knowledge bases called contexts, via bridge rules. In this thesis, we
focus on Brewka and Eiter-style heterogeneous nonmonotonic MCS and
develop a novel distributed algorithm for computing the equilibria of such
MCS. We examine previous approaches for distributed MCS evaluation that
have been implemented as part of the DMCS system. Moreover, the notion of
association rules and the process of association rule extraction from the data
mining field are recalled. None of the available techniques addressed the
issue of local optimization within a distributed evaluation, which is the
motivation behind our work. Our approach for local constraint pushing
(DMCS-SLIM), relies on the coupling of some optimization techniques for
distributed MCS evaluation with local association rules extraction. We prove
DMCS-SLIM to be sound and complete. Furthermore, we present a
prototypical implementation, which is used for empirical evaluation. We
performed exhaustive set of experiments against several runtime parameters
of our system as well as comparisons with existing approaches. We observed
that our approach has potential to surpass the current approaches.
Stefan Bischof
Implementation and Optimisation of Queries in XSPARQL
Studium: Masterstudium Information & Knowledge Management
Betreuer: O.Univ.Prof. Dr. Thomas Eiter
XSPARQL is a language for transforming data between XML and RDF. XML is a
widely used format for data exchange. RDF is a data format based on directed
graphs, primarily used to represent Semantic Web data. XSPARQL is built by
combining the strengths of the two corresponding query languages XQuery
for XML, and SPARQL for RDF. In this thesis we present two XSPARQL
enhancements called Constructed Dataset and Dataset Scoping, the XDEP
dependent join optimisation, and a new XSPARQL implementation.
Constructed Dataset allows to create and query intermediary RDF graphs. The
Dataset Scoping enhancement provides an optional fix for unintended results
which may occur when evaluating complex XSPARQL queries containing
nested SPARQL query parts. The XSPARQL implementation works by first
rewriting an XSPARQL query to XQuery expressions containing interleaved
36
calls to a SPARQL engine for processing RDF data. The resulting query is then
evaluated by standard XQuery and SPARQL engines. The dependent join
optimisation XDEP is designed to reduce query evaluation time for queries
demanding repeated evaluation of embedded SPARQL query parts. XDEP
minimises the number of interactions between the XQuery and SPARQL
engines by bundling similar queries and let the XQuery engine select relevant
data on its own. We did an experimental evaluation of our approach using an
adapted version of the XQuery benchmark suite XMark. We will show that the
XDEP optimisation reduces the evaluation time of all compatible benchmark
queries. Using this optimisation we could evaluate certain XSPARQL queries
by two orders of magnitude faster than with unoptimised XSPARQL.
Mikolaj Koziarkiewicz
A practical view of answer-set-programming transformations
Studium: Masterstudium Computational Intelligence
Betreuer: Ao.Univ.Prof. Dr. Hans Tompits
The focus of this thesis is the examination of the practicality of applying
known formal transformations of answer-set programs. Answer-set
programming (ASP) is a formalism for declarative problem solving, based on
the principles of non-monotonic reasoning. The research is started by
constructing an overview of well-defined transformations existing in the
scientific literature. We consider two systems of transformations -- one
composed of certain syntactic transformations; the other of the semantic
removal of rules and literals. This work then discusses algorithms for
implementing applicability checking within the two systems, either existing
ones from the literature, or new ones. Next, it is shown how to effectively
process input data within the defined frameworks, utilizing properties related
to the interactions between the transformations. With the help of a Python
implementation, several data sets composed of answer-set programs are
checked for transformation applicability, including: student-written programs,
randomly-generated programs, and programs created by various front-ends
for declarative problem solving. The results obtained show that the utility of
applying the considered program transformations is quite low. Barring
random input, only a small number of applicable transformation instances is
found. Moreover, sequences of transformation applications are almost nonexistent. Hence, there is little gain in using the considered transformation for
online or offline optimization.
37
Patrik Schneider
Evaluation of Description Logic Programs using an RDBMS
Studium: Masterstudium Computational Intelligence
Betreuer: O.Univ.Prof. Dr. Thomas Eiter
We propose a novel approach to evaluate description logic programs (dlprograms) using a Relational Database Management System (RDBMS). Such
dl-programs are a state-of- the-art Semantic Web formalism of combining
rules and ontologies, whereby rules are expressed as logic programs and
ontologies are expressed in Description Logics (DL). In dl-programs a modular
concept of plug-ins was introduced, which allows to combine dl-programs
with different DL reasoner. Grounding in dl-programs is still considered a
performance bottleneck, caused by having exponentially many rules to
process. But for the success of the Semantic Web technologies, it is crucial to
efficiently process vast amounts of data. The goal of this work is to show, that
dl-programs can be efficiently evaluated by using RDBMSs. For this purpose
we report on a prototype implementation, where SQL is generated by an
existing DL-Lite reasoner, which is incorporated into a Datalog rewriter. For
testing the prototype, we develop a benchmark suite with pure Datalog and
Datalog/DL tests. Based on the benchmark suite, we produce experimental
results. These results are used to compare the prototype with the reasoners
of the DLV family.
Dmitriy Solomakhin
Logical Formalization of Semantic Business Vocabulary and Rules
Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)
Betreuer: O.Univ.Prof. Dr. Thomas Eiter
Artifacts such as laws, regulations and policies, use deontic constructs
expressed in natural language to articulate human behavior, as well as alethic
rules, describing what the organization takes things to be. In most cases such
artifacts have a rather ambiguous semantics, which can hardly be formalized.
But sometimes a logical framework can be built to provide automated tools
for validation and verification of the artifacts. The most promising candidate
for such a framework is a recently approved Semantics of Business Vocabulary
and Business Rules (SBVR) standard. Despite existence of formally grounded
notations, e.g. ORM2 specification language, up to now SBVR still lacks a
sound and consistent logical formalization which allows developing solutions
able to automatically test business models for consistency of regulations. This
work reports on the attempt to provide logical foundations for the SBVR
standard by means of defining a specific first-order deontic-alethic logic
(FODAL) designed to capture the desired semantics of business rules. We also
report on logical properties of the aforementioned formalization, such as
completeness and soundness. Moreover, we studied its connections with
other logical formalisms, including satisfiability reduction to the first-order
38
logic and the description logic ALCQI, which allows to obtain decidability
results for a certain fragment of FODAL logic. As a result, a special tool
providing automated support for consistency checks of a set of ALCQIexpressible deontic and alethic business rules was implemented. This tool
was developed in the context of the ONTORULE FP7 project and became a
part of the public deliverable. Addressing the objective of the project to
combine rules and ontologies, we also implemented a translation of the
aforementioned class of business rules into an OWL2 ontology, which
facilitates integration with other modeling tools and fulfilment of the demand
for automated solutions with reasoning support.
Arbeitsbereich Database and Artificial Intelligence
Michael Morak
dynASP - A Dynamic Programming-based Answer Set Programming Solver
Studium: Masterstudium Computational Intelligence
Betreuer: Privatdoz. Dr. Stefan Woltran
Answer Set Programming (ASP) is nowadays a well known and well
acknowledged paradigm for declarative problem solving as can be seen by
many successful applications in the areas of artificial intelligence and
knowledge-based reasoning. Evaluating logic programs that follow the ASP
paradigm is usually implemented as a two-step procedure: First, the
grounding step (i.e. the instantiation of variables occurring in the program)
and second, the actual solving process which works on ground logic
programs. In this thesis we introduce a novel approach for dealing with the
latter. Solving ground logic programs is, in general, still an intractable
problem. Therefore most standard ASP solvers rely on techniques originating
in SAT solving or constraint satisfaction problem solving. In contrast, the
algorithm presented in this thesis was developed with techniques that stem
from parameterized complexity theory. The idea here is to consider a certain
problem parameter as bounded by a constant and thereby obtain a
tractability result for the given problem. One such parameter which has lead
to many interesting results is treewidth which represents the tree-likeness of a
graph. Treewidth is defined in terms of tree decompositions which in turn can
be used by dynamic programming algorithms to solve the problem under
consideration. We introduce a novel dynamic programming algorithm based
on the above approach that is specifically tailored for solving head-cycle free
logic programs. Using a purpose-built framework for algorithms on tree
decompositions, an actual implementation of the algorithm is presented,
carefully evaluated and compared to existing ASP solvers. Experimental
results show significant potential for problem instances of low treewidth.
39
Johannes Peter Wallner
Hybrid Approach for Model-Based Random Testing
Studium: Masterstudium Computational Intelligence
Betreuer: Univ.Prof. Dr. Franz Wotawa
Modern software testing comprises of many different techniques to cope with
the complexity of nowadays software. Testers stand before the difficult task
to enhance software quality on many levels. One main problem is the
creation of meaningful test cases. It is infeasible to write test cases for every
single possible input of a program, which leads to the problem, that not every
aspect can be tested. There are especially rare inputs, which are difficult to
obtain, for example for double errors. These events are usually seldom
encountered in manually crafted test cases. Automated generation of test
cases can help to overcome this problem, but still not every input can be
tested in this manner, since we would need too many test cases for this. In
this master thesis a method of random test case generation from a given
model is studied. By using this random factor the enormous amount of test
cases, which are needed can be addressed. With the tool-set Siemens IDATG
a model of the software under test is specified from which random inputs are
drawn. The model is represented as a graph and the test cases are random
walks in that graph. To overcome the drawback that some areas of the model
are rarely reached a heuristic search is added to increase the coverage of the
graph and to get out of local minima. This hybrid combination of random
testing and search heuristics was investigated in a case study. The results
suggest that the hybrid approach covers the model of the software under test
to a higher degree than pure random testing. Also defects, which are difficult
to detect with systematic testing can be found with this method, since it can
create combinations of inputs that are rarely tested.
Arbeitsbereich Distributed Systems
Hermann Czedik-Eysenberg
Performance Test Language for Web Services
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Univ.Ass. Dr. Uwe Zdun
During the development of Web services and their deployment to a specific
target system, organizations need to evaluate if the Web service implementation and the hardware can meet the Quality of Service attributes specified in a
Service Level Agreement. One important aspect are performance-related
attributes, such as response time, throughput or scalability of the Web
service. Typically tests which simulate client behavior are used to evaluate
these attributes. In this thesis the domain-specific language QoSTIL (Quality
of Service Test Instrumentation Language) is introduced. It allows for the
40
definition of tests and the composition of these tests to create complex test
plans which can be used to simulate Web service client behavior and evaluate
performance-related quality of service attributes of Web services. Language
instances are automatically transformed to executable Java code and result
presentation views. These can be used to run the defined tests and visually
display the test results. The implementation of the domain-specific language
follows the Model-Driven Development approach. Both the language model
(abstract syntax), which is based on the meta-model defined by the Frag
modeling framework, the concrete syntax, as well as the transformation to
executable code are explained in detail in the thesis. To evaluate the utility
and usability of the language a number of tests which are based on realistic
business use cases for assessing certain performance-related quality of
service attributes are defined and implemented. After the automatic
transformation to executable code, the tests are run for specific Web services
and the results are presented and discussed.
Ursula Fida
Context-based Multimodal Interaction for Mobile Collaboration Systems
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Univ.Prof. Dr. Schahram Dustdar
Mobile devices and wireless networks give us the possibility to use the Web
where ever we go, in all situations, at all times. But devices like PDAs have
small displays and limited or even no keyboards. Enabling speech as an
additional input and output mode will help to overcome these physical
limitations. In a multimodal application the user may use his preferred mode
or the most appropriate mode for the situation or he may use voice,
keyboard, mouse and pen in a synergistic way. Moreover multimodal
applications allow one-handed and hands-free operations. Mobile
collaboration systems handle a lot of information so it is important for the
user to get the right information at the right time and at the right place.
Making the speech output and input context sensitive will prevent
overloading the user with unwanted information and leads to better speech
recognition rates.
Markus Jung
Distributed Request Rate Control and Secure Distributed Timestamping for
Online Auctions
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Univ.Ass. Dr. Karl Michael Göschka
Diese Diplomarbeit entwirft, implementiert und evaluiert (i) ein System für die
adaptive Regelung von Client-Requests basierend auf einem PID Controller,
(ii) ein verteiltes Zeitstempel Service auf P2P Basis, und (iii) einen JXTA41
basierenden P2P Layer, der in den beiden erstgenannten Teilen die
Kommunikation verschiedener Nodes untereinander ermöglicht. Für die
Evaluierung der einzelnen Teile wurde darüber hinaus eine Simulationsumgebung erstellt, mittels welcher das Verhalten der implementierten
Protokolle für verschieden Parameter automatisiert getestet und ausgewertet
werden kann. Die Simulationsumgebung erlaubt das direkte testen der
Software in einer Testumgebung, sowie die Simulation der implementierten
Protokolle im PeerSim P2P Simulator.
Anton Korosec
Deploying a Web Service Runtime Environment into the Cloud
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Univ.Prof. Dr. Schahram Dustdar
Diese Diplomarbeit untersucht die Vor- und Nachteile des Einsatzes eines
kommerziellen Cloud-Computing Angebots bei einer bestehenden ServerAnwendung. Das `Vienna Runtime Environment for Service-oriented
Computing' (VRESCo) wird auf dem Institut für Informationssysteme der
Technischen Universität Wien entwickelt und ist eine Web-Service-Laufzeitumgebung, die sich einigen der aktuellen Herausforderungen im Bereich der
service-orientierten Architekturen (z.B. dynamisches Binden/Aufrufen,
Metadaten-Unterstützung) annimmt. Das Ziel ist es, VRESCo mit Hilfe der
'Amazon Web Services' (AWS), die eine Reihe von Diensten für eine
Rechenarchitektur in der Cloud bereitstellen, anzubieten. Die Anwendung soll
nicht nur auf einer virtuellen Maschinen-Instanz innerhalb der Amazon-Cloud
laufen, sondern es soll auch die aktuelle Datenbank durch einen der von
Amazon angebotenen Cloud-Datenbank-Dienste ersetzt werden. Neben
einigen Nachteilen (z.B. Latenz, Datenbank-Einschränkungen) wird erwartet,
dass VRESCo insgesamt von den Vorteilen, die eine Cloud-Architektur mit sich
bringt (Skalierbarkeit, keine Verwaltung, geringe Kosten, etc.), profitiert. Nach
einer Einführung in die verwendeten AWS Dienste und deren zugrunde
liegenden Konzepte werden die Schritte, die unternommen wurden, um
VRESCo innerhalb Amazons Cloud-Architektur bereitzustellen, vorgestellt. Der
Fokus liegt dabei vor allem auf dem Vergleich und der Bewertung der von
Amazon angeboten Cloud-Datenbanken, sowie auf den Techniken (Caching,
Lazy-Loading, etc.), die eingesetzt wurden, um eine möglichst optimale
Leistung zu erzielen. Insgesamt zeigen die Ergebnisse, dass AWS für den
Aufbau von Cloud-Architekturen, die es ermöglichen auf lokale Ressourcen zu
verzichten, geeignet ist. Die Dienste sind nicht nur einfach zu bedienen,
sondern lassen sich auch flexibel an die Bedürfnisse der Anwendung
anpassen.
42
Michael Leibrecht
A Tag Management System for Service Oriented Environments
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Univ.Prof. Dr. Schahram Dustdar
In the past few years social networks and social enhanced media applications
have experienced an enormous growth in popularity and gain in users that
are registered to the respective platform. People can easily participate in
global collaborations focused on content creation and content exchange. In
order to have the necessary means for structuring and classification of the
data, users often fall back on a technique known as tagging. Tagging allows
the user to describe any kind of resource with any keyword, to specify the
resources content, its behavior and give a simplified description of its
properties. In comparison to social networks that are gaining more and more
momentum, the evolution of Service Oriented Architectures precedes in a
slower pace, mainly resulting from the complex requirements to establishing
a general applicable work flow, and the economical obstacles that have to be
considered when integrating third party services. Apart from these drawbacks
there is room for improvement in other aspects as well, like the discovery and
integration of published services. Applying collaborative concepts of social
networks to Service Oriented Architectures and web service centered
environments might result in a benefit for the producer, as well as for the
consumer of a resource, since they can actively exchange about a services
behavior and its properties. Experimental approaches of recommending
similar services, that exploit the contextual and semantic relation of tags,
extend common techniques and add an supplementary level of abstraction to
the discovery of services.
Stefan Prennschütz-Schützenau
SOA Policy Validation and Authoring
Studium: Masterstudium Medizinische Informatik
Betreuer: Univ.Prof. Dr. Schahram Dustdar
A common goal of policy-based/policy-driven management approaches is to
enable practitioners to define high level directives for the enforcement of
business policies and objectives, instead of manually configuring and
auditing services. This thesis proposes a guided model-driven policy
authoring method that leverages the Schematron standard for an XML
Mediation between architectural and operational policies on the one, and, to
different models, domains, and types in operational policies on the other
hand.
43
Stanislav Tomic
WSSL - Web Service Simulation Language
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Univ.Prof. Dr. Schahram Dustdar
Um Service Orientierte Architekturen (SOA) zu testen, müssen realistische
Testumgebungen geschaffen werden. Diese sollten verteilt und dynamisch
sein, aber gleichzeitig die Möglichkeit der zentralen Steuerbarkeit bieten. Um
diese Anforderungen zu erfüllen, muss der Tester die Möglichkeit haben auf
einer abstrakteren Ebene zu arbeiten. Die Web Service Simulation Language
(WSSL) bietet diese Möglichkeit. Mit Hilfe des Eclipse Modelling Frameworks
(EMF) wurde ein Meta-Modell der Domäne geschaffen. Mit xText wurde
aufbauend auf diesem Domänen-Modell die domänen-spezifische Sprache
WSSL erzeugt. Diese Sprache ist als Eclipse-Plug-in verfügbar. Nach der
Installation des Plug-ins können WSSL-Definitionen erzeugt werden. Der
Entwickler wird dabei durch Syntax-Highlighting und Code-Vorschläge
unterstützt. Mit WSSL können abgesehen von verteilten Systemen auch
dynamische Verhaltensweisen beschrieben werden. Dies ermöglicht die
Schaffung von verteilten Systemen die sich während der Laufzeit verändern
und auf Änderungen in der Umgebung reagieren können.
44
Institut für Rechnergestützte Automation
Arbeitsbereich Computer Vision
Florian Dorn
Detecting Falls in a Supportive Home Environment
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung
Betreuer: Privatdoz. Dr. Martin Kampel
This thesis discusses the use of computer vision for assisting elderly in the
field of Ambient Assisted Living with Aging-in-place. Falling has been
identified as a major health issue for elderly, especially for those that live
independently. Therefore an abnormal activity recognition system for
detecting falls is presented. Activity or event recognition has been gaining
much interest in the computer vision community in recent years. The
application area covers a wide range, from video surveillance and monitoring,
human-computer interaction to augmented reality. The fundamental problem
lies within the detection and modeling of Video events, the semantic
concepts that humans perceive when observing a scene. When emulating this
process with computer vision, the semantic content of the low-level input has
to be abstracted with meaningful features. Finding reliable models for
describing and recognizing events given these abstractions is the key part in
event understanding. In order to detect falls reliably a multi-camera vision
system is proposed. The image evidence is fused early and fall detection is
performed in 3D space. This allows the computation of reliable, view invariant
features. Fuzzy logic is used to estimate the membership of the currently
observed features to different human motion models. Using a novel feature,
which is presented in this work, the unexpectedness of a fall incident is
modeled reliably. The evaluation shows, that the proposed approach is a
reliable and computationally efficient fall detector.
Stefan Fiel
Automated Identification of Tree Species From Images of the Bark, Leaves or
Needles
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung
Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig
In this thesis a method for the automated identification of tree species from
images of leaves, needles and bark is presented. In contrast to the current
state of the art for the identification from leaf images, no segmentation of the
leaves is necessary. Furthermore the proposed method is able to handle
damaged and overlapping leaves. This is done by extracting keypoints in the
image which allow the computation of local descriptors. With the help of a
trained set of descriptors, a histogram of the occurrence of these descriptors
45
is generated which is then classified using a one-vs-all SVM. For images of the
bark the same method is used which allows to build a system which can
automatically distinguish between images of bark and leaves without
calculating new features. Detected features within the needle images can be
used for a classification. The needle endings are used to distinguish between
fir and spruce needles. The proposed method is evaluated on three datasets
which were provided by Österreichische Bundesforste AG (Austrian federal
forests). The first dataset consists of 134 images of the leaves of the 5 most
common Austrian broad leaf trees, the second dataset containing 275 images
of the needles of the 6 most common Austrian conifers. The last dataset is
containing images of the 1183 bark of these 11 trees. The classification rate
for the leaf dataset was 93.6% and the classification rate of the bark dataset
was 69.7%.
Helmut Steiner
Fully Automated Modelling, Localisation and Segmentation of 3D CT Hand
Data
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig
Da ein stetiger Anstieg der Benutzung von Computertomographie und
Magnetresonanz bei der medizinischen Befundung und in Studien zu
bemerken ist, müssen auch existierende Segmentierungsmethoden, wie
Sparse MRF Appearance Models und Active Shape Models (ASMs), an die nun
dreidimensionalen Daten angepasst werden, um zu funktionieren. Diese
Diplomarbeit schlägt folgende Segmentierungspipeline für die Handhabung
von dreidimensionalen Bilddaten vor: Für das Finden von Punktkorrespondenzen wird Minimum Description Length und Coherent Point Drift eingesetzt,
um Point Distribution Models zu bilden. Die Lokalisierung von anatomischen
Strukturen wird mit Random Forests und Discrete Optimisation bewerkstelligt,
welche einen Startpunkt für die finale ASM Segmentierung liefern. Die
vorgeschlagenen Methoden werden auf zwei unterschiedlichen Datentypen
evaluiert. Einerseits werden CT Volumen von Händen von Patienten, die unter rheumatoider Arthritis leiden, für die Lokalisierung von Gelenksspalten
und die Segmentierung der Daumenknochen Os Metacarpale I, Phalanx
Proximalis Pollicis und Phalanx Distalis Pollicis benutzt. Andererseits werden
zusätzlich synthetische Daten für Experimente zur Segmentierungsgenauigkeit generiert. Eine individuelle Analyse aller Methoden wird vollzogen, um
von einander unabhängige Resultate zu erhalten. Die Lokalisierung anatomischer Strukturen ist hinreichend genau um die Knochensegmentie- rung
mittels ASMs zu initialisieren. Falls das Objekt im ungesehenen Bild sich
innerhalb des Suchbereichs des ASM befindet, werden präzise Segmentierrungsresultate erzielt. Fälle in denen die ASM Suche nicht erfolgreich ist,
werden analysiert, um die Ursachen des Scheiterns zu finden. Diese und
andere Probleme, die sich beim Testen der Methoden ergaben, werden
aufgezeigt und Lösungsvorschläge zu deren Bewältigung gegeben.
46
Arbeitsbereich Automatisierungssysteme
Thomas Abinger
Ansätze für selbstlernendes Systemverhalten in der Heimautomation
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner
Diese Arbeit verfolgt die Idee, ein Haus oder Gebäude zu schaffen, das sich
automatisch an die Bedürfnisse und Wünsche der Bewohner anpasst. Damit
sich ein Bewohner bei einer bestimmten Tätigkeit wohlfühlt, sind oft mehrere
Betriebsparameter aus technischen Systemen unterschiedlicher Gewerke
aufeinander abzustimmen. Weiters sollen individuelle Eigenschaften des
Gebäudes in die Steuerung und Regelung mit einbezogen werden. Stehen
unterschiedliche Alternativen für eine Steuerung/Regelung zur Verfügung,
soll die kostengünstigste Option gewählt werden, ohne dabei den Komfort
der Bewohner zu schmälern. In dieser Arbeit werden in zwei Schwerpunkten
Mittel untersucht, selbstlernendes Systemverhalten in der Heimautomation
umzusetzen. Der erste Schwerpunkt liegt auf der Frage, wie mit Hilfe künstlich
neuronaler Netze die komplexen Einflussfaktoren Mensch, Gebäude,
Gebäudetechnik und Umgebung in einem intelligenten Heizungsregelkreis
gefasst werden können. Die für diesen Zweck erstellten künstlich neuronalen
Netze sind vom Typ der Feed Forward-Netze, Jordan-Netze und Simple
Recurrent Networks und verändern nach einem zeitlichen Raumbelegungsplan, den Raum- und Außentemperaturen sowie der aktuellen Uhrzeit den
Sollwert eines herkömmlichen Heizungsreglers. Die so gegenüber einer
herkömmlichen, rein uhrzeitabhängigen Strategie erzielbare Effizienzsteigerung wird in einer physikbasierten Simulation bestimmt. Der zweite Schwerpunkt liegt auf der Strukturierung der komplexen Steuerungsaufgaben im
Rahmen eines selbstlernenden Softwaresystems. Die Lern- sowie Steuerungsund Regelungsaufgaben werden dazu als Multiagentensystem abgebildet.
Verschiedene, an diesen Aufgaben orientierte Agententypen werden
modelliert und deren dynamisches Zusammenspiel betrachtet.
Rana Ansari
Netzwerk-Simulations-Tools für den Einsatz im Unterricht
Studium: Masterstudium Informatikmanagement
Betreuerin: Ass.Prof. Dr. Monika Di Angelo
Im Bereich der Netzwerktechnik sind bei potenziellen Arbeitgebern
Praxiskenntnisse sehr gefragt. Allerdings sind dedizierte Netzwerklabore teuer
und müssen, zusätzlich zu den Anschaffungskosten, laufend technischem
Support und Wartung unterzogen werden. Daher wird der schulische
Netzwerkunterricht großteils theoretisch gehalten. Durch die mangelhafte
Ausstattung der Schullabors ist die Dimension, in der Konzepte vermittelt
werden können, sehr beschränkt, d.h. in den Labornetzwerken können nur
47
Netzwerke mit geringer Teilnehmerzahl simuliert werden. Diese Arbeit setzt
sich mit möglichen Lösungen für dieses Ressourcenbzw. Kostenproblem bei
der Verwendung von dedizierten (echten) Netzwerklabors auseinander. Das
Problem wird durch den Einsatz interaktiver Lehr- und Lernmittel
(Netzwerksimulatoren) für die Verbesserung der Unterrichtsqualität im Fach
Netzwerktechnik des 3. Jahrgangs einer HTL für Informationstechnologie
gelöst. Es wurde nach passenden Werkzeugen für den Unterricht gesucht und
die drei am besten geeigneten miteinander verglichen. Dem folgen
Vorschläge für die Umsetzung in den jeweiligen Jahrgängen 3 bis 5, wie
beispielsweise in Form von praktischen Unterrichteinheiten (Labors) für die
Umsetzung im Netzwerkunterricht laut Lehrplan des 3. Jahrgangs der HTL
Informationstechnologie mit dem iNetwork-Simulator.
Markus Arzberger
Lernprozesse zur Aufklärung und Bewusstseinsbildung bezüglich
Energieverbrauch
Studium: Masterstudium Informatikmanagement
Betreuerin: Ass.Prof. Dr. Monika Di Angelo
To develop a “learning processes to create an awareness according to the
usage of energy” means, first of all, to get information about energy flows
and to learn who is causing it. After looking into the figures, it turns out that
this is not sustainable at all and therefore will not work for long. Another
challenge is to find out what are the key elements when it comes to the
creation of awareness towards a more sustainable way of life. It is a major task
to achieve this goal primary through self-awareness. It follows a change which
is done voluntarily and not caused by forcing people through laws,
interdictions and fines. For the scope of this paper only the energy interplay
(input, output) within Austria has been taken into account and was compared
to other countries. A simulation, which is executed in Consideo Modeler,
shows the models behaviour until 2100; in this paper the model is Austria.
Another element is the questionnaire with the intention to build a connection
between awareness and creation of knowledge. Keywords describe its
content as: actual condition (Austria); ability of transformation (CO2);
maximum; population (responsible for CO2 output due to: mobility, heating,
consumption...); driver (cars, planes, whats their output?); allocation of CO2
emissions. In a pedagogic approach of discovering, cognition and discussion
the target groups become motivated, to voluntarily change habits in the fields
of mobility and housing. The surveys results affect the learning platforms
concept, which was created in order to increase awareness about energy
consumption.
48
Andreas Brauner
Requirements engineering and prototype of a currency market data system in
a volatile nancial service management
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Mit der steigenden Durchdringung von IT Systemen in Unternehmen wuchsen
sowohl die Anforderungen bezüglich Stabilität, Zuverlässigkeit, Wartbarkeit
als auch die Erwartungshaltung bezüglich kontinuierlicher Verbesserung.
Durch die historische Entwicklung in den letzten Jahrzehnten sind IT Systeme
zerklüftet und Redundanzen herrschen vor. Es ist eine Herausforderung
komplexe, unabhängige Systeme miteinander zu verknüpfen und gleichzeitig
die Benutzerfreundlichkeit, Zuverlässigkeit, Sicherheit, Verfügbarkeit,
Fehlerausfallsicherheit und Wartbarkeit zu erhöhen. Das Ziel dieser Studie ist
die Recherche der Anforderungen eines vereinheitlichten und vereinten
Marktdatensystems in einer komplexen IT Umgebung als Fallstudie und die
Analyse von Implementierungsmöglichkeiten in einer Bank. Die Motivation
kommt aus der erwarteten Qualitätsverbesserung der Kennzahlen und der
Möglichkeit Kennzahlen von unabhängigen System miteinander vergleichen
zu können, da sie auf den selben Daten basieren. Die Anwendbarkeit von
Mustern wird anhand eines Prototyps gezeigt. Gesetzesänderungen,
aufsichtsrechtliche Behörden und die interne Revision tragen zu wachsenden
Anforderungen von IT Systemen bei. Der gewählte Ansatz besteht aus dem
Verstehen der historischen Entwicklung, der Analyse des aktuellen Status, der
Festlegung von Anforderungen für das neue System und dem Ausloten von
Implementierungsmöglichkeiten. Abschließend zeigt ein allgemeiner
Implementierungsplan, dass eine tiefgehende Analyse des aktuellen Status
und die Anwendung von Standardverfahren ein nachhaltiger Weg zur
Vereinheitlichung von IT Systemen sind.
Stefan Buchwalder
Accessibility von blinden und sehbehinderten Benutzern bei ERP-Systemen
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Durch den Anstieg der Informations- und Kommunikationstechnologie
entstehen immer mehr Computerarbeitsplätze, die eine Auseinandersetzung
und Interaktion mit Softwareapplikationen, Computersystemen und im
Speziellen Enterprise Ressource Planning (ERP) Systemen erfordern. Um
blinde und sehbehinderte Menschen erfolgreich in den Arbeitsmarkt
integrieren zu können, ist die Accessibility der ERP-Systeme Grundvoraussetzung. Aufgrund der Komplexität dieser Systeme ist eine effiziente und
zufriedenstellende Zugänglichkeit jedoch nur schwer zu erreichen und es
treten unterschiedliche Barrieren bei der Interaktion auf. Im Rahmen dieser
Arbeit wird durch eine Kombination und Anpassung von bereits bestehenden
49
Web Accessibility Richtlinien, individuellen Richtlinien von Geschäftssoftwareherstellern und aufbauend auf den Erkenntnissen aus einer eingehenden
Literaturrecherche ein Leitfaden für die Accessibility von ERP-Systemen
erstellt. Ausgehend von diesem literaturbasierten Leitfaden und der Literaturrecherche wird eine qualitative Studie durchgeführt um bestehende Probleme
und Anforderungen von der Zielgruppe der blinden und sehbehinderten
Benutzer zu erheben und Schwachstellen in den bereits existierenden
Accessibility Lösungen aufzuzeigen. Diese gewonnenen Informationen
werden in einem weiteren Schritt einer strukturierten Datenauswertung unterzogen und in den literaturbasierten Accessibility Leitfaden eingearbeitet. Das
Ergebnis dieser Arbeit stellt schlussendlich ein umfassender Accessibility
Leitfaden dar, der in der Entwicklungsphase eines ERP-Systems eingesetzt
werden sollte um die Zugänglichkeit und Bedienbarkeit von ERP-Systemen für
blinde und sehbehinderte Benutzer effizienter und barrierefreier zu gestalten.
Sandra Dannhauser
Design, Umsetzung und Evaluierung der Akzeptanz eines Content
Management Systems für den betriebsinternen Informationsaustausch eines
Großunternehmens
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Besides its focus on the adoption of a content management system (CMS),
this paper also discusses the development processes and future extensions of
CMS, including different scopes of functionality. In this regard, the various
fields of MOSS 2007 are tested with two test groups, A and B, representing
the future target group of the new system. This test proved the organization
and preparation of content in MOSS 2007 to be satisfactory, despite certain
drawbacks: the manipulation of the new system is still not intuitive enough
for users. Analysis in this paper is based upon a usability test. The theoretical
basis of this test is the usability engineering theories of Jakob Nielsen, as well
as the Criteria Check List promulgated by Baumgartner, Häfele und MaierHäfele. Moreover, the test is structured according to the common industry
format (CIF) for standardization purposes. The theoretical bases for
understanding user interaction with the new system are usability, humancomputer-interaction, and user-centered-design. Universal usability also plays
a prominent role in the analysis because users are still restricted in using
different functions or even products. Apart from this, simple failure of
communication and violation of company guidelines contributed greatly to
user frustration. This paper focuses on a multinational companys transition to
a new intranet system, Microsoft Office SharePoint Server 2007 (MOSS 2007).
It examines the problems encountered during the transition period, as well as
user satisfaction and certain recurring problems during the adoption of the
new system.
50
Vladimir Drienovsky
On redirection patterns in spam
Studium: Masterstudium Information & Knowledge Management
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner
Spam e-mails often contain URLs that redirect users to another website in
order to sell goods or steal user information. This redirection technique is
used commonly among spammers to evade spam filters that match URLs
against a blacklist. In the context of this thesis, the most prominent
redirection techniques were classified and described with real-world examples
to evaluate the findings. Additionally, a system for parsing and evaluating
URL addresses has been developed and deployed. It has been subsequently
applied to extract, crawl, and analyze the URL addresses found in a spam
feed, focusing on redirection behavior. Finally, results were evaluated and
the conclusion was reached that client-side redirection had been used
predominantly in situations where spammers were not in total control of the
hosting environment (e.g. compromised web sites). Server-side redirection,
on the other hand, had been put to use above all by URL shortening services.
These have become a popular tool among spammers.
Markus Freudenthaler
Exemplarische Sicherheitsanalyse und Sicherheitsanforderungen an eine
Arztpraxis in Deutschland
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
In the year 2003, the German Federal Government made the decision to
establish a nationwide electronic health card. This chip card was planed to be
the successor of the health insurance card used until then. Aside from her
characteristic as an electronic identification card, the eGK offers a lot more
functionalities. At the same time, besides the optional electronic prescription,
it is possible to save sensitive health information like emergency information
on the chip. On one side, advantages and new possibilities for the patients
are created, on the other side, it is important to minimize the risks of
unauthorised access to this data. That way, the data protection becomes
especially important. This diploma thesis aspires to develop appropriate
safety requirements for a medical practice based on the architecture of the
eGK. At the beginning, the necessary basic principles are defined. On one
hand, the main points are the particular components of electronic data
transmission infrastructure and on the other hand, it is important not to
forged about IT-security in general. Afterwards, an example for a medical
practice in the environment of the eGK will be defined as well as possible
safety risks will be explained. With the help of the definition of these risks, the
particular safety requirements and the resulting technical and organizational
solutions will be determined.
51
Martin Glettler
Performance Measurement und Optimierung anhand der E-Government
Applikation ZMR des Bundesministerium für Inneres Österreich
Studium: Masterstudium Information & Knowledge Management
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Aus der zunehmenden Konvergenz von Leistung und Leistungsbedarf
aktueller Systeme resultiert seit einigen Jahren eine Tendenz hin zu mehr
Qualität in der Softwareentwicklung. Der Grad an Qualität beeinflusst
Performance, wobei diese für stark frequentierte Systeme immer häufiger ein
Problem darstellt. Im Rahmen der vorliegenden Arbeit werden im System ZMR
- Zentrales Melderegister Österreich des Bundesministerium für Inneres (BM.I)
mittels Methoden der Performancemessung akkurate Benchmarks erzeugt, um
eine Optimierung des Systems hinsichtlich Leistung und Performance
vorzunehmen. Mit hohen Anforderungen an Verfügbarkeit und Performance
mit über 6.5 Mio. aufgerufenen Geschäftsfällen pro Monat und über 9 Mio.
verwalteten Personen stellt das ZMR System ein geeignetes Fallbeispiel für
ein Optimierungsprojekt dar. Die Tatsache dass Leistungsgrenzen moderner
JEE Architekturen im Bezug auf Durchsatz und Datenhaltung ausgereizt
werden ist ein weiterer wichtiger Aspekt. Die Architektur des Systems
unterliegt einem kontinuierlichen Wachstumsprozess, wie er häufig bei
inkrementellen Systemen, welche kontinuierlich weiterentwickelt werden,
auftritt. Im Zuge der Arbeit werden dadurch unterschiedliche Ansatzpunkte
mit Fokus auf reelle Optimierungspotenziale beispielsweise durch Datenbanktunings oder den Einsatz effizienterer Methoden und Bibliotheken zur XML
Transformation behandelt.
Markus Grössing
Task Scheduling in Time Triggered Real Time Systems
Studium: Masterstudium Technische Informatik
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner
Modern automotive applications are highly distributed systems with a large
number of electronic control units involved. Together they improve the
vehicles fuel economy, minimize malicious exhaust gases, reach a higher level
of safety for the passengers and provide a number of comfort and
entertainment functions. Some of the subsystems are highly safety critical and
need to meet hard deadlines. An essential factor for a safety critical,
distributed real-time system is the communication medium connecting all
participating nodes. The communication system should support fault
tolerance and provide real-time functionality as e.g. a common time base.
Another requirement for the communication system is flexibility while still
being understandable and easy to design. Therefore, the automotive industry
agreed to specify a communication protocol to be used as an industry
52
standard. The name of this ommunication protocol is FlexRay. The context of
this thesis is a project at Elektrobit Austria GmbH in cooperation with Vienna
University of Technology. A FlexRay-to-FlexRay router was implemented to
forward communication between two FlexRay clusters with different
configurations. The objective of this thesis was to design a tool to merge the
schedules of both clusters and generate a dispatch table for the router node
to schedule communication tasks. The generated schedule should minimize
communication delay across the router as far as feasible and still be flexible
and adjustable. The phase shift between both clusters is configurable by the
user. Additionally to the communication tasks, also user tasks running in the
router can be scheduled.
Markus Gruber
Theoretische und empirische Analyse von VoIP-Angriffen basierend auf Daten
von Honeynets
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Die steigende Anzahl an Benutzern und die mangelhaften Sicherheitsmechanismen machen Voice over IP (VoIP)-Systeme bei Angreifern immer
beliebter. Um sich gegen die Flut an Angriffen schützen zu können, ist es
erforderlich, so viele Informationen wie möglich über VoIP-Angriffe zu
sammeln, um geeignete Sicherheitsmaßnahmen treffen zu können. In dieser
Arbeit werden aufgezeichnete VoIP-Angriffe analysiert und ausgewertet. Die
Auswertungen zeigen Häufigkeiten der Angriffe, örtliche und zeitliche
Eigenschaften von Angriffen, verwendete Angriffsmuster sowie Verhaltenseigenschaften von Angreifern auf. In korrelierenden Auswertungen werden
Unterschiede zwischen den Angriffen in einem ungesicherten Bereich und
einer universitären Einrichtungen aufgezeigt.
Markus Huber
Eclipse Plug-In for the evaluation and visualization of historical SVN-data
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Software Repositories stellen einen Fundus an Meta-Information über die
Entwicklungs- und Wartungstätigkeiten eines Software-Projekts dar. Eine Form
dieser Meta-Information, die einen hohen Informationsgehalt bietet, ist die
textuelle Beschreibung von Quell-Code-Änderungen, die ein Entwickler
während des Einspielens dieser Änderungen in ein Repository verfasst - die
sogenannte Commit-Message. Im Zuge dieser Arbeit wird versucht, basierend
auf einer sprachlichen Analyse von Commit-Messages, eine Kategorisierung
der atomaren Tätigkeiten der Entwickler vorzunehmen. Durch das Identifizieren von Gemeinsamkeiten in verschiedenen Open-Source-Software-Projekten
53
wird ein Wörterbuch erstellt, das als Wissensbasis für die Kategorisierung
herangezogen wird und Allgemeingültigkeit für die Domäne der OpenSource-Software besitzt. Die vorgestellte Kategorisierungs-Methode wird an
verschiedenen Open-Source-Software-Projekten angewandt und die
Ergebnisse evaluiert. Das im Zuge dieser Arbeit entwickelte Eclipse Plug-in
automatisiert die vorgestellte Kategorisierungs-Methode und stellt diese allen
Eclipse-Anwendern zur Verfügung. Mit Hilfe des Plug-ins können Analysen
über die Wartungs-Historie von Software-Projekten direkt aus der EclipseProgrammierumgebung durchgeführt werden.
Christine Markowitschka
Lua - Skriptsprache für "World of Warcraft" Addons
Studium: Masterstudium Informatikmanagement
Betreuerin: Ass.Prof. Dr. Monika Di Angelo
Lua is a scripting language which became popular through computer games.
This language is used to write addons for different games such as "World of
Warcraft" published by Blizzard Entertainment. WoW like most people call it, is
a role-playing game which many play together over the internet. Blizzard
allows its users to customize the user interface through an OpenAPI. All
around the world millions of people play "World of Warcraft" and most of
them use addons because they are exchanged for free. But there are only a
few people who are able to write them because most of the gamers don't
have the knowledge of programming. It is the target of this work to develop a
course which gives enthusiastic players the opportunity to learn lua in order
to create their own addons and implement their ideas. There is also a focus
on didactics within the work. Both the programming language and the
development environment are tested for their suitability for people who are
not used to programming. The course consists of 20 lessons à 45 minutes
and is built-on different teaching methods to keep the students interested
and motivated. Another focus is on Blended Learning so there won't be just
face-to-face instructions but also a virtual learning environment which will
help the students to repeat the learning matters and to practise them.
Zheela Pourkalbasi
Lernplattformen für Persisch
Studium: Masterstudium Informatikmanagement
Betreuerin: Ass.Prof. Dr. Monika Di Angelo
Für Kinder mit Migrationshintergrund gestaltet sich der Erwerb der Sprache
des Gastlandes oft als schwierig. Das ist auch darauf zurückzuführen, dass der
Erwerb einer Zweitsprache besser gelingt, wenn die eigene Muttersprache
gut beherrscht wird. Zumeist jedoch wird die Entwicklung der Muttersprache
dieser Kinder mit dem Schuleintritt abrupt abgebrochen. Der Erwerb der
54
Muttersprache in einem fremden Land bringt verschiedene Probleme mit sich.
Eine Lernplattform kann solche Schwierigkeiten verringern: Die SchülerInnen
werden motiviert, nicht nur an Wochenenden in der Sprachschule, sondern
kontinuierlich auch von zu Hause aus mitzulernen. Da der Iran die höchste
Emigrationsquote unter den Entwicklungsländern hat, wird im Rahmen dieser
Arbeit eine Lernplattform für Persisch implementiert. Aufgrund der Eigenheiten der persischen Sprache (Rechtsschreibweise) und des persischen Kalenders ergeben sich besondere Anforderungen an die Lernplattform. Diese
Anforderungen und weitere Aspekte des Sprachlernens werden in einem
Kriterienkatalog zusammengefasst, um danach Lernplattformen auf ihre Tauglichkeit für den Sprachunterricht allgemein, und für Persisch im Speziellen
evaluieren zu können. Die am besten geeignete Lernplattform wird dann für
den Sprachunterricht vorbereitet, d.h. notwendige Änderungen werden
durchgeführt bzw. implementiert. Danach wird der eigentliche Per-sisch-Kurs
umgesetzt, der letztendlich in einer Sprachschule oder auch als e-LearningPlattform für selbstgesteuertes Lernen eingesetzt werden soll.
Peter Smejkal
Informatik an Österreichs Schulen in der Sekundarstufe I
Studium: Masterstudium Informatikmanagement
Betreuerin: Ass.Prof. Dr. Monika Di Angelo
Informatikunterricht wird derzeit im Lehrplan für Österreichs Allgemeinbildenden Höheren Schulen (AHS) nur in der neunten Schulstufe als zweistündiges
Fach verpflichtend geführt. In der heutigen Gesellschaft ist der Computer ein
nicht wegzudenkendes Standardinstrument, was sich in den Lehrplänen kaum
widerspiegelt. Es gibt zwar ausgearbeitete Standards für den Informatikunterricht, welche jedoch derzeit weder in der AHS noch im Pflichtschulbereich bindend sind. Diese Situation führte dazu, dass sich auch außerhalb des Lehrplans an vielen Schulen Angebote für Informatikunterricht etablierten, die
durch die autonome Lehrplanbestimmungen der jeweiligen Schulen selbst
entworfen wurden. Diese Gründe stellen die Motivation für die vorliegende
Arbeit dar, welche das aktuelle Informatikangebot und dessen Form an Österreichs Schulen in der Sekundarstufe I ermittelt und erörtert. Im ersten Schritt
wurden zur Datenerfassung der Angebote des Informatikunter- richts in
Österreichs Schulen der Sekundarstufe I E-Mails an die Gymnasien und
Hauptschulen aus ganz Österreich verschickt. Zusätzlich wurde eine Recherche nach Stundentafeln und eventuellen freiwilligen Angeboten für Informatik basierend auf den Websites aller Schulen durchgeführt. Zur Ergänzung der erhobenen Daten wurden schließlich einige Schulen telefonisch
kontaktiert. Nach der Erhebung der Daten erfolgte die Auswertung anhand
verschiedener Kriterien. Die Ergebnisse dieser Studie zeigen, dass es österreichweit bereits schulautonome Angebote an Gymnasien sowie in Hauptschulen gibt. Im Bundesländervergleich dieser Angebote liegen vor allem Kärnten, die Steiermark, Oberösterreich und Vorarlberg im Spitzenfeld. Die Bundeshauptstadt Wien rangiert am hinteren Teil der Statistik und scheint den
55
anderen Bundesländern hinterherzuhinken. Hervorzuheben ist, dass sich in
den letzten zehn Jahren eine große Anzahl an unterschiedlichen Freifächern
zum Thema Informatik entwickelt hat.
Edin Srndic
Requirement Evaluation of an Electronic Triage Tag Framework and Prototype
Implementation of a mobile Triage Tag Device
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Many medical areas such as diagnose, treatment and patient care benefited
from the application of IT-infrastructure ranging from complex architectures
to small monitoring devices providing better access to information, more efficient data exchange and increased data processing. The goal of this thesis is
to bring these benefits to the field of emergency care. Triage is a process during emergency care which aims at maximizing the provided care in a situation
where the available resources are limited by diagnosing injuries and categorizing patients into groups to determine the priority for treatment and transport. Our intent is to increase the quality and amount of medical care for
patients in such situations by introducing electronic Triage Tags to increase
the efficiency of the entire triage process. Hence, this thesis evaluates the core requirements and deduces a framework for an electronic Triage Tag, util-izing
RFID tags and a client/server approach based on wireless communica- tion.
Information gathering is performed by the mobile triage devices with integrated
RFID reader. Finally, the thesis presents a simple proof of concept application.
Alen Suljagic
E-Learning in der Lehrlingsaus- und Weiterbildung
Studium: Masterstudium Informatikmanagement
Betreuerin: Ass.Prof. Dr. Monika Di Angelo
Es ist beinahe nicht mehr möglich, sich Bildung ohne den Einsatz des
Internets vorzustellen. In diesem Kontext gewinnt E-Learning auch in
beruflichen Aus- und Weiterbildung immer mehr Bedeutung. Das große und
bis jetzt nicht vollständig ausgeschöpfte Potenzial des Internets wurde in
letzten Jahren auch im Ausbildungssektor der Systemgastronomie spürbar.
Dies wird durch bereits vorhandene Statistiken und zahlreiche Beispielen aus
der Praxis belegt. In dieser Arbeit wird analysiert, in wie weit der Einsatz von
E-Learning Technologie in der systemgastronomischen Lehrlingsausbildung
auf Akzeptanz stößt und ob die technische Möglichkeiten einer Lernplattform
Verbesserungen im bisherigen Unterricht mit sich bringen. Es erfolgt eine
grundlegende Einführung in E-Learning, Lerntheorien, Blended Learning und
die Lernplattform Moodle. Anhand eines erstellten Moodle- Kurses für die
Lehrlingsausbildung werden die Möglichkeiten dieser Lernplattform dargestel56
lt. Den Schwerpunkt dieser Arbeit stellt eine Untersuchung der Akzeptanz von
E-Learning, bzw. Blendend Learning seitens der systemgastronomischen
Lehringe dar. Die Akzeptanz an dieser Art des Lernens wird mittels
qualitativen und quantitativer Methoden überprüft.
Heinz Unterberger
Entwurf einer Personen-zentrierten, Use-case orientierten Klassifikation und
Evaluierungsmethode zur Datenhaltung besonders schützenswerter
(medizinischer) Daten in e-Health-Rechenzentren
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Durch die fortschreitende Vernetzung verschiedenster Gesundheitsdienstanbieter (GDA) und die geplante flächendeckende Einführung einer elektronischen Gesundheitsakte (ELGA) in Österreich, wird das Thema Datenhaltung
und Datensicherheit besonders schützenswerter (medizinischer) Daten immer
wichtiger. Das Ziel der vorliegenden Arbeit ist es, mit Hilfe eines exemplarischen Beispiels eines Anforderungskataloges, in dem die durchzuführenden
Arbeiten bei Sicherheitsproblemen grafisch und schriftlich aufgearbeitet
werden, die sichere Datenhaltung und Datenverarbeitung von besonders
schützenswerten (medizinischen) Daten in einem e-Health-Rechenzentrum zu
verbessern. Um einen Überblick über den aktuellen gesetzlichen Datenschutz
in Österreich zu geben, werden die für die Verarbeitung von besonders
schützenswerten Daten relevanten Gesetzestexte zusammenfassend
dargestellt. Durch die Beschreibung und Vorstellung von Schutzzielen, die
Erläuterung eines Informationssicherheitsmanagement (ISMS) Prozesses,
inklusive einer kurzen Erläuterung der im ISMS durchgeführten Schritte und
die Darstellung von verschiedensten IT-Dokumentationen, werden die für
den Entwurf, die Implementierung und Umsetzung des in der vorliegenden
Arbeit konzipierten Anforderungskatalogs essentiellen Grundbausteine
definiert.
Andreas Walch
Entwurf, Realisierung und Tuning der grafischen Konzepte für ein großes,
Web-basiertes Studienverwaltungssystem
Studium: Masterstudium Medieninformatik
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Based on the theoretical basics of Graphic- and Web-Design, four design
drafts for TU-Wien Informations-Systeme und Services (TISS) are presented in
this work. TISS is a development project hosted by the Vienna University of
Technology which seeks to implement information and communication
systems for teaching, research and business. For the web channel, the design
of an interface is needed that, on the one hand enables to model all
57
functions of the system beneath, and on the other hand gives the user the
ability to achieve his tasks with efficiency and effectiveness. To accomplish a
rich visual communication, practices, experience and techniques from the
print-design are mapped to the medium of web. Thus the inherent aspects of
the latter are enriched. With this goal in mind, the theoretical basics of
graphical modeling are described from the viewpoint of Web-Design. The
human visual recognition is shaped by the knowledge of space and form as
well as by certain design principles, color and pictures. For web designing
tasks it is crucial to know the typical structure of a website, navigation
elements, typical web layouts, grid systems and wireframes. Typographical
elements such as letters, words, lines visualized in a practical context are the
basis of nearly every communication. With user centered design and usability
methods the user steps into the focus of attention. No design decisions
happen without considering the user. On the basis of these theoretical
aspects, four Designs are presented. With references to the theory the
chosen design approach is described and the requirements are presented.
The central part however is the presentation of the achieved results with
special focus on the finally chosen design work. A connection between
theory and implementation is drawn, and the importance and benefit of rich
visual communication elucidated.
Christian Wallek
Neukonzeption der Infrastrukturbereiche im Anforderungskatalog des EGovernment-Gütesiegels
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
Aktuell können in Österreich Anwendungen auf Antrag mit dem EGovernment-Gütesiegel ausgezeichnet werden, wenn sie bestimmte
Anforderungen erfüllen. Das Gütesiegel soll als Qualitätsmerkmal für Bürger,
Unternehmen und Behörden gelten. Ziel dieser Arbeit ist es zu untersuchen,
ob das österreichische E-Government-Gütesiegel den aktuellen technischen
Standards entspricht. Identifizierte Erneuerungsmöglichkeiten (Anpassungsbzw. Erweiterungspotentiale) von Anforderungen an das E-Government-Gütesiegel, werden in dem, im Zuge dieser Arbeit, ergänzten Anforderungskatalog reflektiert. Im ersten Teil der Arbeit wird der Aufbau des E-GovernmentGütesiegels anhand bestimmter Kriterien untersucht und beschrieben. Bereits
an dieser Stelle sollen Erneuerungsmöglichkeiten bzgl. Strukturierung und
Inhalt des E-Government-Gütesiegels identifiziert werden. In weiterer Folge
wird ein Vorgehen erarbeitet und dargestellt, welches die Analyse der
einzelnen Anforderungsgruppen (so genannte Labels) auf deren Aktualität
und Vollständigkeit ermöglichen soll. Bei diesem Vorgehen werden die
aktuell eingesetzten Technologien und Standards auf ihre Aktualität hin
untersucht. Weiters werden Technologien, Standards und Anforderungen aus
den Referenzländern Deutschland und Schweiz mit den österreichischen
Anforderungen verglichen, um neue bzw. ergänzende Aspekte für die
58
untersuchten Anforderungsgruppen in Österreich zu identifizieren. Zur
Verdeutlichung und Validierung des entwickelten Vorgehens werden in
weiterer Folge unter dessen Anwendung die Anforderungsgruppen Formular
und Infrastuktur, untersucht. Das Label Formular behandelt Kriterien für die
Erfassung und den Austausch von Daten über elektronische Formulare. Das
Label Infrastruktur wiederum umfasst Kriterien, welche die Sicherheit und das
korrekte Verhalten von E-Government-Anwendungen sicherstellen sollen.
Abschließend werden Empfehlungen für die Erneuerung der untersuchten
Labels gegeben.
Peter Weishapl
Physical Behavior of Virtual Objects and its Impact on User Experience: A Case
Study using Card Sorting
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig
This diploma thesis explores how physical behavior of virtual objects affects
the per- ceived pragmatic and hedonic quality of interactive products as well
as peoples judgements of its goodness and aesthetics. The thesis proposes a
model of user experience (UX) to explain how users perceptions and
judgements of a product are influenced by its features. It does so by
incorporating theories about aesthetics and emotions into the
hedonic/pragmatic model of UX. It argues that physical behavior of virtual
objects can be considered aesthetic, and thus result in a better user
experience. To verify the impact of physical behavior, I built a prototype for
conducting card sorting tasks on an Apple iPad. Two variations of this
prototype were used in an explorative study. Participants conducted card
sorting tasks with a physical and a non-physical variation of the prototype and
assessed their perceptions and judgements using an extended version of the
AttrakDiff2 questionnaire. The analysis of the experiment confirmed that
physical behavior can indeed improve the user experience. Physical behavior
is, however, not applicable in all circumstances and seems to be most
valuable in conjunction with touch screens and natural user interfaces (NUIs).
The thesis concludes by discussing potential implications and possible
limitations of this study, that is, circumstances in which physical behavior can
be used and the expected impact on UX.
59
Elisabeth Reingard Wetzinger
Unterrichtskonzept "Digitales Bild: Bildkompression, Dateiformate und
Anwendungen"
Studium: Masterstudium Informatikmanagement
Betreuerin: Ass.Prof. Dr. Monika Di Angelo
Vor dem Hintergrund der rasanten technologischen Entwicklungen und der
Tatsache, dass Kinder und Jugendliche mit den neuen Medien aufwachsen
(digital natives) präsentiert diese Arbeit ein Unterrichtskonzept zum Thema
Bilddateiformate sowie Bildkompressionsverfahren. In fünf Modulen wird
inhaltlich ein Bogen von der Einführung in die Welt digitaler Bilder, deren
Aspekte und Beschreibungsmethoden über Grundlagen und Methoden der
Bilddatenkompression bis hin zu Dateiformaten und Anwendungen digitaler
Bilder im Alltag der Jugendlichen gespannt. Es soll das bereits bestehende
oberflächliche Wissen der Jugendlichen vertieft werden und auch auf einer
formaleren Ebene (insbesondere Bilddatenkompression) aufgearbeitet
werden. Die Umsetzung erfolgt im Wesentlichen mit Methoden der
konstruktivistischen Lerntheorie sowie Methoden aus dem Seminaralltag mit
dem Ziel der Förderung des eigenverantwortlichen, selbständigen und
sozialen Lernens im Team sowie der Softskills der Schüler. Dies geschieht
durch den Einsatz alternativer Methoden zum derzeit immer noch
vorherrschenden Frontalunterricht und mit Implementierungsvorschlägen
anhand der Thematik.
60
Institut für Technische Informatik
Arbeitsbereich Embedded Computing Systems
Martin Walter
The SPEAR2 Hardware/Software Interface
Studium: Masterstudium Technische Informatik
Betreuer: Ao.Univ.Prof. Dr. Andreas Steininger
Das Hardware/Software Interface einer Rechnerarchitektur umfasst all jene
Möglichkeiten mittels derer Informationen über die Grenze zwischen
Hardware und Software hinweg übermittelt werden können. Die Bestandteile
des Hardware/Software Interfaces finden sich daher in einer Vielzahl von
Systemprogrammen, allen voran Compiler, Assembler und Linker wieder, in
denen sie die Regeln für die Übersetzung von Quellcode einer Hochsprache
in ein ausführbares Programm in der jeweiligen Maschinensprache vorgeben.
Durch die kollektive Einhaltung dieser Regeln für eine bestimmte Architektur
wird es ermöglicht, Anwendungen einmalig zu kompilieren und auf einem
beliebigen Prozessor ausführen zu lassen, der eben diese Architektur
implementiert. Im Rahmen dieser Diplomarbeit wird das Hardware/Software
Interface des SPEAR2, einer am Institut für Technische Informatik der
Technischen Universität Wien entwickelten soft-core Architektur, von Grund
auf erarbeitet. Die Erkenntnisse werden dabei sowohl von einer bestehenden
Sammlung mittlerweile nicht mehr zeitgemäßer Systemprogramme, als auch
von den Quellcodes der Architektur selbst, gewonnen. Schlussendlich werden
sich diese als unverzichtbar erweisen, wenn die Portierung und Integration
einer Sammlung aktueller Entwicklungs-Tools, vorwiegend aus dem GNU
Projekt, in eine funktionsfähige, wohl aufeinander abgestimmte, Toolchain
vorgenommen werden soll.
Arbeitsbereich Real Time Systems
Bernhard Fischer
Modeling Techniques and Tool for Embedded Systems - State of the Art
Studium: Masterstudium Informatikmanagement
Betreuer: Privatdoz. Dr. Wilfried Elmenreich
Model-based development (MBD) approaches design challenges with ever
increasing demands on embedded products by abstraction with models. The
concepts of MBD separate concerns by providing just the necessary details for
each activity in the development process. Literature about model-based
development for embedded systems is widely scattered and its contents are
either devoted to a small sub-set of specific modeling topics or approach the
61
subject from a rather general/conceptual viewpoint. Drawing a big-picture of
the current state of the art in modeling of embedded systems is a very
demanding task due to all the different involved and mixed topics. This thesis
comprises an exhaustive literature research investigating modeling concepts
for embedded systems. Several modeling techniques, tools and system
development methods are presented and modeling challenges are discussed.
Walter Haas
Automatic Coverage-Profile Calculation for Code Optimization
Studium: Masterstudium Technische Informatik
Betreuer: Privatdoz. Dr. Raimund Kirner
Beim Testen von Software und für die Measurement Based Timing Analysis
wird oft das Einhalten bestimmter Code Coverage Kriterien verlangt.
Vorzugsweise werden die Testdaten aus einer höheren Repräsentationsform
des getesteten Programms abgeleitet, beispielsweise aus dem Source Code.
Moderne Compiler nehmen beim Erzeugen des Maschinencodes jedoch
zahlreiche Optimierungen vor, um die Eigenschaften der verwendeten
Zielplattform, beispielsweise durch Parallelverarbeitung oder hierarchisch
organisierte Zwischenspeicher (Cache), so gut wie möglich auszunutzen.
Solche Optimierungen können jedoch die strukturelle Code Coverage
zerstören, die in der höheren Repräsentationsform bereits erzielt wurde. Eine
Möglichkeit dieses Problem zu umgehen ist, Code Optimierungen vorab zu
analysieren, ob sie eine bestimmte Art der strukturellen Code Coverage
bewahren oder nicht. So kann für jede Code Optimierung ein Coverage Profil
erstellt werden. Ein Compiler kann die vorhandenen Profile dann benutzen,
um entweder beim Übersetzungsvorgang nur Optimierungen vorzunehmen,
welche die entsprechende Code Coverage erhalten, oder um eine Warnung
auszugeben falls eine angewendete Optimierung die Erhaltung einer
bestimmten Code Coverage nicht sicherstellt. Diese Diplomarbeit entwickelt
ein System zur automatischen Analyse von Code Transformationen in Hinblick
auf die Erhaltung struktureller Code Coverage Kriterien. Die Analyse basiert
auf einer bereits vorhandenen, formalen Theorie der Code Coverage
Erhaltung. Der erste Teil der Arbeit führt eine formale Beschreibung von
Code-Transformationen ein. Der zweite Teil überträgt den zuvor eingeführten
Formalismus in ein mathematisches Software-System, um eine automatische
Analyse von Code Transformationen bezüglich der Erhaltung bestimmter
Arten von Code Coverage durchzuführen und daraus ein Coverage Profil zu
erstellen. Die Anwendbarkeit des Lösungsansatzes wird schließlich im dritten
Teil anhand mehrerer Analyse Beispiele gezeigt.
62
Peter Hilber
Hardware Transactional Memory for a Real-Time Chip Multiprocessor
Studium: Masterstudium Technische Informatik
Betreuer: O.Univ.Prof. Dr. Herbert Grünbacher
Transactional memory is an alternative to conventional lock-based
synchronization. Locks are difficult to use and not composable; transactional
memory offers a simple programming model and the high concurrency
desired for future multiprocessors. While actually multiple threads
concurrently access shared data, the results look as if code sections
(transactions) had been executed sequentially. Conflicts among concurrent
transactions are automatically resolved. To our knowledge, there is currently
no transactional memory system suitable for hard real-time systems on
multiprocessors. Real-time transactional memory (RTTM) is a proposal of a
time-predictable transactional memory for chip multiprocessors. The main
goals of RTTM are a simple programming model and analyzable timing
properties. Static analysis detects non-conflicting transactions, which lowers
the worst-case execution time bounds. In this master's thesis, RTTM was
implemented on an FPGA and the viability of the implementation was
evaluated. For time-predictable execution, RTTM is hardware-based. Each
core gets a small, fully associative cache which tracks the memory accesses in
a transaction. RTTM was implemented on JOP, a time-predictable chip
multiprocessor directly executing Java bytecode. The basic programming
interface is the @atomic method annotation. The FPGA-based implementation supports small transactions suitable for synchronization in embedded
real-time applications. Up to 12 cores fit on a low-cost Cyclone II FPGA
running at 90 MHz with a device utilization of more than 90%. The RTTM
hardware is costly due to the fully associative cache, but does not dominate
the hardware resource consumption. The close relationship of the processor
to the Java Virtual Machine enables some resource-saving optimizations. A
part of RTTM was implemented in software. As a preparation for tool-based
worst-case execution time analysis, the execution time of individual RTTM
operations was bounded.
Thomas Mair
Validation Middleware for Mixed Criticality Networks
Studium: Masterstudium Technische Informatik
Betreuer: O.Univ.Prof. Dr. Hermann Kopetz
This thesis investigates on the secure sharing of information in a mixedcriticality system. Our approach to fulfil these safety and security requirements is to establish a set of strict rules for the communication between the
tasks of the different integrity levels. These rules implement an integrity
model and have to guarantee that the information flow between the criticality
levels happens appropriately. In many applications it also might be required
63
to use a piece of unreliable information from a low criticality level in a higher
one. Communication in this direction is considered as illegal in many integrity
models. This thesis introduces a mechanism called "Validation Middleware"
which upgrades the reliability of data from diverse redundant sources. For
this, inexact voting techniques are realised which produce a trusted output
and define a criteria for determining correct and incorrect. These mechanisms
were developed and studied in context of the Time-Triggered System-OnChip architecture. This architecture provides a spatial and temporal firewall
between each task by partitioning the system into single autonomous
subsystems called the micro components. These subsystems are connected
through a deterministic Network-on-Chip which uses so-called encapsulated
communication channels to prevent the messages from interfering with each
other. We tested the fault tolerance mechanisms inside the "Validation
Middleware", by creating an application from the automotive context which
compasses ABS and odometer subsystems. Our results show that the
deterministic behaviour of the Network-on-Chip and the temporal and spatial
partitioning of the encapsulated communication channels, combined with the
use of Totel's integrity policies, provides a suitable environment for the use in
a mixed-criticality application. In addition, we point out the existence of a
middleware in the Time-Triggered System-on-Chip architecture, which
enables upstream communication flows.
Christoph Martinek
Minimal Preconditions for Timing Anomalies in WCET Calculations
Studium: Masterstudium Technische Informatik
Betreuer: Ao.Univ.Prof. Dr. Peter Puschner
Bei Echtzeitsystemen ist die Analyse der Worst-Case-Execution-Time (WCET)
von entscheidender Bedeutung. Die Kenntnis über diese maximale
Ausführungszeit führt zu einer notwendigen Vorhersage des Zeitverhaltens
bei zeitkritischen Systemen. Um eine detaillierte Untersuchung des Zeitverhaltens eines Programms durchzuführen, ist in modernen Echtzeitsystemen,
in denen unterschiedliche Cache- und Pipeline-Architekturen vorkommen, das
Wissen über den Verlauf einer Ausführung von Wichtigkeit. Mit diesen
Informationen können Besonderheiten, nämlich sogenannte Zeitanomalien,
analysiert und notwendige Bedingungen dafür hergeleitet werden. Beim
Auftreten von Zeitanomalien wird im Verlauf einer Ausführung die Eigenschaft Proportionalität im zeitlichen Verhalten verletzt. In dieser Diplomarbeit
werden die wichtigsten Zeitanomalien charakterisiert und Methoden
vorgestellt, mit denen sich gewisse Anomalien bezüglich der Berechnung der
WCET berechnen lassen. Darunter fallen serielle Zeitanomalien, welche über
eine Anzahl von unterschiedlichen Pfaden auftreten können, und parallele
Anomalien, bei denen der timing-relevant dynamic computer state (TRDCS) in
unterschiedliche Hardwarekomponenten aufgeteilt wird. Für eine
aussagekräftige Analyse ist eine genaue Erforschung von Zeitanomalien in
verschiedenen Cache- sowie in Pipeline-Architekturen erforderlich. Es werden
64
hier die Cache-Ersetzungsstrategien FIFO, Pseudo Round Robin und Pseudo
LRU genauer betrachtet. Bei Pipeline-Architekturen werden Simple Scalar-,
Scalar-, Superscalar In-Order und Super-scalar Out-of-Order-Pipelines untersucht. Es werden Vorbedingungen für Zeitanomalien ausgearbeitet, die in
diesen Architekturen auftreten können. Darüber hinaus wird gewissermaßen
eine Checkliste erarbeitet, mit der Prozessoren betreffend der eintretenden
Zeitanomalien eingestuft werden können.
Daniel Prokesch
A Light-Weight Parallel Execution Layer for Shared-Memory Stream Processing
Studium: Masterstudium Technische Informatik
Betreuer: Privatdoz. Dr. Raimund Kirner
In den letzten Jahren haben sich zunehmend Mehrkernprozessoren im
Bereich der Universalrechner etabliert. Um die Vorteile der zunehmend
ansteigenden Anzahl von Rechenkernen nutzen zu können, sind Programmierparadigmen notwendig, welche die Ableitung von Nebenläufigkeiten
erleichtern bzw. erst ermöglichen. S-Net ist eine deklarative Koordinationssprache, deren Ziel es ist, die Programmierung von Nebenläufigkeit und
Programmlogik zu trennen. Dabei wird die Koordination von Netzen
bestehend aus asynchronen, zustandslosen und mittels typisierter Datenströmen verbundener Komponenten definiert. Netzwerke werden in S-Net
durch algebraische Formeln ausgedrückt, bestehend aus vier Kombinatoren,
nämlich serieller und paralleler Komposition, sowie serieller und paralleler
Replikation. Das Ziel dieser Arbeit ist es, das bestehende Laufzeitsystem
dahingehend zu erweitern, dass es zwei Anforderungen genügt. Erstens soll
es ermöglicht werden, Informationen über die Ausführungszeiten der
Laufzeitkomponenten oder die Auslastung der Kommunikationskanäle zu
sammeln. Zweitens soll es die Möglichkeit zur Kontrolle des Schedulings der
Komponenten geben. Durch Recherche von bestehenden, auf Datenstromverarbeitung basierenden (Laufzeit-)Systemen wurden Konzepte für eine
leichtgewichtige parallele Ausführungsschicht erarbeitet, welche Komponenten, die mittels gerichteter und gepufferter Datenströme kommunizieren,
auf User-Ebene verwaltet, wobei besonderes Augenmerk auf die
Anforderungen des S-Net Modells und effiziente Synchronisationsmechanismen gelegt werden musste. Experimente mit dem S-Net Laufzeitsystem und
der neuen Ausführungsschicht zeigen eine effiziente Ressourcennutzung
selbst bei vielen zu verwaltenden Komponenten. Die zur Laufzeit gewonnene
Information kann erfolgreich genutzt werden, um den erforderlichen
Rechenaufwand der Komponenten zu ermitteln, sowie um anwendungsspezifische Scheduling- und Platzierungsstrategien abzuleiten.
65
Sebastian Rosensteiner
Tool Chain Qualification for Model-based Software Engineering in the
Automotive Domain
Studium: Masterstudium Information & Knowledge Management
Betreuer: Privatdoz. Dr. Raimund Kirner
Die modellbasierte Softwareentwicklung für sicherheitskritische Systeme ist in
der Automobilindustrie mittlerweile gut etabliert. Immer mehr sicherheitsrelevante Funktionen im Fahrzeug werden von Software gesteuert, wie
beispielsweise geregelte Bremssysteme oder Fahrerassistenzsysteme. Die für
die Entwicklung solcher Systeme geltenden Standards der funktionalen
Sicherheit, wie der zukünftige Standard ISO 26262, verlangen eine
Qualifizierung der Entwurfswerkzeuge und auch unterstützender Werkzeuge,
um ausschließen zu können, dass diese Fehler in den Entwicklungs- und
Codegenerierungsprozess einbringen. Die Anforderungen für die
Qualifizierung sind dabei von dem konkreten sicherheitskritischen System und
dem ermittelten ASIL Level (Automotive Safety Integrity Level) abhängig. Im
Rahmen dieser Diplomarbeit wurden in Zusammenarbeit mit der Firma
Magna Steyr Fahrzeugtechnik die Anforderungen des Standards ISO 26262
genau betrachtet. Im Speziellen wurden die Anforderungen an die
Qualifizierung der Toolkette für modellbasierte Softwareentwicklung
evaluiert, ein Vergleich der in der Literatur dazu präsentierten Konzepte
vorgenommen und ein unter-stützendes Tool für die Qualifizierung der bei
MSF verwendeten Toolkette (TargetLink basierend auf Matlab/Simulink)
evaluiert. Dabei wurde ein Test Algorithmus zur Durchführung von Back-toback Tests entwickelt, der dem Standard ISO 26262 genügt.
66
Institut für Computertechnik
Matthias Rodler
Modeling and Power Optimization of a Wireless Sensor Node
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
Betreuer: Univ.Prof. Dr. Christoph Grimm
Funksensorknoten umfassen einen breiten Anwendungsbereich, angefangen
vom einzelnen Knoten bis hin zu Sensornetzwerken mit mehreren tausend
Sensoren. Die meisten dieser Anwendungsbereiche stellen dieselben allgemeinen Anforderungen an einen Sensorknoten welche oft auch eine nahezu
endlose Lebensdauer verlangen. Um in der heutigen Zeit die Anforderungen
der Kunden bestmöglich abzudecken und das Bestehen am Markt gegenüber
der Konkurrenz gewährleisten zu können, streben Unternehmen nach
kürzeren Entwicklungszeiten für neue Produkte. Zusätzlich steigt jedoch die
Komplexität mit den Anforderungen der Konsumenten, was dazu führt, dass
Unternehmen stets nach neuen Prozessen suchen um den Aufwand von Zeit
und Geld für die Entwicklung ihrer Produkte zu verringern. In dieser Arbeit
wird ein abstrakter Ansatz für eine zyklengenaue Simulation von Funksensorknoten vorgestellt. Dieser soll die Anwendung von flexiblen Stromprofilen
einzelner Komponenten eines Sensorknoten ermöglichen um die Aufzeichnung des Verbrauchs für eine mögliche Analyse zu gewährleisten. Weiters
wird die Möglichkeit geboten jede einzelne Hardwarekomponente in
verschiedenen Detailgraden zu simulieren wobei stets die gleiche Basis einer
Komponente verwendet werden kann. Zusätzlich wird die Erzeugung von
Stromprofilen der simulierten Hardware - in einer sehr detaillierten Simulation
- zur Verfügung gestellt. Dies gibt die Möglichkeit zur Analyse und
Optimierung der verwendeten Firmware um infolge dessen das Verhalten
eines Sensorknoten zu verbessern und vor allem die Lebensdauer in einem
Funksensornetz zu erhöhen. Eine Implementierung eines Sensorknoten und
die Simulation eines Funksensornetzwerks Mithilfe von SuSi - ein SystemC
basierendes von Infineon entwickeltes Framework - und die Integration in das
SNOPS Framework vom Institut für Computertechnik an der technischen
Universität Wien zeigt eine reale Umsetzung des vorgestellten Ansatzes.
67
Matthias Wenzl
Design and Implementation of a VOIP Stack for High Packet Rates in an FPGA
Studium: Masterstudium Technische Informatik
Betreuer: Univ.Prof. Dr. Christoph Grimm
Dank einer breiteren Verfügbarkeit von Internetanschlüssen mit entsprechender Bandbreite erfreut sich VOIP Kommunikation in industrialisierten
Ländern immer größerer Beliebtheit. Die meisten VOIP-fähigen Endgeräte
sind jedoch nicht auf die speziellen Bedürfnisse einiger Einrichtungen, wie
z.B. der Luftraumüberwachung abgestimmt. Um diese speziellen
Anforderungen besser zu erfüllen wurde im Rahmen eines Forschungsprojektes ein spezielles Modul entwickelt, welches den Sprachdatenaustausch
einer VOIP Verbindung in Hardware realisiert. Dieser IP-Core (RTP-Engine),
wird in einer statischen Konfiguration in einem Xilinx Virtex4 FPGA auf einer
Prototypingplattform betrieben. Ziel der Arbeit ist die Implementierung eines
kompletten VOIP-Stacks bestehend aus einem Signalisierungsprotokoll,
einem Verbindungsqualitätssicherungsprotokoll, und der RTP-Engine
inklusive einer Konfigurationsschnittstelle. Als Randbedingungen treten
hierbei Embedded System spezifische Beschränkungen wie limitierte
Rechenleistung und eingeschränkte FPGA Resourcen auf. Des weiteren
müssen Auflagen betreffend der HW/SW Schnittstelle der RTP-Engine, welche
durch die vorgegeben VOIP-Stack Funktionalität induziert sind, eingehalten
werden. Zur Umsetzung wird eine Evaluierung des grundlegenden Aufbaus
eines VOIP-Stacks durchgeführt und die Anforderungen an das Design eines
Basis-Systems und der HW/SW Schnittstelle der RTP-Engine erhoben.
Außerdem werden unterschiedliche Software-Stacks, Schnittstellendesigns
und User/Kernel -Space Separierungen diskutiert. Schließlich wird ein
Prototyp implementiert, welcher in der Lage ist, einen VOIP-Sitzung direkt
zwischen zwei FPGAs oder einem PC zu realisieren. Es wird gezeigt, dass das
realisierte System eine geringere Belastung eines Prozessors mit sich bringt
und somit entsprechende Echtzeitanforderungen leichter erfüllt werden
können. Deshalb wäre es möglich, eine Erweiterung des Prototypen
durchzuführen, um Konferenzschaltungen zu unterstützen.
68
Institut für Automatisierungs- und Regelungstechnik
Thomas Hinterhofer
A Trinocular Census-Based Stereo Vision System for Real-Time Applications
Studium: Masterstudium Technische Informatik
Betreuer: Ao.Univ.Prof. Dr. Markus Vincze
This thesis is about the design and implementation of a trinocular census
transform-based stereo vision system for real-time applications. The extension
of an existing binocular stereo matching engine by one additional camera
addresses some inherently occurring problems of such systems. At first, a
calibration tool based on a modification of the OpenCV 2.1 library was
developed to undistort and rectify three (L-shaped configuration) or more
(inline configuration) input images. After rectification, corresponding object
points are located in the same row or column, respectively. The stereo engine
for binocular stereo vision (S3E), developed by the AIT, is modified and
extended to support the new trinocular camera configurations. The algorithm
is based on a census transform and it performs a consistency check and
subpixel refinement. Because of the extensive usage of SIMD instruction sets
and the support of state-of-the-art multi-core CPUs, dense depth maps are
produced with high frame rates. A method of fusing the results of two stereo
matching processes is developed in order to obtain disparity maps, which are
more dense and which contain less false positive matches. Beside of various
other possible applications, the output of the system can be used to display
live scenes on an autostereoscopic multi-user display. Finally, the inline and Lshaped camera configurations are tested and verified to analyse the benefits
and drawbacks of the specific alignments. The quality enhancements of
adding a third camera are verified by the stereo vision evaluation system of
the Middlebury college. The number of false matches can be reduced by up
to 40% compared to the binocular results. In the field of local optimizing,
real-time capable algorithms, our approach achieves a top result in the
Middlebury ranking. Frame rates of more than 10fps at 640x480 with 80
disparities each camera pair or over 70fps at 320x240 with 40 disparities are
achieved on standard multi-core CPUs.
Simon Pirker
Simulation of Lego Mindstorms NXT based plants using a distributed
automaion framework
Studium: Masterstudium Technische Informatik
Betreuer: Ao.Univ.Prof. Dr. Markus Vincze
Eine neue Fabrik zu bauen, oder auch nur den Produktionsablauf zu ändern
ist ein sehr kostspieliges Unterfangen. Deshalb wird in kostenreduzierende
69
Maßnahmen viel investiert. Ein Ansatz, um die Kosten schon während der
Entwurfsphase zu senken, bietet die Digitale Fabrik. Dabei werden die
Abläufe in der geplanten Fabrik realitätsgetreu simuliert, und ausgewertet.
Durch frühe Tests werden spätere teure Änderungen an der Fabrik verhindert,
und durch die flexible Planung wird die Planungsphase verkürzt, wodurch die
Fabrik früher realisiert werden kann. In dieser Arbeit wird die Frage behandelt,
ob sich 3d Spiele Engines dazu eignen, ein Framework für verteilte
Simulationen nach dem Konzept der Digitalen Fabrik zu entwicklen. Für die
Darstellung der Digitalen Fabrik werden 3d Modelle der LEGO® Mindstorms
NXT Sensoren und Aktuatoren verwendet. Die Steuerungsprogramme werden
IEC 61499 konform mit der 4DIAC-IDE entwickelt, und in der FORTE
Laufzeitumgebung ausgeführt. Das entwickelte Framework bietet die
Möglichkeit, über eine Schnittstelle eigene Steuerungsprogramme zu
entwerfen, die mit dem Simulationsteil interagieren. Diese Möglichkeit ist vor
allem für den Lehrbetrieb interessant, da es Studenten die Möglichkeit bietet,
früh mit dem Konzept der Digitalen Fabrik, und des Soft-Commissioning®
vertraut zu werden. Zum Test des Frameworks werden in der Arbeit zwei
Experimente entwickelt. Diese sind die Simulationen einer Autowaschanlage,
und eines Roboters, der einer Linie folgt. Neben den Ergebnissen zu den
Experimenten und zum Framework, wird auch der Umgang mit der 3d Engine
selbst exemplarisch erläutert. Die Resultate zeigen, dass sich eine 3d Spiele
Engine sehr gut dazu eignet, ein Framework zu entwickeln, das alle
Anforderungen einer Digitale Fabrik erfüllt, und sich auch für den Einsatz im
Lehrbetrieb eignet.
Dominik Windhab
Lego Mindstorms NXT as Platform for Distributed Applications Based on
IEC61499
Studium: Masterstudium Technische Informatik
Betreuer: Ao.Univ.Prof. Dr. Markus Vincze
Erzeuger von Produkten müssen auf einen sich ständig wechselnden Markt
sehr schnell reagieren um wettbewerbsfähig zu bleiben. Einer schnelle
Reaktion steht allerdings die zunehmende Komplexität von verteilten
Systemen wie sie in modernen Industrieanlagen gefunden werden können
entgegen. Der noch relativ junge Standard IEC61499 wurde entwickelt um
genau diese Probleme in den Griff zu bekommen. Die Fordiac Runtime
Environment' (FORTE) ist eine solche Implementierung mit offenem
Quellcode. Sie ist sowohl auf einem PC als auch auf weniger leistungsfähigen
eingebetteten Systemen lauffähig. Eine Hardware Plattform die von FORTE
unterstützt wird ist der Lego Mindstorms NXT. Derzeit ist es möglich
Programme für lokale Anwendungen zu entwickeln. In dieser Diplomarbeit
werden die Kommunikationsschnittstellen des NXT analysiert und die
Laufzeitumgebung FORTE wird erweitert um Kommunikation zwischen NXT
Bausteinen zu ermöglichen. Der Lego Mindstroms NXT bietet die
Möglichkeiten drahtlos via Bluetooth oder kabelgebunden via RS485
70
Schnittstelle Daten auszutauschen. Die erarbeitete Lösung basiert auf einer
Mischform der beiden Möglichkeiten. Die kabelgebunden Teilnehmer sind in
der Lage ein Netzwerk basierend auf dem Token-Bus Protokoll zu erstellen
und verwalten. Weiters gibt es die Möglichkeit, dass Geräte die nicht an den
Bus angeschlossen sind dennoch über Bluetooth an der Kommunikation
teilnehmen können. Die erstellte Software stellt die Verwaltung des
Netzwerkes sicher, bleibt dabei aber transparent für den Entwickler auf eines
IEC61499 basierenden Systems. Es ist möglich ein Funktionsblocknetzwerk zu
modellieren ohne genaues Wissen über die Kommunikationsmechanismen zu
haben. Der große Vorteil liegt darin, dass verteilte Systeme sehr schnell
modelliert und aufgebaut werden können ohne präzise Kenntnisse über die
verwendete Hardware. Das System kann dann auch für Lehr- und
Anschauungszwecke verwendet werden um Studenten den Standard
IEC61499 näher zu bringen.
71
Institut für Managementwissenschaften
Christian Azesberger
Anwendung von Werkzeugen des Qualitätsmanagements im operationellen
Risikomanagement
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
Betreuer: Ass.Prof. Dr. Peter Kuhlang
Die vorliegende Arbeit geht der Frage nach, ob es Synergien zwischen
klassischem Qualitätsmanagement (QM) und operationellem Risikomanagement (OpRM) gibt und welche Methoden und Werkzeuge sinnvoll
angewendet werden können. Ziel dabei ist dabei nicht die vollständige
Abdeckung der Aufgaben des OpRM mittels Qualitätsmanagementtechniken,
sondern das Aufzeigen von sinnvollen Anwendungsmöglichkeiten zur
Verbesserung des OpRM-Prozesses. Der erste Teil besteht in der Abgrenzung
und Aufbereitung des Begriffs Operationelles Risikomanagement. Dabei wird
der operationelle Risikomanagementprozess analysiert und strukturiert dargestellt. Anschließend sind die wichtigsten Begriffe zum Thema Qualitätsmanagement erläutert. In Folge werden ausgewählte Konzepte und Werkzeuge
des Qualitätsmanagements vorgestellt. Diese Werkzeuge und Konzepte
werden dann den Erfordernissen des operationellen Risikomanagementprozesses gegenübergestellt. Dabei werden sinnvolle Einsatzmöglichkeiten
evaluiert und den einzelnen Aufgaben und Prozessen des OpRM zugeteilt. In
einem praktischen Beispiel wird abschließend ein Geschäftsprozess auf mit
Hilfe einer der vorgestellten Methoden und Werkzeuge auf operationelle
Risiken hin analysiert. Als Methode wird dabei die FMEA ausgewählt, da sie
mit dem klassischen Risikomanagementprozess die größte Synergie aufweist.
Als wesentliches Ergebnis wird festgehalten, dass die FMEA eine geeignete
Methode zur Durchführung des OpRisk-Prozesses darstellt. Des Weiteren hat
sich gezeigt, dass es insbesondere im Bereich der Risikoanalyse viele
Einsatzmöglichkeiten für QM-Werkzeuge gibt, mit denen ein vertiefendes
Ursache-Wirkungsverständnis gewonnen werden kann, welches als Erfolgsfaktor für erfolgreiches Risikomanagement entscheidend ist.
Victor Crestin
WEB E-Learning Plattform des ERP-Control Systems
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
Betreuer: Univ.Prof. Dr. Walter Schwaiger
Das Management Information System, genannt "ERPControl System" umfasst
das gesamte Spektrum von Prozessen und Wechselwirkungen welche
zwischen drei Komponenten, Resources, Events and Agents auftreten, die in
vielen wirtschaftlichen Studienrichtungen der TU Wien behandelt werden.
72
Das Hauptziel der vorliegenden Arbeit ist das Design und Implementierung
einer Web-basierten "E-Learning-Plattform" für Studierende, die als
Navigation Tool durch den gesamten "ERPControl System" führen soll. Das
ermöglicht die Durchführung von Übungs-und Online-Tests für die
Lehrveranstaltungen Investition und Finanzierung, Controlling, Kosten- und
Leistungsrechnung und Praxisorientierte BWL. Der Web-E-Learning-Plattform
ist für Bachelor und Master Studierende der Technischen Universität Wien
(Wirtschaftsinformatik, Wirtschaftsingenieurwesen-Maschinenbau, Wirtschaftsingenieurwesen Informatik, Wirtschaftsmathematik, Information & Knowledge
Management) auf jeden Fall signifikant. Die Studenten sollen in der Lage
sein, durch das System navigieren zu können, wirtschaftliche Konzepte
abzuspielen, erweiterte Modelle anschauen und die Ergebnisse des OnlineTests abzulegen.
Bernd Divoky
Finanzrisiken und Unternehmenssteuerung - Ein quantitativer Ansatz zur
Risikoanalyse
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Aussenegg
Finanzrisiken, und hier vor allem Marktpreisrisiken, haben für viele
Unternehmungen eine immer größere Bedeutung. Sei es, weil die eigenen
Produkte auf fremden Märkten vertrieben werden oder weil die Preise der
benötigten Rohstoffe vom Weltmarkt abhängig sind. Um langfristig
erfolgreich agieren zu können, müssen diese Risiken in der
unternehmerischen Planung berücksichtigt werden. Dazu zählen auch
Maßnahmen zur Absicherung gegen diese Risiken. Die Arbeit hat das Ziel, ein
Modell zu entwickeln, welches einem produzierenden Unternehmen erlaubt,
die Auswirkungen von Marktpreisrisiken und Absicherungsmaßnahmen auf
Unternehmenskennzahlen wie Gewinn und Cashflow zu analysieren.
Außerdem wird das Modell als Softwaretool implementiert werden. Als
Risikofaktoren werden Fremdwährungen und Rohstoffe betrachtet. Die
Entwicklung dieser Risikofaktoren wird mit dem Random Walk Modell
abgebildet. Durch den Einsatz einer Monte-Carlo-Simulation werden
zukünftige Szenarien für die Entwicklung der Marktpreise erarbeitet. Durch die
Einbeziehung der Risikofaktoren in Umsatz- und Kostenfunktionen lassen sich
in Folge Verteilungen von Unternehmenskennzahlen wie Gewinn und
Cashflow berechnen. Als Absicherungsmaßnahmen werden im Modell
Forwards und Optionen berücksichtigt. Zuletzt erlaubt das Modell einen
Vergleich der Kennzahlen mit und ohne Absicherungsmaßnahmen. Das
Softwaretool stellt eine Referenzimplementierung des Modells dar. Es stellt
ein graphisches Benutzerinterface zur einfachen Erfassung der Modell
Parameter sowie zur übersichtlichen Darstellung des Ergebnisses zur
Verfügung. Das erarbeitete Modell gibt einen allgemeinen Ansatz für die
Risikoanalyse vor. Für einen konkreten Anwendungsfall muss das Modell auf
die spezifischen Gegebenheiten angepasst werden.
73
Hilal Dogan
Controlling Regelwerk für Investitionen Prozessbasierte Gestaltung,
exemplarische Veranschaulichung und Implementierung
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
Betreuer: Univ.Prof. Dr. Walter Schwaiger
The focus of this master thesis is the investigation of a fictitious investment of
an automobile company in a foreign market within the framework of control
framework. The main task of this framework is the integration of a
performance system with a management system, which is depicted in a PDCACircle. The phases of intended investment are equated with the phases of
PDCA cycle and each of phases is executed once within the initial planning.
PDCA cycle operates according to the principle of cybernetics and consists of
four components; Plan-Do-Check-Act. The results of the demonstration
example are implemented in a software documentation programme to obtain
a better overview of the planned investment process. This software solution
illustrates the phases of investment integrated in PDCA cycle from the main
down to the detailed process and supplies a perfect manual for the company.
Harald Meusburger
Innovativer Einsatz von Informationstechnologie in universitärer Lehre und
anwendungsorientierter Forschung
Studium: Masterstudium Informatikmanagement
Betreuer: Ass.Prof. Dr. Peter Kuhlang
Im Rahmen dieser Arbeit wird der innovative Einsatz von Informationstechnologie in der universitären Lehre sowie in der anwendungsorientierten Forschung untersucht. Dazu teilt sich das Dokument in zwei Bereiche. Im ersten
Abschnitt wird das Lehrkonzept, das der Bereich Betriebstechnik und Systemplanung vom Institut für Managementwissenschaften an der Technischen
Universität Wien zur Ausbildung von Wirtschaftsingenieuren im Fachbereich
Maschinenbau heranzieht, untersucht. Ausgehend von einer umfassenden
Anforderungsanalyse für zukünftige Wirtschaftsingenieure, wird das Lehrkonzept des Studiendekanats untersucht und auf ein theoretisches Gerüst gestellt. Besonders beleuchtet werden dabei verschiedenen eLearning Ansätze
sowie Handlungs- und Problemorientiertes Lernen im Rahmen von virtuellen
und physischen Planspielen. Der zweite Abschnitt behandelt den Einsatz
diverser Web 2.0 Technologien in der anwendungsorientierten Forschung. Es
wird dabei ausgehend von den technischen und sozialen Grundlagen ein
Konzept für den Social Media Einsatz bei der Fraunhofer Austria Research
GmbH erarbeitet. Der Fokus dabei erstreckt sich von der Verbesserung der
internen Zusammenarbeit über neue Kommunikationsmöglichkeiten mit allen
Stakeholdern bis hin zur Unterstützung von Open Innovation Ansätzen.
74
Ismail Örün
IST- Zustandsanalyse und Einführung der RFID - Technologie in einem
Lebensmittelproduktionsunternehmen sowie die Einschulung der Mitarbeiter
Studium: Masterstudium Informatikmanagement
Betreuer: Ass.Prof. Dr. Peter Kuhlang
Das Ziel dieser Magisterarbeit ist die Vermittlung der Vorgangsweise bei der
Einführung der RFID (Radio Frequency Identification) - Technologie in einem
Lebensmittelproduktionsunternehmen. Dazu gehört auch die methodische
Einschulung der Mitarbeiter, die im Rahmen dieser Arbeit auch näher
gebracht werden soll. Mit dieser Arbeit soll ein Beitrag in Richtung der
Einsetzbarkeit
von
RFID
-Systemen
zur
Identifikation
von
Lebensmittelprodukten innerhalb und außerhalb des Unternehmens geleistet
werden. Diese Arbeit soll in Anlehnung an die Wertschöpfungskette eines
Referenzfalles aus der Praxis (Lebensmittelunternehmen mit Produktion und
Logistik) aufgebaut werden. Die auf dem Markt befindlichen RFID - Systeme
bieten für die Anwender einen gefächerten Einsatzbereich. Um diese
Technologie in der Lebensmittelindustrie gezielt einführen zu können sind
sowohl gezielte Analysen als auch spezielle Schulungsmaßnahmen der
Mitarbeiter erforderlich. Zur Lösung der gestellten Aufgabenstellung werden
die Grundlagen der RFID
Technologie beschrieben. Dann wird die
Wertschöpfungskette
(Abläufe
und
Prozesse)
des
gewählten
Untersuchungsort, sprich dem Unternehmen, analysiert. Im nächsten Schritt
wird eine Konzeption inklusive einer gezielten Schulungsmethode erarbeitet
und das Ergebnis diskutiert. Es handelt sich um ein anonymes
lebensmittelerzeugendes Unternehmen, welches haltbare, und frische
Produkte für den Lebensmitteleinzelhandel und soziale Einrichtungen
herstellt. Das österreichische Unternehmen mit Sitz in Wien agiert
österreichweit und besitzt eine eigene Logistiklösung. Die Tagestonnage aller
hergestellten Produkte beträgt ca. 30 Tonnen, was ungefähr 50.000
Portionen entspricht.
Christoph Rodler
Integration of Reports for Enterprise Risk Management Processes in ERP
Control
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Univ.Prof. Dr. Walter Schwaiger
Enterprise resource planning systems can be found in most enterprises and
they are used to manage the resources. But the exchanging, holding and
using of these resources is always done under uncertainty. The huge ERP
systems in the market were developed decades ago, therefore new
approaches, e.g. in risk management, cannot be efficiently integrated. The
term Business Informatics describes exactly the subject of this thesis: the
introduction of concepts for enterprise risk management and their
75
implementation in an ERP system. The establishment of enterprise risk
management in an organisation shall assist to identify, assess and manage
various risks, which may arise in the daily business. Two concrete risk models
are discussed to illustrate the whole development process. The reliability
model helps to estimate the probability of default of an equipment and the
duration model evaluates a financial ratio, which enables to rate the risk of a
financial instrument. To put the introduced concepts into action a
prototypical ERP system is the appropriate framework for the implementation
of the risk models. The Department of Corporate Finance, Planning and
Control as part of the Institute of Management Sciences at the Vienna
University of Technology has developed a next-generation ERP system named
ERPControl, in which the assessment and evaluation of both risk models have
been incorporated. The outcome is the integration of risk management in
ERPControl, which can assist a risk manager to create, reevaluate and monitor
considered risks in an enterprise.
Lenz Simon
Bedeutung von Wettbewerb im Licht der Finanzkrise
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: Prof. Dr. Karl Aiginger
Die Finanz- und Automobilbranche sind die von der Finanzkrise der letzten
Jahre am meisten betroffenen Wirtschaftssektoren. Besonders im
Finanzsektor sind durch Fusionen und Profitgier die Institute immer weiter
gewachsen, bis am Ende in vielen Fällen nur durch staatliche Intervention ein
Zusammenbruch der gesamten Volkswirtschaft verhindert werden konnte.
Sind die Unternehmen also zu groß geworden? Und vor allem, wie gingen die
Wettbewerbsbehörden vor und während der Krise mit diesem Thema um?
Wie reagiert die Politik nun nach der Krise? Die großen Finanzintermediäre
und auch die größten Automobilhersteller sind ohne Zweifel in den letzten
Jahren stärker als der Rest gewachsen, was Gegenstand einer empirischen
Analyse in der Arbeit ist. Seitens der Politik hat es vor der Krise wenig
Anzeichen gegeben, dieses überdimensionale Wachstum beziehungsweise
Fusionen und Übernahmen in irgendeiner Art zu stoppen. Diese Arbeit
befasst sich vor allem auch mit der Frage, wie der Gesetzgeber künftig mit
Unternehmen umgehen wird, die too big to fail sind. Die Schaffung neuer
Aufsichtsbehörden in der EU, Basel III und die Einführung einer Bankensteuer
sind ein erster Ansatz, der jedoch auch zukünftige Krisen und die
Notwendigkeit zur Rettung von Unternehmen oder sogar ganzer Staaten nicht
ganz ausschließen kann.
76
Milica Sundic
Outsourcing des Innovationsprozesses durch Insourcing von Ideen - am
Beispiel von Crowdsourcing
Studium: Masterstudium Wirtschaftsinformatik
Betreuer: O.Univ.Prof. Dr. Adolf Stepan
Wer heutzutage erfolgreich sein will, sollte auf Innovationen setzen, und
diese in den Kern der Unternehmenstätigkeiten einbinden, etwa in Form
eines strukturierten und definierten Innovationsprozesses, der eine
Innovation von der Ideengenerierung bis hin zur Produktumsetzung steuert.
Traditionell wurden Innovationsprozesse in den internen Forschungs- und
Entwicklungsabteilungen durchgeführt. Henry Chesbrough appelliert an die
Unternehmen, den Innovationsprozess jedoch nicht ausschließlich
Unternehmensintern durchzuführen, sondern auch externe Akteure
heranzuziehen, oder den Prozess auszulagern (engl. outsourcing). Eine solche
offene Gestaltung des Innovationsprozesses mit Einbindung von externen
Arbeitskräften zum gegenseitigen Wissens- und Ideenaustausch definierte
Chesbrough 2003 unter dem Begriff Open Innovation. Durch eine solche
Kooperation können neue, kreative Ideen entstehen und den
Produktentwicklungsprozess bereichern. Im Rahmen dieser Diplomarbeit
werden wesentliche Eigenschaften von Open Innovation erläutert, um
aufkommende Trends im Innovationsmanagement, respektive bei
benutzerzentrierten Innovationsmethoden zu forschen. Es werden Motive
und Anreiz-Systeme, die dem Ideen-Insourcing bzw. Crowdsourcing - welches
eine spezifische Form von Open Innovation darstellt - zugrunde liegen,
sowohl aus Konsumenten-, als auch aus Unternehmenssicht hinterfragt.
Weiters werden Risiken von Crowdsourcing, so wie die Bedeutung des
geistigen Eigentums im Zeitalter der Ideen-Verbreitung diskutiert.
77
Department für Raumentwicklung, Infrastruktur- und
Umweltplanung
Gerald Auer
Erschließung des ländlichen Raums durch Breitband-Internet
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
Betreuer: Ass.Prof. Dr. Markus Haslinger
Im Fokus dieser Diplomarbeit stehen die Breitbandanbindung des ländlichen
Raums und die Digitale Kluft zwischen städtischen und ländlichen Lebensräumen. Es werden verschiedene Maßnahmen und Initiativen der Europäischen
Union und des nationalen Gesetzgebers aufgezeigt, die gegen die Digitale
Kluft wirken und eine europäische Informationsgesellschaft fördern sollen.
Die darauf basierenden EU-Rechtsvorschriften waren auf nationaler Ebene
umzusetzen. Im Fall der Kommunikationsinfrastruktur wurde das Telekommunikationsgesetz 2003 erlassen und fortlaufend angepasst. Es wird weiters
versucht, Investitionsvorhaben und Strategien zweier hoch marktrelevanter
Kommunikationsunternehmen, Telekom Austria Group und UPC Telekabel,
aufzuzeigen. Hierbei spielen die Glasfaserprojekte der Telekom Austria Group
eine wesentliche Rolle, da sie den flächendeckendsten Teil der nationalen
Telekommunikations-Infrastruktur besitzt. Des Weiteren wird gezeigt, wie
Fiber-to-the-Home Lösungen über bestehende Kanalnetze umgesetzt werden
können, wie es auch in Wien durch das Infrastrukturunternehmen
CableRunner Austria GmbH realisiert wird. Ein wichtiger Teil der Diplomarbeit
behandelt das oberösterreichische Telekabelnetz und das Investitionsvorhaben bzw. den Aufkauf von regionalen Kabelanlagen durch UPC Telekabel.
78
Institut für Geoinformation und Kartographie
Rene C. Kiesler
Face recognition with mobile devices
Studium: Masterstudium Information & Knowledge Management
Betreuer: O.Univ.Prof. Dr. Andreas Frank
More and more people switch to digital photography. Big camera companies,
like for example Canon, stopped producing new film cameras, focusing solely
on digital solutions. As it is much cheaper and more feasible to make digital
pictures, the number of pictures made explodes. But how can you categorize
and sort pictures with little manual effort?
Lukas Maczejka
A Native Temporal Relation Database for Haskell
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: O.Univ.Prof. Dr. Andreas Frank
Representation of time-specific data is a widely discussed issue in modern
database management systems. After a brief introduction to database basics,
this work explains the currently accepted concepts related to time-specific
terminology, differences in representation of time, and the storage of
temporal data in detail. Furthermore, the basics behind functional programming in general and Haskell in particular are briefly discussed. Using both
technologies mentioned above, a native temporal database management
system for Haskell is introduced. The prototype developed from these
specifications is described both from the developers and the users point of
view. Finally, a critical evaluation of the proposed system and the prototype is
given, and possible further work is discussed.
79
Institut für Statistik und Wahrscheinlichkeitstheorie
Maryam Majlessi
Statistical Analysis for Post Traumatic Stress Disorder and Mental Health in
Kosovo After War
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Ao.Univ.Prof. Dr. Karl Grill
Diese Diplomarbeit ist die Fortsetzung der epidemiologischen Forschung
Long-term Sequels of War and Mental Health in Kosovo Kosovo, August
2006, mit dem Ziel ,die psychische Auswirkung des Kosovokrieges zu
analysieren. Aufgrund der hohen Inzidenz von PTBS (posttraumatische
Belastungsstörungen), Depressionen und akuten Belastungsstörungen
erschien eine weitere vertiefte Analyse dieser Faktoren für angebracht,
nämlich die Prognose über die PTBS aus vier Fragebögen (HTQ, GHQ -28,
MOS-20 und HSCL-25) und Bestimmung der Beziehung zwischen PTBS- und
Depressions-Symptomatik sowie Angst als unsere Hauptziele. Die Resultate
stellen signifikante Prädiktoren psychischer Störungen wie PTBS, Depression
und Angst im Zusammenhang mit dem Kosovokrieg bei 1116 Teilnehmern im
Alter ab 15 Jahren dar. 256 der insgesamt 1159 (22%) Untersuchten weisen
PTBS-Symptome (CDC-Criteria) vor. Anhand der Regressionsanalyse angewendet an Fragebögen wie HTQ (Harvard Trauma Questionnaire) und Mental
Health Questionnaire. Durch die Auswertung der Fragebögen (HTQ -Harvard
Trauma Questionair- und Mental Questionnaire) mit Regressionsanalyse
konnte gezeigt werden, dass die an der Studie teilnehmenden Personen
ohne Möglichkeit einer medizinischen Versorgung (als ein Prädiktor) drei Mal
häufiger an psychischen Erkrankungen bzw. PTBS litten. Des Weiteren wiesen
Personen, denen ihr Gut und Besitz durch Gewalt bzw. Erpressung weggenommen war (als ein weiterer Prädiktor), vermehrt psychische Erkrankungen
mit einer14% höheren Wahrscheinlichkeit auf. Das Vorhandensein von PTBSSymptomen war bei den Arbeitslosen um 35% höher. Die Auswertung der
MOS-Fragebögen zeigte die Zunahme des Risikos von psychischen
Erkrankungen bei Teilnehmern mit positivem Wert von Roll functioning um
39%. Die Analyse des Zusammenhangs zwischen Depression und PTBS
zeigte, dass 99% der Personen mit PTBS ebenfalls an Depression und Angst
litten.
80
Institut für Wirtschaftsmathematik
Alexander Haas
Eine informationstechnische, didaktische Aufbereitung von ökonomischen
Modellen des Erdölmarktes
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Gerhard Hanappi
In der Ökonomie gibt es zwei stärker werdende Einflüsse: einerseits kommt es
häufiger zum Einsatz numerischer Verfahren bei der ökonomischen
Modellierung und damit zu einem höheren Stellenwert der Informatik in der
Ökonomie. Andererseits kommt es vermehrt zu einer regen interdisziplinären
Zusammenarbeit, welche dazu führt, dass sich Konzepte anderer Disziplinen
in ökonomischen Modellen wieder finden. Die Lehre steht nun vor dem
Problem diese beiden Einflüsse in den universitären Unterricht zu integrieren.
Diese Arbeit nimmt sich dieser Problemstellung an und versucht eine Brücke
zwischen der Informatik und der Ökonomie zu schlagen. Es wird nicht nur
eine didaktische Methodik für den Unterricht aufgezeigt, sondern auch
anhand dreier sehr aktueller Themenbereiche vorgeführt, wie diese Methodik
in der Praxis umsetzbar ist. Diese drei Themen sind im Bereich der
Rohölmarktmodellierung angesiedelt. In der Diplomarbeit werden die
Hotelling Regel, Wavelet- Analyse und Log Periodic Power Law ausführlich
erklärt, in einem Modell wiedergegeben und schließlich in einem Programm
implementiert.
81
Institut für Analysis und Scientific Computing
Simon Michael Danner
An application for learning and teaching extracellular stimulation of axons
Studium: Masterstudium Informatikmanagement
Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay
Electrical stimulation of the nervous system plays a major role in todays
medical research and practice. Muscles can be stimulated to avoid disuse,
impaired function can be improved by targeted stimulation of certain nerves,
and brain and spinal cord function can be researched. To appropriately apply
these techniques, it is essential to understand the underlying mechanisms
involved in the artificial activation of the central and peripheral nervous
system by electrical stimulation. Complex nerve fiber models exist that
describe the influence of the applied electrical field on the neurons. These
models can be used to calculate, for example, excitation thresholds and
action potential propagation and thus offer the possibility to study the
electrical stimulation without complicated experiments. In this work, the
theory of neuron and axon models and the mode of their artificial electrical
activation are explained. An application is presented that allows to
experiment with two commonly used axon models. Parameters can be varied
and thresholds can be calculated. The goal is to provide an application with
which students and interested people can learn the properties of electrical
stimulation and the differences between commonly used axon models. The
application is designed to offer as much freedom to the user as possible, in
order to enable a learning by experimenting approach.
Christian Denk
Susceptibility weighted imaging with multiple echoes
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay
One of the most successful imaging tools is magnetic resonance imaging
(MRI). One new window is Susceptibility Weighted Imaging (SWI) which
produces an enhanced contrast based on susceptibility differences between
substances. Susceptibility is defined as the magnetic response of substances.
SWI additionally uses the MRI signals phase in contrast to most other MRI
techniques. Phase offers important information about the underlying tissue
structure and chemical composition. Due to the phases limited domain [, ]
artifacts or phase wraps arise. In this master thesis the standard SWI
sequenceis extended to acquire multiple echoes (ME-SWI). To evaluate the
newly developed sequence against the state of the art sequence the signal to
noise and contrast to noise are calculated in different brain regions. Using
82
multiple echoes 50% more signal and 34 to 80% more contrast can be
achieved. With the ME-SWI method the MRI phase and signal decay is
extracted simultaneously. The post processing to eliminate phase wraps is
adapted using a greater homodyne filter kernel with increasing echo time.
The signal decay or tissue relaxation time R2 is calculated including a correction for background field inhomogeneities. Signal decay variation due to
voxel geometry and spatial smoothing are investigated too. Larger voxel decrease the signal decay, while the decay with spatial smoothing up to an
region volume of 16 mm3 increases. A scan-rescan experiment was performed to investigate the variability of the phase and signal decay. The
coefficient of variation was calculated for all acquired data types (phase,
magnitude, SWI, and R2) to determine reproducibility. Phase showed a
significant better reproducibility than the signal decay. The result of this
sequence are sharper images, where venous vessels up to 0.1 mm are
visualized and maps in form of the signal decay and MRI phase of brain iron
content can be computed within one scan.
Florian Michael Güldenpfennig
Linking physical and digital objects - an exploration of different labeling
techniques
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay
This thesis deals with the identification of objects and application areas for
object recognition. Labeling technologies such as barcodes and radiofrequency identification (RFID) are used to assign unique identifiers. Non
technical objects as well as living beings can be tagged. The Internet of
Things is based on these technologies. Here, the basic concept is to create a
comprehensive network between computers and objects (for example trading
goods). One primary concern is the optimization of business processes. The
described labeling technologies can be interpreted as a bridge between
physical and digital objects as well. By means of a label, life can be breathed
into an everyday thing. Optimization of business processes is not topic to the
thesis on hand. Focal point is the digital life of tagged everyday objects. Various labeling technologies are explored creatively to design user interfaces
for computing systems. For example, a shell, that has been tagged with RFID,
can serve as a link to an online photo album. The photo album will be
opened automatically as soon as the shell reaches the operating distance of
the RFID-reader. The correct identification of the shell is the basic challenge
of that application. Within this master thesis three techniques are implemented for object identification. First, a solution using RFID is developed.
Afterwards, optical codes (Quick Response Codes) are applied. A third application abdicates the attachment of physical tags. Here, optical features of the
object are consulted and object classification is accomplished by means of
image understanding methods. Main focus to this thesis is the technical
implementation of these applications. The thesis concludes with an outlook
83
on how labeling technologies can be employed in healthcare in a traditional
as well as in an innovative way.
Andreas Lehner
Doppelkabelmodelle für die elektrische Reizung von Nervenfasern und Ihre
Vereinfachung zur effizienten Computersimulation
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay
Die Computersimulation findet auch in der Medizin immer mehr Bedeutung in
verschiedensten Anwendungsbereichen. Unter Anderem kann die Ausbreitung von Nervenimpulsen im menschlichen Körper über Modelle dargestellt
und simuliert werden. Eine detailgetreue Modellierung ist dabei genau so
wichtig wie eine kurze Berechnungszeit verschiedener Versuchsaufbaue. Im
Laufe der Jahre, beginnend bei Hodgkin und Huxley 1952 bis hin zum
McIntyre Modell von 2002 (MRG Modell), wurde eine Vielzahl solcher Modelle
entwickelt. Einige dieser Modelle ähneln sich, jedoch werden in fast allen die
elektrischen Parameter der Membran sowie die vorhandenen Ionenströme
angepasst. In nachfolgender Arbeit wird das zur Zeit akkurateste MRG Modell
zur Simulation menschlicher Nervenfasern beschrieben. Der Nachteil des
großen Rechenaufwands wurde dabei ausgemerzt und es entstand ein neues
Modell, das eine wesentlich kürzere Berechnungszeit aufweist ohne dabei
große Abweichungen in punkto AP-Form zu zeigen. Die einzelnen Schritte
(von Analyse bis hin zur Implementierung des neuen Modelles) werden in
dieser Arbeit beschrieben. Realisiert wurden alle Modelle in der freien
Software NEURON.
Andreas Walser
Automatisierte Auswertung der Zellproliferation in menschlichen
Gehirntumoren
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay
Auf Grund der bisher einfachen Auswertung der Zellaktivität in menschlichen
Hirntumoren existiert von Seiten eines Ärzteteams des Allgemeinen
Krankenhauses der Stadt Wien (AKH) die Anfrage nach einer technischen
Unterstützung. Die Diplomarbeit setzt sich mit der Erstellung eines
Programmes für Ärzte und Forscher im Bereich der Histopathologie
auseinander, das eine einfache, reproduzierbare und konsistente Auswertung
der zu Grunde liegenden Daten ermöglicht. Ziel ist es, auf Basis eines
histologischen Gewebescans eines Hirntumors, Zellen, welche sich in Teilung
befinden und durch einen Marker eingefärbt wurden, von den restlichen
Zellen zu unterscheiden. Neben dem Unterscheiden der beiden Zellzustandstypen ist auch deren jeweilige Anzahl für weitere statistische Auswertungen
84
gefragt. Zu Beginn der Arbeit werden medizinische Grundlagen zu diesem
Thema erläutert, um das Verständnis und den Sinn der Diplomarbeit zu
verdeutlichen. Weiters wird das zu Grunde liegende Datenmaterial dargestellt
und die darauf basierenden Stärken und Schwächen der geeignetsten Entwicklungsumgebungen beschrieben. Nach dem Festlegen der verwendeten
Entwicklungsumgebung folgen die Evaluierung passender Bildbearbeitungsbibliotheken und deren Methoden. Die Methoden, die zur Realisierung der
Fragestellung unumgänglich sind, werden im Laufe der Diplomarbeit
detailliert behandelt. Im letzten Teil der Arbeit werden die aus dem Programm
resultierenden Ergebnisse mit dem Forschungsteam des AKH Wien analysiert
und besprochen, bevor sie mit den Ergebnissen der herkömmlichen Methode
verglichen werden. Am Ende folgt ein kurzer Ausblick darüber, welche
Erweiterungsmöglichkeiten für dieses Programm bestehen.
85
Institut „Integriert Studieren“
Sebastian Schmid
Sturzerkennung mit Hilfe von im Raum verteilten Vibrationssensoren
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler
The chance to fall grows with increasing age. As life expectancy increases
further and further, the research area of automated fall detection is becoming
more relevant. One approach to detect falls and to trigger an alarm is to carry
sensors such as accelerometers on the body. The biggest problem with this
type of crash detection is that it is very dependent on the wearing of these
sensors: the best fall detection is worthless if the user has just forgotten to
put on the wristband with the sensor on the day of a fall. Another approach is
not to wear the sensors on the body but to distribute them in the apartment.
Falls are detected with the aid of appropriate algorithms from vibration data,
collected by about three to four sensors per room. Then, packets of data are
sent by radio to a computer which determines whether a crash has happened
or not. This work is based on an existing prototype of such a sensor network
and tries to develop an algorithm that can detect if a fall has occurred.
86
In Zusammenarbeit mit anderen wissenschaftlichen
Einrichtungen
Universität Wien
Christine Bauer
Out of the black box: Modelling the processes of managing telephone bands
Studium: Masterstudium Wirtschaftsinformatik
Betreuerin: Ao.Univ.Prof. Dr. Christine Strauss
Eine Big Band zu managen, ist eine Herausforderung, die mit dem Management von Klein- und Mittleren Unternehmen vergleichbar ist. Aufgrund ihrer
Komplexität besonders schwierig zu managen ist die sogenannte
Telefonband ohne Fixbesetzung. Gemeinsam bilden die Musiker eine virtuelle
Organisation, mit dem Bandleiter als fokales Unternehmen. Jeder Teilnehmer
bringt Kompetenzen ein, hat spezifische Geschäftsziele und muss Risiken
tragen. Insbesondere muss das fokale Unternehmen die volle Haftung
gegenüber dem Eventveranstalter übernehmen. Bandleiter, welche diese
Organisationskonstrukte managen, haben jedoch typischerweise einen
künstlerischen Hintergrund und keine Managementausbildung. Bislang
wurden Prozesse, die mit dem Bandmanagement verbunden sind, nicht
analysiert. Eine Prozessverbesserung wird damit unmöglich gemacht. Jedoch
ist geteiltes Wissen die Basis für Prozessverbesserungen. Erstens zielt die
Untersuchung daher darauf ab, die Aktivitäten, die mit dem Management
einer mittelgroßen Telefonband verbunden sind, durch Prozessmodellierung
transparent zu machen. Zweitens analysiert diese Arbeit die daraus
resultierenden Modelle und empfiehlt Verbesserungen, insbesondere
hinsichtlich des Einsatzes von Informations- und Kommunikationstechnologien. Durch den explorativen Charakter eignet sich die Fallstudienstrategie
mit qualitativen Forschungsmethoden. Die Daten werden in einem semistrukturierten Interview sowie durch teilnehmende Beobachtung erhoben. Die
Resultate werden mittels UML-Notation für Aktivitätsdiagramme modelliert.
Um Auswirkungen und Empfehlungen abzuleiten, wird eine SWOT-Analyse
durchgeführt. Die zentralen Resultate beinhalten eine sorgfältige
Dokumentation der Prozesse, wobei implizites wissen expliziert wird. Mit
Technologiefokus zeigen die Ergebnisse die chronologische Abfolge von
Aktivitäten, die auf Bandmanagement sowie Eventmanagement generalisiert
werden können.
87
Birgül Kaya
Benchmarking von ETL-Prozessen in Data Warehose
Studium: Masterstudium Software Engineering & Internet Computing
Betreuer: Univ.Prof. Dr. Wilfried Grossmann
Data Warehouses (DWH) bieten schnellen, zentralen Zugriff auf das gesamte
unternehmensweite Wissen. Neben dem Speichern dieser wichtigen
Geschäftsinformationen ist das schnelle und effiziente Auffinden von Daten
eine der wichtigsten Funktionen eines DWH. Extraktion, Transformation und
Laden (ETL) ist im Data Warehouse ein zentraler Prozess, der die Daten aus
mehreren unterschiedlichen Datenquellen in einem zentralen DWH zur
Verfügung stellt. Wird ETL nicht richtig designed, kostet dies viel Entwicklungsarbeit, bedeutet lange Ladeprozesse und hat schlechte Datenqualität
zur Folge. In dieser Diplomarbeit wird, basierend auf einer Literaturrecherche,
eine systematische Vorgehensweise für den ETL-Prozess erarbeitet. Damit
werden einleitend Data Warehouse Systeme sowie der Begriff Datenqualität
vorgestellt und in der Folge der ETL-Prozess von IBM, Oracle und Talend anhand eines Kriterienkatalogs geprüft. Um die ausgewählten Tools bewerten,
und die funktionalen Unterschiede besser durchleuchten zu können, wird
eine Funktionsanalyse ausgeführt. Mit einer Punkteskala werden die ausgewählten Tools bewertet und die Ergebnisse durch ein Spinnendiagramm
visualisiert.
Andreas Köhler
Barrierefreier Web-Auftritt mit Typo3
Studium: Masterstudium Wirtschaftsinformatik
Betreuerin: Ao.Univ.Prof. Dr. Christine Strauss
Diese Arbeit hat das Ziel, den „State of the Art“ von Web-Accessibility festzustellen und das Erarbeitete an einem praktischen Beispiel - in Kombination mit
Typo3 - anzuwenden. Das inkludiert die Bereiche Assistierende Technologien,
Barrieren im Web, Menschen mit Behinderungen und Internet, Ältere
Menschen und Internet, die diesbezügliche Gesetzeslage, Tools und
Richtlinien für barrierefreie Webseiten sowie Content Management Systeme
und ihre Eignung für barrierefreie Seiten. Diese Themen werden unter
Verwendung aktueller Literatur aufgearbeitet; ferner wird das in dieser Arbeit
verwendete Tool, das Content Management System Typo3, genauer
vorgestellt. Im Anschluss daran werden die Webseiten des Fachbereichs
eBusiness der Universität Wien hinsichtlich Web-Accessibility analysiert. Die
dabei gewonnenen Informationen werden dazu verwendet, mit Typo3 einen
neuen, barrierefreien Web-Auftritt zu erstellen. Die neu erstellten Webseiten
werden ebenfalls einer genauen Überprüfung unterzogen um den Grad ihrer
Barrierefreiheit feststellen und bewerten zu können. Dabei werden aber auch
die Probleme und Schwierigkeiten ersichtlich, die zum Teil durch die
Verwendung von Typo3 auftreten, zum Teil aber auch auf vorgegebene
88
Rahmenbedingungen auf Unternehmensebene sowie das Verwenden von
bestimmten Inhaltstypen zurückzuführen sind. Diese Hindernisse und
Probleme werden explizit beschrieben; ferner werden Herangehensweisen
vorgestellt, die im Vorfeld der Entstehung von Problemen entgegenwirken
und Methoden zur Bewältigung der Hindernisse auf Implementierungsebene
erläutert. Die Arbeit kann daher bei zukünftigen Accessibility-Projekten mit
Typo3 als Anleitung und Hilfestellung herangezogen werden. Sie erweitert
zum Teil die Informationen der WAI um einen konkreten Bezug zu Typo3 und
kann dadurch zu einem besseren und effektiveren Arbeiten mit Typo3 in
Kombination mit barrierefreien Web-Auftritten führen.
Technische Universität Graz
Maida Osmic-Ahmic
Ein Wissensbasierter Ziel-Empfehlungsdienst
Studium: Masterstudium Wirtschaftsingenieurwesen Informatik
Betreuer: Univ.Prof. Dr. Klaus Tochtermann
In Zusammenarbeit mit dem Partnerunternehmen Xohana ist das Ziel dieser
Arbeit ein neuartiges Service zu entwickeln, das Benutzern einer sozialen
Software mögliche Ziele vorschlägt. Diese Masterarbeit wendet sich damit
einer praktischen Aufgabenstellung zu und untersucht das Potential der
Agenten- und Ziel-orientierten Modellierungssprache i* für diesen Zweck. Die
Aufgaben der Arbeit umfassen den Entwurf, die Implementierung basierend
auf i* und die Evaluierung des Services. Nach der Einführung in die für die
Arbeit wichtigen Themen wie Xohana Software System, Modellierung von
Zielen, Suchalgorithmen sowie Empfehlungsdienste, wurde die Architektur
des selbst entwickelten Ansatzes vorgestellt, gemeinsam mit dem Kern der
entwickelten Applikation - 3 einfache Suchalgorithmen (Tiefensuche, Breitensuche und heuristischer Ansatz), die speziell für Xohana angepasst wurden.
Durch die quantitative und qualitative Evaluierung wurden die Vorteile und
Nachteile der oben erwähnten Ansätze untersucht sowie sowohl miteinander
als auch mit dem Baseline-Algorithmus verglichen. Sowohl quantitativ als
auch qualitativ hat sich die Tiefensuche für diesen Fall im Durchschnitt als am
besten geeignet gezeigt.
89
Medizinische Universität Wien
Mohammad Beikzadeh
Analyse und Implementierung eines DICOM-Editors
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Ernst Schuster
DICOM ist der etablierte Standard zum Austausch von Daten bildgebender
Systeme in der Medizin. Für die Darstellung und Bearbeitung dieser DICOMDateien, die sowohl Bild- als auch Metadaten beinhalten, gibt es zahlreiche
kommerzielle Programme, die sich entsprechend ihres Hauptanwendungsgebietes stark in ihrer Funktionalität unterscheiden. Die meisten Programme,
die von Ärzten zur Befundung verwendet werden, sind auf die Darstellung
ausgerichtete Viewer. Diese Programme erlauben zwar auch die Bearbeitung
von DICOM-Dateien, doch steht diese Funktionalität sehr im Hintergrund. Das
Ziel dieser Diplomarbeit war es daher, einen Editor zu entwickeln, mit dem
DICOM-Dateien bearbeitet werden können.
Tamas David Engel
Leitlinienbasierte Erinnerungsmeldungen in der Geburtshilfe
Studium: Masterstudium Medizinische Informatik
Betreuer: Univ.Prof. Dr. Klaus-Peter Adlassnig
The rapidly changing and increasing medical knowledge leads to fast
outdating of diagnostic tests and therapies.Clinical practice guidelines are
important instruments to support health care personnel with up-to-date and
state-of-the-art knowledge in a standardised form.The documents have great
influence on quality control and assurance in health care.They structure
complex medical procedures and therefore faciliate therapy planning.
Nevertheless methods are needed to support the dissemination and the
updating of these documents. Currently there exist 66 guidelines at the
Division of Obstetrics and Feto-Maternal medicine at the Department of
Gynaecology of the Vienna General Hospital. They describe selected
situations during pregnancy and childbirth. The automated aid for physicians
and the enhancement of adherence to these guidelines can increase
treatment quality as well as transparency. Within this work possibilities of
automated guideline-based assistance for physicians as a means for quality
control and requirements for such a framework are evaluated. In this pilot
project we have shown how medical personnel can be supported by the
application of computerized medical guidelines. We implemented a web
application to allow multiple-point access and easier maintenance and to
spare an installation on client computers. The software monitors whether
specific therapy is required and provides the physician with patient-specific
treatment recommendations. During the present study four guidelines were
implemented.For implementing the knowledge base we used the medical
90
programming language Arden Syntax for Medical Logic Modules, an HL7
standard. Furthermore we performed a usability study according to Nielsen to
assure an intuitive usage of the user interface.The application of this system
can prevent the medical staff from omissions of existing policies according to
the given clinical practice guidelines and supports the timely application of
therapeutic recommendations.
Eva Lahnsteiner
Computer-assisted analysis of neurosurgical CCT-images
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Ernst Schuster
Computer-assisted analysis of medical image data represents an inherent part
of clinical routine. This thesis deals with image processing methods used for
monitoring and analysing post-operative states of cerebral aneurysms after
coiling therapy. Coil embolization involves filling the interior of the vessel
outpouching with a platinum coil to detach the aneurysm from blood
circulation in order to minimize the risk of a rupture. The coil-occlusion rate of
the treated aneurysm indicates the success of the procedure. Currently,
coiling treatment outcomes are subjectively estimated by experts of
neuroradiology or endovascular neurosurgery on basis of post-coiling image
data. This thesis deals with efforts in 2D and 3D image processing to establish
and support more objective methods to analyse coiling-treatment results and
follow-up image data. Goal of this research was the development of a userfriendly system, which implements the recently published method by Camillo
Sherif et al. for a standardized quantification of coil occlusion on follow-up
DSA and CCT images. Main field of application is the support of a scientific
study with the aim to define operating figures indicating the risk of re-rupture
according to the coil occlusion rate of an aneurysm. Furthermore it shall be
adequate for the use in clinical routine and for research purposes. The system
has been designed in cooperation with the research team around Camillo
Sherif. The prototyping process involved constant consultations with the endusers to implement functionality and appearance of the system according to
their needs. Result is a Java-written, stand-alone application that supports
comfortable evaluation and processing of sectional images acquired after
coiling treatment.
91
Walter Seeling
Computergestützte Therapieplanung von Immunsuppressiva bei Patienten
mit Nierentransplantation
Studium: Masterstudium Medizinische Informatik
Betreuer: Univ.Prof. Dr. Klaus-Peter Adlassnig
Für Patienten mit chronischer Niereninsuffizienz besteht die Möglichkeit, im
Rahmen einer Nierentransplantation eine Spenderniere zu erhalten. Nach
solch einem Eingriff ist jedoch eine lebenslange Immunsuppressiva-Therapie
notwendig. Diese Therapie muss aufwendig durch ein Therapeutic-DrugMonitoring begleitet werden. Ziel der vorliegenden Diplomarbeit ist es, die
zumeist intuitive Therapieplanung zu objektivieren, die Gefahr einer
Abstoßungsreaktion zu minimieren und letztendlich auch die Lebensqualität
der betroffenen Patienten zu verbessern. Zur Wissensakquisition mittels
Datenanalyse wurden Patientenverlaufsdaten der Jahre 1995 bis 2008 der
Universitätsklinik für Innere Medizin III - Abteilung für Nephrologie und
Dialyse des Allgemeinen Krankenhauses der Stadt Wien (AKH Wien)
verwendet. Diese setzen sich aus Patientenstammdaten, Laborparametern
und aus verschiedensten verabreichten Medikamenten mit deren Spiegelwerten zusammen. Aus den vorhandenen Immunsuppressiva-Daten wurde
das Präparat Prograf, das auf dem Wirkstoff Tacrolimus basiert, ausgewählt,
da es sich bei diesem in der Transplantationsmedizin um ein oft verwendetes
und in der medizinischen Anwendung erfolgreiches Präparat handelt. In
diesen retrospektiven Daten konnte durch den Einsatz eines Regressionsbaumes, der homogene Klassen bildet, das Problem der störenden
Korrelation (Confounding) behoben werden. Innerhalb der Klassen wurde das
Confounding fast vollständig aufgelöst, und es konnten Modelle gebildet
werden, die den Spiegelwert des Präparates für die nächste Visite
vorhersagen. Diese Modelle wurden zur Erstellung einer Wissensbasis für ein
Clinical Decision Support System (CDSS) herangezogen. Im Zuge des neuen
Allgemeines-Krankenhaus-Informations-Management (AKIM) des AKH Wien
wird eine Expertensystemplattform geschaffen, welche es ermöglicht dieses
CDSS in AKIM zu integrieren, dem Kliniker anzubieten und ihn dadurch bei der
Immunsuppressiva-Therapie seines Patienten zu unterstützen.
Andreas Wirthumer
3D Visualisierung transkranieller Magnetfeldstimulation
Studium: Masterstudium Medizinische Informatik
Betreuer: Ao.Univ.Prof. Dr. Dietmar Rafolt
Im Zuge der Diplomarbeit wurde die Software Magnetic Brain Stimulation
Model (MBSM) entwickelt, an welche die zwei folgenden Hauptanforderungen
bestehen: Es soll eine interaktive 3D Visualisierung entstehen, welche der Audienz die Abläufe einer Therapie mittels transkranieller Magnetfeldstimulation
begreifbar machen soll. Die Visualisierung enthält ein anatomisch detailliertes
92
Modell eines menschlichen Kopfes sowie die für die Therapie platzierten
Magnetfeldspulen und die von ihnen erzeugten Felder. Im Endeffekt soll es
möglich sein alle Teile der Therapie (Kopf, Hirnregionen, Feldkomponenten,
Spulen) auf an den Benutzer angepasste Art und Weise darzustellen. Weiters
kann ein entsprechend geschulter Benutzer die Parameter der Therapie
konfigurieren. Die zweite Anforderung beschäftigt sich mit dem Problem die
vorhandenen Ressourcen möglichst effizient zu nutzen. Ausgehend von real
vermessenen Magnetspulen werden die von ihnen erzeugten Feldkomponenten in Interaktion mit dem verwendeten Kopfmodell numerisch simuliert. Das
Ergebnis sind Datenmatrizen der Feldverteilungen einzelner Magnetfeldspulen. Durch die Kombination der Simulationen isolierter Spulen per linearer
Superposition wird das volle Pensum der vorhandenen Daten ausgenutzt. Es
können aus den existierenden Daten durch Kombination neue Feldverteilungen abgeleitet werden, ohne die zeitaufwendige numerische Simulation
erneut starten zu müssen. Die wurde Software mit C++, VTK, QT, boost,
Visual Studio, GIT und CMAKE entwickelt und sie besteht aus zwei
Bibliotheken (Toolbox - Arithmetik, Geometrie; TMSTools - 3D Modelle,
Datenverarbeitung) sowie der Applikation MBSM. Mit den gewählten Technologien gelang es ein User Interface zu entwickeln, das die gestellten
Anforderungen erfüllt. Der Prozess der Therapie kann vom User konfiguriert
werden und wird von der Spule bis zur Stimulation im Gehirn anschaulich
visualisiert.
93
94
Index der Autorinnen und Autoren
Abinger Thomas - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Ansari Rana - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Arzberger Markus - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Auer Gerald - Department für Raumentwicklung, Infrastruktur- und Umweltplanung
Autengruber Markus - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Interactive Media Systems
Azesberger Christian - Institut für Managementwissenschaften
Bairakdar Seif El-Din - Institut für Informationssysteme, Arbeitsbereich Knowledge
Based Systems
Bauer Christine - Universität Wien
Bazalka Stephan - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich
Human Computer Interaction
Beikzadeh Mohammad - Medizinische Universität Wien
Bischof Stefan - Institut für Informationssysteme, Arbeitsbereich Knowledge Based
Systems
Brauner Andreas - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Bründl Daniel - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich
Information and Software Engineering
Buchwalder Stefan - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Chlebecek Helmut - Institut für Gestaltungs- und Wirkungsforschung,
Arbeitsbereich Multidisciplinary Design
Crestin Victor - Institut für Managementwissenschaften
Czedik-Eysenberg Hermann - Institut für Informationssysteme, Arbeitsbereich
Distributed Systems
Danner Simon Michael - Institut für Analysis und Scientific Computing
Dannhauser Sandra - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Denk Christian - Institut für Analysis und Scientific Computing
Divoky Bernd - Institut für Managementwissenschaften
Dogan Hilal - Institut für Managementwissenschaften
Dorn Florian - Institut für Rechnergestützte Automation, Arbeitsbereich Computer
Vision
Drienovsky Vladimir - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Duggleby Alexander - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Information and Software Engineering
Engel Tamas David - Medizinische Universität Wien
Fida Ursula - Institut für Informationssysteme, Arbeitsbereich Distributed Systems
95
Fiel Stefan - Institut für Rechnergestützte Automation, Arbeitsbereich Computer
Vision
Fischer Bernhard - Institut für Technische Informatik, Arbeitsbereich Real Time
Systems
Freudenthaler Markus - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Gabmeyer Sebastian - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Business Informatics
Glettler Martin - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Gottardi Riccardo - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Information and Software Engineering
Grössing Markus - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Gruber Markus - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Güldenpfennig Florian Michael - Institut für Analysis und Scientific Computing
Haas Walter - Institut für Technische Informatik, Arbeitsbereich Real Time Systems
Haas Alexander - Institut für Wirtschaftsmathematik
Hammer Christian - Institut für Computersprachen, Arbeitsbereich Theoretische
Informatik und Logik
Handler Michael - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Information and Software Engineering
Hehr Stefan - Institut für Computergraphik und Algorithmen, Arbeitsbereich
Computergraphik
Hilber Peter - Institut für Technische Informatik, Arbeitsbereich Real Time Systems
Hinterhofer Thomas - Institut für Automatisierungs- und Regelungstechnik
Huber Markus - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Imber Mario - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich
Information and Software Engineering
Jordan Harald - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Interactive Media Systems
Jung Markus - Institut für Informationssysteme, Arbeitsbereich Distributed Systems
Kaya Birgül - Universität Wien
Khyo Günter - Institut für Computersprachen, Arbeitsbereich Programmiersprachen
& Übersetzerbau
Kiesler Rene C. - Institut für Geoinformation und Kartographie
Kment Thomas - Institut für Computergraphik und Algorithmen, Arbeitsbereich
Computergraphik
Knecht Wolfgang - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Interactive Media Systems
Kögl Stefan - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich
E-Commerce
Köhler Andreas - Universität Wien
96
Korosec Anton - Institut für Informationssysteme, Arbeitsbereich Distributed
Systems
Koziarkiewicz Mikolaj - Institut für Informationssysteme, Arbeitsbereich Knowledge
Based Systems
Lahnsteiner Eva - Medizinische Universität Wien
Lehner Andreas - Institut für Analysis und Scientific Computing
Leibrecht Michael - Institut für Informationssysteme, Arbeitsbereich Distributed
Systems
Leitner Michael - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich E-Commerce
Leonhartsberger-Schrott Martin - Institut für Softwaretechnik und Interaktive
Systeme, Arbeitsbereich Information and Software Engineering
Maczejka Lukas - Institut für Geoinformation und Kartographie
Mair Thomas - Institut für Technische Informatik, Arbeitsbereich Real Time Systems
Majlessi Maryam - Institut für Statistik und Wahrscheinlichkeitstheorie
Marek Stefan - Institut für Computergraphik und Algorithmen, Arbeitsbereich
Computergraphik
Markowitschka Christine - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Martinek Christoph - Institut für Technische Informatik, Arbeitsbereich Real Time
Systems
Meusburger Harald - Institut für Managementwissenschaften
Meyer Ludwig - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Information and Software Engineering
Mihalik Peter - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich
Human Computer Interaction
Morak Michael - Institut für Informationssysteme, Arbeitsbereich Database and
Artificial Intelligence
Morgenbesser Wolfgang - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Interactive Media Systems
Nägele Thomas - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich
Human Computer Interaction
Niederbrucker Gerhard - Institut für Computersprachen, Arbeitsbereich
Theoretische Informatik und Logik
Oberlechner Karin - Institut für Computergraphik und Algorithmen, Arbeitsbereich
Algorithmen und Datenstrukturen
Ollram Petra - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich
Multidisciplinary Design
Örün Ismail - Institut für Managementwissenschaften
Osmic-Ahmic Maida - Technische Universität Graz
Österle Christian - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Information and Software Engineering
Piazzi Roland - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich
E-Commerce
Pimmer Michael - Institut für Computergraphik und Algorithmen, Arbeitsbereich
Algorithmen und Datenstrukturen
Pirker Simon - Institut für Automatisierungs- und Regelungstechnik
97
Pourkalbasi Zheela - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Prennschütz-Schützenau Stefan - Institut für Informationssysteme, Arbeitsbereich
Distributed Systems
Priewasser Daniel - Institut für Computersprachen, Arbeitsbereich
Programmiersprachen & Übersetzerbau
Prokesch Daniel - Institut für Technische Informatik, Arbeitsbereich Real Time
Systems
Pucher Alexander - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Information and Software Engineering
Punzengruber Clemens - Institut für Computersprachen, Arbeitsbereich
Programmiersprachen & Übersetzerbau
Radits Markus - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich
Multidisciplinary Design
Riener Martin - Institut für Computersprachen, Arbeitsbereich Theoretische
Informatik und Logik
Rodler Matthias - Institut für Computertechnik
Rodler Christoph - Institut für Managementwissenschaften
Rosensteiner Sebastian - Institut für Technische Informatik, Arbeitsbereich Real
Time Systems
Sackl Andreas - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich
Multidisciplinary Design
Sagmeister Clemens - Institut für Gestaltungs- und Wirkungsforschung,
Arbeitsbereich Human Computer Interaction
Schekulin Mario - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich
Human Computer Interaction
Schmid Sebastian - Institut "Integriert Studieren"
Schneider Patrik - Institut für Informationssysteme, Arbeitsbereich Knowledge
Based Systems
Schnitzhofer Florian - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Information and Software Engineering
Seeling Walter - Medizinische Universität Wien
Simon Lenz - Institut für Managementwissenschaften
Smejkal Peter - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Solomakhin Dmitriy - Institut für Informationssysteme, Arbeitsbereich Knowledge
Based Systems
Srndic Edin - Institut für Computersprachen, Arbeitsbereich Theoretische
Informatik und Logik
Srndic Edin - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Steiner Helmut - Institut für Rechnergestützte Automation, Arbeitsbereich
Computer Vision
Suljagic Alen - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Sundic Milica - Institut für Managementwissenschaften
Tintel Martin - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich
Information and Software Engineering
98
Tomic Stanislav - Institut für Informationssysteme, Arbeitsbereich Distributed
Systems
Unterberger Heinz - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Walch Andreas - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Wallek Christian - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Wallner Johannes - Institut für Gestaltungs- und Wirkungsforschung,
Arbeitsbereich Human Computer Interaction
Wallner Johannes Peter - Institut für Informationssysteme, Arbeitsbereich Database
and Artificial Intelligence
Walser Andreas - Institut für Analysis und Scientific Computing
Walter Martin - Institut für Technische Informatik, Arbeitsbereich Embedded
Computing Systems
Weishapl Peter - Institut für Rechnergestützte Automation, Arbeitsbereich
Automatisierungssysteme
Wenzl Matthias - Institut für Computertechnik
Wetzinger Elisabeth Reingard - Institut für Rechnergestützte Automation,
Arbeitsbereich Automatisierungssysteme
Windhab Dominik - Institut für Automatisierungs- und Regelungstechnik
Wirthumer Andreas - Medizinische Universität Wien
Zumpf Reinhard - Institut für Softwaretechnik und Interaktive Systeme,
Arbeitsbereich Information and Software Engineering
Zwickl Patrick - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich
Business Informatics
99
Alle in diesem Band angeführten Abstracts stammen von den AutorInnen
der jeweiligen Diplomarbeit. Abstracts der Diplomarbeiten werden von den
BetreuerInnen approbiert.
IMPRESSUM
Zentrum für Koordination und Kommunikation
der Fakultät für Informatik
1040 Wien, Favoritenstraße 9/195
www.informatik.tuwien.ac.at
Konzept: DI Karin Hraby
(c) 2011 Technische Universität Wien
Fakultät für Informatik
Technische Universität Wien
Fakultät für Informatik
1040 Wien, Favoritenstraße 9-11/195
T: +43-1-58801-19501
F: +43-1-58801-19599
E: sek@zkk.tuwien.ac.at