Abstract-Band - Fakultät für Informatik, TU Wien
Transcription
Abstract-Band - Fakultät für Informatik, TU Wien
EPILOG Die Diplomarbeitspräsentation der Fakultät für Informatik Sommersemester 2011 Diese Veranstaltung der Fakultät für Informatik wird unterstützt von EPILOG Diplomarbeitspräsentation Das breite Themenspektrum und die vielfältigen Aufgabenstellungen der Abschlussarbeiten an der Fakultät für Informatik werden jedes Semester beim EPILOG präsentiert. In einer Posterausstellung sowie in ausgewählten Vorträgen präsentieren die AbsolventInnen der Fakultät ihre Projekte und stellen sich der Diskussion mit den Anwesenden. Der EPILOG als Plattform für die Präsentation hervorragender Abschlussarbeiten dient gleichzeitig dem Austausch über die aktuelle wissenschaftliche Forschung in den unterschiedlichen Bereichen der Informatik. Auszeichnungen und Preise Die Jury setzt sich aus den BetreuerInnen der nominierten Diplomarbeiten des letzten halben Jahres zusammen. Sie verleiht an eine/n der Vortragenden den mit 4.000 Euro dotierten „Distinguished Young Alumnus/Alumna”-Award der Fakultät für Informatik. Beurteilungskriterien sind die Qualität der Diplomarbeit sowie des gehaltenen Vortrags. Das beste Poster aller beim EPILOG anwesenden AutorInnen wird mit dem „Best Poster“-Award in der Höhe von 1.000 Euro ausgezeichnet. Zudem vergibt die Bank Austria den Firmenpreis „Poster-Award sponsored by Bank Austria“ in der Höhe von 1.000 Euro an ein weiteres Poster. Lehrenden-Award Die Fachschaft Informatik zeichnet Lehrende der Fakultät für Informatik in den Kategorien Beste Lernunterlagen, Beste Übungsunterstützung, Bester Vortrag und Beste Wissensvermittlung aus. 1 Programm 9. Juni 2011 15:00 Eröffnung der Posterausstellung 16:00 Begrüßung und Einleitung Gerald Steinhardt, Dekan der Fakultät für Informatik, TU Wien Adalbert Prechtl, Vizerektor für Lehre, TU Wien 16:15 Vorträge zu den nominierten Diplomarbeiten 17:15 Videopräsentation aus der Lehrveranstaltung Multimedia - Produktion Karyn Laudisi und Julian Pölsler Institut für Softwaretechnik und Interaktive Systeme, TU Wien 17:45 Verleihung des Lehrenden-Award 18:00 Vergabe der Auszeichnungen 2 Vorträge zu den nominierten Diplomarbeiten Sebastian Gabmeyer Formalization of the Operation Recorder based on Graph Transformation Theory Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Business Informatics Abstract der Diplomarbeit siehe Seite 9 Günter Anton Khyo Language Support for Linux Device Driver Programming Institut für Computersprachen, Arbeitsbereich für Programmiersprachen und Übersetzerbau Abstract der Diplomarbeit siehe Seite 33 Michael Morak dynASP – A Dynamic Programming-based Answer Set Programming Solver Institut für Informationssysteme, Arbeitsbereich Database and Artificial Intelligence Abstract der Diplomarbeit siehe Seite 39 Daniel Prokesch A Light-Weight Parallel Excecution Layer for Shared-Memory Stream Processing Institut für Technische Informatik, Arbeitsbereich Real Time Systems Abstract der Diplomarbeit siehe Seite 65 3 4 DIPLOMARBEITEN Institute der Fakultät für Informatik Institut für Softwaretechnik und Interaktive Systeme ............................................ 7 Arbeitsbereich E-Commerce ........................................................................... 7 Arbeitsbereich Business Informatics ................................................................ 9 Arbeitsbereich Interactive Media Systems...................................................... 10 Arbeitsbereich Information and Software Engineering ................................... 13 Institut für Gestaltungs- und Wirkungsforschung ................................................ 21 Arbeitsbereich Human Computer Interaction ................................................. 21 Arbeitsbereich Multidisciplinary Design ......................................................... 24 Institut für Computergraphik und Algorithmen................................................... 27 Arbeitsbereich Computergraphik .................................................................. 27 Arbeitsbereich Algorithmen und Datenstrukturen .......................................... 28 Institut für Computersprachen .......................................................................... 31 Arbeitsbereich Theoretische Informatik und Logik ......................................... 31 Arbeitsbereich Programmiersprachen & Übersetzerbau .................................. 33 Institut für Informationssysteme ....................................................................... 36 Arbeitsbereich Knowledge Based Systems ..................................................... 36 Arbeitsbereich Database and Artificial Intelligence ........................................ 39 Arbeitsbereich Distributed Systems ............................................................... 40 Institut für Rechnergestützte Automation .......................................................... 45 Arbeitsbereich Computer Vision ................................................................... 45 Arbeitsbereich Automatisierungssysteme ...................................................... 47 Institut für Technische Informatik ...................................................................... 61 Arbeitsbereich Embedded Computing Systems ............................................. 61 Arbeitsbereich Real Time Systems................................................................. 61 5 Andere Institute der TU Wien Institut für Computertechnik ............................................................................. 67 Institut für Automatisierungs- und Regelungstechnik ......................................... 69 Institut für Managementwissenschaften ............................................................ 72 Department für Raumentwicklung, Infrastruktur- und Umweltplanung................. 78 Institut für Geoinformation und Kartographie .................................................... 79 Institut für Statistik und Wahrscheinlichkeitstheorie ............................................ 80 Institut für Wirtschaftsmathematik ..................................................................... 81 Institut für Analysis und Scientific Computing .................................................... 82 Institut „Integriert Studieren“ ............................................................................ 86 In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen Universität Wien .............................................................................................. 87 Technische Universität Graz .............................................................................. 89 Medizinische Universität Wien .......................................................................... 90 6 Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich E-Commerce Stefan Kögl Analyse von Kommunikationsstrukturen und Nachrichtenausbreitung am Beispiel des Microblogging Dienstes Twitter Studium: Masterstudium Wirtschaftsinformatik Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl Twitter, die derzeit wohl bekannteste aller Microblogging Plattformen, war der Begründer einer neuen Form der Kommunikation. Anfangs per SMS, mittlerweile über Webseiten und Clients von Drittanbietern ermöglicht es den Austausch von Kurznachrichten zwischen Benutzern, die asynchrone Beziehungen eingehen. Ursprünglich für den privaten Gebrauch gedacht, gewinnt es immer mehr an Bedeutung für eine kommerzielle Verwendung und die rasche Verbreitung von Nachrichten. Diese Diplomarbeit beschäftigt sich mit der Entstehungsgeschichte sowie aktuellen Entwicklungen der Plattform. Außerdem werden Motive zur Nutzung und die Bedeutung von Twitter in der heutigen Zeit erläutert. Im praktischen Teil wurde mit Hilfe der von Twitter zur Verfügung gestellten Programmierschnittstelle eine Datenbasis mit rund 230.000 Tweets und 90.000 Benutzern angelegt. Auf Grundlage dieser werden Kennzahlen berechnet, Auswertungen über Retweets sowie die Herkunft und den Zeitpunkt der Erstellung von Tweets gezeigt. Außerdem werden Charakteristika der Twitterer analysiert. Eine Webanwendung, die auf Basis einer Google Map eine geografische Aufbereitung der geocodierten Daten ermöglicht, wurde ebenfalls erstellt. Sie erlaubt es, die Ausbreitung von Retweets auf einer Karte zu visualisieren. Michael Leitner Next Generation Learning in virtuellen Welten am Beispiel von SLOODLE Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl Die vorliegende Diplomarbeit beleuchtet das Thema des Lernens im virtuellen Raum am Beispiel des Open Source-Projekts SLOODLE. Im Zuge des stetigen Wandels zur Informationsgesellschaft lässt sich beobachten, dass sich Lernund Wissensvermittlungsprozesse zunehmend in den virtuellen Raum verlagern und neue Lernformen wie E-Learning es Institutionen ermöglichen, ihr Bildungsangebot bzw. ihre Bildungsaktivitäten online abzubilden. Den potentiell nächsten Schritt stellt die Gestaltung von immersiven dreidimensio- nalen Lernumgebungen als Verbindung von Virtual Learning Environments (VLEs) mit Multi User Virtual Environments (MUVEs) zur Schaffung eines neuen Lernerlebnisses dar. Das im Zuge dieser Diplomarbeit einer kritischen Betrachtung 7 unterzogene SLOODLE-Projekt versteht sich als Integration des Moodle Kursmanagementsystems in die Onlinewelt von Second Life. Ausgehend von einer jeweils separaten Betrachtung führt diese Diplomarbeit die beiden Themenkomplexe "Neue Lernformen" und "Virtuelle Welten" zu einer Behandlung des Lernprozesses im virtuellen Raum zusammen. Im darauffolgenden Kapitel soll ein Einblick in das Prinzip und die Funktionsweise von SLOODLE gegeben sowie Möglichkeiten und Einschränkungen beleuchtet werden. Als praktisches Beispiel wird im nächsten Kapitel ein im Zuge dieser Arbeit erstellter Prototyp vorgestellt, der als kurzer Showcase einer möglichen SLOODLE-Unterrichtssequenz dient. Abschliessend soll, basierend auf den Erfahrungen mit dem Prototyp, ein Ausblick auf die mögliche Entwicklung zukünftiger Lernformen dargelegt werden. Roland Piazzi Analyse der Netzwerkstruktur des österreichischen E-Tourismus-Marktes und Bestimmung der zentralen Knoten Studium: Masterstudium Wirtschaftsinformatik Betreuer: Univ.Prof. Dr. Hannes Werthner In dieser Arbeit wird eine Analyse der Netzwerkstruktur des österreichischen E-Tourismus-Marktes durchgeführt und die zentralen Knoten dieses Netzwerks werden mit Hilfe der wichtigsten Zentralitätskennzahlen (Grad-basierte Zentralität, Nähe-basierte Zentralität, Zwischenzentralität) der sozialen Netzwerkanalyse bestimmt. Das Netzwerk besteht aus den Websites der Tourismusanbieter Österreichs, die durch Links miteinander verbunden sind. In den Kapiteln 2 und 3 wird eine theoretische Einführung in die Themenge biete ETourismus und Netzwerkanalyse gegeben. Danach folgt in Kapitel 4 die Beschreibung des Crawlers, mit dem die Daten für die Analyse gesammelt werden. In Kapitel 5 wird die methodische Vorgehensweise beim Sammeln der Daten und der Analyse der Ergebnisse dargelegt. Schließlich werden in Kapitel 6 die Ergebnisse präsentiert, wobei das Netzwerk zuerst graphisch dargestellt wird und die berechneten Zentralitätskennzahlen für die Knoten des Netzwerks angeführt werden. Auch wird das Netzwerk mit einem ähnlichen Netzwerk aus dem Tourismusbereich und mit dem Netzwerk des World Wide Webs anhand wichtiger Eigenschaften von Netzwerkmodellen verglichen. In der Folge wird die Grad-basierte Zentralität allgemein und die Zentralitätskennzahl des Eingangsgrads speziell, als relevanteste Kennzahl für die Ermittlung der zentralen Knoten eines Netzwerks des World Wide Webs ermittelt, und die zentralen Knoten werden anhand dieser Kennzahl bestimmt und beschrieben. Insgesamt ergab diese Untersuchung, dass die zentralsten Websites im Netzwerk die sozialen Medien (Facebook, Youtube und Twitter), das Tourismusportal Tiscover, das Portal der ÖBB sowie ein Destinationsmanagement-Portal aus Oberösterreich sind. 8 Arbeitsbereich Business Informatics Sebastian Gabmeyer Formalization of the Operation Recorder based on Graph Transformation Theory Studium: Masterstudium Wirtschaftsinformatik Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel With the advent of model-driven development, which places models at the center of all development efforts, some of the existing deficiencies of codecentric software development approaches have been addressed. However, at the same time new problems arose, which require, e.g., techniques to describe, control and verify the evolution of models. Drawing from past findings in the field of code-centric software evolution is only partly feasible due to the graph-based nature of models, which renders the porting of solutions for text-based software development impractical. The graph-based nature of models suggests the application of graph transformation-theoretic concepts to models, to formally describe their manipulation by means of graph-rewriting rules. Though the concepts provided by the theory of graph transformation may seem intuitive, the specification of rewriting rules is a non-trivial task, which requires adequate tool support and knowledge of the underlying theory. Due to the heterogeneity of the employed approaches, a tool's capability to specify graph rewriting rules and the degree of assistance offered is hard to determine without prior investigation. Thus, a survey of existing tools was conducted, which revealed the Operation Recorder as a suitable tooling environment. In contrast to all other surveyed tools, it offers a by-demonstration environment, which allows to showcase the intended transformation instead of requiring its manual construction. The Operation Recorder, however, lacks a formal basis which prevents the verification of its transformations. Therefore, a framework to describe attributed graphs with inheritance, composition and multiplicities is presented with the aim to embed the Operation Recorder into this framework. For this purpose, a conceptual alignment is pursued which demonstrates the equivalence and interchangeability of the concepts provided by the Operation Recorder and those provided by the theory of graph transformation. 9 Patrick Zwickl Visual Design and Analysis Support for Answer Set Programming Studium: Masterstudium Information & Knowledge Management Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel In the last decade, logic programming experienced new impetus by the growth of Answer Set Programming (ASP) as one of the key drivers in the academic world. However, ASP could not attract the same interest as other declarative programming languages in practice so far. This lack of interest in ASP may be explained by the absence of a sufficiently supported software engineering methodology resulting in a difficulty of designing and developing ASP programs. No tools supporting the development of ASP programs are available. So far, no modeling environment has been introduced in the context of software development based on the ASP paradigm, which offers valuable abstraction and visualization support during the development process. This thesis aims at establishing a novel method for visually designing and analyzing ASP programs. Therefore, a graphical approach for the visualization of ASP is proposed, which is based on concepts presented in literature for other declarative approaches. Moreover, concepts of model engineering are combined with the field of logic programming. Following a Model-Driven Engineering approach, an ASP-specific modeling language is established which is able to visualize important facets of ASP. The modeling language is applied within a graphical editor for the model creation. The resulting models are transformed to textual ASP programs by a code generator. The model engineering approaches are used to define the metamodel, a graphical editor, and to generate the ASP program code from models. Therefore, the link between the formalism of ASP and the graphical representation has to be established. Due to the close connection between ASP and deductive databases---databases with logical reasoning capabilities--the widely used Entity Relationship diagram is applied as initial visualization method for ASP programs. Arbeitsbereich Interactive Media Systems Markus Autengruber A Vision-Based System for Fingertip Detection on Tracked Interactive Surfaces Studium: Masterstudium Medieninformatik Betreuer: Privatdoz. Dr. Hannes Kaufmann Multi-touch sensing on interactive tabletops and other flat surfaces has become a major trend in the field of human-computer interaction over the past years. The main objective is to provide a touch interface for the direct manipulation of digital content by multiple users at the same time. Within these terms the appropriate design of the interactive surface as well as the 10 automatic detection and tracking of fingertips are crucial. Popular techniques for fingertip and touch detection use specific contact-sensitive computer hardware that is either relying on optical sensing in a controlled environment or capacitive surface technology. Since such hardware is usually custommade, those interaction systems are mostly expensive, inconvenient to move, install and operate and not scalable. To overcome these drawbacks, a number of multi-touch researchers strive for alternative techniques to provide more adjustable interfaces. Here, everyday surfaces shall be augmented with the functionality of touch-based user interfaces, while using none but off-theshelf and affordable vision hardware and relying on state-of-the-art computer vision methods and algorithms. This work starts off with the description, discussion and evaluation of common surface hardware technologies as well as existing techniques based on simple video hardware. After that, a set of straightforward computer vision algorithms is selected in order to develop a stand-alone software application. The application is capable of continuously tracking a rectangular surface as well as detecting multiple fingertips that hover above its top. This work is concluded by providing relevant empirical results on computer vision-based rectangle and fingertip detection in natural indoor environments. Harald Jordan Runtime-optimised Intra Coding Mode Selection for Real-time H.264/AVC Video Coding Studium: Masterstudium Informatikmanagement Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz H.264 is a powerful video compression standard using advanced spatial and temporal encoding techniques. Compared to the MPEG4 Part 2 standard, H.264 achieves the same visual quality at half of the bitrate. The coding efficiency of H.264 makes it well suitable for quality- and time-critical video applications such as low-latency video transmission. This work concentrates on a part of the H.264 coding process that is used in many of these applications - the spatial (Intra) prediction. This coding tool propagates pixels in a frame for predicting unknown neighbouring pixel regions. H.264 supports multiple propagation patterns which are referred to as coding modes. The challenge of most realtime video encoders is to choose an efficient coding mode in a reasonable amount of time. This process is called coding mode selection (CMS) and involves the computation of all possible coding modes and choosing the best one. This thesis focuses on reducing the computational complexity of the CMS. First, we investigate the behaviour of the CMS on a set of test sequences. The impact on the coding efficiency when using only a reduced number of coding modes is analyzed. Second, we develop two methods for speeding up the CMS. Both methods skip the computation of coding modes that are unlikely to improve the coding efficiency. This results in a significant reduction in the computational complexity of the encoder. 11 Wolfgang Knecht Clustered Deep Shadow Maps for Multiple Volumes and Geometry Using CUDA Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung Betreuer: Univ.Prof. Dr. Dieter Schmalstieg In der Computergrafik spielen Schatten eine bedeutende Rolle und tragen wesentlich zur Atmosphäre in einer drei dimensionalen Szene bei. Das Zusammenspiel von Schatten volumetrischer Objekte, wie etwa Wolken oder Rauch, als auch Schatten von polygonaler Geometrie stellt in der Echtzeitgrafik eine besondere Herausforderung dar. Ziel dieser Diplomarbeit ist es, qualitativ hochwertige Schatten in Szene mit mehreren volumetrischen sowie lichtdurchlässigen polygonalen Objekten zu berechnen. Schatten werden dabei auf Objekte vom selben Typ als auch auf Objekte von unterschiedlichem Typ geworfen. Dazu wird die Implementierung von Deep Shadow Maps auf Basis eines Polyhedral Volume Renderers beschrieben. Die Implementierung unterstützt neben Spot-Lichtquellen auch omnidirektionale Lichtquellen. Des Weiteren werden zwei verschiedene Methoden beschrieben wie Deep Shadow Maps abgespeichert werden. Um qualitativ bessere Ergebnisse zu erzielen, werden Objekte der Szene in Gruppen zusammengefasst und für jede Gruppe eine separate Deep Shadow Map berechnet. Auf aktueller Hardware können Schatten in Szenen, bestehend aus mehreren volumetrischen Objekten sowie polygonaler Geometrie, mit interaktiven Frameraten berechnet werden. Wolfgang Morgenbesser Spracherkennung in mobilen Endgeräten Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Horst Eidenberger In dieser Arbeit wird ein Spracherkennungssystem mit einfacher Wortübersetzung für mobile Endgeräte wie Mobiltelefone und PDAs geplant und auf einem Zielgerät umgesetzt. Dazu werden im ersten Teil die theoretischen Grundlagen von Sprache und Spracherkennung beleuchtet. Im Anschluss wird auf prominente Verfahren im Verlauf des Spracherkennungsprozesses eingegangen. Auch werden potentielle Störquellen und Restriktionen im mobilen Einsatz untersucht. Im zweiten Teil wird die Java MEPlattform vorgestellt, welche als Basis für die praktische Umsetzung des Spracherkennungssystems dient. Der eigentliche Entwicklungsprozess wird von der Technologieauswahl, über die tatsächliche Umsetzung bis hin zu Optimierungen und Schwierigkeiten im Rahmen der praktischen Arbeit ausgeführt. Die experimentelle Validierung liefert schließlich Informationen und Aufschlüsse über das eingesetzte System. 12 Arbeitsbereich Information and Software Engineering Daniel Bründl Einbettung der Risk Oriented Process Evaluation in das (IT-) Projektmanagement Studium: Masterstudium Wirtschaftsinformatik Betreuer: Privatdoz. Dr. Edgar Weippl Projektmanagement, derzeit ein beliebtes Schlagwort in verschiedenen Bereichen der Wirtschaft, gewinnt speziell in der Softwareentwicklung immer mehr an Bedeutung. Kaum ein Vorhaben, und sei es vermeintlich ein noch so kleines, wird heutzutage ohne ein zumindest rudimentäres Projektmanagement abgewickelt. Einen der Hauptgründe für diese Tatsache kann man in der Globalisierung orten. Arbeitsverhältnisse werden kontinuierlich aufgeweicht und hierarchische Strukturen gleichzeitig flexibler gestaltet, um den neuen Anforderungen schneller und effizienter begegnen zu können. Diese Strömungen sind grundsätzlich richtig und wichtig; allerdings wird etwaigen Risiken, welche mit einem derartigen Umstrukturierungsprozess verbunden sein können, zu wenig Beachtung geschenkt beziehungsweise verfügt das klassische Projektmanagement über zu wenig brauchbare Vorgehensweisen. Genau diese Risiken werden jedoch gegebenenfalls über Erfolg oder Misserfolg eines Projekts entscheiden. Der derzeitige Status quo im (IT)Projektmanagement legt daher den Schluss nahe, dass etwaige auftretende Risiken nicht in geeigneter Art und Weise behandelt werden. In dieser Arbeit wird ein möglicher Lösungsvorschlag für dieses Problem erarbeitet. Ein neues Vorgehensmodell - „Risk Driven Process“ - enthält Elemente der Prozessmodellierung, mit dem ein neues Risikomanagement im Projektmanagement installiert werden kann. „Risk oriented process evaluation“ nach Jakoubi und Tjoa wird dabei als Grundlage für den neuen Ansatz verwendet und um die Anwendung im Projektmanagement erweitert. Schließlich wird das neue Modell mittels Abarbeitung eines Fallbeispiels untermauert. Alexander Duggleby Software-based Atomation of Risk Assessment Studium: Masterstudium Software Engineering & Internet Computing Betreuer: O.Univ.Prof. Dr. A Min Tjoa Due to the complex world we live the outcome and consequences of the decisions we make cannot be fully understood. We have evolved to cope with this uncertainty in our daily lives. It becomes a challenge when multiple stakeholders are involved and we are held responsible by others for our actions. The field of risk research has occupied researches for decades and produced numerous methods for managing these risks. Even so they are often incompatible with each other and the results are highly subjective causing low adoption rates by organisations. These methods seldom define 13 details in process implementation and a lack of tooling support makes the actual risk assessment phase very cost intensive. The expert sources required are often interviewed personally and the data processed by hand. This ultimately leads to less assets being surveyed. This thesis attempts to automate large parts of the aforementioned process with the help of software tools. The cost of the whole process can be reduced by designing an integrated and automated software solution for risk assessment which in turn allows more assets to be assessed. The basis for the automation is a systematic assessment of the assets state and hierarchical aggregation of the resulting risk levels. Common risk management methodologies were examined, commonalities identified and a generic risk assessment approach defined. A data model was developed to describe processes based on this approach. A software prototype based on the derived technical data model was used to test the validity and aggregation capabilities of the concept based upon a common risk management methodology for IT security. The main results of this work are the generic risk assessment process, the design of a technical model for describing and documenting it and the software prototype application that supports it. Riccardo Gottardi Complex Digital Object Preservation Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber Diese Arbeit analysiert die Problematik der langfristigen Bewahrung von elektronischen Dokumenten. Eine neue Herausforderung im Bereich der digitalen Langzeitarchivierung betrifft komplexen Objekte, die aus mehrerem einzelnen Objekten bestehen. Um die Erhaltung und Verwendung dieser Objekte sicherzustellen, müssen deren einzelne Teile analysiert und falls erforderlich behandelt werden. Das Problem der langfristigen Bewahrung von digitalen Objekten ist, den Zugriff auf diese unbegrenzt zu sichern. Alle Teile im Dokument, die sich in obsoleten oder proprietären Formaten befinden, werden für die langfristige Verwendung in bevorzugte und geeignetere Formate migriert. Im ersten Teil dieser Arbeit wird der Prozess der extrahierung der einzelnen Elementen des komplexen Objektes beschrieben. Danach werden die Objekte migriert und in ein neues komplexes Objekt des gleichen Formats wie das Ausgangsobjekt zusammengesetzt. Der zweite Teil der Arbeit zeigt einen Musterfall, wo unterschiedliche Dokumente in ODF oder ooXML Format mit verschiedenen Alternativen, einschließlich der Migration mit dem COP Plug-in, migriert werden. Das COP Plug-in ist ein selbst implementiertes Plug-in für jHove, das die Standard-Features wie die jHove Identifizierung, Validierung und Charakterisierung der digitalen Dokumente auf ODF oder ooXML Format einschliesst. Außerdem ermöglicht die Software die Extraktion der Struktur der Formate und die Herauslösung kritischer Objekte aus dem komplexen Objekt. Die Ergebnisse dieses Experimentes zeigen, dass wenn das digitale Dokument als ein komplexes 14 Element behandelt wird, die Qualität der Migration für eine lang-zeit Archivierung erhöht wird. Dies ist möglich, weil das originale Format bewahrt bleibt und die Probleme der Unterlemente individuell gelöst werden oder in einen neuen Format unmgewandelt werden können. Michael Handler Semantic Data Integration in (Software+) Engineering Projects Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl The major problem that arises, when complex systems have to be engineered, is weak interoperability of tools in one engineering domain and especially between tools of different engineering domains. Incompatible syntactical representations of the same semantic concepts make efficient integration of engineering tools especially difficult. In addition high quality standards and rapidly changing requirements for large engineering projects create the need for advanced project management and quality assurance applications, like end-to-end tests across tool and domain boundaries. To solve the integration problem often costly and hard to maintain point to point integration between the tools is done. But these systems are not capable of fulfilling the requirements of a modern engineering environment, like robustness, flexibility and usability. The Engineering Knowledge Base (EKB) is a framework for semantic engineering environment integration. In this thesis a semantic data integration solution for (software+) engineering is developed based on the EKB concept. A prototype of the EKB is developed and integrated into the Open Engineering Service Bus (OpenEngSB). The prototype is evaluated against the current technical-only integration provided by the OpenEngSB with the help of two use cases: (1) Definition Of Quality Criteria Across Tool Data Models in Electrical Engineering and (2) Change Impact Analysis for Requirement Changes. The empirical evaluation shows that the EKB is an effective and efficient way to provide the necessary infrastructure for advanced applications like end-to-end tests across tool boundaries. Nevertheless additional configuration and maintenance effort is needed to manage the semantic knowledge. Yet if applications like those described in the real world use cases have to be performed, the additional features of the proposed semantic integration framework outbalance these disadvantages. 15 Mario Imber A Unified Tooling Framework for Pedestrian Simulation Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Privatdoz. Dr. Edgar Weippl Mathematical models of walking behaviour of pedestrians find application in numerous areas including architecture, panic analysis, traffic control, urban design, retail industry or entertainment. Pedestrian modelling evolved into a broad field of research with approaches following various different base concepts. Commercial and prototypical software tools exist to enable analysis and simulation of pedestrians in a given environment. Existing software solutions provide highly integrated components used to design simulation scenarios, run simulations or calculations and visualize or analyse the results. Though this application structure supports a consistent user experience, it prohibits the reuse of scenario definitions with different simulation models due to proprietary interfaces or tightly coupled implementations. This thesis follows an alternative approach of decoupled scenario creation, attempting to develop a more flexible tooling framework for unified definition of pedestrian scenarios. The framework consists of two parts, first the specification of a generic interface used to describe the parameterization of scenarios expected by a simulation model and to specify scenario instances following that parameterization, and second a software tool supporting the creation of simulation scenarios conforming to that interface. The interface specification is developed based on a generic model of scenario input data, which is derived from an analysis of existing models. A categorization of modelling approaches is given, followed by reviews of selected proposals in literature providing a broad coverage of the problem field. The technical realization of the interface in XML is discussed using UML class diagrams. A Java implementation, the Scenario Builder, is presented as the second framework part, a software tool realizing user interface concepts that enable practical adoption of the proposed interface. Martin Leonhartsberger-Schrott ASTER - Entwurf und Implementierung eines sensorenbasierenden RubikWürfels als Lernspiel Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Gerald Futschek Der 1974 von Ern Rubik erfundene "Zauberwürfel" ist für Kinder und Erwachsene gleichermaßen eines der beliebtesten Puzzlespiele. Diese Arbeit beantwortet die folgenden Frage: Wie kann eine Implementierung einer interaktiven, sensorenbasierenden Version des Rubik-Würfels und deren Einbettung in eine didaktisch wertvolle Software aussehen? Ein würfelförmiges Eingabegerät wurde gebaut und dokumentiert, welches im Inneren einen Mikrocontroller und diverse Sensoren verbirgt. Deren Messergebnisse 16 werden zu einem Computer übertragen, auf welchem der zweite Teil der Arbeit zum Einsatz kommt: Ein Programm, das diese Werte interpretiert und einen virtuellen Rubik-Würfel rendert. Dieser folgt dem Eingabegerät sowohl in Konfiguration als auch bezüglich der Orientierung im Raum. Diese Arbeit beschreibt die technischen und mathematischen Grundlagen des Prototyps und argumentiert die didaktischen Prinzipien der Lernsoftware. Zusätzlich werden konkrete Unterrichtsszenarien präsentiert, die das entwickelte System inkorporieren. Außerdem wird die entwickelte Hard- und Software in Bezug auf ihre Einsetzbarkeit auf älteren Systemen einer Evaluation unterzogen. Abschließend werden mögliche zukünftige Weiterentwicklungen diskutiert. Ludwig Meyer Lightweight UML Model Creation Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl UML ist ein industrieweit anerkannter Modellieungs-Standard mit 13 Diagrammtypen und einfacher Notation. Obwohl es breite Tool-Unterstützung gibt, sind viele dieser Tools nur schwer bedienbar. Sie leiden unter nicht optimal entworfenen Benutzeroberflächen mit schwer entzifferbaren Icons, Pop-Up Fenstern, verschachtelten Menüs und Tab-Panes, etc. Textbasierte Benutzereingabe bietet eine Alternative zu bekannten grafischen Metaphern. Das open-source Tool UMLet integriert den text-basierten Ansatz beim Modellieren, um Elemente und Diagramme mittels einfacher Grammatik zu erstellen. Diese Arbeit vergleicht die Effizienz herkömmlicher GUIs mit UMLets textbasiertem Interface im Kontext des explorativen UML Modellierens auf Basis repräsentativer Use-Cases. Die Evaluierung beruht auf einer vereinfachten Methode zur quantifizierten Messung von Benutzeroberflächen. Sie betrachtet die Anzahl der durch den Nutzer erforderlichen Interaktionen zur Erfüllung einer Aufgabe. UMLet ist ein leichtgewichtiges Werkzeug zur UML Modellierung. Der Fokus liegt auf einem einfachen und verständlichen Bedienungskonzept. Die Erstellung von Diagrammen so einfach und schnell wie mit Papier und Bleistift, aber mit den Vorteilen bei der Modifikation und Verfeinerung am Bildschirm. Ein text-basiertes Interface erhöht die Bedienungsgeschwindigkeit bei der Erstellung von Diagrammen. Einfache aber zugleich mächtige Syntax erlaubt die Modifikation einzelner Elemente, und sogar ganzer Diagrammtypen. Eines der Schlüsselfeatures UMLets ist seine erweiterbare, modulare Struktur mithilfe eines integrierten JavaCompilers. Die Benutzer können anhand eines einfachen Templates, das bereits alle notwendige Basisfunktionalität aufweist, einfach und schnell mittels Java ihre eigenen Elemente erstellen. UMLet bietet eine fast komplette Unterstützung für UML 2.0 und ist nicht zuletzt durch die Erweiterbarkeit mit Hilfe der genannten Custom-Elements an die jeweiligen Anforderungen leicht anpassbar. 17 Christian Österle Extension of the Business Process Execution Language (BPEL) with probabilistic time management of choreographies and time constraints in workflow systems Studium: Masterstudium Wirtschaftsinformatik Betreuer: O.Univ.Prof. Dr. A Min Tjoa WS-BPEL provides a language for describing the behavior of a business process based on interactions between the process and its partners. The interactions of partners occurs through web service interfaces which ensure interoperability between applications by using web standards. Time management and temporal conformance is an important criteria for business processes. It ensures that activities are performed in a timely manner and that the right information is delivered to the right activities at the right time, such that overall temporal restrictions are satisfied and no deadline is violated. Deadline violations increase the execution time and cost of business processes because they require some type of exception handling. The contribution of this diploma thesis will be the implementation of a tool that enables users to augment WS-BPEL-processes with temporal information in design time and a run time component for checking the temporal behavior of the processes at run time. In design time a valid temporal interval for (activities of) each process is calculated with consideration for the structure of each process and the interactions between different processes and then checked if the model is temporally feasible, i.e. there is a solution satisfying all temporal constraints. Calculating the temporal intervals and checking the temporal conformance will be performed for two cenarios. The interval-based scenario, which allows a variable duration of activities within an interval. The stochastic scenario, that allows the definition of different activity durations with different probabilities and also takes the conditional branching behavior into account. In run time, it is checked if the activities are executed within the valid calculated intervals at design time. Therefore the time points of all processes are mapped to a calendar with current dates and times. Then, the temporal status of each process instance can be monitored. Alexander Pucher Resource Efficiency in Tritonsort - Optimization of Resource Utilization in large-scale external Sorting Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl Internet scale services like Google Search and Cloud services operate on massive amounts of information. Timely processing of this data at the scale of Tera- and Petabytes requires the use of DISC systems, orchestrating large assets of hardware with frameworks such as Apache Hadoop. Annually, DISC system performance is compared by Sort Benchmark. Recent results show 18 significant gains in performance, but a substantial loss in resource efficiency too. The Tritonsort case study is set up to create a top-performing and costeffective system for large-scale Sort Benchmark by emphasizing resource efficiency over sheer scalability. This paper systematically evaluates resource efficiency of the Tritonsort prototype and contributes two improved software components. Objective. Systematic evaluation of resource efficiency of Tritonsort by comparison to state-of-the-art systems and development of wellperforming components for intermediate data storage and internal sorting. The solution is deemed effective if Tritonsort is capable of performing 100TB Gray Sort Indy and Minute Sort Indy benchmarks and provides competitive performance and cost efficiency. Method. Survey in literature about existing approaches to distributed parallel sort, design and implementation of internal sorting and disk I/O components, and evaluation by systematic comparison to existing systems in terms of performance and resource efficiency. Result. Tritonsort outperforms state-of-the-art systems in the 2010 Gray Sort Indy and Minute Sort Indy challenge by a factor of four per cluster node. It improves upon average throughput per CPU core and disk and achieves higher cost efficiency. Literature. Anderson and Tucek emphasize the potential of resource efficient systems and provide a systematic listing of different aspects of efficiency. Vitter creates the foundation for efficient disk I/O in external sorting while different Sort Benchmark systems inspire design and optimization of internal sort. Florian Schnitzhofer Automatisierung von Requirements Traceability mittels Information Retrieval Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl Das Erstellen von Requirements Traceability ist ein ressourcen- und zeitintensiver Vorgang der schwer automatisierbar ist. Diese Arbeit untersucht den Einsatz von Information Retrieval Algorithmen zur automatisierten Erkennung von Beziehungen zwischen Anforderungen. Es wird angenommen, dass der Beziehungstyp Einfluss auf die Analyseergebnisse hat. Dafür werden folgende drei Beziehungstypen eingeführt: strukturelle Abhängigkeiten, beschränkende Abhängigkeiten und kosten- und wertrelevante Abhängigkeiten. Zur Überprüfung der These werden ein Vector-Space-Model und ein Latent-Semantic-Indexing Algorithmus auf zwei Fallstudien mit schablonenartigen Anforderungen angewendet. Die Auswertung der Ergebnisse zeigt, dass trotz der generell geringen Erkennungsrate die strukturellen Abhängigkeiten besser erkannt werden als andere Beziehungstypen. 19 Martin Tintel Interdisziplinäre Projekte im Informatikunterricht Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Gerald Futschek Projektbezogenes Lernen ist eine praxisorientierte Methode, sich Wissen anzueignen. In einem interdisziplinären Umfeld können nicht nur interessante Projekte entstehen, sondern auch das Interesse für andere Fächer geweckt beziehungsweise entdeckt werden. Die Magisterarbeit begleitet in verschiedenen Schulklassen und stufen Projekte von Anfang bis Ende und dokumentiert deren Entstehung sowie Umsetzung. Die dabei auftretenden Herausforderungen werden wie deren Lösung erläutert. Ferner wird erörtert, wie aufgetretene Probleme bei weiteren Projekten vermieden werden können. Die Arbeit gibt Einblicke in das Schulleben, die dort verwendeten Unterrichtsmethoden und die Bündelung verschiedener Lehrmethoden bei Projekten. Reinhard Zumpf On Strategic Approaches to DDoS Defense: Principles, Protection, Practice Studium: Masterstudium Wirtschaftsinformatik Betreuer: Privatdoz. Dr. Edgar Weippl Distributed Denial of Service attacks are a major threat on the Internet that could not be completely fixed until today because we have to deal with a systematic problem, due to the inherent weaknesses and the principle of openness of the World Wide Web. This makes it difficult to issue an efficient solution that provides a strong economic model and deployment incentive for those responsible and participants in order to make that solution viable globally. The final goal of my thesis is to bring the different solution attempts to DDoS defense closer to each other by introducing, comparing, and evaluating them in the context of the state-of-the-art background about the DDoS threat which is provided in my thesis, to accomplish a homogenous and enclosed overview about the current circumstances and difficulties at the frontline against DDoS attacks. Aggregated state-of-the-art information and latest research results about the DDoS threat itself are a major part of my thesis and provide a broad basis to outline the DDoS threat from different points of view. A novel approach to attack the DDoS business concludes this thesis. 20 Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction Stephan Bazalka Preed - Hypertext Application for Sharing and Presenting Digital Artefacts in Meetings Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer This diploma thesis investigates the role of information technology to support meetings of a group of people in a meeting room. Although research projects show that there is a need for improvement in the usage of technology in meetings, very few tools actually support presenting and sharing digital content, which is an important part of todays meetings. Preed, the setup accompanying this work, consists of two parts: The software provides a web based user interface for the participants of a meeting. Using this interface, the participants are able to share digital artefacts like websites, images, notes and documents with each other. They are also able to present these artefacts on the presentation screen, without any action of the presenter. The hardware setup of Preed provides an HDMI-interface to the presenter, allowing him/her to connect their laptop and show a presentation or other digital content. The use of Preed does not require any installation on the hardware of the meeting participants. During the design and development of Preed, ethnographic research and sketching played an important role. It was shown that thorough research and user involvement help in the understanding of the actual usage scenario as well as in making design decisions. Peter Mihalik Anwendung der Konzepte von WEB 2.0 in WEB 2.0-fremden Domänen Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer Diese Diplomarbeit befasst sich mit der praktischen Anwendung der Prinzipien, die den Begriff Web 2.0 geprägt haben. Im Zuge der Arbeit wurde eine Bibliotheksanwendung entwickelt, obwohl (oder gerade weil) diese in Web 2.0-Umgebungen bisher eher untypischen waren. Bei der Konzeptionierung der Anwendung wurde besonderes Augenmerk darauf gelegt, welche Web 2.0-Technologien vernunftig einsetzbar sind und vor allem wie einzelne Web 2.0-Konzepte am Besten implementiert werden können. Hinter dem Begriff Web 2.0 verbirgt sich eine Vielzahl von Konzepten, Technologien und Richtlinien, die in dieser Arbeit evaluiert werden. Die Prinzipien des Web 2.0, sowie der Begriff selbst, werden im ersten Teil dieser Diplomarbeit 21 definiert und erklärt. Es wird auch auf die geschichtlichen Aspekte des Begriffs eingegangen. In weiterer Folge werden die theoretischen Ansätze der Verbindung der Konzepte von Web 2.0 mit den Bibliothekssystemen evaluiert. Der zweite Teil der Arbeit beschreibt das praktische Anwenden der im ersten Teil beschriebenen Prinzipien anhand der Entwicklung der Bibliotheksanwendung des Instituts für Gestaltungs- und Wirkungsforschung der Technischen Universität Wien. Thomas Nägele Clemens Sagmeister Scribbler - Ein Interface zur Unterstützung kollaborativer Interaktionsformen für die Arbeit auf gemeinsam genutzten Displays Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer Kollaboratives Arbeiten bedeutet das Teilen von Materialien, Dokumenten und Werkzeugen. Herkömmliche, greifbare Medien schaffen eine Kommunikationsebene zwischen den Personen, auf der es möglich ist, Gedanken, Ideen und Konzepte rasch und zugänglich aufzubereiten. In der Vergangenheit sind schon einige Versuche unternommen worden, diese Art des Arbeitens auf digitalen Medien umzusetzen. So gibt es bereits Ansätze, die die Zusammenarbeit auf einem gemeinsamen großen Display ermöglichen sollen. Jedoch stößt man bei der Arbeit mit diesen kollaborativen Systemen immer wieder auf Barrieren, da es bisher noch nicht gelungen ist, eine effiziente und transparente Schnittstelle zwischen analogen und digitalen Objekten zu schaffen. Anhand theoretischer und praktischer Ansätze beschreibt die folgende Arbeit die Unterstützung traditioneller Arbeitsweisen von Designern auf digitalen Objekten. Das kollaborative System Scribbler setzt auf die wohl wichtigste Designmethode, das Skizzieren, und versucht eine barrierefreie Schnittstelle zwischen realen und digitalen Objekten zu schaffen. Mario Schekulin Einsatz von Video in E-Learning Studium: Masterstudium Informatikmanagement Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl Es wurde bald nach der Veröffentlichung des ersten Films klar, dass dieses Medium sich gut dafür eignet Wissen zu vermitteln. Mit der Einführung des Fernsehers und Videorecordern wurde das Lernen mit Videos massiv gefördert. Die hohen Erwartungen bezüglich Lernerfolg und Lernzufriedenheit konnten jedoch nicht wirklich erfüllt werden. Durch die Möglichkeiten der Computertechnologie, besonders durch das Internet und das Web 2.0 entstehen didaktische als auch technologische Trends welche die Anforderungen der Lernforschung besser erfüllen können. In dieser Arbeit wurden 22 real genutzte Umgebungen im Internet untersucht und Testpersonen wurden dann mit diesen konfrontiert. Mittels Thinking-aloud Methode und qualitativen Interviews wurden danach die Erkenntnisse erhoben. Es wird gezeigt welche Erwartungen des Lerners erfüllt und welche Richtlinien eingehalten werden müssen. Besonders die Möglichkeit der Interaktivität und wie diese eingesetzt werden kann oder sollte spielt eine große Rolle. Johannes Wallner Atemporale Fotografie in Social Maps Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer Fotografien sind Darstellungen einer Szene zu einem bestimmten Zeitpunkt. Im Laufe der Zeit verändern sich jedoch unweigerlich die zu einem bestimmten Zeitpunkt aufgenommenen Begebenheiten in der Szene. Aufgrund der umfangreichen Menge an digitalisierten Fotos unterschiedlicher Zeitpunkte, welche über das Internet zu finden sind, bietet sich die Darstellung und die Vereinigung der Fotos in einem interaktiven IT-System an. Dadurch sollen die Veränderungen der Aufnahmen über die Zeit zielgerichtet dargestellt und mit weiterführenden Informationen wie zum Beispiel dem Standort, dem Datum und persönlichen Eindrücken zu jener Aufnahme versehen werden können. Das Resultat dieses computergestützten Vorgangs soll ein neues, zeitloses Foto aus verschiedenen Bestandteilen existierender Refotografien darstellen. Diese Arbeit enthält die Konzeption, Implementierung sowie Anwendertests eines möglichen interaktiven und sozialen Systems, welches eine kollaborative, selektive Bildsynthese durch die Anwender des Systems ermöglichen soll. Ein zentrales Element dieses sozialen Systems stellt die gemeinsame Verwendung einer geografischen Navigationskomponente in Form einer interaktiven Landkarte dar. Das Methodische Vorgehen dieser Arbeit umfasst die Konzeption eines interaktiven Systems basierend auf einer Projektidee, die prototypische Umsetzung als grafische und interaktive Prototypen sowie die Implementierung des Systems. Weiters wurden Anwendertests mit einer ausgewählten Zielgruppe durchgeführt, die neben der Interaktion mit dem sozialen System auch über die mögliche Nutzung in einem aufgabenorientierten Kontext Aufschluss geben. Hierbei wurden die Anwender mit Mockups durch die Innenstadt von Wien geführt um Refotografien durchzuführen. Die Anwendertests wurden anhand Beobachtungen, Fragebögen und Einzel- sowie Gruppenbefragungen durchgeführt. Die Benutzbarkeit des interaktiven Systems und seine Praxistauglichkeit konnte anhand der Anwendertests gezeigt werden. 23 Arbeitsbereich Multidisciplinary Design Helmut Chlebecek "Digital Game-Based Learning" Lernen mit Digitalen Lernspielen Studium: Masterstudium Medieninformatik Betreuerin: Associate Prof. Dr. Hilda Tellioglu Digitale Lernspiele sind eine neue Form des elektronisch unterstutzten Lernens. Der Fokus bei diesen Lernspielen ist primar auf die Motivation der Lernenden gerichtet. Das zu vermittelnde Wissen wird dabei eher indirekt transferiert. Formen der Vermitt- lung bestehen aus Interaktion von Computer und Mensch und erfolgen multimedial. Die vorliegende Arbeit beschreibt zunachst die Grundlage von digitalen Lernspielen, das Lernen. Dabei werden Lernparadigmen und diverse wissensvermittelnde Grundlagen er- ortert. Das Spiel soll im darauf folgenden Artikel ins Zentrum der Betrachtung geruckt werden. Dabei werden Definitionen von Spiel sowie die Natur und Hintergrund des Spiels beschrieben. Des weiteren werden didaktische und motivationale Aspekte des spielba- sierten Lernens ausfuhrlich behandelt. Den Theorieteil schließt eine Zusammenfassung und ein Ausblick in die Zukunft von digitalen Lernspielen ab. Im praktischen Teil der Ar- beit werden relevante Teile der Umsetzung und Implementierung vom Rechtschreibspiel Kangurules auf Grund des erworbenen Wissens dokumentiert. Dieses Rechtschreib- spiel wird evaluiert und getestet. Die Ergebnisse der Evaluation brachten interessante Erkentnisse zum Vorschein. Aufgrund der Beobachtungen war eine Tendenz zu erken- nen, die vermuten lasst, dass durch das vorliegende Rechtschreibspiel nicht besser oder schneller gelernt werden kann, aber es scheint sichtlich mehr Spaß zu machen. Petra Ollram Presentation Support: enHandced - A Gestural Interface Prototype with a Data Glove Studium: Masterstudium Medieninformatik Betreuerin: Associate Prof. Dr. Hilda Tellioglu The focus of this diploma thesis is the analysis of presentation software and alternative possibilities of presentation support, especially in a combination with gestural interfaces. The gesture controlled prototype of an alternative presentation support software, which is developed in the course of this thesis, is analysed and evaluated in this regard. The numerousness of presentations held and heard make is necessary to design the presentation software in an effective way so both the audience and the presenter can profit from it. Presentation navigation, features for highlighting important parts of the content as well as the now popular use of gestural interfaces are emphasized in the development and analysis of the prototype. The points at issue are the construction of an easy to build and easy to use data glove as 24 well as the creation of an effective gesture controlled software for interaction with slideshows. The prototype is evaluated by conducting video observed user tests where the users have to perform specified tasks with the prototype, interviews with the six test users as well as with consideration of usability aspects. The collected data from the observations and the survey afterwards, allow drawing conclusions about the usage of presentation support features and navigation, the necessary simplicity of presentation software and data glove use. Markus Radits The Affective PDF Reader Studium: Masterstudium Medieninformatik Betreuerin: Univ.Prof. Dr. Ina Wagner Beim Affective PDF Reader handelt es sich um einen PDF Reader, der in Echtzeit den Gesichtsausdruck des Users interpretiert um daraus Rückschlüsse auf den emotionalen Zustand des Lesers zu ziehen. Aus den dadurch gewonnen Informationen wird visuelles Feedback im Texthintergrund generiert um dadurch die Möglichkeit einer positiven Beeinflussung des Leseprozesses zu untersuchen. Die Motivation zum Affective PDF Reader entstand einerseits durch die großen Fortschritte in den Bereichen Affective Computing, Signal Processing und Pattern Recognition. Andererseits aus der Erkenntnis, dass unsere oftmals regungslosen Gesichter bei der Arbeit mit Computern von keiner positiven Interaktion zeugen. Der Prototyp des Affective PDF Readers verwendet zur Visualisierung Fußabdrücke, deren Farbe sich aus dem detektierten Gesichtsausdruck ergibt. Diese Fußabdrücke dienen dazu die affektiven Reaktionen gemeinsam mit dem Text darzustellen um dadurch in einer Interaktionsschleife das Lesen positiv zu beeinflussen. Die Positionen dieser graphischen Objekte werden mit der Maus bestimmt. Nachdem ein Fußabdruck gezeichnet wurde, wird er langsam ausgeblendet, um ein Überladen zu vermeiden. Zukünftig soll die Positionierung mit einem Eyetracker erfolgen. Es hat sich gezeigt, dass visuelles Feedback in solch einer Anwendung großes Potential in sich birgt und viele neue, interessante Fragen aufwirft. Wenn die Visualisierung schlicht und nicht aufdringlich ist, kann der Leseprozess positiv beeinflusst werden. 25 Andreas Sackl Multiple Datenpreisgabe als Bedrohung der Privatsphäre. Eine empirisch qualitative Untersuchung zur Risikowahrnehmung im Kontext allgegenwärtiger Datenerfassung Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Gerald Steinhardt Die Durchdringung des Alltags mit modernen Computertechnologien wie zum Beispiel Online Social Networks, Onlinestores oder Kundenkarten führt zu einem massiven Anstieg der erfassten und verarbeiteten persönlichen Daten. Die sich daraus ergebenden, mannigfaltigen Risiken hinsichtlich der Privatsphäre führen zu der Frage, warum betroffene Personen sorglos mit ihren Daten umgehen und warum es zu einer verzerrten Wahrnehmung hinsichtlich möglicher Eingriffe in die Privatsphäre und zu einem geringen Risikobewusstsein kommt. Theoretische Überlegungen bezogen auf den diffusen Begriff Privatsphäre, kombiniert mit Erkenntnissen der aktuellen Risikoforschung und sozialpsychologischer Theorien, wie etwa der Begriff Alltagsbewusstsein, lieferten die Grundlage für die anschließende, empirische Untersuchung. Als Erhebungsmethode kam das qualitative Verfahren der Gruppendiskussion zum Einsatz, die Auswertung des erhobenen Materials erfolgte anhand einer sozialwissen-schaftlichen Hermeneutik, welche die relevanten Aussagen der Teilnehmer mit den zuvor erarbeiteten theoretischen Konzepten in Verbindung brachte. Es wurden 5 Diskussionen mit je 8 TeilnehmerInnen durchgeführt. Es zeigte sich, dass diese fundiertes Wissen über die Risiken von ICTs bezogen auf die Privatsphäre vorweisen, jedoch nicht in ihr alltägliches Handeln einbringen konnten. Die betroffenen Personen wendeten diverse Mechanismen an, um ihr Handeln zu rechtfertigen, beispielsweise die Betonung der eigenen Handlungskompetenz oder Hervorhebung der eigenen Stellung als Experten hinsichtlich der Risiken. Zahlreiche Aussagen deuteten auf eine gewisse Ohnmacht und Hilflosigkeit gegenüber ICTs hin, die Mechanismen der Datenverarbeitung können anscheinend weder verstanden noch beeinflusst werden. Dies äußert sich unter anderem dadurch, dass dem Staat als rechtliche Instanz viel Vertrauen und Handlungskompetenz entgegengebracht wird. 26 Institut für Computergraphik und Algorithmen Arbeitsbereich Computergraphik Stefan Hehr Scattered Multi-field Volumes Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller Diese Arbeit thematisiert den Umgang, im Konkreten die Speicherung, die GPU-Handhabung, aber vor allem die Darstellung und Visualisierung von komplexen Volumendatensätzen. Diese können aus unterschiedlichen Primitiven zusammengesetzt sein wie zum Beispiel aus Dreiecken, Voxel oder Partikel. Die vorliegenden Daten müssen dabei nicht räumlich voneinander getrennt sein, sie können sich auch überlappen, gegebenenfalls auch miteinander interagieren. Ein vorstellbares Szenario wäre eine überflutete Landschaft, wobei das Gelände in Form eines Dreiecksnetzes, das Wasser als Volumen und eventueller Niederschlag als Partikel vorliegen. Nach umfassender Recherche im Bereich der Datenstrukturen (vornehmlich Bäumen) soll eine geeignete Struktur gewählt und praktisch umgesetzt werden. Diese Struktur soll nicht nur ermöglichen, große Datenmengen zu beinhalten, sondern diese auch nach Bedarf schnell und mit möglichst wenig Aufwand in den Speicher der Grafikkarte schieben zu können. Die Verwaltung und Zurverfügungstellung der Daten ist der eine Teil, der andere ist die Auswertung und die abschließende Ausgabe, d.h. das Traversieren durch die Baumstruktur der Daten. Diese Visualisierung erfolgt durch Ray-Tracing. Die Umsetzung eines erweiterbaren Ray-Tracers auf der Grafikkarte ist ebenfalls Bestandteil dieser Arbeit. Aufgabe dieser Arbeit ist es, verschiedene Ideen zu sammeln, wie die verschiedenen Datensätze gehandhabt werden können, um eine möglichst schnelle Anzeige zu ermöglichen. Die Ansteuerung des hybriden Ray-Tracers ist vor allem in der Handhabung des Datenartwechsels herausfordernd. Zu diesem Zweck wurden drei Methoden angedacht und die Vielversprechenste implementiert. Thomas Kment Spectral data representation techniques for realistic image synthesis Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung Betreuer: Univ.Prof. Dr. Werner Purgathofer Digitale Bildsynthese wird in vielen industriellen Anwendungen eingesetzt. Ein Teilbereich dieser Disziplin ist die physikalisch korrekte Darstellung natürlicher Phänomene wie beispielsweise die Farbe des blauen Himmels, oder korrekte Lichtbrechung. Die diesen Phänomenen zugrundeliegenden physikalischen Effekte erfordern, dass bei der Verarbeitung von 27 Farbinformationen deren spektrale Eigenschaften berücksichtigt werden. Hierfür wurden über die Jahre einige Methoden entwickelt. Diese stehen vor der gemeinsamen Herausforderung, komplexe Daten (z.B. fluoreszierende Lichtquellen) möglichst genau darzustellen. Meine Arbeit vergleicht diese Verfahren mithilfe der Farbdistanzformel CIEDE2000 und eines großen Testdatensatzes (NCS Farbatlas) und geht der Frage nach, welchen Einfluss Tiefpassfilter bei der Veränderung der Abtastrate der Daten haben. Stefan Marek Normal Estimation Of Very Large Point Clouds Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung Betreuer: Associate Prof. Dr. Michael Wimmer This diploma thesis introduces methods for external sorting and fast k nearest neighbor searching for very large point clouds. Very large point clouds are datasets that can not be processed in main memory. This leads to certain requirements for any used reconstruction technique. The most important ones are out-of-core memory management and sequential data handling algorithms. The paper “Stream-Processing Points” by Renato Pajarola shows a way to design a framework which allows to process a subset of very large point clouds. A subset is defined as a spatially continuous region holding a predefined number of points. This diploma thesis is based on the aforementioned paper and improves on the stream processing pipeline presented therein. The proposed algorithm for searching the k nearest neighbors has a complexity of O(N * log(M)), where N are all points in the point cloud and M are all points in main memory, which is similar to current state of the art algorithms for in-core processed data sets. Arbeitsbereich Algorithmen und Datenstrukturen Karin Oberlechner Solving the k-Node Minimum Label Spanning Arborescence Problem with Exact and Heuristic Methods Studium: Masterstudium Computational Intelligence Betreuer: Univ.Prof. Dr. Günther Raidl In this thesis, exact and heuristic methods for solving the k-node minimum label spanning arborescence (k-MLSA) problem are developed. The k-MLSA problem is a combination of the minimum label spanning tree problem and the k-cardinality tree problem, which are both NP-complete. Given a complete, directed graph in which one or more labels are associated with each arc, the goal is to derive a minimum cardinality subset of labels such that their corresponding arcs contain a directed tree connecting at least k nodes 28 of the graph. In addition to exact and heuristic methods for solving the kMLSA problem, this thesis contributes a new preprocessing algorithm for constructing the initial labels. The heuristic method is a memetic algorithm (MA). The exact algorithm is based on mathematical programming. It solves the underlying integer programming formulation by combining branch-andcut with column generation in a branch-and-cut-and-price (BCP) approach. In this approach, new (label) variables and constraints are added dynamically to an incomplete initial model during the branch-and-bound process. The new variables are generated by solving the pricing problem, which is based on the values of the dual variables of the current solution. Hence, the label variables no longer need to be constructed in a preprocessing step. As the pricing problem needs to be solved frequently as part of the overall BCP process, efficient algorithms are required. For this purpose, a method based on nondominated interval search is proposed. It provides an efficient solution to the pricing problem as well as to the preprocessing step. The BCP approach proposed in this thesis can solve larger instances than previously developed branch-and-cut and branch-and-price algorithms. The new preprocessing method signicantly reduces computational complexity compared to the previous method, which has been the bottleneck in the overall procedure. Michael Pimmer A Timeslot-Based Heuristic Approach to Construct High-School Timetables Studium: Masterstudium Computational Intelligence Betreuer: Univ.Prof. Dr. Günther Raidl This master thesis describes an algorithm for creating high-school timetables. We are going to use the instances of the School Benchmarking project. This project, started in 2007, provides an XML format, an evaluation function and several real-world instances from various countries. Our approach is to pick a non-full timeslot. We grade the favorability of all meetings that can be held in this timeslot: All hard constraints and the goal of completely filling the timetable have to be considered, as well as the soft-constraints, to obtain valid solutions with low penalties. This information - the meetings and their grades, as well as which meetings can be held simultaneously - is represented as a weighted graph. We perform a heuristic maximum weight clique search on this graph. If there are meetings with open roles, one out of a certain set of resources shall be assigned, e.g. any english teacher. This introduces an additional constraint to the maximum-weight clique search. Before assigning the found clique to the respective timeslot, all open roles are closed with a maximum-cardinalty maximum weight matching. On top of this basic procedure, we are going to implement higher-level solving strategies. We try to improve the quality of the timteable by partly refilling it or by reassigning resources and meetings that cause penalty. There are various parameters that influence the grading of constraints to construct the weighted graph for the clique search. We will use a hill climbing procedure to search for appropriate parameter-values. This work describes the given approach in detail. The 29 advantages and disadvantages of this timeslot-based algorithm will be discussed by evaluating it using the before-mentioned instances. We are also going to present and discuss the results, which are the first results published based on the School Benchmarking Project, as well as specifics of the format and instances. 30 Institut für Computersprachen Arbeitsbereich Theoretische Informatik und Logik Christian Hammer Konzept, Entwicklung und Schulungsmaßnahmen einer Echtzeitansteuerung von Software durch mobile Geräte Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund In den letzten Jahren hat sich der Markt für mobile Kommunikation und Telekommunikation zu einem der erfolgreichsten Zukunfts- und Wachstumsbranchen entwickelt. Einhergehend mit der zunehmenden Verbreitung und Entwicklung von mobilen Geräten und daraus resultierenden, stetig wachsenden Möglichkeit an neuen mobilen Services, werden laufend Anwendungen und Einsatzmöglichkeiten für mobile Geräte entwickelt und realisiert. Dabei gewinnen die Begriffe Mobilität und Flexibilität eine immer wichtigere Bedeutung. In der vorliegenden Arbeit werden funktionsfähige Prototypen einer Spiele-Applikation für eine Großveranstaltung, die sich durch eine nahezu echtzeit-basierte Ansteuerung der Spielfigur über ein Mobiltelefon charakterisiert erarbeitet. Beginnend mit einem Überblick über in Frage kommender Signalübertra-gungs- und Signalempfangsmöglichkeiten werden diese analysiert und un-tereinander verglichen. Hierbei werden aufgrund verschiedener für den Anwendungsfall erstellter Kriterien unterschiedliche Signalübertragungs-technologien (GSM-Sprache/DTMF, GPRS, Bluetooth, WLAN) und Signal-empfangseinrichtungen (DTMFHardware, DTMF-Software, Bluetooth-Empfänger, Applikationsserver) auf ihre Eignung hin evaluiert. Aus diesen Erkenntnissen werden in Folge zwei funktionsfähige Prototypen die eine Softwareapplikation durch DTMF-Töne bzw. mittels Bluetooth steu-ern verschiedener Technologien konzipiert, implementiert und abschlie-ßend auf ihre Eigenschaften hin getestet. Ein weiterer Bestandteil dieser Arbeit ist aufzuzeigen mit welchen Hilfsmitteln und Methoden Anwender in die Nutzung des Systems eingeschult werden. Gerhard Niederbrucker A Numeric Semantics for UML Class Diagrams: Methods and Tools Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Gernot Salzer Nowadays the Unified Modeling Language is the standard formalism people use to specify the structure as well as the behavior of object oriented systems. Since UML is not limited to any specific domain we will use a subset of UML class diagrams as formal base for describing functional units like hardware components and their relationships among each other. So we will 31 use UML class diagrams to set up specifications and want to create concrete configurations satisfying those specifications. We will present how to define the precise semantics of UML class diagrams by transforming diagram related questions to problems of integer linear programming. The definition of a precise semantics makes it possible to reason about diagram related questions formally and in our case even automated. For this purpose we will present a system called Clews which was developed in the context of this thesis. Clews offers the theory and reasoning tasks presented in this thesis in a fully automated way. So users of Clews do not need any knowledge about the formal background and just benefit from the formal reasoning done in the background. One of the principles of Clews is that it offers the reasoning tasks in an interactive way. For example the systems checks the consistency of specifications after each change by the user and immediately shows whether and where there are inconsistencies. Our semantics directly delivers partial configurations where all objects but no links are known. Therefore we will present novel techniques to solve a couple of important problems related to the creation of links. Because of the conceptual separation of creating objects and creating links we are also able to solve problems like extending or repairing given partial configurations with respect to given specifications. Martin Riener Integrating Theories into Inference Systems Studium: Masterstudium Computational Intelligence Betreuer: Univ.Prof. Dr. Alexander Leitsch The axiomatization of arithmetical properties in theorem proving creates many straightforward inference steps. In analyzing mathematical proofs with the CERES (Cut-Elimination by Resolution) system, it is convenient to hide these inferences. The central topic of the thesis is the extension of the CERES method to allow reasoning modulo equational theories. For this, the inference systems of Sequent Calculus modulo and Extended Narrowing and Resolution replace their non-equational counterparts in CERES. The method is illustrated by examples comparing inference modulo the theory of associativity and commutativity with unit element to inference in the empty theory. Edin Srndic Education of Emergency Personnel for the Adoption of an Electronic Triage Tag Framework Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund Training and education have long been accepted as integrant to disaster readiness, but many currently taught practices are neither evidence-based nor 32 standardized. The need for effective disaster training of emergency personnel at all levels has been designated by the disaster response community as a high priority. Triage is a process during emer-gency care which aims at maximizing the provided care in a situation where the availa-ble resources are limited by diagnosing injuries and categorizing patients into groups to determine the priority for treatment and transport. The electronic triage tag framework increases the quality and amount of medical care for patients in such situations and in-creases the efficiency of the entire triage process. This thesis evaluates the main charac-teristics and differences of a conventional triage system and an electronic triage system, utilizing RFID tags and a client/server approach based on wireless communication. In-formation gathering is performed by the mobile triage devices with integrated RFID reader. Adoption of mobile computing technology can potentially improve information access, enhance workflow, and promote evidence-based practice to make informed and effective decisions in the triage process. Handheld computers or personal digital assis-tants (PDAs) offer portable and unobtrusive access to clinical data and relevant infor-mation at the point of care. The education of emergency personnel during the chan-geover from the conventional triage system to the electronic triage system using mobile triage devices is the central part of this thesis. Arbeitsbereich Programmiersprachen & Übersetzerbau Günter Khyo Language Support for Linux Device Driver Programming Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Martin Ertl The success of any operating system is determined by the quality of device driver support. About 52% of the Linux kernel code is comprised by device drivers, accounting for app. 7.4 million lines of code. While managing such a huge code base is a challenge on its own, Linux device driver developers have to overcome additional obstacles.The complex, multithreaded programming model of the kernel creates a high potential for bugs and many of them result into kernel crashes.Drivers constitute the largest and most unreliable component of the kernel. This thesis analyses the root causes of the device driver reliability problem, and demonstrates how the current driver programming model can be improved to assist programmers in creating better driver code.To examine and test feasible improvements, a prototype language based on a subset of C was designed with the requirements on Linux driver development. CiD features additions for three essential device driver code aspects: concurrency, synchronization and hardware I/O. The compiler is programmed with basic rules of the concurrency model and is able to detect common mistakes that lead to deadlocks. Additional consistency checks support the programmer in generating correct hardware I/O code.Two 33 device drivers have been converted into CiD code to test the language extensions and the compiler. The results for concurrency and synchronization are satisfying: race conditions in the data-flow are reported with a false positive rate of 6 to 21%.The compiler generates correct concurrency and synchronization code, thus mitigating the potential for deadlocks. The results show that hardware I/O generator leaves room for improvement, since it generates 1.5 times more I/O operations than the original driver. Related approaches show that further optimizations can reduce the gap.In conclusion, the device driver programming can be made more robust with only minor alterations to the existing programming model and little compiler complexity. Daniel Priewasser Application Layer Multicast in constrained network topologies Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Privatdoz. Dr. Sandford Bessler I propose Managed Scribe as extension of the Scribe Application Layer Multicast (ALM) protocol to enable dynamic multicast delivery in constrained network topologies. Such topologies are available in the Internet Service Provider (ISP) domains for content distribution. Especially, in the domain of Internet backbone networks, the rise of new transmission techniques allows tremendous resource savings. Managed Scribe offers the opportunity to replace the legacy client/server-infrastructure by state of the art peer-to-peer technology. Moreover, the dynamic nature allows a plug and play placement of additional peer nodes. In scenarios of unpredictable user behavior, minimal configuration effort leads to easy bottleneck removal. As a result, it offers minimized resource usage during the transmission process. The implemented Managed Scribe system uses a role-based model to categorize participating nodes as source, proxy or client. The role of each participant is configurable and, therefore, in flexible scenarios a node is even able to change its role during the runtime. Furthermore, the dynamic load balancing implementation allows the administration to regulate the bandwidth distribution within the network. This flexibility makes Managed Scribe feasible for a wide range of target applications, ranging from push-video on demand services, towards multi-user conference applications. A discrete event simulator is used to show the correct operation of the prototype, the efficient multicast pathway creation and the efficient operation of the load-balancing algorithm. Manages Scribe has high potential to decrement the overall bandwidth consumption of the Internet. This thesis proves the feasibility of using the combination of Pastry and Scribe to achieve scalable and efficient multicast communication. This work is the basis for the implementation of applications that are based on multicast communication with the need of certain control over the tree structures. 34 Clemens Punzengruber Robotersteuerung mittels Genetic Programming fur die RoboCup Standard Platform League Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Jens Knoop This master thesis investigates how to generate control programs by means of Genetic Programming for the RoboCup Standard Platform League. In this league two teams of humanoid, autonomous NAO robots are competing in a game of soccer against each other. Instead of programming the whole skill set manually it is possible to use machine learning techniques to let the robots learn these skills by themselves. One such technique is called Genetic Programming, which allows to optimize a population of programs according to a defined fitness function. The goal of this thesis is to use Genetic Programming to generate programs which can position the robot to the ball as fast as possible and precise enough so that the robot is still able to play the ball. The thesis shows how the manufacturer built-in movement functions of the robot can be applied in a direct and natural way by the terminal and function set of the genetic program and can therefore be encoded into the genomes of the solutions. The actual evolution of the programs was realized by using a simulator to prevent the expensive robot hardware to suffer from wear and tear. This also made it possible to conduct the experiments without the need of supervision. A software framework was created to connect the simulator, the robot middleware and the used framework for evolutionary computation. The resulting infrastructure was then used with a genetic algorithm to find a stable walking parameter set for the simulator. This was a prerequisite for being able to successfully position the robot. The conducted experiments successfully generated programs which could position the robot to the ball. Compared to the manually coded reference solution the best evolved program conducted its task faster and still enabled the robot to play the ball. This held true both when using the simulator as well as when trying out the generated solution on a real robot. 35 Institut für Informationssysteme Arbeitsbereich Knowledge Based Systems Seif El-Din Bairakdar Local Optimization for Multi-Context Systems with Constraint Pushing Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus) Betreuer: O.Univ.Prof. Dr. Thomas Eiter Multi-Context Systems (MCS) are formalisms that enable the inter-linkage of single knowledge bases called contexts, via bridge rules. In this thesis, we focus on Brewka and Eiter-style heterogeneous nonmonotonic MCS and develop a novel distributed algorithm for computing the equilibria of such MCS. We examine previous approaches for distributed MCS evaluation that have been implemented as part of the DMCS system. Moreover, the notion of association rules and the process of association rule extraction from the data mining field are recalled. None of the available techniques addressed the issue of local optimization within a distributed evaluation, which is the motivation behind our work. Our approach for local constraint pushing (DMCS-SLIM), relies on the coupling of some optimization techniques for distributed MCS evaluation with local association rules extraction. We prove DMCS-SLIM to be sound and complete. Furthermore, we present a prototypical implementation, which is used for empirical evaluation. We performed exhaustive set of experiments against several runtime parameters of our system as well as comparisons with existing approaches. We observed that our approach has potential to surpass the current approaches. Stefan Bischof Implementation and Optimisation of Queries in XSPARQL Studium: Masterstudium Information & Knowledge Management Betreuer: O.Univ.Prof. Dr. Thomas Eiter XSPARQL is a language for transforming data between XML and RDF. XML is a widely used format for data exchange. RDF is a data format based on directed graphs, primarily used to represent Semantic Web data. XSPARQL is built by combining the strengths of the two corresponding query languages XQuery for XML, and SPARQL for RDF. In this thesis we present two XSPARQL enhancements called Constructed Dataset and Dataset Scoping, the XDEP dependent join optimisation, and a new XSPARQL implementation. Constructed Dataset allows to create and query intermediary RDF graphs. The Dataset Scoping enhancement provides an optional fix for unintended results which may occur when evaluating complex XSPARQL queries containing nested SPARQL query parts. The XSPARQL implementation works by first rewriting an XSPARQL query to XQuery expressions containing interleaved 36 calls to a SPARQL engine for processing RDF data. The resulting query is then evaluated by standard XQuery and SPARQL engines. The dependent join optimisation XDEP is designed to reduce query evaluation time for queries demanding repeated evaluation of embedded SPARQL query parts. XDEP minimises the number of interactions between the XQuery and SPARQL engines by bundling similar queries and let the XQuery engine select relevant data on its own. We did an experimental evaluation of our approach using an adapted version of the XQuery benchmark suite XMark. We will show that the XDEP optimisation reduces the evaluation time of all compatible benchmark queries. Using this optimisation we could evaluate certain XSPARQL queries by two orders of magnitude faster than with unoptimised XSPARQL. Mikolaj Koziarkiewicz A practical view of answer-set-programming transformations Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Hans Tompits The focus of this thesis is the examination of the practicality of applying known formal transformations of answer-set programs. Answer-set programming (ASP) is a formalism for declarative problem solving, based on the principles of non-monotonic reasoning. The research is started by constructing an overview of well-defined transformations existing in the scientific literature. We consider two systems of transformations -- one composed of certain syntactic transformations; the other of the semantic removal of rules and literals. This work then discusses algorithms for implementing applicability checking within the two systems, either existing ones from the literature, or new ones. Next, it is shown how to effectively process input data within the defined frameworks, utilizing properties related to the interactions between the transformations. With the help of a Python implementation, several data sets composed of answer-set programs are checked for transformation applicability, including: student-written programs, randomly-generated programs, and programs created by various front-ends for declarative problem solving. The results obtained show that the utility of applying the considered program transformations is quite low. Barring random input, only a small number of applicable transformation instances is found. Moreover, sequences of transformation applications are almost nonexistent. Hence, there is little gain in using the considered transformation for online or offline optimization. 37 Patrik Schneider Evaluation of Description Logic Programs using an RDBMS Studium: Masterstudium Computational Intelligence Betreuer: O.Univ.Prof. Dr. Thomas Eiter We propose a novel approach to evaluate description logic programs (dlprograms) using a Relational Database Management System (RDBMS). Such dl-programs are a state-of- the-art Semantic Web formalism of combining rules and ontologies, whereby rules are expressed as logic programs and ontologies are expressed in Description Logics (DL). In dl-programs a modular concept of plug-ins was introduced, which allows to combine dl-programs with different DL reasoner. Grounding in dl-programs is still considered a performance bottleneck, caused by having exponentially many rules to process. But for the success of the Semantic Web technologies, it is crucial to efficiently process vast amounts of data. The goal of this work is to show, that dl-programs can be efficiently evaluated by using RDBMSs. For this purpose we report on a prototype implementation, where SQL is generated by an existing DL-Lite reasoner, which is incorporated into a Datalog rewriter. For testing the prototype, we develop a benchmark suite with pure Datalog and Datalog/DL tests. Based on the benchmark suite, we produce experimental results. These results are used to compare the prototype with the reasoners of the DLV family. Dmitriy Solomakhin Logical Formalization of Semantic Business Vocabulary and Rules Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus) Betreuer: O.Univ.Prof. Dr. Thomas Eiter Artifacts such as laws, regulations and policies, use deontic constructs expressed in natural language to articulate human behavior, as well as alethic rules, describing what the organization takes things to be. In most cases such artifacts have a rather ambiguous semantics, which can hardly be formalized. But sometimes a logical framework can be built to provide automated tools for validation and verification of the artifacts. The most promising candidate for such a framework is a recently approved Semantics of Business Vocabulary and Business Rules (SBVR) standard. Despite existence of formally grounded notations, e.g. ORM2 specification language, up to now SBVR still lacks a sound and consistent logical formalization which allows developing solutions able to automatically test business models for consistency of regulations. This work reports on the attempt to provide logical foundations for the SBVR standard by means of defining a specific first-order deontic-alethic logic (FODAL) designed to capture the desired semantics of business rules. We also report on logical properties of the aforementioned formalization, such as completeness and soundness. Moreover, we studied its connections with other logical formalisms, including satisfiability reduction to the first-order 38 logic and the description logic ALCQI, which allows to obtain decidability results for a certain fragment of FODAL logic. As a result, a special tool providing automated support for consistency checks of a set of ALCQIexpressible deontic and alethic business rules was implemented. This tool was developed in the context of the ONTORULE FP7 project and became a part of the public deliverable. Addressing the objective of the project to combine rules and ontologies, we also implemented a translation of the aforementioned class of business rules into an OWL2 ontology, which facilitates integration with other modeling tools and fulfilment of the demand for automated solutions with reasoning support. Arbeitsbereich Database and Artificial Intelligence Michael Morak dynASP - A Dynamic Programming-based Answer Set Programming Solver Studium: Masterstudium Computational Intelligence Betreuer: Privatdoz. Dr. Stefan Woltran Answer Set Programming (ASP) is nowadays a well known and well acknowledged paradigm for declarative problem solving as can be seen by many successful applications in the areas of artificial intelligence and knowledge-based reasoning. Evaluating logic programs that follow the ASP paradigm is usually implemented as a two-step procedure: First, the grounding step (i.e. the instantiation of variables occurring in the program) and second, the actual solving process which works on ground logic programs. In this thesis we introduce a novel approach for dealing with the latter. Solving ground logic programs is, in general, still an intractable problem. Therefore most standard ASP solvers rely on techniques originating in SAT solving or constraint satisfaction problem solving. In contrast, the algorithm presented in this thesis was developed with techniques that stem from parameterized complexity theory. The idea here is to consider a certain problem parameter as bounded by a constant and thereby obtain a tractability result for the given problem. One such parameter which has lead to many interesting results is treewidth which represents the tree-likeness of a graph. Treewidth is defined in terms of tree decompositions which in turn can be used by dynamic programming algorithms to solve the problem under consideration. We introduce a novel dynamic programming algorithm based on the above approach that is specifically tailored for solving head-cycle free logic programs. Using a purpose-built framework for algorithms on tree decompositions, an actual implementation of the algorithm is presented, carefully evaluated and compared to existing ASP solvers. Experimental results show significant potential for problem instances of low treewidth. 39 Johannes Peter Wallner Hybrid Approach for Model-Based Random Testing Studium: Masterstudium Computational Intelligence Betreuer: Univ.Prof. Dr. Franz Wotawa Modern software testing comprises of many different techniques to cope with the complexity of nowadays software. Testers stand before the difficult task to enhance software quality on many levels. One main problem is the creation of meaningful test cases. It is infeasible to write test cases for every single possible input of a program, which leads to the problem, that not every aspect can be tested. There are especially rare inputs, which are difficult to obtain, for example for double errors. These events are usually seldom encountered in manually crafted test cases. Automated generation of test cases can help to overcome this problem, but still not every input can be tested in this manner, since we would need too many test cases for this. In this master thesis a method of random test case generation from a given model is studied. By using this random factor the enormous amount of test cases, which are needed can be addressed. With the tool-set Siemens IDATG a model of the software under test is specified from which random inputs are drawn. The model is represented as a graph and the test cases are random walks in that graph. To overcome the drawback that some areas of the model are rarely reached a heuristic search is added to increase the coverage of the graph and to get out of local minima. This hybrid combination of random testing and search heuristics was investigated in a case study. The results suggest that the hybrid approach covers the model of the software under test to a higher degree than pure random testing. Also defects, which are difficult to detect with systematic testing can be found with this method, since it can create combinations of inputs that are rarely tested. Arbeitsbereich Distributed Systems Hermann Czedik-Eysenberg Performance Test Language for Web Services Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Ass. Dr. Uwe Zdun During the development of Web services and their deployment to a specific target system, organizations need to evaluate if the Web service implementation and the hardware can meet the Quality of Service attributes specified in a Service Level Agreement. One important aspect are performance-related attributes, such as response time, throughput or scalability of the Web service. Typically tests which simulate client behavior are used to evaluate these attributes. In this thesis the domain-specific language QoSTIL (Quality of Service Test Instrumentation Language) is introduced. It allows for the 40 definition of tests and the composition of these tests to create complex test plans which can be used to simulate Web service client behavior and evaluate performance-related quality of service attributes of Web services. Language instances are automatically transformed to executable Java code and result presentation views. These can be used to run the defined tests and visually display the test results. The implementation of the domain-specific language follows the Model-Driven Development approach. Both the language model (abstract syntax), which is based on the meta-model defined by the Frag modeling framework, the concrete syntax, as well as the transformation to executable code are explained in detail in the thesis. To evaluate the utility and usability of the language a number of tests which are based on realistic business use cases for assessing certain performance-related quality of service attributes are defined and implemented. After the automatic transformation to executable code, the tests are run for specific Web services and the results are presented and discussed. Ursula Fida Context-based Multimodal Interaction for Mobile Collaboration Systems Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar Mobile devices and wireless networks give us the possibility to use the Web where ever we go, in all situations, at all times. But devices like PDAs have small displays and limited or even no keyboards. Enabling speech as an additional input and output mode will help to overcome these physical limitations. In a multimodal application the user may use his preferred mode or the most appropriate mode for the situation or he may use voice, keyboard, mouse and pen in a synergistic way. Moreover multimodal applications allow one-handed and hands-free operations. Mobile collaboration systems handle a lot of information so it is important for the user to get the right information at the right time and at the right place. Making the speech output and input context sensitive will prevent overloading the user with unwanted information and leads to better speech recognition rates. Markus Jung Distributed Request Rate Control and Secure Distributed Timestamping for Online Auctions Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Ass. Dr. Karl Michael Göschka Diese Diplomarbeit entwirft, implementiert und evaluiert (i) ein System für die adaptive Regelung von Client-Requests basierend auf einem PID Controller, (ii) ein verteiltes Zeitstempel Service auf P2P Basis, und (iii) einen JXTA41 basierenden P2P Layer, der in den beiden erstgenannten Teilen die Kommunikation verschiedener Nodes untereinander ermöglicht. Für die Evaluierung der einzelnen Teile wurde darüber hinaus eine Simulationsumgebung erstellt, mittels welcher das Verhalten der implementierten Protokolle für verschieden Parameter automatisiert getestet und ausgewertet werden kann. Die Simulationsumgebung erlaubt das direkte testen der Software in einer Testumgebung, sowie die Simulation der implementierten Protokolle im PeerSim P2P Simulator. Anton Korosec Deploying a Web Service Runtime Environment into the Cloud Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar Diese Diplomarbeit untersucht die Vor- und Nachteile des Einsatzes eines kommerziellen Cloud-Computing Angebots bei einer bestehenden ServerAnwendung. Das `Vienna Runtime Environment for Service-oriented Computing' (VRESCo) wird auf dem Institut für Informationssysteme der Technischen Universität Wien entwickelt und ist eine Web-Service-Laufzeitumgebung, die sich einigen der aktuellen Herausforderungen im Bereich der service-orientierten Architekturen (z.B. dynamisches Binden/Aufrufen, Metadaten-Unterstützung) annimmt. Das Ziel ist es, VRESCo mit Hilfe der 'Amazon Web Services' (AWS), die eine Reihe von Diensten für eine Rechenarchitektur in der Cloud bereitstellen, anzubieten. Die Anwendung soll nicht nur auf einer virtuellen Maschinen-Instanz innerhalb der Amazon-Cloud laufen, sondern es soll auch die aktuelle Datenbank durch einen der von Amazon angebotenen Cloud-Datenbank-Dienste ersetzt werden. Neben einigen Nachteilen (z.B. Latenz, Datenbank-Einschränkungen) wird erwartet, dass VRESCo insgesamt von den Vorteilen, die eine Cloud-Architektur mit sich bringt (Skalierbarkeit, keine Verwaltung, geringe Kosten, etc.), profitiert. Nach einer Einführung in die verwendeten AWS Dienste und deren zugrunde liegenden Konzepte werden die Schritte, die unternommen wurden, um VRESCo innerhalb Amazons Cloud-Architektur bereitzustellen, vorgestellt. Der Fokus liegt dabei vor allem auf dem Vergleich und der Bewertung der von Amazon angeboten Cloud-Datenbanken, sowie auf den Techniken (Caching, Lazy-Loading, etc.), die eingesetzt wurden, um eine möglichst optimale Leistung zu erzielen. Insgesamt zeigen die Ergebnisse, dass AWS für den Aufbau von Cloud-Architekturen, die es ermöglichen auf lokale Ressourcen zu verzichten, geeignet ist. Die Dienste sind nicht nur einfach zu bedienen, sondern lassen sich auch flexibel an die Bedürfnisse der Anwendung anpassen. 42 Michael Leibrecht A Tag Management System for Service Oriented Environments Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar In the past few years social networks and social enhanced media applications have experienced an enormous growth in popularity and gain in users that are registered to the respective platform. People can easily participate in global collaborations focused on content creation and content exchange. In order to have the necessary means for structuring and classification of the data, users often fall back on a technique known as tagging. Tagging allows the user to describe any kind of resource with any keyword, to specify the resources content, its behavior and give a simplified description of its properties. In comparison to social networks that are gaining more and more momentum, the evolution of Service Oriented Architectures precedes in a slower pace, mainly resulting from the complex requirements to establishing a general applicable work flow, and the economical obstacles that have to be considered when integrating third party services. Apart from these drawbacks there is room for improvement in other aspects as well, like the discovery and integration of published services. Applying collaborative concepts of social networks to Service Oriented Architectures and web service centered environments might result in a benefit for the producer, as well as for the consumer of a resource, since they can actively exchange about a services behavior and its properties. Experimental approaches of recommending similar services, that exploit the contextual and semantic relation of tags, extend common techniques and add an supplementary level of abstraction to the discovery of services. Stefan Prennschütz-Schützenau SOA Policy Validation and Authoring Studium: Masterstudium Medizinische Informatik Betreuer: Univ.Prof. Dr. Schahram Dustdar A common goal of policy-based/policy-driven management approaches is to enable practitioners to define high level directives for the enforcement of business policies and objectives, instead of manually configuring and auditing services. This thesis proposes a guided model-driven policy authoring method that leverages the Schematron standard for an XML Mediation between architectural and operational policies on the one, and, to different models, domains, and types in operational policies on the other hand. 43 Stanislav Tomic WSSL - Web Service Simulation Language Studium: Masterstudium Wirtschaftsinformatik Betreuer: Univ.Prof. Dr. Schahram Dustdar Um Service Orientierte Architekturen (SOA) zu testen, müssen realistische Testumgebungen geschaffen werden. Diese sollten verteilt und dynamisch sein, aber gleichzeitig die Möglichkeit der zentralen Steuerbarkeit bieten. Um diese Anforderungen zu erfüllen, muss der Tester die Möglichkeit haben auf einer abstrakteren Ebene zu arbeiten. Die Web Service Simulation Language (WSSL) bietet diese Möglichkeit. Mit Hilfe des Eclipse Modelling Frameworks (EMF) wurde ein Meta-Modell der Domäne geschaffen. Mit xText wurde aufbauend auf diesem Domänen-Modell die domänen-spezifische Sprache WSSL erzeugt. Diese Sprache ist als Eclipse-Plug-in verfügbar. Nach der Installation des Plug-ins können WSSL-Definitionen erzeugt werden. Der Entwickler wird dabei durch Syntax-Highlighting und Code-Vorschläge unterstützt. Mit WSSL können abgesehen von verteilten Systemen auch dynamische Verhaltensweisen beschrieben werden. Dies ermöglicht die Schaffung von verteilten Systemen die sich während der Laufzeit verändern und auf Änderungen in der Umgebung reagieren können. 44 Institut für Rechnergestützte Automation Arbeitsbereich Computer Vision Florian Dorn Detecting Falls in a Supportive Home Environment Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung Betreuer: Privatdoz. Dr. Martin Kampel This thesis discusses the use of computer vision for assisting elderly in the field of Ambient Assisted Living with Aging-in-place. Falling has been identified as a major health issue for elderly, especially for those that live independently. Therefore an abnormal activity recognition system for detecting falls is presented. Activity or event recognition has been gaining much interest in the computer vision community in recent years. The application area covers a wide range, from video surveillance and monitoring, human-computer interaction to augmented reality. The fundamental problem lies within the detection and modeling of Video events, the semantic concepts that humans perceive when observing a scene. When emulating this process with computer vision, the semantic content of the low-level input has to be abstracted with meaningful features. Finding reliable models for describing and recognizing events given these abstractions is the key part in event understanding. In order to detect falls reliably a multi-camera vision system is proposed. The image evidence is fused early and fall detection is performed in 3D space. This allows the computation of reliable, view invariant features. Fuzzy logic is used to estimate the membership of the currently observed features to different human motion models. Using a novel feature, which is presented in this work, the unexpectedness of a fall incident is modeled reliably. The evaluation shows, that the proposed approach is a reliable and computationally efficient fall detector. Stefan Fiel Automated Identification of Tree Species From Images of the Bark, Leaves or Needles Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig In this thesis a method for the automated identification of tree species from images of leaves, needles and bark is presented. In contrast to the current state of the art for the identification from leaf images, no segmentation of the leaves is necessary. Furthermore the proposed method is able to handle damaged and overlapping leaves. This is done by extracting keypoints in the image which allow the computation of local descriptors. With the help of a trained set of descriptors, a histogram of the occurrence of these descriptors 45 is generated which is then classified using a one-vs-all SVM. For images of the bark the same method is used which allows to build a system which can automatically distinguish between images of bark and leaves without calculating new features. Detected features within the needle images can be used for a classification. The needle endings are used to distinguish between fir and spruce needles. The proposed method is evaluated on three datasets which were provided by Österreichische Bundesforste AG (Austrian federal forests). The first dataset consists of 134 images of the leaves of the 5 most common Austrian broad leaf trees, the second dataset containing 275 images of the needles of the 6 most common Austrian conifers. The last dataset is containing images of the 1183 bark of these 11 trees. The classification rate for the leaf dataset was 93.6% and the classification rate of the bark dataset was 69.7%. Helmut Steiner Fully Automated Modelling, Localisation and Segmentation of 3D CT Hand Data Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig Da ein stetiger Anstieg der Benutzung von Computertomographie und Magnetresonanz bei der medizinischen Befundung und in Studien zu bemerken ist, müssen auch existierende Segmentierungsmethoden, wie Sparse MRF Appearance Models und Active Shape Models (ASMs), an die nun dreidimensionalen Daten angepasst werden, um zu funktionieren. Diese Diplomarbeit schlägt folgende Segmentierungspipeline für die Handhabung von dreidimensionalen Bilddaten vor: Für das Finden von Punktkorrespondenzen wird Minimum Description Length und Coherent Point Drift eingesetzt, um Point Distribution Models zu bilden. Die Lokalisierung von anatomischen Strukturen wird mit Random Forests und Discrete Optimisation bewerkstelligt, welche einen Startpunkt für die finale ASM Segmentierung liefern. Die vorgeschlagenen Methoden werden auf zwei unterschiedlichen Datentypen evaluiert. Einerseits werden CT Volumen von Händen von Patienten, die unter rheumatoider Arthritis leiden, für die Lokalisierung von Gelenksspalten und die Segmentierung der Daumenknochen Os Metacarpale I, Phalanx Proximalis Pollicis und Phalanx Distalis Pollicis benutzt. Andererseits werden zusätzlich synthetische Daten für Experimente zur Segmentierungsgenauigkeit generiert. Eine individuelle Analyse aller Methoden wird vollzogen, um von einander unabhängige Resultate zu erhalten. Die Lokalisierung anatomischer Strukturen ist hinreichend genau um die Knochensegmentie- rung mittels ASMs zu initialisieren. Falls das Objekt im ungesehenen Bild sich innerhalb des Suchbereichs des ASM befindet, werden präzise Segmentierrungsresultate erzielt. Fälle in denen die ASM Suche nicht erfolgreich ist, werden analysiert, um die Ursachen des Scheiterns zu finden. Diese und andere Probleme, die sich beim Testen der Methoden ergaben, werden aufgezeigt und Lösungsvorschläge zu deren Bewältigung gegeben. 46 Arbeitsbereich Automatisierungssysteme Thomas Abinger Ansätze für selbstlernendes Systemverhalten in der Heimautomation Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner Diese Arbeit verfolgt die Idee, ein Haus oder Gebäude zu schaffen, das sich automatisch an die Bedürfnisse und Wünsche der Bewohner anpasst. Damit sich ein Bewohner bei einer bestimmten Tätigkeit wohlfühlt, sind oft mehrere Betriebsparameter aus technischen Systemen unterschiedlicher Gewerke aufeinander abzustimmen. Weiters sollen individuelle Eigenschaften des Gebäudes in die Steuerung und Regelung mit einbezogen werden. Stehen unterschiedliche Alternativen für eine Steuerung/Regelung zur Verfügung, soll die kostengünstigste Option gewählt werden, ohne dabei den Komfort der Bewohner zu schmälern. In dieser Arbeit werden in zwei Schwerpunkten Mittel untersucht, selbstlernendes Systemverhalten in der Heimautomation umzusetzen. Der erste Schwerpunkt liegt auf der Frage, wie mit Hilfe künstlich neuronaler Netze die komplexen Einflussfaktoren Mensch, Gebäude, Gebäudetechnik und Umgebung in einem intelligenten Heizungsregelkreis gefasst werden können. Die für diesen Zweck erstellten künstlich neuronalen Netze sind vom Typ der Feed Forward-Netze, Jordan-Netze und Simple Recurrent Networks und verändern nach einem zeitlichen Raumbelegungsplan, den Raum- und Außentemperaturen sowie der aktuellen Uhrzeit den Sollwert eines herkömmlichen Heizungsreglers. Die so gegenüber einer herkömmlichen, rein uhrzeitabhängigen Strategie erzielbare Effizienzsteigerung wird in einer physikbasierten Simulation bestimmt. Der zweite Schwerpunkt liegt auf der Strukturierung der komplexen Steuerungsaufgaben im Rahmen eines selbstlernenden Softwaresystems. Die Lern- sowie Steuerungsund Regelungsaufgaben werden dazu als Multiagentensystem abgebildet. Verschiedene, an diesen Aufgaben orientierte Agententypen werden modelliert und deren dynamisches Zusammenspiel betrachtet. Rana Ansari Netzwerk-Simulations-Tools für den Einsatz im Unterricht Studium: Masterstudium Informatikmanagement Betreuerin: Ass.Prof. Dr. Monika Di Angelo Im Bereich der Netzwerktechnik sind bei potenziellen Arbeitgebern Praxiskenntnisse sehr gefragt. Allerdings sind dedizierte Netzwerklabore teuer und müssen, zusätzlich zu den Anschaffungskosten, laufend technischem Support und Wartung unterzogen werden. Daher wird der schulische Netzwerkunterricht großteils theoretisch gehalten. Durch die mangelhafte Ausstattung der Schullabors ist die Dimension, in der Konzepte vermittelt werden können, sehr beschränkt, d.h. in den Labornetzwerken können nur 47 Netzwerke mit geringer Teilnehmerzahl simuliert werden. Diese Arbeit setzt sich mit möglichen Lösungen für dieses Ressourcenbzw. Kostenproblem bei der Verwendung von dedizierten (echten) Netzwerklabors auseinander. Das Problem wird durch den Einsatz interaktiver Lehr- und Lernmittel (Netzwerksimulatoren) für die Verbesserung der Unterrichtsqualität im Fach Netzwerktechnik des 3. Jahrgangs einer HTL für Informationstechnologie gelöst. Es wurde nach passenden Werkzeugen für den Unterricht gesucht und die drei am besten geeigneten miteinander verglichen. Dem folgen Vorschläge für die Umsetzung in den jeweiligen Jahrgängen 3 bis 5, wie beispielsweise in Form von praktischen Unterrichteinheiten (Labors) für die Umsetzung im Netzwerkunterricht laut Lehrplan des 3. Jahrgangs der HTL Informationstechnologie mit dem iNetwork-Simulator. Markus Arzberger Lernprozesse zur Aufklärung und Bewusstseinsbildung bezüglich Energieverbrauch Studium: Masterstudium Informatikmanagement Betreuerin: Ass.Prof. Dr. Monika Di Angelo To develop a “learning processes to create an awareness according to the usage of energy” means, first of all, to get information about energy flows and to learn who is causing it. After looking into the figures, it turns out that this is not sustainable at all and therefore will not work for long. Another challenge is to find out what are the key elements when it comes to the creation of awareness towards a more sustainable way of life. It is a major task to achieve this goal primary through self-awareness. It follows a change which is done voluntarily and not caused by forcing people through laws, interdictions and fines. For the scope of this paper only the energy interplay (input, output) within Austria has been taken into account and was compared to other countries. A simulation, which is executed in Consideo Modeler, shows the models behaviour until 2100; in this paper the model is Austria. Another element is the questionnaire with the intention to build a connection between awareness and creation of knowledge. Keywords describe its content as: actual condition (Austria); ability of transformation (CO2); maximum; population (responsible for CO2 output due to: mobility, heating, consumption...); driver (cars, planes, whats their output?); allocation of CO2 emissions. In a pedagogic approach of discovering, cognition and discussion the target groups become motivated, to voluntarily change habits in the fields of mobility and housing. The surveys results affect the learning platforms concept, which was created in order to increase awareness about energy consumption. 48 Andreas Brauner Requirements engineering and prototype of a currency market data system in a volatile nancial service management Studium: Masterstudium Wirtschaftsinformatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Mit der steigenden Durchdringung von IT Systemen in Unternehmen wuchsen sowohl die Anforderungen bezüglich Stabilität, Zuverlässigkeit, Wartbarkeit als auch die Erwartungshaltung bezüglich kontinuierlicher Verbesserung. Durch die historische Entwicklung in den letzten Jahrzehnten sind IT Systeme zerklüftet und Redundanzen herrschen vor. Es ist eine Herausforderung komplexe, unabhängige Systeme miteinander zu verknüpfen und gleichzeitig die Benutzerfreundlichkeit, Zuverlässigkeit, Sicherheit, Verfügbarkeit, Fehlerausfallsicherheit und Wartbarkeit zu erhöhen. Das Ziel dieser Studie ist die Recherche der Anforderungen eines vereinheitlichten und vereinten Marktdatensystems in einer komplexen IT Umgebung als Fallstudie und die Analyse von Implementierungsmöglichkeiten in einer Bank. Die Motivation kommt aus der erwarteten Qualitätsverbesserung der Kennzahlen und der Möglichkeit Kennzahlen von unabhängigen System miteinander vergleichen zu können, da sie auf den selben Daten basieren. Die Anwendbarkeit von Mustern wird anhand eines Prototyps gezeigt. Gesetzesänderungen, aufsichtsrechtliche Behörden und die interne Revision tragen zu wachsenden Anforderungen von IT Systemen bei. Der gewählte Ansatz besteht aus dem Verstehen der historischen Entwicklung, der Analyse des aktuellen Status, der Festlegung von Anforderungen für das neue System und dem Ausloten von Implementierungsmöglichkeiten. Abschließend zeigt ein allgemeiner Implementierungsplan, dass eine tiefgehende Analyse des aktuellen Status und die Anwendung von Standardverfahren ein nachhaltiger Weg zur Vereinheitlichung von IT Systemen sind. Stefan Buchwalder Accessibility von blinden und sehbehinderten Benutzern bei ERP-Systemen Studium: Masterstudium Wirtschaftsinformatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Durch den Anstieg der Informations- und Kommunikationstechnologie entstehen immer mehr Computerarbeitsplätze, die eine Auseinandersetzung und Interaktion mit Softwareapplikationen, Computersystemen und im Speziellen Enterprise Ressource Planning (ERP) Systemen erfordern. Um blinde und sehbehinderte Menschen erfolgreich in den Arbeitsmarkt integrieren zu können, ist die Accessibility der ERP-Systeme Grundvoraussetzung. Aufgrund der Komplexität dieser Systeme ist eine effiziente und zufriedenstellende Zugänglichkeit jedoch nur schwer zu erreichen und es treten unterschiedliche Barrieren bei der Interaktion auf. Im Rahmen dieser Arbeit wird durch eine Kombination und Anpassung von bereits bestehenden 49 Web Accessibility Richtlinien, individuellen Richtlinien von Geschäftssoftwareherstellern und aufbauend auf den Erkenntnissen aus einer eingehenden Literaturrecherche ein Leitfaden für die Accessibility von ERP-Systemen erstellt. Ausgehend von diesem literaturbasierten Leitfaden und der Literaturrecherche wird eine qualitative Studie durchgeführt um bestehende Probleme und Anforderungen von der Zielgruppe der blinden und sehbehinderten Benutzer zu erheben und Schwachstellen in den bereits existierenden Accessibility Lösungen aufzuzeigen. Diese gewonnenen Informationen werden in einem weiteren Schritt einer strukturierten Datenauswertung unterzogen und in den literaturbasierten Accessibility Leitfaden eingearbeitet. Das Ergebnis dieser Arbeit stellt schlussendlich ein umfassender Accessibility Leitfaden dar, der in der Entwicklungsphase eines ERP-Systems eingesetzt werden sollte um die Zugänglichkeit und Bedienbarkeit von ERP-Systemen für blinde und sehbehinderte Benutzer effizienter und barrierefreier zu gestalten. Sandra Dannhauser Design, Umsetzung und Evaluierung der Akzeptanz eines Content Management Systems für den betriebsinternen Informationsaustausch eines Großunternehmens Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Besides its focus on the adoption of a content management system (CMS), this paper also discusses the development processes and future extensions of CMS, including different scopes of functionality. In this regard, the various fields of MOSS 2007 are tested with two test groups, A and B, representing the future target group of the new system. This test proved the organization and preparation of content in MOSS 2007 to be satisfactory, despite certain drawbacks: the manipulation of the new system is still not intuitive enough for users. Analysis in this paper is based upon a usability test. The theoretical basis of this test is the usability engineering theories of Jakob Nielsen, as well as the Criteria Check List promulgated by Baumgartner, Häfele und MaierHäfele. Moreover, the test is structured according to the common industry format (CIF) for standardization purposes. The theoretical bases for understanding user interaction with the new system are usability, humancomputer-interaction, and user-centered-design. Universal usability also plays a prominent role in the analysis because users are still restricted in using different functions or even products. Apart from this, simple failure of communication and violation of company guidelines contributed greatly to user frustration. This paper focuses on a multinational companys transition to a new intranet system, Microsoft Office SharePoint Server 2007 (MOSS 2007). It examines the problems encountered during the transition period, as well as user satisfaction and certain recurring problems during the adoption of the new system. 50 Vladimir Drienovsky On redirection patterns in spam Studium: Masterstudium Information & Knowledge Management Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner Spam e-mails often contain URLs that redirect users to another website in order to sell goods or steal user information. This redirection technique is used commonly among spammers to evade spam filters that match URLs against a blacklist. In the context of this thesis, the most prominent redirection techniques were classified and described with real-world examples to evaluate the findings. Additionally, a system for parsing and evaluating URL addresses has been developed and deployed. It has been subsequently applied to extract, crawl, and analyze the URL addresses found in a spam feed, focusing on redirection behavior. Finally, results were evaluated and the conclusion was reached that client-side redirection had been used predominantly in situations where spammers were not in total control of the hosting environment (e.g. compromised web sites). Server-side redirection, on the other hand, had been put to use above all by URL shortening services. These have become a popular tool among spammers. Markus Freudenthaler Exemplarische Sicherheitsanalyse und Sicherheitsanforderungen an eine Arztpraxis in Deutschland Studium: Masterstudium Wirtschaftsinformatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig In the year 2003, the German Federal Government made the decision to establish a nationwide electronic health card. This chip card was planed to be the successor of the health insurance card used until then. Aside from her characteristic as an electronic identification card, the eGK offers a lot more functionalities. At the same time, besides the optional electronic prescription, it is possible to save sensitive health information like emergency information on the chip. On one side, advantages and new possibilities for the patients are created, on the other side, it is important to minimize the risks of unauthorised access to this data. That way, the data protection becomes especially important. This diploma thesis aspires to develop appropriate safety requirements for a medical practice based on the architecture of the eGK. At the beginning, the necessary basic principles are defined. On one hand, the main points are the particular components of electronic data transmission infrastructure and on the other hand, it is important not to forged about IT-security in general. Afterwards, an example for a medical practice in the environment of the eGK will be defined as well as possible safety risks will be explained. With the help of the definition of these risks, the particular safety requirements and the resulting technical and organizational solutions will be determined. 51 Martin Glettler Performance Measurement und Optimierung anhand der E-Government Applikation ZMR des Bundesministerium für Inneres Österreich Studium: Masterstudium Information & Knowledge Management Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Aus der zunehmenden Konvergenz von Leistung und Leistungsbedarf aktueller Systeme resultiert seit einigen Jahren eine Tendenz hin zu mehr Qualität in der Softwareentwicklung. Der Grad an Qualität beeinflusst Performance, wobei diese für stark frequentierte Systeme immer häufiger ein Problem darstellt. Im Rahmen der vorliegenden Arbeit werden im System ZMR - Zentrales Melderegister Österreich des Bundesministerium für Inneres (BM.I) mittels Methoden der Performancemessung akkurate Benchmarks erzeugt, um eine Optimierung des Systems hinsichtlich Leistung und Performance vorzunehmen. Mit hohen Anforderungen an Verfügbarkeit und Performance mit über 6.5 Mio. aufgerufenen Geschäftsfällen pro Monat und über 9 Mio. verwalteten Personen stellt das ZMR System ein geeignetes Fallbeispiel für ein Optimierungsprojekt dar. Die Tatsache dass Leistungsgrenzen moderner JEE Architekturen im Bezug auf Durchsatz und Datenhaltung ausgereizt werden ist ein weiterer wichtiger Aspekt. Die Architektur des Systems unterliegt einem kontinuierlichen Wachstumsprozess, wie er häufig bei inkrementellen Systemen, welche kontinuierlich weiterentwickelt werden, auftritt. Im Zuge der Arbeit werden dadurch unterschiedliche Ansatzpunkte mit Fokus auf reelle Optimierungspotenziale beispielsweise durch Datenbanktunings oder den Einsatz effizienterer Methoden und Bibliotheken zur XML Transformation behandelt. Markus Grössing Task Scheduling in Time Triggered Real Time Systems Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner Modern automotive applications are highly distributed systems with a large number of electronic control units involved. Together they improve the vehicles fuel economy, minimize malicious exhaust gases, reach a higher level of safety for the passengers and provide a number of comfort and entertainment functions. Some of the subsystems are highly safety critical and need to meet hard deadlines. An essential factor for a safety critical, distributed real-time system is the communication medium connecting all participating nodes. The communication system should support fault tolerance and provide real-time functionality as e.g. a common time base. Another requirement for the communication system is flexibility while still being understandable and easy to design. Therefore, the automotive industry agreed to specify a communication protocol to be used as an industry 52 standard. The name of this ommunication protocol is FlexRay. The context of this thesis is a project at Elektrobit Austria GmbH in cooperation with Vienna University of Technology. A FlexRay-to-FlexRay router was implemented to forward communication between two FlexRay clusters with different configurations. The objective of this thesis was to design a tool to merge the schedules of both clusters and generate a dispatch table for the router node to schedule communication tasks. The generated schedule should minimize communication delay across the router as far as feasible and still be flexible and adjustable. The phase shift between both clusters is configurable by the user. Additionally to the communication tasks, also user tasks running in the router can be scheduled. Markus Gruber Theoretische und empirische Analyse von VoIP-Angriffen basierend auf Daten von Honeynets Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Die steigende Anzahl an Benutzern und die mangelhaften Sicherheitsmechanismen machen Voice over IP (VoIP)-Systeme bei Angreifern immer beliebter. Um sich gegen die Flut an Angriffen schützen zu können, ist es erforderlich, so viele Informationen wie möglich über VoIP-Angriffe zu sammeln, um geeignete Sicherheitsmaßnahmen treffen zu können. In dieser Arbeit werden aufgezeichnete VoIP-Angriffe analysiert und ausgewertet. Die Auswertungen zeigen Häufigkeiten der Angriffe, örtliche und zeitliche Eigenschaften von Angriffen, verwendete Angriffsmuster sowie Verhaltenseigenschaften von Angreifern auf. In korrelierenden Auswertungen werden Unterschiede zwischen den Angriffen in einem ungesicherten Bereich und einer universitären Einrichtungen aufgezeigt. Markus Huber Eclipse Plug-In for the evaluation and visualization of historical SVN-data Studium: Masterstudium Wirtschaftsinformatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Software Repositories stellen einen Fundus an Meta-Information über die Entwicklungs- und Wartungstätigkeiten eines Software-Projekts dar. Eine Form dieser Meta-Information, die einen hohen Informationsgehalt bietet, ist die textuelle Beschreibung von Quell-Code-Änderungen, die ein Entwickler während des Einspielens dieser Änderungen in ein Repository verfasst - die sogenannte Commit-Message. Im Zuge dieser Arbeit wird versucht, basierend auf einer sprachlichen Analyse von Commit-Messages, eine Kategorisierung der atomaren Tätigkeiten der Entwickler vorzunehmen. Durch das Identifizieren von Gemeinsamkeiten in verschiedenen Open-Source-Software-Projekten 53 wird ein Wörterbuch erstellt, das als Wissensbasis für die Kategorisierung herangezogen wird und Allgemeingültigkeit für die Domäne der OpenSource-Software besitzt. Die vorgestellte Kategorisierungs-Methode wird an verschiedenen Open-Source-Software-Projekten angewandt und die Ergebnisse evaluiert. Das im Zuge dieser Arbeit entwickelte Eclipse Plug-in automatisiert die vorgestellte Kategorisierungs-Methode und stellt diese allen Eclipse-Anwendern zur Verfügung. Mit Hilfe des Plug-ins können Analysen über die Wartungs-Historie von Software-Projekten direkt aus der EclipseProgrammierumgebung durchgeführt werden. Christine Markowitschka Lua - Skriptsprache für "World of Warcraft" Addons Studium: Masterstudium Informatikmanagement Betreuerin: Ass.Prof. Dr. Monika Di Angelo Lua is a scripting language which became popular through computer games. This language is used to write addons for different games such as "World of Warcraft" published by Blizzard Entertainment. WoW like most people call it, is a role-playing game which many play together over the internet. Blizzard allows its users to customize the user interface through an OpenAPI. All around the world millions of people play "World of Warcraft" and most of them use addons because they are exchanged for free. But there are only a few people who are able to write them because most of the gamers don't have the knowledge of programming. It is the target of this work to develop a course which gives enthusiastic players the opportunity to learn lua in order to create their own addons and implement their ideas. There is also a focus on didactics within the work. Both the programming language and the development environment are tested for their suitability for people who are not used to programming. The course consists of 20 lessons à 45 minutes and is built-on different teaching methods to keep the students interested and motivated. Another focus is on Blended Learning so there won't be just face-to-face instructions but also a virtual learning environment which will help the students to repeat the learning matters and to practise them. Zheela Pourkalbasi Lernplattformen für Persisch Studium: Masterstudium Informatikmanagement Betreuerin: Ass.Prof. Dr. Monika Di Angelo Für Kinder mit Migrationshintergrund gestaltet sich der Erwerb der Sprache des Gastlandes oft als schwierig. Das ist auch darauf zurückzuführen, dass der Erwerb einer Zweitsprache besser gelingt, wenn die eigene Muttersprache gut beherrscht wird. Zumeist jedoch wird die Entwicklung der Muttersprache dieser Kinder mit dem Schuleintritt abrupt abgebrochen. Der Erwerb der 54 Muttersprache in einem fremden Land bringt verschiedene Probleme mit sich. Eine Lernplattform kann solche Schwierigkeiten verringern: Die SchülerInnen werden motiviert, nicht nur an Wochenenden in der Sprachschule, sondern kontinuierlich auch von zu Hause aus mitzulernen. Da der Iran die höchste Emigrationsquote unter den Entwicklungsländern hat, wird im Rahmen dieser Arbeit eine Lernplattform für Persisch implementiert. Aufgrund der Eigenheiten der persischen Sprache (Rechtsschreibweise) und des persischen Kalenders ergeben sich besondere Anforderungen an die Lernplattform. Diese Anforderungen und weitere Aspekte des Sprachlernens werden in einem Kriterienkatalog zusammengefasst, um danach Lernplattformen auf ihre Tauglichkeit für den Sprachunterricht allgemein, und für Persisch im Speziellen evaluieren zu können. Die am besten geeignete Lernplattform wird dann für den Sprachunterricht vorbereitet, d.h. notwendige Änderungen werden durchgeführt bzw. implementiert. Danach wird der eigentliche Per-sisch-Kurs umgesetzt, der letztendlich in einer Sprachschule oder auch als e-LearningPlattform für selbstgesteuertes Lernen eingesetzt werden soll. Peter Smejkal Informatik an Österreichs Schulen in der Sekundarstufe I Studium: Masterstudium Informatikmanagement Betreuerin: Ass.Prof. Dr. Monika Di Angelo Informatikunterricht wird derzeit im Lehrplan für Österreichs Allgemeinbildenden Höheren Schulen (AHS) nur in der neunten Schulstufe als zweistündiges Fach verpflichtend geführt. In der heutigen Gesellschaft ist der Computer ein nicht wegzudenkendes Standardinstrument, was sich in den Lehrplänen kaum widerspiegelt. Es gibt zwar ausgearbeitete Standards für den Informatikunterricht, welche jedoch derzeit weder in der AHS noch im Pflichtschulbereich bindend sind. Diese Situation führte dazu, dass sich auch außerhalb des Lehrplans an vielen Schulen Angebote für Informatikunterricht etablierten, die durch die autonome Lehrplanbestimmungen der jeweiligen Schulen selbst entworfen wurden. Diese Gründe stellen die Motivation für die vorliegende Arbeit dar, welche das aktuelle Informatikangebot und dessen Form an Österreichs Schulen in der Sekundarstufe I ermittelt und erörtert. Im ersten Schritt wurden zur Datenerfassung der Angebote des Informatikunter- richts in Österreichs Schulen der Sekundarstufe I E-Mails an die Gymnasien und Hauptschulen aus ganz Österreich verschickt. Zusätzlich wurde eine Recherche nach Stundentafeln und eventuellen freiwilligen Angeboten für Informatik basierend auf den Websites aller Schulen durchgeführt. Zur Ergänzung der erhobenen Daten wurden schließlich einige Schulen telefonisch kontaktiert. Nach der Erhebung der Daten erfolgte die Auswertung anhand verschiedener Kriterien. Die Ergebnisse dieser Studie zeigen, dass es österreichweit bereits schulautonome Angebote an Gymnasien sowie in Hauptschulen gibt. Im Bundesländervergleich dieser Angebote liegen vor allem Kärnten, die Steiermark, Oberösterreich und Vorarlberg im Spitzenfeld. Die Bundeshauptstadt Wien rangiert am hinteren Teil der Statistik und scheint den 55 anderen Bundesländern hinterherzuhinken. Hervorzuheben ist, dass sich in den letzten zehn Jahren eine große Anzahl an unterschiedlichen Freifächern zum Thema Informatik entwickelt hat. Edin Srndic Requirement Evaluation of an Electronic Triage Tag Framework and Prototype Implementation of a mobile Triage Tag Device Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Many medical areas such as diagnose, treatment and patient care benefited from the application of IT-infrastructure ranging from complex architectures to small monitoring devices providing better access to information, more efficient data exchange and increased data processing. The goal of this thesis is to bring these benefits to the field of emergency care. Triage is a process during emergency care which aims at maximizing the provided care in a situation where the available resources are limited by diagnosing injuries and categorizing patients into groups to determine the priority for treatment and transport. Our intent is to increase the quality and amount of medical care for patients in such situations by introducing electronic Triage Tags to increase the efficiency of the entire triage process. Hence, this thesis evaluates the core requirements and deduces a framework for an electronic Triage Tag, util-izing RFID tags and a client/server approach based on wireless communica- tion. Information gathering is performed by the mobile triage devices with integrated RFID reader. Finally, the thesis presents a simple proof of concept application. Alen Suljagic E-Learning in der Lehrlingsaus- und Weiterbildung Studium: Masterstudium Informatikmanagement Betreuerin: Ass.Prof. Dr. Monika Di Angelo Es ist beinahe nicht mehr möglich, sich Bildung ohne den Einsatz des Internets vorzustellen. In diesem Kontext gewinnt E-Learning auch in beruflichen Aus- und Weiterbildung immer mehr Bedeutung. Das große und bis jetzt nicht vollständig ausgeschöpfte Potenzial des Internets wurde in letzten Jahren auch im Ausbildungssektor der Systemgastronomie spürbar. Dies wird durch bereits vorhandene Statistiken und zahlreiche Beispielen aus der Praxis belegt. In dieser Arbeit wird analysiert, in wie weit der Einsatz von E-Learning Technologie in der systemgastronomischen Lehrlingsausbildung auf Akzeptanz stößt und ob die technische Möglichkeiten einer Lernplattform Verbesserungen im bisherigen Unterricht mit sich bringen. Es erfolgt eine grundlegende Einführung in E-Learning, Lerntheorien, Blended Learning und die Lernplattform Moodle. Anhand eines erstellten Moodle- Kurses für die Lehrlingsausbildung werden die Möglichkeiten dieser Lernplattform dargestel56 lt. Den Schwerpunkt dieser Arbeit stellt eine Untersuchung der Akzeptanz von E-Learning, bzw. Blendend Learning seitens der systemgastronomischen Lehringe dar. Die Akzeptanz an dieser Art des Lernens wird mittels qualitativen und quantitativer Methoden überprüft. Heinz Unterberger Entwurf einer Personen-zentrierten, Use-case orientierten Klassifikation und Evaluierungsmethode zur Datenhaltung besonders schützenswerter (medizinischer) Daten in e-Health-Rechenzentren Studium: Masterstudium Wirtschaftsinformatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Durch die fortschreitende Vernetzung verschiedenster Gesundheitsdienstanbieter (GDA) und die geplante flächendeckende Einführung einer elektronischen Gesundheitsakte (ELGA) in Österreich, wird das Thema Datenhaltung und Datensicherheit besonders schützenswerter (medizinischer) Daten immer wichtiger. Das Ziel der vorliegenden Arbeit ist es, mit Hilfe eines exemplarischen Beispiels eines Anforderungskataloges, in dem die durchzuführenden Arbeiten bei Sicherheitsproblemen grafisch und schriftlich aufgearbeitet werden, die sichere Datenhaltung und Datenverarbeitung von besonders schützenswerten (medizinischen) Daten in einem e-Health-Rechenzentrum zu verbessern. Um einen Überblick über den aktuellen gesetzlichen Datenschutz in Österreich zu geben, werden die für die Verarbeitung von besonders schützenswerten Daten relevanten Gesetzestexte zusammenfassend dargestellt. Durch die Beschreibung und Vorstellung von Schutzzielen, die Erläuterung eines Informationssicherheitsmanagement (ISMS) Prozesses, inklusive einer kurzen Erläuterung der im ISMS durchgeführten Schritte und die Darstellung von verschiedensten IT-Dokumentationen, werden die für den Entwurf, die Implementierung und Umsetzung des in der vorliegenden Arbeit konzipierten Anforderungskatalogs essentiellen Grundbausteine definiert. Andreas Walch Entwurf, Realisierung und Tuning der grafischen Konzepte für ein großes, Web-basiertes Studienverwaltungssystem Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Based on the theoretical basics of Graphic- and Web-Design, four design drafts for TU-Wien Informations-Systeme und Services (TISS) are presented in this work. TISS is a development project hosted by the Vienna University of Technology which seeks to implement information and communication systems for teaching, research and business. For the web channel, the design of an interface is needed that, on the one hand enables to model all 57 functions of the system beneath, and on the other hand gives the user the ability to achieve his tasks with efficiency and effectiveness. To accomplish a rich visual communication, practices, experience and techniques from the print-design are mapped to the medium of web. Thus the inherent aspects of the latter are enriched. With this goal in mind, the theoretical basics of graphical modeling are described from the viewpoint of Web-Design. The human visual recognition is shaped by the knowledge of space and form as well as by certain design principles, color and pictures. For web designing tasks it is crucial to know the typical structure of a website, navigation elements, typical web layouts, grid systems and wireframes. Typographical elements such as letters, words, lines visualized in a practical context are the basis of nearly every communication. With user centered design and usability methods the user steps into the focus of attention. No design decisions happen without considering the user. On the basis of these theoretical aspects, four Designs are presented. With references to the theory the chosen design approach is described and the requirements are presented. The central part however is the presentation of the achieved results with special focus on the finally chosen design work. A connection between theory and implementation is drawn, and the importance and benefit of rich visual communication elucidated. Christian Wallek Neukonzeption der Infrastrukturbereiche im Anforderungskatalog des EGovernment-Gütesiegels Studium: Masterstudium Wirtschaftsinformatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Aktuell können in Österreich Anwendungen auf Antrag mit dem EGovernment-Gütesiegel ausgezeichnet werden, wenn sie bestimmte Anforderungen erfüllen. Das Gütesiegel soll als Qualitätsmerkmal für Bürger, Unternehmen und Behörden gelten. Ziel dieser Arbeit ist es zu untersuchen, ob das österreichische E-Government-Gütesiegel den aktuellen technischen Standards entspricht. Identifizierte Erneuerungsmöglichkeiten (Anpassungsbzw. Erweiterungspotentiale) von Anforderungen an das E-Government-Gütesiegel, werden in dem, im Zuge dieser Arbeit, ergänzten Anforderungskatalog reflektiert. Im ersten Teil der Arbeit wird der Aufbau des E-GovernmentGütesiegels anhand bestimmter Kriterien untersucht und beschrieben. Bereits an dieser Stelle sollen Erneuerungsmöglichkeiten bzgl. Strukturierung und Inhalt des E-Government-Gütesiegels identifiziert werden. In weiterer Folge wird ein Vorgehen erarbeitet und dargestellt, welches die Analyse der einzelnen Anforderungsgruppen (so genannte Labels) auf deren Aktualität und Vollständigkeit ermöglichen soll. Bei diesem Vorgehen werden die aktuell eingesetzten Technologien und Standards auf ihre Aktualität hin untersucht. Weiters werden Technologien, Standards und Anforderungen aus den Referenzländern Deutschland und Schweiz mit den österreichischen Anforderungen verglichen, um neue bzw. ergänzende Aspekte für die 58 untersuchten Anforderungsgruppen in Österreich zu identifizieren. Zur Verdeutlichung und Validierung des entwickelten Vorgehens werden in weiterer Folge unter dessen Anwendung die Anforderungsgruppen Formular und Infrastuktur, untersucht. Das Label Formular behandelt Kriterien für die Erfassung und den Austausch von Daten über elektronische Formulare. Das Label Infrastruktur wiederum umfasst Kriterien, welche die Sicherheit und das korrekte Verhalten von E-Government-Anwendungen sicherstellen sollen. Abschließend werden Empfehlungen für die Erneuerung der untersuchten Labels gegeben. Peter Weishapl Physical Behavior of Virtual Objects and its Impact on User Experience: A Case Study using Card Sorting Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig This diploma thesis explores how physical behavior of virtual objects affects the per- ceived pragmatic and hedonic quality of interactive products as well as peoples judgements of its goodness and aesthetics. The thesis proposes a model of user experience (UX) to explain how users perceptions and judgements of a product are influenced by its features. It does so by incorporating theories about aesthetics and emotions into the hedonic/pragmatic model of UX. It argues that physical behavior of virtual objects can be considered aesthetic, and thus result in a better user experience. To verify the impact of physical behavior, I built a prototype for conducting card sorting tasks on an Apple iPad. Two variations of this prototype were used in an explorative study. Participants conducted card sorting tasks with a physical and a non-physical variation of the prototype and assessed their perceptions and judgements using an extended version of the AttrakDiff2 questionnaire. The analysis of the experiment confirmed that physical behavior can indeed improve the user experience. Physical behavior is, however, not applicable in all circumstances and seems to be most valuable in conjunction with touch screens and natural user interfaces (NUIs). The thesis concludes by discussing potential implications and possible limitations of this study, that is, circumstances in which physical behavior can be used and the expected impact on UX. 59 Elisabeth Reingard Wetzinger Unterrichtskonzept "Digitales Bild: Bildkompression, Dateiformate und Anwendungen" Studium: Masterstudium Informatikmanagement Betreuerin: Ass.Prof. Dr. Monika Di Angelo Vor dem Hintergrund der rasanten technologischen Entwicklungen und der Tatsache, dass Kinder und Jugendliche mit den neuen Medien aufwachsen (digital natives) präsentiert diese Arbeit ein Unterrichtskonzept zum Thema Bilddateiformate sowie Bildkompressionsverfahren. In fünf Modulen wird inhaltlich ein Bogen von der Einführung in die Welt digitaler Bilder, deren Aspekte und Beschreibungsmethoden über Grundlagen und Methoden der Bilddatenkompression bis hin zu Dateiformaten und Anwendungen digitaler Bilder im Alltag der Jugendlichen gespannt. Es soll das bereits bestehende oberflächliche Wissen der Jugendlichen vertieft werden und auch auf einer formaleren Ebene (insbesondere Bilddatenkompression) aufgearbeitet werden. Die Umsetzung erfolgt im Wesentlichen mit Methoden der konstruktivistischen Lerntheorie sowie Methoden aus dem Seminaralltag mit dem Ziel der Förderung des eigenverantwortlichen, selbständigen und sozialen Lernens im Team sowie der Softskills der Schüler. Dies geschieht durch den Einsatz alternativer Methoden zum derzeit immer noch vorherrschenden Frontalunterricht und mit Implementierungsvorschlägen anhand der Thematik. 60 Institut für Technische Informatik Arbeitsbereich Embedded Computing Systems Martin Walter The SPEAR2 Hardware/Software Interface Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Andreas Steininger Das Hardware/Software Interface einer Rechnerarchitektur umfasst all jene Möglichkeiten mittels derer Informationen über die Grenze zwischen Hardware und Software hinweg übermittelt werden können. Die Bestandteile des Hardware/Software Interfaces finden sich daher in einer Vielzahl von Systemprogrammen, allen voran Compiler, Assembler und Linker wieder, in denen sie die Regeln für die Übersetzung von Quellcode einer Hochsprache in ein ausführbares Programm in der jeweiligen Maschinensprache vorgeben. Durch die kollektive Einhaltung dieser Regeln für eine bestimmte Architektur wird es ermöglicht, Anwendungen einmalig zu kompilieren und auf einem beliebigen Prozessor ausführen zu lassen, der eben diese Architektur implementiert. Im Rahmen dieser Diplomarbeit wird das Hardware/Software Interface des SPEAR2, einer am Institut für Technische Informatik der Technischen Universität Wien entwickelten soft-core Architektur, von Grund auf erarbeitet. Die Erkenntnisse werden dabei sowohl von einer bestehenden Sammlung mittlerweile nicht mehr zeitgemäßer Systemprogramme, als auch von den Quellcodes der Architektur selbst, gewonnen. Schlussendlich werden sich diese als unverzichtbar erweisen, wenn die Portierung und Integration einer Sammlung aktueller Entwicklungs-Tools, vorwiegend aus dem GNU Projekt, in eine funktionsfähige, wohl aufeinander abgestimmte, Toolchain vorgenommen werden soll. Arbeitsbereich Real Time Systems Bernhard Fischer Modeling Techniques and Tool for Embedded Systems - State of the Art Studium: Masterstudium Informatikmanagement Betreuer: Privatdoz. Dr. Wilfried Elmenreich Model-based development (MBD) approaches design challenges with ever increasing demands on embedded products by abstraction with models. The concepts of MBD separate concerns by providing just the necessary details for each activity in the development process. Literature about model-based development for embedded systems is widely scattered and its contents are either devoted to a small sub-set of specific modeling topics or approach the 61 subject from a rather general/conceptual viewpoint. Drawing a big-picture of the current state of the art in modeling of embedded systems is a very demanding task due to all the different involved and mixed topics. This thesis comprises an exhaustive literature research investigating modeling concepts for embedded systems. Several modeling techniques, tools and system development methods are presented and modeling challenges are discussed. Walter Haas Automatic Coverage-Profile Calculation for Code Optimization Studium: Masterstudium Technische Informatik Betreuer: Privatdoz. Dr. Raimund Kirner Beim Testen von Software und für die Measurement Based Timing Analysis wird oft das Einhalten bestimmter Code Coverage Kriterien verlangt. Vorzugsweise werden die Testdaten aus einer höheren Repräsentationsform des getesteten Programms abgeleitet, beispielsweise aus dem Source Code. Moderne Compiler nehmen beim Erzeugen des Maschinencodes jedoch zahlreiche Optimierungen vor, um die Eigenschaften der verwendeten Zielplattform, beispielsweise durch Parallelverarbeitung oder hierarchisch organisierte Zwischenspeicher (Cache), so gut wie möglich auszunutzen. Solche Optimierungen können jedoch die strukturelle Code Coverage zerstören, die in der höheren Repräsentationsform bereits erzielt wurde. Eine Möglichkeit dieses Problem zu umgehen ist, Code Optimierungen vorab zu analysieren, ob sie eine bestimmte Art der strukturellen Code Coverage bewahren oder nicht. So kann für jede Code Optimierung ein Coverage Profil erstellt werden. Ein Compiler kann die vorhandenen Profile dann benutzen, um entweder beim Übersetzungsvorgang nur Optimierungen vorzunehmen, welche die entsprechende Code Coverage erhalten, oder um eine Warnung auszugeben falls eine angewendete Optimierung die Erhaltung einer bestimmten Code Coverage nicht sicherstellt. Diese Diplomarbeit entwickelt ein System zur automatischen Analyse von Code Transformationen in Hinblick auf die Erhaltung struktureller Code Coverage Kriterien. Die Analyse basiert auf einer bereits vorhandenen, formalen Theorie der Code Coverage Erhaltung. Der erste Teil der Arbeit führt eine formale Beschreibung von Code-Transformationen ein. Der zweite Teil überträgt den zuvor eingeführten Formalismus in ein mathematisches Software-System, um eine automatische Analyse von Code Transformationen bezüglich der Erhaltung bestimmter Arten von Code Coverage durchzuführen und daraus ein Coverage Profil zu erstellen. Die Anwendbarkeit des Lösungsansatzes wird schließlich im dritten Teil anhand mehrerer Analyse Beispiele gezeigt. 62 Peter Hilber Hardware Transactional Memory for a Real-Time Chip Multiprocessor Studium: Masterstudium Technische Informatik Betreuer: O.Univ.Prof. Dr. Herbert Grünbacher Transactional memory is an alternative to conventional lock-based synchronization. Locks are difficult to use and not composable; transactional memory offers a simple programming model and the high concurrency desired for future multiprocessors. While actually multiple threads concurrently access shared data, the results look as if code sections (transactions) had been executed sequentially. Conflicts among concurrent transactions are automatically resolved. To our knowledge, there is currently no transactional memory system suitable for hard real-time systems on multiprocessors. Real-time transactional memory (RTTM) is a proposal of a time-predictable transactional memory for chip multiprocessors. The main goals of RTTM are a simple programming model and analyzable timing properties. Static analysis detects non-conflicting transactions, which lowers the worst-case execution time bounds. In this master's thesis, RTTM was implemented on an FPGA and the viability of the implementation was evaluated. For time-predictable execution, RTTM is hardware-based. Each core gets a small, fully associative cache which tracks the memory accesses in a transaction. RTTM was implemented on JOP, a time-predictable chip multiprocessor directly executing Java bytecode. The basic programming interface is the @atomic method annotation. The FPGA-based implementation supports small transactions suitable for synchronization in embedded real-time applications. Up to 12 cores fit on a low-cost Cyclone II FPGA running at 90 MHz with a device utilization of more than 90%. The RTTM hardware is costly due to the fully associative cache, but does not dominate the hardware resource consumption. The close relationship of the processor to the Java Virtual Machine enables some resource-saving optimizations. A part of RTTM was implemented in software. As a preparation for tool-based worst-case execution time analysis, the execution time of individual RTTM operations was bounded. Thomas Mair Validation Middleware for Mixed Criticality Networks Studium: Masterstudium Technische Informatik Betreuer: O.Univ.Prof. Dr. Hermann Kopetz This thesis investigates on the secure sharing of information in a mixedcriticality system. Our approach to fulfil these safety and security requirements is to establish a set of strict rules for the communication between the tasks of the different integrity levels. These rules implement an integrity model and have to guarantee that the information flow between the criticality levels happens appropriately. In many applications it also might be required 63 to use a piece of unreliable information from a low criticality level in a higher one. Communication in this direction is considered as illegal in many integrity models. This thesis introduces a mechanism called "Validation Middleware" which upgrades the reliability of data from diverse redundant sources. For this, inexact voting techniques are realised which produce a trusted output and define a criteria for determining correct and incorrect. These mechanisms were developed and studied in context of the Time-Triggered System-OnChip architecture. This architecture provides a spatial and temporal firewall between each task by partitioning the system into single autonomous subsystems called the micro components. These subsystems are connected through a deterministic Network-on-Chip which uses so-called encapsulated communication channels to prevent the messages from interfering with each other. We tested the fault tolerance mechanisms inside the "Validation Middleware", by creating an application from the automotive context which compasses ABS and odometer subsystems. Our results show that the deterministic behaviour of the Network-on-Chip and the temporal and spatial partitioning of the encapsulated communication channels, combined with the use of Totel's integrity policies, provides a suitable environment for the use in a mixed-criticality application. In addition, we point out the existence of a middleware in the Time-Triggered System-on-Chip architecture, which enables upstream communication flows. Christoph Martinek Minimal Preconditions for Timing Anomalies in WCET Calculations Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Peter Puschner Bei Echtzeitsystemen ist die Analyse der Worst-Case-Execution-Time (WCET) von entscheidender Bedeutung. Die Kenntnis über diese maximale Ausführungszeit führt zu einer notwendigen Vorhersage des Zeitverhaltens bei zeitkritischen Systemen. Um eine detaillierte Untersuchung des Zeitverhaltens eines Programms durchzuführen, ist in modernen Echtzeitsystemen, in denen unterschiedliche Cache- und Pipeline-Architekturen vorkommen, das Wissen über den Verlauf einer Ausführung von Wichtigkeit. Mit diesen Informationen können Besonderheiten, nämlich sogenannte Zeitanomalien, analysiert und notwendige Bedingungen dafür hergeleitet werden. Beim Auftreten von Zeitanomalien wird im Verlauf einer Ausführung die Eigenschaft Proportionalität im zeitlichen Verhalten verletzt. In dieser Diplomarbeit werden die wichtigsten Zeitanomalien charakterisiert und Methoden vorgestellt, mit denen sich gewisse Anomalien bezüglich der Berechnung der WCET berechnen lassen. Darunter fallen serielle Zeitanomalien, welche über eine Anzahl von unterschiedlichen Pfaden auftreten können, und parallele Anomalien, bei denen der timing-relevant dynamic computer state (TRDCS) in unterschiedliche Hardwarekomponenten aufgeteilt wird. Für eine aussagekräftige Analyse ist eine genaue Erforschung von Zeitanomalien in verschiedenen Cache- sowie in Pipeline-Architekturen erforderlich. Es werden 64 hier die Cache-Ersetzungsstrategien FIFO, Pseudo Round Robin und Pseudo LRU genauer betrachtet. Bei Pipeline-Architekturen werden Simple Scalar-, Scalar-, Superscalar In-Order und Super-scalar Out-of-Order-Pipelines untersucht. Es werden Vorbedingungen für Zeitanomalien ausgearbeitet, die in diesen Architekturen auftreten können. Darüber hinaus wird gewissermaßen eine Checkliste erarbeitet, mit der Prozessoren betreffend der eintretenden Zeitanomalien eingestuft werden können. Daniel Prokesch A Light-Weight Parallel Execution Layer for Shared-Memory Stream Processing Studium: Masterstudium Technische Informatik Betreuer: Privatdoz. Dr. Raimund Kirner In den letzten Jahren haben sich zunehmend Mehrkernprozessoren im Bereich der Universalrechner etabliert. Um die Vorteile der zunehmend ansteigenden Anzahl von Rechenkernen nutzen zu können, sind Programmierparadigmen notwendig, welche die Ableitung von Nebenläufigkeiten erleichtern bzw. erst ermöglichen. S-Net ist eine deklarative Koordinationssprache, deren Ziel es ist, die Programmierung von Nebenläufigkeit und Programmlogik zu trennen. Dabei wird die Koordination von Netzen bestehend aus asynchronen, zustandslosen und mittels typisierter Datenströmen verbundener Komponenten definiert. Netzwerke werden in S-Net durch algebraische Formeln ausgedrückt, bestehend aus vier Kombinatoren, nämlich serieller und paralleler Komposition, sowie serieller und paralleler Replikation. Das Ziel dieser Arbeit ist es, das bestehende Laufzeitsystem dahingehend zu erweitern, dass es zwei Anforderungen genügt. Erstens soll es ermöglicht werden, Informationen über die Ausführungszeiten der Laufzeitkomponenten oder die Auslastung der Kommunikationskanäle zu sammeln. Zweitens soll es die Möglichkeit zur Kontrolle des Schedulings der Komponenten geben. Durch Recherche von bestehenden, auf Datenstromverarbeitung basierenden (Laufzeit-)Systemen wurden Konzepte für eine leichtgewichtige parallele Ausführungsschicht erarbeitet, welche Komponenten, die mittels gerichteter und gepufferter Datenströme kommunizieren, auf User-Ebene verwaltet, wobei besonderes Augenmerk auf die Anforderungen des S-Net Modells und effiziente Synchronisationsmechanismen gelegt werden musste. Experimente mit dem S-Net Laufzeitsystem und der neuen Ausführungsschicht zeigen eine effiziente Ressourcennutzung selbst bei vielen zu verwaltenden Komponenten. Die zur Laufzeit gewonnene Information kann erfolgreich genutzt werden, um den erforderlichen Rechenaufwand der Komponenten zu ermitteln, sowie um anwendungsspezifische Scheduling- und Platzierungsstrategien abzuleiten. 65 Sebastian Rosensteiner Tool Chain Qualification for Model-based Software Engineering in the Automotive Domain Studium: Masterstudium Information & Knowledge Management Betreuer: Privatdoz. Dr. Raimund Kirner Die modellbasierte Softwareentwicklung für sicherheitskritische Systeme ist in der Automobilindustrie mittlerweile gut etabliert. Immer mehr sicherheitsrelevante Funktionen im Fahrzeug werden von Software gesteuert, wie beispielsweise geregelte Bremssysteme oder Fahrerassistenzsysteme. Die für die Entwicklung solcher Systeme geltenden Standards der funktionalen Sicherheit, wie der zukünftige Standard ISO 26262, verlangen eine Qualifizierung der Entwurfswerkzeuge und auch unterstützender Werkzeuge, um ausschließen zu können, dass diese Fehler in den Entwicklungs- und Codegenerierungsprozess einbringen. Die Anforderungen für die Qualifizierung sind dabei von dem konkreten sicherheitskritischen System und dem ermittelten ASIL Level (Automotive Safety Integrity Level) abhängig. Im Rahmen dieser Diplomarbeit wurden in Zusammenarbeit mit der Firma Magna Steyr Fahrzeugtechnik die Anforderungen des Standards ISO 26262 genau betrachtet. Im Speziellen wurden die Anforderungen an die Qualifizierung der Toolkette für modellbasierte Softwareentwicklung evaluiert, ein Vergleich der in der Literatur dazu präsentierten Konzepte vorgenommen und ein unter-stützendes Tool für die Qualifizierung der bei MSF verwendeten Toolkette (TargetLink basierend auf Matlab/Simulink) evaluiert. Dabei wurde ein Test Algorithmus zur Durchführung von Back-toback Tests entwickelt, der dem Standard ISO 26262 genügt. 66 Institut für Computertechnik Matthias Rodler Modeling and Power Optimization of a Wireless Sensor Node Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Univ.Prof. Dr. Christoph Grimm Funksensorknoten umfassen einen breiten Anwendungsbereich, angefangen vom einzelnen Knoten bis hin zu Sensornetzwerken mit mehreren tausend Sensoren. Die meisten dieser Anwendungsbereiche stellen dieselben allgemeinen Anforderungen an einen Sensorknoten welche oft auch eine nahezu endlose Lebensdauer verlangen. Um in der heutigen Zeit die Anforderungen der Kunden bestmöglich abzudecken und das Bestehen am Markt gegenüber der Konkurrenz gewährleisten zu können, streben Unternehmen nach kürzeren Entwicklungszeiten für neue Produkte. Zusätzlich steigt jedoch die Komplexität mit den Anforderungen der Konsumenten, was dazu führt, dass Unternehmen stets nach neuen Prozessen suchen um den Aufwand von Zeit und Geld für die Entwicklung ihrer Produkte zu verringern. In dieser Arbeit wird ein abstrakter Ansatz für eine zyklengenaue Simulation von Funksensorknoten vorgestellt. Dieser soll die Anwendung von flexiblen Stromprofilen einzelner Komponenten eines Sensorknoten ermöglichen um die Aufzeichnung des Verbrauchs für eine mögliche Analyse zu gewährleisten. Weiters wird die Möglichkeit geboten jede einzelne Hardwarekomponente in verschiedenen Detailgraden zu simulieren wobei stets die gleiche Basis einer Komponente verwendet werden kann. Zusätzlich wird die Erzeugung von Stromprofilen der simulierten Hardware - in einer sehr detaillierten Simulation - zur Verfügung gestellt. Dies gibt die Möglichkeit zur Analyse und Optimierung der verwendeten Firmware um infolge dessen das Verhalten eines Sensorknoten zu verbessern und vor allem die Lebensdauer in einem Funksensornetz zu erhöhen. Eine Implementierung eines Sensorknoten und die Simulation eines Funksensornetzwerks Mithilfe von SuSi - ein SystemC basierendes von Infineon entwickeltes Framework - und die Integration in das SNOPS Framework vom Institut für Computertechnik an der technischen Universität Wien zeigt eine reale Umsetzung des vorgestellten Ansatzes. 67 Matthias Wenzl Design and Implementation of a VOIP Stack for High Packet Rates in an FPGA Studium: Masterstudium Technische Informatik Betreuer: Univ.Prof. Dr. Christoph Grimm Dank einer breiteren Verfügbarkeit von Internetanschlüssen mit entsprechender Bandbreite erfreut sich VOIP Kommunikation in industrialisierten Ländern immer größerer Beliebtheit. Die meisten VOIP-fähigen Endgeräte sind jedoch nicht auf die speziellen Bedürfnisse einiger Einrichtungen, wie z.B. der Luftraumüberwachung abgestimmt. Um diese speziellen Anforderungen besser zu erfüllen wurde im Rahmen eines Forschungsprojektes ein spezielles Modul entwickelt, welches den Sprachdatenaustausch einer VOIP Verbindung in Hardware realisiert. Dieser IP-Core (RTP-Engine), wird in einer statischen Konfiguration in einem Xilinx Virtex4 FPGA auf einer Prototypingplattform betrieben. Ziel der Arbeit ist die Implementierung eines kompletten VOIP-Stacks bestehend aus einem Signalisierungsprotokoll, einem Verbindungsqualitätssicherungsprotokoll, und der RTP-Engine inklusive einer Konfigurationsschnittstelle. Als Randbedingungen treten hierbei Embedded System spezifische Beschränkungen wie limitierte Rechenleistung und eingeschränkte FPGA Resourcen auf. Des weiteren müssen Auflagen betreffend der HW/SW Schnittstelle der RTP-Engine, welche durch die vorgegeben VOIP-Stack Funktionalität induziert sind, eingehalten werden. Zur Umsetzung wird eine Evaluierung des grundlegenden Aufbaus eines VOIP-Stacks durchgeführt und die Anforderungen an das Design eines Basis-Systems und der HW/SW Schnittstelle der RTP-Engine erhoben. Außerdem werden unterschiedliche Software-Stacks, Schnittstellendesigns und User/Kernel -Space Separierungen diskutiert. Schließlich wird ein Prototyp implementiert, welcher in der Lage ist, einen VOIP-Sitzung direkt zwischen zwei FPGAs oder einem PC zu realisieren. Es wird gezeigt, dass das realisierte System eine geringere Belastung eines Prozessors mit sich bringt und somit entsprechende Echtzeitanforderungen leichter erfüllt werden können. Deshalb wäre es möglich, eine Erweiterung des Prototypen durchzuführen, um Konferenzschaltungen zu unterstützen. 68 Institut für Automatisierungs- und Regelungstechnik Thomas Hinterhofer A Trinocular Census-Based Stereo Vision System for Real-Time Applications Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Markus Vincze This thesis is about the design and implementation of a trinocular census transform-based stereo vision system for real-time applications. The extension of an existing binocular stereo matching engine by one additional camera addresses some inherently occurring problems of such systems. At first, a calibration tool based on a modification of the OpenCV 2.1 library was developed to undistort and rectify three (L-shaped configuration) or more (inline configuration) input images. After rectification, corresponding object points are located in the same row or column, respectively. The stereo engine for binocular stereo vision (S3E), developed by the AIT, is modified and extended to support the new trinocular camera configurations. The algorithm is based on a census transform and it performs a consistency check and subpixel refinement. Because of the extensive usage of SIMD instruction sets and the support of state-of-the-art multi-core CPUs, dense depth maps are produced with high frame rates. A method of fusing the results of two stereo matching processes is developed in order to obtain disparity maps, which are more dense and which contain less false positive matches. Beside of various other possible applications, the output of the system can be used to display live scenes on an autostereoscopic multi-user display. Finally, the inline and Lshaped camera configurations are tested and verified to analyse the benefits and drawbacks of the specific alignments. The quality enhancements of adding a third camera are verified by the stereo vision evaluation system of the Middlebury college. The number of false matches can be reduced by up to 40% compared to the binocular results. In the field of local optimizing, real-time capable algorithms, our approach achieves a top result in the Middlebury ranking. Frame rates of more than 10fps at 640x480 with 80 disparities each camera pair or over 70fps at 320x240 with 40 disparities are achieved on standard multi-core CPUs. Simon Pirker Simulation of Lego Mindstorms NXT based plants using a distributed automaion framework Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Markus Vincze Eine neue Fabrik zu bauen, oder auch nur den Produktionsablauf zu ändern ist ein sehr kostspieliges Unterfangen. Deshalb wird in kostenreduzierende 69 Maßnahmen viel investiert. Ein Ansatz, um die Kosten schon während der Entwurfsphase zu senken, bietet die Digitale Fabrik. Dabei werden die Abläufe in der geplanten Fabrik realitätsgetreu simuliert, und ausgewertet. Durch frühe Tests werden spätere teure Änderungen an der Fabrik verhindert, und durch die flexible Planung wird die Planungsphase verkürzt, wodurch die Fabrik früher realisiert werden kann. In dieser Arbeit wird die Frage behandelt, ob sich 3d Spiele Engines dazu eignen, ein Framework für verteilte Simulationen nach dem Konzept der Digitalen Fabrik zu entwicklen. Für die Darstellung der Digitalen Fabrik werden 3d Modelle der LEGO® Mindstorms NXT Sensoren und Aktuatoren verwendet. Die Steuerungsprogramme werden IEC 61499 konform mit der 4DIAC-IDE entwickelt, und in der FORTE Laufzeitumgebung ausgeführt. Das entwickelte Framework bietet die Möglichkeit, über eine Schnittstelle eigene Steuerungsprogramme zu entwerfen, die mit dem Simulationsteil interagieren. Diese Möglichkeit ist vor allem für den Lehrbetrieb interessant, da es Studenten die Möglichkeit bietet, früh mit dem Konzept der Digitalen Fabrik, und des Soft-Commissioning® vertraut zu werden. Zum Test des Frameworks werden in der Arbeit zwei Experimente entwickelt. Diese sind die Simulationen einer Autowaschanlage, und eines Roboters, der einer Linie folgt. Neben den Ergebnissen zu den Experimenten und zum Framework, wird auch der Umgang mit der 3d Engine selbst exemplarisch erläutert. Die Resultate zeigen, dass sich eine 3d Spiele Engine sehr gut dazu eignet, ein Framework zu entwickeln, das alle Anforderungen einer Digitale Fabrik erfüllt, und sich auch für den Einsatz im Lehrbetrieb eignet. Dominik Windhab Lego Mindstorms NXT as Platform for Distributed Applications Based on IEC61499 Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Markus Vincze Erzeuger von Produkten müssen auf einen sich ständig wechselnden Markt sehr schnell reagieren um wettbewerbsfähig zu bleiben. Einer schnelle Reaktion steht allerdings die zunehmende Komplexität von verteilten Systemen wie sie in modernen Industrieanlagen gefunden werden können entgegen. Der noch relativ junge Standard IEC61499 wurde entwickelt um genau diese Probleme in den Griff zu bekommen. Die Fordiac Runtime Environment' (FORTE) ist eine solche Implementierung mit offenem Quellcode. Sie ist sowohl auf einem PC als auch auf weniger leistungsfähigen eingebetteten Systemen lauffähig. Eine Hardware Plattform die von FORTE unterstützt wird ist der Lego Mindstorms NXT. Derzeit ist es möglich Programme für lokale Anwendungen zu entwickeln. In dieser Diplomarbeit werden die Kommunikationsschnittstellen des NXT analysiert und die Laufzeitumgebung FORTE wird erweitert um Kommunikation zwischen NXT Bausteinen zu ermöglichen. Der Lego Mindstroms NXT bietet die Möglichkeiten drahtlos via Bluetooth oder kabelgebunden via RS485 70 Schnittstelle Daten auszutauschen. Die erarbeitete Lösung basiert auf einer Mischform der beiden Möglichkeiten. Die kabelgebunden Teilnehmer sind in der Lage ein Netzwerk basierend auf dem Token-Bus Protokoll zu erstellen und verwalten. Weiters gibt es die Möglichkeit, dass Geräte die nicht an den Bus angeschlossen sind dennoch über Bluetooth an der Kommunikation teilnehmen können. Die erstellte Software stellt die Verwaltung des Netzwerkes sicher, bleibt dabei aber transparent für den Entwickler auf eines IEC61499 basierenden Systems. Es ist möglich ein Funktionsblocknetzwerk zu modellieren ohne genaues Wissen über die Kommunikationsmechanismen zu haben. Der große Vorteil liegt darin, dass verteilte Systeme sehr schnell modelliert und aufgebaut werden können ohne präzise Kenntnisse über die verwendete Hardware. Das System kann dann auch für Lehr- und Anschauungszwecke verwendet werden um Studenten den Standard IEC61499 näher zu bringen. 71 Institut für Managementwissenschaften Christian Azesberger Anwendung von Werkzeugen des Qualitätsmanagements im operationellen Risikomanagement Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Ass.Prof. Dr. Peter Kuhlang Die vorliegende Arbeit geht der Frage nach, ob es Synergien zwischen klassischem Qualitätsmanagement (QM) und operationellem Risikomanagement (OpRM) gibt und welche Methoden und Werkzeuge sinnvoll angewendet werden können. Ziel dabei ist dabei nicht die vollständige Abdeckung der Aufgaben des OpRM mittels Qualitätsmanagementtechniken, sondern das Aufzeigen von sinnvollen Anwendungsmöglichkeiten zur Verbesserung des OpRM-Prozesses. Der erste Teil besteht in der Abgrenzung und Aufbereitung des Begriffs Operationelles Risikomanagement. Dabei wird der operationelle Risikomanagementprozess analysiert und strukturiert dargestellt. Anschließend sind die wichtigsten Begriffe zum Thema Qualitätsmanagement erläutert. In Folge werden ausgewählte Konzepte und Werkzeuge des Qualitätsmanagements vorgestellt. Diese Werkzeuge und Konzepte werden dann den Erfordernissen des operationellen Risikomanagementprozesses gegenübergestellt. Dabei werden sinnvolle Einsatzmöglichkeiten evaluiert und den einzelnen Aufgaben und Prozessen des OpRM zugeteilt. In einem praktischen Beispiel wird abschließend ein Geschäftsprozess auf mit Hilfe einer der vorgestellten Methoden und Werkzeuge auf operationelle Risiken hin analysiert. Als Methode wird dabei die FMEA ausgewählt, da sie mit dem klassischen Risikomanagementprozess die größte Synergie aufweist. Als wesentliches Ergebnis wird festgehalten, dass die FMEA eine geeignete Methode zur Durchführung des OpRisk-Prozesses darstellt. Des Weiteren hat sich gezeigt, dass es insbesondere im Bereich der Risikoanalyse viele Einsatzmöglichkeiten für QM-Werkzeuge gibt, mit denen ein vertiefendes Ursache-Wirkungsverständnis gewonnen werden kann, welches als Erfolgsfaktor für erfolgreiches Risikomanagement entscheidend ist. Victor Crestin WEB E-Learning Plattform des ERP-Control Systems Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Univ.Prof. Dr. Walter Schwaiger Das Management Information System, genannt "ERPControl System" umfasst das gesamte Spektrum von Prozessen und Wechselwirkungen welche zwischen drei Komponenten, Resources, Events and Agents auftreten, die in vielen wirtschaftlichen Studienrichtungen der TU Wien behandelt werden. 72 Das Hauptziel der vorliegenden Arbeit ist das Design und Implementierung einer Web-basierten "E-Learning-Plattform" für Studierende, die als Navigation Tool durch den gesamten "ERPControl System" führen soll. Das ermöglicht die Durchführung von Übungs-und Online-Tests für die Lehrveranstaltungen Investition und Finanzierung, Controlling, Kosten- und Leistungsrechnung und Praxisorientierte BWL. Der Web-E-Learning-Plattform ist für Bachelor und Master Studierende der Technischen Universität Wien (Wirtschaftsinformatik, Wirtschaftsingenieurwesen-Maschinenbau, Wirtschaftsingenieurwesen Informatik, Wirtschaftsmathematik, Information & Knowledge Management) auf jeden Fall signifikant. Die Studenten sollen in der Lage sein, durch das System navigieren zu können, wirtschaftliche Konzepte abzuspielen, erweiterte Modelle anschauen und die Ergebnisse des OnlineTests abzulegen. Bernd Divoky Finanzrisiken und Unternehmenssteuerung - Ein quantitativer Ansatz zur Risikoanalyse Studium: Masterstudium Wirtschaftsinformatik Betreuer: Ao.Univ.Prof. Dr. Wolfgang Aussenegg Finanzrisiken, und hier vor allem Marktpreisrisiken, haben für viele Unternehmungen eine immer größere Bedeutung. Sei es, weil die eigenen Produkte auf fremden Märkten vertrieben werden oder weil die Preise der benötigten Rohstoffe vom Weltmarkt abhängig sind. Um langfristig erfolgreich agieren zu können, müssen diese Risiken in der unternehmerischen Planung berücksichtigt werden. Dazu zählen auch Maßnahmen zur Absicherung gegen diese Risiken. Die Arbeit hat das Ziel, ein Modell zu entwickeln, welches einem produzierenden Unternehmen erlaubt, die Auswirkungen von Marktpreisrisiken und Absicherungsmaßnahmen auf Unternehmenskennzahlen wie Gewinn und Cashflow zu analysieren. Außerdem wird das Modell als Softwaretool implementiert werden. Als Risikofaktoren werden Fremdwährungen und Rohstoffe betrachtet. Die Entwicklung dieser Risikofaktoren wird mit dem Random Walk Modell abgebildet. Durch den Einsatz einer Monte-Carlo-Simulation werden zukünftige Szenarien für die Entwicklung der Marktpreise erarbeitet. Durch die Einbeziehung der Risikofaktoren in Umsatz- und Kostenfunktionen lassen sich in Folge Verteilungen von Unternehmenskennzahlen wie Gewinn und Cashflow berechnen. Als Absicherungsmaßnahmen werden im Modell Forwards und Optionen berücksichtigt. Zuletzt erlaubt das Modell einen Vergleich der Kennzahlen mit und ohne Absicherungsmaßnahmen. Das Softwaretool stellt eine Referenzimplementierung des Modells dar. Es stellt ein graphisches Benutzerinterface zur einfachen Erfassung der Modell Parameter sowie zur übersichtlichen Darstellung des Ergebnisses zur Verfügung. Das erarbeitete Modell gibt einen allgemeinen Ansatz für die Risikoanalyse vor. Für einen konkreten Anwendungsfall muss das Modell auf die spezifischen Gegebenheiten angepasst werden. 73 Hilal Dogan Controlling Regelwerk für Investitionen Prozessbasierte Gestaltung, exemplarische Veranschaulichung und Implementierung Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Univ.Prof. Dr. Walter Schwaiger The focus of this master thesis is the investigation of a fictitious investment of an automobile company in a foreign market within the framework of control framework. The main task of this framework is the integration of a performance system with a management system, which is depicted in a PDCACircle. The phases of intended investment are equated with the phases of PDCA cycle and each of phases is executed once within the initial planning. PDCA cycle operates according to the principle of cybernetics and consists of four components; Plan-Do-Check-Act. The results of the demonstration example are implemented in a software documentation programme to obtain a better overview of the planned investment process. This software solution illustrates the phases of investment integrated in PDCA cycle from the main down to the detailed process and supplies a perfect manual for the company. Harald Meusburger Innovativer Einsatz von Informationstechnologie in universitärer Lehre und anwendungsorientierter Forschung Studium: Masterstudium Informatikmanagement Betreuer: Ass.Prof. Dr. Peter Kuhlang Im Rahmen dieser Arbeit wird der innovative Einsatz von Informationstechnologie in der universitären Lehre sowie in der anwendungsorientierten Forschung untersucht. Dazu teilt sich das Dokument in zwei Bereiche. Im ersten Abschnitt wird das Lehrkonzept, das der Bereich Betriebstechnik und Systemplanung vom Institut für Managementwissenschaften an der Technischen Universität Wien zur Ausbildung von Wirtschaftsingenieuren im Fachbereich Maschinenbau heranzieht, untersucht. Ausgehend von einer umfassenden Anforderungsanalyse für zukünftige Wirtschaftsingenieure, wird das Lehrkonzept des Studiendekanats untersucht und auf ein theoretisches Gerüst gestellt. Besonders beleuchtet werden dabei verschiedenen eLearning Ansätze sowie Handlungs- und Problemorientiertes Lernen im Rahmen von virtuellen und physischen Planspielen. Der zweite Abschnitt behandelt den Einsatz diverser Web 2.0 Technologien in der anwendungsorientierten Forschung. Es wird dabei ausgehend von den technischen und sozialen Grundlagen ein Konzept für den Social Media Einsatz bei der Fraunhofer Austria Research GmbH erarbeitet. Der Fokus dabei erstreckt sich von der Verbesserung der internen Zusammenarbeit über neue Kommunikationsmöglichkeiten mit allen Stakeholdern bis hin zur Unterstützung von Open Innovation Ansätzen. 74 Ismail Örün IST- Zustandsanalyse und Einführung der RFID - Technologie in einem Lebensmittelproduktionsunternehmen sowie die Einschulung der Mitarbeiter Studium: Masterstudium Informatikmanagement Betreuer: Ass.Prof. Dr. Peter Kuhlang Das Ziel dieser Magisterarbeit ist die Vermittlung der Vorgangsweise bei der Einführung der RFID (Radio Frequency Identification) - Technologie in einem Lebensmittelproduktionsunternehmen. Dazu gehört auch die methodische Einschulung der Mitarbeiter, die im Rahmen dieser Arbeit auch näher gebracht werden soll. Mit dieser Arbeit soll ein Beitrag in Richtung der Einsetzbarkeit von RFID -Systemen zur Identifikation von Lebensmittelprodukten innerhalb und außerhalb des Unternehmens geleistet werden. Diese Arbeit soll in Anlehnung an die Wertschöpfungskette eines Referenzfalles aus der Praxis (Lebensmittelunternehmen mit Produktion und Logistik) aufgebaut werden. Die auf dem Markt befindlichen RFID - Systeme bieten für die Anwender einen gefächerten Einsatzbereich. Um diese Technologie in der Lebensmittelindustrie gezielt einführen zu können sind sowohl gezielte Analysen als auch spezielle Schulungsmaßnahmen der Mitarbeiter erforderlich. Zur Lösung der gestellten Aufgabenstellung werden die Grundlagen der RFID Technologie beschrieben. Dann wird die Wertschöpfungskette (Abläufe und Prozesse) des gewählten Untersuchungsort, sprich dem Unternehmen, analysiert. Im nächsten Schritt wird eine Konzeption inklusive einer gezielten Schulungsmethode erarbeitet und das Ergebnis diskutiert. Es handelt sich um ein anonymes lebensmittelerzeugendes Unternehmen, welches haltbare, und frische Produkte für den Lebensmitteleinzelhandel und soziale Einrichtungen herstellt. Das österreichische Unternehmen mit Sitz in Wien agiert österreichweit und besitzt eine eigene Logistiklösung. Die Tagestonnage aller hergestellten Produkte beträgt ca. 30 Tonnen, was ungefähr 50.000 Portionen entspricht. Christoph Rodler Integration of Reports for Enterprise Risk Management Processes in ERP Control Studium: Masterstudium Wirtschaftsinformatik Betreuer: Univ.Prof. Dr. Walter Schwaiger Enterprise resource planning systems can be found in most enterprises and they are used to manage the resources. But the exchanging, holding and using of these resources is always done under uncertainty. The huge ERP systems in the market were developed decades ago, therefore new approaches, e.g. in risk management, cannot be efficiently integrated. The term Business Informatics describes exactly the subject of this thesis: the introduction of concepts for enterprise risk management and their 75 implementation in an ERP system. The establishment of enterprise risk management in an organisation shall assist to identify, assess and manage various risks, which may arise in the daily business. Two concrete risk models are discussed to illustrate the whole development process. The reliability model helps to estimate the probability of default of an equipment and the duration model evaluates a financial ratio, which enables to rate the risk of a financial instrument. To put the introduced concepts into action a prototypical ERP system is the appropriate framework for the implementation of the risk models. The Department of Corporate Finance, Planning and Control as part of the Institute of Management Sciences at the Vienna University of Technology has developed a next-generation ERP system named ERPControl, in which the assessment and evaluation of both risk models have been incorporated. The outcome is the integration of risk management in ERPControl, which can assist a risk manager to create, reevaluate and monitor considered risks in an enterprise. Lenz Simon Bedeutung von Wettbewerb im Licht der Finanzkrise Studium: Masterstudium Wirtschaftsinformatik Betreuer: Prof. Dr. Karl Aiginger Die Finanz- und Automobilbranche sind die von der Finanzkrise der letzten Jahre am meisten betroffenen Wirtschaftssektoren. Besonders im Finanzsektor sind durch Fusionen und Profitgier die Institute immer weiter gewachsen, bis am Ende in vielen Fällen nur durch staatliche Intervention ein Zusammenbruch der gesamten Volkswirtschaft verhindert werden konnte. Sind die Unternehmen also zu groß geworden? Und vor allem, wie gingen die Wettbewerbsbehörden vor und während der Krise mit diesem Thema um? Wie reagiert die Politik nun nach der Krise? Die großen Finanzintermediäre und auch die größten Automobilhersteller sind ohne Zweifel in den letzten Jahren stärker als der Rest gewachsen, was Gegenstand einer empirischen Analyse in der Arbeit ist. Seitens der Politik hat es vor der Krise wenig Anzeichen gegeben, dieses überdimensionale Wachstum beziehungsweise Fusionen und Übernahmen in irgendeiner Art zu stoppen. Diese Arbeit befasst sich vor allem auch mit der Frage, wie der Gesetzgeber künftig mit Unternehmen umgehen wird, die too big to fail sind. Die Schaffung neuer Aufsichtsbehörden in der EU, Basel III und die Einführung einer Bankensteuer sind ein erster Ansatz, der jedoch auch zukünftige Krisen und die Notwendigkeit zur Rettung von Unternehmen oder sogar ganzer Staaten nicht ganz ausschließen kann. 76 Milica Sundic Outsourcing des Innovationsprozesses durch Insourcing von Ideen - am Beispiel von Crowdsourcing Studium: Masterstudium Wirtschaftsinformatik Betreuer: O.Univ.Prof. Dr. Adolf Stepan Wer heutzutage erfolgreich sein will, sollte auf Innovationen setzen, und diese in den Kern der Unternehmenstätigkeiten einbinden, etwa in Form eines strukturierten und definierten Innovationsprozesses, der eine Innovation von der Ideengenerierung bis hin zur Produktumsetzung steuert. Traditionell wurden Innovationsprozesse in den internen Forschungs- und Entwicklungsabteilungen durchgeführt. Henry Chesbrough appelliert an die Unternehmen, den Innovationsprozess jedoch nicht ausschließlich Unternehmensintern durchzuführen, sondern auch externe Akteure heranzuziehen, oder den Prozess auszulagern (engl. outsourcing). Eine solche offene Gestaltung des Innovationsprozesses mit Einbindung von externen Arbeitskräften zum gegenseitigen Wissens- und Ideenaustausch definierte Chesbrough 2003 unter dem Begriff Open Innovation. Durch eine solche Kooperation können neue, kreative Ideen entstehen und den Produktentwicklungsprozess bereichern. Im Rahmen dieser Diplomarbeit werden wesentliche Eigenschaften von Open Innovation erläutert, um aufkommende Trends im Innovationsmanagement, respektive bei benutzerzentrierten Innovationsmethoden zu forschen. Es werden Motive und Anreiz-Systeme, die dem Ideen-Insourcing bzw. Crowdsourcing - welches eine spezifische Form von Open Innovation darstellt - zugrunde liegen, sowohl aus Konsumenten-, als auch aus Unternehmenssicht hinterfragt. Weiters werden Risiken von Crowdsourcing, so wie die Bedeutung des geistigen Eigentums im Zeitalter der Ideen-Verbreitung diskutiert. 77 Department für Raumentwicklung, Infrastruktur- und Umweltplanung Gerald Auer Erschließung des ländlichen Raums durch Breitband-Internet Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Ass.Prof. Dr. Markus Haslinger Im Fokus dieser Diplomarbeit stehen die Breitbandanbindung des ländlichen Raums und die Digitale Kluft zwischen städtischen und ländlichen Lebensräumen. Es werden verschiedene Maßnahmen und Initiativen der Europäischen Union und des nationalen Gesetzgebers aufgezeigt, die gegen die Digitale Kluft wirken und eine europäische Informationsgesellschaft fördern sollen. Die darauf basierenden EU-Rechtsvorschriften waren auf nationaler Ebene umzusetzen. Im Fall der Kommunikationsinfrastruktur wurde das Telekommunikationsgesetz 2003 erlassen und fortlaufend angepasst. Es wird weiters versucht, Investitionsvorhaben und Strategien zweier hoch marktrelevanter Kommunikationsunternehmen, Telekom Austria Group und UPC Telekabel, aufzuzeigen. Hierbei spielen die Glasfaserprojekte der Telekom Austria Group eine wesentliche Rolle, da sie den flächendeckendsten Teil der nationalen Telekommunikations-Infrastruktur besitzt. Des Weiteren wird gezeigt, wie Fiber-to-the-Home Lösungen über bestehende Kanalnetze umgesetzt werden können, wie es auch in Wien durch das Infrastrukturunternehmen CableRunner Austria GmbH realisiert wird. Ein wichtiger Teil der Diplomarbeit behandelt das oberösterreichische Telekabelnetz und das Investitionsvorhaben bzw. den Aufkauf von regionalen Kabelanlagen durch UPC Telekabel. 78 Institut für Geoinformation und Kartographie Rene C. Kiesler Face recognition with mobile devices Studium: Masterstudium Information & Knowledge Management Betreuer: O.Univ.Prof. Dr. Andreas Frank More and more people switch to digital photography. Big camera companies, like for example Canon, stopped producing new film cameras, focusing solely on digital solutions. As it is much cheaper and more feasible to make digital pictures, the number of pictures made explodes. But how can you categorize and sort pictures with little manual effort? Lukas Maczejka A Native Temporal Relation Database for Haskell Studium: Masterstudium Software Engineering & Internet Computing Betreuer: O.Univ.Prof. Dr. Andreas Frank Representation of time-specific data is a widely discussed issue in modern database management systems. After a brief introduction to database basics, this work explains the currently accepted concepts related to time-specific terminology, differences in representation of time, and the storage of temporal data in detail. Furthermore, the basics behind functional programming in general and Haskell in particular are briefly discussed. Using both technologies mentioned above, a native temporal database management system for Haskell is introduced. The prototype developed from these specifications is described both from the developers and the users point of view. Finally, a critical evaluation of the proposed system and the prototype is given, and possible further work is discussed. 79 Institut für Statistik und Wahrscheinlichkeitstheorie Maryam Majlessi Statistical Analysis for Post Traumatic Stress Disorder and Mental Health in Kosovo After War Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Karl Grill Diese Diplomarbeit ist die Fortsetzung der epidemiologischen Forschung Long-term Sequels of War and Mental Health in Kosovo Kosovo, August 2006, mit dem Ziel ,die psychische Auswirkung des Kosovokrieges zu analysieren. Aufgrund der hohen Inzidenz von PTBS (posttraumatische Belastungsstörungen), Depressionen und akuten Belastungsstörungen erschien eine weitere vertiefte Analyse dieser Faktoren für angebracht, nämlich die Prognose über die PTBS aus vier Fragebögen (HTQ, GHQ -28, MOS-20 und HSCL-25) und Bestimmung der Beziehung zwischen PTBS- und Depressions-Symptomatik sowie Angst als unsere Hauptziele. Die Resultate stellen signifikante Prädiktoren psychischer Störungen wie PTBS, Depression und Angst im Zusammenhang mit dem Kosovokrieg bei 1116 Teilnehmern im Alter ab 15 Jahren dar. 256 der insgesamt 1159 (22%) Untersuchten weisen PTBS-Symptome (CDC-Criteria) vor. Anhand der Regressionsanalyse angewendet an Fragebögen wie HTQ (Harvard Trauma Questionnaire) und Mental Health Questionnaire. Durch die Auswertung der Fragebögen (HTQ -Harvard Trauma Questionair- und Mental Questionnaire) mit Regressionsanalyse konnte gezeigt werden, dass die an der Studie teilnehmenden Personen ohne Möglichkeit einer medizinischen Versorgung (als ein Prädiktor) drei Mal häufiger an psychischen Erkrankungen bzw. PTBS litten. Des Weiteren wiesen Personen, denen ihr Gut und Besitz durch Gewalt bzw. Erpressung weggenommen war (als ein weiterer Prädiktor), vermehrt psychische Erkrankungen mit einer14% höheren Wahrscheinlichkeit auf. Das Vorhandensein von PTBSSymptomen war bei den Arbeitslosen um 35% höher. Die Auswertung der MOS-Fragebögen zeigte die Zunahme des Risikos von psychischen Erkrankungen bei Teilnehmern mit positivem Wert von Roll functioning um 39%. Die Analyse des Zusammenhangs zwischen Depression und PTBS zeigte, dass 99% der Personen mit PTBS ebenfalls an Depression und Angst litten. 80 Institut für Wirtschaftsmathematik Alexander Haas Eine informationstechnische, didaktische Aufbereitung von ökonomischen Modellen des Erdölmarktes Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Gerhard Hanappi In der Ökonomie gibt es zwei stärker werdende Einflüsse: einerseits kommt es häufiger zum Einsatz numerischer Verfahren bei der ökonomischen Modellierung und damit zu einem höheren Stellenwert der Informatik in der Ökonomie. Andererseits kommt es vermehrt zu einer regen interdisziplinären Zusammenarbeit, welche dazu führt, dass sich Konzepte anderer Disziplinen in ökonomischen Modellen wieder finden. Die Lehre steht nun vor dem Problem diese beiden Einflüsse in den universitären Unterricht zu integrieren. Diese Arbeit nimmt sich dieser Problemstellung an und versucht eine Brücke zwischen der Informatik und der Ökonomie zu schlagen. Es wird nicht nur eine didaktische Methodik für den Unterricht aufgezeigt, sondern auch anhand dreier sehr aktueller Themenbereiche vorgeführt, wie diese Methodik in der Praxis umsetzbar ist. Diese drei Themen sind im Bereich der Rohölmarktmodellierung angesiedelt. In der Diplomarbeit werden die Hotelling Regel, Wavelet- Analyse und Log Periodic Power Law ausführlich erklärt, in einem Modell wiedergegeben und schließlich in einem Programm implementiert. 81 Institut für Analysis und Scientific Computing Simon Michael Danner An application for learning and teaching extracellular stimulation of axons Studium: Masterstudium Informatikmanagement Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay Electrical stimulation of the nervous system plays a major role in todays medical research and practice. Muscles can be stimulated to avoid disuse, impaired function can be improved by targeted stimulation of certain nerves, and brain and spinal cord function can be researched. To appropriately apply these techniques, it is essential to understand the underlying mechanisms involved in the artificial activation of the central and peripheral nervous system by electrical stimulation. Complex nerve fiber models exist that describe the influence of the applied electrical field on the neurons. These models can be used to calculate, for example, excitation thresholds and action potential propagation and thus offer the possibility to study the electrical stimulation without complicated experiments. In this work, the theory of neuron and axon models and the mode of their artificial electrical activation are explained. An application is presented that allows to experiment with two commonly used axon models. Parameters can be varied and thresholds can be calculated. The goal is to provide an application with which students and interested people can learn the properties of electrical stimulation and the differences between commonly used axon models. The application is designed to offer as much freedom to the user as possible, in order to enable a learning by experimenting approach. Christian Denk Susceptibility weighted imaging with multiple echoes Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay One of the most successful imaging tools is magnetic resonance imaging (MRI). One new window is Susceptibility Weighted Imaging (SWI) which produces an enhanced contrast based on susceptibility differences between substances. Susceptibility is defined as the magnetic response of substances. SWI additionally uses the MRI signals phase in contrast to most other MRI techniques. Phase offers important information about the underlying tissue structure and chemical composition. Due to the phases limited domain [, ] artifacts or phase wraps arise. In this master thesis the standard SWI sequenceis extended to acquire multiple echoes (ME-SWI). To evaluate the newly developed sequence against the state of the art sequence the signal to noise and contrast to noise are calculated in different brain regions. Using 82 multiple echoes 50% more signal and 34 to 80% more contrast can be achieved. With the ME-SWI method the MRI phase and signal decay is extracted simultaneously. The post processing to eliminate phase wraps is adapted using a greater homodyne filter kernel with increasing echo time. The signal decay or tissue relaxation time R2 is calculated including a correction for background field inhomogeneities. Signal decay variation due to voxel geometry and spatial smoothing are investigated too. Larger voxel decrease the signal decay, while the decay with spatial smoothing up to an region volume of 16 mm3 increases. A scan-rescan experiment was performed to investigate the variability of the phase and signal decay. The coefficient of variation was calculated for all acquired data types (phase, magnitude, SWI, and R2) to determine reproducibility. Phase showed a significant better reproducibility than the signal decay. The result of this sequence are sharper images, where venous vessels up to 0.1 mm are visualized and maps in form of the signal decay and MRI phase of brain iron content can be computed within one scan. Florian Michael Güldenpfennig Linking physical and digital objects - an exploration of different labeling techniques Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay This thesis deals with the identification of objects and application areas for object recognition. Labeling technologies such as barcodes and radiofrequency identification (RFID) are used to assign unique identifiers. Non technical objects as well as living beings can be tagged. The Internet of Things is based on these technologies. Here, the basic concept is to create a comprehensive network between computers and objects (for example trading goods). One primary concern is the optimization of business processes. The described labeling technologies can be interpreted as a bridge between physical and digital objects as well. By means of a label, life can be breathed into an everyday thing. Optimization of business processes is not topic to the thesis on hand. Focal point is the digital life of tagged everyday objects. Various labeling technologies are explored creatively to design user interfaces for computing systems. For example, a shell, that has been tagged with RFID, can serve as a link to an online photo album. The photo album will be opened automatically as soon as the shell reaches the operating distance of the RFID-reader. The correct identification of the shell is the basic challenge of that application. Within this master thesis three techniques are implemented for object identification. First, a solution using RFID is developed. Afterwards, optical codes (Quick Response Codes) are applied. A third application abdicates the attachment of physical tags. Here, optical features of the object are consulted and object classification is accomplished by means of image understanding methods. Main focus to this thesis is the technical implementation of these applications. The thesis concludes with an outlook 83 on how labeling technologies can be employed in healthcare in a traditional as well as in an innovative way. Andreas Lehner Doppelkabelmodelle für die elektrische Reizung von Nervenfasern und Ihre Vereinfachung zur effizienten Computersimulation Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay Die Computersimulation findet auch in der Medizin immer mehr Bedeutung in verschiedensten Anwendungsbereichen. Unter Anderem kann die Ausbreitung von Nervenimpulsen im menschlichen Körper über Modelle dargestellt und simuliert werden. Eine detailgetreue Modellierung ist dabei genau so wichtig wie eine kurze Berechnungszeit verschiedener Versuchsaufbaue. Im Laufe der Jahre, beginnend bei Hodgkin und Huxley 1952 bis hin zum McIntyre Modell von 2002 (MRG Modell), wurde eine Vielzahl solcher Modelle entwickelt. Einige dieser Modelle ähneln sich, jedoch werden in fast allen die elektrischen Parameter der Membran sowie die vorhandenen Ionenströme angepasst. In nachfolgender Arbeit wird das zur Zeit akkurateste MRG Modell zur Simulation menschlicher Nervenfasern beschrieben. Der Nachteil des großen Rechenaufwands wurde dabei ausgemerzt und es entstand ein neues Modell, das eine wesentlich kürzere Berechnungszeit aufweist ohne dabei große Abweichungen in punkto AP-Form zu zeigen. Die einzelnen Schritte (von Analyse bis hin zur Implementierung des neuen Modelles) werden in dieser Arbeit beschrieben. Realisiert wurden alle Modelle in der freien Software NEURON. Andreas Walser Automatisierte Auswertung der Zellproliferation in menschlichen Gehirntumoren Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Dr. Frank Rattay Auf Grund der bisher einfachen Auswertung der Zellaktivität in menschlichen Hirntumoren existiert von Seiten eines Ärzteteams des Allgemeinen Krankenhauses der Stadt Wien (AKH) die Anfrage nach einer technischen Unterstützung. Die Diplomarbeit setzt sich mit der Erstellung eines Programmes für Ärzte und Forscher im Bereich der Histopathologie auseinander, das eine einfache, reproduzierbare und konsistente Auswertung der zu Grunde liegenden Daten ermöglicht. Ziel ist es, auf Basis eines histologischen Gewebescans eines Hirntumors, Zellen, welche sich in Teilung befinden und durch einen Marker eingefärbt wurden, von den restlichen Zellen zu unterscheiden. Neben dem Unterscheiden der beiden Zellzustandstypen ist auch deren jeweilige Anzahl für weitere statistische Auswertungen 84 gefragt. Zu Beginn der Arbeit werden medizinische Grundlagen zu diesem Thema erläutert, um das Verständnis und den Sinn der Diplomarbeit zu verdeutlichen. Weiters wird das zu Grunde liegende Datenmaterial dargestellt und die darauf basierenden Stärken und Schwächen der geeignetsten Entwicklungsumgebungen beschrieben. Nach dem Festlegen der verwendeten Entwicklungsumgebung folgen die Evaluierung passender Bildbearbeitungsbibliotheken und deren Methoden. Die Methoden, die zur Realisierung der Fragestellung unumgänglich sind, werden im Laufe der Diplomarbeit detailliert behandelt. Im letzten Teil der Arbeit werden die aus dem Programm resultierenden Ergebnisse mit dem Forschungsteam des AKH Wien analysiert und besprochen, bevor sie mit den Ergebnissen der herkömmlichen Methode verglichen werden. Am Ende folgt ein kurzer Ausblick darüber, welche Erweiterungsmöglichkeiten für dieses Programm bestehen. 85 Institut „Integriert Studieren“ Sebastian Schmid Sturzerkennung mit Hilfe von im Raum verteilten Vibrationssensoren Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler The chance to fall grows with increasing age. As life expectancy increases further and further, the research area of automated fall detection is becoming more relevant. One approach to detect falls and to trigger an alarm is to carry sensors such as accelerometers on the body. The biggest problem with this type of crash detection is that it is very dependent on the wearing of these sensors: the best fall detection is worthless if the user has just forgotten to put on the wristband with the sensor on the day of a fall. Another approach is not to wear the sensors on the body but to distribute them in the apartment. Falls are detected with the aid of appropriate algorithms from vibration data, collected by about three to four sensors per room. Then, packets of data are sent by radio to a computer which determines whether a crash has happened or not. This work is based on an existing prototype of such a sensor network and tries to develop an algorithm that can detect if a fall has occurred. 86 In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen Universität Wien Christine Bauer Out of the black box: Modelling the processes of managing telephone bands Studium: Masterstudium Wirtschaftsinformatik Betreuerin: Ao.Univ.Prof. Dr. Christine Strauss Eine Big Band zu managen, ist eine Herausforderung, die mit dem Management von Klein- und Mittleren Unternehmen vergleichbar ist. Aufgrund ihrer Komplexität besonders schwierig zu managen ist die sogenannte Telefonband ohne Fixbesetzung. Gemeinsam bilden die Musiker eine virtuelle Organisation, mit dem Bandleiter als fokales Unternehmen. Jeder Teilnehmer bringt Kompetenzen ein, hat spezifische Geschäftsziele und muss Risiken tragen. Insbesondere muss das fokale Unternehmen die volle Haftung gegenüber dem Eventveranstalter übernehmen. Bandleiter, welche diese Organisationskonstrukte managen, haben jedoch typischerweise einen künstlerischen Hintergrund und keine Managementausbildung. Bislang wurden Prozesse, die mit dem Bandmanagement verbunden sind, nicht analysiert. Eine Prozessverbesserung wird damit unmöglich gemacht. Jedoch ist geteiltes Wissen die Basis für Prozessverbesserungen. Erstens zielt die Untersuchung daher darauf ab, die Aktivitäten, die mit dem Management einer mittelgroßen Telefonband verbunden sind, durch Prozessmodellierung transparent zu machen. Zweitens analysiert diese Arbeit die daraus resultierenden Modelle und empfiehlt Verbesserungen, insbesondere hinsichtlich des Einsatzes von Informations- und Kommunikationstechnologien. Durch den explorativen Charakter eignet sich die Fallstudienstrategie mit qualitativen Forschungsmethoden. Die Daten werden in einem semistrukturierten Interview sowie durch teilnehmende Beobachtung erhoben. Die Resultate werden mittels UML-Notation für Aktivitätsdiagramme modelliert. Um Auswirkungen und Empfehlungen abzuleiten, wird eine SWOT-Analyse durchgeführt. Die zentralen Resultate beinhalten eine sorgfältige Dokumentation der Prozesse, wobei implizites wissen expliziert wird. Mit Technologiefokus zeigen die Ergebnisse die chronologische Abfolge von Aktivitäten, die auf Bandmanagement sowie Eventmanagement generalisiert werden können. 87 Birgül Kaya Benchmarking von ETL-Prozessen in Data Warehose Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Wilfried Grossmann Data Warehouses (DWH) bieten schnellen, zentralen Zugriff auf das gesamte unternehmensweite Wissen. Neben dem Speichern dieser wichtigen Geschäftsinformationen ist das schnelle und effiziente Auffinden von Daten eine der wichtigsten Funktionen eines DWH. Extraktion, Transformation und Laden (ETL) ist im Data Warehouse ein zentraler Prozess, der die Daten aus mehreren unterschiedlichen Datenquellen in einem zentralen DWH zur Verfügung stellt. Wird ETL nicht richtig designed, kostet dies viel Entwicklungsarbeit, bedeutet lange Ladeprozesse und hat schlechte Datenqualität zur Folge. In dieser Diplomarbeit wird, basierend auf einer Literaturrecherche, eine systematische Vorgehensweise für den ETL-Prozess erarbeitet. Damit werden einleitend Data Warehouse Systeme sowie der Begriff Datenqualität vorgestellt und in der Folge der ETL-Prozess von IBM, Oracle und Talend anhand eines Kriterienkatalogs geprüft. Um die ausgewählten Tools bewerten, und die funktionalen Unterschiede besser durchleuchten zu können, wird eine Funktionsanalyse ausgeführt. Mit einer Punkteskala werden die ausgewählten Tools bewertet und die Ergebnisse durch ein Spinnendiagramm visualisiert. Andreas Köhler Barrierefreier Web-Auftritt mit Typo3 Studium: Masterstudium Wirtschaftsinformatik Betreuerin: Ao.Univ.Prof. Dr. Christine Strauss Diese Arbeit hat das Ziel, den „State of the Art“ von Web-Accessibility festzustellen und das Erarbeitete an einem praktischen Beispiel - in Kombination mit Typo3 - anzuwenden. Das inkludiert die Bereiche Assistierende Technologien, Barrieren im Web, Menschen mit Behinderungen und Internet, Ältere Menschen und Internet, die diesbezügliche Gesetzeslage, Tools und Richtlinien für barrierefreie Webseiten sowie Content Management Systeme und ihre Eignung für barrierefreie Seiten. Diese Themen werden unter Verwendung aktueller Literatur aufgearbeitet; ferner wird das in dieser Arbeit verwendete Tool, das Content Management System Typo3, genauer vorgestellt. Im Anschluss daran werden die Webseiten des Fachbereichs eBusiness der Universität Wien hinsichtlich Web-Accessibility analysiert. Die dabei gewonnenen Informationen werden dazu verwendet, mit Typo3 einen neuen, barrierefreien Web-Auftritt zu erstellen. Die neu erstellten Webseiten werden ebenfalls einer genauen Überprüfung unterzogen um den Grad ihrer Barrierefreiheit feststellen und bewerten zu können. Dabei werden aber auch die Probleme und Schwierigkeiten ersichtlich, die zum Teil durch die Verwendung von Typo3 auftreten, zum Teil aber auch auf vorgegebene 88 Rahmenbedingungen auf Unternehmensebene sowie das Verwenden von bestimmten Inhaltstypen zurückzuführen sind. Diese Hindernisse und Probleme werden explizit beschrieben; ferner werden Herangehensweisen vorgestellt, die im Vorfeld der Entstehung von Problemen entgegenwirken und Methoden zur Bewältigung der Hindernisse auf Implementierungsebene erläutert. Die Arbeit kann daher bei zukünftigen Accessibility-Projekten mit Typo3 als Anleitung und Hilfestellung herangezogen werden. Sie erweitert zum Teil die Informationen der WAI um einen konkreten Bezug zu Typo3 und kann dadurch zu einem besseren und effektiveren Arbeiten mit Typo3 in Kombination mit barrierefreien Web-Auftritten führen. Technische Universität Graz Maida Osmic-Ahmic Ein Wissensbasierter Ziel-Empfehlungsdienst Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Univ.Prof. Dr. Klaus Tochtermann In Zusammenarbeit mit dem Partnerunternehmen Xohana ist das Ziel dieser Arbeit ein neuartiges Service zu entwickeln, das Benutzern einer sozialen Software mögliche Ziele vorschlägt. Diese Masterarbeit wendet sich damit einer praktischen Aufgabenstellung zu und untersucht das Potential der Agenten- und Ziel-orientierten Modellierungssprache i* für diesen Zweck. Die Aufgaben der Arbeit umfassen den Entwurf, die Implementierung basierend auf i* und die Evaluierung des Services. Nach der Einführung in die für die Arbeit wichtigen Themen wie Xohana Software System, Modellierung von Zielen, Suchalgorithmen sowie Empfehlungsdienste, wurde die Architektur des selbst entwickelten Ansatzes vorgestellt, gemeinsam mit dem Kern der entwickelten Applikation - 3 einfache Suchalgorithmen (Tiefensuche, Breitensuche und heuristischer Ansatz), die speziell für Xohana angepasst wurden. Durch die quantitative und qualitative Evaluierung wurden die Vorteile und Nachteile der oben erwähnten Ansätze untersucht sowie sowohl miteinander als auch mit dem Baseline-Algorithmus verglichen. Sowohl quantitativ als auch qualitativ hat sich die Tiefensuche für diesen Fall im Durchschnitt als am besten geeignet gezeigt. 89 Medizinische Universität Wien Mohammad Beikzadeh Analyse und Implementierung eines DICOM-Editors Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Ernst Schuster DICOM ist der etablierte Standard zum Austausch von Daten bildgebender Systeme in der Medizin. Für die Darstellung und Bearbeitung dieser DICOMDateien, die sowohl Bild- als auch Metadaten beinhalten, gibt es zahlreiche kommerzielle Programme, die sich entsprechend ihres Hauptanwendungsgebietes stark in ihrer Funktionalität unterscheiden. Die meisten Programme, die von Ärzten zur Befundung verwendet werden, sind auf die Darstellung ausgerichtete Viewer. Diese Programme erlauben zwar auch die Bearbeitung von DICOM-Dateien, doch steht diese Funktionalität sehr im Hintergrund. Das Ziel dieser Diplomarbeit war es daher, einen Editor zu entwickeln, mit dem DICOM-Dateien bearbeitet werden können. Tamas David Engel Leitlinienbasierte Erinnerungsmeldungen in der Geburtshilfe Studium: Masterstudium Medizinische Informatik Betreuer: Univ.Prof. Dr. Klaus-Peter Adlassnig The rapidly changing and increasing medical knowledge leads to fast outdating of diagnostic tests and therapies.Clinical practice guidelines are important instruments to support health care personnel with up-to-date and state-of-the-art knowledge in a standardised form.The documents have great influence on quality control and assurance in health care.They structure complex medical procedures and therefore faciliate therapy planning. Nevertheless methods are needed to support the dissemination and the updating of these documents. Currently there exist 66 guidelines at the Division of Obstetrics and Feto-Maternal medicine at the Department of Gynaecology of the Vienna General Hospital. They describe selected situations during pregnancy and childbirth. The automated aid for physicians and the enhancement of adherence to these guidelines can increase treatment quality as well as transparency. Within this work possibilities of automated guideline-based assistance for physicians as a means for quality control and requirements for such a framework are evaluated. In this pilot project we have shown how medical personnel can be supported by the application of computerized medical guidelines. We implemented a web application to allow multiple-point access and easier maintenance and to spare an installation on client computers. The software monitors whether specific therapy is required and provides the physician with patient-specific treatment recommendations. During the present study four guidelines were implemented.For implementing the knowledge base we used the medical 90 programming language Arden Syntax for Medical Logic Modules, an HL7 standard. Furthermore we performed a usability study according to Nielsen to assure an intuitive usage of the user interface.The application of this system can prevent the medical staff from omissions of existing policies according to the given clinical practice guidelines and supports the timely application of therapeutic recommendations. Eva Lahnsteiner Computer-assisted analysis of neurosurgical CCT-images Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Ernst Schuster Computer-assisted analysis of medical image data represents an inherent part of clinical routine. This thesis deals with image processing methods used for monitoring and analysing post-operative states of cerebral aneurysms after coiling therapy. Coil embolization involves filling the interior of the vessel outpouching with a platinum coil to detach the aneurysm from blood circulation in order to minimize the risk of a rupture. The coil-occlusion rate of the treated aneurysm indicates the success of the procedure. Currently, coiling treatment outcomes are subjectively estimated by experts of neuroradiology or endovascular neurosurgery on basis of post-coiling image data. This thesis deals with efforts in 2D and 3D image processing to establish and support more objective methods to analyse coiling-treatment results and follow-up image data. Goal of this research was the development of a userfriendly system, which implements the recently published method by Camillo Sherif et al. for a standardized quantification of coil occlusion on follow-up DSA and CCT images. Main field of application is the support of a scientific study with the aim to define operating figures indicating the risk of re-rupture according to the coil occlusion rate of an aneurysm. Furthermore it shall be adequate for the use in clinical routine and for research purposes. The system has been designed in cooperation with the research team around Camillo Sherif. The prototyping process involved constant consultations with the endusers to implement functionality and appearance of the system according to their needs. Result is a Java-written, stand-alone application that supports comfortable evaluation and processing of sectional images acquired after coiling treatment. 91 Walter Seeling Computergestützte Therapieplanung von Immunsuppressiva bei Patienten mit Nierentransplantation Studium: Masterstudium Medizinische Informatik Betreuer: Univ.Prof. Dr. Klaus-Peter Adlassnig Für Patienten mit chronischer Niereninsuffizienz besteht die Möglichkeit, im Rahmen einer Nierentransplantation eine Spenderniere zu erhalten. Nach solch einem Eingriff ist jedoch eine lebenslange Immunsuppressiva-Therapie notwendig. Diese Therapie muss aufwendig durch ein Therapeutic-DrugMonitoring begleitet werden. Ziel der vorliegenden Diplomarbeit ist es, die zumeist intuitive Therapieplanung zu objektivieren, die Gefahr einer Abstoßungsreaktion zu minimieren und letztendlich auch die Lebensqualität der betroffenen Patienten zu verbessern. Zur Wissensakquisition mittels Datenanalyse wurden Patientenverlaufsdaten der Jahre 1995 bis 2008 der Universitätsklinik für Innere Medizin III - Abteilung für Nephrologie und Dialyse des Allgemeinen Krankenhauses der Stadt Wien (AKH Wien) verwendet. Diese setzen sich aus Patientenstammdaten, Laborparametern und aus verschiedensten verabreichten Medikamenten mit deren Spiegelwerten zusammen. Aus den vorhandenen Immunsuppressiva-Daten wurde das Präparat Prograf, das auf dem Wirkstoff Tacrolimus basiert, ausgewählt, da es sich bei diesem in der Transplantationsmedizin um ein oft verwendetes und in der medizinischen Anwendung erfolgreiches Präparat handelt. In diesen retrospektiven Daten konnte durch den Einsatz eines Regressionsbaumes, der homogene Klassen bildet, das Problem der störenden Korrelation (Confounding) behoben werden. Innerhalb der Klassen wurde das Confounding fast vollständig aufgelöst, und es konnten Modelle gebildet werden, die den Spiegelwert des Präparates für die nächste Visite vorhersagen. Diese Modelle wurden zur Erstellung einer Wissensbasis für ein Clinical Decision Support System (CDSS) herangezogen. Im Zuge des neuen Allgemeines-Krankenhaus-Informations-Management (AKIM) des AKH Wien wird eine Expertensystemplattform geschaffen, welche es ermöglicht dieses CDSS in AKIM zu integrieren, dem Kliniker anzubieten und ihn dadurch bei der Immunsuppressiva-Therapie seines Patienten zu unterstützen. Andreas Wirthumer 3D Visualisierung transkranieller Magnetfeldstimulation Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Dietmar Rafolt Im Zuge der Diplomarbeit wurde die Software Magnetic Brain Stimulation Model (MBSM) entwickelt, an welche die zwei folgenden Hauptanforderungen bestehen: Es soll eine interaktive 3D Visualisierung entstehen, welche der Audienz die Abläufe einer Therapie mittels transkranieller Magnetfeldstimulation begreifbar machen soll. Die Visualisierung enthält ein anatomisch detailliertes 92 Modell eines menschlichen Kopfes sowie die für die Therapie platzierten Magnetfeldspulen und die von ihnen erzeugten Felder. Im Endeffekt soll es möglich sein alle Teile der Therapie (Kopf, Hirnregionen, Feldkomponenten, Spulen) auf an den Benutzer angepasste Art und Weise darzustellen. Weiters kann ein entsprechend geschulter Benutzer die Parameter der Therapie konfigurieren. Die zweite Anforderung beschäftigt sich mit dem Problem die vorhandenen Ressourcen möglichst effizient zu nutzen. Ausgehend von real vermessenen Magnetspulen werden die von ihnen erzeugten Feldkomponenten in Interaktion mit dem verwendeten Kopfmodell numerisch simuliert. Das Ergebnis sind Datenmatrizen der Feldverteilungen einzelner Magnetfeldspulen. Durch die Kombination der Simulationen isolierter Spulen per linearer Superposition wird das volle Pensum der vorhandenen Daten ausgenutzt. Es können aus den existierenden Daten durch Kombination neue Feldverteilungen abgeleitet werden, ohne die zeitaufwendige numerische Simulation erneut starten zu müssen. Die wurde Software mit C++, VTK, QT, boost, Visual Studio, GIT und CMAKE entwickelt und sie besteht aus zwei Bibliotheken (Toolbox - Arithmetik, Geometrie; TMSTools - 3D Modelle, Datenverarbeitung) sowie der Applikation MBSM. Mit den gewählten Technologien gelang es ein User Interface zu entwickeln, das die gestellten Anforderungen erfüllt. Der Prozess der Therapie kann vom User konfiguriert werden und wird von der Spule bis zur Stimulation im Gehirn anschaulich visualisiert. 93 94 Index der Autorinnen und Autoren Abinger Thomas - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Ansari Rana - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Arzberger Markus - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Auer Gerald - Department für Raumentwicklung, Infrastruktur- und Umweltplanung Autengruber Markus - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Interactive Media Systems Azesberger Christian - Institut für Managementwissenschaften Bairakdar Seif El-Din - Institut für Informationssysteme, Arbeitsbereich Knowledge Based Systems Bauer Christine - Universität Wien Bazalka Stephan - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Human Computer Interaction Beikzadeh Mohammad - Medizinische Universität Wien Bischof Stefan - Institut für Informationssysteme, Arbeitsbereich Knowledge Based Systems Brauner Andreas - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Bründl Daniel - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Buchwalder Stefan - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Chlebecek Helmut - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Multidisciplinary Design Crestin Victor - Institut für Managementwissenschaften Czedik-Eysenberg Hermann - Institut für Informationssysteme, Arbeitsbereich Distributed Systems Danner Simon Michael - Institut für Analysis und Scientific Computing Dannhauser Sandra - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Denk Christian - Institut für Analysis und Scientific Computing Divoky Bernd - Institut für Managementwissenschaften Dogan Hilal - Institut für Managementwissenschaften Dorn Florian - Institut für Rechnergestützte Automation, Arbeitsbereich Computer Vision Drienovsky Vladimir - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Duggleby Alexander - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Engel Tamas David - Medizinische Universität Wien Fida Ursula - Institut für Informationssysteme, Arbeitsbereich Distributed Systems 95 Fiel Stefan - Institut für Rechnergestützte Automation, Arbeitsbereich Computer Vision Fischer Bernhard - Institut für Technische Informatik, Arbeitsbereich Real Time Systems Freudenthaler Markus - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Gabmeyer Sebastian - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Business Informatics Glettler Martin - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Gottardi Riccardo - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Grössing Markus - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Gruber Markus - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Güldenpfennig Florian Michael - Institut für Analysis und Scientific Computing Haas Walter - Institut für Technische Informatik, Arbeitsbereich Real Time Systems Haas Alexander - Institut für Wirtschaftsmathematik Hammer Christian - Institut für Computersprachen, Arbeitsbereich Theoretische Informatik und Logik Handler Michael - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Hehr Stefan - Institut für Computergraphik und Algorithmen, Arbeitsbereich Computergraphik Hilber Peter - Institut für Technische Informatik, Arbeitsbereich Real Time Systems Hinterhofer Thomas - Institut für Automatisierungs- und Regelungstechnik Huber Markus - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Imber Mario - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Jordan Harald - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Interactive Media Systems Jung Markus - Institut für Informationssysteme, Arbeitsbereich Distributed Systems Kaya Birgül - Universität Wien Khyo Günter - Institut für Computersprachen, Arbeitsbereich Programmiersprachen & Übersetzerbau Kiesler Rene C. - Institut für Geoinformation und Kartographie Kment Thomas - Institut für Computergraphik und Algorithmen, Arbeitsbereich Computergraphik Knecht Wolfgang - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Interactive Media Systems Kögl Stefan - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-Commerce Köhler Andreas - Universität Wien 96 Korosec Anton - Institut für Informationssysteme, Arbeitsbereich Distributed Systems Koziarkiewicz Mikolaj - Institut für Informationssysteme, Arbeitsbereich Knowledge Based Systems Lahnsteiner Eva - Medizinische Universität Wien Lehner Andreas - Institut für Analysis und Scientific Computing Leibrecht Michael - Institut für Informationssysteme, Arbeitsbereich Distributed Systems Leitner Michael - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-Commerce Leonhartsberger-Schrott Martin - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Maczejka Lukas - Institut für Geoinformation und Kartographie Mair Thomas - Institut für Technische Informatik, Arbeitsbereich Real Time Systems Majlessi Maryam - Institut für Statistik und Wahrscheinlichkeitstheorie Marek Stefan - Institut für Computergraphik und Algorithmen, Arbeitsbereich Computergraphik Markowitschka Christine - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Martinek Christoph - Institut für Technische Informatik, Arbeitsbereich Real Time Systems Meusburger Harald - Institut für Managementwissenschaften Meyer Ludwig - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Mihalik Peter - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Human Computer Interaction Morak Michael - Institut für Informationssysteme, Arbeitsbereich Database and Artificial Intelligence Morgenbesser Wolfgang - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Interactive Media Systems Nägele Thomas - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Human Computer Interaction Niederbrucker Gerhard - Institut für Computersprachen, Arbeitsbereich Theoretische Informatik und Logik Oberlechner Karin - Institut für Computergraphik und Algorithmen, Arbeitsbereich Algorithmen und Datenstrukturen Ollram Petra - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Multidisciplinary Design Örün Ismail - Institut für Managementwissenschaften Osmic-Ahmic Maida - Technische Universität Graz Österle Christian - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Piazzi Roland - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-Commerce Pimmer Michael - Institut für Computergraphik und Algorithmen, Arbeitsbereich Algorithmen und Datenstrukturen Pirker Simon - Institut für Automatisierungs- und Regelungstechnik 97 Pourkalbasi Zheela - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Prennschütz-Schützenau Stefan - Institut für Informationssysteme, Arbeitsbereich Distributed Systems Priewasser Daniel - Institut für Computersprachen, Arbeitsbereich Programmiersprachen & Übersetzerbau Prokesch Daniel - Institut für Technische Informatik, Arbeitsbereich Real Time Systems Pucher Alexander - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Punzengruber Clemens - Institut für Computersprachen, Arbeitsbereich Programmiersprachen & Übersetzerbau Radits Markus - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Multidisciplinary Design Riener Martin - Institut für Computersprachen, Arbeitsbereich Theoretische Informatik und Logik Rodler Matthias - Institut für Computertechnik Rodler Christoph - Institut für Managementwissenschaften Rosensteiner Sebastian - Institut für Technische Informatik, Arbeitsbereich Real Time Systems Sackl Andreas - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Multidisciplinary Design Sagmeister Clemens - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Human Computer Interaction Schekulin Mario - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Human Computer Interaction Schmid Sebastian - Institut "Integriert Studieren" Schneider Patrik - Institut für Informationssysteme, Arbeitsbereich Knowledge Based Systems Schnitzhofer Florian - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Seeling Walter - Medizinische Universität Wien Simon Lenz - Institut für Managementwissenschaften Smejkal Peter - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Solomakhin Dmitriy - Institut für Informationssysteme, Arbeitsbereich Knowledge Based Systems Srndic Edin - Institut für Computersprachen, Arbeitsbereich Theoretische Informatik und Logik Srndic Edin - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Steiner Helmut - Institut für Rechnergestützte Automation, Arbeitsbereich Computer Vision Suljagic Alen - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Sundic Milica - Institut für Managementwissenschaften Tintel Martin - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering 98 Tomic Stanislav - Institut für Informationssysteme, Arbeitsbereich Distributed Systems Unterberger Heinz - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Walch Andreas - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Wallek Christian - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Wallner Johannes - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Human Computer Interaction Wallner Johannes Peter - Institut für Informationssysteme, Arbeitsbereich Database and Artificial Intelligence Walser Andreas - Institut für Analysis und Scientific Computing Walter Martin - Institut für Technische Informatik, Arbeitsbereich Embedded Computing Systems Weishapl Peter - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Wenzl Matthias - Institut für Computertechnik Wetzinger Elisabeth Reingard - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Windhab Dominik - Institut für Automatisierungs- und Regelungstechnik Wirthumer Andreas - Medizinische Universität Wien Zumpf Reinhard - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information and Software Engineering Zwickl Patrick - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Business Informatics 99 Alle in diesem Band angeführten Abstracts stammen von den AutorInnen der jeweiligen Diplomarbeit. Abstracts der Diplomarbeiten werden von den BetreuerInnen approbiert. IMPRESSUM Zentrum für Koordination und Kommunikation der Fakultät für Informatik 1040 Wien, Favoritenstraße 9/195 www.informatik.tuwien.ac.at Konzept: DI Karin Hraby (c) 2011 Technische Universität Wien Fakultät für Informatik Technische Universität Wien Fakultät für Informatik 1040 Wien, Favoritenstraße 9-11/195 T: +43-1-58801-19501 F: +43-1-58801-19599 E: sek@zkk.tuwien.ac.at