epilog - Informatik
Transcription
epilog - Informatik
epilog Präsentation der Diplomarbeiten der Fakultät für Informatik Wintersemester 2008 VORTRÄGE Die Fakultät für Informatik präsentiert die Diplomarbeiten des letzten halben Jahres in einer Posterausstellung und ausgewählten Vorträgen. Ziel der Veranstaltung ist es, einen Einblick in das breite Spektrum der Themen und Aufgabenstellungen der Abschlussarbeiten an den verschiedenen Instituten und Arbeitsbereichen zu geben. PROGRAMM 4. Dezember 2008 15:00 Uhr Eröffnung der Posterausstellung unter Anwesenheit der AutorInnen und BetreuerInnen der ausgestellten Poster. 16:00 Uhr Vorträge (im HS6 ) Begrüßung und Einleitung Dekan G. Steinhardt, Vizerektorin S. Seidler Vorträge zu den nominierten Diplomarbeiten Gastvortrag: IT und Beratungskarriere am Beispiel IBM – Welche Kompetenzen sind gefragt? DI Gabriele Fischer Learning Leader Central & Eastern Europe, Middle East, Austria & Switzerland, IBM Global Business Services 18:00 Uhr Vergabe der Auszeichnungen mit anschließendem Buffet Für die beste Diplomarbeit wird von einer Jury aus Professorinnen und Professoren der Fakultät unter dem Vorsitz von Studiendekan Rudi Freund, der mit 4.000 € dotierte "Distinguished Young Alumnus/Alumna"-Award vergeben. Beurteilungskriterien sind dabei die Diplomarbeit sowie der gehaltene Vortrag der von den Instituten nominierten Absolventinnen und Absolventen. Dey-Fuch Chiu Penta G - A Game Engine for Real-Time Rendering Research Institut für Computergraphik und Algorithmen, Arbeitsbereich Computergraphik Thomas Flanitzer Security mechanisms for low-end embedded systems Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme Markus Triska Solution Methods for the Social Golfer Problem Institut für Informationssysteme, Arbeitsbereich Datenbanken und Artificial Intelligence Peter Wiedermann A Generalized PBQP Instruction Selector for the LLVM Compiler Framework Institut für Computersprachen, Arbeitsbereich Programmiersprachen und Übersetzerbau Das beste ausgestellte Poster wird mit dem mit 1.000 € dotierten „Best Poster Award“ ausgezeichnet. Zusätzlich gibt es für Firmen die Möglichkeit, spezielle "Firmenpreise" an die von der Fakultät nominierten Vortragenden zu vergeben. 2 Zuverlässigkeitsmodell für eine DECOS SoC Komponente präsentiert mit dem von einer einzelnen Komponente sowie von verteilten Applikationen aufbauend auf solchen Komponenten die Zuverlässigkeit quantitativ evaluiert wird. Die Parameter für das Modell werden von einer Prototypimplementierung übernommen. Durch die Variation der Modellparameter werden Designentscheidungen und Technologie /Applikations-Beschränkungen analysiert. Besonderes Augenmerk wird auf transiente Fehler gelegt, die durch Partikeleinschläge (kosmische Strahlung und Rückstände vom Herstellungsprozess) verursacht werden. Diese haben einen gewichtigen Anteil an der Ausfallsrate elektronischer Systeme und gewinnen weiter an Bedeutung durch die fortschreitende Miniaturisierung der Halbleitertechnologien und der Verringerung der Spannungsversorgung. Ein weiterer Fokus liegt bei der Betrachtung von Designfehler im Kontext der integrierten Ausführung von Applikationen mit unterschiedlichen Zertifizierungsstufen und bei dem Nutzen von Designdiversität für redundanten Komponenten. DIPLOMARBEITEN INSTITUT FÜR TECHNISCHE INFORMATIK Arbeitsbereich Real Time Systems Andreas Kanzler Ein graphisches Frontend für die Zeitanalyse von Echtzeitprogrammen Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Puschner Abstrakt: Bei der Entwicklung von Computersystemen wird das Verständnis über das Laufzeitverhalten dieser Systeme immer wichtiger. Speziell bei Echtzeitsystemen stellt dies eine notwendige und wichtige Information dar, da nur so Aussagen über die Einhaltung der definierten Zeitschranken gemacht werden können. Ziel dieser Arbeit ist das Design und die Entwicklung einer Applikation, die es erlaubt, das Zeitverhalten von Programmen besser zur verstehen. Die Informationen aus der Zeitanalyse werden von Komponenten bereitgestellt, welche nicht Bestandteil dieser Arbeit sind. Die Analysen werden von diesen Komponenten mittels messbasierter Zeitanalyse erstellt. Die Analyseinformationen werden von der entwickelten Applikation graphisch visualisiert und können vom Benutzer interaktiv abgefragt werden. Zusätzlich besteht für den Benutzer teilweise die Möglichkeit, in den Analyseablauf einzugreifen. Christian Pucher A Framework for Validation of Virtual Gateways in the DECOS Architecture Studium: Masterstudium Technische Informatik BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz Abstrakt: Die DECOS Architektur ist eine integrierte Architektur und versucht, die Vorteile von verteilten und integrierten Architekturen zu vereinen. Dazu wird das Gesamtsystem in nahezu unabhängige Teilsysteme, sogenannte Distributed Application Subsystems (DASs), unterteilt. Die Kommunikationsinfrastruktur für die DASs wird von virtuellen Netzwerken zur Verfügung gestellt, welche auf einer zeitgesteuerten Basisarchitektur implementiert sind. Oft ist es notwendig für ein DAS, Information mit einem anderen DAS auszutauschen, dies ist die Aufgabe eines Gateways. Gateways sind in der DECOS Architektur als virtuelle versteckte Gateways implementiert (d.h. unsichtbar für die Applikation). Neben dem Weiterleiten von Nachrichten von einem Netzwerk ins andere, sind Gateways auch dafür verantwortlich, etwaige semantische oder operative Unstimmigkeiten zwischen den verbundenen Netzwerken aufzulösen. Eine weitere wichtige Aufgabe von Gateways ist das Encapsulation Service, welches für die Fehlereingrenzung verantwortlich ist, sowie für die selektive Weiterleitung von Nachrichten, um Bandbreite zu sparen. Ziel dieser Arbeit ist die Validierung der Gateway Services durch experimentelle Evaluierung. Um diese Aufgabe bequem zu lösen, stellen wir ein Framework vor, das die Möglichkeit bietet, das System zur Laufzeit zu überwachen und welches automatische Testläufe unterstützt. Hubert Kraut Reliability Assessment of DECOS System-on-a-Chip Components Studium: Masterstudium Technische Informatik BetreuerIn: Univ.Ass. Dr. Roman Obermaisser Abstrakt: Das DECOS SoC Komponentenmodell beschreibt eine Architektur der nächsten Generation, die eine Plattform für die einfache Integration verschiedenster Typen eingebetteter Applikationen (z.B. Unterhaltungs-, Avionik-, Automobil- und Industrieelektronik) bietet. Den Kern dieser Architektur bildet das zeitgesteuerte NoC, das eine deterministische Kommunikation zwischen den heterogenen Komponenten über einen gemeinsamen Bus unterstützt. Die dadurch inhärente Fehlerisolation ermöglicht eine nahtlose Integration unabhängig entwickelter Komponenten mit möglicherweise unterschiedlichen Zertifizierungsgraden. Zusätzlich unterstützt das DECOS SoC Komponentenmodell die dynamische Rekonfiguration von Komponenten bei sich ändernden Applikationsanforderungen, z.B. im Hinblick auf Ressourcenverteilung, Fehlertoleranz und Energiemanagement. In dieser Arbeit wird ein generisches 3 4 Thomas Strnad Validation of the DECOS Encapsulated Execution Environment Wolfgang Wögerer The Loss of Explicity for Static WCET Analysis during Compilation Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Puschner Abstrakt: The DECOS (Dependable Embedded COmponents and Systems) integrated architecture allows the integration of different embedded application sub-systems with different criticality into the same hardware infrastructure. In the DECOS integrated architecture, computational resources (CPU time, memory, I/O) and communication resources (network bandwidth) are shared among multiple software components in order to reduce the number of deployed embedded computer nodes, which implies the reduction of system cost. The DECOS integrated architecture consists of four layers: the I/O layer, the application layer, the middleware layer, and the core layer. Distributed soft- ware applications run at the application layer. So called DECOS high-level services (virtual network service, virtual gateway service, diagnostic service) are executed in the middleware layer. The core layer provides services that are in charge of predictable and faulttolerant communication among different DECOS integrated nodes. In order to perform a seamless integration of different software modules that may be developed by different vendors, the DECOS integrated architecture services guarantee that different applications do not affect the operation of each other in an undesired manner: An application job that is executed in one of the DECOS components can not affect other application jobs or DECOS services. A prototype implementation of the DECOS integrated architecture was developed at the Vienna University of Technology. The encapsulated execution environment is in charge of preventing non- specified interaction among the application jobs (implemented as LXRT tasks) executed in the DECOS components. The encapsulated execution environment is implemented by using the Linux operating system with RTAI and LXRT patches. The objective of this work is to validate whether LinuxRTAI-LXRT fulfils the requirements to be used as an encapsulated execution environment in the DECOS integrated architecture. Validation is performed by means of software implemented fault injection (SWIFI). SWIFI is usually deployed to emulate the occurrence of hardware faults. In this work, SWIFI is used to perform the emulation of software faults in order to observe, if a faulty application job that is executed in a DECOS component can affect the operation of other application jobs or the DECOS services. Abstrakt: Die Analyse der worst-case Laufzeit der Prozesse eines Echtzeitsystems ist eine wichtige Unteraufgabe bei der Konstuktion dieser Systeme. Speziell für harte Echtzeitsysteme, bei denen ein Fehlverhalten zum Verlust menschlichen Lebens führen kann, muss garantiert sein, dass in jedem Fall alle Deadlines des Systems eingehalten werden. Eine statische Analyse der worst-case Laufzeit kann die dafür nötigen sicheren (Über)Approximationen bieten. Diese (Über-)Approximationen bergen das Risiko in sich, dass diese hoch über der wirklichen worst-case Laufzeit liegen und dass das System als ganzes nicht gebaut werden kann, wenn die berechneten Laufzeiten berücksichtigt werden sollen. Viele Programme für Echtzeitsysteme werden heute in einer höheren Programmiersprache wie C geschrieben. Hauptsächlich da der Objektcode unter anderem Informationen darüber enthält welche Prozessorinstruktionen tatsächlich ausgeführt werden, basiert die statische Laufzeitanalyse nach dem momentaten Stateof-the-Art auf Objektcode. Es zeigt sich, dass bei der statischen Laufzeitanalyse von Objektcode Probleme aufteten, die bei der statischen Laufzeitanalyse von Code einer höeren Programmiersprache nicht existent sind. Abstrakt gesehen kann man sagen, dass bestimmte Informationen für die statische Laufzeitanalyse aus dem Code einer höheren Programmiersprache einfacher zu extrahieren sind als jene aus equivalentem Objektcode. In anderen Worten, die Programmrepräsentation einer höheren Programmiersprache ist für diese Information expliziter als die Programmrepräsentation in Objektcode. Diese Diplomarbeit analysiert diesen Verlust an Explizitität und will damit die Forscher auf dem Gebiet der Laufzeitanalyse unterstützen die richtigen Ansatzpunkte zu finden, um diesen Verlust an Explizitheit zu reduzieren und damit bessere Laufzeitanalysesysteme zu schaffen. 5 6 Abstrakt: Die Einführung einer elektronischen Patientenakte (EPA) befindet sich in Österreich derzeit noch in der Planungsphase. Die technische Umsetzung ist zwar durch die österreichische Bundesregierung in Auftrag gegeben und von diversen Firmen und Arbeitskreisen geplant, allerdings wird der künftige Benutzer in den Prozess der Entwicklung derzeit nicht ausreichend eingebunden. Aus diesem Grund wurde diese Studie über die Akzeptanz einer elektronischen Patientenakte an 170 Personen durchgeführt. Im Rahmen der vorliegenden Arbeit wurde analysiert, welche geplanten Aspekte einer EPA von den Testpersonen auf positive, oder aber negative Resonanz stoßen. Dabei wurden Informationen über Trends, Bedürfnisse, Erwartungen und Neigungen der befragten Benutzer erhoben, aber auch Ängste und Unsicherheiten, die sich vorwiegend auf den Bereich des Datenmissbrauchs beziehen, erfasst. Zunächst wurden Hypothesen zum Thema elektronische Patientenakte in Österreich im Allgemeinen erarbeitet, die durch die durchgeführte Befragung verifiziert oder falsifiziert wurden. Dabei zeigte sich, dass der Großteil (78%) der befragten Testpersonen bereits konkrete Vorstellungen von einer EPA hat. Dabei zeigen die verschiedenen Altersgruppen bei mehreren relevanten Fragestellungen keine signifikanten Unterschiede, z.B. glauben ältere (>40 Jahre) ebenso wie jüngere Menschen (< 40 Jahre) an einen persönlichen Nutzen durch eine EPA. Ein tendenzieller Unterschied der Altersgruppen konnte allerdings in Bezug auf die Verwaltung der in einer EPA gespeicherten medizinischen Daten erfasst werden. Ältere Menschen wollen dabei anfallende Daten von geschulten Personen verwalten lassen, während jüngere Benutzer ihre Daten selbst verwalten wollen. Als Ergebnis der durchgeführten Studie wurden deutliche Trends in Bezug auf Nutzung, Ängste und Ideen der zukünftigen Nutzer eines solchen Systems identifiziert. INSTITUT FÜR RECHNERGESTÜTZTE AUTOMATION Arbeitsbereich Automatisierungssysteme Simone Awender Anforderungsanalyse in Bezug auf den Nutzungskontext eines webbasierten Buchhaltungssystems für Einnahmen / Ausgabenrechner Studium: Masterstudium Information and Knowledge Management BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Als Ziel der vorliegenden Diplomarbeit wird eine Anforderungsanalyse für die Realisierung einer Benutzerschnittstelle für ein webbasiertes Buchhaltungsprogramm für Einnahmen / Ausgabenrechner erstellt, wobei aktuelle Methoden des Usability Engineering eingesetzt und gängige Standards implementiert werden. Besonderer Fokus wird dabei auf die Bedürfnisse zukünftiger Benutzer und den Aspekt Barrierefreiheit gelegt, um neben den identifizierten Zielgruppen auch behinderten Anwendern eine optimale Nutzung zu ermöglichen. Zu Beginn werden die gängigsten Techniken der Fachdisziplin mit ihren spezifischen Vor- und Nachteilen einer potentiellen Umsetzung diskutiert. Der Planungsprozess wird ebenso vorgestellt wie die Werkzeuge, die zu dessen Realisierung verwendet werden können. Anhand eines konkreten Fallbeispiels wird aufgezeigt, welche Probleme in der Realisierungsphase auftreten können und in wie weit die Methoden des Usability Engineerings anwendbar sind. Dabei werden zunächst die betroffenen Benutzergruppen erhoben, die sich jeweils hinsichtlich ihrer grundsätzlichen Einstellung und Bereitschaft, ihrer Kenntnisse und Erfahrungen unterscheiden. Des weiteren werden bereits etablierte Anwendungen detailliert untersucht und ausgesuchte Elemente als Basis ins Fallbeispiel integriert, um den Benutzern eine gewohnte und damit intuitiv verwendbare Applikation anbieten zu können. Abschließend wird das Umfeld einer solchen Anwendung im Falle einer tatsächlichen Markteinführung beleuchtet, damit auch marktspezifische Anforderungen auf die Gestaltung der Oberfläche Einfluss nehmen können. Als Ergebnis der Arbeit wurde ein Prototyp der Anwendung entwickelt, der die essenziellen Erkenntnisse aus dieser Arbeit enthält und damit zeigen kann, inwieweit moderne Erkenntnisse des Usability Engineering dazu beitragen können, die Bedienbarkeit und somit die Akzeptanz der Benutzer zu erhöhen. Andreas Berger Analyse von Software Engineering Teams in Bezug auf die Rollenvergabe zur Optimierung der Team-Performance in der Gruppenbildungsphase Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: In den letzten Jahren wurde die Steigerung und die Optimierung von Team-Performance in Software Engineering Prozessen ein zentrales Problem der Disziplin, nicht nur deshalb, weil die Personalkosten den wesentlichsten Bestandteil an den Gesamtprojektkosten ausmachen, sondern auch weil immer mehr Projekte in (Klein-)Gruppen durchgeführt werden. Diese Teams rekrutieren sich oft aus Personen, die sich zumeist untereinander nicht kennen und daher einen Gruppenbildungsprozess, in dem Rollen zugeordnet und genauer ausdifferenziert werden, durchlaufen müssen. Die gängigen Methoden zur Team-Performance-Steigerung versuchen nun mittels Persönlichkeitsprofilen von Rollen und gegenseitigen Skill-Evaluierungen der Teilnehmer eine Optimierung des TeambildungsProzesses durch geschickte Rollenvergabe zu erreichen. Diese Methoden René Baranyi Erhebung und Evaluierung von Akzeptanz und Nutzung der zukünftigen elektronischen Patientenakte in Österreich Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig 7 8 haben jedoch das Problem immanent, dass sie - bedingt durch ihren methodischen Ansatz – nicht bereits zum Zeitpunkt der Entstehung der Teams angewandt werden können und dadurch nur beschränkt von Nutzen sind. Eine möglichst frühe Teamoptimierung ist vor allem wichtig, weil mit der Zeit die Team-Performance zunimmt: Der Output eines Teams ist in den ersten Teambildungs-Phasen signifikant schlechter als in den späteren. Es sollten also Methoden entwickelt werden, die schon zu einem früheren Zeitpunkt greifen können, bestenfalls beim ersten Treffen. Zu diesem Zweck analysiert die folgende Arbeit Teams bei der Rollenvergabe bereits in ihrer Genesis und ermöglicht so Klassifizierungen von Gruppen, die dann später kritisch evaluiert werden. Dabei wird besonderes Augenmerk auf die Evaluation von Zufriedenheit mit der erhaltenen Rolle gelegt. Folgeforschungen haben so die Möglichkeit, Strategien von erfolgreichen und zufriedenen Gruppen zu fördern und Methoden der nicht erfolgreichen Gruppen zu vermeiden. Thomas Flanitzer Security mechanisms for low-end embedded systems Studium: Masterstudium Technische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner Abstrakt: Home and Building Automation (HBA) systems use control networks for accessing devices inside buildings to improve the building's efficiency, flexibility and control. Typical applications include the control of lighting, heating, ventilation and air-conditioning. In such systems, a special device class called Sensors, Actuators and Controllers (SACs) can be be identified to have the typical characteristics of low-end ES. SACs play an important role in HBA systems and are often used in large numbers. The goal of this thesis is to provide general security in low-end ES while still allowing to run arbitrary and uninspected (and possible erroneous and malicious) application programs. The system as well as its environment should be protected against security attacks. Various existing mechanisms for improving application level security are reviewed and evaluated in terms of applicability to low-end embedded systems. Suitable mechanisms are selected and combined into a concept architecture which is introduced as an efficient and secure solution for providing resistance to any kind of software-based attack. The feasibility and effectiveness of the architecture is demonstrated with a Proof-of-Concept (PoC) implementation which was developed as part of the thesis. The PoC closely resembles the typical functional profile of a SAC device. A test environment, consisting of an HBA network, was built and several examples and tests were run. In these tests, the PoC delivered some interesting and promising results which support the potential of the proposed architecture. Hannes Brandstetter Heimautomationssystem - Theorie und Praxis Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner Abstrakt: War die Gebäudeautomatisierung bisher hauptsächlich im Büround Industriebereich verbreitet, wurde durch neue Produkte und Konzepte die Idee der Automation in die Wohnzimmer getragen. Dank der Liberalisierungen am Telekomsektor, dazu zählt vor allem die Freigabe von Frequenzbereichen, welche für lizenzfreie Nutzung europaweit oder gar weltweit zur Verfügung gestellt wurden, konnten dem Endnutzer einfach zu bedienende und in der Anschaffung günstige Steuersysteme angeboten werden. Der Markt ist mittlerweile unübersichtlich, verschiedenste Systeme konkurrierender Hersteller sind nicht miteinander kompatibel, dennoch konnten sich einige Standards etablieren, welche jeweils von mehreren Herstellern unterstützt werden. Die vorliegende Masterarbeit behandelt in 3 Teilen verschiedene Aspekte der Heimautomatisierung. Im ersten Teil wird versucht die Kriterien zu ermitteln, welche für Automatisierungssysteme im Allgemeinen und Heimautomatisierung im Speziellen zur persönlichen Entscheidungsfindung relevant sein können. Im zweiten Teil werden bestehende Standards, Systeme und Systemkomponenten dargestellt. Im dritten Teil wird ein konkretes Projekt vorgestellt, welches mit bewährten Standardkomponenten eine kostengünstige individuelle Haussteuerung verwirklicht, wobei auf möglichst offene Architektur geachtet wurde, um später Schnittstellen für bestehende und zukünftige Systeme entwickeln und einbinden zu können. Die Masterarbeit als solches, insbesondere das PraxisProjekt soll geeignet sein, im fachtheoretischen und fachpraktischen Unterricht sowohl Grundkenntnisse der Automation zu vermitteln, als auch einen vertiefenden Einblick in die Funktionsweisen von Heimautomation zu ermöglichen. 9 Sascha Frühwirth Ein hybrides Verfahren zur automatischen Rekonstruktion von handzerrissenen Dokumentenseiten mittels geometrischer Informatinen Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Nicole Gabriel Anforderungsanalyse eines Patienten-Kiosk-System für das Krankenhaus Güssing Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Die gegenständliche Diplomarbeit beschäftigt sich mit der Möglichkeit, gewisse administrative Tätigkeiten in einem Krankenhaus auf die Patienten zu übertragen. Anhand des Fallbeispiels "Allgemeines 10 Öffentliches Krankenhaus Güssing" werden die Funktionalitäten eines elektronischen Patienten-Kiosk-Systems analysiert, wobei die Terminreservierung, die Terminanmeldung und die Anzeige von Lageplänen die grundlegenden Funktionalitäten bilden. Basis der Diplomarbeit ist die Definition von fachlichen Grundlagen zur Anforderungsanalyse sowie der Methodik für die Erarbeitung dieser. Ausgehend von der Erhebung des IstZustandes und der Definition der An- und Abmeldeprozesse von Patienten wird eine umfassende Analyse durchgeführt, welche Anforderungen das Patienten-Kiosk-System erfüllen soll und wie der Einsatz des Systems zuvor genannte Prozesse verändert. Thomas Heinz Optimierung des Business Continuity Managements von Klein- und Mittelunternehmen mittels ITIL v3 Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Heute wird die Informationstechnologie noch sehr oft als Mittel zum Zweck betrachtet, die strategischen Vorteile durch einen effizienten Einsatz werden oft übersehen. Im Falle eines Ausfalls der Informationstechnologie kommen die fatalen Auswirkungen zum Vorschein, welche durch unzureichende präventive Maßnahmen ausgelöst werden. Im Zentrum der vorliegenden Arbeit steht die vergleichende Untersuchung aktueller präventiver Methoden und deren Potential für die Notfallplanung betreffend die IT von Unternehmen. Dabei werden im Speziellen die Methoden Business Continuity Management und IT-Service Continuity/Disaster Recovery analysiert, wobei der Fokus auf Anforderungen von KMUs liegt. Bei der Methode Business Continuity Management steht der prozessorientierte Ansatz im Vordergrund, wobei Geschäftsabläufe in Unternehmen als sensibel eingestuft werden, welche bei einem Ausfall die schwerwiegendsten Auswirkungen haben. IT-Service Continuity beinhaltet hingegen Maßnahmen für die Sicherstellung einer Beständigkeit bezüglich ITServices von Unternehmen. Diese Maßnahmen werden mit der Methode Disaster Recovery beschrieben. Im weiteren Verlauf der vorliegenden Arbeit werden Maßnahmen beschrieben, die eine effiziente Verbesserung der ITServices in Unternehmen ermöglichen. Diese Maßnahmen werden mit Hilfe des aktuellen ITIL-Bandes Continual Service Improvement beschrieben. Als Fallbeispiele werden in dieser Arbeit zwei unterschiedliche Unternehmen und deren Notfallmethoden im Detail dargestellt. In diesem Abschnitt werden entsprechend den Eigenschaften der verschiedenen Unternehmen Maßnahmen vorgeschlagen, wie Notfallplanung eingeführt oder verbessert werden kann. Als Ergebnis der vorliegenden Arbeit konnte gezeigt werden, dass die Möglichkeiten des IT-Service Continuity/Disaster Recovery für kleinere Unternehmen durchaus ausreichend sind, während die Methoden des umfassenderen Business Continuity Management aus Kostengründen eher für größere Unternehmen geeignet sind. Zusätzlich konnte aufgezeigt werden, wie eine Verbesserung der IT-Services durch Methoden des Continual Service Improvements stattfinden kann. Elham Hedayati-Rad Analyse, Auswertung und Visualisierung umfangreicher textueller Daten mit dem Schwerpunkt der elektronischen Bürgerzufriedenheitserhebung als Aspekt des e-Government Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: In der vorliegenden Arbeit wird aufbauend auf der theoretischen Basis der empirischen Sozialforschung ein Einblick in die Problematik der Analyse unstrukturierter Texte im Umfeld von Bürgerzufriedenheitserhebungen erarbeitet. Gerade im Bereich des e-Government ist die Partizipation der Bürger wünschenswert und wichtig, weil nur bei Vorliegen von Feedback der Bürger eine positive Verbesserung Veränderung verwaltungstechnischer und organisatorischer Abläufe möglich wird. Ein wichtiges Mittel für die Erhebung der Bürgermeinung sind Umfragen und Interviews. Die Zielsetzung dieser Arbeit ist es, einen Überblick über die relevanten Gebiete der empirischen Sozialforschung und über die technischen Aspekte der Auswertung von Umfragen zu schaffen, wobei neben der Erhebung und Analyse quantitativer Daten ganz besonders die Erhebung und Analyse qualitativer Daten eine wichtige Rolle spielt. Gerade bei Bürgerbefragungen sind häufig Antworten in Form unstrukturierter Texte zu finden, deren Auswertung mit hohem Zeitaufwand und somit hohen Kosten verbunden ist. Im technischen Teil dieser Arbeit werden die grundlegenden Algorithmen vorgestellt, die notwendig sind, um qualitative Daten in Form von unstrukturierten Texten analysieren zu können, wobei ein Überblick über aktuelle Softwarelösungen gegeben wird. Abschließend wird anhand einer, im Rahmen der Diplomarbeit, ausgewerteten Bürgerzufriedenheitsumfrage die Anwendung der vorgestellten Algorithmen demonstriert. Eduard Hirsch Quantum cryptography applied for safety relevant systems Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Gerhard-Helge Schildt Abstrakt: Diese Diplomarbeit befasst sich mit einer der neu aufkommenden Ideen, die die Quantuen Theorie hervor gebracht hat: Quanten 11 12 Kryptographie. Zuerst werden Grundlagen vermittelt, sprich grundlegende kryptographische Methoden welceh in der klassischen Kryptographie benutzt und anschließend beschrieben werden mit dem Focus auf eine Szenerie, die später erstellt wird. Dabei handelt es sich zum Beispiel um RSA, Authentifizierung und verschiedenste andere Punkte die wichtig sind bevor Verschlüsselungs mehtoden überhaupt angewandt werden können. Wenn die klassischen Konzepte klar sind wird Quanten Kryptographie näher diskutiert, wobei zuerst oberflächlich die Prinzipien der Quanten Theorie besprochen werden. Unter anderem werden Quantenzustände und Superpositionen besprochen. Speziell wird auch der Fokus auf Verschränkung und das No-Cloning Theorem gelegt. Zusätzlich wird der Vater der heutigen Quanten Kryptrographie Protokolle (BB84 Protokoll) präsentiert, um die grundlegenden Prinzipien zu verstehen. Weiters wird die Verwendung von Quanten Kryptographie in einem sicherheitsrelevanten System untersucht. Das heißt für dieses Dokument, dass eine Beispielumgebung skizziert wird, wleche moderne klassische, mit Quanten Kryptographie verbindet. Dabei gilt es eine zentrale Kommunikationsumgebung, die auf IPSec basiert und fähig ist, mehrere verbundene Kernkraftwerke zu kontrollieren und teilweise zu administieren, wobei Grenzen und Möglichkeiten der Quanten Kryptogrpahie aufgezeigt werden. Wirklich wichtig dabei ist die Zuverlässigkeit und Verfügbarkeit des System und Strategien, wie das gewährleistet werden kann. Zum Schluss wird die erstellte Szenerie überprüft und auf Brauchbarkeit untersucht. Dabei werden Authentifizierung, das IPSec Protokoll und verschiedene andere Attacken betrachtet und ausgewertet. Folglich zeigt dieses Dokument, mit welchen Maßnahmen man Quanten Kryptographie für den Einsatz in sicherheitsrelevanten Systemen bereit machen kann. Neue Quanten kryptographische und bereiets allgemein angewandte Methoden werden also kombiniert um eine gut funktionierende Kommunikationsumgebung zu erhalten. Verschiedenste Methoden werden diskutiert, elche sehr komplex sind und das Hintergrundwissen steigt, je mehr man sich mit dem Thema befasst. Deshalb werden die hier verwendeten Methoden nur bis zu einem gewissen Grad behandelt, weil der Fokus auf der Zusammenarbeit zwischen den verschiedenen Protokollen und Technologien liegt. Communication (NFC) wurde nun zusätzlich die Nutzung als elektronische Geldbörse für mobile Bezahlung (M-Payment) realisiert. Die vorliegende Arbeit beschäftigt sich zunächst mit den Grundlagen von Bezahlsystemen im Allgemeinen sowie gängigen Technologien zur Datenübertragung. Kern der Arbeit ist die Identifizierung möglicher Sicherheitsrisiken und die Erarbeitung von Kriterien, die für die Akzeptanz von M-Payment beim Endanwender wichtig sind. Basis für entsprechende Bewertungen waren vor allem Studien und Meinungsumfragen von Endanwendern über die Nutzung oder Ablehnung von M-Payment sowie Erhebungen zum Thema Sicherheitsrisiken im Bereich der Datenübertragung. Im Rahmen der vorliegenden Arbeit konnte klar aufgezeigt werden, dass derzeit noch zahlreiche Sicherheitsrisiken bei der Nutzung von Mobile Contactless Payment, das ist M-Payment mittels NFC, bestehen. Als kritische sicherheitsrelevante Erfolgsfaktoren bei der Etablierung von Mobile Contactless Payment konnten folgende Parameter identifiziert werden: die sichere Kommunikation der Geräte, die Wahl des Trägermediums, der Einsatz einer geeigneten und ausgereiften Software, Prävention von Anwendungs-fehlern, der vertrauliche Umgang mit Daten, die Sicherheit der Smart Card sowie die Einhaltung allgemein gültiger Sicherheitsaspekte. Zusammenfassend konnte gezeigt werden, dass erst durch die Berücksichtigung dieser identifzierten Sicherheitskriterien die Endanwender-akzeptanz von Mobile Contactless Payment entscheidend erhöht werden kann, woran bisherige Projekte scheiterten. Kariem Hussein Design and Development of a Standards-Based Authoring Framework for Software Requirements Specifications Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Da sich die Softwareindustrie immer noch ständig weiter entwickelt, ist es für Firmen nötig, ihre Absichten in der Form von Anforderungsdokumentation niederzuschreiben und diese Anforderungen sowohl intern, als auch mit ihren Kunden zu kommunizieren. Beim Verfassen der Anforderungsdokumentation verwenden Autoren heutzutage hauptsächlich Textverarbeitungsprogramme, sowie zusätzliche Software zur Erstellung von Grafiken. Diese Kombination von Werkzeugen bietet nur sehr wenige der Eigenschaften, die für die Erstellung, Prüfung, oder Wartung von solcher Dokumentation nötig ist, wie etwa transparente Versionierung, automatisierte Publizierung und erweiterbare Schnittstellen zur Verbindung von externen Systemen. Das in dieser Arbeit vorgestellte Authoring Framework bietet Verbesserungen auf all den angesprochenen Ebenen und, aufgrund des Standars-basierten Konzeptes, Integrationspunkte für bestehende Software. Diese Arbeit zeigt, wie die einzelnen Teile der Komponenten des Frameworks — das Dokumentenformat, das Autorensystem, sowie das Repository — zusammen wirken, um eine Yvonne Hren Identifikation und Analyse sicherheitsrelevanter Kriterien für Mobile Contactless Payment-Systeme zur Förderung der Akzeptanz beim Endanwender Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Das Mobiltelefon dient heutzutage neben seiner primären Funktion als Kommunikationsmedium zur Bereitstellung unterschiedlichster Informationen. Durch die Entwicklung der drahtlosen Near Field 13 14 Umgebung für die effiziente Erstellung von Dokumenten zu schaffen. Bereits bestehende Lösungen für das Dokumentenformat und das Autorensystem werden analysiert und gegenübergestellt. Für beide Komponenten beschreibt diese Arbeit Kriterien, die dafür verwendet werden können, Lösungen für den Einsatz zur Dokumentationserstellung zu bewerten. Die daraus resultierenden Ergebnisse werden bei der Architektur und beim Design des Authoring Frameworks eingesetzt. Christian Kekeiss Einsatz von Honeyclient Technologien zur Steigerung der Sicherheit im universitärem Umfeld Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Angriffe auf IT-Systeme sind heute weit verbreitet und stellen eine große Gefahr für Computernetzwerke dar. Bisher wurden dabei vor allem Server angegriffen, welche allerdings bereits relativ gut erforscht sind, wobei sich im Forschungsbereich Honeypots und Honeynets als Analysetool etabliert haben. In letzter Zeit tritt in Netzwerken jedoch immer häufiger eine neue und weitgehend unerforschte Angriffstechnik auf, die eine ernstzunehmende Gefahr für IT-Systeme darstellen. Dabei handelt es sich um client-seitige Angriffe, bei denen Fehler in der Clientsoftware für Attacken genutzt werden. Die Clientrechner können dabei vom User völlig unbemerkt angegriffen werden. Ein Detektionstool für client-seitige Angriffe ist daher von großer Bedeutung für die Sicherheit von Computersystemen, da bisherige Techniken dafür nicht genutzt werden können. Einen Lösungsansatz bietet jedoch die neu entwickelte Methodik der Honeyclients, welche für die Detektion solcher Angriffe entwickelt wurden. Dadurch stellen sie einen sehr wichtigen Faktor in der Erhöhung der Sicherheit für ITSysteme dar. Honeyclients sind ein spannendes, neues Forschungsgebiet mit vielen unterschiedlichen Umsetzungsvarianten. Ein Vergleich der Leistungsfähigkeit und der Eignung für spezifische Problemstellungen der einzelnen Systeme liegt jedoch bisher kaum vor. Die vorliegende Arbeit leistet einen Beitrag zu einem übersichtlichen Vergleich zwischen verschiedenen Honeyclients. Es wird zunächst eine Einführung in das Konzept der Honeyclients gegeben. Anschließend werden unterschiedliche Implementierungen von Honeyclients vorgestellt und in Hinblick auf eine Anwendung in einem universitären Netzwerk evaluiert. Abschließend werden die Daten daraufhin analysiert, ob die theoretischen Unterschiede zwischen verschiedenen Honeyclients, die aus der Literatur bekannt sind, auch in der Praxis bestehen. Harald Kahler-Ullepitsch Planung, Systemarchitektur und Aufbau der betrieblichen Infrastruktur für ein großes Tagesprintmedium in Österreich Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Berk Kaynak Development of electronic health records in the United States, England and Denmark Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Im Rahmen der vorliegenden Arbeit wird das aktuelle Forschungsgebiet rund um die vieldiskutierte elektronische Gesundheitsakte näher untersucht. In diesem Bereich werden jedes Jahr verschiedene Produkte auf den Markt gebracht, wobei hier allerdings noch ein großer Bedarf an Verbesserungen besteht. Obwohl die meisten medizinischen Institute heutzutage von elektronischer Dokumentation Gebrauch machen, weist die bereits bestehende Infrastruktur größtenteils gravierende Mängel auf. Das reine Abspeichern von Gesundheitsakten auf einem Rechner kann nicht als elektronischer Datenaustauch bezeichnet werden, da die übertragung dieser Dokumente in elektronischer Form nicht gewährleistet ist. Heutzutage besteht ein starker Bedarf an der landesweiten Implementierung von elektronischen Gesundheitsakten, um den elektronischen Datenaustausch zwischen den verschiedenen Krankenhäusern und anderen medizinischen Instituten zu ermöglichen. Das Ziel der vorgelegten Magisterarbeit ist es, bereits durchgeführte, landesweite Implementierungsprojekte von elektronischen Gesundheitsakten in drei unterschiedlichen Ländern vergleichend zu analysieren: USA, Dänemark und England. Als Ergebnis der Arbeit wurden relevante Kriterien identifiziert und tabellarisch präsentiert, die entscheidende Faktoren für eine erfolgreiche landesweite Implementierung aufzeigen. Gleichzeitig dient die erarbeitete Tabelle als Basis für einen aussagekräftigen Vergleich von beliebigen Ländern mit umfassenden, landesweiten Implementierungsprojekten von elektronischen Gesundheitsakten. 15 Wolfgang Köhler Simulation of a KNX network with EIBsec protocol extensions Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner Abstrakt: Systeme der Gebäudeautomation beschäftigen sich mit der automatischen Steuerung von Heizungsanlagen, Belüftungssystemen, Licht und Beschattung. KNX/EIB ist ein verbreiteter Standard in der Gebäudeautomation. EIBsec ist eine Erweiterung dieses Standards um Sicherheitskonzepte wie sichere Kommunikation, Schlüsselverwaltung, Datenintegrität, Vertraulichkeit, Aktualität und Authentifizierung 16 sicherzustellen. Diese Konzepte sind notwendig um KNX/EIB in sicherheitskritischen Aufgabengebieten wie Zutrittskontrollen und Alarmierungssystemen einsetzen zu können. In der vorliegenden Diplomarbeit werden die Konzepte von KNX/EIB vorgestellt. Das Verhalten von KNX/EIB und dessen Erweiterung EIBsec wird an Hand einer Simulation untersucht und ein Vergleich von für diesen Zweck verfügbaren Frameworks erstellt. In weiterer Folge wird das Simulations-Framework OMNeT++ im Detail präsentiert, das die Simulation eines KNX/EIB basierten Netzwerkes erlaubt. Bei der Modellierung der Objektstrukturen wurde auf eine flexible Erweiterung des KNX/EIB Netzwerks besonders Wert gelegt. Die Implementierung untersucht im Speziellen, wie sich das Netzwerkverhalten ändert, wenn eine bestehende KNX/EIB Installation um das Protokoll EIBsec erweitert wird. Die durch die Simulation gewonnenen Daten sind in beliebigen Applikationen auswertbar. Johannes Kuch Technologische Methoden und Mechanismen zur Erhöhung der Vertraulichkeit von VoIP-Verbindungen Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Das Telefon begleitet die Menschheit seit seiner Erfindung vor nun mehr als 150 Jahren. Es gab ständig Weiterentwicklungen und Neuerungen, die den anfänglichen Apparat zur Kommunikation via Sprache mittlerweile zu einem multifunktionalen Gerät für vielerlei Aufgaben reifen ließen. Der neueste Trend auf diesem Gebiet heißt Voice-over-IP (VoIP) und befindet sich seit einigen Jahren auf einem rasanten Vormarsch. Durch die Verbreitung des Internets und TCP/IP im LAN-Bereich findet sich fast überall eine geeignete Infrastruktur, um darauf aufbauend Telefoniedienste zu betreiben. Durch das Aufkommen von immer einfacheren Produkten, die sich diese Technologie zunutze machen, steigt nun die Verbreitung weiter. Wie jede neue Technologie, die Vorteile bringt, gibt es auch bei VoIP Risiken und Probleme beim Einsatz, welche auch berücksichtigt werden müssen. Dazu soll aufgezeigt werden, wo Schwachstellen von derzeitigen VoIPProtokollen sind, was man dagegen tun kann und inwieweit der Einsatz von Sicherungsmaßnahmen Besserung bringt bzw. was für Nachteile durch den Einsatz dieser auftreten können. Die vorliegende Arbeit soll hierbei einen aktuellen Überblick über verwendete und mögliche Technologien zur Sicherung von VoIP und der zugrunde liegenden Infrastruktur geben. Aufgrund der rasant wachsenden Technologien bieten andere Werke meist eine überalterte und/oder nicht vollständige Sicht auf die aktuelle Entwicklung, sodass diese zwar als Quellen herangezogen werden können, aber nicht ausreichen. Auch steht bei dieser Arbeit die ganzheitliche Betrachtung im Vordergrund, sodass sowohl VoIP als auch die zugrunde liegende Infrastruktur als Gesamtheit analysiert wird. Im Rahmen der vorliegenden Arbeit wird klar aufgezeigt, dass es für die Absicherung von VoIP-Verbindungen eine Vielzahl von Möglichkeiten gibt, deren Einsatz stark von den Anforderungen an die Sicherheit und den technischen Möglichkeiten der VoIP-Geräte abhängt. Ulrich Krenn Analyse und Lösungsansätze zum Problem des Monitorings in der SAPBetriebsführung Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Diese Arbeit befasst sich mit den Voraussetzungen und Funktionalitäten, die IT Management Software – besonders im Bereich des SAP-Systemmonitorings – aufweisen muss, um einen reibungslosen Betrieb der IT-Systeme zu gewährleisten. Zunächst wird ein Anforderungskatalog erstellt, der auf unternehmensinternen (Sicherheits-)zielen ebenso wie auf internationalen Standards basiert. Als zentrale Fragestellung der vorliegenden Diplomarbeit wird analysiert, ob der Funktionsumfang des „SAP Solution Managers" der SAP AG geeignet ist, als eigenständige SystemMonitoring-Lösung für SAP Systeme eingesetzt zu werden. Dabei wird anhand konkreter Fallbeispiele eines IT-Outsourcers diskutiert, ob der „SAP Solution Manager" eine ergänzende oder ersetzende Rolle gegenüber anderen kommerziellen Lösungsmöglichkeiten darstellt. Zusätzlich wird dieser Vergleich der unterschiedlichen IT Management Softwarelösungen tabellarisch präsentiert. Abschließend konnte klar aufgezeigt werden, dass der SAP Solution Manager eine immer entscheidendere Rolle für den SAP Systembetrieb einnimmt, aber nur in einem Teilbereich klare Vorteile gegenüber den Konkurrenzprodukten aufweist. Doris Lederer Untersuchung über die Anwendbarkeit einer EPK-Referenzmodellierung am prototypischen Beispiel der Kreditprozesse einer Universalbank Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Unter einem Referenzmodell wird strukturiert abgelegtes Domänenwissen verstanden, das in den meisten Fällen über die Geschäftsprozesse abgebildet wird. Heute existiert eine Vielzahl an verschiedenen Referenzmodellen, die den unterschiedlichen Domänen 17 18 (Handel, Industrie, Controlling, PPS-Systeme, ...) zuzuordnen sind. Die verschiedenen Referenzmodelle weisen unterschiedliche Modellierungsmethoden sowie Modellierungstiefen auf. Ein allgemein akzeptierter Standard für die Beschreibung von Referenzmodellen hat sich bis jetzt noch nicht durchgesetzt. Die vorliegende Arbeit stellt den Forschungsbereich Referenzmodellierung sowie die Methoden der Modellierung von Referenzmodellen dar und wendet diese im Bereich des Kreditprozesses im Privatkundenbereich einer Universalbank an. Eine weit verbreitete Methode zur Referenzmodellierung stellt das Phasenmodell zur konfigurativen Referenzmodellierung dar. Es besteht aus den fünf Phasen Projektziel definieren, Referenzmodellierungstechnik definieren, Referenzmodell erstellen, Referenzmodell evaluieren und Referenzmodell vermarkten. Für die Referenzmodellierung eignet sich besonders die Modellierungssprache EPK (Ereignisgesteuerte Prozessketten), die sich aufgrund ihrer anschaulichen Abbildung von Kontrollflüssen und ihrer Eignung für Modellnutzer auch ohne fundiertes modelltechnisches Vorwissen großer Beliebtheit erfreut. Im Rahmen der vorliegenden Arbeit wurde der Kreditprozess zur Förderung der Verständlichkeit, Allgemeingültigkeit, Anpassbarkeit und Anwendbarkeit des Referenzmodells in mehrere Teilprozesse zerlegt. Ferner wurde der vollständige Kreditprozess abgebildet sowie die Inhalte der Funktionen im Text beschrieben. Durch die Verwendung von ARIS Business Architect als Modellierungswerkzeug konnten nicht nur die einzelnen Funktionen und Ereignisse des Kreditprozesses dargestellt werden, sondern auch die beteiligten Personen, Dokumente und Anwendungssysteme. Um den Konnex zur Praxis herzustellen, wurden Experteninterviews durchgeführt. Die gewonnenen Informationen finden sich in den Modellen wieder. Das erstellte Referenzmodell beinhaltet alle relevanten Prozessschritte im Kreditgeschäft des Privatkundenbereichs einer Universalbank und kann zur qualitativen Verbesserung sowie der zeitlichen Beschleunigung der Applikationsentwicklung beitragen. Sicherheitsproblemen. Aktuelle Lösungsansätze um solche Attacken einzuschränken basieren hauptsächlich auf serverseitigen Eingabefiltern, "Input Filtern". Das Erstellen von passenden Input Filtern kann schwierig und fehleranfällig sein.Andere Ansätze müssen vom Endbenutzer angewandt werden. Aufgrund von Beobachtungen von filterbasierten Lösungen und deren Problemen, stelle ich einen neuen Ansatz vor, der die Vorteile der Fähigkeiten eines Web Browsers beim Ausführen von JavaScript ausnutzt, um bösartigen Input zu erkennen. Dies geschieht ohne Involvierung des Endbenutzers. In dieser Arbeit werde ich die Notwendigkeit für neue Methoden erklären, einen Überblick über meinen Ansatz geben und die "Proof-of-concept" Implementierung, die ich erstellt habe beschreiben: SWAP (Secure Web Application Proxy), ist ein System, das eine modifizierteVersion des Mozilla Firefox Browsers und einen Reverse Proxy kombiniert, um eine serverseitige Lösung zur Bekämpfung von "reflected" und "stored cross-site scripting" Attacken zu erhalten. Anschließend werde ich einen Testablauf beschreiben, der die Fähigkeiten der Implementierung bestätigt. Zu diesem Zweck wurde ein Testsystem erstellt, das SWAP mit Real-World Applikationen testet. Mein Ansatz liefert völlige Transparenz für den Client und ist daher eine brauchbare Alternative um Endbenutzer vor "cross-site scripting" Attacken zu beschützen. Tomislav Maricevic Design and architecture of a Nationwide ID infrastructure project in Republic of Croatia Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: In den letzten Jahrzehnten hat sich die Sicherheitssituation in der Welt drastisch verändert. Terrorismus, illegale Einwanderung, Fälschung von Identifikationen und Dokumenten haben es für Regierungen notwendig gemacht, neue Lösungen zu suchen, um ihre Bürger zu schützen. National ID hat sich als ideale Lösung für viele Regierungen gezeigt. Personalausweise und elektronische Reisepässe sind typische Endprodukte von solchen Projekten. Welche Methoden und Mechanismen für diesen Zweck benutzt werden, ist umstritten. Im Mittelpunkt der Diskussion steht, in welchem Umfang die Regierung die Kontrolle über Privatdaten erhalten soll, wie lange die Daten gespeichert werden und wer den Zugriff auf diese äußerst sensitiven Daten hat. Weitere Fragen beziehen sich auf die zu verwendende Technologie. Obwohl die Technologie einen weiten Schritt gemacht hat, ist es fraglich, ob sie reif genug ist, Regierung und Bürger wirklich zufrieden zu stellen. Anhand eines konkreten National ID Projektes in Kroatien wird ein möglicher Lösungsweg im Rahmen dieser Arbeit vorgestellt und unterschiedliche Aspekte vergleichend diskutiert. Christian Ludl SWAP: A proxy-based solution for mitigating XSS attacks Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Privatdoz. Dr. Engin Kirda Abstrakt: Aufgrund der steigenden Anzahl von Web Seiten, der zunehmenden Komplexität der Web Applikationen und der immer größer werdenden Bedeutung, die das World Wide Web in den letzten Jahren erfahren hat, nimmt auch die Forderung nach Absicherung der involvierten Technologien zu. Schwachstellen wie "Buffer Overflows" in der zugrunde liegenden Infrastruktur wie Web Server oder Betriebssystem haben an Bedeutung verloren, während die Sicherheitsaspekte auf höheren Ebenen immer wichtiger wurden. Insbesondere bei großen Web Applikationen zählen "cross-site scripting" Attacken heutzutage zu den größten 19 20 sicherheitsrelevante Fehler in diesen Applikationen alltäglich, so sehr, dass mittlerweile sogar mehr als zwei Drittel aller gemeldeten Sicherheits\-lücken diese Programmgattung betreffen. Black-Box Tests sind ein gängiges Mittel um die Qualität von Software zu verbessern und Fehler darin aufzuspüren. Für webbasierte Applikationen existieren viele Programme, die das Entdecken von sicherheitsrelevanten Fehlern automatisieren und vereinfachen sollen. So genannte extit{Scanner} oder extit{Fuzzer} konfrontieren die Applikation mit fehlerhaften Eingabewerten und schließen aus den Antworten auf das Vorhandensein einer Sicherheitslücke. Diese Programme haben allerdings beträchtliche Nachteile beim Navigieren einer webbasierten Applikation, da sie oft an Formularen scheitern, die ein Vordringen in die Tiefen der Applikation verhindern. Ebenso stellt sie eine Abfolge an Unteraufgaben vor unlösbare Probleme, wenn die Reihenfolge dieser Schritte von Bedeutung ist, wie beispielsweise das Befüllen des virtuellen Einkaufwagens und das nachfolgende Bezahlen mit Kreditkarte in einem Webshop. Diese Arbeit präsentiert, implementiert und evaluiert einige Methoden die es sich zum Ziel setzen eine höhere Testabdeckung innerhalb einer webbasierten Applikation zu erreichen. Zuerst werden aus bestehenden Anwendungsfällen der Applikation Informationen gewonnen die es sowohl erlauben einen Scanner mit sinnvollen Eingabedaten anzureichern als auch komplexe Arbeitsabläufe zu ermöglichen, die ein Vordringen in die Tiefen der Applikation erst erlauben. Weiters ist es möglich von diesen vorgegebenen Informationen zu abstrahieren und so automatisiert weitere Testfälle zu erzeugen und auszuführen. Andreas Mauczka Evaluating Object-Oriented Software Metrics for Source Code Change Analysis - A Study on Open Source Projects Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Ziel dieser Arbeit ist es den Bereich der Software-Metriken, konkreter den Bereich der Validierung von Software-Metriken, um einen neuen Ansatz zu erweitern. Die gängige Vorgehensweise zur Validierung von Software Metriken besteht darin, die Werte, die von den Metriken generiert wurden, Fehler-Daten in einer statistischen Analyse gegenüber zu stellen. Die Vorgehensweise in dieser Arbeit widerspricht diesem Ansatz insofern, als dass die Werte der Metriken dem sogenannten Wartungsaufwand (Maintenance Effort) gegenüber gestellt werden. Dieser Wartungsaufwand kann in der Form von Changed Lines gemessen werden und in automatisierter Form gesammelt werden. Dies ermöglicht eine ausreichende Stichprobengröße, die wiederum zuverlässiger Schlüsse ziehen lässt. Änderungen am Source Code sind meistens risikobehaftet und teuer. Änderungsdaten stellen daher einen interessanten Aspekt des Qualitätsmanagements dar. Ein Ziel dieser Arbeit ist es daher ein Model vorzustellen, das in der Lage ist, unter der Zuhilfenahme von Software Metriken, Änderungen aufzuzeigen Um eine ausreichend große Anzahl an Projekten analysieren zu können, werden Open Source Projekte als Datenquelle benutzt. In der Studie werden zwei Metriken-Suiten zur Bewertung der Projekte hinzugezogen. Mittels selbst-geschriebener Parser werden die Daten für die statistische Analyse aufbereitet. Die Validierung selbst erfolgt durch Anwendung der Regressionsanalyse. Changed Lines und die Summe aus Non-Commenting Source Statements (NCSS) und Changed Lines bilden die abhängigen Variablen. Die von den Metriken erzeugten Werte stellen die unabhängigen Variablen dar. Ein Set von Hypothesen, basierend auf Annahmen und Konzepten aus der einschlägigen Literatur, wird den Ergebnissen der Regressionsanalyse gegenüber gestellt. Das Ergeb-nis zeigt, dass je „anspruchsvoller“ eine Metrik ist, d.h. je komplexer sie ist, desto geringer ist ihre Aussagekraft als Prädiktor für die abhängigen Variablen. Robert Messner Anforderungsgetriebene Szenarienevaluierung zur Modernisierung von Qualitätssystemen in der Fertigungsindustrie Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Qualitätsicherung ist eine zentrale Säule in der Fertigungsindustrie, wobei in diesem Bereich in vielen Unternehmen in den letzten Jahren Softwarelösungen historisch gewachsen sind, die heutzutage nicht mehr State of the Art sind und einer Erneuerung unterzogen werden müssen, um auf dem Markt konkurrenzfähig bleiben zu können. Ziel dieser Arbeit ist es aufzuzeigen, wie man Legacy Systeme identifiziert und klassifiziert, und wie man eine Strategie zur Modernisierung entwickelt, die für das Unternehmen als Ganzes eine optimale Lösung darstellt. Nach einem allgemeinen Überblick über die Grundlagen der Qualitätssicherung wird anhand eines konkreten Fallbeispiels im Rahmen der vorliegenden Arbeit untersucht, welche Maßnahmen zur Modernisierung des bestehenden, Software- basierten Qualitätsystems am optimalsten geeignet sind. Dabei wird anhand einer Szenario-basierten Entscheidungsfindung und eines Reverse-Engineerings eine vergleichende Analyse durchgeführt, die Vor- und Nachteile der unterschiedlichen Strategien aufzeigt. Sean Mc Allister In-depth security testing of Web applications Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Privatdoz. Dr. Christopher Krügel Abstrakt: Die Komplexität von webbasierten Applikationen hat in den vergangenen Jahren stetig zugenommen, oft ziehen sie in Bezug auf Funktionalität und Design mit herkömmlichen Desktopapplikationen gleich. Gemeinsam mit der steigenden Popularität wurden auch 21 22 Systemen, jedoch stellen sich den Herstellern als auch dem Anwender einige technologische Herausforderungen. So ist besonders dem Aspekt der Sicherheit vermehrt Aufmerksamkeit zu widmen, denn die funkbasierte Übertragung von Nachrichten bietet Angreifern eine Vielzahl an Möglichkeiten, die Grundwerte Integrität, Verfügbarkeit und Vertraulichkeit zu verletzen. Diese Magisterarbeit fasst die Anforderungen, Probleme und Eigenschaften von Wireless-Protokollen beim Einsatz in der Gebäudeautomation zusammen. Zunächst werden im Rahmen dieser Arbeit Anwendungsbeispiele erarbeitet, welche das Einsatzgebiet des Gebäudeautomations-Systems beschreiben. Weiters werden Kriterien definiert, die ein modernes Gebäudeautomations-System heute erfüllen muss. Darauf aufbauend werden relevante Protokolle vergleichend untersucht und eine tabellarische Zusammenfassung der wichtigsten Eigenschaften heute verfügbarer Protokolle erstellt. Anhand eines konkreten Anwendungsbeispiels, das spezifische Eigenschaften und Anforderungen an das System festlegt, konnte abschließend gezeigt werden, in welchen spezifischen Bereichen noch Entwicklungsbedarf besteht. Jürgen Moser Entwurf und Entwicklung eines E-Mail basierten Issue Tracking-Systems zur Umsetzung eines effektiven Issue Managements in IT-Projekten Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Unter Issue Tracking versteht man das Verfolgen von Aspekten, welche bei der Durchführung von Projekten auftreten und deren Verlauf beeinflussen können. Diese Arbeit befasst sich damit, wie Issue Tracking mit Hilfe von E-Mail zur Unterstützung von Projektmanagement in IT-Projekten optimal eingesetzt werden kann. Die aus dieser Analyse gewonnenen Erkenntnisse stellen die Basis für den Entwurf und die Entwicklung eines mailbasierten Issue Tracking-Systems dar. E-Mail stellt ein heutzutage sehr intensiv genutztes Kommunikationsmittel dar, wobei es nicht mehr nur zum Versenden und Empfangen von Nachrichten benutzt wird, sondern vermehrt der Bedarf entsteht, E-Mail in zahlreichen weiteren Anwendungsgebieten einzusetzen. Diese erstrecken sich von der Verwendung als Terminplaner und Datenarchiv über Taskmanagementaktivitäten bis hin zur Nutzung als Issue Tracking-Instrument. Diese Bedürfnisse können bislang aber nur unzureichend abgedeckt werden, da sich der Mailstandard seit nunmehr über 20 Jahren kaum weiterentwickelt hat und somit die am Markt dominierenden Mailprogramme diese Anforderungen nicht entsprechend erfüllen. Im Rahmen der vorliegenden Arbeit wird ein detaillierter Anforderungskatalog erstellt, der die wesentlichen Parameter für effizientes mailbasiertes Issue Tracking umfasst. Der Lösungsansatz sieht die Nutzung hierarchisch angeordneter Tags vor, mit denen eingehende und gesendete Nachrichten näher beschrieben werden können. Mit Hilfe dieser flexiblen Struktur können die eingeschränkten Möglichkeiten bei Verwendung von Mailordnern überwunden werden. Im Rahmen der vorliegenden Arbeit wurde des Weiteren ein funktionsfähiger Prototyp entworfen, der Projektmanagement-Aufgaben effizient unterstützt. Dabei wurde der Opensource E-Mail Client „Mozilla Thunderbird“ entsprechend weiterentwickelt. Stephan Muri Entwicklung eines webbasierten Prototyps zur Unterstützung des Risikomanagements für IT-Sicherheitsrisiken in großen Infrastrukturen Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Das Risikomanagement für große IT-Infrastrukturen stellt heutzutage eine komplexe Herausforderung dar. Sowohl die initiale Risikound Bedrohungsanalyse als auch die Wartung der Infrastruktur inklusive Erfassung der aktuell vorhandenen Risiken und Bedrohungen ist äußerst aufwändig. Ein kritischer Faktor der Risiko- und Bedrohungsanalyse ist ihre Vollständigkeit. Als Unterstützung des Risikomanagement-Prozesses und zur Sicherung der erforderlichen hohen Qualität gibt es verschiedene Methoden und Werkzeuge. Ziel dieser Diplomarbeit ist es, einen Prototyp zur Unterstützung des Risikomanagements für große IT-Infrastrukturen zu entwickeln. Hierzu werden die theoretischen Grundlagen für die ITSicherheit, das Security Engineering und das Risikomanagement in der Arbeit dargelegt. Anhand eines Fallbeispiels werden die Anforderungen an ein solches Werkzeug erarbeitet und umgesetzt. Der im Rahmen der Diplomarbeit erstellte Prototyp unterstützt das Risikomanagement während des gesamten Risikomanagementprozesses und hilft dabei, die Bedrohungen und Risiken einer großen IT-Infrastruktur während der gesamten Lebenszeit zu überwachen und zu warten. Thomas Mund Identifizierung und Evaluierung von Wireless-Protokollen in der sicherheitskritischen Gebäudeautomation Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: In der Vergangenheit wie auch heute noch werden Gebäudeautomations-Systeme hauptsächlich aus kabelgebundenen Netzen und Komponenten aufgebaut. Es gibt allerdings Anzeichen für einen Trend hin zu funkbasierten Lösungen. Drahtlose Netzwerke in der Gebäudeautomation haben einige Vorteile gegenüber verdrahteten 23 24 wird vorwiegend für den didaktischen Bereich geeignete Software ausgewählt, um anhand derer verschiedener Möglichkeiten aufzuzeigen sie portabel zu machen. In der Folge wird der Sachverhalt falsifizieren, wo das nicht möglich ist. Im Rahmen der Arbeit werden die Vorteile und Grenzen von Software-Sammlungen wie "Portable Apps" aufgezeigt, "MojoPac", ein portables Betriebssystem auf Basis von Microsoft Windows wird untersucht sowie eine Ubuntu Linux Distribution lauffähig auf einem USB-Stick untergebracht -- vollständig zum Zwecke der Software-Entwicklung angepasst (z.B. C, C++, Java, Perl, C#). Das Hauptergebnis der Analyse ist, dass moderne USB-Hardware tatsächlich geeignet ist, um darauf portable Applikationen zu installieren und zu betreiben. Es ist jedoch darauf zu achten, nicht die preiswertesten Modelle zu kaufen, um nicht Gefahr zu laufen, einen USB-Stick zu erhalten, der die eigene Arbeit auf Grund von Performance-Problemen mehr beeinträchtigt als unterstützt, gerade dann wenn ein ganzes Betriebssystem darauf installiert wurde. Mit einiger Anpassungsarbeit ist die Chance, Software von einem USB-Stick starten zu können, sehr hoch, wie die analysierten Ansätze mit "Portable Apps", "MojoPac", Linux und der "Digitalen Schultasche" gezeigt haben. Diese Masterarbeit gibt dem Lehrer einen guten state-of-the-art Überblick über den aktuellen Stand in Sachen mobiles Lernen. Markus Opitz Stickware - Portable Applikationen - Fachdidaktische Betrachtungen zum Einsatz von Stickware in der Lehre und Weiterbildung Studium: Masterstudium Informatikmanagement BetreuerIn: Ass.Prof. Dr. Monika Di Angelo Abstrakt: Digitale Daten zu transportieren war nie leichter als heute. Wurden in der Vergangenheit persönliche Daten normalerweise über Disketten und CDs ausgetauscht, so ist diese Aufgabe mittels mobilen Massenspeichern, wie USB-Sticks, relativ einfach geworden. Die Geschwindigkeit der Laufwerke ist enorm gestiegen, während die Preise gleichzeitig drastisch gefallen sind. Diese Massenspeicher sind im täglichen Gebrauch sehr wertvoll und das wichtigste ist wohl, dass sie nicht nur zur Datenspeicherung, sondern auch dazu verwendet werden können, Software darauf auszuführen. Mit der immer größer werdenden Speicherkapazität ist es möglich, ganze Applikationen auf einem USB-Stick mitzunehmen. Der große Vorteil von USB-Sticks im Vergleich zu rein statischen Datenträgern ist es, Daten leicht verändern zu können. So ist es möglich, persönliche Daten ebenso wie die damit verbundenen Applikationen mitzunehmen, ohne an einen spezifischen Computer und seine Konfiguration gebunden zu sein. Software portabel zu machen ist eine große Verbesserung, die es ermöglicht, unabhängig von der lokal installierten Software eines Computers zu arbeiten. "portable applications", "portable apps" oder "stickware" sind die Terme, die weithin verwendet werden, um Applikationen zu beschreiben, die in dieser Art "portabel" gemacht wurden. Dieser Vorzug schließlich ist es, der in Lernkontexten so interessant ist. Während man in konventionellen Lernsituationen seine gesamten Arbeitsmaterialien (wie Stift, Papier und Bücher) dabei hatte, so wird in unserer zunehmend globalisierten Welt ein großer Teil dieser Arbeit mit Computern erledigt. Und genau da liegt das Problem: Der Wechsel von einer Lernumgebung zu einer anderen bedeutet automatisch auch den Wechsel von einem Computer zu einem anderen, also z.B. von der Schule nach Hause. Das führt zwangsläufig zu zwei oder mehreren Betriebssystem-Profilen und der Mühe, diese Systeme zu warten und zu synchronisieren. Es ist nicht mehr so einfach, all seine Materialien dort zu haben, wo sie gerade gebraucht werden. Es gibt einen großen Bedarf an einer Lösung, die es ermöglicht, das Lernmaterial, die ComputerSoftware, Profile, Einstellungen sowie alle nötigen Daten jederzeit zur Hand zu haben. Das wissenschaftliche Projekt "Digitale Schultasche" zeigt den klaren Bedarf zur Verwendung von portabler Software im didaktischen Bereich. Daher lautet eine der wissenschaftlichen Fragen, ob es möglich ist, die Aufgabe von konventionellen Festplatten durch handelsübliche USB-Sticks zu ersetzen. Das wird anhand eines Stichprobentests von aktuell auf dem Markt erhältlichen USB-Sticks ermittelt, deren Performance gemessen, verglichen und bewertet wird. Eine andere untersuchte Fragestellung ist, ob der Einsatz von portablen Applikationen durchführbar sowie praktikabel ist. In einem weiteren Schritt wird untersucht, ob auch normalerweise auf Festplatten installierte Applikationen ohne portabel einsetzbar sind. Zuerst 25 Michael Paier Konzept zur automatisierten Sensorüberwachung von Wohnungen im Passivhausstil Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: O.Univ.Prof. Dr. Gerhard-Helge Schildt Abstrakt: Die vorliegende Arbeit behandelt das Thema „Konzept zur Sensorüberwachung von Wohnungen im Passivhausstil“. Zentrale Aufgabe der Arbeit ist eine Wohnung im Passivhausstil mit Sensoren zu überwachen um alle energetischen Vorgänge festzustellen. Dadurch soll ein besseres Verständnis für das Wärmeverhalten und mögliches Optimierungspotential solcher Wohnungen festgestellt werden. Zu Beginn der Arbeit wird Grundwissen und die wichtigen Aspekte über den Passivhausstil vermittelt. Heizung, Energieverbrauch und eine ökonomische Betrachtung wird erläutert. Darauf folgend werden Energie-und Wärmequellen und verlustquellen in einem Haushalt analysiert und betrachtet. Der nächste Punkt beschäftigt sich mit Sensoren, die in einem Haushalt für eine Überwachung eingesetzt werden können. Ein reales Projekt wird vorgestellt, für das ein Konzept für eine Überwachung erstellt wird. Das Projekt wird analysiert, eine Volumensberechnung durchgeführt und die gewonnenen Erkenntnisse in das Konzept eingearbeitet. Das fertige Konzept liefert eine mögliche Umsetzung einer kompletten sensorischen Überwachung der Wohnung. Als Nachweis, das die entworfene Lösung funktioniert, wird am Schluss dieser Arbeit eine Umsetzung des Projekts im kleinen Rahmen vorgestellt, welche die entworfene Lösung im Konzept bestätigt. Im 26 Abschließenden zusammengefaßt durchgeführt. Kapitel werden die und eine abschließende gewonnenen Betrachtung Ergebnisse der Arbeit Martha Rossa Evaluierung der angemessenen Einsatztauglichkeit von Open Source CRMSystemen im KMU-Umfeld Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Prasanna Kumari Payani Options for enhancing the health administration system in Andhra Pradesh, India by using Health-ID-Cards Abstrakt: Für Unternehmen ist es heutzutage zunehmend schwieriger, sich im steigenden Preiskampf von Produkten und Dienstleistungen vom Mitbewerb hervorzuheben und sich in der Bemühung um den Kunden zu behaupten. Eine Möglichkeit, sich von Konkurrenzunternehmen zu differenzieren, ist der Einsatz einer umfassenden Unternehmensstrategie, die in allen verkaufsorientierten Geschäftsaktivitäten den Fokus auf den Kunden und die Kundenbeziehung legt. Diese Unternehmensstrategie ist die Einführung eines Kundenbeziehungsmanagements, des "Customer Relationship Management" (CRM), das sich als unternehmensweites, ITgestütztes Führungs- und Organisationsprinzip versteht. Für immer mehr der mehrheitlich kleinen und mittleren österreichischen Unternehmen gewinnt daher die Einführung eines möglichst umfassenden und kostengünstigen „Customer Relationship Management“-Systems als unterstüztendes Instrument bei der Kundengewinnung und langfristigen Kundenbindung zunehmend an Bedeutung. Gleichzeitig versuchen Anbieter von „Open Source“-Software, nachdem sich der Stellenwert von „Open Source“- Produkten im Server-Bereich über die Jahre entscheidend gefestigt hat, vermehrt auch den bisher vielfach ausschließlich von „Closed Source“Anbietern besetzten Bereich der Business-Applikationen zu erobern. Die vorliegende Diplomarbeit beschäftigt sich daher mit der Frage, inwieweit sich ein „Open Source“-CRM-Produkt in Microsoft Umgebungen kleiner und mittlerer Unternehmen (KMU), hinsichtlich abgedeckter CRM-Fachbereiche, enthaltenem Funktionsumfang und Zusammenspiel mit bestehenden Systemund Applikationskomponenten als kostengünstige und vor allem ernstzunehmende Alternative zu kommerziellen "Closed Source"-CRMProdukten positionieren und behaupten kann. Dabei stellt die Erarbeitung einer allgemeinen Anforderungsmatrix an CRM-Software für KMU und eines davon abgeleiteten, produktunabhängigen Bewertungsrasters für CRMSoftwareprodukte in Ermangelung geeigneter vorgefertigter Vergleichsinstrumente aus der Fachliteratur einen der beiden Kernbereiche dieser Arbeit dar. Den zweiten Kernbereich bildet die anhand der erarbeiteten Vergleichsinstrumente unabhängig voneinander durchgeführte Bewertung der beiden für den jeweiligen Anbieterbereich stellvertretend herangezogenen CRM-Applikationen, vtiger CRM 5.0.3 (Open Source) und Microsoft Dynamics CRM 3.0 (Closed Source), im Rahmen eines Praxistests mit anschließendem Vergleich der einzelnen Bewertungsergebnisse. Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Andreas Prein Didaktische Entwürfe zum Pflichtgegenstand „Angewandte Programmierung“ des ersten Jahrganges einer HTL für Informationstechnologie Studium: Masterstudium Informatikmanagement BetreuerIn: Ass.Prof. Dr. Monika Di Angelo Abstrakt: Der Begriff Didaktik beschreibt ganz allgemein die Unterrichtslehre, also die Kunst des Lehrens aber auch die Wissenschaft von der Methode des Unterrichts. Die zentrale Frage einer Fachdidaktik lautet allgemein formuliert: „Was soll wann, wie und mit welchem Ziel gelehrt werden?“ Der Begriff Informatik wurde aus „Information“ und „Mathematik“ als zusammengesetztes Kunstwort in die deutsche Sprache übernommen. Die Programmierung, ein Teilbereich der Informatik, soll den Schülern mittels Fachdidaktik vermittelt werden. Die Problematik besteht darin, die Lerninhalte, welche aus dem Lehrplan der höheren Lehranstalt für Informationstechnologie – Schulformkennzahl 8490 – des ersten Jahrgangs aus dem Pflichtgegenstand 11 „Angewandte Programmierung“ entnommen wurden, schülergerecht aufzubereiten und den Schülern mittels praxisnaher Beispiele verständlich zu machen. Beim Vermitteln der Inhalte spielt die vom Vortragenden gewählte Unterrichtsmethode eine entscheidende Rolle. Der Lehrer sollte bestrebt sein, seine Methode so zu wählen, dass der Unterricht von den Schülern stets als spannend und interessant und nicht als langweilig wahrgenommen wird. Ziel dieser Arbeit ist es, den Lehrplan für den Pflichtgegenstand „Angewandte Programmierung“ so zu entwickeln, dass der größtmögliche Lernerfolg bei den Schülern erzielt wird. Dabei wird versucht, verschiedene Methoden zu verwenden, und somit die Schüler zu motivieren und aktiv in den Unterricht mit einzubinden. Die 15 Unterrichtseinheiten des ersten Semesters werden mittels Stundenbilder in einer praxiserprobten Form detailliert dargestellt. Im Anschluss an jede Einheit werden die Inhalte nochmals detailliert beschrieben, und gegebenenfalls mit Praxisbeispielen untermauert. Weiters sind im Anhang Prüfungsfragen, die das gesamte Stoffgebiet umfassen, aufgelistet. Da ich selbst die Absicht verfolge, in naher Zukunft als Vortragender an einer HTL tätig zu sein, hatte und habe ich stets größtes Interesse an diesem Thema. 27 28 bis heute praktisch unverändert blieben. Immer neue Zusatzentwicklungen ließen die Komplexität der Systeme stark ansteigen. Durch dieses historische Wachstum sind die hoch integrierten Systeme sehr schlecht dokumentiert, schwer nachvollziehbar und aufwändig zu warten. Ebenso fehlen bis heute einheitliche Standards zur Datenübertragung. Hohe Implementierungs- und steigende Wartungskosten der nicht-standardisierten Schnittstellen der Legacy-Systeme, sowie der proprietären Formate beim unternehmensübergreifenden Datenaustausch stellen die Motivation dieser Arbeit dar, in der die Schnittstellenproblematik sowohl innerhalb der BankenIT, als auch zu externen Partnern der Bank analysiert wird. Zur Veranschaulichung der Problematik wird als Fallbeispiel das System INPAR der Firma First Data Austria GmbH vorgestellt. INPAR ist ein typischer Vertreter für bankübergreifenden, automatisierten Datenaustausch mit Zugriffen auf Mainframe-Datenbanken. Die Analyse hat zum Ergebnis, dass sich sowohl XML als Datenformat, als auch XML Schema als Metasprache im Bankensektor weiterhin durchsetzen werden. Dies trifft sowohl auf der Ebene der Vereinheitlichung des europäischen Zahlungsverkehrssystems, als auch auf das Fallbeispiel zu. Weiters wurde ausgearbeitet, dass die Anwendung von Web Services auf Basis offener, internetbasierter Protokolle beim Fallbeispiel INPAR zu entsprechenden Vorteilen in Flexibilität und Erweiterbarkeit führen würde. Zusammenfassend wird aufgezeigt, dass neue Technologien auf die Interprozesskommunikation in hoch komplexen, historisch gewachsenen Systemen anwendbar sind, und entsprechende Vorteile nach sich ziehen. Gerd Schaffer Requirements Analyse und Design für ein betreutes Softwaresystem in geregelten Domänen Studium: Masterstudium Information and Knowledge Management BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Christian Schanes Durchführungskonzept eines Penetrationstests anhand einer IT- Infrastruktur eines Unternehmens mit mobilen Clients Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Die Abhängigkeit von IT-Systemen für Unternehmenszwecke nimmt laufend zu. Angriffe auf diese können die Anforderungen bezüglich Verfügbarkeit, Vertraulichkeit und Integrität der Daten stören und somit für das Unternehmen Verluste verursachen. Die Systeme müssen dabei derart abgesichert werden, dass der Aufwand für einen Angreifer höher ist als der entstehende Nutzen durch einen erfolgreichen Angriff. Die vorliegende Arbeit beschäftigt sich mit Penetrationstests, einer möglichen Testtechnik zur Überprüfung der Sicherheit von Infrastrukturen. Dabei führen Tester simulierte Angriffe durch, um vorhandene Schwachstellen im System zu ermitteln und die Ausnutzbarkeit darzustellen. Die Anwendung von Penetrationstests erfolgt beim laufenden System, wodurch auch Installations- und Konfigurationsfehler in der Betriebsumgebung ermittelt werden. Für eine umfangreiche Sicherheitsbetrachtung können Penetrationstests einen wichtigen Teil beitragen, um die Systeme abzusichern. Die Möglichkeiten und Limitierungen von Penetrationstests werden in dieser Arbeit anhand eines Anwendungsbeispiels dargestellt, indem ein Penetrationstestkonzept definiert wird. Dieses berücksichtigt erforderliche Testtechniken für die eingesetzten Technologien und diskutiert des Weiteren organisatorische Aspekte für die Durchführung. Martin Schwarzbauer Design and Development of a traceability Framework for small Software Development Teams - A message based approach Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: In der Softwareentwicklung werden Verfolgbarkeit des Informationsflusses und Nachvollziehbarkeit von Entscheidungen (Traceability) oft eher als bürokratisches Hemmnis denn als Möglichkeit zur Effizienzsteigerung gesehen. Dadurch sind gerade kleinere Softwareentwicklungsteams kaum motiviert, die genannten Konzepte anzunehmen und einzuführen. Diese Arbeit hat das Ziel, eine akzeptable Lösung für das Verknüpfen von Projektzwischenergebnissen (Artefakten) zu präsentieren – eine Methode, um Applikationen in der Softwareentwicklung zu integrieren – um es auch kleinen Softwareentwicklungsprojekten zu ermöglichen, Traceability mit einem vertretbaren Aufwand zu erreichen und daraus Vorteile zu ziehen. Das Hauptproblem ist die Tatsache, dass verschiedenste Applikationen zur Unterstützung der Softwareentwicklung im Einsatz sind, sodass ein gemeinsamer Kommunikationsstandard etabliert werden muss, um den Informationsaustausch zwischen beliebigen Zusammenstellungen dieser Applikationen zu ermöglichen. Der hier Paul Schindler Analyse der Schnittstellenproblematik in Banken-IT-Strukturen anhand des Fallbeispiels INPAR Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Aus historischer Sicht nehmen Banken bei der Verarbeitung großer Datenmengen in der IT-Welt eine Vorreiterrolle ein, wobei bereits in den 1960er Jahren Informatik zum Einsatz kam. Die im Back-Office verwendeten Alt-Applikationen (Legacy-Systeme) wurden in maschinennahen Sprachen wie COBOL oder Assembler implementiert, deren Grundstrukturen 29 30 präsentierte Vorschlag ist ein XML-basiertes Nachrichtenformat: Nachrichten mit Informationen zur Identifikation von Artefakten sowie Nachrichten, die Beziehungen zwischen jeweils zwei Artefakten definieren. Der Einsatz von Nachrichten anstelle von Schnittstellen erlaubt eine lose Kopplung der Applikationen, sodass diese integriert werden können, ohne die applikationsinternen Konzepte anzutasten. Dadurch werden schnelle Resultate erzielt, etwa durch Erweiterung einer Anwendung, die somit Nachrichten an eine zweite Anwendung verschickt, die diese verarbeitet und optisch für Benutzer aufbereitet. Dadurch ist der erste Schritt Richtung Traceability umgesetzt, unter verhältnismäßig geringem Aufwand. Die Verwendung von XML als Basis ermöglicht das automatische Validieren von Nachrichten sowie das Erweitern um zusätzliche Informationen, um eine engere Zusammenarbeit zwischen einzelnen Applikationen zu ermöglichen. Als Machbarkeitsstudie wurden zwei Applikationsprototypen entwickelt – eine für Anforderungsmanagement und eine für Testverwaltung – und diese so erweitert, dass sie durch das präsentierte Nachrichtenformat kommunizieren. Das System zeigt, dass damit Verknüpfungen über Anwendungsgrenzen hinweg erstellt werden können und dass dadurch ein Mehrwert gegeben ist. Aufgrund der ausgetauschten Informationen könnten zum Beispiel Berichte über Testabdeckung oder Testergebnisse zu einzelnen Anforderungen erstellt werden. und im Bezug zur Wiederverwendung einzelner Module bewertet. Zusätzlich dienen pädagogische Grundlagen über die Bedeutung von Musik in der Kindesentwicklung, sowie allgemeine musikalische Wirkungsweisen zum besseren Verständnis der Thematik. Den Kernpunkt dieser Arbeit bildet die Entwicklung eines Prototyps, mit welchem Kinder im Vorschulalter unter Anwendung von TUIs digitale Musiksequenzen abspielen und speichern können. Ziel war es, ein innovatives Interface für Musik zu entwickeln, welches einige Funktionen bereits vorhandener Prototypen vereint. Eine abschließende Evaluierung gibt Aufschluss über etwaige Verbesserungen, wobei die angewandte Art von Technologie durchaus vom Teilnehmerkreis akzeptiert wurde, jedoch die Methoden teilweise als zu komplex erschienen. Weitere gesammelte Ergebnisse und auch Eindrücke sollen als Basis für Folgeprojekte dienen. Alexander Terczka Heuristische Methoden zur Abwehr von Distributed Denial of Service Angriffen auf HTTP-Dienste Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Das Internet ist zu einem der wichtigsten Kommunikationswerkzeuge geworden und aus heutiger Sicht nicht mehr wegzudenken. Vor allem öffentliche Webdienste bilden die Basis für eine Vielzahl von Anwendungen von Unterhaltung, über Handel bis zur Verwaltung. Distributed Denial of Service Angriffe (DDoS-Angriffe) sind zur Zeit die größte Gefahr für öffentliche Webdienste. Bei einem DDoS-Angriff wird ein Zielsystem mit Hilfe einer großen Zahl von Clients so stark belastet, dass legitime User die Services des Zielsystems nicht mehr benutzen können. Ein DDoS-Angriff verwendet dafür die gleichen Protokolle und Wege wie ein legitimer User und kann daher nur schwer erkannt werden. Gefährlichkeit eines DDoS-Angriffs liegt darin, dass er auch ein fehlerloses System treffen kann, da die Ressourcen eines Systems immer limitiert sind, aber die Ressourcen des Angreifers sehr groß sein können. Die Arbeit erklärt die für einen Webdienst notwendigen Protokolle IP, TCP und HTTP und zeigt deren Schwachstellen. Ausgehend von dieser Basis wird beschrieben welche Angriffe möglich sind und welche Auswirkungen sie auf die Servicestruktur haben. Von diesen Angriffsmethoden ausgehend werden mögliche Abwehrtechniken vorgestellt und in Hinblick auf ihre Effizienz untersucht. Diese Techniken kommen aus der Praxis, aus der Forschung und von kommerziellen Anbietern. Außerdem wurden im Rahmen dieser Arbeit eigene Methoden zu Abwehr entwickelt und als Prototyp implementiert. Die Besonderheit dieser Methoden liegt darin, dass jede einzelne gezielt einen bestimmten Angriffstyp abwehren kann. Eine Kombination unterschiedlicher Techniken bildet dadurch in Summe eine wirkungsvolle Abwehr, die die Auswirkungen eines Angriffs stark reduziert. Sai Giridhar Sreerama Analysis and concept of an electronic health record solution for rural Andhra Pradesh Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Manfred Sturmlechner Prototypische Entwicklung eines Tangible Musical Interfaces für Kinder im Vorschulalter Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig Abstrakt: Musik ist nicht nur ein Unterhaltungsmedium, sondern stellt auch in der Kindesentwicklung eine sehr wichtige Komponente dar, da frühes Musizieren die kognitive Entwicklung auf überdurchschnittliche Weise positiv beeinflusst. Die vorliegende Arbeit befasst sich mit innovativen Interfaces für Musik, welche aus dem Forschungsbereich Tangible Computing stammen. Tangible User Interfaces (TUIs) dienen als Schnittstelle zwischen Anwender und digitalen Prozessabläufen. Eine Vielzahl an Applikationen im Bereich der digitalen Musikerzeugung bedient sich dieser Technologie. Eine fokussierte Recherche über TUI-Anwendungen von innovativen Interfaces für Musik soll ein grundlegendes Wissen schaffen. Dieses wird in weiterer Folge analysiert 31 32 andere Werkzeuge Evaluierungsfunktionalität für Web-Barrierefreiheit anbieten, die durch integrierte Evaluierungswerkzeuge, Plug-ins, oder Extensions ausgeführt werden. Um diese Integration der Evaluierungswerkzeuge für Web-Barrierefreiheit in Anwendungen zu erleichtern, müssen diese Werkzeuge Informationen austauschen. Anwendungen müssen die Evaluierung delegieren und auslösen, und Evaluierungswerkzeuge müssen einheitliche Protokolle für den Datenaustausch einhalten. Diese einheitliche Datenformate und Protokolle sind idealerweise Plattform-unabhängig, Hersteller-neutral, und Gebührenfrei um die größte mögliche Unterstützung zu erzielen. Weiters müssen diese Formate praktikabel und einfach zu implementieren für die Werkzeughersteller sein. Diese Studie untersucht ein verteiltes Modell für Werkzeugunterstützte Evaluierung der Web-Barrierefreiheit dass auf Technologien des Semantic Web beruht. Es erforscht Anforderungen und identifiziert viel versprechende Techniken um die Konstruktion solcher Kollaborativen Systeme zu ermöglichen, die von unterschiedlichen Entwicklern die verschiedene Werkzeuge verwenden benutzt wird um barrierefreie Web-Auftritte zu entwickeln und warten. Obwohl es Herausforderungen gibt um solche Systeme zu realisieren, ist der Ansatz prinzipiell erfüllbar. Es geht verhältnismäßig wenige Risiken und hohe Nutzen für die Anwendungshersteller. Arbeitsbereich Mustererkennung und Bildverarbeitung «vorname» «name» «titel» Studium: «studium» BetreuerIn: «betreuerIn» Abstrakt: «abstract» INSTITUT FÜR INFORMATIONSSYSTEME Florian Breier J3DVN - a generic framework for 3D software visualization Arbeitsbereich Distributed Systems Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Harald Gall Shadi Abou-Zahra Tool-Supported Web Accessibility Evaluation Abstrakt: Die Analyse von Software Architekturen und Software Evolution erzeugt Daten. Visualisierung macht solche Daten verständlicher. Die Verwendung von drei Dimensionen in solchen Visualisierungen erhöht die mögliche Anzahl gleichzeitig darstellbarer Metriken. Existierende Tools für eine solche Aufgabe sind für gewöhnlich auf einzelne Probleme spezialisiert, lassen sich dann aber nicht verwenden, wenn eine andere Aufgabe damit gelöst werden soll. Wir stellen ein Modell vor, das die Erzeugung dreidimensionaler Datenvisualisierung erleichtert. Das Modell ist erweiterbar und stellt somit eine generische Lösung für viele verschiedene Probleme dar. Es ist insofern flexibel, als dass Repräsentationen der Daten in Echtzeit geändert werden können, womit es auf der Stelle möglich wird, verschiedene Repräsentationen/Aspekte derselben Datenbasis zu erkennen. Wir haben ein Visualisierungs-Framework implementiert, welches unsere Bedürfnisse erfüllt, und wir haben es verwendet, um unser Modell zu validieren, indem wir sinnvolle Kombinationen von Metriken visualisiert haben. Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Schahram Dustdar Abstrakt: Obwohl es derzeit eine breite Auswahl von Evaluierungswerkzeuge für Web-Barrierefreiheit gibt, wurden die meisten für Zwecke der Qualitätskontrolle entwickelt eher als für andauernde Qualitätssicherung. Es scheint dass viele der Evaluierungswerkzeuge für Web-Barrierefreiheit getrennte Evaluierungsprozesse fördern anstatt diese in den natürlichen Entwicklungsprozess zu integrieren. Es scheint auch dass die Evaluierungswerkzeuge nur für bestimmte Entwickler konzipiert wurden anstatt die breite Vielfalt der Web-Entwickler zu beachten. Ein wirksamerer Ansatz wäre die Sicherstellung von Werkzeug-Unterstützung während des gesamten Entwicklungsprozess, einschließlich der Konzipierung, Implementierung, und der Wartung. Idealerweise wäre die Evaluierungsfunktionalität in den existierenden Entwicklungs und Managementsysteme eingebunden anstatt diese durch getrennte Evaluierungswerkzeuge anzubieten. Zum Beispiel, dass Gestaltungswerkzeuge, Code-Editoren, Content Management Systeme und 33 Andreas Cvitkovich 34 Integration a news platform and distribution services into a pan-European News network Michael Katai Design and Implementation of a Context Aware, Rules Driven and Distributed Publish/Subscribe Collaboration Systems Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Schahram Dustdar Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Schahram Dustdar Abstrakt: Im Zuge dieser Arbeit wurde die Entwicklung an NEDINE vorangetrieben, ein von der EU gefördertes Projekt, das sich den grenzüberschreitenden Zusammenschluß von Nachrichtenagenturen zum Ziel gesetzt hat. Dabei gilt es, eine Vielzahl an Problemen in den Griff zu bekommen, die durch die räumliche aber auch sprachliche Trennung der Partner sowie deren unterschiedliche Geschäftsmodelle entstehen. Erst ein klar strukturiertes Modell mit sauberem Systementwurf basierend auf offenen Web services ermöglichen einen reibungslosen Betrieb des Gesamtsystems. Viele Probleme und Aspekte bei der Nachrichtenverteilung müssen jedoch erst einmal innerhalb einer nationalen Nachrichtenagentur berücksichtigt und gelöst werden, diese werden daher ebenfalls gründlich beleuchtet sowie Strategien aufgezeigt, mit denen man die anfallende Informationsflut auf eine Art und Weise löst, die auch gesteigerten Ansprüchen an Skalierbarkeit genügt. Im Rahmen des EU-Projekts NEDINE sollen technische Services von Nachrichtenagenturen mit ähnlichen Geschäftsfeldern zu einem europäischen Nachrichtennetzwerk integriert werden, beispielhaft werden die dazu benötigten Komponenten und Integrationsschritte bei der Pressetext Nachrichtenagentur GmbH ausführlich diskutiert, die in ähnlicher Form auch bei anderen aktuellen und künftigen Partnern des Projekts auftreten. Abstrakt: In der heutigen Zeit sind Mitarbeiter nicht mehr auf fixe Arbeitsplätze angewiesen. Die zur Verfügung stehenden Technologien ermöglichen einen flexiblen Einsatz unter Verhältnissen, die jenen eines Büroarbeitsplatzes gleich kommen. Mobile Geräte bieten einen ähnlichen Komfort und auch Geschwindigkeiten, wie die bisherigen fixen Arbeitsplätze. CARDDIPUSCO zeigt eine neuartige Architektur und erweitert die bisherigen Technologien um die Aspekte von hierachischem Kontext in Zusammenhang mit einem regelbasierten Nachrichtenaustausch über Peer-to-Peer-Netze. Kontext im engeren Sinn ist ein Begriff, der den Zusammenhang zwischen Daten beschreibt. Diese Arbeit zeigt einen Ansatz, der Kontext mit zwei Aspekten betrachtet, um die Feinheit der Kontext-Benachrichtigungen zu bestimmen. Weiters wird eine flexible und leicht zu handhabende Methode gezeigt, um Regeln zu definieren, die Anwendern erlaubt ihren gewünschten Informationsbereich zu beschreiben. Weiters erweitert diese Arbeit Kontextinformation, um diese mit anderen in Relation zu setzen, so daß Kontextinformation zusätzlich in einer hierachischen Ordnung anzusehen ist. CARDDIPUSCO baut ein Zwei-Schichtenmodell zur Definition der Benachrichtungsregeln und wird zeigen, wie der Einsatz von regelbasierter Kontextdefintion eine Erweiterung der bisherigen Möglichkeiten darstellt. Hannes Kaiser Analyse von Geschäftsprozessen unter Berücksichtigung von Wechselbeziehungen zwischen Daten- und Rollendefinitionen der Prozessteilnehmer Matthias Knoll Modellgetriebene Spezifikation von BPMN und Transformation von BPMN zu BPEL mit openArchitectureWare Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: Univ.Ass. Dr. Uwe Zdun Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Schahram Dustdar Abstrakt: Die Business Process Execution Language (BPEL), als blockbasierte Sprache, hat sich in den letzten Jahren zu einem der Standards zur Spezifizierung von Prozessen etabliert. Die graphbasierte Business Process Modelling Notation (BPMN) wurde für den graphischen Entwurf von Prozessen entwickelt. Im Zuge eines einheitlichen Entwicklungsprozesses ist die automatische Transformation von BPMN Modellen zu BPEL Code wünschenswert. Diese Transformation ist jedoch Aufgrund fundamentaler Unterschiede der beiden Modellierungssprachen kompliziert, da BPMN und BPEL zwei unterschiedliche Ansätze zur Beschreibung des Kontrollflusses verwenden. Im Zuge dieser Diplomarbeit sollen diese Unterschiede erläutert und unterschiedliche Methoden erarbeitet werden, die, mit vertretbaren Einschränkungen, bestimmte Klassen von BPMN Modellen transformieren können. Diese sollen Abstrakt: WS - BPEL basierte Geschäftsprozesse zeichnen sich durch den Einsatz in heterogenen serviceorientierten Architekturen aus. Gängige Designmethoden separieren die Modellierung von Service Orchestrierungen von Sicherheitsanforderungen und den Rollendefinitionen der Geschäftsprozessteilnehmer. Als Konsequenz werden die entstehenden Wechselbeziehungen dieser beiden Geschäftsprozessanforderungen nicht im finalen Prozessmodell berücksichtigt. Diese Arbeit widmet sich der Analyse von Geschäftsprozessen unter den genannten Anforderungen, durch Berücksichtigung von WS Security basierten Web Services und BPEL4People - basierten Rollendefinitionen der Geschäftsprozessteilnehmer. 35 36 kombiniert und ein Ansatz zur Transformation einer großen Bandbreite von Modellen präsentiert werden. E-Mail, eröffnet ungeahnte Grenzen einer formlosen Kontaktaufnahme. Das sogenannte Chatten signalisiert den aktuellen Trend des neuen Kommunikationsstiels. Diese Arbeit beschreibt wie und zu welchem Preis sich die Kommunikation auch in Ihrer Sprache verändert hat. Darüber hinaus wird das Werkzeug Internet und dessen Funktionalitäten am Beispiel des E-Learnings näher erläutert. Damit wird auch der Weg zu einer modernen und zeitgemäßen Aus- und Weiterbildung thematisiert und wie beispielhaft heute via Onlineprüfungen und Lernforen sich die neuen Informationsquellen unserer Zeit entwickelt haben. Unter dem Motto „time is money“ ist unsere Gesellschaft vom stetigen Trubel und Stress geprägt. Ein Leben auf der Überholspur und die Suche nach Erfolg durch Flexibilität sind Zeichen unserer Zeit. Diskutiert werden auch die Folgen durch die „Computerisierung“, welche auch einen enormen Einfluss auf unsere Sprachentwicklung nimmt. Im Sinne einer modernen KundInnenorientierung und Verwaltungsvereinfachung bestehen nunmehr viele Möglichkeiten, auch auf elektronischem Weg seine Amtsgeschäfte zu erledigen. Dies bezeichnet man als E-Government. Dieses Kapitel setzt sich mit dem Einsatz modernster Informations- und Kommunikationstechnologien im Bereich der öffentlichen Verwaltung auseinander. Im Vordergrund dabei steht die Verbesserung, Vereinfachung und Beschleunigung der Behördenwege, also die Abwicklung von Anträgen und Verfahren. Ein modernes und vor allem engagiertes Projekt namens One Laptop per Child kurz „OLPC“ wird vorgestellt und schließt damit den Kreis einer modernen und zeitgemäßen Denkungsweise. Die Entwicklung einer neuen und vor allem Völkerverbindenden Technologie speziell für unterentwickelte Länder der dritten Welt zeigt einmal mehr auch wie wichtig es ist, eine globale Vernetzung herzustellen. Markus Krumpöck Maintainability Aspects of the Website Development Life Cycle Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Schahram Dustdar Abstrakt: Die Entwicklung von Websites geschieht in vielen Fällen noch immer “adhoc”. Daraus resultiert, dass Änderungen in den Anforderungen (etwa ein grafisches Redesign) oftmals zu einer völligen Neuimplementierung führen. Erschwerend kommt hinzu, dass Websites und Webapplikationen aufgrund der hohen Dynamik des Webs wesentlich häufiger Änderungen unterworfen sind als klassische Software für den Desktop, da diese nicht nur auf Software bestehen sondern auch aus Inhalten und Änderungen wesentlich einfacher ausgerollt werden können. Die Vielfalt an verschiedenen Programmiersprachen und Technologien für die Implementierung dynamischer Webapplikationen sowie die Verfügbarkeit verschiedenster Frameworks und Template Engines verkomplizieren die Situation zusätzlich. Daher ist es Ziel dieser Diplomarbeit die Erstellung von “Best Practices” und eines Leitfadens, wie man besser wartbare Websites konzipieren und implementieren kann. Diese Arbeit wird versuchen welche Hauptpunkte bei der Konzipierung einer Website hinsichtlich Wartbarkeit und Skalierbarkeit hinsichtlich der Informationsarchitektur, des Layouts, der Webapplikationen usw. zu berücksichtigen sind und wie die Wartung mit vertretbarem Aufwand durchgeführt werden kann. Neue oder zusätzliche Funktionalität sollte hinzugefügt werden können ohne dass eine komplette Änderung der Architektur notwendig ist. In dieser Arbeit möchte ich zeigen wie Wartbarkeit in einer von 2003 bis 2008 durchgeführten Fallstudie erreicht wurde, wobei die Website nach dem Redesign basierend auf diesen Leitlinien aus etwa 6.700 Dokumente bestand und mittlerweile (Stand Juni 2008) auf über 55.000 Dokumente angewachsen ist. Juraj Oprsal Transactional Replication in a .NET Environment Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Univ.Ass. Dr. Karl M. Göschka Abstrakt: Replikation als wichtiger Mechanismus in Erzielung von Zuverlässigkeit verteilter Systeme ist bereits umfangreicher Forschung unterlegt gewesen. Verschiedene Ansätze die Erreichbarkeit während Systemdegradation (z.B. Netzwerktrennung) zu verbessern haben sich traditionell auf pessimistische Replikationsprotokolle konzentriert, welche Update-konflikte während Degradation vermeiden. Vor kurzem wurde eine neue Klasse an optimistischen Replikationsprotokollen vorgestellt, die weniger restriktiv als pessimistische Protokolle ist und die es erlaubt, Erreichbarkeit und Konsistenz eines Systems auszubalancieren. Es können handelbare und nicht-handelbare Konsistenzbedingungen im System definiert werden, wobei die ersten während Systemdegradation gegen Erreichbarkeit gehandelt werden können. Active Replication Per Partition Protocol (ARPPP) ist ein konkretes Replikationsprotokoll, das diese Balancierung anwendet. Es Ruza Martinovic Kommunikationsformen im Wandel der Zeit unter dem Gesichtpunkt sozialer und psychologischer Entwicklungen sowie der Auswirkungen auf die heutige Gesellschaft Studium: Masterstudium Informatikmanagement BetreuerIn: Dr. Martin Weissenböck Abstrakt: Diese Arbeit diskutiert neben der geschichtlichen Entwicklung des Internets viel mehr noch die Auswirkungen auf das soziale Umfeld und die Folgen durch die zunehmende Modernisierung und Entwicklungen in der heutigen Zeit. Die wichtigste und unerlässlichste Kommunikationsform, die 37 38 ist eine Modifikation der klassischen aktiven Replikation. In einem gesunden System fordert ARPPP strenge Konsistenz, also erlaubt keine Operation, die gegen eine beliebige Konsistenzbedingung stoßt. Im Falle eines Knotenausfalls oder einer Netzwerktrennung werden vorübergehend alle handelbaren Konsistenzbedingungen von ARPPP aufgehoben und somit alle Operationen, die keine nicht-handelbaren Bedingungen betreffen, erlaubt, auch wenn die handelbaren Bedingungen verletzt werden können. Nachdem das Netzwerk sowie alle Systemknoten heilen, wird strenge Konsistenz im System – während sogenannter Rekonciliation – wiederhergestellt. Die Kontribution dieser Arbeit ist die Prototypimplementierung und –evaluierung des ARPPP Replikationsprotokolls unter Microsoft .NET in der C# Programmiersprache. Basierend auf Eigenschaften des .NET Frameworks 2.0, unterstützt der Prototyp sowohl Transaktionen, als auch geschachtelte Replikaaufrufe. Die Ergebnisse der Evaluierung indizieren, dass der zusätzliche Bedarf an Überprüfen von Konsistenzbedingungen nicht nur einen höheren Aufwand mit sich bringt, sondern auch die Ursache für öftere Transaktionsabbrüche bei manchen gleichlaufenden Operationen ist. Dies ist jedoch das erwartete Verhalten, das auf den Bedarf einer sorgfältigen Definition von Konsistenzbedingungen in jeder Applikation verweist. Online-Auktionssystem entwickelt werden kann, das verlässlicher ist als die existierenden Systeme. Gernot Schmied Integrated Cisco and UNIX network architectures Studium: Masterstudium Informatikmanagement BetreuerIn: Univ.Prof. Dr. Schahram Dustdar Abstrakt: Diese Publikation beschäftigt sich mit hybriden Netzwerkarchitekturen auf Basis von UNIX-Betriebssystemen, Linux, BSD und Cisco, somit mit Aspekten der Signalisierung (Routing) und des Forwardings. IPv4, IPv6 und Multicast-Routing werden behandelt. Sunil Pilani Smart Card based Online-Auctioning David Ulbing und Thomas Winkler Semantic Description and Lookup of Web Services in Distributed Systems Studium: Diplomstudium Informatik BetreuerIn: Univ.Ass. Dr. Karl M. Göschka Studium: Masterstudium Technische Informatik BetreuerIn: Univ.Ass. Dr. Uwe Zdun Abstrakt: Bei Online-Auktionen von Bundesanleihen langt gewöhnlich eine große Anzahl von Geboten knapp vor der Auktions-Deadline ein, was zu einer unerwünschten Spitzenlast des Servers führt und die Verlässlichkeit gefährdet. Diese Arbeit beschäftigt sich mit einer Proof of Concept Architektur und deren Implementierung für höhere Verlässlichkeit in Webbasierten Online-Auktionen von hohem Emissionsvolumen an Bundesanleihen, indem die Höchstbelastungen, die im Rahmen der Versteigerung auftreten, und somit die Hardware-Kosten reduziert werden. Die Architektur basiert auf dem Prinzip, dass Spitzenbelastungen vermieden werden können, wenn die Annahme der Gebote auf eine gewisse Zeitspanne verteilt wird, sogar über die Auktions-Deadline hinaus. Um dieses Ziel zu erreichen, kommuniziert die Auktions-Webapplikation mit einer Smart Card seitens des Clients, um den Auktionsgeboten einen verlässlichen Zeitstempel zuzuordnen und sie mit zufälliger Zeitverzögerung dem Server zu übermitteln. Die Proof of Concept Prototyp Implementierung zeigt, dass dies einen möglich Zugang darstellt. Die Zeit, die benötigt wird, um einen verlässlichen Zeitstempel hinzuzufügen und eine Signatur auf der Smart Card zu generieren, ist minimal. Evaluierungsergebnisse zeigen, dass schon mit den geringen zeitlichen Unkosten einer Smart Card Applikation, ein 39 Abstrakt: Ziel dieser Masterarbeit ist die Definition eines neuen Ansatzes für das Beschreiben bzw. Aufinden von Web Services in verteilten Systemen. Um dies zu gewährleisten werden zunächst alle notwendigen Anforderungen an die Beschreibungssprache bzw. an Mechanismen für das Auffinden von Web Services identifiziert. Weiters findet eine Evaluierung vorhandener Beschreibungssprachen bzw. Lookup-Techniken statt. Basierend auf den Ergebnissen dieser Evaluierung wird ein Semantic Lookup-Service realisiert, welches Schnittstellen für dynamisches Einfügen bzw. Abfragen von Web Services zur Verfügung stellt. Darüber hinaus sollte ein Framework implementiert werden, in welchem man komplexe, domänenspezifische Anfragen, die in einer objektorientierten Skriptsprache definiert werden, erstellen bzw. auswerten kann. Aufgrund der Komplexität des in unserem Semantic Lookup-Service verwendeten Standards OWL-S wird ein sogenanntes Publisher Tool bereitgestellt, welches bei der Erstellung einer OWL-S Beschreibung eines Web Services helfen soll. Gerhard Wagner Evaluation of Smart Card Access for Web Applications 40 Konzepte für Compliance am Beispiel von Modul Driven Software Development und serviceorientierten Architekturen Studium: Diplomstudium Informatik BetreuerIn: Univ.Ass. Dr. Karl M. Göschka Studium: Diplomstudium Informatik BetreuerIn: Univ.Ass. Dr. Uwe Zdun Abstrakt: Oft werden Smart Cards verwendet, um die Sicherheit von Softwaresystemen zu erhöhen. Beispiele dafür sind Anwendungsbereiche wie Online Banking- oder E-Government-Applikationen. Diese Lösungen beruhen auf einheitlichen Zugangsmechanismen mit dem entsprechenden Support der Hersteller. Um die Sicherheit von kundenangepassten Webapplikationen zu erhöhen, wäre es von Vorteil wenn diese Webapplikationen auf Applikationen einer smart card zugreifen könnten. Leider verhindern die Sicherheitsmechanismen der Webbrowser die Möglichkeit mit der Hardwareperipherie und demzufolge mit der smart card zu kommunizieren. Diese Diplomarbeit untersucht und evaluiert zwei Lösungen, um aus einer Webbrowser-Umgebung auf smart cards zuzugreifen. Die erste Lösung verwendet das Browser-Plug-In-Interface – in unserem Fall Mozilla Firefox – und eine Kartenbibliothek, um sich mit der Java Card zu verbinden. Die zweite Lösung zeigt, wie ein in einen Webbrowser eingebettetes Programm die normale „Java Virtual Machine“ verwendet, um mit dem Kartenleser zu kommunizieren. Die Untersuchung zeigt, dass eine geschützte Java-Anwendung benutzerfreundlicher und die Lösung mit dem Plug-in und der Library wegen dem aufwändigen Aufbau komplexer ist. Bernhard Wehinger A case study and experimental evaluation of Web services in mobile computing Abstrakt: Die Sicherstellung von Compliance mit Hilfe von Kontrollen ist ein Thema mit dem sich Organisationen weltweit auseinandersetzen müssen. Aus diesem Grund beschäftigt sich diese Arbeit mit Kontrollaspekten in Geschäftsprozessen. Die Basis dafür bilden modellgetriebene Software Entwicklung (MDSD) und serviceorientierte Architekturen (SOA). Der Fokus dieser Arbeit liegt auf der Definition eines Meta-Modells für Kontrollen in Geschäftsprozessen, dessen Hauptziel es ist, Compliance Kontrollen zu dokumentieren. Dies ermöglicht die Erweiterung von GeschäftsprozessModellen um spezifische Informationen hinsichtlich Kontrollen. Neue Einsatzmöglichkeiten ergeben sich: Web Services und BPEL Prozesse lassen sich als Kontrollen klassifizieren und beschreiben. Compliance Anforderungen und Risken können mit Kontrollen assoziiert werden. Die Suche nach Kontrollen und Kontrollelementen wird unterstützt. Aufbauend auf einem View-based-Modeling-Framework (VbMF) erweitert das Modell für Kontrollen eine Reihe von existierenden und unterschiedlichen Modellen. Im VbMF repräsentiert jedes der Modelle eine andere Ansicht auf einen Geschäftsprozess. Der Einsatz von MDSD Technologie im VbMF ermöglicht das Generieren von Code durch Verwendung von einem oder mehreren Modellen als Input. Mögliche Einsatzszenarien des generierten Outputs wären die Dokumentation von Kontrollen in Form von Webseiten, Webservices die Kontrollen repräsentieren (in Java implementiert), technische Beschreibung von Webservices (WSDL), sowie ausführbare, um Kontrollen erweiterte Prozessspezifikationen in BPEL. Die Anwendbarkeit des Kontrollmodells wird validiert, indem Kontrolldokumentation aus Modellen generiert wird. Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Schahram Dustdar Abstrakt: Mobile digitale Helfer wie Pocket PCs und Smartphones haben in vielen Bereichen unseres Lebens Einzug genommen, da diese Geräte immer schneller und ihre Möglichkeiten ständig erweitert werden. Durch die Erweiterung der Infrastruktur für mobiles Internet, kann man nahezu immer und überall online gehen. Es liegt deshalb nahe, mobile Geräte, die über genügend Rechenkapazität und Resourcen verfügen, als Server für diverse Services zu nutzen. Ziel dieser Arbeit ist es, Context Informationen auf einem mobilen Gerät zur Verfügung zu stellen. Das entwickelte Framework basiert auf OSGi und läuft auf allen Geräten die J2ME/CDC mit Personal Profile unterstützen. Weiters wird angenommen, dass keine zentralisierte Infrastruktur zur Verfügung steht, was einen Discovery Mechanismus für Geräte und Services erfordert. Besondere Aufmerksamkeit wird dabei Standard Web Services gewidmet, die auf den mobilen Geräten gehostet werden müssen und als Kommunikationsmethode dienen. Arbeitsbereich Database and Artificial Intelligence Paul Bohunsky VENTip - Methodology and Implementation of Table Interpretation Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Reinhard Pichler Abstrakt: Ein Großteil an Information im Web ist in Tabellen dargestellt, um Menschen das Verstehen dieser zu vereinfachen. Da HTML es ermöglicht Tabellen auf verschiedenste Arten darzustellen ist die Extraktion von tabellarischer Information für automatisierte System nicht einfach. Aus diesem Grund ist es wichtig Methoden zu finden, die nicht nur den HTML Code in Betracht ziehen. Das Ziel dieser Arbeit war es, ein System zu entwickeln, das, basierend auf der visuellen Darstellung, das Verstehen von Wilfried Weisl 41 42 Tabellen ermöglicht. Wir stellen einen Ansatz vor, der die automatische Extraktion von Tabellen ermöglicht und diese in ein Ausgabeformat überführt, das für weitere Verarbeitung, wie relationale Datenbankintegration geeignet ist. Um unseren Ansatz auch zu evaluieren, generierten wir auch eine Ground Truth von Web Tabellen. In dieser Arbeit stellen wir (i) eine Methode zum effizienten Erstellen einer Ground Truth von Web Tables vor - ebenfalls WTGT ein Tool, das all den Anforderungen unserer Methode entspricht. Weiters präsentieren wir (ii) VENTip: eine Methode um Web Tabellen zu \Verstehen" wobei Verstehen den gesamten Prozess von Extraktion und Interpretation bezeichnet. Als letztes präsentieren wir die (iii) Implementierung der vorgestellten Methoden - eine online verfügbare Version des Extraktionsparts und separaten nicht-online zugänglichen Code für Tabelleninterpretation. Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Univ.Prof. Dr. Reinhard Pichler Abstrakt: Join Operationen spielen bei Datenbanksystemen eine entscheidende Rolle. Sie gehören zu den wichtigsten Operationen und beeinflussen stark die Leistung des gesamten Systems. Nahezu jeder namhafte Datenbankhersteller liefert seine Produkte mit XML Unterstützung aus und ermöglicht so Datenbankabfragen mit XPath oder XQuery. Somit sind strukturelle Joins sehr wichtig, um eine effiziente Abfrage zu ermöglichen. Im Laufe der Zeit wurden zahlreiche Algorithmen veröffentlicht, welche die verschiedensten Strategien haben, um möglichst effizient zu arbeiten. Die wichtigste Gemeinsamkeit ist die Nummerierung der Knoten. Dieser Index macht es möglich schnell und effizient die Beziehung zwischen zwei Knoten zu ermitteln. Yansen Darmaputra An Application of Heuristic Route Search Techniques for a Scalable Flight Search System Studium: DDP Computational Logic BetreuerIn: Univ.Prof. Dr. Reinhard Pichler Abstrakt: A meta-search engine is a search engine that forwards user query to several other search engines and aggregates the results. In flight search domain, meta-search engine has some inherent weaknesses. They can not find all routes from low-cost airlines and they don’t support the concept of mixing flights between airlines in different alliances. This thesis proposes a mashup solution for the problem. A mashup application uses data from other resources (called content provider) to create a new application with new feature and functionality that is not offered by any of the content provider. In the flight search system that we build, the data are originated from airline websites. Extracting data from the Web has several obstacles such as password-protected sites, cookies, JavaScript, Session IDs, Web forms iterations, deep Web navigation, and dynamic changes on websites. We use wrapper generation technology from Lixto to solve the obstacles and do the data extraction. Some data cleaning method is also performed to the wrapper output to clean unnecessary annotations. In the algorithm, flight search problem is regarded as graph search problem with airports as the nodes and pair of airports where exist direct flights between them as the edges. We introduce hub identification heuristic concept to ensure system’s scalability. Instead of analyzing and evaluating all possible routes to reach the destination, this heuristic only evaluates a fraction of all possible combinations that possibly contain the best routes. Peter Gansterer Umsetzung einer e-Learning Applikation für SQL mithilfe eines regelbasierten Bewertungssystems Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Reinhard Pichler Abstrakt: Für die Lehrveranstaltung "Datenmodellierung" wird ein e-Learning System entwickelt, das den vorhandenen Modus der Prüfungen und Übungen für das Lösen von SQL Aufgaben ersetzen soll. Es wird eine Webapplikation entwickelt, wo Studierende Aufgabenstellungen online bearbeiten können und direktes Feedback über die Richtigkeit der Lösung bekommen. Ein Ziel dabei ist die Entlastung der Lehrveranstaltungsbetreuer durch die automatische Bewertung der Lösungen. Die beiden wesentlichen Komponenten bei der Umsetzung des Systems waren: ein System zur Bewertung der Aufgaben und ein möglichst effizientes Userinterface. Zur Bewertung einer SQL Eingabe wird das Statement auf der entsprechenden Übungsdatenbank ausgeführt und die Ergebnistupel werden mit dem SollErgebnis verglichen. Zusätzlich wird die Eingabe auch auf strukturelle bzw. semantische Korrektheit getestet. Bei der Entwicklung des Userinterfaces wurde auf Übersichtlichkeit und effiziente Navigation geachtet aber auch die Aufbereitung des Userfeedbacks spielt dabei eine wesentliche Rolle. Für die semantische Bewertung, für die Interpretation der Ergebnisdifferenzen und für die Aufbereitung des Userfeedbacks kommt ein einfaches, eigens Markus Dorner Optimizations of structural join algorithms 43 44 entwickeltes Regelsystem zum Einsatz. Die vorgestellten Konzepte wurden in einer Prototyp-Implementierung erarbeitet und getestet. Abstrakt: Das Communication Center ist ein Fernüberwachungs- und Steuerungsgerät mit eingebauten GSM Modem, das zum Messen von Daten und zum Steuern von Geräten eingesetzt werden kann. Die Verwaltung der Geräte erzeugt in Szenarien, in denen mehrere Communication Center dezentral eingesetzt werden, einen erheblichen Aufwand. Um die Geräteeinstellungen zu ändern, müssen sie entweder vor Ort aufgesucht oder über das GSM Modem fernkonfiguriert werden. Die gemessenen Daten können nicht kumuliert aus den Geräten ausgelesen werden und somit ist die Beobachtung der Daten über einen längeren Zeitraum schwierig. Es soll eine Webapplikation entwickelt werden, die diese Probleme löst und die Verwaltung der Geräte vereinfacht. Die Geräte sollen über ein benutzerfreundliches Webinterface wartbar sein und sollen aus der Applikation heraus automatisiert konfiguriert werden. Um das Problem der Datenaufzeichnung zu lösen, soll eine Funktionalität zum automatischen Auslesen und Speichern der aufgezeichneten Daten geschaffen werden. Diese Daten sollen in ein Standardformat wie Excel exportierbar sein und statistisch ausgewertet werden können. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung der Applikation, sie beschreibt diesen Prozess von den technischen Grundlagen, über die Analyse bis hin zur fertigen Applikation. Mario Jerome Kofler Open Source Java EE Application Server functionality, configuration and performance on the basis of Geronimo, JBoss and Glassfish Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Reinhard Pichler Abstrakt: Mit der Entwicklung von E-Government und umfangreicher Geschäftsabwicklung mit Hilfe des World Wide Webs erfreuen sich Anwendungsserver immer größerer Beliebtheit. Einfache Webserver Lösungen erweisen sich oft als unzureichend im Hinblick auf Nutzbarkeit und Skalierbarkeit. Mit zunehmender Anzahl, gleichzeitig zu erwartender Benutzer, erhöht sich der Bedarf an Replikation und anderen performancesteigernden Techniken. Weiters sollte eine Schichtenarchitektur in Betracht gezogen werden, welche klar zwischen den verschiedenen Komponenten einer Anwendung unterscheidet. Die Java Platform Enterprise Edition (Java EE) legt eine derartige Schichtenarchitektur nahe. Zusätzlich zu Java EE Applikationsservern von großen kommerziellen Anbietern erweisen sich in letzter Zeit auch Open Source Varianten als wettbewerbsfähig. Diese Arbeit vermittelt die Konzepte des Java EE Frameworks und gibt einen Überblick über Anwendungsserver. Dabei wird näher auf die Enterprise Java Bean (EJB) 3.0 Technologie eingegangen, welche eine komfortable Möglichkeit bietet, Geschäftsanwendungen für das Java EE Framework zu erstellen. Nach einer detaillierten Behandlung der einzelnen Serverkonfigurationen wird die EJB Performanz mit Hilfe einer Testanwendung und einfachen Geschäftsszenarien untersucht. Das Hauptaugenmerk liegt auf den momentan wichtigsten Open Source Anwendungsservern Geronimo, JBoss und Glassfish. Performanztests beschränken sich auf die Benutzung von EJB 3.0 innerhalb einer Geschäftsanwendung. Andere Anwendungsbereiche, wie die Veröffentlichung als Web Service, werden außer Betracht gelassen. Im Laufe der Analyse werden Einzelserver getestet, Clusterbildung mit mehr als einer Serverinstanz wird jedoch nicht behandelt. Diese Arbeit dient als Entscheidungshilfe für Unternehmen, welche den Einsatz von EJB 3.0 in Verbindung mit einem Open Source Anwendungsserver in Betracht ziehen. Mei Sin Lee Data Mining on Empty Result Queries Studium: DDP Computational Logic BetreuerIn: Privatdoz. Dr. Nysret Musliu Abstrakt: A database query could return an empty result. According to statistics, empty results are frequently encountered in query processing. Accordingly, one wishes to detect such a query from the beginning in the DBMS, before any real query evaluation is executed. This will not only provide a quick answer, but it also reduces the load on a busy DBMS. Many data mining approaches deal with mining high density regions, or frequent data values. A complimentary approach is presented here, in which we are mining for combination of values or range of values that do not appear together, resulting in empty result queries. We focus our attention on mining not just simple two dimensional subspace, but also in multidimensional space. We are able to mine heterogeneous data values. Our goal is to find the maximal empty hyper-rectangle. Our method mines query selection criteria that returns empty results, without using any prior domain knowledge. Mined results can be used in a few potential applications in query processing. In the first application, queries that has selection criteria that matches the mined rules will surely be empty, returning an empty result. These queries are not processed to save execution. In the second application, these mined rules can be used in query optimization. It can also Martin Kulnigg Die Communication Center Management Plattform: Eine Webapplikation zur Hardwaresteuerung/-überwachung Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob 45 46 be used in detecting anomalies in query update. We study the experimental results obtained by applying our algorithm to both synthetic and real life datasets. Data representation, queries and updates in probabilistic and uncertain databases Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof.Dr. Reinhard Pichler Andreas Mager Automatisiertes Verständnis von formularbasierten Webseiten durch statistische Klassifikation der Seiten und Elemente Abstrakt: Das Gebiet der probabilistischen und ungewissen Datenbanken ist seit über einem Jahrzehnt Gegenstand der Forschung und gewinnt durch aktuelle Anwendungen zunehmend an Bedeutung. Beispiele dieser Anwendungen sind. die Zusammenführung unterschied-licher Datenbestände mit umfangreichen und komplexen Strukturen, die Auswertung fehlerbehafteter Sensordaten (z.B. RFID), die Speicherung von Ergebnissen von genetischen Sequenzierungen und Anwendungen wie Google Base. Ungewisse Datenbanken enthalten für zumindest einen Datensatz mehrere Möglichkeiten, die aber nicht gleichzeitig zutreffen können. Man spricht in diesem Zusammenhang von mehreren „möglichen Welten“, die auf diese Weise dargestellt werden. Eine klassische Datenbank besitzt nur eine Ausprägung und damit gibt es für diese auch nur eine mögliche Welt. Probabilistische Datenbanken enthalten zusätzlich zu den alternativen Möglichkeiten auch eine Information darüber, mit welcher Wahrscheinlichkeit eine Alternative eintritt. Für den Benutzer einer probabilistischen Datenbank soll es keinen Unterschied in der Schnittstelle im Vergleich zu klassischen Datenbanksystemen geben. Die Herausforderung besteht in der Repräsentation der Daten in ungewissen Datenbanken. Es ist aus Speicherplatzgründen unmöglich, alle möglichen Welten für sich zu speichern. Es muss daher nach Verfahren gesucht werden, wie derartige Datenbanken in kompakter Form repräsentiert werden können. Auch für die Operationen Abfrage und Änderung gilt es, transformierte und äquivalente Operationen zu finden, die direkt auf die kompakte Repräsentation angewandt werden, da eine Anwendung dieser Operationen auf alle möglichen Welten aus Zeit- und Aufwandsgründen ausscheidet. Die Arbeit bietet eine Zusammenschau von drei verbreiteten Verfahren, die in der Literatur für die Repräsentation von derartigen Datenbanken vorgeschlagen wurden. Das Resümee gibt eine Empfehlung für eine der Darstellungen und für zukünftige Untersuchungen. Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Reinhard Pichler Abstrakt: Betrachtet man die Repräsentation des Wissens, spiegelt das World Wide Web, so wie es heute existiert, sehr deutlich gesellschaftliche Eigenschaften der Personen wieder, die es erschaffen haben und es warten. Es ist nicht möglich eine bestimmte Frage an "die Menschheit" zu stellen. Genausowenig ist es möglich eine bestimmte Frage an "das Internet" zu stellen. Es ist notwendig zu wissen, welche Menschen oder welche Gruppe von Menschen beziehungsweise welche Gruppe von Webseiten man fragen muss, um eine gewünschte Antwort zu erhalten. Dazu kommen noch die Sprache und die Form, in der die Fragen gestellt werden müssen, um vom Gegenüber verstanden zu werden. In dieser Arbeit wird ein Weg beschrieben um diese unstrukturierten Datenbanken auf ein strukturiertes Domänenmodell abzubilden. Die Arbeitsschritte sind das Klassifizieren der Webseiten, Aufteilen in Formulare, Klassifizieren der Formulare, Aufteilen in Elemente und schließlich das Klassifizieren der Elemente. Getestet wurden mehrere etablierte Textklassifikationsalgorithmen. Unter anderen der BayesAlgorithmus, er wird auch in der Software "Spamassassin" zur Spamerkennung verwendet. Mit verschiedenen Vorfiltern wurde untersucht ob es möglich ist das Ergebnis der im Hinblick auf das Klassifizieren von reinen Texten ohne Strukturinformation entwickelten Klassifikationsalgorithmen durch das Hinzufügen (oder Weglassen) von Strukturinformationen in einer für diese Algorithmen nutzbaren Form zu verbessern. Um die Algorithmen und Vorfilter vergleichen zu können wurden die Qualitätsmerkmale Precision, Recall, Spezifität, Fallout und F-Maß ermittelt. Der nächste Schritt ist die Integration dieses Annotierungssystems als Modul in das Projekt MetaMorph, welches gerade am Institut für Informationssysteme, Arbeitsgruppe für Datenbanken und Artificial Intelligence, gemeinsam mit dem Spin-Off Lixto Software GmbH. entwickelt wird. Diese Arbeit stellt eine Basis für eine Reihe weiterer Projekte dar. Bis das Internet, viel mehr das World Wide Web, zu einem Semantic-Web geworden ist, wird noch sehr viel Arbeit notwendig sein. Annotierungssysteme, wie das in dieser Arbeit beschriebene, sind eine Möglichkeit um Eigenschaften eines Semantic-Web schon jetzt zu erhalten. Emmanouil Paisios Generic Programming for Graph Problems Using Tree Decompositions Studium: DDP Computational Logic BetreuerIn: Privatdoz. Dr. Nysret Musliu Abstrakt: Tree decomposition hat eine zunehmende Bedeutung als Werkzeug zur Lösung von Graphenproblemen, bedingt durch wichtige algorithmische Eigenschaften der Klasse der Graphen mit beschränkter treewidth. Ein wichtiges Theo- rem von Courcelle [Cou90] besagt, dass Eigenschaften eines Graphen die in MSO Logik beschrieben werden können, Richard Ostrcil, Dr. 47 48 in linearer Zeit für Graphen mit beschränkter treewidth entschieden werden können. Dies gibt den theoretis- chen Hintergrund für die tractability vieler Graphenprobleme, intractability im Allgemeinen und für die oben erwähnte Graphenklasse regte es zu vie- len Algorithmen für MSO-definierbaren Problemen an. Bodlaender schlägt in [Bod97] einen Ansatz vor zum Design von Algorithmen mittels dynamis- cher Programmierung unter der Verwendung von tree decomposition. Dieser Ansatz stellt eine verallgemeinerte Methode vor, mittels der sich auch bereits vor dieser Arbeit vorgestellte Algorithmen entwerfen hätten lassen, wichtiger jedoch diese Methode kann verwendet werden um neue Algorithmen für eine Vielzahl von Graphenproblemen zu konstruieren. In dieser Diplomarbeit haben wir diesen Ansatz untersucht und imple- mentiert. Das Ergebnis ist ein System, das Bodlaender’s Methode ver- wendet und das es erlaubt spezifische Teile des Algorithmuses mittels Plu- gins zu beschreiben. Um die Verwendbarkeit und Effizienz des Systems einzuschätzen haben wir einen Algorithmus für Dreifärbung als Plugin im- plementiert. und mittels Tests zu evaluieren. Im Rahmen dieser Diplomarbeit wurde der Prozess zur allgemeinen Verarbeitung - vom zugrunde liegenden Problem unabhängig - dieser Datalogregeln implementiert. Am Beispiel des Programms SAT wurde die automatische Transformation von Monadischem Datalog in ”normales” Datalog für die verwendeten Datalog Interpreter (DLV, DLV Complex und DLV Complex mit externem Prädikat) durchgeführt und die Applikation mit unterschiedlichen Parametern ausführlich getestet. Als Ergebnis konnte gezeigt werden, dass dieser Ansatz ein großes Potential hat und mit Hilfe von allgemeinen Datalog Interpretern realisiert werden kann. Zudem hat sich herausgestellt, dass dieses Thema noch viel Potential zur Verbesserung bietet. Lukas Steiner Einbindung von automatisiert extrahierten Webdaten in Internet Portalen Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob Abstrakt: In der heutigen Zeit wird es für große Unternehmen, die eine Vielzahl an verschiedenen Arbeitsprozessen zu koordinieren haben, immer wichtiger in jedem Segment ihres Aufgabenbereiches eine möglichst effiziente Softwarelösung zu haben. Um jedoch nur wenige Ressourcen bei der Benutzung dieser Programme zu verbrauchen, werden dringend neue Technologien benötigt, die den Anwendern eine Erleichterung und Hilfestellung bei der Nutzung bieten sollen. Diese Diplomarbeit zeigt einen realisierbaren Lösungsansatz auf, welcher nicht nur die technische Integration und Kommunikation von verschiedenen Unternehmensanwendungen berücksichtigt, sondern auch für die Benutzung dieser Applikationen einen möglichst anwenderorientierten und ressourcenschonenden Weg mit einbezieht. Im Rahmen eines Forschungsprojektes, wurden die Voraussetzungen für eine Systemlandschaft geschaffen, welche die Verarbeitung und Darstellung von automatisiert extrahierten Informationen in einem für industrielle Zwecke geeignetem Szenario simuliert. In dieser Forschungsumgebung wurden unterschiedliche Technologien zur Systemintegration und -transformation evaluiert und anschließend in dem für die Automobilindustrie sehr wichtigen Bereich der Qualitätssicherung umgesetzt, wobei auch der Schwerpunkt auf eine systemunabhängige Darstellung gelegt wurde. Das Projekt wurde im Forschungsverein Electronic Commerce Competence Center – EC3 unter dem Namen „in2ex - Case Study Integration mit SAP Portal“ publiziert und schenkt den Technologien der Firmen SAP und Lixto besondere Berücksichtigung. Christoph Singewald Efficient problem solving based on datalog transformations Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Reinhard Pichler Abstrakt: Viele interessante algorithmische Probleme in der Computerwissenschaft können im Allgmeinen nur mit hohem Aufwand auf einer Rechenmaschine gelöst werden. In diesem Zusammenhang sind in den letzten Jahren parametrisierbare Probleme immer wichtiger geworden. Es konnte gezeigt werden, dass viele harte Probleme effizient lösbar werden, wenn ein Parameter durch eine Konstante begrenzt ist. Besitzt ein Problem diese Eigenschaft, bezeichnet man es als fixedparameter-lösbar (engl. fixedparameter tractable). Bei Problemen aus dem Bereich der Graphentheorie ist die Baumweite (engl. treewidth) ein solcher Parameter. Aufgrund des Courcelle’schen Theorems wissen wir, dass sämtliche Grapheigenschaften, die sich mittels Monadic Second Order Logic (MSO) ausdrücken lassen, auf Graphen mit beschränkter Baumweite effizient entscheidbar sind. Gottlob et al. haben vor kurzem Monadisches Datalog (jedes Prädikat ist einstellig) über Strukturen mit beschränkter Baumweite als Alternative zu (MSO) vorgeschlagen. Dieser Ansatz sieht theoretisch vielversprechend aus. Eine praktische Evaluierung war aber bislang ausständig. Das Ziel dieser Diplomarbeit war es, den Monadischen Datalog Ansatz zu implementieren 49 Markus Triska Solution Methods for the Social Golfer Problem 50 Studium: Masterstudium Computational Intelligence BetreuerIn: Privatdoz. Dr. Nysret Musliu Thomas Zwierschitz An Extensible and Configurable Record Linkage Framework Abstrakt: Das "social golfer problem" (SGP) ist ein kombinatorisches Optimierungsproblem. Die Aufgabe besteht darin, p*g Golfer in g Gruppen zu je p Spielern für w Wochen so einzuteilen, dass sich je zwei Spieler höchstens einmal in derselben Gruppe treffen. Eine SGP-Instanz wird durch das Tripel g-p-w bezeichnet. Das ursprüngliche Problem besteht darin, das maximale w zu bestimmen sodass die Instanz 8-4-w gelöst werden kann. Das SGP ist ein interessantes Puzzle und Benchmark-Problem, und tritt zudem in zahlreichen praktischen Anwendungen wie Kodierung, Verschlüsselung und Überdeckungs-Problemen auf. In dieser Diplomarbeit werden vorhandene Ansätze zum Lösen von SGP-Instanzen präsentiert und verbessert. Wir zeigen, dass das zum SGP gehörige "completion problem" NP-vollständig ist. Wir korrigieren mehrere Fehler in einem vorhandenen SAT Encoding für das SGP, und schlagen eine Modifikation vor, die zu einer erheblichen Senkung der Laufzeit führt, wenn man SGP-Instanzen mit gängigen SAT-Solvern löst. Wir entwickeln einen neuen und frei verfügbaren Constraint Solver über Finite Domains, um mit einer vorhandenen Constraint-basierten Formulierung für das SGP zu experimentieren. Mit dem Solver lösen wir das ursprüngliche SGP für 9 Wochen, was dem derzeit besten mit kommerziellen Solvern erzielten Ergebnis für diese Instanz entspricht. Wir stellen eine neue Greedy-Heuristik und eine neue "greedy randomised adaptive search procedure" (GRASP) für das SGP vor. Dies ist die erste metaheuristische Methode, mit der das ursprüngliche SGP optimal gelöst werden kann. Auch auf anderen Instanzen erzielen wir mit unserer Methode Ergebnisse, die existierenden Ansätzen gleichkommen oder sie übertreffen. Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Reinhard Pichler Arbeitsbereich Knowledge Based Systems Minh Dao Tran Default Reasoning on Top of Ontologies with dl-Programs Studium: DDP Computational Logic BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter Abstrakt: We study the usefulness of description logic programs (dlprograms) in implementing Reiter's default logic on top of a description logic knowledge base (DL-KB). To this end, we investigate transformations from default theories to dl-programs based on different algorithms for evaluating default theory extensions, namely select-defaults-and-check and selectjustifications-and-check. In each transformation, additional constraints are exploited to prune the search space based on conclusion-conclusion or conclusion-justification relations. The implementation was deployed as new part of the dl-plugin in dlvhex, and evaluated with various experimental test ontologies, which showed promising results. Alexander Feder Methods of Affective Artificial Intelligence and an Application for Traffic Simulation with Emotional Drivers Engelbert Wimmer Integration von e-Learning in ein Kompetenzmanagementsystem Studium: Masterstudium Computational Intelligence BetreuerIn: Ao.Univ.Prof. Dr. Hans Tompits Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn Abstrakt: Emotionen spielen eine zentrale Rolle in unserem Leben, dennoch wurden sie bis noch vor kurzem im Bereich der KI ignoriert. Dies änderte sich durch die Entstehung des neuen Forschungsgebietes Affective Computing. Dieses behandelt hauptsächlich die Erkennung und die Synthese von Emotionen. Diese Arbeit liefert einen Überblick über manche der Methoden des Affective Computings, einschliesslich diverser Theorien zur menschlichen Emotion sowie relevante Emotionsmodelle zur Anwendung in Agentensystemen. Weiters wird -- aufbauend auf einem speziellen hormonellen Emotionsmodell -- eine Anwendung zur Verkehrssimulation mit emotionalen Agenten vorgestellt, die im Zuge dieser Arbeit entwickelt wurde. Mit diesem Modell haben die Agenten die Möglichkeit sich glücklich, traurig, zornig oder ängstlich zu "fühlen" -- Zustände, die ihr Fahrverhalten beeinflussen. Experimente mit dieser Simulation bestätigen Erkenntnisse aus der Verkehrspsychologie; so konnte mit verschiedenen Persönlichkeitstypen Abstrakt: Ziel dieser Arbeit ist die Kooperation von e-Learning mit einem Kompetenzmanagementsystem zu untersuchen. Um einen Daten-austausch zwischen den beteiligten Plattformen zu ermöglichen, werden (State of the Art) Standards verwendet und erweitert. Zudem wurde für Testzwecke ein e-Learning Kurs im Bereich Datenbanken entwickelt. Die Metadaten dieses Kurses werden daraufhin genützt, um das Zusammenspiel zwischen allen an einem Datenaustausch involvierten Plattformen zu evaluieren. Das Ergebnis dieser Evaluierung wird in einem Protokoll festgehalten. In diesem Protokoll wird dargestellt, wie ein Kompetenzprofil verwendet und nach Absolvierung eines Kurses aktualisiert wird. 51 52 reproduziert werden, dass Emotionen einen negativen Einfluss auf das Fahrverhalten und somit auf die Staubildung haben. Christian Eis RASCALLI Platform: A Dynamic Modular Runtime Environment for Agent Modeling Sonja Leder Anforderungen, Konzeption und Schnittstellen für ein medizinisches Multimediaarchiv Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Harald Trost Abstrakt: Wir beschreiben die Architektur und Implementierung der RASCALLI Plattform, einer Laufzeit- und Entwicklungsumgebung für Softwareagenten. Der zentrale Beitrag dieser Arbeit ist die Anwendung moderner komponentenbasierter Entwicklungsmethoden auf die Implementierung von Agenten, die es erlaubt, solche Agenten aus einer Menge wieder verwendbarer Komponenten zusammenzufügen. Mehrere unterschiedliche Agenten können in einer einzelnen Instanz der Plattform gleichzeitig ausgeführt werden, wodurch die Evaluierung und der Vergleich von einzelnen Komponenten, sowie von kompletten Agentenarchitekturen ermöglicht wird. Schließlich erleichtert die Service-orientierte Architektur der Plattform die Integration von externen Komponenten. Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Uwe Egly Abstrakt: Medizinische Multimediaarchive sind durch die EU-weiten Diskussionen über elektronische Patientenakten ein sehr aktuelles Thema. Ziel dieser Arbeit ist es, die Anforderungen an ein Multimediaarchiv zu erheben. In Folge sollen auch mögliche Probleme einer zentralen Patientenakte aufgezeigt werden. Die Aufgabe eines Multimediaarchivs besteht darin, Dokumente, die in verschiedenen Formaten vorliegen, zu erfassen, zu archivieren und anzuzeigen. Die Analyse der medizinischen Daten ergibt die fünf Formate: Text, Grafik, Bilder, Audio und Video. Unter Berücksichtigung der medizinischen Standards und der IHE-Profile werden die Auswirkungen auf das Design und auf die Schnittstellen untersucht. Die Einhaltung der medizinischen Standards ist wichtig, um die Interoperabilität zwischen verschiedenen Systemen garantieren zu können. Die beiden bedeutendsten sind "Health Level Seven" (HL7) für den Austausch von Patientendaten und "Digital Imaging and Communications in Medicine" (DICOM) für den Austausch radiologischer Bilddaten. Darüberhinaus vereint die Initiative "Integrating the Healthcare Enterprise" (IHE) diese Standards in ihren Integrationsprofilen. IHE beschreibt den Zugriff auf elektronische Patientendaten zwischen Gesundheitsdiensteanbietern in den Profilen "Cross-Enterprise Document Sharing" (XDS) und "Cross-enterprise Document Sharing for Imaging" (XDS-I). Unter Berücksichtigung dieser Profile werden die verschiedenen Schnittstellen, die ein Archiv anbieten muss, entworfen. Im einzelnen handelt es sich um die Schnittstelle vom Archiv zum Dokument, zum Krankenhausinformationssystem, zum Viewer und zur Datenbank. Patientenbezogene Gesundheitsdaten sind besonders sensibel und schutzwürdig, daher muss bei der Realisierung auch der Datenschutz und die Datensicherheit berücksichtigt werden. Der Schutz personenbezogener Daten ist ein Grundrecht und in den verschiedensten Gesetzen geregelt. So müssen bei der Verarbeitung bestimmte Richtlinien, die in den allgemeinen Grundsätzen beschrieben sind, eingehalten werden. DOMAIN, ein Multimediaarchiv der Firma SIEMENS, zeigt ein Beispiel aus der Praxis. Abschließend werden die Initiativen zur geplanten österreichischen Patientenakte ELGA ("Elektronischer lebensbegleitender Gesundheitsakt") beleuchtet. Andrea Hess A Mobile Context Framework Based On Wireless Sensor Networks Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: O.Univ.Prof. Dr. Günther Haring Abstrakt: Since an ever-growing demand for 'smart' computer systems capable of monitoring or adapting to their environments arose throughout the preceding decade, sensing technologies have gradually found their way from embedded systems and cybernetic research into various fields of computer science (e.g., ubiquitous computing, medical computer science). This thesis is concerned with the design and implementation of a mobile context-sensing framework based on a wireless sensor network. The particular contributions of this work are a generic software architecture for context-aware applications and an approach to overcome the calibration problem in wireless sensor networks. The calibration approach proposed involves automatic as well as user-controlled calibration of sensors. To demonstrate the feasibility of the context-framework, it has been prototypically implemented for the use in mobile scenarios. For this purpose, wireless network nodes equipped with sensors capable of measuring environmental conditions, such as light, temperature, humidity, and sound, and sensing motion have been used to provide information on the context of a moving person. In this thesis, the design and implementation of the context-sensing framework is detailed and the experiments carried out to describe the calibration challenges are summarised. Finally, the thesis Keinem Arbeitsbereich zugeordnet 53 54 outlines the design and results of a mobile HCI study where the prototype of the framework has been successfully used. In this mobile HCI study, the influence of motion and environmental conditions on the users of mobile applications has been investigated by means of the context information captured by the context-sensing framework. Abstrakt: We propose an algorithm for the automatic detection of topics in song lyrics. It mainly consists in the application of basic text mining techniques on a lyrics collection and clustering the terms found in the lyrics into topics by using non-negative matrix factorization (NMF). The resulting clusters are labeled by hand. A small-scale evaluation is used in order to create these labels. The study proves that the identified topics are coherent and recognizable. The result of applying our method to a collection of songs is an information retrieval system which can be queried for topics and topic combinations. Ufuk Karakoc und Serkan Uzun Analyse und Bewertung von Web-Usability bei medizinischen Informationssystemen (insbesondere von medizinischen Datenbanken). Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Ernst Schuster Hasibe Yildiz Virtual Private Networks (VPNs) in der Medizin Abstrakt: Die Informationstechnologien haben sich mit den Möglichkeiten des freien Zugriffs, dank des jedermann zugänglichen Internet, rasant entwickelt. Die Fülle an Informationen, die sich stetig erweitert, macht Datenbanken zu einem Muss, um einen Überblick über das angebotene Wissen zu bewahren. Auch im beruflichen Alltag ist ein effizientes Weiterkommen nur durch die richtige Verwaltung der Daten und des Wissens gesichert. Da die Menge an Informationen ständig wächst, wird es für die Anwender immer schwieriger, an das gewünschte Ziel zu gelangen. Aber auch ein fortschrittliches Informationssystem kann oft durch seine Mängel das Erwünschte nicht optimal vermitteln. Die vorliegende Arbeit setzt sich mit der Web Usability von Informationssystemen auseinander. Vom Erscheinungsbild bis zum Inhalt, von der Strukturierung bis zur Erreichbarkeit, aus technischer wie auch aus gestalterischer Sicht, wurde analysiert, was einem Benutzer beim Erlangen seiner gesuchten Informationen hilft oder was ihn daran behindert. Als Themenschwerpunkt dienen medizinische Datenbanken, die zuerst im Allgemeinen definiert werden, und anschließend an drei Fallbeispielen aus der Sicht der Web Usability konkret analysiert werden. Das Ziel dieser Arbeit ist es, Kriterien herauszuarbeiten, die zu einer effektiven und effizienten Nutzung von Informationssystemen beitragen. Anhand mehrerer Blickpunkte in dieses Themengebiet soll gezeigt werden, wie vielfältig gearbeitet werden muss, wenn ein benutzergerechtes Informationssystem gestaltet werden soll, und was für Auswirkungen es haben kann, falls man diese Kriterien nicht beachtet. Die detaillierten Analysen der drei Fallbeispiele, die auch graphisch dargestellt sind, sollen zur Unterstützung des Zieles dienen und zeigen, welche Auswirkungen aus Sicht der Web Usability zu erwarten sind. Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Ernst Schuster Abstrakt: Diese Arbeit befasst sich mit der Erstellung einer sicheren Verbindung über das Internet mit einem virtuellen privaten Netzwerk im gesundheitlichen Bereich. Es werden bestimmte Rechner/Hosts (z.B. bestimmte Rechner ev. in einer bestimmten oder in mehreren Abteilungen in einem Spital, Fachärzte in deren Ordinationen, Experten/Forscher aus bestimmten geographischen Gebieten oder sogar aus der ganzen Welt) ausgewählt, welche über diese Verbindung miteinander kommunizieren dürfen. Nur diese - und keine anderen - vorher bestimmten Hosts sollen in der Lage sein, sich an den Server zu verbinden. Hierzu wird nicht das „klassische“ VPN genutzt, sondern die Kommunikation soll mittels Zertifikaten, mit denen sich Server und Clients über ein Sicherungsprotokoll dem so genannten Secure Socket Layer (SSL)/Transport Layer (TLS) – das sich an Hypertext Transfer Protocol (HTTP) anlehnt, gegenseitig ausweisen können, erfolgen. Dabei soll keine speziellen Software auf den Hosts installiert werden, da dies die Arbeit nur verzögert und es sehr aufwendig ist, alle Hosts, die ja örtlich weit voneinander entfernt sein können, zu administrieren. HTTPS (HTTP mit SSL/TLS) wird deshalb bevorzugt, da jeder Rechner mit einer Internetanbindung sicherlich einen Internetbrowser aufweist. Somit ist es nicht not-wendig, einen zusätzlichen Clienten zu installieren. Die große Administrierarbeit kann auf dieser Weise vermieden werden und die Übersicht bleibt erhalten. Florian Kleedorfer Automatic Topic Detection in Song Lyrics Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Gerhard Widmer 55 56 Software-Pipelining-Heuristik, die wir für die LLVM Compiler-Infrastruktur implementiert haben, heißt swing modulo scheduling (SMS). SMS erzeugt dichte Schedules und schafft es die Anzahl der nötigen Register und die Compile-Zeit niedrig zu halten. INSTITUT FÜR COMPUTERSPRACHEN Arbeitsbereich Programmiersprachen und Übersetzerbau Andreas Fellnhofer Automatic Generation of Interpreting Instruction Set Simulators Laszlo Keszthelyi Design and Implementation of the JavaSpaces API Standard for XVSM Studium: Masterstudium Technische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn Abstrakt: Automatisch generierte Entwicklungswerkzeuge können einen wesentlichen Beitrag leisten, den Entwurfszyklus von anwendungsspezifischen Embedded Prozessoren zu verkürzen und zuverlässigere Abschätzungen über das Laufzeitverhalten von Hardware/Software-Systemen zu treffen. Ergebnisse aus Testläufen eines generierten Simulators zum Beispiel sind ein probates Mittel um aus den unzähligen Alternativen bei der Hardware Entwicklung passende Kompromisse zu wählen. Architekturbeschreibungssprachen, die Eigenschaften von Prozessoren auf einer mittleren Abstraktionsebene formalisieren, werden von Generatoren verwendet um Software Werkzeuge zu generieren. Die xADL, als ein Vertreter dieser Sprachen, wurde auf der TU Wien am Institut für Computersprachen entwickelt und ist strukturbasiert. Sie ermöglicht die Generierung einer weiten Palette an Software (z.B. Simulatoren und Compiler) durch ein Framework, das die Architekturbeschreibung vorverarbeitet und Module zur Weiterverarbeitung vorsieht. Hier setzt die vorgestellte Arbeit an. Es wird eine Methode vorgestellt, die es erlaubt, xADL Beschreibungen in zyklengenaue Simulatoren zu übersetzen und eine konkrete Implementierung in Form eines (nicht zyklengenauen) Generator Moduls beschrieben. Des Weiteren präsentiert die vorliegende Arbeit eine Technik um Instruktionsdecoder, wie sie für Simulatoren üblicherweise benötigt werden, zu generieren. Abstrakt: Aufgrund der steigenden Nachfrage an jedem Ort zu jeder Zeit Zugriff auf Informationen zu haben, sind verteilte Systeme heutzutage wichtiger als sie es noch in der Vergangenheit waren. Viele der eingesetzten verteilten Systeme haben bedeutende Einschränkungen, wie zum Beispiel dass beide Kommunikations-Partner sich kennen und zur gleichen Zeit erreichbar sein müssen. Diese Probleme werden durch z.B. Space-basierte Systeme angesprochen, welche eine Entkoppelung von Zeit und Raum mittels eines so genannten gemeinsamen Space ermöglichen. Die von Sun Microsystems entwickelte JavaSpaces-Technologie und das am Institut für Computersprachen der Technischen Universität Wien entwickelte eXtensible Virtual Shared Memory (XVSM) sind solche auf Space basierende Systeme. Diese Diplomarbeit befasst sich mit dem Design und der Implementierung des JavaSpaces-API-Standard für XVSM, unter Verwendung von MozartSpaces, der Java-basierenden Open-Source-Implementierung des XVSM Modells. Die Implementierung soll durch die Entwicklung eines ``Vermittlers'' realisiert werden, der die Zusammenarbeit zwischen dem JavaSpaces-API-Standard und MozartSpaces ermöglicht. Als Ergebnis sollen bereits existierende JavaSpaces basierende Systeme und Applikationen MozartSpaces verwenden können, ohne die Notwendigkeit der Anpassung oder des Neu-Schreibens ihres Quellcodes. Weiters soll mit der Implementierung die Flexibilität und die Erweiterbarkeit von MozartSpaces demonstriert werden. Benedikt Huber Software Pipelining in a C-Compiler Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall Nikolai Kim Profile guided code positioning optimizations in a C-compiler Abstrakt: Very long instruction word (VLIW) Prozessoren nutzen instruction level paralellism (ILP) um die Ausführungszeit von Programmen zu verkürzen, indem sie mehrere Operationen zeitgleich verarbeiten. Da das Scheduling, insbesondere die Parallelisierung, ausschließlich vom Compiler durchgeführt wird, sind durchdachte Algorithmen notwendig um die zur Verfügung stehenden Ressourcen effizient zu nutzen. Software pipelining ist eine Technik um ILP in Basic-Block-Schleifen zu erhöhen, indem die Ausführung von aufeinanderfolgenden Iterationen überlappt wird. Die Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall 57 Abstrakt: Wenn die Leistung des Systems unter einer ineffizienten Nutzung des Befehlscaches aufgrund von "instruction fetch stalls" leidet, können gewisse Optimierungen Abhilfe schaffen. Viele Optimierungsansätze sind bekannt - auf Hardware und Software-Ebene. Diese Arbeit beschäftigt sich jedoch ausschließlich mit Software-Optimierungen und beschreibt 58 Algorithmen, die versuchen die Performance des Befehlscaches durch das algorithmische Umordnen von Code zu erhöhen. Dabei wird das Umordnen von Profildaten gesteuert, die die Einsatzumgebung des Target-Programms reflektieren und aggressivere Optimierungen ermöglichen. Neben ausführlichen Beschreibungen werden Ergebnisse für die von "ONDEMAND Microelectronics AG" entwickelten VLIW-Architektur präsentiert. eine ausführliche Einführung in die Begriffe Benchmark, Performance, Skalierbarkeit und Middleware und präsentiert drei verschiedene Middlewarekonzepte: eXtensible Virtual Shared Memory (XVSM), JavaSpaces und Java 2 Plattform, Enterprise Edition (J2EE). Im zweiten Teil werden einige Benchmarkszenarien für die zugehörigen Systeme MozartSpaces, GigaSpaces eXtreme Application Platform (XAP) und JBoss Application Server (AS) definiert und durchgeführt. Die Ergebnisse ihrer Ausführung werden anschließend visualisiert und interpretiert. Rastislav Levrinc LLFS: A Copy-On-Write File System For Linux Vadim Mihailevschi Machine translation interlingua based on MultiNet Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Anton Ertl Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Univ.Prof. Dr. Jens Knoop Abstrakt: Diese Diplomarbeit beschreibt das Design und Implementation von LLFS, einem Linux-Dateisystem. LLFS kombiniert Clustering mit Copy-OnWrite. Copy-On-Write überschreibt belegte Blöcke nicht zwischen Commits; Durch das Clustering bleibt die LLFS-Geschwindigkeit vergleichbar mit Clustered- Dateisystemen wie Ext2. Copy-On-Write ermöglicht neue Features wie zum Beispiel Snapshots, beschreibbare Snapshots (Clones) und schnelle Crash-Recovery zu einem konsistenten Dateisystem-Zustand. Gleichzeitig hilft das Clustering, die Fragmentierung niedrig und Geschwindigkeit hoch zu halten. Clustering wird mit Ext2-ähnlichen Gruppen und Free-Blocks-Bitmaps für das Belegen und Freigeben von Blöcken erreicht. Journaling Dateisysteme wie Ext3 brauchen ein Journal und schreiben Blöcke doppelt. Mit Hilfe von Copy-on-Write vermeidet LLFS diese Kosten. Aufgrund der Free-Blocks-Bitmaps braucht LLFS keinen Cleaner wie Log-Strukturierte Dateisysteme. Trotzdem bietet LLFS die kombinierte Funktionalität von Journaling und Log-Strukturierten Dateisystemen. Ich habe LLFS aufbauend auf Ext2 implementiert, und ich habe die Performance getestet. Die Benchmarks zeigen, dass LLFS ähnliche und in einigen Fällen bessere Resultate als Linux-Journaling-Dateisysteme erreicht. Abstrakt: Völlig automatisierte qualitativ hochwertige maschinelle Übersetzung (MÜ) wird traditionell als ein großer Traum der Menschheit betrachtet. Es wurden jedoch noch keine bedeutenden Ergebnisse im Vergleich zu diesem Traum erzielt. Der Interlingua-Ansatz für MÜ wurde am wenigsten studiert und ist eine viel versprechende, aber auch eine sehr komplizierte Methode der MÜ. Das Ziel dieser Arbeit ist es, ein beschränktes sich auf Interlingua basiertes MÜ-System auszuarbeiten, das im Stande wäre, Sätze aus der englischen in die deutsche Sprache oder umgekehrt zu übersetzen. Somit wird eine sprachunabhängige Interlingua entworfen, die wesentlich auf dem MultiNet-Wissensrepräsentationssystem beruht. Das entworfene Übersetzungs-system hat ein beschränktes, aber logisch strukturiertes Vokabular und kann unterschiedliche Sätze über diesem Vokabular übersetzen. Carolyn Oates Type Analysis in a Java Virtual Machine Bernhard Löwenstein Benchmarking of Middleware Systems Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn Abstrakt: Obwohl virtuelle Methoden in objektorientierten Programmiersprachen beim Aufruf an viele unterschiedliche Definitionen gebunden werden können, wird oft nur eine Methodendefinition wirklich verwendet. Der Einsatz von Analysealgorithmen zur Bestimmung des statischen Typs in einer Java Virtual Machine (JVM), um konservativ die erreichbaren Klassen und Methoden abzuschätzen, kann einem Übersetzer mehr Möglichkeiten zur Optimierung geben. Das Laden von Klassen bei Bedarf in der JVM hat dynamische Analyse mit Profiling zur Laufzeit gefordert. Die Typ-Analyse Algorithmen CHA, RTA, XTA, und VTA wurden in CACAO verglichen. CACAO ist eine Forschungs-JVM, die an der Technischen Universität Wien entwickelt wird. Drei Modi wurden getestet: statische Analyse (SA), Abstrakt: In der heutigen IT-Welt sind viele unterschiedliche Middlewaresysteme verfügbar. Oftmals verkünden die Anbieter solcher Anwendungen, dass ihr Produkt die beste Performance und Skalierbarkeit aufweist, und überhaupt das Beste von allen sei. Diese Arbeit veranschaulicht, wie man die Performance und Skalierbarkeit unterschiedlicher Middlewaresysteme auf realistische Art und Weise messen und vergleichen kann. Die Benchmarks dazu werden anhand einiger maßgeschneiderter Testfälle durchgeführt. Der erste Teil der Arbeit gibt 59 60 dynamische Analyse (DA), und eine neue hybride Analyse (HPA). Alle Algorithmen bauen ihre Klassendatenflussdiagramme (CFGs) dynamisch während der Analyse auf. Klassen werden nach Bedarf geladen. Daher müssen alle Analysen das Einfügen von zusätzliche Klassen in ihre Klassenhierarchien behandeln. Die Notwendigkeit von Devirtualization für Inlining und die Implementierung von Inlining in CACAO wird diskutiert. Je weniger überflüssige Klassen geladen sind, desto besser ist die Genauigkeit der Analysen und desto kürzer die Laufzeit der Analysealgorithmen. VTA ist am genausten mit der kleinsten Zahl unnötig geladener Klassen und erreichbarer Methoden. HPA lädt weniger Klassen und liefert genauere Ergebnisse als SA. Zwischen RTA, XTA, und VTA war es nicht entscheidbar, welcher Algorithmus am schnellsten ist, aber XTA verwendet am wenigsten Instruktionen. Höhere Kosten, um mehr Genauigkeit aus der Analyse zu holen, werden durch eine geringere Zahl erreichbarer Methoden ausgeglichen. Abschätzungen über das Laufzeitverhalten von Hardware/SoftwareSystemen zu treffen. Ergebnisse aus Testläufen eines generierten Simulators zum Beispiel sind ein probates Mittel um aus den unzähligen Alternativen bei der Hardware Entwicklung passende Kompromisse zu wählen. Architekturbeschreibungssprachen, die Eigenschaften von Prozessoren auf einer mittleren Abstraktionsebene formalisieren, werden von Generatoren verwendet um Software Werkzeuge zu generieren. Die xADL, als ein Vertreter dieser Sprachen, wurde auf der TU Wien am Institut für Computersprachen entwickelt und ist strukturbasiert. Sie ermöglicht die Generierung einer weiten Palette an Software (z.B. Simulatoren und Compiler) durch ein Framework, das die Architekturbeschreibung vorverarbeitet und Module zur Weiterverarbeitung vorsieht. Hier setzt die vorgestellte Arbeit an. Es wird eine Methode vorgestellt, die es erlaubt, xADL Beschreibungen in zyklengenaue Simulatoren zu übersetzen und eine konkrete Implementierung in Form eines (nicht zyklengenauen) Generator Moduls beschrieben. Des Weiteren präsentiert die vorliegende Arbeit eine Technik um Instruktionsdecoder, wie sie für Simulatoren üblicherweise benötigt werden, zu generieren. Michael Pröstler Design and Implementation of MozartSpaces, the Java Reference Implemention of XVSM - Timeout Handling, Notifications and Aspects Stefan Ring Implementation of native threads and locks in the CACAO Java Virtual Machine Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn Abstrakt: Die Entwicklung von verteilten Applikations ist ein nicht trivialer Prozess. Verschiedenste Faktoren, wie Synchronisation, Koordination oder Skalierbarkeit müssen dabei beachtet werden. Middleware Systeme lösen einige dieser Probleme was zu einer schnelleren und einfacheren Entwicklung führt. Das Space-based Computing Paradigma beschreibt Ansätze für solche Middleware Systeme. Das Ziel dieser Arbeit ist es, diese Ansätze für eine “next generation Middleware” an Hand von dem eXtensible Virtual Shared Memory (XVSM) Protokoll zu beschreiben. Dabei wird auf die Semantik und Vorteile der jeweiligen Mechanismen eingegangen. Diese Arbeit konzentriert sich vorallem auf Timeouts, Aspekte und Notifikationen. Darüber hinaus wird die Implementierung dieser Mechanismen innerhalb der MozartSpaces, der Java Referenzimplementierung von XVSM, im Detail erläutert. Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall Abstrakt: Eines der wichtigsten Leistungsmerkmale von Java, die Fähigkeit zur Ausführung und Synchronisation paralleler Threads, benötigt recht umfangreiche Unterstützung durch die Implementierung einer Java Virtual Machine (JVM). Diese Arbeit beschreibt die wesentlichen Schritte, die benötigt werden, um die CACAO JVM um diese Fähigkeit zu erweitern. Zunächst werden die notwendigen Schritte für die Umsetzung des Java Memory Model erörtert. Weiters wird die Wahl eines Algorithmus für Java Monitore sowie mögliche zukünftige Erweiterungsmöglichkeiten präsentiert. Außerdem werden einige experimentelle Varianten auf verschiedenen Hardwarearchitekturen verglichen. Zusätzlich wird der von CACAO zur Typüberprüfung verwendete Algorithmus durch eine Methode ersetzt, die besser zur Verwendung in parallelen Javaprogrammen geeignet ist, sowie deren Auswirkungen auf Laufzeit und Speicheranforderungen überprüft. David Rigler Dynamic Binary Translation for Automatically Generated Simulators Studium: Masterstudium Technische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall Abstrakt: Automatisch generierte Entwicklungswerkzeuge können einen wesentlichen Beitrag leisten, den Entwurfszyklus von anwendungsspezifischen Embedded Prozessoren zu verkürzen und zuverlässigere 61 62 sich auf den XVSM core, die Softwarekomponente die XVSM repräsentiert, und stellt dessen Architektur im Detail vor, die insbesondere darauf abzielt, für die im XVSM Modell definierten Funktionen Erweiterbarkeit, Skalierbarkeit und Parallelität zu garantieren. Eine Implementierung dieses Modells wird vorgestellt anhand von XcoSpaces, der .Net ReferenzImplementierung von XVSM, die nach dem präsentierten Modell entwickelt wurde. Weiters wird die komponentenorientierte Architektur vorgestellt mit der XcoSpaces entwickelt wurde, die die Erweiterbarkeit des XVSM Modells aus Implementierungssicht unterstützt. Um zu beweisen wie einfach zusätzliche Funktionalität zu XVSM hinzugefügt werden kann, wird anhand von XcoSpaces gezeigt, wie der Space um neue Funktionen erweitert wird, die ihn mit einfachen Sicherheitsmechanismen ausstatten. Dominik Röck Real Time Kollaborativer Personal Information Manager mit XVSM Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn Abstrakt: Aktuelle Recherchen zeigen, dass bereits eine Vielzahl an Aufgabenmanagement Systemen existiert. Während einige dieser Systeme eine Verteilung per E-Mail unterstützen, bietet der Großteil der Anwendungen weder eine gemeinsame Nutzung der Inhalte noch eine Synchronisierung dieser. Aufbauend auf diesen Erkenntnissen und unter Berücksichtigung der menschlichen Arbeits- und Denkweise soll diese Diplomarbeit einen Ansatz bieten, der die bestehenden Nachteile beseitigt und ein benutzerfreundliches System zur Verwaltung von Aufgaben und Informationen liefert. Dabei soll der Mensch in allen Situationen des täglichen Lebens unterstützt werden. Sei es, dass er beispielsweise an Aufgaben erinnert wird, um Ad-hoc-Abläufe abzubilden, oder um lediglich wichtige Daten permanent zu speichern. Insbesondere werden in dieser Arbeit die menschlichen Verknüpfungen des Gehirns berücksichtigt und genauer analysiert, um eine möglichst präzise Vorstellung von deren Einprägungs- sowie Erinnerungsverhalten zu bekommen. Diese Erkenntnisse werden dann im Aufgaben- und Informationsmanagement System anwenderfreundlich abgebildet, um die Auffindbarkeit der Daten zu erleichtern und das Arbeiten mit dem System so benutzerfreundlich wie möglich zu gestalten. Christian Schreiber Design and Implementation of MozartSpaces, the Java Reference Implemention of XVSM - Custom Coordinators, Transactions and XML protocol Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn Abstrakt: Planen und implementieren von verteilten Systemen ist ein komplexer Prozess. Sehr viele Aspekte wie Skalierbarkeit, Verfügbarkeit, Sicherheit, Synchronisation und heterogene Umgebungen müssen berücksicht werden. Diese Diplomarbeit beschreibt MozartSpaces, die Java Implementierung von XVSM (eXtensible Virtual Shared Memory). XVSM ist eine erweiterbare, verteilte, space based computing Middleware, welche viele der erwähnten Probleme sehr gut löst. Sie unterstützt Entwickler beim Erzeugen von verteilten Anwendungen durch eine natürliche, p2p basierte Abstraktion des zugrundeliegenden physischen Netzwerkes. Im Gegensatz zur herkömmlichen Nachrichten basierten Kommunikation erfolgt die XVSM basierte Kommunikation zwischen verteilten Anwendungen über gemeinsam benutzte Datenstrukturen. Diese Arbeit geht besonders auf die Realisierung des Transaktionmanagements, die Erweiterbarkeit durch benutzerdefinierte Koordinationsmodelle und das plattformunabhänge XML Protokoll ein. Thomas Scheller Design and Implementation of XcoSpaces, the .Net Reference Implementation of XVSM - Core Architecture and Aspects Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn Abstrakt: Mit einer ständig steigenden Anzahl von Rechnern die über verteilte Netzwerke, vor allem das Internet, miteinander verbunden sind, müssen Anwendungen auch immer öfter über solche Netze hinweg miteinander kommunizieren. Dem Paradigma der "Shared Data Spaces" folgend, bietet XVSM (eXtensible Virtual Shared Memory) eine Middleware Lösung, die es Anwendungen erlaubt, miteinander auf einfache und natürliche Art und Weise zu kollaborieren, ohne die Notwendigkeit eines zentralen Servers. XVSM ist spezialisiert auf die Koordination von Daten, es stellt flexible Datenstrukturen für verschiedenste Arten der Kommunikation bereit, die von den meisten anderen Systemen dieser Art nicht zur Verfügung gestellt werden. Weiters ist XVSM besonders auf Leichtgewichtigkeit ausgerichtet, bietet aber gleichzeitig auch eine starke Erweiterbarkeit, um weitere Funktionen leicht hinzufügen zu können, die ursprünglich nicht in XVSM enthalten sind. Dieses Dokument konzentriert 63 Peter Wiedermann A generalized PBQP Instruction Selector for the LLVM compiler framework Studium: Masterstudium Technische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall Abstrakt: In den letzten Jahren fand ein neuer Ansatz Verbreitung, der das Problem der Befehlsauswahl auf ein mathematisches Optimierungsproblem, das sogenannte Partioned Boolean Quadratic Problem (PBQP) abbildet. Diese neuartige Formulierung ermoeglicht neben einer funktionsglobalen 64 Optimierung auch noch die Entwicklung ausdruckstaerkerer Befehlsgrammatiken. Fruehere Arbeiten zum Thema PBQP Befehlsauswahl stuetzen sich auf Befehlsgrammatiken die aus baumfoemigen Regeln bestehen. Wir stellen eine Generalisierung vor, die GAG 2 -foermige Regeln ermoeglicht welche mehrere Ergebnisse liefern und mehrere Operationen auf unabhaengigen Datenpfaden abdecken koennen. Wir integrieren diese generalisierte Befehlsauswahl in die LLVM Ubersetzerinfrastruktur, welche derzeit einen einfachen top-down Algorithmus zur Befehlsauswahl einsetzt. Das bringt neben einem funktionsglobalen Optimierungsraum auch noch zusaetzliche Funktionalitaet, wie zum Beispiel GAG-foermige Regeln und ein dynamisches Kostenmodell fuer die Befehlsgrammatik, mit sich. Zur Evaluierung implementieren wir Befehlsgrammatiken fuer zwei unterschiedliche Architekturen und uebersetzen Programme aus verbreiteten Benchmark-Suites. Wir untersuchen dabei neben der Effizienz der uebersetzten Programme auch die algorithmische Komplexitat unserer generalisierten Befehlsauswahl. Tomer Libal Cut Elimination in Inductive Proofs of Weakly Quantified Theorems Studium: DDP Computational Logic BetreuerIn: Univ.Prof. Dr. Alexander Leitsch Abstrakt: In dieser Arbeit wird erst der Gentzensche Beweis der Konsistenz der Peanoarithmetik vorgestellt, dann wird die Methode auf eine Klasse induktiver Be- weise erweitert. Da die Schnittregel in der Peanoarithmetik nicht redundant ist, ist Schnittelimination nur für Teilklassen möglich; hier wird die Teilklasse aller induktiven Beweise von Sätzen ohne starke Quantoren untersucht. Es wird gezeigt, dass bei dieser Klasse alle essentiellen Schnitte eliminiert werden können. Christoph Pruckermayr Grundlagen und Anwendungsfallanalyse einer patientengeführten elektronischen Gesundheitsakte Arbeitsbereich Theoretische Informatik und Logik Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund Markus Beyreder Special Variants of (Tissue) P Systems in the Formal Framework of Networks of Cells Abstrakt: Ziel der vorliegenden Arbeit ist es, über das Heranführen des Lesers an das Thema Elektronische Gesundheitsakte (EGA) und deren informationstechnische Grundlagen zu einer Analyse von Anwendungsfällen zu gelangen, bei denen der Patient als Datenerfasser und Datenpfleger fungiert. Die elektronische Gesundheitsakte wird zur patientengeführten elektronischen Gesundheitsakte. Unter dem Hintergrund der hohen Ziele der Einführung von elektronischen Gesundheitsakten, nämlich der Verbesserung der Abläufe im Gesundheitswesen und der Verbesserung der Präventionsmaßnahmen werden einleitend der Kontext und die Rahmenbedingungen herausgearbeitet. Bei der Realisierung einer EGA ist es unerlässlich, ethische Grundsätze von e-health, gesetzlichen Rahmenbedingungen und Anforderungen der Benutzer zu berücksichtigen. Auf der technischen Ebene sollen Möglichkeiten für die Realisierung einer Schnittstelle zwischen einem webbasierten Modul einer EGA und deren Core-System aufgezeigt werden. Als zentrale Aufgabenstellung der vorliegenden Arbeit wurden exemplarisch Anwendungsfälle erarbeitet, die Möglichkeiten für die Nutzung von EGA durch den Patienten bzw. Bürger selbst in der Zukunft aufzeigen. Zur Veranschaulichung wird ein modelliertes Webmodul in UML dargestellt und erklärt. Dieses Modul ermöglicht dem Patienten seine Gesundheitsdaten, wie Blutzuckerwerte, Gewicht, seine Wohlbefindlichkeitsdaten, über die zu realisierende Weboberfläche in das EGA-Kernsystem zu integrieren. Befugte Ärzte können damit diese Patientendaten einsehen und notwendige Vorkehrungen wie Untersuchungstermine, Überweisungen, etc. planen. Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund Abstrakt: Der Formalismus der P-Systeme wurde vor etwa zehn Jahren von Gheorghe Paun unter dem Namen Membransysteme eingeführt, und erst vor Kurzem wurden neue Ableitungsmodi und Haltebedingungen eingeführt. Zur Entwicklung vergleichbarer Resultate war die Entwicklung einer formalen Beschreibung ihrer Funktionsweise, im Speziellen eines Ableitungsschrittes, notwendig. Ein allgemeines formales Modell von Netzwerken von Zellen wurde eingeführt, um die wesentlichen Charakteristika von statischen (gewebeähnlichen) P-Systemen zu erfassen und ihre Funktionsweise in einer formalen Weise zu definieren. In dieser Diplomarbeit wird das formale Modell um einige neue Beispiele sowie neue Haltebedingungen und Ableitungsmodi erweitert. Mit nichthaltenden Berechnungen, kann man sogar über die Grenzen der Turing-Berechenbakeit hinausgehen. P-Systeme mit kontextfreien Regeln und dem maximal parallelen Ableitungsmodus charakterisieren Familien von Mengen natürlicher Zahlen die durch Lindenmayer-Systeme definiert sind, wenn man die Resultate in einer spezifischen Output-Zelle in jedem Ableitungsschritt während einer beliebigen Ableitung betrachtet. Mit dem neuen Ableitungsmodus des 1-beschränkten minimalen Parallelismus kann man erweiterte neurale P-Systeme sowie rein katalytische P-Systeme als Netzwerke von Zellen modellieren. 65 66 Christoph Roschger Dialogue Games for Fuzzy Logics INSTITUT FÜR COMPUTERGRAPHIK UND ALGORITHMEN Arbeitsbereich Algorithmen und Datenstrukturen Studium: Masterstudium Computational Intelligence BetreuerIn: Ao.Univ.Prof. Dr. Christian G. Fermüller Franz Berger Ein hybrides Verfahren zur automatischen Rekonstruktion von handzerrissenen Dokumentenseiten mittels geometrischer Informationen Abstrakt: Formale Dialogspiele werden schon seit langem dazu verwendet, die Semantik verschiedener Logiken zu charakterisieren. In den 70er Jahren präsentierte Robin Giles seinen Versuch, eine operationale Grundlage für formales Schließen zu definieren, basierend auf atomaren Experimenten, welche Dispersion aufweisen können. Diese Masterarbeit motiviert und beschreibt seinen Ansatz und die Verbindung zu t-Norm-basierten FuzzyLogiken. Wir geben eine kurze Einführung in t-Normen und mehrwertige Fuzzy-Logiken, die auf diese Bezug nehmen. Im Speziellen liegt der Schwerpunkt auf drei solchen fundamentalen Fuzzy-Logiken: LukasiewiczLogik, Gödel-Logik und Produkt-Logik. Verschiedene Möglichkeiten, die Spielregeln von Giles' Spiel zu ändern, um dieses adäquat für Gödel- und Produkt-Logik zu machen, werden präsentiert und diskutiert. Darüber hinaus beschreiben wir die starke Verbindung zwischen Gewinnstrategien im Spiel und Ableitungen in einem analytischen Kalkül, der auf relationalen Hypersequenten basiert. Eine andere Art von Dialogspielen sind sogenannte "Truth Comparison Games". Diese sind besonders geeignet für Gödel-Logik, da sie der gradbasierten Semantik der Gödel-Logik mehr entsprechen als Giles' Spiel. Wir präsentieren das Spiel und diskutieren Gewinnstrategien für beide Spieler, welche als Beweis für die Gültigkeit oder Widerlegbarkeit einer Formel gesehen werden können. Zusätzlich werden mehrere Hilfsprogramme vorgestellt, die im Kontext dieser Masterarbeit entwickelt wurden. Darunter befindet sich auch eine webbasierte Anwendung zur interaktiven Exploration von Giles' Spiel und dessen Erweiterungen. 67 Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof Dr. Günther Raidl Abstrakt: Diese Diplomarbeit ist dem großen Gebiet der Rekonstruktion von zerstörten Papierdokumenten zuzuordnen. Ziel dieser Arbeit ist die Zuweisung verschiedener durch manuelles Zerreißen erzeugter Schnipsel auf einzelne Seiten, sodass im Weiteren eine vollständige Rekonstruktion der originalen Dokumente vorgenommen werden kann. Alle in dieser Arbeit entwickelten Ansätze basieren auf der Idee als zusätzliche, sozusagen komplementäre Methoden zu Ansätzen aus dem Bereich der Bildverarbeitung zu fungieren. In dieser Arbeit werden drei Ansätze genauer betrachtet: Eine Lokale Suche soll im Wesentlichen in möglichst kurzer Zeit mit Hilfe einfacher Strategien gute Lösungen liefern. Weiters wird basierend auf dieser lokalen Suche ein Variable Neighborhood Descent (VND) Ansatz definiert, bei dem nicht im klassischen Sinn Nachbarschaften sondern die Schrittfunktionen systematisch ausgetauscht werden. Letztlich wird noch eine hybride Methode vorgestellt, die eine lokale Suche mit einem exakten Verfahren basierend auf ganzzahliger linearer Programmierung kombiniert. Dabei wird versucht die Abweichung von „ optimalen“ Seiten nach der Rekonstruktion anhand unterschiedlicher Merkmale zu messen und möglichst zu minimieren. Alle drei Ansätze werden durch die Anwendung einer für die Problemstellung entwickelten Datenstruktur effizient implementiert. Anhand ausführlicher Testergebnisse wird die Qualität der in dieser Arbeit vorgestellten Methoden miteinander verglichen und im Weiteren detailliert diskutiert. Zusammenfasssend kann gesagt werden, dass die Kombination von VND zum Berechnen von Ausgangslösungen mit der hybriden Methoden zum Verfeinern dieser Startlösung angewandt auf Seiten mit jeweils zwei Rissen (entspricht vier Schnipseln) am erfolgversprechendsten ist. Erwartungsgemäß nimmt die Lösungsqualität mit zunehmender Schnipselzahl pro Seite und zunehmender Seitenanzahl ab. 68 reference template must be available, which can be stored in a database and also on a RFID chip. With regard to mobile storage media, and thus only a small amount of memory, there is a need for the compression of biometric templates. This compression may be lossy, possible errors in the recognition however should be kept as small as possible. In this Master's Thesis in particular a new approach for the compression of fingerprint templates is developed. These templates contain information about the positions and orientations of the so-called minutiae, i.e. the endings and bifurcations of the dermal papillae. In turn this information is represented in the form of points of a d-dimensional coordinate system, and thus can be conceived as nodes of a graph. Hence, the focus of this thesis lies on the study of graph-based approaches. The basic idea is to store the difference vectors between always two points instead of the minutiae. For this purpose directed spanning trees allow an efficient encoding. Hence in the course of this thesis different approaches based on specific spanning trees, like e.g. the directed minimum spanning tree, the directed minimum label spanning tree and the directed weight balanced spanning tree, have been studied, and a compression of up to approximately 20% could be achieved. Christoph Bonitz An Incremental Dynamic Programming Approach for Multidimensional Allocation Problems Studium: Masterstudium Computational Intelligence BetreuerIn: Univ.Prof Dr. Günther Raidl Abstrakt: Diese Arbeit präsentiert einen Algorithmus zur Lösung eines Optimierungsproblems. Das Problem ist inspiriert von der Planung der Energieerzeugung in Wasserspeicherkraftwerken. In Wasserspeicherkraftwerken können große Mengen von Energie effizient gespeichert, und gezielt bei hohen Strompreisen in Elektrizität umgesetzt werden. Im in dieser Arbeit behandelten formalen Problem versuchen wir ein durch diskrete Einheiten repräsentiertes Gut, zum Beispiel Wasser, aus mehreren Speichern über eine beschränkte Planungperiode (repräsentiert durch "Entscheidungspunke") optimal zu verteilen, wobei Beschränkungen über die Gesamtzahl der Allokationen aus allen Speichern pro Zeitschitt möglich sind. Der Zielfunktionswert modelliert einen erwarteten Marktpreis und ist die Summe von konkaven Preisfunktionen. Wir können zeigen, dass durch die konkaven Preisfunktionen die Optimallösungen von zwei Probleminstanzen, die sich nur um eine Einheit in der Kapazität eines einzigen Speichers unterscheiden, die Optimallösungen in einer definierten Nachbarschaft befinden, die effektiv mit Dynamischer Programmierung durchsucht werden kann. Ein Algorithmus namens Optimal Policy Iteration (OPI) wird präsentiert, der diese Eigenschaft nutzt um die Optimallösung zu einer gegebenen Probleminstanz, ausgehend von der Optimallösung einer trivialen Instanz, iterativ über eine Reihe von optimalen Lösungen für "wachsende" Probleminstanzen zu finden. Der Algorithmus wird verglichen mit einem einfacheren Dynamische Programmierung-Verfahren sowie einem Evolutionären Algorithmus. Die Laufzeiten von OPI sind erheblich kürzer als die des einfachen Dynamische Programmierung-Algorithmus. Der Evolutionäre Algorithmus ist bei mehr Dimensionen schneller, garantiert aber keine Optimalität. Ein theoretisches Resultat dieser Arbeit ist, dass OPI in der aktuellen Form nicht einfach erweitert werden kann, um Preisszenarien zu berücksichtigen, da die Nachbarschaftseigenschaft nicht erhalten bleibt. Markus Knausz Parallel Variable Neighbourhood Search for the Car Sequencing Problem Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Günther Raidl Abstrakt: Variable Nachbarschaftssuche (VNS) ist eine relative neue Metaheuristik zum Lösen von schwierigen kombinatorischen Optimierungsproblemen. Ein solches Optimierungsproblem ist das Car Sequencing Problem (CarSP), wo eine Anordnung von Autos am Fließband mit minimalen Produktionskosten gefunden werden muss. Obwohl VNS eine erfolgreiche Metaheuristik ist, dauert es für praxisnahe Instanzen von CarSP eine lange Zeit bis eine brauchbare Lösung gefunden wird. Zwei Ansätze sollen ausführlicher untersucht werden: Erstens sollte die Effizienz von Nachbarschaften, d.h. das Verhältnis von Berechnungszeit und Lösungsverbesserung, während der Programmausführung verwendet werden, um effiziente Nachbarschaftsreihenfolgen zu bestimmen. Zweitens sollte das hohe Parallelisierungs-potential ausgenutzt werden. Im Rahmen dieser Diplomarbeit werden beide Ansätze kombiniert. Die Tests zeigten, dass eine beträchtliche Reduktion der Berechnungszeit möglich ist. Weiters haben die Tests gezeigt, dass keine "perfekte" Nachbarschaftsreihenfolge identifiziert werden kann was bedeutet, dass ein paralleler selbst-adaptiver Ansatz nützlich und wichtig ist, um gute Lösungsqualitäten zu erhalten. Olivia Dietzel Combinatorial Optimization for the Compression of Biometric Templates Studium: Masterstudium Computational Intelligence BetreuerIn: Univ.Prof. Dr. Günther Raidl Abstrakt: A biometric template contains biometric traits belonging to a certain person, like e.g. fingerprints or the facial structure. Especially for verification purposes such human characteristics become ever more important. In order to recognize a person by means of his biometric traits a 69 70 SQL-Abfragen und speicherintensive PHP-basierende Lösungen gegenüber. Die endgültige Wahl der richtigen Methode hängt zusätzlich von der Zusammensetzung und Menge der darzustellenden Daten ab. Wolfgang Morandell Evaluation and Reconstruction of Strip-Shredded Text Documents Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Univ.Prof. Dr. Günther Raidl Ferdinand Zaubzer Lagrangian Relax-and-Cut and Hybrid Methods for the Bounded Diameter and the Hop Constrained Minimum Spanning Tree Problems Abstrakt: In meiner Masterarbeit arbeite ich die Wiederherstellung von durch Shredder zerstörter Textdokumente aus. Im Gegensatz zu herkömmlicher Dokumentenwiederherstellung - die auf Farb- oder Umrissinformationen beruht - ist die Wiederherstellung von Textdokumenten noch nicht eingehend untersucht worden. Normalerweise werden Papierdokumente mittels Shredder zerstört, d.h. in längliche Papierstreifen zerlegt. In dieser Arbeit wird versucht, diesen Prozess rückgängig zu machen. Zuallererst beschreibe ich die Problemstellung formal. Als nächstes werde ich eine Möglichkeit aufzeigen wie Lösungen zu diesem Problem eingeschätzt werden können. Weiters werden eine Reihe von Verbesserungsstrategien vorgestellt, die bei der Evaluierung helfen. Definierte Konstruktionsheuristiken ermitteln gute Lösungen innerhalb kurzer Zeit. Mittels Optimierungsalgorithmen wird nun versucht eine möglichst gute Anordnung der Schnipsel zu finden, im Idealfall die ursprüngliche. Eine Testapplikation simuliert den Prozess des Shreddens einer Seite. Diese Seite wird dann mittels der oben beschriebenen Evaluierungstechniken und Optimierungsmethoden wie Multistart Variable Neighborhood Search, Simulated Annealing und Iterated Local Search wieder zusammengesetzt. Es wurden ausführliche Tests mit einem 60 Instanzen Testset durchgeführt. Die implementierte Applikation konnte mehr als die Hälfte aller Testinstanzen wieder korrekt zusammensetzen und kann auch mehrere Seiten auf einmal wiederherstellen. Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof Dr. Günther Raidl Abstrakt: Das minimale Spannbaumproblem mit einer Beschränkung des Durchmessers (Bounded Diameter Minimum Spanning Tree - BDMST) ist ein NP schweres kombinatorisches Optimierungsproblem aus dem Bereich des Netzwerkdesigns. Ein verwandtes Problem ist das minimale Spannbaumproblem mit festgesetztem Wurzelknoten und einer beschränkten Anzahl von Kanten zwischen dem Wurzelknoten und jedem Blattknoten (Hop Constrained Minimum Spanning Tree - HCMST). In dieser Arbeit wird ein bestehender Relax-and-Cut (R&C) Algorithmus zur approximativen Lösung dieser Probleme verbessert und erweitert und ein hybrider Algorithmus basierend auf dem R&C Algorithmus und einer Metaheuristik vorgestellt. Der R&C Algorithmus basiert auf einer integer linear programming (ILP) Formulierung mit einer exponentiellen Anzahl von linearen Bedingungen, den sogenannten Jump-Constraints. Dabei werden nicht erfüllte Bedingungen während der Laufzeit des Optimierungsalgorithmus identifiziert und relaxiert. Verbessert wurde der R&C Algorithmus durch eine aufwändige Verwaltung der identifizierten linearen Bedingungen und durch den Einsatz eines non delayed R&C Verfahrens. Die entwickelten Erweiterungen sind der Einsatz von generalisierten Jump-Constraints und eine initiale Erzeugung einer Menge von Jump-Constraints mit zugehörigen dualen Variablen. Die für den hybriden Algorithmus verwendete Metaheuristik ist eine AmeisenkolonieOptimierung (ACO). ACO Algorithmen nutzen die Fähigkeit von Ameisen kurze Wege zwischen Nahrungsquellen und ihrem Nest durch das Hinterlassen von Pheromonen am Weg zu finden. Die Funktionsweise entspricht einem positiv rückgekoppelten System. Der hybride Algorithmus verbindet die Pheromoninformationen mit Informationen vom R&C Algorithmus, sodass zur Lösungsfindung neben Pheromonwerten zusätzliche heuristische Werte einfließen. Experimentelle Berechnungen mit schon bestehenden Probleminstanzen aus der Literatur wurden durchgeführt. Die Resultate zeigen, dass die Verbesserungen des R&C Algorithmus zu deutlich besseren Ergebnissen - im Speziellen zu deutlich höheren unteren Schranken - geführt haben. Anna Potocka Webbasierte Darstellung großer Datenmengen als Pivot-Tabelle mithilfe ressourcenoptimierter Aggregationsverfahren Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof Dr. Günther Raidl Abstrakt: Pivot-Tabellen sind komplexe, mehrdimensionale Tabellen, die zur gleichzeitigen Auswertung von mehreren, zusammenhängenden Merkmalen zugrunde liegender Daten dienen. Bestehende Software stößt bei sehr großen Datenmengen nicht nur an Zeit- sondern auch an Kapazitätslimits. Auch der Trend zu webbasierten Tools und die Anforderung nach Plattformunabhängigkeit kann mit den vorhandenen Lösungen bisher nicht abgedeckt werden. Im Zuge dieser Diplomarbeit werden vier Methoden zur Erstellung von Pivot-Tabellen aus gegebenen Datenbanktabellen entwickelt, die sich durch die Anzahl und Art der Datenbankabfragen, die Komplexität der Berechnungen und die Größe des benötigten Cache voneinander unterscheiden. Die Performanceuntersuchungen stellen laufzeitintensive 71 72 des Forschens - durch Finden, Filtern und Verknüpfen des Wissens, das in Publikationen anderer Forscher gefunden werden kann - kann ein Einblick in ein Forschungsgebiet gewonnen werden. Dieser Einblick und die in diesem Schritt gewonnenen Einsichten, können, wenn sie in geeigneter Weise dargestellt und aufbewahrt werden, als neues Wissen angesehen und von anderen Forschern weiterverwendet werden. Diese Arbeit schlägt hierfür ein System verknüpfter Knoten vor, in dem Knoten, Attribute, Verknüpfungen und Gruppierungen über ein Peer-to-Peer-Netzwerk gegenseitig ausgetauscht werden können. Dies ermöglicht Forscher sowohl ihre Publikationen, als auch das Wissen, das sie während der Recherche gewonnen haben - in Form von Attributen, Verknüpfungen und Gruppierungen der Publikationen - zu speichern und anderen zur Verfügung zu stellen. LinkVis, das von mir vorgeschlagene System, verwendet Methoden aus den Bereichen Visualisierung und Peer-to-Peer-Netzwerke um eine Plattform zur Verfügung zu stellen, die nicht nur Visualisierung und Austausch dieses Wissens ermöglicht, sondern auch für jede andere Datenbasis, die als Netzwerk verknüpfter Knoten modelierbar ist, verwendet werden kann. Stephan Zaubzer A Complete Archive Genetic Algorithm for the Multidimensional Knapsack Problem Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof Dr. Günther Raidl Abstrakt: In dieser Arbeit wird ein vollständiges Lösungsarchiv vorgestellt, das einen genetischen Algorithmus zur Lösung des multidimensionalen Rucksack Problems (MKP) erweitert. Der genetische Algorithmus, auf dem diese Arbeit aufbaut, verwendet einen repair operator, um ungültige Lösungen auszuschließen und jede gültige Lösung zu einer lokal optimalen Lösung zu transformieren. Es ist wahrscheinlich, dass der genetische Algorithmus Lösungen produziert, die während der Laufzeit schon einmal generiert und ausgwertet wurden. Um die Berücksichtigung von schon ausgewerteten Lösungen zu verhindern, wird ein Lösungsarchiv auf der Basis eines Tries analysiert. Jede erzeugte Kandidatenlösung wird in das Archiv eingefügt. Wird eine schon enthaltene Lösung in das Archiv eingefügt, so wird mit einer speziellen Prozedur aus dieser doppelten Lösung eine neue, noch unbesuchte Lösung generiert, die ebenfalls lokal optimal ist. Des weiteren werden während des Einfügens von Lösungen obere Schranken an jedem Knoten des Tries berechnet. Wird für einen Teilbaum des Tries eine obere Schranke ermittelt, die kleiner als die bisher beste gefundene Lösung ist, so wird der entsprechende Teilbaum abgeschnitten. Sind in einem Teilbaum alle lokal optimalen Lösungen schon einmal besucht worden, so wird dieser Teilbaum ebenfalls abgeschnitten. Jede Lösung, die später generiert wird und in diesem abgeschnittenen Teilbaum liegen würde, wird als schon besuchte Lösung identifiziert, und in eine noch unbesuchte Alternativlösung transformiert. In dieser Arbeit werden die zur Implementierung notwendigen Algorithmen und Datenstrukturen dieses Lösungsarchivs vorgestellt. Dieser erweiterte genetische Algorithmus wird mit dem ursprünglichen Algorithmus verglichen, und es zeigt sich, dass durch dieses Lösungsarchiv bei vielen Instanzen bessere Lösungen gefunden werden. Dey-Fuch Chiu Penta G - A Game Engine for Realtime Rendering Research Studium: Diplomstudium Informatik BetreuerIn: Assoc.Prof. Dr. Michael Wimmer Abstrakt: Wissenschaftliche Forschung erfordert häufig Middleware für die Implementation von Machbarkeitsdemonstrationen. In der Computergrafikforschung werden hierfür Rendering Engines hinzugezogen. In der Echtzeitgrafik ist allerdings oft mehr Funktionalität nötig als es Rendering Engines bieten können, da in Echtzeit typischerweise Benutzerinteraktion erforderlich ist, oder dies sogar Teil der Forschungsthematik sein kann. Weiters existieren moderne Forschungszweige, die auch die Interaktivität mit nicht-visuellen Wahrnehmungskanälen wie etwa Audio untersuchen. Vollwertige Game Engines verfügen über diese Funktionalität, allerdings sind die meisten Game Engines entweder nur über teure Lizenzen verfügbar, oder werden für wissenschaftliche Forschungszwecke überhaupt nicht angeboten. In dieser Diplomarbeit wird der Entwurf, die Implementation sowie die Anpassung einer modernen Game Engine beschrieben, die spezifisch für die Echtzeitgrafikforschung entwickelt wurde. Diese Game Engine enthält alle nötigen Komponenten um echtzeit-interaktive Computergrafik-programme zu entwickeln und wurde bisher schon in mehreren Forschungsprojekten verwendet wie etwa dem EU-GametoolsProjekt sowie dem EU-Crossmod-Projekt. Arbeitsbereich Computergraphik Andreas Ammer Linking Science Together: How Networking Can Support Research - a Peerto Peer Approach Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller Abstrakt: Da Erfindungen und Entwicklungen nicht einfach aus dem Nichts entstehen, ist das Suchen nach früherer und verwandter Arbeit ein wichtiger Teil des gesamten Forschungsprozesses. Während dieses Teils 73 74 Wolfgang Deix Der Re-Compose Prototyp Anton Frühstück GPU based Clipmaps. Implementation of Geometry Clipmaps for terrain with non-planar basis Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Werner Purgathofer Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung BetreuerIn: Univ.Prof. Dr. Werner Purgathofer Abstrakt: Im Zuge dieser Diplomarbeit ist ein Prototyp einer VST-Plug-inSoftware für die Re-Compose GmbH nach Vorgaben von Gründer und Geschäftsführer Dr. Stefan Oertl entwickelt worden. Der sogenannte ReCompose Prototyp verbindet Audio-Softwareapplikationen mit einem von DI Brigitte Rafael für Re-Compose implementierten Musikanalysemoduls, der Re-Compose Logik, über die VST-Schnittstelle (Virtual Studio Technology). Der Musikdatenaustausch findet ausschließlich über das MIDI-Protokoll (Musical Instrument Digital Interface) statt. Die in Java implementierte ReCompose Logik wird vom hier beschriebenen Re-Compose Prototyp über das Java Native Interface (JNI) eingebunden. Diese schriftliche Arbeit beschreibt die Planung und den implementierten Aufbau des Prototyps und gibt einen Ausblick auf folgende Entwicklungsarbeiten. Abstrakt: Das Rendering von Terrain-Daten findet in vielen Anwendungsgebieten Verwendung. Neben kartographischen Anwendungen wird es auch im Unterhaltungssektor eingesetzt. Anwendungen, die ein sehr ausgedehntes Gelände anzeigen sollen, stehen vor dem Verarbeitungsproblem von großen Datenmengen. Es ist in der Regel nicht möglich, diese Datensätze mit herkömmlichen PCs direkt anzuzeigen. In dieser Arbeit wird eine verbesserte Terrain Rendering Technik vorgestellt. Diese Level-of-Detail Technik erlaubt das Anzeigen von auf beliebiger Basis aufgesetztem Terrain. Ein Beispiel dafür ist die Erde, deren Oberfläche auf einer Kugel basiert. Der vorgestellte Algorithmus baut auf dem Geometry Clipmaps Algorithmus auf, der das Anzeigen von unbeschränkt großen Terrain-Daten ohne Leistungsabfall erlaubt. Dieser Algorithmus wurde 2004 von Losasso und Hoppe entwickelt und 2005 von Asirvatham und Hoppe verbessert, um herkömmliche Graphik-Hardware besser ausnützen zu können und dadurch die Rendering-Leistung zu steigern. Dennoch können beide Algorithmen nur Gelände auf ebener Basis darstellen. Unsere Anwendung überwindet diese Einschränkung, indem anstelle einer Höhentextur eine Floating-Point Textur mit den 3D-Koordinaten der einzelnen Oberflächenpunkte verwendet wird. Durch diese Änderung ist es unserer Anwendung möglich, Gelände mit beliebiger Form anzuzeigen. Das erzeugte Drahtgitter ist nicht an ein reguläres, nur in z-Richtung veränderbares Mesh gebunden. Der Nachteil dieser Änderung des ursprünglichen Geometry Clipmap Algorithmus ist das Auftreten eines Genauigkeitsproblems, das dem Algorithmus das Rendern von nur beschränkt großen Terrains erlaubt. In dieser Arbeit wird dieses Präzisionsproblem durch Teilen der gesamten Oberfläche in kleinere, ohne Probleme verarbeitbaren Teile gelöst. Gerlinde Emsenhuber Visibility Histograms in Direct Volume Rendering Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller Abstrakt: In dieser Diplomarbeit werden Visibility Histogramme als Methode um volumetrische Datensätze zu analysieren eingeführt. Diese Histogramme zeigen an, welchen Einfluss die Datenpunkte mit demselben Skalarwert in einem solchen Datensatz auf das Gesamtbild, welches entsteht wenn der Datensatzes mit einer bestimmten Transferfunktion und von einer bestimmten Blickrichtung aus mithilfe einer Direct Volume Rendering Methode wie zum Beispiel Volume Raycasting dargestellt wird, haben. Die Histogramme können benutzt werden um Aufschluss über die interne Struktur von volumetrischen Datensätzen, insbesonders Verdeckungen von verschiedenen Strukturen zu erhalten. Weiters wird auf die Möglichkeit eingegangen, mithilfe der Histogramme automatisch Transferfunktionen zu berechnen, welche bei Anwendung auf einen Datensatz aus einer bestimmten Blickrichtung eine gewünschte Sichtbarkeitsverteilung erzeugen. Zwei Ansätze wie dies realisiert werden kann werden vorgestellt: Der erste Ansatz basiert auf einem genetischen Algorithmus, der andere auf einer Heuristik. 75 Philipp Hartl Visualization of Calendar Data Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller Abstrakt: Seit Anbeginn der Zeit werden Kalender benutzt, um Aufgaben und Termine zu organisieren. In dieser Diplomarbeit werden Interaktionsund Visualisierungstechniken für Kalenderdaten präsentiert, die die Organisation und Analyse nicht nur unterstützen sondern auch erleichtern und verbessern. Die Lösung basiert auf einer 3D Höhenfelddarstellung, welche die Auslastungen von Zeitabschnitten über Zeiträume darstellt. Darauf aufbauend kommen Interaktions- und Visualisierungstechniken zum 76 Einsatz, die es ermöglichen, den Datensatz auf Regelmäßigkeiten und Unregelmäßigkeiten hin zu erforschen. Der Vergleich von Datensätzen beim Planen von Terminen ist dabei genau so wichtig wie das Einbringen von zeitlich nicht genau festgelegten Aufgaben in einen Terminplan und deren Manipulation. Abgerundet wird die Visualisierung und Analyse durch Verwendung von statistischen Auswertungen, die Tendenzen und Muster erkennen lassen. Der Einsatz dieser Techniken und deren Zusammenwirken wird anhand von Beispielen präsentiert. verwendet werden können müssen diese zuerst gemessen, gefittet und interpoliert werden. In dieser Diplomarbeit werden zwei BRDF (Bidirectional Reflectance Distribution Function) Datenbanken für gemessene Oberflächendaten, die von zwei verschiedenen Universit äten gemessen wurden, für die Simulation verwendet. Eine Datenbank enthält die Oberflächendaten in Form von Spektral Messungen und die andere Datenbank enthält die Messungen im RGB Format. Weiteres werden verschiedene Oberflächen-Modelle und grundlegende Monte Carlo Sampling Methoden betrachtet. Die grundlegende Aufgabe der Diplomarbeit war es die gemessenen Oberflächendaten in das Advanced Rendering Toolkit (ART) einzubauen um diese für das Rendering zu verwenden. Das Advanced Rendering Toolkit wird seit 1996 auf der TU-Wien vom Institut für Computergraphik und Algorithmen entwickelt. Zusätzlich werden zu den gerenderten Bildern auch Polar Diagramme erzeugt, welche die Reflektionseigenschaften der Materialien zeigen. Andreas Monitzer Fluid Simulation on the GPU with Complex Obstacles Using the Lattice Boltzmann Method Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller Abstrakt: Die Echtzeit-Computergrafik und -Simulation haben sich zu einem Niveau entwickelt, das vor wenigen Jahrzehnten noch als undenkbar galt. Ungeachtet dessen stecken Flüssigkeitssimulationen für interaktive Anwendungen immer noch in den Kinderschuhen. Die progressive Weiterentwicklung der Graphikkartenprozessoren hat in letzter Zeit dazu geführt, dass Forscher die Karten als Stream-Koprozessoren behandeln können. Diese Klasse von Prozessoren wurde entwickelt, um parallelisierbare Algorithmen mit wenigen Sprungbefehlen zu verarbeiten. Die Laufzeit von Algorithmen, die diese Eigenschaften besitzen, kann auf einen Bruchteil der auf herkömmlichen Prozessoren benötigten verkürzt werden. Da rasterbasierte Flüssigkeitssimulation perfekt in dieses Schema passt, ist es zu einem sehr aktiven Forschungsgebiet geworden. Es werden einige Ansätze präsentiert werden, um eine gute Algorithmen-Kombination zu finden, die einfach parallelisiert werden kann und gleichzeitig Objekte mit komplexen Oberflächen erlauben. Zusätzlich wird die Verwendung von Flüssigkeitssimulationen in Computerspielen betrachtet. Ein UnterwasserFlipper wird als praktisches Beispiel vorgestellt, um die überlegungen hervorzuheben, die notwendig sind, um eine solche früher nicht verwendbare Simulation effektiv einzusetzen. Manfred Satzer Console Engine Design on the Example of the PlayStation 2 in Comparison to the PC Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung BetreuerIn: Assoc.Prof. Dr. Michael Wimmer Abstrakt: 3D Grafik ist ein wichtiger Bestandteil vieler Anwendungen, von Computerspielen bis hin zu medizinischer- und Architektur-Visualisierung. Speziell Spiele treiben die Entwicklung von Grafik-Hardware und neuen SpielKonsolen voran. Die Grafik-Engine ist die Komponente der Software, die verantwortlich ist für die visuelle Darstellung. Diese unterscheidet sich auf Konsolen im Vergleich zum PC deutlich, da die Hardware signifikant differiert. Die Multi-Prozessor Technologie der PlayStation 2 mit der ausführlichen Nutzung von parallelen Datenwegen und Processing Units ist ideal, um die Unterschiede zwischen dem PC und einer Konsolen- Plattform anhand eines Rendering Engine Prototyps zu zeigen. Der grundlegende Unterschied zu einer Engine am PC ist das fehlende Grafik-API, das zwischen abstrakten API-Funktionen und der Hardware steht um Kompatibiltät zu verschiedenen Treibern und Hardware-Konfigurationen zu ermöglichen. Aufgrund des komplexen Hardware-Layouts einer Konsole ist es möglich die Engine genau auf diese Konfiguration hin zu optimieren und anzupassen, ohne auf Kompatibilität achten zu müssen. Der Kernteil dieser Arbeit ist der direkte Vergleich zwischen dem Engine-Design und der Implementierung auf der PlayStation 2, und dem PC. Dieser wird speziell verdeutlicht anhand verschiedener Effekte, wie Motion Blur, Glow oder Environment Mapping, die auf der PlayStation 2 unter Ausnutzung verschiedener Hardware-Features implementiert wurden. Aufgrund dieser werden durch einen detaillierten Vergleich die Unterschiede und deren Vor- und Nachteile sichtbar. Diese Arbeit ist gegliedert in eine grundlegende Übersicht des RenderingProzesses und einer Erklärung der Hardware der PlayStation 2. Folgend Murat Sari Photorealistic rendering of measured BRDF data Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung BetreuerIn: Univ.Prof. Dr. Werner Purgathofer Abstrakt: Fotorealistisches Rendering von gemessenen Oberflächendaten hat ein grosses Anwendungsfeld, in erster Linie werden die Daten verwendet um Referenzbilder für Analytische Oberflächen-Modelle zu erzeugen. Bevor die Daten für die Erzeugung von Referenzbilderen 77 78 wird das Layout der Rendering Engine inklusive der Design-Probleme und Möglichkeiten dargestellt. Ein ausführlicher Vergleich mit den Vor- und Nachteilen eines PCs inklusive der Schlußfolgerung schließen die Arbeit ab. Geschäftsprozesse als Workflow abzubilden und diese in einer web-basierten Oberfläche auszuführen. INSTITUT FÜR GESTALTUNGS- UND WIRKUNGSMatthias Wohlmann enablerWorkflows - Ein formularorientiertes, dynamisches, web-basiertes Workflow-Management-System auf Basis der Windows Workflow Foundation FORSCHUNG Arbeitsbereich Multidisciplinary Design Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Werner Purgathofer Harald Bamberger Internationalisierung von Webapplikationen mit den Möglichkeiten aktueller Webentwicklungsframeworks Abstrakt: Die Arbeit beschreibt die praktische Umsetzung eines WorkflowManagement-Systems mit dem Namen „enablerWorkflows“. Die Microsoft Windows Workflow Foundation dient als Basis für enablerWorkflows. enablerWorkflows ist als Erweiterung in eine bestehendes web-basiertes Content-Management-System integriert. In enablerWorkflows ist jedem Workflow ein Workflow-Dokument zugeordnet. Dieses ist aus einzelnen Formularen zusammengesetzt, die im Verlauf des Workflows von den am Workflow beteiligten Benutzern ausgefüllt und überarbeitet werden. Bei den Formularen handelt es sich um Web-Formulare, die dynamisch mit einem Formular-Editor erstellt werden können, der ebenfalls im ContentManagement-System inkludiert ist. Haupteinsatzgebiet ist die Umsetzung formularlastiger Geschäftsprozesse als Workflow (zum Beispiel Urlaubsansuchen, Verbesserungsvorschläge, Reklamationsmanagement, …). Dazu werden die Basis-Aktivitäten (= Bausteine eines Workflows) der Windows Workflow Foundation um zusätzliche Aktivitäten erweitert, die speziell im Hinblick auf eine optimale Zusammenarbeit mit den dynamischen Formularen entwickelt wurden. All diese Aktivitäten sind rein parametergesteuert, es ist also keine zusätzliche Programmierarbeit nötig, wie dies bei den meisten Basis-Aktivitäten der Fall wäre. Beispielhaft sei hier die Aktivität mit dem Namen „FillOutNew_User“ erwähnt, in der der über einen Parameter angegebene Benutzer ein Formular ausfüllen muss, das in einem weiteren Parameter spezifiziert ist. Das ausgefüllte Formular wird anschließend an das Workflow-Dokument angehängt. Weitere Aktivtäten ermöglichen unter anderem das Überarbeiten von Formularen, einen E-MailVersand sowie Verzweigungen und Schleifen abhängig von den Werten bereits ausgefüllter Formularelemente. Die Workflow-Definition wird mit dem grafischen Workflow-Designer erstellt, der im Microsoft Visual Studio integriert ist und um die zusätzlichen Aktivitäten erweitert wurde. Die Workflow-Definition kann ins Content-Management-System veröffentlicht werden und steht ab diesem Zeitpunkt den Benutzern zur Verfügung, um daraus eine neue Workflow-Instanz zu starten. Eine integrierte Arbeitslistenverwaltung ermöglicht es den Benutzern, laufende Workflows, an denen sie beteiligt sind, zu sehen und gegebenenfalls die damit verbundenen Formulare auszufüllen. Eine Übersicht ermöglicht es Administratoren, alle Workflows zu überwachen. enablerWorkflows ermöglicht es somit auch ohne Beteiligung eines Software-Entwicklers, 79 Studium: Diplomstudium Informatik BetreuerIn: Assoc.Prof. Dr. Hilda Tellioğlu Abstrakt: Die steigende Zahl an InternetnutzerInnen weltweit bringt für international agierende Unternehmen bzw. Organisationen ein immer größeres Zielpublikum. Die einzelnen NutzerInnen kommen allerdings aus den unterschiedlichsten Kulturkreisen und sozialen Schichten. Um die BenutzerInnen bzw. KundInnen anzusprechen und eventuell zu binden, ist es notwendig Webauftritte oder Webapplikationen so zu gestalten, dass sich die BenutzerInnen wohl fühlen. Dies kann z.B. durch Verwendung der Sprache bzw. Schrift der BenutzerInnen, deren gewohntes Datumsformat oder Währung erreicht werden. Das Gebiet der Internationalisierung soll hierfür Methoden bereitstellen, um eine Anwendung nicht für jeden Kulturkreis extra zu entwickeln - was zwar auch eine Form der Internationalisierung wäre - sondern auf elegante und effiziente Weise nur jene Teile anzupassen, welche von Kultur zu Kultur verschieden sind, und dies tunlichst ohne einer neuerlichen Kompilierung der Applikation. Im ersten Teil der Arbeit werden ausgehend von einer Übersicht der einzelnen Probleme, die im Fokus der Internationalisierung liegen, Methoden und Konzepte zu deren Lösung vorgestellt. Im zweiten Teil werden anhand einer einfachen repräsentativen Webapplikation die Möglichkeiten zur Internationalisierung, die aktuelle Webentwicklungsframeworks (Tapestry/JAVA, ASP.Net/C# und Zend Framework/PHP) bieten, evaluiert und verglichen. Hasan Kilic Projektautomatisierung und build Prozess Studium: Diplomstudium Informatik BetreuerIn: Assoc.Prof. Dr. Hilda Tellioğlu Abstrakt: Die Automatisierung des Build-Prozesses ist eine besonders wichtige und empfehlenswerte Vorgehensweise, die im Zuge jedes 80 Softwareentwicklungsprozesses stattfinden sollte. Doch bevor es überhaupt möglich ist, dass sich Projektteams dieser Thematik zuwenden, muss vorerst die korrekte Gestaltung und Strukturierung des Build-Prozesses erfolgen, sodass man sich anschließend Gedanken über die Implementierung und Automatisierung des Prozesses machen kann. Um ein Softwareprodukt erstellen zu können, muss eine Kette von bestimmten Schritten bzw. Phasen aufeinanderfolgend ausgeführt werden, die im Build-Prozess zusammengefasst bzw. vereint werden. Insofern ist es wichtig zu wissen, aus welchen Teilen der Build-Prozess besteht und wie er aufgebaut ist. Außerdem sollten sich AnwenderInnen darüber im Klaren sein, was sie sich vom Build-Prozess erwarten und zu welchem Zweck sie ihn einsetzen. Diese Diplomarbeit widmet sich der ausführlichen Untersuchung des BuildProzesses, mitsamt all seinen Einzelheiten und Bestandteilen. Dabei werden jene Technologien, Werkzeuge und Entwicklungsmethoden in die Betrachtung mit einbezogen, die mit diesem Prozess in direktem Zusammenhang stehen. Die Untersuchung hat gezeigt, dass der automatisierte Build-Prozess im Vergleich zu manuell gesteuerten Builds die effektivere und weniger fehleranfällige Variante ist. Daneben ließen sich eine Reihe von Vorteilen, wie beispielsweise der Wiederverwendbarkeit, Reproduzierbarkeit und Skalierbarkeit, erkennen, die mittels Automatisierung bestimmter Prozessaktivitäten genossen werden können. Außerdem ist ein deutlicher Trend Richtung vollständiger Automatisierung des Build-Prozesses erkennbar, der vor allem damit einhergeht, dass neue Entwicklungsmethoden, wie das Agile Development, einen besonders großen Wert auf automatisierte Builds legen. Technologien, die die Mitarbeiter durch alle Stufen der Notfallbearbeitung unterstützen. Im Anschluss werden die Arbeitsabläufe mit jenen der Notfallbearbeitung vor der Umstrukturierung vergleichend dargestellt. Die Arbeitsweise der skandinavischen Rettungsleitstellen ist der von 144-NotrufNÖ weit ähnlicher als die der alten niederösterreichischen Leitstellen. Aus diesem Grund habe ich Studien aus diesen Ländern zu Vergleichszwecken herangezogen und ebenfalls die Unterschiede herausgearbeitet. Als Ergebnis dieses Vergleichs habe ich herausgefunden, dass in Skandinavien sehr großer Wert auf Kooperation bei der Lösung von Problemen gelegt wird und habe zum Abschluss meiner wissenschaftlichen Arbeit versucht, eine Begründung dafür zu finden. Arbeitsbereich Human Computer Interaction Gerd Czoppelt Qualitative Studie zur Medienarchivierung in den Creative Industries Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer Abstrakt: Diese Diplomarbeit zeigt mittels einer Studie, wie der Computer heutzutage in den Creative Industries zum Einsatz kommt. Insbesondere wurde dabei untersucht, inwieweit Zusammenarbeit durch die eingesetzten Technologien unterstützt oder behindert wird, und mit welchen Mitteln versucht wird, die Zusammenarbeit zu erleichtern. Für diese Studie wurden mit Hilfe von qualitativen Interviews sechs Vertreter der Creative Industries zum Arbeitsablauf von Projekten befragt, an denen sie teilgenommen oder die sie selbst geleitet haben. Markus Winnisch Die technologische Unterstützung in niederösterreichischen Rettungsleitstellen Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Ina Wagner Visda Goudarzi Fosotomo: sonification of gesture and motion Abstrakt: Wann immer ein medizinischer Notfall eintritt, lautet die erste Aufforderung: „Ruf die Rettung an!“. Genau hier tritt dann die Rettungsleitstelle in Aktion. Bei ihr langt der Notruf ein, sie bestimmt die Dringlichkeitsstufe und alarmiert ein geeignetes Einsatzfahrzeug. Im Jahr 2003 fand in Niederösterreich eine Umstrukturierung der Rettungsleitstellen statt. Die Firma 144-Notruf-NÖ GmbH wurde mit dem Ziel gegründet, alle bisherigen 93 Rettungsleitstellen zu ersetzen und mit möglichst wenigen Betriebsstätten (mittlerweile 6) effizienter arbeiten und auch mehr Service anbieten zu können. Bei der erfolgreichen Umsetzung dieses ehrgeizigen Planes ist der Einsatz von neuen Technologien unumgänglich. In dieser Diplomarbeit erläutere ich nach allgemeinen Informationen, sowie Ausstattung und Aufgaben einer Rettungsleitstelle zunächst die Arbeitsweise von 144-Notruf-NÖ bei einem Notfall im Detail. Besonderes Augenmerk lege ich dabei auf die neu eingesetzten 81 Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer Abstrakt: This thesis explores "Sonification" - the transmission of information via sound – as applied to gestural pattern recognition in the art of conducting. The first chapter examines how the aural sense has developed from a simple sense to allowing for understanding structured concepts such as language and music. Then, we look at the evolution of Sonification and sound attributes which are used in Sonification. Furthermore we explore concepts of Sonification and perception through audio, study gesture, find the connection between the two (gesture and sound) and how challenging this association can be. The final chapter is devoted to a practical 82 application of gesture tracking in video as we see how to make use of motion tracking systems to make sound and music. Führung, Technologie und Doktrin beleuchtet und versucht einen Ansatz für eine Definition einer Revolution in Militärischen Angelegenheiten zu finden. Nicole Hartmann Kriterien zur Prädikatisierung von kindergerechten Webangeboten Thomas Music penApp & interaktiver Stift als Designinstrument Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer Studium: Masterstudium Medieninformatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer Abstrakt: Im Internet findet sich eine kaum überschaubare Anzahl an Webseiten, die speziell für Kinder entwickelt worden sind. Man erhält im Internet sehr häufig Informationen über Gefahren und Risiken, denen Kinder bei ihren Online-Aktivitäten ausgesetzt sind, wesentlich seltener stößt man auf Positivprädikatisierungen von Webangeboten. Im Mittelpunkt dieser Arbeit steht daher die Definition von Kriterien, die auch nicht wissenschaftlich geschulte Personen in die Lage versetzen soll, Webangebote nach deren Eignung für Kinder zu beurteilen. Zunächst wird die Intention des Anbieters sowie die Intention des Kindes untersucht. Es folgt eine Diskussion von Gestaltungsaspekten wie Usability, Adaptivität und Transparenz des Webangebotes sowie der Gewährleistung des Datenschutzes. Danach werden verschiedene Anforderungen unter die Lupe genommen, die der Umgang mit Webangeboten an Kinder stellt. Dazu zählen soziale, emotionale, medienbezogene und kognitive Anforderungen, sowie Anforderungen an Wahrnehmungs-, Aufmerksamkeits- und sensomotorische Koordinationsleistungen. Abschließend wird die Angemessenheit des ethisch-normativen Gehalts eingehender betrachtet. Um die Anwendbarkeit der beschriebenen Kriterien zu demonstrieren sind vier Webangebote exemplarisch ausgewählt worden, die ein weites Spektrum an Themengebieten abdecken. Die entwicklungspsychologische Grundlage bei der Untersuchung der Webangebote bilden die Arbeiten von Jean Piaget. Darüber hinaus ist eine Beurteilung nach dem pädagogischen Konzept Maria Montessoris vorgenommen worden. Abstrakt: Die Applikation penApp ermöglicht das Erstellen einer Komposition aus Skizzen und Bildern auf einer infiniten Fläche. Die Bedienung erfolgt mit einem interaktiven Stift. Der erste Teil dieser Arbeit beschäftigt sich mit Grundlagen aus der Designtheorie, die für das penApp Projekt wichtig sind. Es werden verschiedene Aspekte des Designprozesses in der Softwareentwicklung betrachtet. Danach wird die Entwicklung des Designs von penApp beschrieben. Um Ideen und Konzepte zu finden und weiterzuentwickeln wird Sketching als Instrument verwendet. Die Herangehensweise an das Projekt wird mit zwei anderen Modellen verglichen. Wesentliche Elemente des Designs sind das einfache Bearbeiten von Skizzen mit dem interaktiven Stift, das unmittelbare Einfügen von Bildern mit einer Kamera, die konsistente Interaktion mit Skizzen und Bildern, der natürliche Bewegungsablauf von Objekten, ein Menüsystem, das die Funktionsauswahl durch kurze Bewegungen mit dem Stift ermöglicht. Martin Neuwirth Usability-Evaluation der User Interfaces GNOME und KDE Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl Abstrakt: Bei Open Source Projekten hat man das Gefühl, dass Usability häufig im Software-Entwicklungsprozess eine untergeordnete Rolle spielt. Der Faktor Mensch scheint wenig Berücksichtigung zu finden. In einer Zeit, in der der Trend nach alternativen Betriebssystemen zu den Betriebssystemen der marktbeherrschenden Firmen, wie etwa Microsoft und Apple, immer stärker wird, muss auch die Open Source Bewegung sich dieser Problematik stellen. GNOME und KDE sind wohl die zwei bekanntesten Benutzerschnittstellen, die für *nix-Systeme existieren. Durch ihre weite Verbreitung begünstigt, gibt es viele Anwender, die täglich den Stärken und Schwächen dieser User Interfaces ausgesetzt sind. Das Thema Usability wird aufgegriffen, analysiert und bildet die Basis für die durchgeführten Untersuchungen an GNOME und KDE. Wie Usability bei finanzstarken Unternehmen gesichert werden kann, wird dargestellt. Im Kontrast hierzu stehen Open Source Projekte, denen oft die finanzielle Unterstützung fehlt. Anhand von Discount Usability Engineering Methoden werden diese beiden Oberflächensysteme zum einem mittels User-Tests und Christian Meurers Der Informationskrieg im 21.Jahrhundert und seine Auswirkungen auf die Militädoktrinen der USA Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Hofkirchner Abstrakt: Die Arbeit beschäftigt sich mit dem Informationskrieg und seinen Auswirkungen auf die Militärdoktrinen der USA. Nach den theoretischen Grundlagen wie dem Informationsbegriff, militärischer Organisation und unter anderem einer gesellschaftspolitischen Betrachtung des Informationskrieges wird eine Untersuchung der Kriegsführung der letzten 30 Jahre durchgeführt. Weiters wird der Zusammenhang zwischen 83 84 zum anderen mittels einer Online-Umfrage miteinander verglichen, sofern dies möglich ist. Die User-Tests werden in einer gemütlichen Atmosphäre, in der der Tester neun alltägliche Aufgaben unter Verwendung beider Schnittstellen löst, durchgeführt. Es existieren noch nicht viele Usabilitystudien zu GNOME und KDE, doch wird auf Vergleichbarkeit mit den vorhandenen Studien Wert gelegt. Die Online-Umfrage rundet die Untersuchungen ab und gibt einen statistischen Überblick darüber, wie sich die beiden User Interfaces im Hinblick auf Usabilityaspekte verhalten. Alexandra Oberschneider Mensch - Rekorder - Interaktion Studium: Individuelles Masterstudium: Gestaltung von Multimediasystemen BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl Abstrakt: Das Thema dieser Masterarbeit ist die Gebrauchstauglichkeit (Usability) von DVD Rekordern mit Festplatte. Für die Forschung ist von Interesse, ob bei DVD Rekordern mit Festplatte ebenfalls eine schlechte Bedienbarkeit, wie bei Videorekordern und Fernbedienungen, auftritt. Für die Praxis ist es interessant zu zeigen, dass die Endanwender mit den derzeitigen Geräten überfordert und daher nicht zufrieden sind. Das Ziel ist eine Anleitung, für einen benutzerfreundlichen DVD Rekorders mit Festplatte (Software, Fernbedienung und das Gerät selbst), zu entwickeln. Das Endresultat soll in Form von Funktionslayouts in Kombination mit speziellen Richtlinien verfügbar sein. Wie Bedienbarkeit definiert werden kann, welche Methoden für eine Untersuchung optimal sind, welche Richtlinien bereits existieren und welche Grundlagen der Gestaltung beachtet werden sollten, damit beschäftigt sich der Theorieteil. Im Praxisteil sind die angewandten Methoden (PACT - ein Rahmen für die Analyse, Interviews, Gerätevergleich, Beobachtung und Coaching) und deren Ergebnisse angeführt. Gerhard Obernberger Design, Implementierung und Evaluierung von mobilen Benutzerschnittstellen für den Zugang zu räumlicher Information Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer Abstrakt: Diese Arbeit untersucht den Gestaltungsspielraum von mobilen räumlichen Anwendungen und Methoden für den Zugang zu Points–of– Interest (POI). Virtuelle grafische Repräsentationen der Umgebung sollen dem Benutzer helfen, auf möglichst einfache Weise die gewünschten Informationen zu erhalten. Im Rahmen dieser Arbeit sind voll funktionsfähige Prototypen von Restaurantführern implementiert worden, welche unterschiedliche Gestaltungsmerkmale hinsichtlich Design und Interaktionskonzept aufweisen. Mit den Prototypen wurde eine Benutzerstudie durchgeführt, um die Präferenzen der Benutzer in Bezug auf Visualisierung der Umgebung und Einfachheit des Zugangs zu POI zu eruieren. Mehrere unterschiedliche Visualisierungen und Interaktionskonzepte wurden implementiert, welche die Umgebung des Benutzers abhängig von seiner geografischen Position und der 3D– Ausrichtung im Raum darstellten. Für die Visualisierungen wurde ein Gebäudemodell herangezogen, bei dem die POI, im vorliegenden Fall die Restaurants, visuell zu den Gebäuden zugeordnet waren und vom Benutzern ausgewählt werden konnten, um detaillierte Informationen zu erhalten. Die bedeutendste Erkenntnis war, dass alle orientierungsbewussten Visualisierungen der Umgebung gegenüber den konventionellen orientierungsunabhängigen Darstellungen bevorzugt wurden. Daraus kann geschlossen werden, dass in zukünftigen mobilen Endgeräten die Integration eines elektronischen Kompasses sinnvoll wäre. Weitere Ergebnisse hinsichtlich des Realitätsgrades der Darstellung, der Perspektive auf die Umgebungssituation sowie des Gesichtsfeldes konnten durch die Gegenüberstellung der unterschiedlichen Eigenschaften sowie spezifischer Befragung der Testpersonen erzielt werden. Aufgrund der Aussagen der Testpersonen können erste Empfehlungen für die Gestaltung von Benutzerschnittstellen für mobile räumliche Anwendungen gegeben werden. Darüber hinaus werden Vorschläge für zukünftige Forschungsrichtungen abgegeben. 85 Jürgen Puchta Virtuelle Welten - reale Grenzen (Inhaltliche und technische Regulierungsmaßnahmen im Bereich von PC- und Konsolenspielen) Studium: Masterstudium Medieninformatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer Abstrakt: Kaum eine Diskussion wird ähnlich emotional und kontroversiell geführt wie die um Regulierungsmaßnahmen und Kotrollmechanismen für einen vernünftigen und verantwortungsvollen Umgang mit PC- und Konsolenspielen. Vor allem im Umfeld von Gewalt thematisierenden Spielen wird der Ruf nach restriktiveren Kontrollen und Zensurmaßnahmen bis hin zu totalen Verboten immer lauter. In der Tat hat sich im Bereich der Reglementierung in Zusammenhang mit Spielen und potentiell jugendgefährdenden Inhalten in den letzten Jahren auch einiges bewegt. Dass es dabei auf Grund von unterschiedlichen internationalen Wert- und Moralvorstellungen, gesellschaftlichen Strukturen und politischen Systemen global gesehen zu Unterschieden in der Art und Ausprägung von Kontrollmechanismen und Regulierungsmaßnahmen kam, ist nicht weiter verwunderlich. Auf einem globalen Markt bedeutet das aber gleichzeitig auch gewisse Einschränkungen für die Spiele-Entwickler, die ihrerseits alles unternehmen, um ihre Absatzmärkte auch weiterhin aufrecht zu erhalten. Hersteller wie auch Spieler reagieren auf diese Entwicklungen auf zum Teil sehr „kreative“ Art - Gründe genug, die Thematik innerhalb dieser Arbeit näher zu analysieren. 86 Overview-Maps zeigen, diese zwar technisch praktikabel aber unter Umständen aufwendig sind und Kompromisse bezüglich der Anforderungen notwendig sind. Das browser-basierte Bearbeiten von Seiten könnte kurz davor stehen, den Sprung von Markup zu unmittelbarem Bearbeiten von Inhalten zu machen. In diesem Zusammenhang wird ein Interface für das Bearbeiten von Links entworfen, das die heute typische TextfragmentZentrierung gegen eine Dokument-Zentrierung tauscht. Bezüglich der praktischen Vereinigung von Weblogs und Wikis werden verschiedene Varianten untersucht und besprochen. Roshanak Rezvani-Naraghi Konzepte und Fallbeispiele der Einbindung interaktiver Technologien in den Raum Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer Abstrakt: Der Computer der Zukunft soll uns in allen Lebenslagen und Alltagssituationen unterstützen, indem er uns ununterbrochen mit nützlichen Informationen versorgt. Die Verwirklichung dieser Vision, die Ende der achtziger Jahre zum ersten Mal entstand, scheint mit den heutigen Hochleistungscomputern und ?netzwerken sowie mit dem Fortschritt in Sensorik in greifbare Nähe gerückt zu sein. Viele Forschungsarbeiten werden diesem Thema gewidmet (Ubiquitous Computing, Pervasive Computing, Context-aware Computing, Disappearing Computing, Ambient Intelligence, Smart Spaces, etc.). Die moderne Art der Informationstechnologie fordert eine neue Art der Mensch-MaschineInteraktion, daher stehen in der weiteren Entwicklung der Computertechnologie nicht mehr die klassischen Kriterien wie die Netzwerkgeschwindigkeit im Vordergrund. Vielmehr muss sich die Forschung auf die Benutzerschnittstelle konzentrieren. Der ?unsichtbare? Computer der Zukunft wird vollständig in den uns umgebenden Räumen und Alltagsgegenständen integriert sein, wodurch explizite Input-Outputs über klassische Schnittstellen überflüssig werden. Die Verwendung von Raum und Alltagsgegenständen als eine optimale Schnittstelle ist naheliegend, da Menschen den Umgang mit diesen Objekten als natürlich empfinden. Aus diesem Grund konzentrieren sich viele multidisziplinäre Forschungsarbeiten unter anderem auf die Untersuchung des menschlichen Verhaltens in seinen diversen Lebensräumen. In dieser Arbeit beschreibe ich verschiedene Aspekte der oben genannten Vision, eine Reihe von angewandten Technologien für deren Realisierung, und ein paar Beispiele für die Integration interaktiver Technologie in den Raum. Zudem gehe ich ausführlich auf das Thema der Wahrnehmung des Raums durch Menschen und seine Wechselwirkung mit der Mensch-Maschine-Interaktion ein. «vorname» «name» «titel» Studium: «studium» BetreuerIn: «betreuerIn» Abstrakt: «abstract» INSTITUT FÜR SOFTWARETECHNIK UND INTERAKTIVE SYSTEME Arbeitsbereich Information und Software Engineering Mansoor Ahmed Exploitation of Ontologies in Security and Privacy Domain Studium: Masterstudium Informatikmanagement BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Die Entwicklung vom Semantic Web hat die Informationsspeicherung, Übertragung und Zugriff revolutioniert. Die Designprinzip von Sementic Web zielt auf Zusammenarbeit und Wissensaustausch ab. Die Vision von Semantic Web sind Information die für Maschinen verständlich sind, auch zu verwendet um sie mittels Computer zu kombinieren und auszutauschen. Ontologie beschreiben die Hauptkonzepte, gemeinsam mit Domainnamen und Verknüpfungen sind die Hauptbestandteile von Semantic Web. Ontologien erlauben die Interoperabilität und ein gemeinsames Verständnis von Domänen zwischen zwei Softwareanwendungen verschiedener Organisationen. Sie erlauben außerdem den Austausch von Daten auf syntaktische und semantische Ebenen. Im Semantic Web können zwei Beteiligte automatisch miteinander interagieren ohne voneinander zu wissen, daher sind traditionelle Zugriffskontrollmodelle nicht geeignet um in einer derartigen Umgebung eingesetzt zu werden. Deshalb werden Prozesse mit semantischer Unterstützung benötigt, die automatische Zugriffe auf sensitive Florian Scholz Komponenten für ein next-generation collaborative Hypermedia-Authoring Enviroment Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer Abstrakt: Die vorliegende Arbeit untersucht das Problem, Wikis und Weblogs unter Einbindung einer Overview-Map in einem System zu vereinen. Dazu wird zunächst ein kurzer Überblick über die Themen Hypertext, Wikis, Weblogs und Spatial Hypertext gegeben. Danach folgt die Vorstellung einiger Entwürfe und daraus entstandender Prototypen. Prototypen für webbasierte 87 88 Informationen behandeln. Eine große Herausforderung in vielen Organisationen ist es Risikofaktoren für Computer und Netzwerke festzulegen. Legacysysteme in Organisationen sind durch unterschiedliche Risiken bedroht, z.B. Computervirus, bugs und Systemfehler durch Hardware- oder Softwarefehler. Diese können den Verlust von Daten zur Folge haben. Das Ziel ist es, Risiken abzuschätzen und so die resultierenden Probleme zu minimieren. Die Lücke zwischen Geschäftseinheiten (wie Projekten oder Rollen) und organisatorischen Infrastrukturen sollen mit Hilfe von Semantic Web überrücken werden. Die Geheimhaltung von Informationen in gemeinschaftlichem betrieblichem Umfeld indem verschieden Personen miteinander interagieren und Informationen austauschen ist wichtig. Eine schwierige Aufgabe in einem derartigen Umfeld ist der Informationenaustausch ohne fremde Information offenzulegen. In dieser Arbeit zeigen wir, wie Semantic Web zur Lösung der oben genannten Probleme beitragen kann. Wir sind der festen Überzeugung, dass mittels Policy-Sprachen die Zugriffsrechte auf sensible Informationen entsprechend formuliert werden können, wenn sie mit domainspezifischer Semantik kombiniert werden. Zum Beispiel kann der Benutzer Art und Abstraktionsniveau der Informationen definieren sowie Randbedingungen aufstellen, wann diese veröffentlich werden dürfen. Der Benutzerkontext (d.h. Ziele, Projekte, Rollen und Profil) kann gemeinsam mit dem domainspezifischen Wissenskontext dazu beitragen, notwendige Richtlinien zu definieren, um sensitive Informationen als auch Weitergabe von Prozessen zu schützen. Weiters werden die Gestaltungsmöglichkeiten der Avatare Merkmale eines unterhaltsamen Wirtschaftssystems betrachtet. die Mahshid Bernroider Ein multi-attributiver Vergleich von Geschäftsprozessmodellierungs-Tools basierend auf Open Source Software und ARIS als kommerzielle Referenz Studium: Masterstudium Informatikmanagement BetreuerIn: Univ.Prof. Dr. Hannes Werthner Abstrakt: Diese Arbeit beschäftigt sich mit Softwarewerkzeugen für das Geschäftsprozessmanagement mit einem Schwerpunkt auf Analyse und Design. Diese Arbeit versucht den Entwicklungsstand von Open Source Produkten gegenüber einem kommerziellen Referenzprodukt, nämlich ARIS aufzuzeigen. Die Auswahl der Testprodukte basiert auf einer Marktanalyse bzw. auf einer Analyse der Sourceforge.org Entwicklungsplattform für Open Source Software. Es wird eine validierte Zielhierarchie für die Funktionalität eines derartigen Tools entwickelt unter Berücksichtigung von didaktischen Aspekten. Dies Zielhierarchie wird im Zuge eines Produkttests auf fünf frei erhältliche Open Source Produkte und ARIS von IDS Scheer als kommerzielles Referenzprodukt ausgerollt. Methodisch wird auf die Nutzwertanalyse in Bezug auf die Einzelattribut-Messungen und auf AHP (Eng.: „Analytic Hierarchy Process“) für die Gewichtung der Attribute zurück gegriffen. Eine Wertaggregation wird über das gewichtete Mittel vorgenommen. Es wurde unter anderem festgestellt, dass die kommerzielle Referenz einen überraschend geringen Vorsprung gegenüber einer Reihe von Verfolgern im Open Source Bereich hat, die allesamt ein eigenes Stärken/Schwächenprofil aufweisen. Des weiteren sind die Open Source Tools meist stark integriert mit einer Workflow-Umsetzung, während die kommerzielle Referenz dies über Zusatzprodukte in ihrer umfangreichen Produktfamilie ermöglicht. Für Test- und Schulungsumgebungen, die eine besondere Bedeutung für diese Arbeit einnahmen, bieten sich bereits etliche Open Source Lösungen an. Für den professionellen Unternehmenseinsatz sollten die Tools gemessen an ihrer vergangenen Entwicklungsgeschwindigkeit zumindest in den nächsten Jahren höchst interessante Alternativen zu kommerziellen Produkten aus dem Bereich darstellen. Kathrin Apfelthaler Evaluierung von Benutzerverhalten in virtuellen Welten anhand von Second Life Studium: Masterstudium Information and Knowledge Management BetreuerIn: Ao.Univ.Prof. Dr. Dieter Merkl Abstrakt: Das Schlagwort "Web 2.0" dominiert seit den letzten Jahren die Diskussionen rund um die Zukunft des Internets. Second Life fügt sich in das Konzept des benutzer-generierten Inhalts ein, indem es den Nutzern erlaubt, beliebige Objekte im virtuellen Raum zu kreieren. Mit Hilfe von Spielfiguren, sogenannten Avataren, interagieren die Menschen in der virtuellen Welt, die aus miteinander verknüpften Regionen besteht. Jedem Benutzer steht es frei, welchen Aktivit aten er in Second Life nachgeht und welche Orte er besichtigt. Die Diplomarbeit beschäftigt sich mit dem Verhalten der Benutzer von Second Life und versucht Informationen über die Avatare sowie Zusammenhänge zwischen den Avataren und den von ihnen besuchten Orten zu erforschen. Im praktischen Teil, der dieser Arbeit vorangeht, erfolgte eine Erhebung der Daten zu den Avataren und den Orten, die von den Avataren aufgesucht wurden. Die aufgezeichneten Werte werden im Anschluss analysiert. Anhand einiger Beispiele werden Firmenpräsenzen und politische Aktivitäten in Second Life vorgestellt. 89 und Richard Brenner RFID basierte geschlossene elektronische Geldbörse Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Ab den 50er Jahren (Gründung von Diners Club in den USA) haben sich vermehrt Kredit- und Debitkarten als Alternative zur 90 Bargeldzahlung durchgesetzt. In Österreich ist ein deutlicher Trend hin zu Kartenzahlung festzustellen. Bis zu 40% aller Einkäufe (Stand Februar 2008) werden bereits mit Bankomatkarte (Debitkarte) getätigt. Vorreiter sind die Bundesländer Wien und Tirol. Im Firmenumfeld ist eine Integration dieser Bezahlmöglichkeiten an die eigenen Kassen mitunter zu aufwendig und es werden weitere Alternativen zur Barzahlung für die Mitarbeiter gesucht. Die Anforderungen an ein geschlossenes System erlauben schlankere Lösungen, die besser an den jeweiligen Bedarf zugeschnitten werden können. Bereits jetzt besitzen viele Firmen Zutrittskontrollen auf RFID-Basis. Denkbar ist eine Erweiterung dieser Karten um die Funktion einer elektronischen Geldbörse. Im Gegensatz zu öffentlichen Bezahllösungen erfolgt dann die Verwaltung der Transaktionen intern, wodurch eine Anbindung an vorhandene ERP Systeme möglich wird. Ein weiterer großer Vorteil kontaktloser Geldträger ist die Geschwindigkeit bei der Bezahlung. Großer Andrang zu Stoßzeiten kann somit besser bewältigt werden, da die Wartezeiten erheblich verkürzt werden. Die folgende Arbeit beinhaltet die theoretische Auseinandersetzung mit dem Thema firmeninterne Geldträger auf RFID-Basis in Form einer Anforderungsanalyse, Analyse vorhandener Hard- und Software. Im Rahmen der Arbeit wurde ein Prototyp entwickelt. Dieser umfasst die Implementierung eines zentralen Datenservers, eines Administrations-Clients zur Verwaltung des Systems, eines Ladeterminals sowie die Entwicklung der Anbindung an ein vorhandenes Kassensystem. technische Architektur sowie ein Real-Life Szenario, in das unser System integriert wurde. Außerdem geben wir einen Ausblick über zukünftige Verbesserungen wie ein Administrations-Tool, weitere Vorschlagsmethoden oder neue Ansätze die Benutzer-Tags verwenden. Vahidenur Culha Flechl Entwicklung und Implementierung einer Methode für die Selektion von Sicherheitsmaßnahmen gemäß ISO/IEC 27001 Studium: Masterstudium Information and Knowledge Management BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Die Informationssicherheit von Geschäftsprozessen ist auf Grund von Sicherheitslücken in zunehmendem Maße Bedrohungen ausgesetzt. Besonders die steigende Nutzung von Information-, und Kommunikationstechnologie erhöht das Risiko. Unternehmen müssen daher ihre Assets (wie etwa Reputation, Services, Software oder wichtige Information) vor möglichen Bedrohungen schützen. Sicherheitsstandards wie zum Beispiel Common Criteria (CC), der IT-Grundschutz-Kataloge des BSI, ISO/IEC 17799 oder ISO/IEC 27001 können Unternehmen als Richtlinien für das Management von Informationssicherheit dienen. Allerdings stellt die Anwendung dieser Normen eine Herausforderung dar, da diese Normen üblicherweise sehr allgemein formuliert sind. Die Implementierung der Sicherheitsstandards ist ein teurer, komplizierter und bürokratischer Prozess, da die Standards an die spezifischen Unternehmensanforderungen angepasst werden müssen. In dieser Arbeit wird ein Modell ausgearbeitet, dass Entscheidungsträger bei der Auswahl der optimalen Sicherheitsmaßnahmen auf Basis der Norm ISO/IEC 27001 unterstützt werden. In diesem Modell wird eine multikriterielle Methode zur Entscheidungsunterstützung angewandt, die Entscheidungsträgern als effiziente Methode zur Auswahl von Sicherheitsmaßnahmen gem¨aß der gewählten Kriterien dienen kann. Dieses Modell kann Entscheidungsträger bei der zweckmäßigen und organisierten Implementierung der Norm ISO/IEC 27001 unterstützen. Dies ermöglicht nicht nur die Bestimmung der für das Unternehmen spezifischen Sicherheitsanforderungen, sondern erleichtert auch den Weg zur Zertifizierung gemäß ISO/IEC. Roman Cerny Design and Implementation of a Generic Recommender and Its Application to the Music Domain Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber Abstrakt: Durch den stetigen Anstieg der Anzahl zur Verfügung stehender Datenquellen durch technologische Entwicklungen steigt der Bedarf an sinnvollen Techniken zur Filterung großer Datenmengen ebenso konstant. Für diesen Zweck wurden bisher diverse existierende Recommender Systeme eingesetzt. Oftmals liegt der Fokus solcher Systeme auf einem eingeschränkten Datenbestand oder auf einer bestimmten Menge von Vorschlagsmethoden. Diese Arbeit präsentiert ein generisches Recommender Framework, welches einfach an neue Domänen adaptiert werden kann und das leicht mit unterschiedlichsten Recommender Algorithmen erweitert werden kann. Algorithmen werden unterteilt in: offline Generatoren, die aus Benutzeraktionen Regeln ableiten, und online Recommender Services. Um Mandantenfähigkeit zu gewährleisten beinhaltet das Konzept verschiedene Typen für Produkte, Aktionen und Verbindungen zwischen Produkten. Weiters unterstützt das System die Einbindung von fremden Daten und bietet eine Menge an Web Services für domänenunabhängige und domänenabhängige Vorschläge. Wir zeigen die 91 Monika David Automatisierte funktionale Regression-Tests für objektorientierte Applikationen in der Praxis Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek Abstrakt: Die vorliegende Diplomarbeit beschäftigt sich mit der Frage, wie wartungsfreundliche und von Laien benutzbare Testframeworks für 92 automatisierte funktionale Regression-Tests objektorientierter Applikationen aufgebaut werden können. Die wichtigsten derzeit am Markt erhältlichen Tools für automatisierte funktionale Regression-Tests werden anhand von Evaluierungskriterien verglichen. Am Beispiel von zwei Testtools werden Herausforderungen beim automatisierten funktionalen Testen objektorientierter Applikationen diskutiert und Lösungsansätze aufgezeigt. Beide Testtools zeigen einige Mängel bei der eindeutigen Identifizierung und Objekttyperkennung von GUI-Objekten und unterscheiden sich stark in den Zugriffsmöglichkeiten auf Applikationsobjekte. Die Zugriffsmöglichkeiten von Testtools auf die public Members von GUI-Objekten sind ausschlaggebend für die Testbarkeit von objektorientierten Applikationen trotz der festgestellten Mängel. Ein Ansatz zur Implementierung wartungsfreundlicher Testframeworks mit einem ausgewählten Testtool wird vorgestellt. Dieser umfasst ein objektorientiertes Entwurfsmuster sowie den gezielten Einsatz wartungsfördernder Features des Testtools. Es wird gezeigt, wie das Konzept des Keyword-Driven-Testing, das sowohl zur Wartungsfreundlichkeit als auch zur einfachen Benutzbarkeit eines Testframeworks durch Laien beiträgt, objektorientiert implementiert werden kann. Ein einfaches Hilfesystem zur Benutzung eines Testframeworks wird beschrieben. Die Fragestellungen und Ergebnisse der vorliegenden Diplomarbeit wurden in Zuge der Implementierung eines Testframeworks für eine objektorientierte Applikation in einem Softwareunternehmen erarbeitet. Selen Elgin Personal Information Management Systems - An Introduction and Outlook Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: In this so called “digital age” or “information age” human beings are dealing with a huge quantum of information in their daily lives like never before in history. Humans generate, require and rely on information for the completion of their daily, even routine tasks. The constant emerging of new applications to generate and manipulate information as well as ubiquitous computing induced a general digitalization of information. Thanks to advances in communication technologies digital information can be shared with thousands and millions at a mouse click. We are able to receive and distribute information at the same speed and ease as we create them, if not faster. Digital storage has stopped being a constraint due to its high availability to everyone. However, as information has become highly available and its manipulation easy, humans with a tendency to collect, sit on huge piles of information. Retaining an overview becomes excessively difficult. Required information is lost in the chaos and we are not able to exploit the potential of the information at our hands. As Vannevar Bush in 1945 recognized, this situation calls for designated Information Management Systems for the optimal utilization of the personal information at the disposal of a user. Subject to this thesis are Personal Information Management Systems that aim at organizing the information pile of a user and offering functionalities to make an efficient exploitation of information at hand possible. Personal Information Management is a fairly new field of research. This thesis describes the meaning of Personal Information Management with key notions and central issues and gives a detailed overview on existing Personal Information Management System projects based on different approaches. Based on current projects and needs of Personal Information Management, one chapter depicts a concept proposal for “the ideal PIM system”. This introductory work also contains a discussion of problem areas in Personal Information Management as well as an outlook on research trends. Gerald Dietl Mobile Computing - Innovationen und Trends für Hardware und Software Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Die vorliegende Diplomarbeit beschreibt Hardware- und SoftwareTechnologien, die mobilen Endgeräten in den kommenden Jahren zu einer noch breiteren Akzeptanz verhelfen sollen.Schon heute gibt es in vielen Industrieländern mehr Mobiltelefone als Einwohner. Der Trend bewegt sich dabei vom reinen tragbaren Telefon weg in Richtung Multimediagerät. Im Bereich der Hardware werden einige Technologien einer genaueren Betrachtung unterzogen, deren Grundlage die organische Elektronik, also die Verwendung von organischen Materialien entweder zur Herstellung der elektronischen Bauteile selbst, oder als flexibles Trägermaterial für diese Bauteile, ist. Die Akzeptanz jedes technischen Gerätes hängt von der Einfachheit der Bedienung und im Falle von Computern auch von der Funktionalität der Applikationen ab. Aus diesem Grund werden einerseits die Entwicklungsparadigmen für die Applikationsentwicklung beleuchtet, als auch die Frameworks einer näheren Betrachtung unterzogen, die die Entwicklung und das Design von mobilen Applikationen in den nächsten Jahren entscheidend prägen sollen. Den Abschluß bildet ein Konzept für eine Tourismus-Applikation, die aufzeigt, wie die zuvor vorgestellten Technologien zusammenspielen können. 93 Wolfgang Freund Digital rights management Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Der Begriff Digital Rights Management oder abgekürzt - und durchaus um einiges öfter in dieser Kurzform verwendet - DRM ist heutzutage ein in der Öffentlichkeit als auch in Fachmedien viel gebrauchter 94 Terminus. Viele Personen, sowohl in der Wissenschaft als auch Wirtschaftstreibende, befassen sich mit dieser Entwicklung und versuchen sie voran zu treiben und weiter zu entwickeln als auch von ihr zu profitieren. Aber es gibt auch eine ganze Reihe an Kritikern in Fachliteratur als auch populären Medien, die dieser neuen Technologie fast skeptisch bis geradezu ablehnend gegenüber stehen und als Gründe für ihre Verdammung etliche Defizite und Nachteile in der Anwendung von Digital Rights Management auflisten. In dieser Arbeit sollen die Möglichkeiten, elektronische Inhalte und die Rechte daran zu schützen dargestellt werden. Das Ziel ist, festzuhalten, dass nur ein Zusammenspiel von rechtlichen Vorschriften und technischen Komponenten einen umfassenden Schutz gegen unberechtigte Verwendungen bieten können. Dafür werden zunächst die rechtlichen Rahmenbedingungen, welche im Wesentlichen das Urheberrecht vorgibt, untersucht. In diesem Kapitel werden werden die einzelnen Rechte, welche dem Urheber zustehen, präsentiert und auf ihre Anwendbarkeit auf digitale Inhalte analysiert. Im darauffolgenden Kapitel werden Aspekte des Datenschutzes und seine Auswirkungen vorgestellt und überprüft, welche Rolle der Datenschutz im Zusammenhang mit elektronischen Rechten und/oder Rechten an elektronischen Inhalten und eben Daten spielt. Im technischen Teil der Arbeit werden einzelne technische Maßnahmen, die im Zusammenhang mit Digital Rights Management zum Einsatz kommen in ihren wesentlichen technischen Grundlagen und Funktionsweisen sowie Ausgestaltungen beleuchtet werden. Im Zusammenspiel mit den rechtlichen Grundlagen soll erörtert werden, welche Schutzqualitäten diese eingesetzten Technologien den einzelnen Rechten jeweils bieten können. Am Ende dieser Arbeit sollen schließlich kurz zwei Beispiele aus der Praxis dargestellt werden. Organizing Maps, welche die Musikstücke anhand ihrer Soundeigenschaften auf einer Art Landkarte verteilen. Die zweite Methode bietet die Möglichkeit, Musikdateien in einer bestimmten Ordnerhierarchie auf dem Dateisystem abzulegen, um in der virtuellen Welt entsprechend abgebildet zu werden. The AudioSquare stellt Zusammenhänge zwischen den repräsentierten Medien in ein räumliches Bezugssystem, in das der User selbst eingebunden ist. Es entsteht eine intuitive Schnittstelle, die realen Handlungs- und Navigationsformen nahe kommt. Die derzeitige Entwicklung von Online-Welten und 3D Spielen zeigt außerdem, dass die Metapher des virtuellen Raumes immer mehr an Bedeutung gewinnt. Konzepte wie der hier vorgestellte Prototyp zur Aufbereitung von medialen Inhalten, also eines Contents, innerhalb dieses Raumes sind jedoch noch spärlich vorhanden. Die Umsetzung von The AudioSquare erfolgte mittels der Torque Game Engine, die ein umfangreiches Rahmenwerk für die Gestaltung virtueller Welten bietet. Durch die Client-Server-Architektur wird es Usern möglich gemacht, die virtuelle Welt nach dem Download einer entsprechenden Client-Applikation über das Internet zu betreten. Ein zusätzlicher StreamingServer ermöglicht es, die eingebundenen Musikstücke, entnommen aus einer freien Musiksammlung von Magnatune, gemeinsam anhören zu können. Doron Goldfarb Visualisierung wirtschaftlicher Prozesse am Beispiel der Arbeitsmarktdatenbank des AMS-BMWA Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Mag. Dr. Dieter Merkl Abstrakt: Die Arbeitsmarktdatenbank des AMS Österreich und des Bundesministeriums für Wirtschaft und Arbeit (BMWA) vereint die Meldedaten des AMS mit jenen des Hauptverbandes der österreichischen Sozialversicherungsträger. Damit stehen Informationen über die Beschäftigunsverhältnisse, Pensionen und sonstige Versicherungszeiten von 99% aller in Österreich lebenden Personen gemeinsam mit allfälligen AMSVormerkzeiten auf Einzeldatenebene – in anonymisierter Form - zur Verfügung. Eine der Anwendungen für diese umfangreiche Datensammlung besteht im sogenannten Erwerbskarrierenmonitoring. Dabei handelt es sich um die Analyse der Entwicklungen des österreichischen Beschäftigungssystems insgesamt, wobei ein Fokus auf die Bewegungen hinter den einzelnen Bestandsveränderungen gelegt wird. Die daraus gewonnenen Erkenntnisse werden in regelmäßigen Abständen als "Momentaufnahme" des österreichischen Arbeitsmarktes publiziert. Diese Arbeit versucht, verschiedene der im Rahmen des Erwerbskarrienmonitorings beobachteten Aspekte durch Visualisierungs-methoden darzustellen. Dies einerseits, um Möglichkeiten auszuloten, ob und wie visuelle Darstellungen der vorhandenen Daten zu deren Analyse und Ronald Genswaider The AudioSquare - A collaborative virtual Music Environment Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber Abstrakt: Im Rahmen dieser Diplomarbeit wurde eine dreidimensionale kollaborative Umgebung namens The AudioSquare entwickelt, die ein virtuelles Erkunden von Musikarchiven ermöglicht. In Form von Avataren können User einander in einer 3D Welt begegnen, über ein einfaches Chatsystem kommunizieren und die angebotene Musik gemeinsam anhören. Die Musik wird anhand von zwei verschiedenen Methoden räumlich angeordnet. Die erste Methode basiert auf der Verwendung von Self95 96 Produktionsstrategien zu analysieren. Das Agenten System und seine Koordinationskomponenten werden mittels Testszenarien getestet. Hierzu wird ein Test Management System entworfen und implementiert. Die dadurch gewonnen Simulationsdaten werden analysiert, um eine systematische Leistungsauswertung von definierten Produktionsstrategien zu erhalten. Ergebnisse der Arbeit: 1. Die Koordination von weiterentwickelten Produktionsstrategien ist effizienter als eine lokale Optimierung der Agenten. 2. Die Definition von Richtlinien für die Entwicklung einer Koordinationskomponente für Produktionssysteme basierend auf ein Multi Agenten System. 3. Die Entwicklung und Implementierung einer generellen Schnittstelle, basierend auf Koordinationsmustern, zwischen der Geschäftsprozessebene und der Betriebsebene für ähnliche Fertigungssysteme. 4. Analysieren und Messung von Produktionsstrategien basierend auf Simulationsergebnissen. Bewertung beitragen können, und andererseits, um neue Möglichkeiten für die Kommunikation dieser Sachverhalte an ein breiteres Publikum zu finden. Clemens Gondowidjaja Implementation and Coordination of Multi Agent Systems for Production Automation Simulation using Coordination Patterns Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl Abstrakt: Produktionsautomatisierung, beispielsweise die Montage von komplexeren Produkten aus verschiedenen Subprodukten und Ressourcen, ist ein Fertigungsprozess bei dem eine große Anzahl an Entitäten, wie z.B. Roboter oder Maschinen, koordiniert werden müssen. Bei der Planung solcher produktionsautomatisierten Systeme müssen Designer gewisse Parameter, die die Eigenschaften des gesamten Produktionssystems beeinflussen, beachten. Diese Parameter auf einem „Real-world“Produktionssystem zu testen braucht im Normalfall eine hohe Anzahl an Ressourcen und ist damit schwer zu prognostizieren. Multi Agenten Systeme erlauben es diese Entitäten darzustellen, ihre Eigenschaften und ihr Verhalten zu definieren und die Kommunikation innerhalb einer vorgegebenen Umgebung zu simulieren. Koordination beschreibt das Verhalten einer Gruppe von Agenten unter bestimmten Umständen. Dies führt zur Optimierung von definierten Funktionen und Zielen. Die Koordination von Agenten aus verschiedenen Gruppen bzw. Gruppenzugehörigkeiten zu verwalten ist eine besondere Herausforderung. Diese Diplomarbeit beschäftigt sich mit Koordinationsmustern welche die Koordination der Agenten innerhalb eines Multi Agenten Simulator für automatisierte Produktionssteuerung auf mehreren Ebenen beschreibt. Die Simulation besteht aus zwei Hauptteilen: 1. Die „Geschäftsprozessebene“ (oder Produktionsplanung), wo ein Lastverteiler Kundenbestellungen in detaillierte Arbeitsschritte einteilt. Diese Arbeitsschritte beinhalten Maschinenfunktionen innerhalb des Fertigungssystems und legen Prioritäten fest, welche die Gesamtleistung des Systems steigern sollen. 2. Die „technische Ebene“ (Produktionsautomatisierung), wo eine Gruppe von Agenten miteinander kooperiert um die Arbeitsschritte des Lastverteilers zu erfüllen. Ein weiteres Thema dieser Diplomarbeit ist das Testen und Analysieren von definierten Produktionsstrategien. Die Simulationsergebnisse können nach der Analyse auf „Real-world“ Produktionssysteme abgebildet werden. Beiträge dieser Arbeit: Diese Arbeit beinhaltet einen architektonischen Überblick und definiert Richtlinien für Designer von Multi Agenten Systeme für Produktionsautomatisierung. Dazu werden Patterns verwendet um die Koordination der Produktionsplanung und Produktionsautomatisierung zu beschreiben. Ziel ist es die Gesamtleistung des Systems zu steigern. Weiters wird eine Koordinationskomponente entworfen und implementiert. Diese wird eingesetzt um komplexe Produktionsprozesse zu simulieren und 97 Joachim Grüneis Object-XML mapping with JAXB2 Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber Abstrakt: Der Fokus von kommerzieller Datenverarbeitung liegt klar in der Verarbeitung und Verwaltung von Daten. Diese Daten liegen zumeist in unterschiedlichen Zuständen als Laufzeitobjekte, Datensätze einer relationalen Datenbank oder XML vor. Im Laufe der Verarbeitung der Daten werden diese zwischen den Systemen und Zuständen transformiert. Dabei ergeben sich Problemstellungen wie: Ist die Transformation vollständig möglich? Sind die Modelle der verschiedenen Systeme gegenseitig abbildbar? Wie können die Daten validiert werden? Mit dem Teilbereich der Abbildung zwischen Objekten und XML und noch spezieller mit der Abbildung von Java und XML basierend auf den JAXB2 Standard und dem Framework Castor beschäftigt sich diese Diplomarbeit. Die Diplomarbeit bietet eine Einführung in XML mit Konzentration auf Datenmodellierung. Ein solches in XML erstelltes Datenmodell wird als XML Application bezeichnet. Zur Erstellung von XML Applications stehen zwei Sprachen zur Verfügung: Document Type Definition (DTD) und W3C XML Schema. Letzteres erlaubt das Erstellen von strikt typisierten Modellen. Dieses besagt, dass jedes Element und jedes Attribut einen zugrundeliegenden Typ haben muss. Die Java Einführung erklärt die Basis Elemente wie class, interface, field, method und visibility. Sowie die wichtigen Konzepte der objektorientierten Sprachen: encapsulation, abstraction, inheritance und polymorphism. Im Mapping Kapitel wird erklärt wie der Datenaustausch zwischen Java und XML realisiert werden kann. Die grundlegende Unterscheidung ist, ob Wissen über das Datenmodell die Zuordnung beeinflusst. Es werden die Standards DOM, JAXP und JAXB2 erklärt und die teils zugehörigen Implementierungen wie XStream, JAXME, XMLBeans, Castor und JAXB2 Reference Implementation vorgestellt. Der praktische Teil der Diplomarbeit 98 startet mit einer Einführung in und Diskussion des JAXB2 Standard und einer Analyse ob und inwieweit Castor die Anforderungen des Standards bereits erfüllt. Die Realisierung des Castor JAXB2 Layer und dessen Diskussion bilden den Hauptteil der praktischen Diplomarbeit. Informationskrise des Rechts. Es ist daher wenig verwunderlich, dass der juristische Bereich eines der ersten Anwendungsgebiete von IR-Techniken war. Im Laufe der Jahre scheiterten allerdings viele Ansätze für juristische Informationssysteme, weil die Bedürfnisse und die Arbeitsweise von Juristen ignoriert, und die Entwicklung der Systeme primär als technische Herausforderung gesehen wurde. Ein Verständnis des juristischen Bereichs und seiner speziellen Anforderungen ist folglich erforderlich, um erfolgreiche Rechtsinformationssysteme zu entwickeln Bernhard Hablesreiter Datengesteuerte Erstellung von Eclipse-basierten Client-Applikationen Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek Robert Janhovics Computer Forensik: Eine wirtschaftliche Würdigung fachspezifischer Problemstellungen Abstrakt: Die vorliegende Arbeit beschäftigt sich mit der Erstellung von Client-Applikationen unter Verwendung von Java und der Eclipse Plattform. Dabei werden auf die Voraussetzungen zur Erstellung solcher Applikationen eingegangen und mögliche Problembereiche beschrieben. Im Rahmen der Arbeit wurde ein Framework zur Erstellung von Client-Applikationen auf Basis von Eclipse entwickelt, das es ermöglicht, beliebige geeignete Datenquellen an Client-Applikationen anzubinden und die ausgetauschten Daten zu verwalten. Der Hauptteil der Arbeit beschäftigt sich mit der Architektur, Funktionsweise und Implementierung dieses Frameworks, wobei diverse Beispiele gegeben werden. Desweiteren wird gezeigt, dass das Framework dazu geeignet ist, die Eclipse Plattform besser kennenzulernen und deren Funktionalitäten einfacher zu verstehen. Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Hans-Dieter Karl und Daniel Wronski Webservice Simulationsframework Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn Abstrakt: Aufgrund der immer größer werdenden Komplexität von Webservice-Lösungen wurde es notwendig, nicht nur die Funktionalität jedes einzelnen Webservices auszutesten, was verschiedene bereits erhältliche Werkzeuge schon beherrschen, sondern auch die Fähigkeit zu haben, die Robustheit des Interaktionsprozesses einer Webservice-Kompositionssoftware mit Webservices durch Evaluierung ihres Verhaltens unter kontrollierbaren Testbedingungen zu prüfen. Mittels direktem Beeinträchtigen der Dienstgüte (QoS) durch Simulation verschiedenster Fehler sowohl funktionaler als auch nichtfunktionaler Art, als auch durch Loggen der Simulationsdaten eines gegebenen Szenarios, wird eine tiefgreifende Untersuchung der zu testenden Software möglich. In dieser Arbeit wird ein verteiltes Simulationsframework vorgestellt, bestehend aus Komponenten zur Erstellung jeder gegebenen Anzahl an Test-Webservices sowie deren Kompilierung und Deployment, und weiters aus Komponenten zum Loggen und zur Auswertung der getesteten Szenarien. Thomas Heigl Information Retrieval in the Legal Domain Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber Abstrakt: Information Retrieval (IR) bzw. Informationswiedergewinnung ist ein relativ altes und etabliertes Fachgebiet der Informatik, dessen Wurzeln bis in die 1950er zurückreichen. Bis vor kurzem lag das Hauptaugenmerk von IR auf der Wiedergewinnung von Information aus unstrukturiertem Text. Heutzutage werden jedoch immer mehr Dokumente im Internet, in digitalen Bibliotheken und in Intranets in strukturierter Form zur Verfügung gestellt. Die strukturierten Aspekte der Dokumente werden dabei mit Auszeichnungssprachen wie der eXtensible Markup Language (XML) dargestellt. Dieses explizite strukturelle Wissen kann von speziell adaptierten IR-Systemen dazu genutzt werden, präzisere und schärfere Suchergebnisse zu liefern. Die Entwicklung derartiger Systeme birgt allerdings eine Reihe neuer Herausforderungen. Im juristischen Bereich spielen strukturierte Information und deren Wiedergewinnung eine zentrale Rolle. Die effiziente Handhabung der Information wird durch die enorme und ständig wachsende Menge an verfügbarem juristischem Material zunehmend erschwert. Viele Autoren sprechen in dieser Hinsicht von Informationsüberladung und der 99 Christoph Karner Schulung für ein automatisches Testtool Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek 100 Abstrakt: In der Arbeit geht es um die Erstellung einer Lerneinheit zur Anwendung des Testtools „Tosca Commander“ zum Thema eingeschränkt auf die Testfallautomatisierung. Die für diese Arbeit erstellten Schulungsunterlagen werden ausführlich beschrieben und anhand des Beispiels der Onlineversicherung der Firma „Allianz Elementar Versicherung AG“ durchgeführt. Die Schulungsunterlagen werden in vier Lerneinheiten gegliedert, die ersten drei bestehen aus den Lerninhalten selbst und die vierte Einheit beschäftigt sich mit einer interaktiven Wiederholung in Form einer einstündigen Prüfung. Die Schulung wird an zwei Testpersonen durchgeführt und anschließend werden die Prüfungsresultate der beiden Probanden, anhand einer Grafik visualisiert, gegenübergestellt. Armin Liensberger Evaluierung von Workflow Engines für Metasuche Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn Abstrakt: Metasuchen können verschiedene Suchportale nach Informationen absuchen und sie in zusammengefasster Form dem Benutzer darstellen. Bei der Umsetzung einer Metasuche können Workflow Engines integriert werden, die den Ablauf einer Metasuche unterstützen. Diese Arbeit untersucht nach bestimmten Kriterien, welche der drei evaluierten Workflowsysteme am besten für eine Einbindung in eine Metasuche geeignet ist. Zu diesem Zweck wird ein Workflow in den drei verschiedenen Workflow Systemen anhand eines Beispiels der Suche in Frachtbörsen nach passenden Frachtaufträgen umgesetzt. Die Arbeit gibt Aufschluss darüber, wie und mit welchen Mitteln die Aufgabe in diesem und ähnlich gelagerten Anwendungsfällen gelöst werden kann. Darüberhinaus werden die einzelnen Workflow Systeme anhand von aufgestellten Kriterien verglichen. Thomas Kremmel Project Portfolio Decision Support Using Evolutionary Algorithms Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl Abstrakt: Strategische Ausrichtung, effiziente Nutzung von Ressourcen und ausgeglichene Portfolios bezüglich des Risikos sind Hauptziele von Projekt Portfolio Management. Die Auswahl von Projekten ist eine komplexe Aufgabe, da verschiedenste Ziele, Restriktionen, Bedingungen und subjektive Präferenzen beachtet werden müssen. Die Komplexität wächst mit der Projektanzahl aus denen eine Auswahl getroffen werden muss. Die vorliegende Diplomarbeit präsentiert ein Rahmenwerk, welches auf die automatisierte Auswahl von Projekten abzielt und hierfür einen sogenannten evolutionären Optimierungs-Algorithmus nutzt. Im ersten Teil wird eine Implementierung des Optimierungs-Algorithmus für dieses Problem präsentiert. Das daraus resultierende Optimierungsprogramm ist fähig innerhalb weniger Minuten effiziente Portfolios zu erstellen, welche im Sinne der Mehrzieloptimierung besser sind als sonstige im Lösungsraum vorhandene Portfolios. Im zweiten Teil wird ein Gruppen-EntscheidungsProzess vorgestellt, der eine Gruppe von Entscheidungsträgern bei der Auswahl eines Portfolios aus der Pareto-Optimalen Front unterstützen soll. Hauptbeitrag dieser Diplomarbeit ist die Kombination eines objektiven Optimierungs-Projekt-Auswahl-Rahmenwerks mit einem einfach zu bedienenden Gruppen-Entscheidungs-Prozesses, in welchem individuelle Präferenzen visualisiert werden können und die Suche nach Konsens bezüglich unterschiedlicher Präferenzen erleichtert wird. Der präsentierte Ansatz zur Portfolio-Optimierung erhält besondere Relevanz, da eine neue Methode zur Auswahl und Anordnung von Projekten beschrieben wird. Des Weiteren werden Methoden zur Optimierung von Portfolios bezüglich verschiedenster objektiver Präferenzen wie Risiko Verteilung vorgestellt. Dabei werden zahlreiche Restriktionen, Bedingungen und logische Abhängigkeiten beachtet. Der vorgestellte Optimierungsansatz schränkt die zu optimierende Projektanzahl nicht ein. 101 Chia-chang Lin Vergleich von IT-Risikomanagement Tools anhand eines Business Cases Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Das IT-Risikomanagement (RM) wird im Unternehmen oft durchgeführt und gewinnt aufgrund der rasanten Entwicklung im IT-Bereich immer mehr an Bedeutung. Die Unternehmen werden im IT-Bereich täglich von verschiedenen Gefahren ausgesetzt. Es ist daher notwendig, dass man die möglichen Risiken regelmäßig erfasst, bewertet, steuert und überwacht. Die Arbeit ist in zwei Bereiche aufgeteilt: IT-Risikomanagement Theorieteil und die Evaluierung der RM-Lösungen. Im ersten Teil wird zuerst die allgemeine Theorie im Risikomanagement vorgestellt. Im Evaluierungsteil sind insgesamt drei Softwareevaluierungen enthalten. Diese Software unterstützt das IT-Risikomanagement und basiert auf unterschiedliche RMMethode. Der Schwerpunkt der Evaluierung liegt in der Unterstützung der Software im IT-Risikomanagement. Es kommt dabei nicht darauf an, welche Best Practice Ansätze das Programm unterstützt. Um die Evaluierung zu erleichtern, wurde ein Business Case erstellt. Im Business Case sind Informationen über den IT-Bereich eines mittelständischen Unternehmens enthalten. Diese Informationen dienen als Ausgangspunkt für die Modellierung bei der Evaluierung. Neben dem Business Case wurde auch ein Katalog mit Evaluierungskriterien erstellt, um einen Anhaltspunkt beim Vergleich zu haben. Man muss hier dabei beachten, dass die evaluierten RM-Produkte Softwareprogramme sind und Evaluierungsschwerpunkte analog zu den Qualitätskriterien einer Software gesetzt werden. Diese 102 Schwerpunkte in der Softwarequalität sind z.B. die Bedienbarkeit der Software. Die Zielsetzung der Arbeit ist nicht nur das Ergebnis der evaluierten IT-Risikomanagement-Software zu präsentieren, sondern die Arbeit zeigt auch, wie man eine IT-Risikomanagement Lösung evaluieren kann, egal auf welchen Standard oder Best Practice Ansatz das Programm basiert. Das Theorieteil gibt zusätzlich eine recht gute Einführung in die Materie und ist für Unternehmen interessant, die Interesse an der Einführung von IT-Risikomanagement haben. Mapping Security Frameworks Into SecOnt Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Die Komplexität von IT-Sicherheit steigt fortwährend; gleichzeitig ist der Schutz von Geschäftsdaten zu einer unerlässlichen Pflicht eines jeden Unternehmens geworden. Oft haben vor allem Klein- und Mittelbetriebe gar nicht die Ressourcen und die Möglichkeiten um diesen hohen Anforderungen gerecht zu werden. Meine Arbeit baut auf „SecOnt“ - einer von Stefan Fenz und Andreas Ekelhart entwickelten IT-Security Ontologie, die Unternehmen eine kostengünstige Möglichkeit für Risikomanagement und Bedrohungsanalysen bietet. Meine Arbeit erweitert das ontologische Modell mit in der Praxis etabliertem Wissen aus den IT-Grundschutz Katalogen des deutschen Bundesamts für Sicherheit in der Informationstechnik. Ich habe die relevanten Konzepte der Wissensbereiche „Bedrohung, Schwachstelle, Gegenmaßnahme“ analysiert, gefiltert, angepasst und schließlich innerhalb der Struktur von SecOnt abgebildet. Initiale Inkompatibilitäts-, Inkonsistenzund Redundanzprobleme innerhalb der Wissensquelle wurden von mir reduziert bzw. eliminiert. Zusätzlich habe ich die Wechselbeziehungen der einzelnen Bedrohungen zueinander modelliert, um so die Möglichkeit der Modellierung von Kettenreaktionen und somit der verbesserten Simulation von Bedrohungsszenarien zu gewährleisten. Claudia Löbl Umfassendes Risikomanagement Studium: Masterstudium Informatikmanagement BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Risikomanagement wird in beinahe jedem Unternehmen eingesetzt - in verschiedenen Formen. Vor allem im operativen Bereich werden mögliche Risiken analysiert, identifiziert, beobachtet und bei Notwendigkeit auch gegengesteuert. Im Projektmanagement und im Qualitätsmanagement wird Risikomanagement gezielt eingesetzt und Risikomanagement ist auch Thema in jeder betriebswirtschaftlichen Abteilung. Die Zusammenführung zu einem umfassenden Risikomanagement und die Einbettung in die Aufbauorganisation werden aber eher vernachlässigt. Diese Arbeit soll einen Überblick über das gesamte Spektrum von Risikomanagement geben. Risikomanagement wird dabei eben nicht als Einzelaufgabe in den verschiedenen Abteilungen eines Unternehmens betrachtet - durch die Zusammenführung zu einem übergreifenden Unternehmensprozess kann Risikomanagement gezielt als Unternehmens-Steuerungsinstrument eingesetzt. Neben den gesetzlichen Vorgaben und anderen Rahmenbedingungen zum Thema Risikomanagement wird auch die Risikomanagement-Organisation als wichtiger Faktor für das Funktionieren des Risikomanagement-Prozesses erläutert. Ein wesentlicher Beitrag ist die Studie zum Status von Risikomanagement in österreichischen Unternehmen. Dafür wurde eine Befragung durchgeführt, die folgende Themenbereiche abdeckt: der Einsatz von externer Unterstützung bei der Einführung von Risikomanagement, die Einbindung der Mitarbeiter in die RisikomanagementProzesse, die Frage der kollaborativen Risikoanalyse, die Art und Häufigkeit einer Tool-Unterstützung für Risikomanagement und Notfall- und Krisenplanung. Zielgruppen für diese Arbeit sind sowohl Unternehmen, die Risikomanagement einführen wollen - diese können einen Überblick über die Bandbreite von Risikomanagement und einer möglichen RisikomanagementOrganisation erhalten - als auch Unternehmen, die Risikomanagement bereits eingesetzt haben und ihren Risikomanagement-Prozess überarbeiten wollen. Alexander N. Menches Feldfehlerprognose Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek Abstrakt: Diese Arbeit beschäftigt sich mit Möglichkeiten der Prognose von Fehleranzahlen, Fehlerdichten bzw. Fehlerraten in Software-Systemen. Dazu werden drei Hypothesen zur Diskussion gestellt. Anhand des Begriffes des Feldfehlers werden zunächst relevante Studien vorgestellt, analysiert und den Hypothesen gegenübergestellt. Unter einem Feldfehler versteht man dabei einen Software-Fehler, der auch nach der Veröffentlichung eines Software-Systems noch in diesem enthalten ist. Anschließend wird im Rahmen einer Fallstudie aus einem realen Projektumfeld eine Feldfehlerprognose durchgerechnet und analysiert. Auch die Fallstudie wird den Hypothesen dieser Arbeit gegenübergestellt. Wesentliche Voraussetzung für verlässliche Feldfehlerprognosen ist die ausreichende Verfügbarkeit einer breiten Palette von Metriken sowie der zugehörigen Fehlerdaten auch aus der Vergangenheit. Wird dies nicht bereits zu Beginn eines Projektes oder einer Software-Produktentwicklung berücksichtigt, kommt es durch eingeschränkte Verfügbarkeit von Metriken (kann man auch als Prediktoren des Prognosemodells auffassen) bzw. einer zu geringen Zahl von historischen Daten zu schlechten Feldfehlerprognosen. Arman Manutscheri 103 104 Werner Platzer Einsatzmöglichkeiten von mobilen Endgeräten im Unternehmen: Herausforderungen und Lösungen anhand einer Fallstudie im Bereich BAXTER Maintenance Claudia Moser E-Learning gestützte Wissensoptimierung durch das Zusammenführen von Wissensmanagement und Personalmanagement Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek Abstrakt: Diese Diplomarbeit beschäftigt sich mit der Zusammenführung von Personalmanagement,Wissensmanagement und E-Learning in einem Unternehmen oder einer Organisation. Dabei werden im ersten Schritt die Aufgaben des Personalmanagements und Wissensmanagements beleuchtet und diese auf ihre Zusammenhänge mit Fokus auf den lernenden Mitarbeiter untersucht. In einem weiteren Schritt wird auf die informationstechnologischen Werkzeuge zur Unterstützung der Lernprozesse, sowie der Nutzung, der Verarbeitung und Verwaltung von Wissen eingegangen und Lösungsansätze, die bereits eine Zusammenführung auf informationstechnologischer Ebene berücksichtigen, vorgestellt. Im Weiteren wird ein Katalog mit Leitfragen erstellt, dessen Antworten in die Bedarfsanalyse einfließen sollen um einerseits Faktoren, die bei einer Zusammenführung einwirken bewusst reflektieren zu können und andererseits eine Entscheidungsgrundlage für die Wahl beziehungsweise Entwicklung unternehmensindividueller Software bieten sollen. Abstrakt: Das Bewusstsein bezüglich der Risiken und Gefahren mobiler Endgeräte in Unternehmen ist bei vielen Mitarbeitern und Verantwortlichen noch immer nicht vorhanden. Oft wird in diesem Zusammenhang auch nur an Notebooks von Außendienstmitarbeitern gedacht, Endgeräte wie PDAs und Smartphones fließen jedoch in Sicherheitsbetrachtungen meist nicht mit ein. Gefahren, die von diesen Geräten ausgehen, sind jedoch mindestens genauso hoch zu bewerten. Gerade durch die in den letzten Jahren erlassenen Gesetze und Verordnungen (z.B. Sarbanes-Oxley, Basel II) müssen auch diese Geräte bei der Einführung bzw. Ausbau des ITRisikomanagements berücksichtigt werden. Nur durch die Umsetzung von zum Teil umfangreichen Maßnahmenkatalogen kann die Einhaltung der Regulierungen nachgewiesen werden. In einer Fallstudie werden Einsatzmöglichkeiten für einige Gruppen von mobilen Endgeräten im Instandhaltungsbereich des Pharmaunternehmens BAXTER aufgezeigt und mit den zuvor angeführten technischen und rechtlichen Anforderungen bzw. Vorgaben bewertet. Nicht überraschend ist die einzige Gerätegruppe, die alle Anforderungen optimal erfüllen kann - die Smartphones. Nikolaus Nikoll Motivation und Machbarkeitsstudie zur Erweiterung der E-Learning Software Moodle um Mehrmandantenfähigkeit Gerd Platzgummer Evaluierung von Qualitätsmaßen für Selbstorganisierende Karten Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber Abstrakt: Diese Diplomarbeit stellt die Einsatzmöglichkeiten mehrmandantenfähiger E-Learning Software im Rahmen großer Bildungsinstitutionen dar, und erforscht, ob die E-Learning Software Moodle durch Adaptierung der Softwarekomponenten selbst in technisch und wirtschaftlich sinnvollem Rahmen um Mehrmandantenfähigkeit erweitert werden kann. Der Kernteil der Arbeit, die Machbarkeitsstudie im engeren Sinne, beginnt mit Walkthroughs durch die Benutzerschnittstelle, das Datenmodell sowie den Quellcode der Software Moodle. Dann werden zentrale Teile der Implementierungsarbeiten durch-geführt sowie eine einfache Methode zur Schätzung des Aufwandes des Projekts etabliert und eine Aufwandsschätzung durchgeführt. Die Arbeit schließt mit der Beantwortung der Forschungsfragen und einem Ausblick. Abstrakt: Selbstorganisierende Karten (Self-Organizing Maps, SOMs) sind ein wirksames und populäres Mittel, um große Datenmengen zu analysieren, zu interpretieren und die Ergebnisse in weiterer Folge zu visualisieren. Sie projizieren hochdimensionale Grunddaten in einen vom Menschen leichter zu verstehenden niedrigdimensionalen Raum mit der Aufgabe, diese Komprimierung mit möglichst wenig Informationsverlust zu verbinden. Es existiert eine Vielzahl an verschiedenartigen Methoden zur Messung der Qualität Selbstorganisierender Karten beziehungsweise einzelner Eigenschaften von SOMs. Diese Arbeit beschreibt sieben populäre Qualitätsmaße zur Messung von Topologieerhaltung und Vektorquantisierung Selbstorganisierender Karten. Darauf aufbauend wird der Versuch unternommen, diese Maße anhand eines speziellen künstlichen Datensets zu evaluieren. Dies wird durch Variation der Kartengröße, der Trainingsiterationen und unter Berücksichtigung der Datenbeschaffenheit des Datensets erreicht. Die resultierenden Beobachtungen fließen 105 106 anschließend in die Qualitätsuntersuchung von Karten auf Real-World-Daten ein. Diese Experimente dienen der Untersuchung der Frage, inwiefern die vorgestellten Maße Rückschlüsse auf die Beschaffenheit der Eingabedaten und die Charakteristik der daraus resultierenden Karte beziffern können. Zusätzlich wird der allgemeine Einfluss der Eigenschaften ”Kartengröße“ und ”Anzahl der Trainingsiterationen“ auf die Fehlerwerte für die gesamte Karte beziffert und interpretiert. (KMU) gelegt werden. Dazu wird zuerst eine theoretische Betrachtung des Risikomanagementprozesses in der Literatur gegeben. In weiterer Folge wird der Stellenwert des Risikomanagements und dessen Umsetzung in den Unternehmen betrachtet. Zur Abschätzung der Umsetzung wird ein Reifegradmodell für Risikomanagement erstellt, das sich am Reifegradmodell CMM orientiert. Die Magisterarbeit geht von der Einschätzung aus, dass Risikomanagement im Segment der KMU nicht explizit angewandt wird. Weiters geht diese Arbeit davon aus, dass Risikomanagement in erster Linie mit hohem Zeit und Kostenaufwand verbunden wird. Daher wird es bei den KMU noch nicht als Alternative gesehen, um Probleme im Tagesgeschäft zu adressieren. Die Arbeit soll die Grundlagen des Risikomanagements für KMU erläutern und zeigen, dass Risikomanagement auch in ihrem Tagesgeschäft sinnvoll ist. Es soll dargestellt werden, dass ein etablierter Risikomanagementprozess in diesem Bereich profitabel sein kann. Eine Fallstudie bei einem Unternehmen aus dem Bereich Softwareentwicklung und Vertrieb wird die praktische Relevanz unterstreichen. Neben der theoretischen Einführung ins Thema Risikomanagement wird hier auch auf den Zusammenhang von Projektmanagement und Risikomanagement eingegangen. Dazu wird ein KMU mittels Datenerhebung in die erstellte Reifegradskala eingeordnet. Ausgehend vom ermittelten Reifegrad werden erste konkrete Schritte zur Verbesserung des Risikomanagements hin zur nächsten Reifestufe dokumentiert. Für darüber liegende Reifestufen werden potentielle Maßnahmenpläne angesprochen. Dabei werden die Gegebenheiten beim untersuchten Unternehmen, sowie dessen etablierter Projektablauf berücksichtigt. Ein besonderer Schwerpunkt liegt hier auf der Rentabilität der Maßnahmen. Thomas Rainer Entwicklung eines Spam-Filter Gateways basierend auf Open-SourceProjekten Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Spam-Nachrichten stellen ein immer größeres Problem im E-MailVerkehr dar. EMail- Provider stehen zunehmend in der Pflicht aktiv gegen Spam vorzugehen. Zur Anwendung kommen neben statischen Verfahren, wie DNS-basierte Blacklists oder ähnliches, auch selbstlernende Filter, die sich in der Praxis als sehr effektiv erwiesen haben. Um die eigene E-MailAdresse erst gar nicht in die Hände von Spammern gelangen zu lassen, existieren verschiedene Maßnahmen, die das Ausspähen von EMailAdressen auf Websites verhindern. Ein geändertes Benutzerverhalten und die Verwendung vonWegwerf-Adressen erschweren die Arbeit der Spammer zusätzlich. Diese Arbeit beschäftigt sich mit der Integration mehrerer Filtermethoden in eine einheitliche Benutzerumgebung. Hierfür werden sämtliche Benutzerdaten und Filterinformationen in einer MySQL-Datenbank abgelegt. Das Einsehen der Filteraktivitäten und das Bearbeiten der Einstellungen erfolgt mit Hilfe eines einfach zu bedienendenWeb-Interface. Durch realitätsnahe Tests mit unterschiedlichen Filter-Einstellungen lassen sich die verschiedenen Verfahren direkt miteinander vergleichen. Aufgrund der erzielten Ergebnisse kann das Spam-Filter Gateway durchaus auch in professionellen Umgebungen eingesetzt werden. Werner Rieschl Balancing Quality Assurance Methods along the Project Life Cycle: A Concept for Systematic Quality Assurance Strategy Evaluation Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl Abstrakt: Software Produkte begleiten uns überall in unserem täglichen Leben. Qualitativ hochwertige Software muss gemäß den Spezifikationen mit Hilfe von verschiedenen Entwicklungs- und Qualitäts-sicherungsmethoden validiert und verifiziert werden. Die Anwendung von speziellen Methoden konzentriert sich meist auf die Evaluierung eines Dokuments, die Ergebnisse werden aber selten als Basis für weitere Qualitätsmaßnahmen herangezogen.[52] Daher ist es sinnvoll verschiedene Methoden in unterschiedlichen Projektphasen zu kombinieren, damit deren Effektivität und somit die Qualität des Produktes steigt. Spezielle Charakteristiken können in verschiede Gruppen von Eigenschaften eingeteilt werden, die sich auf die Auswahl von bewährten Methoden auswirken. Einige Qualitätsmethoden sind für spezielle Projekttypen und Artefakte besser geeignet als andere.[17] Ziel Katja Rammer Angewandtes Risikomanagement für kleine und mittelgroße Unternehmen Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl Abstrakt: Die Magisterarbeit befasst sich mit dem Thema Risikomanagement und dessen praktischer Umsetzung im unternehmerischen Alltag. Ein besonderes Augenmerk soll auf Risikomanagement im Bereich der kleinen und mittleren Unternehmen 107 108 dieser Arbeit ist, den Entscheidungsprozess von einem globalen Projektstandpunkt aus zu betrachten. Dies wird über eine Kombination von unterschiedlichen QS-Methoden erreicht, die sich mit speziellen Aspekten von Software Projekten beschäftigen, wodurch sich die positiven Effekte dieser Methoden erhöhen. Aufgrund der oben genannten Aspekte ist der Vergleich von projektrelevanten Daten mit verfügbaren Qualitätsmethoden über definierte Kriterien notwendig. Daher beschäftigt sich diese Arbeit mit einem Ansatz der auf Attributen basiert, um verschiedene Projekttypen mit verfügbaren QM-Methoden gezielt vergleichen zu können, damit die Projektverantwortlichen eine automatisierte Unterstützung bei der Auswahl der geeigneten Methoden haben. Dies fällt in den Bereich der kontinuierlichen Software Produkt und Prozessverbesserung. Zur Umsetzung werden grundlegende Metriken zur Schaffung einer Vergleichsbasis definiert. Weiters wird ein Prototyp zur Bereitstellung von Qualitätsstrategien entwickelt, die sich aus einzelnen QS-Methoden zusammensetzen, um die Effektivität und die Effizienz von Softwareprozessen zu optimieren. an geänderte Schnittstellen anpassbar ist. Tool-Hersteller wollen unabhängig bleiben und zusätzliche Kosten für die Neuimplementierung oder Anpassung von Tools an Integrationslösungen vermeiden, bieten aber als Ausgleich oft Skripting- oder sprachspezifische Schnittstellen für die Anbindung an andere Anwendungen an, die man für die Tool-Integration nützen kann. Diese Arbeit zeigt, dass die Tool-Integration am Desktop viel mit der Enterprise Integration gemeinsam hat, wo es bereits eine Reihe von "best practices", Mustern und Integrations-Standards wie z.B. Java Business Integration (JBI) oder die Service Component Architecture (SCA) gibt. Die Anwendung erfolgreich erprobter Lösungen aus der Enterprise-Integration auf die ToolIntegration am Desktop ermöglicht die Umsetzung einer wiederverwendbaren und erweiterungsfähigen Integrationslösung, die leicht an neue Tools und Anforderungen angepasst werden kann. Aufbauend auf einer Analyse der aktuellen Situation wird unter Verwendung von JBI ein standardbasiertes dynamisches Framework für die Tool-Integration realisiert. Eines der wenigen existierenden Frameworks, die eine solche Integrationslösung umsetzen, ist ToolNet, ein von der EADS CRC Deutschland entwickeltes serviceorientiertes Framework für die ToolIntegration. ToolNet verbindet existierende kommerzielle Tools aus dem Ingenieursbereich - wie z.B. Telelogic DOORS oder Matlab - mit Hilfe von speziell entwickelten Adaptern, die über einen gemeinsamen Nachrichtenbus kommunizieren. Ausgehend von einer Analyse der Ist-Architektur und ihren Einschränkungen, die vor allem in der statischen und proprietären AdapterArchitektur bestehen, werden die Forschungsergebnisse dieser Arbeit in einem Prototypen umgesetzt, der ein Redesign der ToolNet-Architektur basierend auf dem JBI-Standard und einem dynamischen Adapterkonzept demonstriert. Der Prototyp wird danach einer Evaluierung unterzogen und mit dem bestehenden ToolNet-Framework verglichen. Gregor Rosenauer A Standards-Based Approach to Dynamic Tool Integration Using Java Business Integration Studium: individuelles Diplomstudium New Media Design and Engineering BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl Abstrakt: Die gegenseitige Integration von heterogenen Tools mit dem Ziel, den Arbeitsablauf von Benutzern zu optimieren, ist Gegenstand andauernder Forschung. Die angestrebte Lösung soll Benutzern und Teams ermöglichen, bestehende Tools auf transparente Art miteinander zu verbinden. Funktionalität und Daten von einzelnen Tools können von jedem anderen Tool aus verwendet werden; Gemeinsamkeiten im Datenmodell werden ausgenützt, indem man Relationen zwischen zusammengehörenden Datenelementen erzeugt. Eine besondere Herausforderung stellt die flexible Integration von bestehenden, meist kommerziellen Tools dar, wie sie z.B. im Ingenieurwesen vorkommen. Diese bieten oft nur proprietäre und nicht offen zugängliche Schnittstellen an, was das Design einer Integrationslösung in vielerlei Hinsicht einschränkt. Es wurden bereits verschiedene Frameworks und Standards entwickelt, wie z.B. CDIF, PCTE, OTIF, BOOST oder auch allgemeine Tool-Plattformen wie z.B. Eclipse. Diese lösen aber jeweils nur einen Teil des Problems und bieten keinen ganzheitlichen, dynamischen Ansatz für die Integration von bestehenden bzw. proprietären Tools. Eine erfolgreiche Lösung für die Tool-Integration muss die Anforderungen verschiedener Gruppen gleichermaßen erfüllen: Für den Endbenutzer steht eine nahtlose Integration zwischen Tools im Vordergrund, die es ermöglicht, transparent über Tool-Grenzen hinweg zu arbeiten. Entwickler wünschen sich einen einfachen Weg, um Tools in ein lose gekoppeltes und dynamisches System einzubinden, das leicht um neue Tools erweiterbar und 109 Dietmar Ruzicka Network Management Techniques in Facility Management Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek Abstrakt: Facility Management und Netzwerk Management sind zwei große Managementdisziplinen. Während Facility Management sich als allumfassendes ganzheitliches Management von Immobilien darstellt, beschränkt sich Netzwerk Management auf die Nutzungsphase der Ressourcen. Diese Ressourcen sind das Gebäude selbst, das Grundstück worauf es steht und alle Einrichtungen innerhalb, etwa ein Server in der EDV. Die der Arbeit zu Grunde liegende Frage ist, können Network Management Techniques im Facility Management vorteilhaft zur Anwendung kommen? Die Untersuchung der Definitionen von Facility Management und Netzwerk Management in den Normen und die konstruktive Methode der praktischen Umsetzung der These zeigen: Die fünf Funktional Areas aus dem Netzwerkwerk Management definierten Techniken, die in den 110 Nutzungsphase einer Immobile sehr gut anwendbar sind. Die fünf Areas: Fault, Configuration, Accounting, Performance und Security Management können in den drei Bereichen Technisches, Infrastrukturelles und Kaufmännisches Gebäude Management viele Aufgaben übernehmen. Gebäude Management deckt die Nutzungsphase, die kostenintensivste und längste Phase des Facility Management, vollständig ab. Die praktische Umsetzung im Hotelumfeld belegt die Anwendbarkeit der Ideen. BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn Abstrakt: Seit einigen Jahren wird der Begriff Kompetenz immer mehr zum Schlagwort in der Wirtschafts- und Arbeitswelt. Von Kernkompetenz über Fachkompetenz bis zur emotionalen Kompetenz reicht das Spektrum dieses Ausdrucks. Meist ist nicht klar, was genau unter dem Begriff Kompetenz verstanden wird, der je nach Hintergrund sehr unterschiedlich ausgelegt werden kann und wird. Diese Arbeit beschäftigt sich mit der Analyse von Kompetenzen im Bereich Software Engineering und Projektmanagement, sowie der Messung von Kompetenzen und der Kompetenzentwicklung von Studierenden während einer Lehrveranstaltung an der Technischen Universität Wien. Zunächst wird der Stand der Forschung im Bereich Kompetenzen genauer erörtert. Anschließend werden alle Kompetenzen eines Software Engineering Projekts identifiziert und definiert. Mit den ermittelten Kompetenzen wird die Ontologie eines Kompetenzmanagementsystems erweitert, welches an der Technischen Universität Wien entwickelt wird. Außerdem wird damit eine Methode zur Messung von Kompetenzen und der Kompetenzentwicklung von Studierenden für die praktische Laborübung "Software Engineering und Projektmanagement" entwickelt. Einerseits werden damit die Lehrveranstaltungsleiter und die Tutoren bei der Bewertung der Studierenden unterstützt. Andererseits wird den Studierenden bei der Rollenwahl und Zielsetzung eine Hilfestellung dargeboten und sie erhalten eine Übersicht über ihre Kompetenzen und deren Entwicklung durch die Lehrveranstaltung. Am Anfang der Lehrveranstaltung wird die Ausprägung der einzelnen Kompetenzen, welche durch die Lehrveranstaltung entwickelt werden können, erhoben. Am Ende wird die Kompetenzentwicklung dieser Kompetenzen gemessen. Bei der Evaluierung dieser Methode wurden die Kompetenzen und deren Entwicklung bei Studierenden, die an der Lehrveranstaltung teilnahmen, unter bestimmten Vorrausetzungen, gemessen. Schlussendlich wird beschrieben, wie die Ergebnisse in das Kompetenzmanagementsystem einfließen können. Marian Schedenig Leveraging ESB and SEDA Technologies for Complex Event Correlation Studium: Diplomstudium Informatik BetreuerIn: Univ.Ass. Dr. Alexander Schatten Abstrakt: Diese Arbeit fasst die Entstehung von Enterprise Application Integration und Event-Verarbeitung zusammen und behandelt dabei insbesondere den Enterprise Service Bus sowie das SEDA-Konzept, welche in der Mule-Plattform umgesetzt sind. "Complex Event Processing" wird beschrieben und bestehende Ansätze für "Complex Event Correlation" werden vorgestellt, was zur Besprechung von Naiad führt, worin diese Konzepte aufsetzend auf dem Mule-Framework implementiert wurden. Naiad erlaubt es Entwicklern, die Beziehungen zwischen Eventtypen durch deklarative Event-Korrelationen in Form von XML-Dateien zu beschreiben. Jede beliebige Datenstruktur kann in das Framework übernommen und als Event zur Korrelierung genützt werden. Nach der Korrelierung der Events können Entwickler Naiads Correlation Sessions nutzen, um Daten, welche für eine Gruppe von Events relevant sind, zu sammeln und speichern, sodass die entsprechenden Aktionen ausgeführt werden können, sobald alle nötigen Events eingetroffen sind. Eine einheitliche Schnittstelle löst den Zugriff auf Event-Daten vom konkreten Format der Events und führt so zu übersichtlicherem und leichter portierbarem Code. Folglich können sich Applikationsentwickler auf die Businesslogik konzentrieren anstatt sich um komplexe, asynchrone Techniken zur Zuordnung und Korrelierung asynchroner, systemnaher Nachrichten zu sorgen. Das Framework wurde modular angelegt, um höchstmögliche Flexibilität zu bieten. Alle Teile des Systems können erweitert oder durch eigene Implementierungen ersetzt werden, sodass das Framework an bestehende Systeme angepasst und integriert werden kann. Mule als Basis bietet zusätzlich eine große Zahl an Konnektoren für die Interaktion mit vielen etablierten Kommunikationsstandards. Stefan Schnabl Screen Recording – A Practical Guide With Case Studies Studium: Masterstudium Informatikmanagement BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Kathrin Schimper Analyse und Messung von Kompetenzen für Software Engineering und Projektmanagement Abstrakt: Der Bereich des eLearning braucht nicht noch mehr theoretischen Unterbau; er braucht praktische Hilfe bei der Erstellung von Inhalten! In diesem Sinne möchte diese Arbeit helfen, qualitativ hochwertigen eLearning Inhalt zu erstellen. Die Arbeit stellt sich mit der Motivation vor, warum Studium: Masterstudium Wirtschaftsinformatik 111 112 jemand einen Text wie diesen braucht und lesen sollte. Die Triebfeder ist hierbei, dass es keinen ausreichenden Hintergrund für Screen Recording gibt. Die folgenden Aspekte des eLearning geben ein fundamentales Verständnis für die Bedeutung der eLearning Theorie im Bereich des Screen Recording (SR). Dies ist von entscheidender Bedeutung für die weitere Argumentation der Definition von SR. Durch die Definition von SR stellt die Arbeit detaillierte Informationen zu SR und Screen Casts (SCs) bereit. Es werden die unterschiedlichen SC Typen vorgestellt, wie auch eine Checkliste für potentielle Alternativen zu SR. Die Argumentation endet in einer detaillierten Beschreibung von SC Ausgabeformaten als physische Repräsentation eines theoretischen SC Objektes. Das Enrichment von SCs bildet Motivation um den SC als Element innerhalb einer Strukturierungsmöglichkeit für höhere eLEarning Ebenen (z.B. Kurse) zu sehen. Ausgestattet mit diesem Wissen kombiniert die Arbeit Theorie und Praxis durch die Präsentation von SR Software. Zusammenfassend kann über die präsentierte Theorie mit Hilfe der Case Studies reflektiert werden. Diese präsentieren die gesamte Theorie in der praktischen Anwendung. diesem Modell, aber keine dieser Entwicklungen besitzt eine klare Vorgehensweise für das Evaluieren und Auswählen von Langzeitarchivierungsstrategien. In dieser Arbeit wurde die Plantes Planungsmethode in Beziehung zum OAIS Modell gesetzt. Die Informationsflüsse zwischen den einzelnen Schritten der Planungsmethode und den Einheiten des OAIS Modells werden aufgezeigt. Ereignisse im Umfeld eines Archives, die eine Planung von neuen Strategien oder die Überprüfung von existierenden Strategien erfordern, werden in dieser Arbeit aufgezeigt. Die notwendigen Planungsaktivitäten werden beschrieben und die Auswirkungen von neuen oder veränderten Lösungsstrategien für digitale Sammlungen werden anhand der Planungsmethode und des OAIS Modells aufgezeigt. Das Konzept einer Wissenbasis zur Unterstützung der Bewertung von Archivierungsstrategien wird präsentiert. Zudem wird untersucht, inwiefern Audit und Zertifizeriungskriteren anhand von zwei Katalogen (TRAC und Nestor) durch die Planets Planungsmethode unterstützt werden. Stephan Strodl Digital Preservation - Preservation Planning in the OAIS Model Robert Thullner Implementing Enterprise Integration Patterns Using Open Source Frameworks Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl Abstrakt: Wesentliche Teile unseres kulturelles Erbe wie auch wirtschaftlich oder rechtliche wichtige Informationen liegen immer häufiger ausschließlich in elektronischer Form vor. Auch abseits von Museen, Bibliotheken und Archiven wächst die Zahl von Institutionen aus unterschiedlichen Bereichen, die die Notwendigkeit erkennen, digitale Informationen langfristig zu bewahren. Die rasante Entwicklung von Software und Hardware, vor allem aber von Datenformaten gefährdet die langfristige Verwendbarkeit von digitalen Objekten. Digitale Langzeitarchivierung ist in den letzten Jahren zu einem aktiven Forschungsgebiet geworden, in dem Lösungsansätze für die langfristige Archivierung von digitalen Informationen untersucht werden. Das Hauptaugenmerk der Forschung für Langzeitarchivierungsstrategien liegt auf Migration und Emulation von digitalen Objekten. Die Auswahl von geeigneten Strategien und der verwendeten Werkzeuge für eine spezifische Sammlung von Objekten ist ein komplexe Aufgabe, die von den spezifischen Anforderungen einer Situation abhängig ist. Im Planets Projekt wurde eine Planungsmethode entwickelt, mit der eine objektive, nachvollziehbare und wiederholbare Bewertung von unterschiedlichen Strategien und Werkzeugen für spezifischen Anforderungen durchgeführt werden kann. Das OAIS Modell stellt ein Referenzmodell für ein Archivierungssystem dar, mit dem primären Ziel, Informationen für eine ausgewiesene Zielgruppe für unbestimmte Zeit zu erhalten. Im Bereich der digitaler Bibliotheken bildet das Modell ein Standardreferenzmodell und wurde 2003 als ISO Standard 14721:2003 aufgenommen. Etliche Entwicklungen für Archivierungslösungen basieren auf Abstrakt: Enterprise Application Integration (EAI) ist in vielen Unternehmen ein Begriff. Verschiedene eingesetzte Computersysteme sollen ihre Funktionalitäten mit anderen Systemen teilen damit neue Anforderungen abgedeckt werden können. Eine Möglichkeit um eine Integration durchzuführen ist der Austausch von Nachrichten zwischen Systemen. Wie für viele Anwendungsgebiete in der IT Branche wurden auch für den Bereich der Applikationsintegration durch Nachrichtenaustausch Patterns gefunden und gesammelt. Patterns beschreiben eine allgemeine Lösung für wiederkehrende Probleme. In der Open Source Landschaft wurden einige Frameworks entwickelt die in den EAI Bereich fallen. In dieser Arbeit soll herausgefunden werden, welche Arten von Patterns von Open Source Frameworks unterstützt werden bzw. wie diese implementiert werden können. Dazu werden vier Projekte genauer untersucht. Diese sind Apache ActiveMQ, Apache Camel, Apache ServiceMix und Codehaus Mule. Die Unterstützung der Frameworks wird einerseits durch theoretische Durcharbeiten der Dokumentation und andererseits durch Implementierung von Szenarien erfolgen. Durch die Implementierung soll auch herausgefunden werden wie benützbar und entwicklerfreundlich die verwendeten Frameworks sind oder welche Probleme durch deren Verwendung auftreten können. Weiters werden auch verschiedene Teile von EAI Lösungen betrachtet und untersucht welche Teile von welchen Frameworks abgedeckt werden können. Zuletzt wird noch eine kurze wirtschaftliche Betrachtung durchgeführt um herauszufinden ob es für 113 114 Unternehmen vorteilhaft ist Open Applikationsintegration zu verwenden. Source Frameworks zur Abstrakt: In der Intensivmedizin wird eine riesige Menge von Patientendaten verarbeitet, um den Zustand der Patienten zu beurteilen und seine Behandlung zu dokumentieren. Spezielle EDV System werden eingesetzt um die Informationen über den Patienten optimal darzustellen und sein Behandlung zu unterstützen. Patientendaten Management Systeme (PDMS) dienen der bettseitigen Patientendokumentation und sind Grundlage für therapeutische Entscheidungen. Zusätzliche Systeme sollen an den Intensivstationen die Qualität der Patientenversorgung verbessern und sichern, wobei die schwer überschaubare Informationsflut dabei aufbereitet werden soll. Solche Systeme sollen möglichst optimal in die Patientenversorgung integriert werden, ohne den Dokumentationsaufwand zu erhöhen. Daher ist ein automatischer Datenaustausch mit dem eingesetzten PDMS notwendig. Die definierten Informationen für solche Anwendungen sollen aus der, an der neonatologischen Intensivstation (NICU) vorhandenen, PDMS Datenbank generiert werden. Die Schwierigkeiten dabei sind, unter anderem, notwendige Änderungen der medizinischen Dokumentation und nachträgliche Korrekturen, beziehungsweise Ergänzungen, von, für die Zusatzsysteme verwendeter, Patientendaten. Die komplexen Abhängigkeiten, die bei der Integration solcher Anwendungen zur Verbesserung der intensivmedizinischen Versorgung entstehen, werden dargestellt und Lösungsmöglichkeiten aufgezeigt. Ein gut adaptierbares, an mehreren Intensivstationen eingesetztes, Konzept zur Informationsaggregation wird vorgestellt und anhand verwirklichter Projekte evaluiert. Das Einrichten von Kommunikationsschnittstellen zwischen den Applikationen ist dabei unerlässlich um solch zentrale Informationsgewinnung aus der routinemäßigen digitalen Krankengeschichte erfolgreich umzusetzen. Lehrveranstaltung als online-Kurs sind folgende:- Ein online-Kurs stellt interaktive Lernübungen für eine hohe Anzahl Studierender zur Verfügung, die dadurch Themen durch praktische Erfahrung erarbeiten können.- Die Beurteilung kann halbautomatisch erfolgen, wodurch die Lehrveranstaltungsleitung entlastet wird. Oft ist es hilfreich eine Thematik dadurch verstehen zu lernen, indem man ein praktisches Problem des Bereichs selbstständig löst und dabei gelerntes anwenden kann. Praktische Beispiele führen Studierende Aspekte vor Augen, die bei einem rein theoretischen Zugang vielleicht nicht aufgefallen wären. Im Zuge der Bearbeitung einer solchen Aufgabe werden viele Fragen aufkommen, welche zur Lösung selbstständig beantwortet werden müssen. Praktische Übungen in Computerlabors benötigen umfangreiche Betreuung und technische Infrastruktur. Ab einer gewissen Anzahl von Lehrveranstaltungsteilnehmern kann eine solche Betreuung nicht mehr geboten werden. Daher wurde am Institut für Softwaretechnik und Interaktive Systeme der Technischen Universität Wien die Entscheidung getroffen, die Nutzung von interaktiven online-Aufgaben für eine Lehrveranstaltung zum Thema Informationssicherheit in IT-Systemen zu evaluieren. Auf diese Art wird die technische Infrastruktur (im Wesentlichen ein Computer) von jedem Studierenden selbst zur Verfügung gestellt und man erhält ein System, welches mit der Zahl der Teilnehmer skaliert. Zudem wird der Betreuungsaufwand der Lehrveranstaltungsleitung durch die Möglichkeit einer halbautomatisierten Beurteilung durch das System reduziert. Dies ermöglicht mehr Studierende mit weniger Betreuern zu bedienen. Die vorliegende Arbeit stellt das theoretische Fundament eines solchen Systems dar. Um den Studierenden eine motivierende Lernerfahrung zu bieten, ohne dabei auf wichtige Themen verzichten zu müssen, war es notwendig, den praktischen Teil der betreffenden Lehrveranstaltung als online-Übungsaufgaben zur Verfügung zu stellen. Diese Arbeit diskutiert methodische und technische Aspekte sowie Fragen zur inhaltlichen Gestaltung der online-Aufgaben. Verschiedene Zugänge zu Software-Architekturen eines solchen Systems werden präsentiert und bewertet. Die einzelnen Übungsaufgaben zu verschiedenen Themen der Informationssicherheit werden detailliert gezeigt, eine Klassifikation von Übungstypen wird vorgenommen und ein Vorschlag zu deren Gestaltung als online-Übung gemacht. Ein solches e-Learning System wird im Rahmen der Arbeit entwickelt und evaluiert. Christian Url An Interactive e-Learning Approach for Information Security Related Content Bernhard Wachter Klassifizierung von Web-Dokumenten Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber Abstrakt: Die Arbeit „An Interactive e-Learning Approach for Information Security Related Content” präsentiert ein e-Learning Konzept im Kontext einer Universitätslehrveranstaltung mit dem Thema Informationssicherheit in IT-Systemen. Die zwei Hauptgründe für das Anbieten von Teilen der Abstrakt: Bei der Web-Archivierung werden Web-Dokumente gesammelt und dauerhaft abgelegt. Die entstehen Archive wachsen rasant und enthalten auch sensitive Daten. Um Missbrauch vorzubeugen müssen sensitive Daten identifiziert und gegen unbefugte Zugriffe gesichert werden. Lukas Unterasinger Ways to improve Quality Management at Neonatal Care Units Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch 115 116 Dadurch werden Anwendungsfälle denkbar in welchen auf Basis von sensitiven Daten Auswertungen vorgenommen werden ohne dabei die Daten selbst preis zugeben. Bei der Genre-Analyse werden Web-Dokumente aufgrund ihrer Form sowie des Stils einer Seite unabhängig vom eigentlichen Thema klassifiziert. Zielsetzung dieser Arbeit ist es, diese Methode dahingehend zu erweitern, dass es einem Archivierungssystem von WebDokumenten möglich ist, private und öffentliche Elemente von WebDokumenten unterscheiden zu können. Bisherige Ansätze in diesem Bereich agieren ausschließlich auf Dokumentenebene. Web-Dokumente enthalten jedoch häufig mehrere unterschiedliche Genres. Diese Arbeit entwickelt einen Ansatz zur Erkennung von zusammengehörenden Textsegmenten, welcher Absätze und gegebenenfalls damit verbundene Genre-Übergänge erkennt. Darauf aufbauend wird ein Ansatz für die Klassifizierung von privaten und öffentlichen Elementen von Web-Dokumenten auf Dokumentenund Absatzebene vorgestellt. semantische Dienste bereits mit den bestehenden Mitteln in Content Management Systemen realisierbar sind. Andreas Webley Self-Adapting Corporation Studium: Masterstudium Wirtschftsinformatik BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa Abstrakt: Um in den immer komplexeren und hoch dynamischen Märkten der globalisierten Weltwirtschaft zu bestehen müssen Unternehmen ständig ihre Effizienz erhöhen und ihre Kosten senken. Um dieses Ziel zu erreichen müssen die Unternehmen ihre Geschäftsprozesse genauestens unter Kontrolle haben. Studien haben gezeigt, dass viele Unternehmen fürchten, die bisher eingesetzten Geschäftsprozessmanagementsyteme könnten zu inflexibel für die notwendige schnelle Veränderungen sein. Deshalb präsentieren wir in dieser Arbeit ein Konzept für autonome Geschäftsprozess-managementsyteme. Autonome Systeme können durch minimierte Einflussnahme des Menschen schneller auf unerwartete Ereignisse reagieren und erlauben daher ein erhöhtes Maß an Flexibilität und Stabilität im vergleich zu herkömmlichen Systemen. Das vorgestellte Konzept basiert auf der Kombination von anerkannten Geschäftsprozessmanagementansätzen und modernen autonomen Systemen. Dies würde es eschäftsprozessmanagementsystemen erlauben, basierend auf vordefinierten Zielen und der Kenntnis des aktuellen Zustands ihrer Umwelt, selbstständig zu agieren. Zusätzlich stellen wir ein Verfahren zur Beschreibung von Geschäftsprozessen vor, dass Veränderung als elementares Konzept einschließt und dem System erlaubt Abgabe Diplomarbeiten Geschäftsprozessmodelle direkt zu verstehen und Prozesse selbstständig zu kontrollieren. Wir werden in dieser Arbeit mit einem Überblick über themenbezogene Arbeiten und den aktuelle Forschungsstand beginnen. Danach werden wir auf die Idee des autonomen Geschäftsprozessmanagements eingehen und schließlich unser Konzept vorstellen. Christoph Wastyn Semantische Abfragen zur Dynamischen Inhaltserstellung Studium: Masterstudium Medieninformatik BetreuerIn: Univ.Ass. Dr. Monika Lanzenberger Abstrakt: Die Organisation von Information durch sogenannte Content Management Systeme gewinnt im Internet durch die große Zahl an Inhalten zunehmend an Bedeutung. Durch eine Trennung von Inhalt und Layout werden RedakteurInnen entlastet, da sich ein System um die technische Umsetzung der Struktur einer Website kümmert. Während in den letzten Jahren viele der technischen Entwicklungen des Internet in solchen Systemen Einzug fanden, sind semantische Dienste in diesem Zusammenhang noch weitgehend unbekannt. Nach dem Konzept des semantischen Internet werden Begriffe miteinander in Beziehung gesetzt und zu einem großen Wissensnetz zusammengefügt, innerhalb dessen dezentral vorliegende Zusammenhänge erkannt werden können. Würde eine Seite etwa Tokio als Hauptstadt deklarieren, und eine andere Quelle als Stadt Japans, so würde sich daraus der Zusammenhang ableiten lassen, dass Tokio die Hauptstadt Japans sei. Die semantische Vernetzung von Content Management Systemen würde nicht nur den Zugriff dezentral vorhandener Information ermöglichen, im Sinne des redaktionellen Prozesses könnten diese Informationen auch verwendet werden, um semantische Inhalte semiautomatisch, und damit wesentlich zeitsparender, zu publizieren. Obwohl viele Arbeiten auf das große Potential semantischer Vernetzung von Content Management Systemen verweisen, gibt es derzeit nur wenige praktische Anwendungen, die den Einsatz dieser Technologie ermöglichen. Im Rahmen dieser Arbeit wurde ein Modul für ein Content Management entwickelt, das eine dynamische Inhaltserstellung durch semantische Abfragen ermöglicht. Dadurch sollte gezeigt werden, dass 117 Hannes Weingartner A mobile blogging solution Studium: Masterstudium Medieninformatik BetreuerIn: Univ.Prof. Dr. Hannes Werthner Abstrakt: Mobilgeräte wie etwa Smart Phones sind für gewöhnlich permanente Begleiter im Alltag. Sie bieten per se ein flexibles Kommunikationsmedium in unserer Gesellschaft, wobei zahlreiche Dienste 118 die herkömmliche Sprachtelefonie ergänzen. Der Daten-Durchsatz und die Anbindung an das mobile Internet durch Zellulare Netzwerke und Öffentliche Hotspots steigt stetig an. Ubiquitäre Mobilität hat heutzutage eine hohe Signifikanz für Geschäftsprozesse und Endverbraucher-Anwendungen. Die Verarbeitung von dynamischen Umgebungs-Parametern, wie etwa die geodätische Position eines Mobilgerätes, ermöglicht in diesem Zusammenhang eine Vielzahl von benutzerbezogenen Diensten. Eine Bereitstellung dieser Dienste über zeitliche und räumliche Grenzen hinweg erlaubt zudem eine flexible Interaktion mit beliebigen Daten durch Einbeziehung mehrerer Netzwerke. Die Diplomarbeit liefert anfänglich einen technischen Wegweiser um den Eigenheiten von mobilen Plattformen, drahtlosen Netzwerk-Infrastrukturen und Positionierungs-Techniken gewahr zu werden. Das Ziel ist eine effiziente Ausnutzung von Operator- als auch Internet- und Gerätebasierte Diensten auf wenig leistungsfähigen Mobilgeräten. Zudem werden abschätzbare technologische Erweiterungen für die Realisierung von Pervasive Computing in zukünftigen Anwendungen diskutiert. In weiterer Folge werden technische Fragen bezüglich einer Anwendungsarchitektur und einer Implementierung umrissen, welche auf einem funktionalen Prototypen basieren. Der Prototyp realisiert eine Mobile Blogging Anwendung. Die Anwendung representiert ein verteiltes Javabasiertes Software System, welches mobile als auch statische Komponenten beinhaltet. Blogs werden auf Mobilgeräten erzeugt und bestehen aus einem Foto, einer Nachricht, als auch aus Informationen zum Standort und Zeit der Blog-Generierung. Zusätzliche Informationen wie etwa Höhenangaben, logische Standortinformation, und zurückgelegte Distanzen sind zudem einfach abrufbar. Diese geografisch ettiketierten Blogs sind für eine nachfolgende Manipulation und Exploration auf dem Mobilgerät verfügbar. Ein Blogging Dienst gibt dem mobilen Benutzer die Möglichkeit diese benutzerzentrierten Blogs auf einen Anwendungsserver zu transferieren. Die Blogs sind dadurch über eine web-basierte kartographische Schnittstelle zugänglich. Der Zugriff auf erstellte und gepostete Blogs liegt in vollkommener Kontrolle des Urhebers. Die Annotationen in einer virtuellen Landkarte durch die zu den Blogs gehörigen Wegpunkte ermöglichen eine aussagekräftige Darstellung über bestimmte Aktivitäten. Die Anwendungsfelder liegen demnach hauptsächlich im Tourismus-Sektor aber auch in der Forschung, wo eine standortbezogene Dokumentation von Artefakten als sinnvoll erscheint. Viele Frameworks und Tools sind für den mobilen Anwendungsentwicklungs-Prozess verfügbar um die Standardfunktionalität auf mobile Plattformen zu erweitern. In der prototypischen Implementierung führt die Bereitstellung eines solchen Frameworks zu einer höheren Benutzerfreundlichkeit und zu einer verbesserten Code-Wartbarkeit als auch Programmfehlerbeseitigung. BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek Abstrakt: Das Raytracing-System POV-Ray wird als Alternative für den Einstiegsunterricht zum Thema Programmieren vorgestellt. Dabei wird vor allem die Fähigkeit von POV-Ray genutzt, Programmcode unmittelbar in Form anschaulicher Bilder darstellen zu können. POV-Ray ist zudem kostenlos und bietet einen einfach zu bedienenden Editor, mit dem unter anderem auch C-Code, Java-Code und HTML-Code bearbeitet werden kann. Dadurch ist diese Software für den Schulgebrauch besonders gut geeignet. Die Arbeit stellt anhand leicht nachvollziehbarer Unterrichtslektionen alle wichtigen Grundlagen des Programmierens vor (von dem Unterschied zwischen Compiler und Interpreter über Variablen-Deklarationen bis zur while-Schleife). Die Lektionen sind stark untereinander und mit anderen Kapiteln des Informatikunterrichts sowie mit anderen Fächern verknüpft, wodurch die Einprägsamkeit gesteigert wird. Beispielsweise ergeben sich gute Verbindungen zum Mathematikunterricht: Neben Kegelschnitten (Constructiv Solid Geometry) kann auch der Grundgedanke der Integralrechnung vermittelt werden. Dazu wird z.B. ein Drehkegel aus Zylinderscheiben aufgebaut. Während die Höhe der einzelnen Scheiben gegen Null geht, wird die Summe der Zylindervolumina mit dem formelmäßig berechneten Kegelvolumen verglichen, um die Konvergenz zu demonstrieren. Dabei können sogar Ober- und Untersummen berücksichtigt werden. Die Unterrichtsplanung wurde in zweiten Jahrgängen einer höheren technischen Lehranstalt erprobt und mit 3 Fragebögen (vor dem Programmieren, nach dem POV-Ray-Unterricht, nach dem Programmieren) evaluiert. Die Fragebögen sind in der Arbeit enthalten und können für den eigenen Unterricht verwendet werden. Die Ergebnisse der Evaluation wurden in der Arbeit diskutiert und flossen in die letztlich vorgeschlagene Unterrichtsplanung ein. Arbeitbereich Interactive Media Systems Marie-Theres Tschurlovits Dynamic Differential Geometry in an Educational Augmented Reality Application Leo Willitsch Programmieren für Anfänger mit dem Raytracing-System POV-Ray Studium: Masterstudium Medieninformatik BetreuerIn: Univ.Ass. Dr. Hannes Kaufmann Studium: UF Informatik und Informatikmanagement 119 120 Abstrakt: In dieser Arbeit wird eine Reihe von Geometrie Software Paketen präsentiert, die sowohl zu statischen als auch zu dynamischen Konstruktionen führen. Anschließend wird Construct3D eingeführt, eine Software zu Erstellung dynamischer 3D Konstruktionen, die auf dem Augmented Reality System Studierstube basiert. Der größte Vorteil von Construct3D gegenüber anderen dynamischen Geometrie Software Paketen ist die Option mit Hilfe eines Head mounted displays die echte Umgebung angereichert mit virtuellen Inhalten betrachten zu können. Das eröffnet den Usern, vornehmlich Oberstufenschülern und Studenten, die Möglichkeit im "richtigen" dreidimensionalen Raum dreidimensionale Objekte zu konstruieren, zu erforschen und in weiterer Folge damit zu interagieren. Der praktische Teil dieser Arbeit umfasste die Implementierung einer Reihe von neuen Funktionen für Construct3D. Es wurden einige Werkzeuge entwickelt um das Verständnis des Begriffs der Krümmung von Kurven und Flächen zu fördern. Um die bereits vorhandenen Sweep Funktionen zu ergänzen wurden außerdem Schraub- und Schiebeflächen implementiert. SmartQVT act as examples for an imperative language. More specifically, SmartQVT implements the operational part of the Object Management Group Query/View/Transformation (OMG QVT) standard. ModelMorf implements the Relational QVT language and therefore represents a purely declarative approach. For the purpose of conducting the evaluation, several model transformation examples are defined and implemented using the aforementioned languages. These examples cover model transformation problems appearing in practice, in order to emphasize the advantages and limitations of the particular language. In the second part of this thesis, Kermeta is used to implement a library which solves common problems appearing in model transformations. This library can then be used in practical transformations for simplifying the development process. Finally, the results of the evaluation are discussed, in order to propose guidelines on which model transformation approaches are suitable for which problems. Abraham Müller und Gerald Müller Model Transformation By-Example: An Eclipse based Framework Arbeitsbereich Business Informatics Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel Philipp Huber The Model Transformation Language Jungle - An Evaluation and Extension of Existing Approaches Abstrakt: Viele der momentan existierenden Ansätze sowie Sprachen zur Modelltransformation sind metamodell-basiert. Sie setzen detaillierte Kenntnisse der Metamodellebene und deren Syntax voraus. Meist wird die Transformation durch ein vollständiges Regelwerk auf der Metaebene bewerkstelligt. Dazu müssen dem Benutzer entweder die Konzepte dieser Ebene bekannt sein, oder er vertraut auf eine eventuell vorhandene Lösung. Einen neuen benutzerfreundlichen Ansatz dafür beschreibt Model Transformation By-Example (MTBE). Der Benutzer arbeitet mit der ihm vertrauten Syntax auf Instanzebene und kann dort Mappings zwischen Elementen zweier verschiedener Modelle definieren, aus denen automatisch Regeln generiert werden. Das Ergebnis der Analyse kann während der Erstellung der Korrespondenzen laufend überprüft werden, sodass es möglich ist, diese iterativ zu bearbeiten, um schlussendlich alle nötigen Regeln abzuleiten. Des Weiteren erlaubt ein solches Framework das Erweitern der Analyse und ermöglicht es somit, auf diesen Schritt direkt Einfluss zu nehmen. In dieser Arbeit wird ein Framework für MTBE auf Basis des Graphical Modeling Framework (GMF) umgesetzt. Die Implementierung von MTBE wird in ein Eclipse Plug-in eingebettet. Mappings auf der Modellebene können mit Hilfe eines automatisch generierten GMF-Editors gezeichnet werden. Eine so genannte Analyzer Komponente soll dann diese Mappings auswerten und daraus ein Weaving Modell beziehungsweise den ATL Code generieren. Für den in dieser Arbeit vorgestellten Prototyp wurden drei Analysealgorithmen entwickelt. Die Implementierung wurde so umgesetzt, dass sie über eine integrierte Schnittstelle noch beliebig erweiterbar ist. Zusätzlich zu diesem Prototyp wurden zwei GMF-Editoren für die beiden Modellierungssprachen UML und ER entwickelt, welche als Studium: Masterstudium Wirtschftsinformatik BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel Abstrakt: Model Transformations are a key prerequisite for Model Driven Engineering (MDE) and therefore represent an active research area. Various model transformation languages are available, whereas the languages can be categorized into different approaches. Depending on the particular situation, one model transformation approach might be better suited to accomplish the given task than another approach. Classifications of model transformation languages exist, which also include a taxonomy of general features a model transformation language may support. Based on this taxonomy, it is possible to compare model transformation approaches in order to find out how suitable they are for a given problem. Like in common object oriented-programming approaches, such as Java, there are some particular problems which appear repeatedly. For example, it is often necessary to transform an attribute value in the source model to an object in the target model. For such cases, it should be considered to solve these problems in a generic way for improving the reuse of model transformation definitions. In this thesis, four model transformation languages, namely Atlas Transformation Language (ATL), SmartQVT, Kermeta, and ModelMorf are evaluated based on the taxonomy proposed by Czarnecki et al. These languages are chosen, because they represent the state of the art approaches for transforming models in the field of MDE. ATL is a hybrid language mixing declarative and imperative constructs. Kermeta and 121 122 Beispielanwendung herangezogen werden, um Funktion, sowie entwickelte Algorithmen anhand einer Transformation zwischen den Sprachen UML und ER zu testen und auch zu präsentieren. Christian Sokop Softwareentwicklung mit UML und Eclipse Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel Christian Pichler Constraint Checking using DB2 pureXML and DataPower - An Evaluation based on the Healthcare Environment Abstrakt: In der heutigen Zeit ändern sich Anforderungen an Anwendungen laufend. Neben den Anforderungen haben sich natürlich auch die Hilfsmitteln und Technologien weiterentwickelt. Moderne objektorientierte Sprachen, wie z.B. UML und Java, werden den heutigen Ansprüchen gerecht. Zu einem großen Teilgebiet der Softwareentwicklung zählen verteilte Systeme bzw. Web-Anwendungen. Die objektorientierte Programmiersprache Java, oder besser gesagt die Java Enterprise Edition, in Zusammenhang mit UML eignet sich hervorragend solche Systeme zu entwickeln. Dieses Thema wurde ausführlich in [Soko07] behandelt. Als weiteres Hilfsmittel wird heutzutage in jedem Projekt eine Entwicklungsumgebung verwendet. Eine sehr verbreitete und frei zugängliche Entwicklungsumgebung im Bereich der Java Softwareentwicklung ist das Projekt „eclipse“ [Ecli08]. Der Vorteil dieser Entwicklungsumgebung ist, dass sie durch ein ausgeprägtes Pluginmanagement leicht erweiterbar ist. Diese Arbeit evaluiert Projekte bzw. Plugins für die Entwicklungsumgebung „eclipse“, die UML 2.0 unterstützen und dadurch bei der Entwicklung behilflich sind. Weiters soll diese Arbeit evaluieren, inwieweit die getesteten Plugins eine automatisierte Codegenerierung erlauben. Dies soll anhand einer kleinen Beispielanwendung demonstriert werden. Ein weiteres Ziel dieser Arbeit ist es kostengünstige Alternativen zu den Entwicklungsumgebungen von IBM (IBM Rational Application Developer [IBM08]) und Omondo (Eclipse Uml [Omon08]) zu finden. Studium: Masterstudium Medizinische Informatik BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel Abstrakt: In der heutigen Zeit stellt die Verfügbarkeit von Informationen bezüglich der Krankengeschichte von Patienten eine wichtige Rolle dar. Um die Verfügbarkeit zu gewährleisten, werden Patientendaten oft elektronisch verarbeitet und in Form einer elektronischen Patientenakte gespeichert. Die Informationen, als Teil einer Krankengeschichte, sind zum Beispiel Daten eines Patienten, die während einer Anamnese festgestellt und anschließend durch die Eingabe in ein Informationssystem gespeichert werden. Daten bezüglich der Gesundheit eines Patienten können jedoch auch von Geräten stammen, wie zum Beispiel einem Elektrokardiogramm (EKG). Dabei können, unabhängig auf welche Weise die Information gesammelt wird, Fehler auftreten. Ein Beispiel wäre ein Krankenpfleger, welcher sich während der Dateneingabe irrt, oder fehlerhafte Messdaten eines EKG Gerätes. Um der Speicherung und Verwendung fehlerhafter Information vorzubeugen, ist es notwendig, Daten auf ihre Richtigkeit zu überprüfen. Geht man davon aus, dass Patienteninformation in einem standardisierten und elektronischen Format gespeichert wird, kann dieselbe Information mit Hilfe von Informationstechnologie auf Validität überprüft werden. Aus diesem Grund werden als Teil dieser Arbeit jene Bereiche im Gesundheitswesen identifiziert, wo fehlerhafte Information entstehen kann. Basierend auf diesen Bereichen werden verschiedene Technologien vorgestellt, die verwendet werden können, um Regeln zu definieren welche wiederum auf die Gesundheitsinformation angewendet werden. Der Vorteil darin liegt, dass durch die Anwendung der Regeln das Erkennen von Fehlern in der Information möglich ist. Um die Technologien zu demonstrieren und deren Vor- und Nachteile zu identifizieren, wird ein Szenario definiert. Dieses Szenario bildet die Grundlage, um drei verschiedene Lösungsansätze zu realisieren. Anschließend werden die drei implementierten Ansätze anhand bestimmter Charakteristika verglichen. Der Vergleich zeigt, dass nicht mit allen verwendeten Technologien alle verschiedenen Problembereiche durch Regeln abgedeckt werden können. Technologien, welche nicht dazu verwendet werden können Regeln für alle Problembereiche zu definieren, zeigen jedoch andere Vorteile, wie zum Beispiel der minimale Aufwand der Implementierung. Abschließend, wird noch ein Ausblick gegeben, wie die verwendeten Technologien nicht nur die Überprüfung von Daten, sondern auch die Didaktik im Gesundheitswesen unterstützen können. 123 Ahu Zeynep Yücel Metamodell-basierte Integration von Web-Modellierungssprachen Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel Abstrakt: Web-Anwendungen haben sich über die letzten Jahrzehnte stark verändert. Die erste Generation zielte auf die einfache Bereitstellung von Informationen mittels statischer Websites. Durch die zweite Generation wurde eine neue Dimension eröffnet, wobei Web-Anwendungen nicht mehr nur als Mittel zur Informationsdarstellung gesehen werden, sondern auch vielfältige Dienste zur Verfügung stellen. Durch die daraus folgende Erhöhung des Entwicklungsaufwands von Web-Anwendungen entsteht die Notwendigkeit, die Entwicklung durch die Verwendung von modellbasierten Entwicklungsmethoden und spezifischen Web-Modellierungssprachen zu unterstützen. Die modellgetriebene Softwareentwicklung hat durch die Model Driven Architecture Initiative (MDA) stark an Bedeutung gewonnen. 124 MDA zielt im Allgemeinen darauf ab, Modellierungssprachen aus verschiedenen Bereichen zu standardisieren, um Interoperabilität zwischen den verschiedenen Modellierungswerkzeugen zu schaffen. Jedoch wird MDA zurzeit nur als eine Vision gesehen, da die notwendige Basis für die Realisierung fehlt. Betroffen davon ist auch der Web Engineering Bereich, da bestehende Web-Modellierungsmethoden im Sinne der MDA nicht vollständig modellgetrieben sind. Es fehlen die entsprechenden Metamodelle zu den Web-Modellierungssprachen und die Modelltransformationen, um Modellaustausch zwischen den Web-Modellierungswerkzeugen zu gewährleisten. Diese Arbeit versucht eine erste Lösung für das Interoperabilitätsproblem zwischen den verschiedenen WebModellierungswerkzeugen umzusetzen. Ob eine verlustfreie Abbildung zwischen eingesetzten Web-Modellierungssprachen entwickelt werden kann, bildet die zentrale Forschungsfrage, die im Zuge dieser Arbeit beantwortet wird. Um diese Forschungsfrage zu beantworten, wird folgende Methode eingesetzt. Im ersten Teil der Arbeit werden die wesentlichen Eigenschaften von Web-Modellierungssprachen erklärt und anhand der entsprechenden Tools untersucht. Im zweiten Teil der Arbeit werden die Metamodelle für die einzelnen Modellierungssprachen erstellt und anhand eines Fallbeispiels detailliert untersucht. Im dritten Teil der Arbeit werden anhand des modellierten Fallbeispiels Unterschiede und Gemeinsamkeiten der Modellierungssprachen bestimmt. Der vierte Teil der Arbeit beschäftigt sich mit der Erstellung der Modelltransformationen für die Realisierung des Modellaustausches. Zusätzlich werden die zu realisierenden Modelltransformationen nach vordefinierten Kriterien wie Informationsverlust und Realisierbarkeit bewertet. Kernpunkte der Arbeit sind der Fragebogen, mit dem die benötigten Sicherheitsmaßnahmen ermittelt werden, und die Sicherheitsmaßnahmen, die an die Bedürfnisse von Klein- und Mittelbetrieben angepasst wurden. Der Einstiegspunkt zur Ermittlung der benötigten IT – Sicherheit bildet der Fragebogen in Kapitel 4. Je nach Einsatz von bestimmter Hardware – Infrastruktur, wie Web – Server, Mail – Server etc., wird auf die jeweiligen Sicherheitsmaßnahmen verwiesen. Weitere Fragen beziehen sich auf Erhöhung der Sicherheit bzw. Erhöhung der Verfügbarkeit. Um die Fragen in Kapitel 4 leichter zu beantworten, sind in Kapitel Grundlagen zur IT – Security erklärt. Das Hauptkapitel Fünf ist unterteilt in 5 Unterkapitel. Das erste Unterkapitel beschäftigt sich mit den grundlegenden Sicherheitsmaßnahmen, die jedes Unternehmen zu erfüllen hat. Beispiele für dieses Kapitel sind die Beschreibung von Passwortrichtlinien, Virenschutz oder personelle Regelungen. Das 50 Maßnahmen umfassende zweite Unterkapitel befasst sich mit Sicherheitsmaßnahmen im Bezug auf Netzwerke, wie Protokollierung am Server, W LAN Sicherheitsstrategien oder Sicherheitsmechanismen bei Web – Servern. In Unterkapitel 3 liegt der Schwerpunkt bei Sicherheitsmaßnahmen für mobile Systeme, wie Mobiltelefone, PDAs oder Laptops. Die Unterkapitel 4 und 5 beschäftigen sich mit Maßnahmen zur Erhöhung der Sicherheit bzw. der Verfügbarkeit. In jeder Maßnahme der fünf Unterkapitel sind ebenfalls passende Gefahren aufgelistet. Zum Schluss der Arbeit befindet sich ein Glossar der, die wichtigsten Begriffe in aller deutlichen Kürze erklärt. Gernot Deischler IT - Security Management für Klein- und Mittelbetriebe Studium: Masterstudium Informatikmanagement BetreuerIn: Univ.Doz. Dr. Ernst Piller Keinem Arbeitsbereich zugeordnet Nebojsa Babic IT-Security Management für Klein- und Mittelbetriebe Abstrakt: Diese Arbeit bietet eine fundierte Aufbereitung von IT Sicherheitsmaßnahmen, die auf Klein- und Mittelbetriebe bezogen sind. Die IT – Sicherheitsmaßnahmen werden theoretisch aufgearbeitet und es wird ein Instrument entwickelt, mit dem eine fundierte Sicherheitsanalyse durchgeführt werden kann. Ausgangspunkt für die Sicherheitsanalyse des Unternehmens ist ein Fragebogen, mit dem das Sicherheitsniveau des Unternehmens bestimmt wird. Aufgrund der gewählten Antworten im Fragebogen werden konkrete Sicherheitsmaßnahmen vorgeschlagen, die im jeweiligen Betrieb umgesetzt werden sollten. Weiters ist dieses Werk zu Trainingszwecken für Unternehmensverantwortliche einsetzbar, damit diese gegenüber dem Thema IT – Security sensibilisiert werden. Studium: Masterstudium Informatikmanagement BetreuerIn: Univ.Doz. Dr. Ernst Piller Abstrakt: Diese Arbeit bietet eine fundierte Aufbereitung von IT Sicherheitsmaßnahmen, die auf Klein- und Mittelbetriebe bezogen sind. Die IT – Sicherheitsmaßnahmen werden theoretisch aufgearbeitet und es wird ein Instrument entwickelt, mit dem eine fundierte Sicherheitsanalyse durchgeführt werden kann. Ausgangspunkt für die Sicherheitsanalyse des Unternehmens ist ein Fragebogen, mit dem das Sicherheitsniveau des Unternehmens bestimmt wird. Aufgrund der gewählten Antworten im Fragebogen werden konkrete Sicherheitsmaßnahmen vorgeschlagen, die im jeweiligen Betrieb umgesetzt werden sollten. Weiters ist dieses Werk zu Trainingszwecken für Unternehmensverantwortliche einsetzbar, damit diese gegenüber dem Thema IT – Security sensibilisiert werden. Die beiden 125 Emanuel Höfenstock Moderne Kryptografie Studium: Masterstudium Informatikmanagement 126 BetreuerIn: Univ.Doz. Dr. Ernst Piller Markus Winkler Didaktische Unterlagen für Hardwaretoken Betriebssysteme mit spezieller Berücksichtigung der Datenverwaltung Abstrakt: In dieser Magisterarbeit soll ein Überblick über moderne kryptografische Anwendungen gegeben werden. Dabei war das Hauptziel, dass dem Leser ein Einblick in aktuelle Verfahren gegeben und deren praktische Relevanz gezeigt wird. Die Arbeit selbst gliedert sich in zwei große Hauptkapitel. Im ersten Kapitel wird auf elektronisches Geld eingegangen. Dieses Thema hat eine große aktuelle Relevanz, da die Anzahl von Bezahlvorgängen über das Internet ständig steigt. Dabei wurde zuerst eine Einführung in die Thematik gegeben, um dem Leser wichtige Informationen, die für die spätere Ausführung der kryptografischen Verfahren notwendig sind, gegeben. Dazu zählen die Eigenschaften und die Grundkonzepte elektronischer Zahlungsmittel. Nach diesem theoretischen Teil wendet sich dieses Kapitel der Praxis zu. Das Hauptaugenmerk in diesem Abschnitt liegt auf dem Verfahren ECash von David Chaum. Das zweite Hauptkapitel befasst sich mit dem höchstaktuellen Thema der maschinenlesbaren Reisedokumente. Dazu zählt auch der neue Reisepass, der im Moment in Österreich in der 1.Ausbaustufe ausgegeben wird. Für die Zukunft wurde bereits die Einführung der 2.Ausbaustufe beschlossen. Bei dieser werden bio-metrische Daten auf dem Chip des Reisepasses gespeichert. Da es sich bei diesen Daten um hochsensible und personenbezogene handelt, müssen diese auch besonders gegen Missbrauch geschützt werden. Dazu wurde eine erweiterte Inspektionsprozedur definiert, die sich „Extended Access Control“ (EAC) nennt. Mit Hilfe der EAC kann der Aussteller des Reisepasses bestimmen, wer Zugriff auf die biometrischen Daten erhält. Realisiert wird dies durch die Vergabe von entsprechenden Zertifikaten an die einzelnen Inspektionssysteme. Studium: Masterstudium Informatikmanagement BetreuerIn: Univ.Doz. Dr. Ernst Piller Abstrakt: In dieser Arbeit wird versucht, eine einfache, fürs Selbsstudium geeignete Einführung in das doch recht komplexe Gebiet der Betriebssysteme für Hardware Token, im besonderen Chipkarten, zu geben. Des weiteren werden im Anhang Folien bereitgestellt, wie sie in einer Vorlesung mit begleitender Übung verwendet werden können. Zuerst wird die Entwicklung und Geschichte der Chipkarten dargestellt. Danach wird ein Einblick in den Aufbau einer Chipkarte gegeben und erläutert, wie ein Betriebssystem für Chipkarten nach ISO-Norm aufgebaut werden sollte. Aufgrund der Tatsache dass Normen eine sehr wichtige Rolle in der Entwicklung von Betriebssystemen für Chipkarten spielen, da Chipkarten überall auf der Welt an kompatiblen Geräten (z.B.: Geldautomaten) gelesen werden sollten, beschreibt ein Kapitel die wesentlichen Normen. Bei der Beschreibung zum Aufbau eines Chipkartenbetriebssystems wird im speziellen auf die Dateiverwaltung eingegangen, welche eine wichtige Rolle spielt. Hierzu wird die Dateiverwaltung von Chipkarten mit der sehr bekannten doch recht differierenden Dateiverwaltung von PC Betriebssystem verglichen. Andreas Perner Dual Voting System Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Univ.Doz. Dr. Ernst Piller Abstrakt: Ziel dieser Arbeit ist es, eine praxisnahe Implementierung des Dining Cryptographers Protocol zu erarbeiten. Das Dining Cryptographers Protocol bietet in seiner ursprünglichen Version einer Person eines Personenkreises, die Möglichkeit auf eine Entscheidungsfrage anonym mit „Ja“ zu antworten. In der Praxis gibt es vielfach Anwendungsfälle in denen eine Befragung von Personen anonym durchgeführt werden soll. In dieser Arbeit werden Lösungsansätze aufgezeigt, wie praxisnahe Umsetzung basierend auf dem Dining Cryptographers Protocol erreicht werden können. Die erarbeitete Lösung wird im Laufe dieser Diplomarbeit umgesetzt und ein fertig implementiertes Open-Source-Projekt erstellt. 127 128 control system, automated system or self-learning system. Testing is a highly cost consuming yet unavoidable activity. Therefore to reduce cost of production, company will use methods like simulation to test their product. There are so many simulation softwares in the market which offers different abilities and advantages. The various choices has makes it even more difficult for end-users (company) to choose which one is more suitable and useful for the company. On this thesis Three “comparison problem” based on electrotechnic will be compared each other by using four simulations software (Matlab/Simulink, Dymola, Mosilab and SimulationX), with different approaches to model of the system. The method used for this research is a literature study to have a deeper understanding about the behaviour and algorithm of the code from 4 different simulation softwares, the design model of three comparison problems and simulates these models to find the most suitable plot result. After a thorough research of these three comparison problems, conclusion can be made as follow: - Matlab is the only simulation software which able to simulate all calculation of matrix.Stateflow, stategraph and statechart which can only model the equation with switching state, the harder the equation is, the longer time required to simulate the equation. Dymola has the most variation type of modelling that needed in this thesis, the fastest time simulation is by dymola electrical model to simulate task d in comparison 3 = 0,015s, - SimulationX took the longest time in simulating task diode C in comparison 20 = 1307,6718s, Type of designer block in simulationX is very useful feature for expert user in defining their code in new element type - Below are the simulation timing ranking from fastest to slowest type of modelling: a. Textual mode, b. Electrical model, c. Hybrid model, d. Stateflow/stategraph/statechart model ZENTRUM FÜR INFORMATIONS- UND FACILITYMANAGEMENT Markus Habicher Implementation eines hoch verfügbaren SAP Gateways Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Alexander Redlein Abstrakt: In der vorliegenden Arbeit soll ein detailliertes Konzept für ein Computersystem erstellt werden, das den Zugang diverser Institutionen zu einem ERP System ermöglicht und landläufig als so genanntes 'Internet Gateway' bezeichnet werden kann. Dieses System übernimmt die Aufgabe eines zentralen Zugangsknotenpunktes, der im speziellen Anwendungsfall ein Netzwerk aus SAP Applikationsservern gegen unerwünschte Zugriffe aus dem Internet absichert und deren betriebswirtschaftliche Funktionen nur einem eindeutig definierten Benutzerkreis aus vielen verschiedenen Institutionen zur Verfügung stellt. Bedingt durch die wichtige Rolle als Vermittlungsstelle für die Verbindungen einer Vielzahl autorisierter Nutzer zu einer Reihe unterschiedlicher Anwendungen ist der reibungslose Betrieb dieses Systems von höchster Bedeutung. Nach sorgfältiger Analyse der konkreten Anforderungen, entsprechender Literaturrecherche sowie der Evaluation möglicher Lösungsvarianten wurde das in dieser Arbeit behandelte Konzept umgesetzt, bei dem eine größtmögliche Ausfallsicherheit durch die Redundanz der eingesetzten Komponenten erreicht wird. Zu diesem Zweck werden zwei identische, von einander physisch unabhängige Systeme betrieben, die ihr korrektes Arbeiten ständig gegenseitig prüfen. Im Fehlerfall des primären aktiven Gateways übernimmt der zweite Rechner innerhalb kürzester Zeit dessen Aufgaben und stellt so einen nahezu unterbrechungsfreien Zugang zu den SAP Anwendungen sicher. Gernot Kurz Heart rate variability analysis of PICSO data Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Frank Rattay INSTITUT FÜR ANALYSIS UND SCIENTIFIC Abstrakt: PICSO (Pressure Controlled Intermittend Coronary Sinus Occlusion) stellt eine nicht-medikamentöse Behandlungsart für Herzinfarktpatienten dar. Es handelt sich hierbei um eine Form der Kathetertherapie, die bei einem akuten Myocardinfarkt bzw. während einer Bypassoperation eingesetzt werden kann. Bei diesem Verfahren wird ein Ballonkatheter im Koronarsinus platziert und periodisch inflatiert. Daraus resultiert eine pulsartige Blutrückstauung in das Ischämiegebiet des Herzmuskels. Dessen Nährstoffversorgung erfolgt somit retrograd über das venöse System. Die Infarktgröße wird deutlich reduziert, die bei einem Herzinfarkt entstehenden toxischen Stoffe, welche für den Zelluntergang verantwortlich sind, werden ausgeschwemmt. Diese Anwendung wurde im Rahmen von Tierversuchen an Hand von Schweinen im AKH Wien getestet. Nachdem bei den Versuchstieren ein 15-minütiger Infarkt ausgelöst worden war, erfolgte die COMPUTING Gemma Ferdinand Kaunang Benchmarks for Mechatronic Models Studium: Masterstudium Technische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Felix Breitenecker Abstrakt: Before a new product is launched to the market, a company have to test the product and make sure that the product is ready and presentable, especially if the product is a problem solving system, such as 129 130 2 ¾-stündige PICSO-Anwendung mit anschließender 60-minütiger Reperfusionsphase. Diese Diplomarbeit beschäftigt sich mit den Auswertungen der Signale, die während des Versuchs aufgezeichnet wurden. Es handelt sich dabei u.a. um den wichtigen Druckkurvenverlauf im Koronarsinus. So ein CSP-Zyklus besteht aus einer Inflations- und einer Deflationsphase. D.h., der Ballon wird im Gefäß zuerst aufgeblasen und danach wieder entleert. Für die Bestimmung der Herzratenvariabilität (HRV) ist eine Auswertung des EKG Signals erforderlich. Im Rahmen dieser Signalauswertungen soll geklärt werden, inwiefern sich die HRV in den einzelnen Phasen während der Intervention mit PICSO bzw. während der Inflations- und Deflationsphase ändert. Datenauswertungen ergaben zu Beginn der Inflationsphase eine mehr als doppelt so große Standardabweichung vom Mittelwert als gegen Ende der Inflationsphase. Da die Infarktgröße während des Tierversuchs nicht permanent messbar ist, erfolgt die Bestimmung der Infarktgröße mit Hilfe digitaler Bildaufnahmen vom entnommenen Herzen nach dem Tierversuch. einer allgemeinen biologischen Einführung, findet man in der vorliegenden Arbeit ein umfangreiches Kapitel über NEURON, sowie vergleichbare Simulationsumgebungen. Auch der plattformunabhängigen XMLModellbeschreibungssprache NeuroML ist ein Kapitel gewidmet. Die ausführliche Schilderung der Evaluierung inkl. Erläuterung der Verbesserungsvorschläge sowie ein Ausblick schließen diese Arbeit ab. Emine Yaman Telemedizin und mögliche Anwendungsgebiete Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Frank Rattay Abstrakt: In unserer heutigen Zeit ist es durch Übermittelungssysteme möglich jede Art von Daten zur Verfügung zu stellen und sie miteinander zu teilen. Während die Kommunikationstechnologien immer weiter entwickelt werden, werden auch die Anwendungsfelder dieser Technologien von Tag zu Tag immer breiter und unterschiedlicher. Internet ist ohne Zweifel das wichtigste Umfeld im Kommunikationsbereich. Der schnelle und erleichterte Zugang zu Informationen durch das Internet und die gesteigerte Datensicherheit im Internet brachten Begriffe wie Telebank, Telerecht, Teleuniversität zutage. Es sind viele Forschungen in der Telemedizin (Telemedicine) im Bereich der Behandlung über Entfernungen hinweg, Patientenbeobachtung oder dem Zuganz zu medizinischen Daten in Gange. Voralle. in Amerika und in Europa sind auf diesem Gebiet umfangreiche Projekte am Laufen und es werden grosse Investitionen getätigt. Der Grundsatz der Telemedizin beruht darauf trotz vorhandener Entfernung zwischen Patient und medizinischer Fachkraft, mit der Hilfe von elektronischen Informationrn und Kommunikationstechnologien eine medizinische Versorgung zu ermöglichen. Telemedizin wird als die Übermittelung von biomedizinischen und pysiologischen Daten von Personen die sich an einem entfernenten oder entlegenen Ort befinden, wie zum Beispiel sich im All befindliche Astronauten, Schiffspersonal auf hoher See oder Leuten in Gebieten wo es keine medizinischen Fachkräfte gibt, zum Zweck der wirkungsvollen Entscheidungsfindung an medizinische Zentren beschrieben. Bei telemedizinischen Systemen sind der Patient und die medizinische Fachkraft pysisch voneinander entfernt, sogar eine kontinentenübergreifende Situation und Kommunikation ist möglich. Durch die Fähigkeit des Internets jede Art von Daten, seien es jetzt Ton oder Bilddaten, zu übermitteln ist die medizinische Fachkraft in der Lage seinen Patienten auch ohne körperlich in seiner Nähe zu sein zu untersuchen, eine Diagnose abzuleiten und den Patienten zu behandeln. Im Laufe dieser Masterarbeit werden Information über Telemedizin übermittelt, es wird auf die Entwicklung, die Anwendungsfelder, den Standarten und den Kommunikationsmethoden der Telemedizin eingegangen. Heiko Reitner Der Einsatz von Computersimulationssoftware für Nervenzellenstimulation zu Lehrzwecken Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Frank Rattay Abstrakt: Mit dem rasanten Anstieg an Rechenleistung und dem hohen Preisverfall bei leistungsfähigen Computern, hat die Computersimulation – die ja im Großen und Ganzen aus der rechenintensiven Lösung von Differentialgleichungen besteht – auch auf handelsüblichen Computern Einzug gehalten. Dies führte auch dazu, dass die Simulation von Nervenzellen einen Aufschwung erlebt hat. Simulationsumgebungen wie NEURON, GENESIS oder NEST ermöglichen heute die brauchbare Simulation von einer einzigen Nervenzelle bis zu ganzen Nervensystemen auf einem einzelnen Computer. Im Zuge dieser Arbeit kam die Idee, das Simulationstool NEURON auf seine Brauchbarkeit für Unterrichtszwecke zu evaluieren. Es sollte den theoretischen Lehrstoff über Nerven anschaulich illustrieren und das Zusammenspiel der Neuronen demonstrieren. Zu diesem Zweck wurde mit einigen Schülern eines Oberstufengymnasiums sowie mit einigen Studenten der Biologie bzw. Medizin die Simulationsumgebung getestet. Nach einer eingehenden Evaluationsphase schilderten die Schüler bzw. Studenten ihre Erfahrungen und Eindrücke mit dem Simulationstool. Gemeinsam wurden anschließend Schwierigkeiten bei der Benutzung aufgezeigt. Die Nutzung des Simulationstools stellte sich gemeinhin als sinnvoll und hilfreich zum besseren Verständnis des Unterrichtsstoffs heraus. Auf Grund dessen wurden gemeinsam mit den Schülern und Studenten, anhand der getätigten Erfahrungen und dabei auftretenden Schwierigkeiten, Verbesserungsvorschläge für die künftige, noch bessere und einfachere Benutzung von NEURON, erarbeitet. Neben 131 132 erklärt werden können. Wir geben einen Überblick über die Entwicklung diverser Maße für die Lohnungleichheit. Wir widmen uns speziell dem Anstieg der College-Prämie und der residualen Lohnungleichheit, i.e. der nicht durch direkt beobachtbare Charakteristika der Arbeitsanbieter erklärbaren Lohnungleichheit. Anschließend setzen wir uns mit der Frage auseinander, ob der internationale Handel oder der technologische Fortschritt die wesentliche Triebfeder des Anstiegs der diversen Lohnungleichheiten gewesen ist, und beschreiben in diesem Zusammenhang diverse empirische Untersuchungen. Wir legen dar, welche empirischen Entwicklungen im Einklang bzw. im Widerspruch mit der Hypothese des technologischen Fortschritts stehen. Der verbleibende Teil der Arbeit widmet sich der Besprechung zweier endogener Wachstumsmodelle, in denen der technologische Fortschritt die Lohnungleichheiten verursacht. Im Speziellen zeigen wir, dass eine getrennte Betrachtung von technologischem Fortschritt und internationalem Handel, wie in der empirischen Literatur üblich, irreführend sein kann. INSTITUT FÜR WIRTSCHAFTSMATHEMATIK Jürgen Baumgartner Entwicklung und Bedeutung des Nash-Gleichgewichts Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi Abstrakt: Die Spieltheorie entwickelte sich von einer mathematisierten Disziplin zu einer mathematischen Disziplin. Eine der wichtigsten Hauptentwicklungen der Spieltheorie ist das Buch ?Theory of Games and Economic Behavior? von Neumann und Morgenstern. Dieses Buch ist die allererste Monographie über die Spieltheorie und weckte das Interesse an der Spieltheorie von John Nash. Die Anwendung der Spieltheorie betrifft Konfliktsituationen des menschlichen Daseins. Diese Konfliktsituationen werden als Spiel bezeichnet. Somit befaßt sich die Spieltheorie mit interaktiven Entscheidungssituationen, in denen die Ergebnisse der Akteure auch vom Verhalten der anderen abhängen. Jeder Akteur besitzt Handlungsalternativen (Strategien), die er zum Erreichen seiner Ziele benötigt. Um optimale Strategien der Spieler und Ergebnisse eines Spiels ermitteln zu können werden Lösungskonzepte verwendet. Eines der bekanntesten und bedeutendsten Lösungskonzepte der Spieltheorie stellt das Nash-Gleichgewicht dar. Die Definition des Nash-Gleichgewichts geht auf den Mathematiker John Forbes Nash Jr. zurück. Es beschreibt einen Zustand, indem kein Akteur von seiner Strategie abweicht, da sie die beste Antwort auf die Strategien der anderen Akteure ist und man kann, durch eine einseitige Abweichung, keinen Vorteil erzielen. Das Nash-Gleichgewicht wird auch strategisches Gleichgewicht genannt. Es existieren einige Praxisbeispiele des Nash-Gleichgewichts und eines der bekanntesten und berühmtesten Beispiele ist das Gefangendilemma. Das Gefangenendilemma ist ein Zwei-Personen-Nullsummenspiel und zeigt auf, daß rationale Entscheidungen zu kollektiv schlechteren Ergebnissen führen können. Da Spiele in ihrer Art und in ihren Erwartungen sehr unterschiedlich sein können, ergeben sich somit interessante Fragestellungen: Wie findet man ein Nash-Gleichgewicht? Besitzt jedes Spiel ein Nash-Gleichgewicht? Gibt es ein oder mehrere Nash-Gleichgewichte? Ist es die optimale Lösung des Spiels? Johannes Langthaler Der Stabilitäts- und Wachstumspakt und seine Schwächen: Ein Modell einer unabhängigen Regulierungsbehörde als geeigneter institutioneller Ansatz für eine gemeinsame Wirtschafts- und Währungsunion Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi Abstrakt: Im ersten Teil wird der Stabilitäts- und Wachstumspakt der Europäischen Wirtschafts- und Währungsunion in seiner Funktion und Arbeitsweise näher erläutert und in seinem rechtlichen Wesen dargestellt. Anhand seiner Entstehungs- und Entwicklungsgeschichte bis zur grossen Reform im Jahr 2005 werden die Schwachpunkte des Paktes herausgefiltert und sein Scheitern analysiert. Die Vielzahl der Vorschläge zu einer Reform des Paktes zeigt, dass nach wie vor kein Konsens darüber herrscht, welche Rolle Fiskalpolitik als (staatliches) Steuerungsinstrument der öffentlichen Ausgaben überhaupt einnehmen soll und welche ökonomischen Auswirkungen einer solchen zu erwarten sind. Einer dieser vielen Ansätze ist das Modell einer unabhängigen Regulierungsbehörde, unter anderem auch gefordert Ökonom Charles Wyplosz, dessen Ansatz für eine Regulierungsbehörde auf dem Zeitinkonsistenzenproblem von Kydland und Prescott (Nobelpreis für Wirtschaftswissenschaften 2004) basiert und eine Erklärung für das Auftreten eines deficit bias, also einer Abweichung vom ausgeglichenen Budget, liefert. Die optimale Fiskalpolitik wird anhand Parallelen zu einer (funktionierenden) gemeinsamen Geldpolitik der Europäischen Union definiert. Einige wesentliche relevante Aspekte und Konzepte der Theorie werden im zweiten Teil dieser Arbeit vorgestellt, diskutiert und miteinander verglichen. Der dritte Teil der Arbeit führt das Modell von Wyplosz und Krogstrup aus, die die Wirkung verschiedener institutioneller Ansätze anhand eines Modells mit einer inter-temporalen Christian Krestel Lohnungleichheit, technologischer Fortschritt und internationaler Handel Theorie und Empirie für die jüngste US-amerikanische Entwicklung Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Franz Hof Abstrakt: In dieser Arbeit untersuchen wir die Frage, wie die extremen Lohnentwicklungen in den USA in der zweiten Hälfte des 20. Jahrhunderts 133 134 Budgetrestriktion, basierend Zeitinkonsistenzenproblem, vergleichen. Das Modell wird dabei einer kritischen Analyse unterzogen, ob es den im zweiten Teil der Arbeit erläuterten theoretischen Grundkonzepten gerecht wird, und wo die Vorteile, aber auch die Schwächen des in dieser Arbeit vorgestellten Modells der unabhaängigen Regulierungsbehoörde, aber auch anderer institutioneller Vorschlaäge für die Regelung der Fiskalpolitik, liegen. Patrick Öhlinger An n-Sector Migration Simulation Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi Abstrakt: Workers, considering costs of migration, tend to migrate to sectors where they expect higher wages. In revers, firms trying to increase profits, migrate to sectors with lower wages. The result of their combined movement will determine wages in each sector. This inductive behavior model with various strategies for wage expectations yields patterns of migration in an n-sectors scenario. Starting with a note on migration, this work analyses three influential papers on migration and one on firm development. It concludes with an agent based n-Sector Migration Simulation encapsulating ideas, concepts and approaches of stated papers. Christoph Meller Ein Simulationsmodell der Finanzströme der Stadt Wien - Im Kontext der europäischen Richtlinien Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi Abstrakt: Seit der Gründung der Europäischen Union (EU) und der damit einhergehenden Verwirklichung einer gemeinsamen Wirtschafts- und Währungspolitik war und ist das Budget in Österreich, wie auch in den meistens anderen europäischen Ländern, verstärkt auf Konsolidierung ausgerichtet. Österreich, als eines von 11 Ländern die seit Beginn der EWWU im Jahr 1990 Mitglied sind, hat sich verpflichtet einen ausgeglichenen beziehungsweise im Überschuss befindlichen Staatshaushalt anzustreben und zu verwirklichen. Mein Ziel ist es, dem Leser im Zuge dieser Arbeit einen Einblick in die Finanzgebarung Österreichs zu verschaffen und dabei essentielle Themengebiete abzuhandeln um das grundsätzliche Verständnis zu fördern. Den Anfang bildet ein Kapitel über den „europäischen Stabilitäts- und Wachstumspakt“ das dem Leser Basiswissen über die vorhandenen Rahmenbedingungen und Entwicklungen bezüglich zukünftiger fiskalischer Ziele vermitteln soll. Das darauf folgende Kapitel beschäftigt sich mit der in Österreich vorherrschenden Ausgaben- und Einnahmenstruktur, wobei die zu erfüllenden Aufgabenbereiche des Staates und die dafür zur Verfügung stehenden notwendigen Einnahmequellen genauer analysiert werden. Das Hauptaugenmerk wird dabei auf die verschiedenen Steuern bzw. Abgabenarten gerichtet. Aufgrund der, im Vergleich mit anderen föderativen Staaten, geringen Selbstfinanzierung der Bundesländer kommt dem Finanzausgleich in Österreich eine besondere Bedeutung zu. Ein weiteres Kapitel wird dazu verwendet einen verständlichen Überblick über dieses durchaus komplexe Thema zu schaffen. Da der Inhalt der Diplomarbeit eingangs über die europäische Ebene führt und anschließend auf der Bundesebene fortgesetzt wird, soll die im letzten Kapitel dargestellte Entwicklung der Finanzgebarung der Stadt Wien einen konkretisierten Abschluss bilden. 135 Bin Wang Innovation, Growth, and Finance in Large Urban Agglomerations Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi Abstrakt: Das rapide Wachstum von Städten auf der ganzen Welt animierte die Entwicklung von Stadttheorien schon seit den Anfängen der achtziger Jahre. Die Theorie der Stadtpolitik besagt, dass politische Maßnahmen wie Preiskontrollen, Subventionen und andere, das Wachstum einer Stadt indirekt beeinflussen kann. Desweiteren begünstigen Information- und Wissensüberfluss die Urbanisierung und daher auch das wirtschaftliche Wachstum. In dieser Arbeit wird verstärkt Chinas Folgen aufgrund deren Urbanisierung behandelt, wobei Shanghai als Fallbeispiel gewählt wurde. Am Ende der Arbeit konnte gezeigt werden, dass, in Hinsicht auf die wirtschaftliche Struktur von Shanghai, die Stadt auf dem richtigen Weg zur globalen Metropole ist. Jedoch, leidet die Stadt auch unter enormes soziales Ungleichgewicht, wie Einkommensungleichheit. Außerdem fehlen vollständig definierte individuelle Eingentumsrechte, sowie Transparenz in Rechts- und Finanzsysteme. Ein wesentlicher Punkt ist auch Chinas Migrationsbeschränkungen. Diese verursacht „zu kleine“ Städte, was folglich zur Einschränkung der Produktivität der Stadt führt. 136 schwer einprogrammiert werden können, wie etwa Sprach- oder Gesichtserkennung. Neuronale Netze sollen den Lernvorgang, der im Gehirn stattfindet, nachbilden, um ähnliche Fähigkeiten zu erlangen. Auch hierfür werden einige Modelle vorgestellt. In der Natur arbeiten diese beiden Konzepte hervorragend zusammen. Daher liegt es nahe, die Bestandteile und Parameter von neuronalen Netzen durch genetische Algorithmen optimieren zu lassen. Leider treten dabei Schwierigkeiten auf, wie lange Laufzeiten oder mangelnde genetische Vielfalt. Es werden einige Lösungsvorschläge für diese Probleme erläutert. Eine mögliche Anwendung für genetische Algorithmen und neuronale Netze ist die Zeitreihenanalyse. Dafür gibt es zwar auch statistische Verfahren wie die lineare und nichtlineare Regression. Diesen ist aber jeweils ein bestimmtes Modell zugrunde gelegt, von dem man nicht weiß, ob es die Zeitreihe adäquat beschreibt. Mithilfe eines Programms von der Hochschule für Technik und Wirtschaft Dresden kann man Zeitreihen auch durch genetische Algorithmen und neuronale Netze analysieren lassen. Als Beispiel wurden die Tagesschlusskurse der Aktie der Deutschen Bank verwendet. Im Rahmen mehrerer Tests mit diesem Programm zeigt sich, dass nicht nur zu kleine, sondern auch zu große neuronale Netze sich negativ auswirken können. Schließlich wird jedoch ein neuronales Netz gefunden, das die Änderung der Aktienkurse hervorragend prognostiziert und damit die Leistungsfähigkeit von genetischen Algorithmen und neuronalen Netzen eindrucksvoll unter Beweis stellt. INSTITUT FÜR STATISTIK UND WAHRSCHEINLICHKEITSTHEORIE Markus Harich Internetsucht - psychosoziale Grundlagen und empirische Befunde Studium: Masterstudium Informatikmanagement BetreuerIn: Univ.Prof. Dr. Wilfried Grossmann Abstrakt: Vor einiger Zeit war der Begriff „Internet“ vielen Menschen nicht geläufig. Die Verbreitung und Benützung des Mediums Internet hat sich in den letzten Jahren jedoch rasant verändert. Heute weiß bereits jedes Kind, was das Internet ist und wie man es benutzt. Google, Chatrooms bzw. Onlinegames gehören bereits zum Alltag. Praktisch jedermann hat mittlerweile einen Internetzugang zu Hause, und es ist beinahe selbstverständlich, sich Informationen bzw. Musik aus dem Netz zu „saugen“. Durch die häufige und regelmäßige Benutzung des Internets wird es immer undurchsichtiger, wie viel Zeit man täglich online verbringt. Die Schwelle zwischen einer „normalen“, sinnvollen und zielorientierten Nutzung dieses Mediums kann schnell überschritten werden, was zu einer abnormen Nutzung und im schlimmsten Falle sogar zur Sucht führen kann. Viele nehmen diese Form der Sucht nicht wahr bzw. belächeln sie, jedoch gibt es schon genügend Studien bzw. Vorkommnisse, die die Internetsucht bestätigen. Durch den zunehmenden Internetkonsum werden viele Sachen vernachlässigt bzw. gar nicht mehr getan. Die sozialen Kontakte werden nicht mehr gepflegt, die eigene Beziehung leidet darunter und auch alltägliche Dinge, wie z.B. einkaufen gehen oder putzen, werden nicht mehr wahrgenommen. Ziel dieser Arbeit ist es, dem Leser einen Einblick in die Problematik des Internetgebrauches zu geben und es soll bewusst gemacht werden, dass eine neue Form der Sucht im Anmarsch ist. Weiters liegt das Interesse dieser Arbeit darin, anhand aktueller Studien, Untersuchungen und Umfragen einen Einblick in den Wandel des Sozialverhaltens durch den Einfluss des Computers und Internets zu geben. INSTITUT FÜR GEOINFORMATION UND KARTOGRAPHIE Robert Eggenhofer HOMER. Eine reale und virtuelle Schatzsuche. Studium: Masterstudium Informatikmanagement BetreuerIn: O.Univ.Prof. Dr. Andreas Frank Abstrakt: Das Projekt HOMER soll einen Lern- und Spielraum für Kinder von 8 bis 12 Jahren bieten. In einer Kombination aus einem Onlinespiel, einer GPS-basierenden Schnitzeljagd (Stichwort Geo-Caching), die mittels eines Handhelds/PDAs angeleitet wird, sowie realen, betreuten und unbetreuten Stationen, soll die Geschichte der kleinen Waldviertler Stadt Drosendorf kennen gelernt, und Wissen aus den Bereichen Biologie und Geschichte angesammelt werden. Ein weiterer Fokus liegt auf Gruppendynamik und sozialem Lernen innerhalb der Kindergruppe. Die TeilnehmerInnen sollen auch hinsichtlich Phantasie und Kreativität gefordert werden. Der Lerneffekt bei den TeilnehmerInnen tritt dadurch ein, dass sie sich zuerst Wissen aneignen und dieses dann im weiteren Spielverlauf praktisch anwenden müssen. Verschiedene Spielmethoden wurden getestet: Erreichen von Punkten, Geocaching § Shutterspot § 1, 2 oder 3 § Feuerlauf § Radu Ion Genetische Algorithmen und Neuronale Netze Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Karl Grill Abstrakt: Genetische Algorithmen versuchen, Prinzipien der Evolution (Mutation, Rekombination und Selektion) in Computerprogrammen nachzubilden. Dazu gibt es verschiedene Ansätze, deren Vor- und Nachteile kurz besprochen werden. Eines der Wunderwerke ist das menschliche Gehirn. Obwohl die Neuronen, aus denen es besteht, relativ einfach aufgebaut sind, ist das Gehirn zu Leistungen fähig, die einem Computer nur 137 138 Guckloch/Code § Nachtspiele Um die Ortsmarken der jeweiligen Spiele zu erreichen, wurden verschiedene Methoden der Wegführung implementiert: § Zeiger/Pfeil § Karte § Foto § Text § Lokale Informationen Die Lerninhalte sind in den Sparten Biologie (1. Klasse Volksschule, Tiere und Pflanzen), sowie Geschichte (2. Klasse Volksschule, Mittelalter) gegeben. Das entwickelte Spiel umfasst 13 Stationen, die einen Großteil der oben genannten Methoden verwenden. Am 30. Mai 2008 fand ein Testlauf mit 23 Kindern und 10 MitarbeiterInnen statt. Danach wurde eine umfassende Evaluierung der Methoden mit den Rückmeldungen der TeilnehmerInnen und der MitarbeiterInnen durchgeführt und das Spiel verbessert. Für die technische Umsetzung wurden Siemens LOOX n520 verwendet. Die Hypothese die der Masterarbeit zugrunde liegt lautet: Es kann ein Spiel für 8-12 Jährige in Form einer Schnitzeljagd entwickelt werden, das technisch mittels Handhelds/PDAs mit GPS-Funktionalität realisiert wird und Lernen, sowohl im fachlichen Bereich der Biologie und Geschichte, als auch im sozialen Bereich (Gruppendynamik, soziale Fähigkeiten, Softskills) ermöglicht. Über den Autor: Robert Eggenhofer ist Informatikmanagement-Student an der TU Wien und arbeitet daneben ehrenamtlich in der Katholischen Jungschar Österreich. Über den Betreuer: Prof. Dr. Anrdew U. Frank ist Vorstand des Instituts für Geoinformation und Kartografie an der TU Wien. Roman Novak Verwendung von Versionsmanagement-Werkzeugen für sicheres kooperatives Arbeiten mit CAD-Plänen Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Andrew Frank Abstrakt: CAD Pläne werden oftmals durch mehrere Personen überarbeitet. Unter Umständen kommt es auch zu Konflikten nach gleichzeitigen Änderungen. Bei einem Einsatz von Version Control Systemen können diese erkannt werden. Allerdings müssen Änderungen gesichtet und im Falle von Konflikten aufgelöst werden. Dies kann eine zeitaufwändige und mühselige Tätigkeit sein. Es soll eine einfache Möglichkeit geschaffen werden, mit der Konflikte und Änderungen an CAD Plänen eingesehen und gegebenenfalls aufgelöst werden können. Ein solches Tool soll nach Möglichkeit lizenzfrei und effizient handhabbar sein. Um kooperatives Arbeiten zu unterstützen, soll auch eine Anbindung an Version Control Systeme gegeben sein. Johannes Thiery Das europäische Satellitennavigationssystem - Finanzierbarer Auftrag für die europäische Wirtschaft oder finanzieller Gau? Marianne Herren Data Quality in Navigation Systems – A new approach to define User Groups Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Andrew Frank Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. Andrew Frank Abstrakt: GALILEO ist das europäische Satellitennavigationssystem, das zur politischen und wirtschaftlichen Unabhängigkeit von den USA ins Leben gerufen wurde und eine Alternative für das amerikanische GPS und das russische GLONASS bilden soll. Im Gegensatz zu den Vertretern der Europäischen Union haben die Industriepartner des Projekts ihr Vertrauen in die Rentabilität verloren und sich zurückgezogen. Der Markt im Bereich der Navigation und Positionsbestimmung ist sehr schwer einzuschätzen. Diese Arbeit soll ein Versuch sein, die Vorteile von GALILEO aufzuzeigen und damit einen möglichen Weg zur Refinanzierung der Entstehungskosten zu finden und abzuschätzen. Tatsächlich gibt es eine Reihe von Anwendungen, die dem verbesserten Angebot von GALILEO entsprechen und auch das Einheben von Gebühren rechtfertigen, jedoch gibt es keine Hinweise der Betreiber auf die Höhe der möglichen Gebühren. Neben einer technischen Gegenüberstellung der verschiedenen Satelliten-Navigationssysteme, wird vor allem versucht, Benutzergruppen zu finden, die potentielle GALILEO Kunden sind und herauszufinden, was die Beweggründe für die Verwendung von GALILEO sind. Des Weiteren gilt es herauszufinden, wie viele dieser potentiellen Kunden tatsächlich bereit sind, zu welchen Konditionen Positionsdaten zu kaufen. So die politischen Rahmenbedingungen für die einzelnen Benutzersparten entsprechend sind, scheint eine Finanzierung möglich. Diverse Versuche mit Schätzungen der möglichen Einnahmen untermauern diese Meinung. Auf alle Fälle hat sich die Europäische Union Abstrakt: Das Ziel der Diplomarbeit ist die Entwicklung eines Schemas für die Datenqualität in Navigationssystemen. Die Hauptfrage dabei ist, welche Qualität von Daten ist für welche Benutzergruppe akzeptabel. Das führt zu einer Neukategorisierung von Benutzergruppen von Navigationssystemen in städtischen Straßensystemen. Wichtig ist die Erfassung und Kategorisierung der einzelnen Benutzeraufgaben und daraus resultierenden Anforderungen an Daten, System und Applikation. Ziel ist es, die Datenmengen zu reduzieren oder zu verrauschen. Dieser Prozess führt zu einer möglichen Differenzierung innerhalb der Benutzergruppen. Neue Benutzergruppen können durch qualitativ schlechtere aber finanziell günstigere Lösungen angesprochen werden. Somit kann gezeigt werden, dass eine Verschlechterung der Datenqualität positive Auswirkungen auf die Verbreitungsmöglichkeit von Geo Information Produkten haben kann, weil somit neue Benutzergruppen angesprochen werden können. 139 140 entschlossen, das System fertig zu stellen, auch auf die Gefahr hin, dass die kommerzielle Finanzierung scheitert. Nicht zuletzt geht es bei dem Projekt nicht nur um politische Unabhängigkeit, sondern auch um wirtschaftliche Konkurrenzfähigkeit am Weltmarkt und die Belebung des Europäischen Weltraum-Programms. DEPARTMENT FÜR RAUMENTWICKLUNG, INFRASTRUKTUR- UND UMWELTPLANUNG Gerald Lenz Der Spion ""Online-Netzwerk"" Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: O.Univ.Prof. Dr. Franz Zehetner INSTITUT FÜR INTERDISZIPLINÄRES BAUPROZESSMANAGEMENT Abstrakt: Online Dienste erfreuen sich unter den Internet Benutzern immer größerer Beliebtheit. Gleichzeitig jedoch entwickeln diese User, aufgrund der vielen allgemeinen Geschäftsbedingungen eine Art „Wegklickmentalität“. Erscheinen nun im Internet Bestimmungen, denen es durch das Setzen eines Hakens zuzustimmen gilt, so wird meist der seitenlange Text einfach ungelesen bestätigt. Diese Arbeit beschäftigt sich mit den derzeit beliebtesten Internet Diensten, Facebook und Google. In Kapitel 1 wird die derzeitige datenschutzrechtliche Situation anhand des Datenschutzgesetzes 2000 aufgearbeitet und erläutert. Hierbei werden vor allem jene Paragraphen hervorgehoben, welche für einen durchschnittlichen Internetuser von Bedeutung sind. Kapitel 2 stellt die beiden oben genannten Vertreter vor und beschäftigt sich mit den Dienstleistungen, welche diese anbieten, sowie mit den Daten, die dafür gespeichert werden. Es wird weiters auf die so genannten Privacy Einstellungen eingegangen. Eine ausführliche Analyse der jeweiligen Allgemeinen Geschäftsbedingungen sowie Datenschutzerklärungen der Dienste findet sich in Kapitel 3 wieder. Dominik Dejmek Programmentwicklung für die Berechnung der Lebenszykluskosten von Brücken Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: O.Univ.Prof. Dr. Hans Georg Jodl Abstrakt: Der Arbeitskreis „Dauerhaftigkeit - Brücke“ der Österreichische Vereinigung für Beton- und Bautechnik hat das Institut für interdisziplinäres Bauprozessmanagement beauftragt ein Programm zur Berechnung der Kosten einer Brücke über den gesamten Lebenszyklus zu entwickeln. Um diese Lebenszykluskosten zu berechnen, muss die Brücke in drei Brückenbestandteile unterteilt werden: Unterbau, Rohtragwerk, Ausrüstungsteile. Das Programm besitzt neben der Berechnung der Lebenszykluskosten auch eine Darstellung des unverzinsten Kostenverlaufs sowie eine Berechnung von Ablösekosten. Mit der Methode Kostenverlauf unverzinst kann die Entstehung der Kosten (Errichtungskosten, jährliche Unterhaltskosten, Abbruchkosten) chronologisch dargestellt werden. Dies bietet eine gute Übersicht über Zeitpunkt und Höhe anfallender Kosten. Beim Lebenszyklusmodell hingegen werden die verzinsten Kosten dargestellt. Es werden Bar- und Endwert der Lebenszykluskosten berechnet. Somit kann die Brücke bewertet und mit anderen Brückenvarianten verglichen werden. Als Grundlage wird der unverzinste Kostenverlauf herangezogen und zusätzlich mit 4% verzinst. Das Ablösemodell wird beim Wechsel des Besitzers der Brücke angewandt, da dabei eine Ablöse fällig wird. Hierbei ist zu unterscheiden, ob die Brücke am Ende der Lebensdauer wieder neu hergestellt wird oder nicht. Zusätzliche Grafiken illustrieren die Verläufe der einzelnen Berechnungsmethoden. Diese Grafiken können sowohl im Endbericht als auch direkt im Programm angezeigt werden. Sie sind für die einzelnen Brückenbestandteile sowie für die Summe dieser erstellbar. Das Programm wurde in der objektorientierten und plattformunabhängigen Programmiersprache Java implementiert. Der Umfang sowie das Design des Programms ermöglichen eine einfache und weitreichende Verwendung des Programms, sowohl für Auftraggeber als auch für Brückenbauer auf viele Jahre hinaus. 141 Thomas Puchegger Entstehung und Kontrolle gefährlicher öffentlicher Räume Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: O.Univ.Prof. Dr. Jens Dangschat Abstrakt: Das öffentliche Räume in Städten zu gefährlichen und überwachten Hot-Spots werden, liegt häufig an der Lage der Plätze im städtischen Raum, sowie an den umliegenden und angrenzenden Gebieten. Die Planung der Stadt, sowie die räumliche Aufteilung der Gebiete und Plätze, entscheidet ob innerstädtische Räume als sicher oder als gefährlich eingestuft werden. Die einheimische Bevölkerung, als auch Touristen bevölkern öffentliche Plätze und besetzen den öffentlichen Raum in Städten. Durch die unterschiedlichen Ansichten entstehen aber möglicherweise Konflikte bei der Nutzung dieser öffentlichen Räume. Dies hat sich im Laufe der Zeit, zum Beispiel durch die fortschreitende Globalisierung, stark verändert. Die Nutzungsmuster sowie die Aufenthaltsqualität haben sich ebenfalls in den letzten Jahren geändert. Auf diese Umstände und die daraus resultierenden Konflikte wird in dieser Arbeit genauer eingegangen. 142 große Herausforderung dar. Vor allem vor dem Hintergrund, dass zumeist eine zentrale Lösung realisiert werden soll, bzw. mit dem gleichen Softwarestandard gearbeitet werden muss, um den Administrations- und Betreuungsaufwand auf einem Minimum zu halten. Diese Arbeit umfasst sowohl die theoretischen Grundlagen der juristischen Situation als auch die theoretischen Grundlagen der Signaturtechnik. Um die Herausforderung zu verdeutlichen und einen Einblick in die unterschiedlichen Gesetzgebungen zu ermöglichen, werden des Weiteren ausgewählte Länder beispielhaft präsentiert. Abschließend wird die Situation zusammengefasst, wobei auch das Ergebnis narrativer Interviews mit Experten für die elektronische Signatur die Situation untermauert. David Ringhofer Österreichs Weg zu einer Elektronischen Gesundheitsakte - eine datenschutzrechtliche Betrachtung Studium: Masterstudium Medizinische Informatik BetreuerIn: O.Univ.Prof. Dr. Franz Zehetner Abstrakt: Gesundheitsdaten gehören zu den sensibelsten, persönlichen Daten. Das Niveau an Vertraulichkeit dieser Informationen muss als sehr hoch eingestuft werden. Aufgrund der zunehmenden Vernetzung elektronischer Krankenakten, des Einsatzes medizinischer Informationssysteme und des Aufbaus nationaler und überstaatlicher Gesundheitstelematik ist insbesondere Bedacht auf die Schutzwürdigkeit von Patientendaten zu legen. Ein wichtiger Aspekt bei der Etablierung der genannten Innovationen im Gesundheitswesen ist daher beispielsweise die Abwehr von missbräuchlicher Verwendung, unbefugter Speicherung, nicht autorisiertem Zugriff. Diese Arbeit stellt sich der Herausforderung, Österreichs Weg zu einem nationalen EHR (electronic health record) nachzuzeichnen, den aktuellen Stand zu beleuchten und weitere Planung im Rahmen der österreichischen e-Health Strategie zu reflektieren. Dabei werden ähnliche Entwicklungen und Strategien im Ausland zum Vergleich herangezogen und der Frage, wie sich das Projekt ELGA charakterisieren lässt, nachgegangen. Sie beschäftigt sich mit dem Problem wie die Datensicherheit in elektronischen Gesundheitsakten gewährleistet werden kann und legt ein besonderes Augenmerk auf die Auswirkungen von ELGA auf den Datenschutz. Dabei werden denkbare Legitimationen zur Führung einer elektronischen Gesundheitsakte untersucht. Datenschutzrechtliche Konsequenzen werden analysiert, der bestehende gesetzliche Rahmen betrachtet und ein Fazit unter die Betrachtung gesetzt. INSTITUT FÜR FERTIGUNGSTECHNIK Pouria Samimi The Application of Fuzzy Logic in CNC Programming Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Peter H. Osanna Bayram Tuzcu Qualitätsmanagement im E-Commerce Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: O.Univ.Prof. Dr. Peter H. Osanna Abstrakt: Ziel dieser Arbeit ist es, Qualitätsmanagement im Sinne Electronic Commerce (E-Commerce) zu forschen. Alle Aspekte des Qualitätsmanagement im E-Commerce, im Hinblick auf die Gewährleistung der Kundenzufriedenheit, werden einzeln behandelt. Zuerst werden die grundlegenden Qualitätsbegriffe beschrieben und allgemeine Informationen über E-Commerce gegeben. Danach werden die wichtigsten Erfolgsfaktoren für E-Commerce- Unternehmen untersucht. In der Arbeit werden auch die Dimensionen der E-Servicequalität und Qualität von Webseiten betrachtet. Es wird versucht, einen Ausgangspunkt für Online-Händler zu schaffen, um die Kundenzufriedenheit laufend zu verbessern und Kunden an das Unternehmen anbinden zu können. Ulrike Weber Einführung in die Zentralisierung nationaler Signatursysteme gemäß der Richtlinie 1999/93/EG v. 13. September 1999 für Rechnungen im elektronischen Datenaustausch (Sub-Set EANCOM) mit Schwerpunkt Österreich und ausgewählten Ländern aus dem osteuropäischen Studium: Masterstudium Informatikmanagement BetreuerIn: Dr. Wolfram Proksch Abstrakt: Die vorliegende Diplomarbeit untersucht die Situation der elektronischen Signatur für Rechnungen, die im elektronischem Datenverkehr im B2B (Business to Business) Bereich (unter Verwendung des UN/EDIFACT Standards [United Nations Electronic Data Interchange For Administration, Commerce and Transport Standards]) am Osteuropäischen Markt ausgetauscht werden. Speziell im Kontext der international agierenden Handelshäuser und / oder der Industrie stellt die Erfüllung vieler unterschiedlicher Anforderungen der einzelnen Länder eine 143 144 Melanie Fraunschiel Sensortechnik für Schlagmessungen im Kampfsport INSTITUT FÜR MECHANIK UND MECHATRONIK Melanie Fraunschiel Biomechanische Schlaganalyse im Kyokushin-Karate Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Univ.Doz. Dr. Winfried Mayr, Medizinische Universität Wien Studium: Masterstudium Medizinische Informatik BetreuerIn: Univ.Doz. Dr. Winfried Mayr, Medizinische Universität Wien Abstrakt: Die Leistungsdiagnostik hat in der Kampfsportart KyokushinKarate bisher kaum Beachtung gefunden. Die trainingswissenschaftlichen Untersuchungen, die im europäischen Raum durchgeführt werden, beschränken sich vor allem auf Breitensportarten. Im Bereich der biomechanischen Technikanalyse im Kampfsport existieren einige Publikationen über Boxsport und Semi-Kontakt Karate. Keiner der Verfasser geht jedoch näher auf den Vollkontakt-Kampfsport Kyokushin-Karate ein, obwohl gerade in diesem traditionellen Kampfsport die Stärke und Präzision der Schläge zu einem KO des Gegners führen. Ziel dieser Arbeit ist es eine Instrumentierung für die Kraft- und Beschleunigungsmessung von Faustschlägen bzw. Beintechniken zu entwickeln. Sie soll den Kämpfern eine Rückmeldung über die Wirkung ihrer Schläge liefern, wodurch diese ihre Schlagtechniken perfektionieren können. Im Zuge dieser Arbeit werden fünf Sensoren analysiert, und falls sie sich als wertvoll erweisen, hergestellt und kalibriert. Drei von fünf Sensoren mussten im Laufe der Arbeit verworfen werden, da sie nicht den geforderten Ansprüchen gerecht wurden. Abstrakt: Laut diversen Reportagen [vgl.: Stern, 2006] und Publikationen [vgl.: Pierce, 2006] [vgl.: Walilko, 2005] hat ein Kampfsportler eine Schlagkraft die von 500N bis 7000N reicht. Diese Kraft kann Blutgefäße zum Platzen, Gefäße zum Verengen und Organe zum Verkrampfen bringen. Normalerweise führt sie zu einem KO oder schwerwiegenden Verletzungen. In dieser Arbeit wird speziell auf die verschiedenen Verletzungsmöglichkeiten eingegangen, die durch eine Kraftübertragung in diesem Ausmaß entstehen können. Im Kampf kommt es selten zu der Möglichkeit einen Schlag dieser Wucht am Gegner anzubringen. Durch Ausweich und Blockmanöver wird ein Großteil der Schlagkraft abgelenkt, die restliche Kraft wird durch Fett- und Muskelgewebe aufgenommen. Durch langjähriges Training werden die Muskeln auf die harten Schläge vorbereitet und angepasst. KyokushinKarate ist, vom Shotokan-Karate abstammend, eine der härtesten traditionellen Kampfsportarten. Leistungsorientierte Kämpfer des KyokushinKarate Stils trainieren Jahre lang ihre Muskeln, um eine größere Widerstandsfähigkeit gegen Schläge aufzubringen, da mit vollem Kontakt und beim Turnier bis zum KO gekämpft wird. In dieser Arbeit dienen erfahrene Kyokushin-Karateka als Probanden für die Messung von physikalischen Wirkungskomponenten, die den Grad der Schlagwirkung bestimmen. Ziel dieser Untersuchung ist es, mit Hilfe moderner Sensortechnik, welche im Zuge der Diplomarbeit „Sensortechnik für Schlagmessungen im Kampfsport“ [vgl.: Fraunschiel, 2008] entwickelt wurde, die Beschleunigung und die Kraft der Schläge zu messen. Schläge, die auf einem Boxsack ausgeführt werden, werden mit jenen verglichen, die auf ein im Boden verankertes Holzbrett (Makiwara) durchgeführt werden. Der Boxsack repräsentiert einen mit Fettgewebe behafteten Oberkörper, das Makiwara einen muskulösen Körper. Als Unterstützung für die Bewegungsanalyse dienen drei High-Speed Kameras, die die Bewegungen filmen und anhand der Daten nachfolgend verschiedene Berechnungen durchgeführt werden können. Diese Informationen werden herangezogen um die Effizienz der einzelnen Techniken untereinander zu vergleichen und bestehenden Messwerten gegenüber zu stellen. 145 Urban Stadler Slotted Real Time SPI Interface for FPGA´s Studium: Masterstudium Technische Informatik BetreuerIn: Em.O.Univ.Prof. Dr. Peter Kopacek Abstrakt: In Zukunft werden menschenähnliche Roboter eine wichtige Rolle in unserem täglichen Leben spielen. Sie werden in der Lage sein gefährliche oder monotone Aufgaben für den Menschen zu erledigen, oder uns bei alltäglichen Aufgaben zu unterstützen. Seit einigen Jahren wird in diesem Bereich intensiv geforscht und entwickelt. Obwohl bis heute eine beträchtliche Menge an Geld und Zeit in dieses Gebiet investiert worden ist, sind bei weitem noch nicht alle Probleme gelöst und es wird noch einige Jahre dauern, bis voll funktionsfähige menschenähnliche Roboter existieren. Das Institut für Handhabungsgeräte und Robotertechnik beteiligt sich in Forschung und Entwicklung an diesem sehr interessanten Gebiet mit dem Ziel, einen menschenähnlichen Roboter zu bauen der fähig ist, Fußball zu spielen. Auf den ersten Blick betrachtet, scheint das Problem eine etwas spielerische und praxisferne Aufgabe zu sein. Im Detail betrachtet, beinhaltet diese Aufgabenstellung aber viele äußerst komplexe Probleme, die auch für eine Vielzahl von Anwendungen jeglicher Art zu lösen sind. Der Focus dieser Diplomarbeit liegt darin ein einfaches, robustes und leistungsfähiges Bus System zu entwickeln. Dieses Bus System soll in Folge alle wichtigen Sensoren und Aktuatoren mit der Zentralen Recheneinheit 146 verbinden. Die Schwierigkeit lag nun darin verschiedene Anforderungen wie Echtzeitfähigkeit, mehrere Slaves pro Bus und hohe Flexibilität so kostengünstig wie möglich zu implementieren. INSTITUT FÜR MANAGEMENTWISSENSCHAFTEN Christian Altrichter Die Integration querschnittgelähmter Personen in den österreichischen Arbeitsmarkt unter besonderer Berücksichtigung der IT-Branche Martin Stubenschrott Collision avoidance in a multi-agent system Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. Franz Wojda Studium: Masterstudium Intelligente Systeme BetreuerIn: Em.O.Univ.Prof. Dr. Peter Kopacek Abstrakt: Diese Masterarbeit beschäftigt sich mit der Integration von querschnittgelähmten Personen in den österreichischen Arbeitsmarkt unter besonderer Berücksichtigung der IT-Branche. Behinderte Personen werden in unserer Gesellschaft massiv benachteiligt. Im Zuge der beruflichen Integration werden querschnittgelähmte Personen aufgrund der Behinderung sehr oft schlechter behandelt als Personen ohne Einschränkungen. Meis-tens bekommen sie aufgrund der Behinderung gar nicht die Möglichkeit, in einer Firma zu arbeiten. Und wenn querschnittgelähmte Personen eine geeignete Anstellung finden, werden sie im Zuge des alltäglichen Berufslebens von anderen Personen diskriminiert, was sich sehr negativ auf die Motivation der behinderten Personen auswirkt. Aus diesem Grund ist die berufliche Integration von querschnittgelähmten Personen mit vielen Schwierigkeiten verbunden. In dieser Masterarbeit wird ausführlich beschrieben, wie querschnittgelähmte Personen die berufliche Integration im Bereich der IT-Branche erfolgreich gestalten können. Dabei werden sowohl die Arten der Querschnittlähmung als auch die einzelnen Berufe der IT-Branche näher beschrieben. Mit einer erfolgreichen beruflichen Integration sind bei querschnittgelähmten Personen auch ergonomische Innovationen und unterstützende Projekte verbunden, die ebenfalls näher erläutert werden. Diese Arbeit zeigt auf, wie der Prozess der beruflichen Eingliederung effizient gestaltet werden kann, wodurch viele Integrationsbarrieren reduziert werden können. Abstrakt: Das Ziel von Kollisionsvermeidung ist es einen Pfad zum Ziel eines Objektes zu finden ohne mit anderen statischen bzw. beweglichen Hindernissen zu kollidieren. Zusätzlich soll dieser Pfad möglichst kurz sein ohne jedoch das Risiko einzugehen, mit anderen Objekten zu kollidieren. Der Bedarf an ein solches System ist hoch, da die meisten Roboter eine Kollisionsvermeidung benötigen, aber auch andere Anwendungen wie selbstfahrende Fahrzeuge profitieren davon. Das Ziel dieser Diplomarbeit ist es, einen Algorithmus zur Kollisionsvermeidung in einem Multiagentensystem zu entwerfen, zu implementieren und zu testen. Die Wahl fiel darauf, ein existierendes Roboterfußball-Framework des IHRT Instituts der Technischen Universität Wien als Basis dafür zu verwenden. Denn obwohl das IHRT eine lange und erfolgreiche Tradition im Roboterfußballspielen hat, fehlt bisher ein ordentliches Kollisionsvermeidungsmodul. Außerdem – und noch viel wichtiger – kann man Roboterfußball als Paradebeispiel für ein Multiagentensystem ansehen da es intelligente Kommunikation zwischen den einzelnen Robotern benötigt. Der Algorithmus wird dazu in zwei Teile gespalten: Als erstes versuchen wir müglichst viele Informationen uber die nächste Kollision zu erhalten und kategorisieren diese in drei unterschiedliche Kollisionstypen (frontal, rechtwinkelig oder schräg). Auf Grund dieser Informationen versucht der Algorithmus die bevorstehende Kollision mit Hilfe von zwei Strategien zu vermeiden: Wir verändern den Pfad von einzelnen Robotern indem wir entweder deren Richtung oder deren Geschwindigkeit ändern. Das System wird evaluiert, indem man zwei Roboter auf vordefinierte bzw. zufällige Pfade schickt. Nun zählen wir die Anzahl der Kollision und berechnen die Durchschnittsgeschwindigkeit sowohl mit ein- als auch ausgeschalteter Kollisionsvermeidung. Dadurch können wir herausfinden, ob der vorgeschlagene Algorithmus gut funktioniert und wo es noch Probleme gibt. 147 Christoph Angermann Problemfindung im Reklamationsprozess Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ass.Prof. Dr. Peter Kuhlang Abstrakt: Die vorliegende Diplomarbeit beschäftigt sich mit dem Thema Beschwerde- bzw. Reklamationsmanagement sowie dem Finden von Verbesserungspotenzialen in diesem Prozess. Am Anfang wird ein Überblick über das Thema Prozessmana-gement gegeben. Danach wird auf die Materie des Beschwerdemanagement eingegangen. Dies beginnt mit einer Begründung, warum Unternehmen diesem Themengebiet besondere Aufmerksamkeit schenken sollten. In weiterer Folge wird die Positionierung des Beschwerdemanagements im Unternehmen erörtert. Der nächste Teil befasst sich mit der theoretischen Gliederung des Beschwerde148 managements und den daraus resultierenden Einzelteilen des Prozesses. Hier wird auf den Aufbau der Einzelteile eingegangen. Weiters werden die Überlegungen betrachtet, welche bei einer Umsetzung angestellt werden müssen. Mit diesem Punkt endet gleichzeitig auch der theoretisch Teil der Arbeit. Im zweiten praktischen Teil werden die im Theorieteil vorgestellten Methoden in der Praxis angewandt. Es wird der Reklamationsprozess einer Firma nach Verbesserungspotenzial in Richtung Aufbau und Ablauf untersucht, die gewählte Vorgehensweise vorgestellt und Auszüge aus den Ergebnissen präsentiert. Philipp Guggenberger Design and prototyping of a flexible value-at-risk measurement system Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Dangl Abstrakt: In der Finanzwelt wird der Quantifizierung des Marktrisikos von Finanzinstrumenten eine immer größere Rolle zugeteilt. Es existieren eine Reihe von Paradebeispielen, die zeigen, welch eklatante Auswirkungen ein schlechtes Riskomanagement haben kann (s. z.B.: Konkurs Barings Bank 1995 oder auch die Auswirkungen der Verluste der BAWAG). Die Risikoevaluierung ganzer Portfolios ist mit einer großen Anzahl an einzelnen Berechnungen verbunden. Zusätzlich kann beobachtet werden, dass die Finanzprodukte immer komplexer werden und damit auch die Bewertung einen erhöhten Aufwand darstellt. Dies erfordert den Einsatz von dynamischen Softwaresystemen, die eine ständige Erweiterung und Verbesserung der existierenden Riskomodelle erlauben. Das Ziel dieser Arbeit war es, ein flexibles Risikomanagementsystem zu planen und auch teilweise zu implementieren. Die Eigenschaft „flexibel“ bezieht sich im Speziellen auf die Möglichkeit einer einfachen Erweiterbarkeit der vorhandenen Instrumente, aber auch eine offene Implementierung des gesamten Systems wurde angestrebt. Die Arbeit stützte sich hierbei auf zwei relativ neue Softwareentwicklungsansätze, SOA (service oriented architecture) und EDA (event driven architecture). Der erste Teil der Arbeit beschäftigt sich mit der allgemeinen Architektur des Systems und der Identifikation und Orchestrierung der benötigten Prozesse. Der zweite Teil befasst sich allgemein mit dem Riskomanagement von Finanzinstrumenten, wobei der Hauptschwerpunkt auf den in den letzten Jahren sehr populär gewordenen value at risk Verfahren liegt. Im Speziellen werden die unterschiedlichen Ansätze bei der Evaluierung von nicht linearen Investments (z.B.: Aktienoptionen) beschrieben, die im Anschluss auch im Prototypen implementiert wurden. Der dritte Teil beschreibt den mittels EDA entwickelten Prototypen, diskutiert die Vor und Nachteile des Softwareentwicklungsprozesses und präsentiert die Ergebnisse der unterschiedlichen Riskobewertungsmodelle. Imane Benmoumen Die Algerische Wirtschaft zu Beginn des 21. Jahrhunderts Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Priv.Doz. DDr. Alfred Barth Abstrakt: Hauptziel dieser Masterarbeit war es, die Bewertung der Methoden des Erneuerungsprogramms der industriellen Unternehmen in Algerien und ihrer Umgebung durch einen geordneten Komplex von Konzepten und angepasster Strategien darzustellen. Zunächst war es wichtig, die Eckpunkte der Politik, der Leistungen der algerischen Industrie seit der Unabhängigkeit bis zu den Reformen internationaler Integration zu analysieren (Kapitel 1). Um die Dimension dieser Problematik durch die Bedeutung der Unternehmenserneuerung in der Perspektive der Liberalisierung der algerischen Wirtschaft zu vertiefen, wurde zunächst eine Einschätzung der industriellen Wettbewerbsfähigkeit auf internationaler Ebene vorgenommen (Kapitel 2). Ausgehend davon war es notwendig, die Erneuerung der Unternehmen durch ihre theoretischen und empirischen Grundlagen, sowie ihre Ziele und Akteure zu identifizieren (Kapitel 3).Eines der wesentlichen Ziele dieser Arbeit ist es, neben den theoretischen Aspekten des Erneuerungsprogramms auch die hierbei angewendeten Methoden zu analysieren (Kapitel 4). Der letzte Punkt dieser Arbeit besteht aus einer praktischen Studie, deren Wichtigkeit für die Überlegung zu den Praktiken der Erneuerung in der algerischen Industrie maßgebend ist, besonders in der agrar- und ernährungswirtschaftlichen Branche. Er umfasst eine Zusammenfassung von Statistiken und Informationen, welche die Branche und drei Unternehmen (ENCG Oran, AIDA Konditorei, GINI Eis) sowie eine allgemeine Feststellung über die Erarbeitung des Programms betrifft (Kapitel 5). Christoph Hofer Analyse ausgewählter Logistiksoftware - Konzept für eine erfolgreiche ITUnterstützung in der Logistik Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas Abstrakt: Zu Beginn dieser Arbeit wurden Definitionen und Ziele zum Überbegriff „Logistik“ erläutert um einen Einstieg in das Supply Chain Management zu ermöglichen. Nach den Erklärungen der betriebswirtschaftlichen Seite der IT-Logistik wurde der Übergang zu den 149 150 Informationssystemen in diesem Bereich veranschaulicht. Welche Arten/Typen von Logistik-Software gibt es und worin liegen ihre Stärken? Auch wurde der Versuch unternommen eine Abgrenzung zwischen den Softwaretypen vorzunehmen um Klarheit für den Leser zu schaffen. Anschließend wurde überblicksmäßig auf ausgewählte Softwareprodukte eingegangen welche sich zum gegenwärtigen Zeitpunkt am Markt befinden. Es wurde versucht zu eruieren welche Produkte für welche Logistikbereiche einsetzbar sind. Dabei wurde auch kurz auf die Softwareproduzenten eingegangen um die jeweiligen Software-Pakete im Gesamtkontext betrachten zu können. Danach wurde eine überblicksmäßige Analyse aufgrund von vorhandenen Untersuchungsdaten vorgenommen. Auch wurde wegen der Aktualität der Thematik auf RFID (Radio Frequency Idendification) und ATLAS (Automatisierte Tarif- und Lokale Zoll-Abwicklungs-System) eingegangen. Äußerst wichtig ist die Vorgangsweise bei der Einführung von logistischen Informationssystemen. Daher wurden detailliert Phasen von ITProjekten mitsamt unterschiedlichen Vorgehensmodellen erläutert. Ein wichtiger, wenn nicht sogar der wichtigste Baustein eines IT-Projektes ist seine Wirtschaftlichkeit. Diese wurde in groben Zügen diskutiert. Um „hinter die Kulissen“ blicken zu können und um zu erfahren wie Logistik-Software in der Praxis eingesetzt wird wurden Fallbeispiele angesehen und Fachexperten dazu befragt. Aufgrund dieser Gespräche, Literaturrecherchen und eigenen Erfahrungen wurde der Versuch unternommen ein Konzept für die Auswahl bzw. Einführung von Logistik-Software zu erstellen. Natürlich kann dieses nur als Rahmenwerk fungieren und muss je nach Situation angepasst werden. Das heißt, dass die Parameter jedes einzelnen Projektes unterschiedlich sind und daher jedes Projekt als einmalig anzusehen ist. Auf die klassische Implementierung, also sprich auf die Programmierarbeit wurde im Rahmen dieser Arbeit aus zweierlei Gründen nicht eingegangen: Erstens hängt es von Faktoren (Umfang, eingesetzter Programmiersprache, Teamstärke, Zeitrahmen usw.) ab, die man nicht abschätzen kann und zweitens hätte eine ausführliche Erläuterung der Entwicklungstätigkeiten den Umfang dieser Arbeit gesprengt. Zur Abrundung wurde ein Unterrichtsdesign zum ITLogistik-Einsatz im Rahmen einer universitären Lehre entwickelt. Groupware-Anwendungen, unterstützt. In dieser Arbeit werden die technischen Hintergründe, die Entstehung und verschiedenen Anwendungen von CSCW erläutert. Spezielle Anwendungen zu diesem Thema, die in zwei Projekten, im Zuge der Diplomarbeit, angewendet wurden, werden näher betrachtet.Zu einem ist das die von Microsoft entwickelte KollaborationsPlattform SharePoint Server 2007. Hierbei wird wiederum zwischen zwei verschiedenen Portalen gewählt. Das Zusammenarbeitsportal, welches stark die Kollaboration zwischen Personen unterstützt, und ein Veröffentlichungsportal, welches als Hauptaufgabe Informationen bereitstellt. Diese zwei Portale können jedoch auch gut kombiniert werden. Dies wurde mit der Erstellung einer Konferenz-Website demonstriert. Die zweite Groupware-Anwendung die untersucht wurde, waren kollaborative Lernumgebungen. In diesen Kapiteln lag das Hauptaugenmerk auf Forschungsergebnissen, die erfolgreiche Lernplattformen umgesetzt haben und daraus Theorien entwickelten. Die praktische Aufgabe dieses Themas war die Konzeption eines ‚Blended Learning'-Kurses am Insitut. Michael Kneissl Unternehmensgründung im IT-Sektor, Softwareentwicklung für Ärzte (Konzeption -- Schulung -- Wartung) Studium: Masterstudium Informatikmanagement BetreuerIn: Univ.Doz. Dr. Leopold Sögner Abstrakt: Unternehmensgründung, Firmengründung, Existenzgründung oder Entrepreneurship -- diese Schlagworte sind derzeit sehr aktuell. Im Rahmen dieser Arbeit wird im spe-ziellen auf die Gründung im Bereich der Softwareentwicklung für Ärzte und des Webdesigns und des Consulting eingegangen. Die Gründung eines Unternehmens ist ein großer und gewagter Schritt in eine unsichere Zukunft und bedarf einer guten Vorbereitung und dazu ist eine umfangreiche Informationssuche notwendig. Um angehenden Jungunternehmern diese Suche nach Informationen zu vereinfachen, sind die wichtigsten Schritte und einzelnen Phasen in dieser Arbeit zusammengefasst. Es werden die Voraussetzungen und Rahmenbedin-gungen einer Gründung erläutert, die Bereiche Marketing, Finanzierung, Organisati-on und Planung und der Punkt Mitarbeiter behandelt. Im Kapitel Rahmenbedingun-gen wird im speziellen auf die Wahl der Unternehmensform eingegangen und 3 Varianten verglichen: die Gesellschaft mit beschränkter Haftung, die Private Company Limited by Shares und die Sociedad de Responsabilidad Limitada. Ein weiteres Kapitel widmet sich der Gestaltung des Business Plans, der wichtigste Punkt im Rahmen der Gründung, wenn es darum geht, Investoren für das Unternehmen zu gewinnen. Im letzten Teil der Arbeit folgt die praktische Umsetzung des behandelten Themas mit der Entwicklung eines Business Plans für die OneInAll Solutions Limited, ein Unternehmen, das Software für Ärzte entwickelt und auch im Bereich Webdesign und Consulting tätig ist. Anna Kirchweger Analyse und Umsetzung von virtuellen Kollaborations-Plattformen zur Gestaltung von Webauftritten und im universitären Lehrbetrieb Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Ass.Prof. Dr. Peter Kuhlang Abstrakt: Virtuelle Kollaboration ist, dank leicht bedienbarer Webapplikationen, in den letzten Jahren sehr populär geworden.Durch die technische Vernetzung rund um den Globus findet eine enorme Verteilung von Wissen statt. Um dieses Wissen gezielt einsetzen zu können benötigt es ein gewisses Management von diesem. Das wird wiederum, durch Werkzeuge wie ‚Computer Supported Cooperative Work'(CSCW)- bzw. 151 152 DataBar sind in der Lage zusätzlich zur global eindeutigen Produktnummer auch Zusatzdaten in standardisierter Form zu übergeben. Dazu werden sogenannte Application Identifier eingesetzt, die als Datenbezeichner dienen. Diese sind vom GS1-128 Symbol bekannt, und werden insbesondere in der Warenlogistik eingesetzt. Im Gegensatz zu diesem Symbol können Versionen des GS1 DataBar jedoch auch lageunabhängig (omnidirektional) gelesen werden und eigenen sich daher besonders für Erfassungsvorgänge am POS im Kassenbereich wo eine zuverlässige und schnelle Identifikation unbedingt erforderlich ist.Der GS1 DataBar folgt durch seine Flexibilität auch dem Trend weg von der reinen Produktunterscheidung hin zur Identifikation von Chargen und sogar einzelnen Artikelidentitäten (Seriennummer). Langfristig wird der GS1 DataBar die Lücke zwischen zukünftigen RFID-Lösungen und kostenkritischen, auflagenstarken Anwendungen schließen. Die konkreten Bedürfnisse des Handels und der Industrie werden die Verbreitung des GS1 DataBar maßgeblich beeinflussen. Patrick Kolomaznik Analyse und Bewertung des Projektmanagements in einem projektorientierten Unternehmen am Beispiel T-Mobile Austria Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. Franz Wojda Abstrakt: Das Thema Projektmanagement gewinnt in den letzten Jahren immer mehr an Bedeutung. Ein Grund dafür ist sicherlich der rasante Anstieg komplexer Aufgaben in Unternehmen, wodurch immer öfter eine Strukturierung als Projekt notwendig wird. Um die Konkurrenzfähigkeit auf dem jeweiligen Markt zu erreichen, wird sehr häufig die Organisationsform eines projektorientierten Unternehmens gewählt. In dieser Arbeit wird auf die Wichtigkeit von Projektmanagement in Unternehmen dargestellt und diskutiert. Aufgrund der guten Einblicke in die Projekmanagement-Strukturen wurde T-Mobile Austria als Unternehmen herangezogen. Der Leser wird zunächst in die Grundbegriffe des Projektmanagements eingeführt. Nach einer kurzen Vorstellung und Beschreibung des Unternehmens T-Mobile folgt ein theoretischer Exkurs in das Thema „projektorientierte Organisation“. Die letzten beiden Kapitel befassen sich dann mit der Analyse und Bewertung des Projektmanagement-Prozesses bei T-Mobile. Dabei kommt die erlernte Theorie des vorangegangen Kapitels zur Anwendung. Im Bewertungsteil konnte festgestellt werden, dass es sogar in einem Unternehmen wie TMobile Verbesserungspotentiale in den Bereichen der Strukturierung, der Kulturweiterentwicklung und sogar bei den Projektmanagement-Standards vorhanden sind. Die regelmäßige Durchführung von Projektaudits ist hier nur eine der möglichen Maßnahmen, die zur Effizienzsteigerung beitragen sollen. INSTITUT FÜR ELEKTRISCHE ANTRIEBE UND MASCHINEN Michael Gamper Entwicklung der Software-Schnittstelle eines Internet-gesteuerten Positionierantriebes für E-Learning Studium: Diplomstudium Informatik BetreuerIn: Ao.Univ.Prof. Dr. Thomas Wolbank Abstrakt: Die vorliegende Arbeit behandelt die Konzeption und Implementierung einer Internet-gesteuerten Laborübung. Als Teil des Leonardo da Vinci-Projekts zur Förderung der Berufs- und Weiterbildung (EDIPE) soll die Laborübung in ein europaweites Netzwerk von OnlineLaborübungen eingegliedert werden, welches Studenten der Elektrotechnik einfachen Zugang zu praxisbezogener Ausbildung ermöglicht. Einen Schwerpunkt dieser Arbeit stellt der Entwurf einer geeigneten Schnittstelle zwischen Labor-Hardware und Student dar, welche den Anforderungen an ein praxisorientiertes E-Learning-System gerecht wird. Die SoftwareSchnittstelle übernimmt neben der Mensch-Maschine-Kommunikation in Form eines GUI, das dem Studenten als Browser-Plugin zur Verfügung gestellt wird, die Aufgabe der Kommunikation mit der Laborübung. Durch die räumliche und zeitliche Trennung des Studenten vom Labor entstehen neue Anforderungen an die Laborübungs-Software. Dazu zählen das zur Verfügung Stellen eines geeigneten Hilfe-Systems (Hypertext), neuer Kommunikationskanäle und Feedback-Möglichkeiten zwecks Bewertung und Evaluierung (Webcam, elektr. Laborbericht). Da im Laufe des Laborübungsbetriebs häufige Änderungen und Erweiterungen des Systems zu erwarten sind, liegt das Hauptaugenmerk auf der Implementierung einer einfach zu administrierenden und erweiterbaren Software. Diesen Zielen Simon-Alexander Zerawa Auswirkungen und Möglichkeiten der GS1 DataBar Einführung als Ergänzung bestehender Barcodesysteme Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas Abstrakt: Mit Jänner 2010 wird eine neue Strichcodesymbologie für die globale Identifikation von Handelswaren freigegeben. Der GS1 DataBar ist kleiner als derzeitige Barcodes und kann mehr Daten auf gleichem Raum darstellen. Die beschriebene Masterarbeit beschäftigt sich mit den Auswirkungen dieser Einführung und geht auf mögliche Einsatzszenarien des neuen Barcodes ein. Die neue Symbolfamilie des GS1 DataBar (ehemals RSS für Reduced Space Symbology) berücksichtigt nicht nur neue Anforderungen sondern ermöglicht auch zahlreiche bis jetzt nur umständlich lösbare Anwendungen. Der etwa um 50% kleinere GS1 DataBar kann in seiner Standardversion die gleichen Daten wie der EAN-13 Strichcode darstellen und eignet sich so vor allem für kleine und lose Produkte, die bisher nicht gekennzeichnet werden konnten. Expanded Versionen des GS1 153 154 wird durch die Programmierung passender Administrator-Werkzeuge und durch die Anwendung von Entwurfsmustern Rechnung getragen. Da die Laborübungs-Software als sicherheitskritisches System angesehen werden muss, fließen schlussendlich auch Security- und Safety-Überlegungen in die Arbeit mit ein, die sich mit der Sicherung des Systems gegen Angriffe aus dem Netzwerk bzw. gegen Fehler auseinandersetzen. Als Ergebnis dieser Arbeit ermöglicht die Schnittstellen-Software die Steuerung der Motion Control-Laborübung über das Internet und die Eingliederung in das ELearning-Netzwerk des EDIPE-Projekts. INSTITUT FÜR COMPUTERTECHNIK Sandor Biro Robot4Web Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich Abstrakt: Robot4Web ist ein Projekt, erstellt für didaktische und demonstrative Zwecke. Ziel dieser Diplomarbeit ist: einen Roboter herzustellen, der in erster Linie über ein FPGA-Board programmierbar und steuerbar ist. Darüber hinaus besteht die Möglichkeit, den Roboter mit Hilfe einer in FPGA programmierte Anwendung, über eine serielle Schnittstelle direkt anzusteuern. Sämtliche Bewegungen des Roboters, aber auch seine Umgebung werden mit einer Webkamera erfasst, die ebenfalls mit dem FPGA verbunden ist. Durch diese Tatsache wird ermöglicht, dass in weiterer Folge Forschungsarbeiten auf dem Gebiet der künstlichen Intelligenz durchgeführt werden können. Die Anbindung des Roboters an den PC wird über ein FPGA-Programmierkabel und über ein RS232-Kabel stattfinden. Die gesamte Entwicklungsumgebung für die FPGAProgrammierung, und dadurch für den Roboter, ist mit Hilfe einer Webanwendung realisiert worden. Damit wird die Einsetzbarkeit des Systems im Bereich des E-Learning ebenfalls ermöglicht. Michael Riepler Kompensation von Totzeiteffekten und Realisation von sensorlosen Regelungsstrukturen für umrichtergespeiste Asynchronmaschinen Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung BetreuerIn: Ao.Univ.Prof. Dr. Thomas Wolbank Abstrakt: Die sensorlose feldorientierte Regelung von Drehstromasynchronmaschinen wird vermehrt der Regelung mit Drehgeber vorgezogen. Um den Sensor auf dem Motor einsparen zu können, muss die Rotorflusslage hierbei aus Messungen elektrischer Größen bestimmt werden. Vielfach werden Grundwellenmodelle wie das Spannungsmodell eingesetzt, das aber im tiefen Drehzahlbereich keine brauchbaren Ergebnisse liefert. Aus heutiger Sicht ist der sensorlose Betrieb bis zum Flussstillstand nur mittels Injektionsmethoden oder ahnlicher Verfahren möglich. Der erste Teil dieser Arbeit beschäftigt sich mit der Kompensation von Totzeiteffekten des verwendeten Umrichters während eines InformZyklus. Die Totzeit verhindert während den Schalthandlungen einen Kurzschluss über dem Zwischenkreis im Umrichter, indem die Schaltimpulse verzögert angelegt werden. Diese Totzeit beeinflusst allerdings die InformAuswertung beträchtlich, da die Messungen des Stromanstiegs aufgrund fixer Messzeitpunkte nicht im gewünschten magnetischen Arbeitspunkt erfolgen. In dieser Arbeit wird ein Ansatz präsentiert, wie durch Verschieben der Schaltzeitpunkte diese Totzeit kompensiert werden kann. Abhängig von der Stromrichtung und der Schalthandlung wird der Schaltimpuls gerade um die Totzeit früher an den Umrichter gesendet, sodass durch die darausfolgende Verschiebung der Schaltzeitpunkte durch den Umrichter die reale Schalthandlung zum gewünschten Zeitpunkt durchgeführt wird. Im zweite Teil wird ein Verfahren vorgestellt, das die Rotorflusslage direkt aus den beiden aktiven Zuständen der PWM des Stromreglers bestimmt, ohne zusätzliche Testimpulse anlegen oder Maschinengleichungen auswerten zu müssen. Dabei wird der vom Stromregler geforderte Spannungsraumzeiger wenn nötig in gewissen Abständen so modifiziert, dass eine Messung des Stromanstieges ermöglcht wird. Uber ein spezielles Auswertungsverfahren kann aus den so gewonnenen Differenz-Stromänderungsraumzeigern die Rotorausslage errechnet werden. 155 Isabella Hartl Mobile Agenten und Sicherheit Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich Abstrakt: Mobile Agenten sind Programme, die zwecks Erfüllung ihres vom Benutzer erteilten Auftrags, innerhalb eines Netzwerkes autonom von Rechner zu Rechner migrieren. Unterstützt werden sie dabei von lokalen Plattformen, ohne deren angebotene Dienste ein mobiler Agent seine Aufgabe nicht erfüllen könnte (z. B. Kommunikations- und Migrationsdienst). Sobald ein mobiler Agent seine Heimatplattform verlässt, bewegt er sich in einer potentiell böswilligen Umgebung. Seine aktuelle Wirtsplattform könnte versuchen ihn zu attackieren, indem sie seine mitgeführten Daten ausspioniert oder gar seinen Programmcode manipuliert. Gleiches gilt für die Wirtsplattform, ein mobiler Agent könnte versuchen unberechtigten Zugang zu ihren Daten oder Ressourcen zu erhalten. Aus diesem Grund ist das Thema „Sicherheit“ sowohl für mobile Agenten als auch ihre Plattformen von besonderer Wichtigkeit. Beide müssen sich gegen Angriffe absichern. Diese Arbeit diskutiert den Begriff „Sicherheit“ und wie er in mobilen Agentensystemen umgesetzt werden kann und beschreibt, wie weit sich vorhandene Agentenstandards (FIPA und OMG) dem Thema Sicherheit und seiner Umsetzung widmen. Nach einer Analyse der möglichen Angriffe auf 156 ein mobiles Agentensystem, werden jeweils zwei mobile Agentensysteme vorgestellt (JADE und SeMoA, Aglets und Grasshopper) und deren Sicherheitsmaßnahmen miteinander verglichen. Anschließend werden Maßnahmen zur Umsetzung der Sicherheitsanforderungen diskutiert und ihre Vor- und Nachteile besprochen. An Hand der konkreten Agentenplattform CARE für RFID wird die Umsetzung einer Kommunikationsabsicherung in einem FIPA-konformem Agentensystem vorgestellt. möglich. Jedoch steigt mit der Leistungsfähigkeit auch die Komplexität. Damit auch in Zukunft mit der zu erwartenden Komplexität umgegangen werden kann, sind neue Verfahren zur Verarbeitung von Sensorwerten erforderlich. Eine Möglichkeit besteht darin, mithilfe statistischer Methoden die erfasste Situation in Gebäuden zu beschreiben. Eine interessante Fragestellung ist, ob sich aus derartigen Modellen Prognosen für zukünftig zu erwartende Situationen ableiten lassen. In dieser Arbeit wird untersucht, inwieweit sich die Theorie über Hidden Markov Modelle (HMM) eignet, um das Verhalten von Personen in einem Raum zu beschreiben und anhand der erlernten Beschreibungen Vorhersagen über das zukünftige Verhalten einer Person zu machen. Das Erstellen dieser Prognosen basiert auf bekannten Algorithmen. Weiters wird untersucht, inwieweit sich Daten unterschiedlicher Sensortypen in ein Modell integrieren lassen und welche Vorhersagen so ein System liefern kann. In dieser Arbeit meint "Vorhersage des Verhaltens" die Berechnung der Wahrscheinlichkeit der möglichen Aktionen, die eine Person als nächstes ausführen kann und die auch vom System wahrgenommen werden können. Jene Aktionen mit der höchsten Wahrscheinlichkeit werden den Personen mitgeteilt. Aus diesem Grund sollte die Verarbeitung der Daten in Echtzeit erfolgen. Hierfür wurde eine Software Applikation entwickelt, welcher eine Liveanbindung an das Sensorwerterfassungssystem zur Verfügung steht. Diese Anwendung ermöglicht den Personen im Gebäude (d.h. in dem Raum, wo das System betrieben wird), einen Blick hinter die Kulissen des Systems, indem sie die relevanten Informationen auf einem Bildschirm darstellt, welcher von den Benutzern betrachtet werden kann. Diese Darstellung zeigt einen Grundriss des Raumes und alle installierten Sensoren. Aus den ausgelösten Sensoren wird eine Abschätzung der vorhandenen Personen und deren Positionen errechnet, die dargestellt wird. Für jede dieser vermuteten Personen wird eine Vorhersage errechnet und ebenfalls dargestellt. Dadurch kann ein Benutzer sehen, an welcher Position er vom System vermutet wird und welche Vorhersage errechnet wurde. Es hat sich gezeigt, dass HMMs für die Aufgabe der Modellierung derartiger Syteme gut geeignet sind und die Möglichkeiten des Erstellens von Modellen mannigfaltig sind. Die Art der Generierung ist entscheidend für die Qualität der Modelle. Weiters stellte sich heraus, dass in eher kleinen Räumen, wie der, der zur Verfügung stand, die Handlungen der Personen relativ ident sind, aber trotzdem große Unterschiede zwischen ständig auftretenden und eher seltenen Szenarios klar erkennbar sind. Die Integration von Werten verschiedener Sensortypen in ein Modell ist insofern problematisch, als diese Werte untschiedliche Wahrscheinlichkeiten des Auftretens haben. Dies wurde durch eine Priorisierung bei der Auswertung kompensiert. Dieses Vorgehen bringt gute Lösungen in dieser Anwendung, da alle Aktionen sehr stark auf die räumliche Lokalität bezogen sind, kann aber mit hoher Wahrscheinlichkeit nicht verallgemeinert werden. Für einen allgemeinen Lösungsansatz sollte hier eine zusätzliche Abstraktionsebene eingeführt werden. Stefan Kohlhauser Requirement Analysis for a Psychoanalytically Inspired Agent Based Social System Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich Abstrakt: Eine künstliche Intelligenz zu erschaffen ist noch immer eine Herausforderung. Es gibt viele Ansätze das menschliche Gehirn und seine Methoden der Entscheidungsfindung nachzubilden. Diese beschränken sich aber oft auf einen Teil der Funktionen des Gehirns. Ein am Institut für Computertechnik entwickeltes Modell nimmt Anleihen an der Psychoanalyse, speziell am zweiten topischen Modell von Sigmund Freud. Dieses Modell repräsentiert einen ganzheitlichen Ansatz mit funktionalen Modulen. Für ein derartiges Modell, welches menschliche Intelligenz simulieren soll, reichen die Methoden der Überprüfung aus dem Bereich des Software Engineering nicht aus. Menschliches Verhalten ist zu einem großen Teil emergent. Und Funktionen, welche nicht in einer Anforderung an das System spezifiziert wurden, sondern aus dem Zusammenspiel entstehen, sind schwer zu überprüfen. Diese Arbeit versucht einige grundlegende Verhaltensweisen des Menschen zu spezifizieren. Darauf aufbauend sollen Testmethoden entwickelt werden, um zu überprüfen, ob dieses Verhalten auftritt, beziehungsweise in welcher Form es sich äußert. Um diese Tests durchführen zu können, werden im praktischen Teil einige Grundlagen dafür geschaffen. Diese beschäftigen sich mit den zugrundeliegenden physikalischen Prinzipien. Josef Mitterbauer Behavior Recognition and Prediction in Building Automation Systems Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich Abstrakt: Mit ständig besser und günstiger werdenden Technologien im Bereich der Gebäudeautomatisierung findet diese immer mehr Verbreitung, sowohl im öffentlichen Bereich als auch im Wohnbau. Durch die Verbesserungen in den Bereichen der Sensorik, Aktuatorik und Kommunikationssystemen, werden immer leistungsfähigere Systeme 157 158 über weitere mögliche Entwicklungen dieses Projekts wie die Zusammenarbeit mit anderen E-Learning-Projekten und -Plattformen befindet sich im letzten Kapitel. Im Anhang befinden sich neben den obligatorischen Verzeichnissen und dem Glossar, Erläuterungen zur Architektur und relevante Details zur Implementierung in Adobe Flash. Markus Rossler Selbsterklärender, plattformunabhängiger ALU-Simulator für die universitäre Lehre Studium: Diplomstudium Informatik BetreuerIn: Em.Univ.Prof. Dr. Richard Eier Abstrakt: Die vorliegende Arbeit behandelt die Erstellung eines MC8 ALUSimulators. Der MC8 ist ein Modellcomputer, der am Institut für Computertechnik (ICT) der Technischen Universität Wien für die Lehre entwickelt wurde. Die Arithmetisch Logische Einheit (engl. arithmetic logic unit, ALU) ist ein Teil des Prozessors und ist unter anderem für arithmetische und logische Operationen zuständig. Das Ziel dieser im World Wide Web verfügbaren Adobe-Flash-Applikation ist, die technischen Zusammenhänge sowie die zeitlichen Abläufe der ALU innerhalb der Hardware leicht verständlich zu visualisieren. Zunächst wird auf Methoden moderner Wissensvermittlung und die Bedeutung von E-Learning eingegangen. Die folgenden Abschnitte befassen sich mit den fachlichen Grundlagen der Inhalte, soweit es für das Verständnis der vorliegenden Arbeit erforderlich ist. Grundlegende elektronische Schaltungen werden beschrieben, die dazu genutzt werden können, arithmetische oder aussagenlogische Funktionen auszuführen. Essentiell bei der Erörterung der Grundlagen sind die Zustandsspeicher, die als Basis für Schaltwerke dienen. Diese können ausgehend von einem aktuellen Zustand und Eingabewerten einen Nachfolgezustand ermitteln und Ausgabewerte bzw. Steuersignale produzieren. Diese Eigenschaften werden benötigt, um Steuerwerke zu erzeugen, die das Verhalten einer ALU steuern. In dieser Einheit werden die zuvor gezeigten grundlegenden Schaltungen sowie einige zustandsabhängige Operationen durchgeführt. Das ist Gegenstand der Softwareimplementierung dieser Diplomarbeit. Im Weiteren wird auf die Vereinfachungen des Modells und auf Kompromisse zugunsten der Verständlichkeit der Darstellung eingegangen. In Folge geht die Arbeit auf die technische Plattform ein. Sowohl ein kurzer geschichtlicher Abriss der Entwicklung von Programmiersprachen als auch die Kriterien für die Auswahl der Adobe Flash-Plattform werden erläutert. Ergebnisse der Recherche, welche Projekte ähnliche Ziele verfolgen, schließen den ersten allgemeinen Teil der Arbeit ab. Darauf folgt eine Analyse, welche Ziele und Nichtziele die Applikation für die ermittelten Zielgruppen erfüllen soll, sowie ein Vergleich mit bisher vom ICT im Rahmen von Diplomarbeiten erarbeiteten ELearning Simulatoren. Im weiteren Verlauf der Arbeit werden die Details und Abläufe der umgesetzten Berechnungs- und Logikoperationen dargestellt und es wird auf programmtechnische Besonderheiten bei der Umsetzung behandelt. Um eine konsistente Ansicht für alle Darstellungen von Befehlen zu ermöglichen wurden Standards erarbeitet, welche auch erläutert werden. Danach erfolgt eine detaillierte Beschreibung der realisierten Operationen samt genauer Beschreibung der Abläufe. Diese Auflistung ist sehr umfangreich, da insgesamt zwölf Operationen in jeweils zwei unterschiedlich komplexen Darstellungen realisiert wurden. Ein Ausblick 159 Stefan Vielguth Nachrichtenbasierte Simulation von elektrischen Lastflüssen Studium: Diplomstudium Informatik BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich Abstrakt: Elektrische Energienetze bilden das Rückgrat der Versorgung der Menschen mit elektrischer Energie. Im Zuge des zunehmend wachsenden Bedarfs an elektrischer Energie ist ein stetiger Netzausbau für viele Versorgungsregionen unumgänglich. Ursprünglich waren Energienetze als strikte Top-Down-Strukturen angelegt. Das bedeutet, dass die von den Primär-Einspeisungsknoten (Kraftwerken) hin zu den Endverbrauchern benötigte Struktur, einmalig großzügig hinsichtlich der Beanspruchung durch elektrische Randparameter wie Ströme, Spannungen und Leistungen ausgelegt und keine größeren Veränderungen mehr durchgeführt wurden. Im Zuge der Liberalisierung der Energiemärkte und des zunehmenden Energiebedarfs kommt es heutzutage vor allem im Bereich der Mittelspannungs- und Niederspannungsebene zu zusätzlichen Einspeisungen von elektrischer Energie. Beispiele dafür sind Windoder Biomassekraftwerke. Dies verändert allerdings die Situation der Energienetze, da neue Einspeisepunkte im Betrieb die elektrischen Parameter im Bereich der betroffenen Spannungsebene verändern. Deshalb ist es notwendig, noch vor der Planung bzw. Inbetriebnahme neuer Kraftwerke, die Auswirkungen auf das betroffene Netz abschätzen zu können. Zu diesem Zweck wurden Verfahren der Lastflussanalyse entwickelt. In dieser Arbeit wird der Fokus auf die Implementierung eines nachrichtenbasierten Lastflussanalyse-Verfahrens, das auf einem Vorwärts/Rückwärtsschritt-Verfahren basiert, gelegt. Für die Implementierung des Verfahrens wird das Open-Source-Framework OMNeT++ [3] herangezogen, welches es ermöglicht, Graphenmodelle aufzubauen und Nachrichten zwischen den Knoten des Graphen auszutauschen. Weiters wird die Integration des Algorithmus in die Architektur der Simulationsplattform DAVIC beleuchtet. DAVIC ist eine Simulationsplattform des Instituts für Computertechnik, die es ermöglichen soll, Geld-, Kommunikations- und Energieflüsse in Energienetzen zu simulieren. Als Ergebnis wurde eine Lösung implementiert, die es ermöglicht, ein einfaches elektrisches Verteilnetz bestehend aus Leistungs- und Leitungsknoten in Graphenform zu modellieren und für die gegebenen Parameter eine Lastflussanalyse durchzuführen. Weiters wurde in der Lösung ein Ansatz für eine MonteCarlo-Simulation vorgesehen. Die Berechnungsergebnisse sind mit denen 160 von matrizenbasierten Verfahren bzw. kommerziellen Softwarepaketen vergleichbar. IN ZUSAMMENARBEIT MIT ANDEREN WISSENSCHAFTLICHEN EINRICHTUNGEN Dilek Apaydin-Yücel Patient Empowerment in E-Health INSTITUT FÜR BREITBANDKOMMUNIKATION Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Walter Gall, Medizinische Universität Wien Vincent Chimaobi Emeakaroha Quality of service IP networking with multiservice admission control. Abstrakt: Web-Anwendungen haben sich über die letzten Jahrzehnte stark verändert. Die erste Generation zielte auf die einfache Bereitstellung von Informationen mittels statischer Websites. Durch die zweite Generation wurde eine neue Dimension eröffnet, wobei Web-Anwendungen nicht mehr nur als Mittel zur Informationsdarstellung gesehen werden, sondern auch vielfältige Dienste zur Verfügung stellen. Durch die daraus folgende Erhöhung des Entwicklungsaufwands von Web-Anwendungen entsteht die Notwendigkeit, die Entwicklung durch die Verwendung von modellbasierten Entwicklungsmethoden und spezifischen Web-Modellierungssprachen zu unterstützen. Die modellgetriebene Softwareentwicklung hat durch die Model Driven Architecture Initiative (MDA) stark an Bedeutung gewonnen. MDA zielt im Allgemeinen darauf ab, Modellierungssprachen aus verschiedenen Bereichen zu standardisieren, um Interoperabilität zwischen den verschiedenen Modellierungswerkzeugen zu schaffen. Jedoch wird MDA zurzeit nur als eine Vision gesehen, da die notwendige Basis für die Realisierung fehlt. Betroffen davon ist auch der Web Engineering Bereich, da bestehende Web-Modellierungsmethoden im Sinne der MDA nicht vollständig modellgetrieben sind. Es fehlen die entsprechenden Metamodelle zu den Web-Modellierungssprachen und die Modelltransformationen, um Modellaustausch zwischen den Web-Modellierungswerkzeugen zu gewährleisten. Diese Arbeit versucht eine erste Lösung für das Interoperabilitätsproblem zwischen den verschiedenen WebModellierungswerkzeugen umzusetzen. Ob eine verlustfreie Abbildung zwischen eingesetzten Web-Modellierungssprachen entwickelt werden kann, bildet die zentrale Forschungsfrage, die im Zuge dieser Arbeit beantwortet wird. Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: O.Univ.Prof. Dr. Harmen R. van As Abstrakt: Das Internet protocol (IP) unterstützte ursprünglich nur Best Effort Zustellungsstrategien fur IP Verkehrsflüsse. Mit der schnellen Evolution von Kommunikationsnetzen und der Transformation des Internets in eine kommerzielle Infrastruktur, ergab sich das Verlangen nach Dienstgüte(Quality of Service). Durch die Verbindung von ursprünglich isolierten Netzen entstand die Notwendigkeit von Mehrdienst-Netzen, wodurch die Differenzierung von Dienstgüte, bedingt durch die unterschiedlichen Dienste, zur zentralen Herausforderung wurde. Das Streben um Service-Qualität in IP Netzen zu garantieren führt zu Definitionen von Technologien wie Integrated Service, Differentiated Service und Multiprotocol Label Switching. Unterschiedliche technologische Ansätze verwenden Admission Control (AC) Mechanismen um RessourcenVerfügbarkeit sicherzustellen, und dadurch ausreichende Qualität, in Applikations-Verkehrsflüssen, zu gewährleisten. Diese Diplomarbeit erarbeitet einen Ansatz und eine Implementierung eines Mehrdienste Frameworks, um Dienstgüte für mehrere priorisierte, unterschiedliche, Verkehrsflüsse, welche gleichzeitig ein Netz passieren, zu garantieren. Das Framework implementiert vier MBAC Algorithmen um Verkehrsflüsse zu steuern, sowie einen statischen und einen dynamischen Bandbreitenallokations-Mechanismus um die Zuteilung der Netzressourcen, zu den Verkehrsklassen, abhängig von ihrer Priorität, durchzuführen. Gioia Baldass Umsetzung ausgewählter Kommunikationsansätze im Webdesign Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Renate Motschnig, Universität Wien Abstrakt: Die zentrale Fragestellung dieser Arbeit lautet: „Gibt es Mittel und Möglichkeiten, präsente Kommunikationsansätze in der Entwicklung einer interaktiven Webapplikation umzusetzen?“. Für die Untersuchung dieser Frage wurden für diese Arbeit beispielhaft vier Kommunikationsansätze ausgewählt, die sich in der präsenten Kommunikation bewährt haben: Die 161 162 vier Seiten einer Nachricht nach Friedemann Schulz von Thun, Transaktionsanalyse nach Eric Berne, Personzentrierter Ansatz nach Carl R. Rogers und Gewaltfreie Kommunikation nach Marshall B. Rosenberg. Diese vier Ansätze werden in der Arbeit dahingehend untersucht, ob es sinnvolle Möglichkeiten gibt, Elemente oder Konstrukte aus ihnen bei der Entwicklung einer interaktiven Webapplikation so einzusetzen, dass dadurch der Nutzen des Angebots für alle Beteiligten steigt. Ziel ist es dabei, eine möglichst transparente Kommunikation zu gewährleisten und dadurch die Klarheit über Nutzen und Gebrauch der Seite für die potenziellen BenutzerInnen zu erhöhen. Effekte, die ich mir dadurch erhoffe, sind einerseits eine gesteigerte Zufriedenheit der BenutzerInnen und eine Senkung des Missbrauchsrisikos (etwa zu Werbezwecken) und andererseits eine erhöhte Wahrscheinlichkeit, dass die Ziele, die ein/e EntwicklerIn mit der Entwicklung der Seite verfolgt, erreicht werden, weil ihre/seine Intentionen klarer zum Vorschein kommen. Kapitel 1 befasst sich mit der Theorie zu den untersuchten Kommunikationsansätzen. Die wesentlichen Elemente werden hier herausgearbeitet und die Basis für das Verständnis der weiterführenden Kapitel geschaffen. Kapitel 2 enthält die Dokumentation der Webapplikation, die ich beispielhaft für die Umsetzung der Kommunikationsansätze im Webdesign entwickelt habe. Kapitel 3 schließlich untersucht die Möglichkeiten der Umsetzung der einzelnen Kommunikationsansätze, die mit Beispielen anhand der Webapplikation „Wanderer“ herausgearbeitet werden. Dabei wird jeder der Kommunikationsansätze getrennt betrachtet und im Hinblick darauf untersucht, welche seiner Elemente und Konzepte in förderlicher Weise im Webdesign integriert werden können. Die Ergebnisse dieser Auseinandersetzung werden jeweils im Anschluss beispielhaft an der Webapplikation „Wanderer“ demonstriert. Kapitel 4 beschäftigt sich mit Fragen, die bei dieser Arbeit offen geblieben sind, Folgerungen aus der vorliegenden Untersuchung und persönlichen Lernerfahrungen. Datenlokalität entwickelt worden. Bei dieser Strategie, die darauf abzielt das Verhalten der Caches zu optimieren, wird versucht Prozessor Stalls verursacht durch Cache Misses - zu verstecken indem mehrere Threads auf einen Core zugewiesen werden und somit immer ein bereiter Thread zur weiteren Abarbeitung auf dem Core zur Verfügung steht. Sebastian Bolnberger Prototyp eines Web-Modelleditors auf Basis der Eclipse Technologien GMF und RAP: Konzept und Implementierung Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: O.Univ.Prof. Dr. Dimitris Karagiannis, Universität Wien Abstrakt: Die Idee vom automatisch generiertem Source Code (SC) in der Informatik ist wahrscheinlich genauso alt wie die Informatik selbst. Mit Hilfe des Model Driven Software Development (MDSD) Ansatzes ist es heute möglich durch das Erstellen von Modellen automatisch produzierten Programmcode zu gewinnen. Unter gewissen Vorraussetzungen kann mit dem MDSD eine höhere Entwicklungsgeschwindigkeit sowie eine bessere Handhabbarkeit der Software erzielt werden und aufgrund einer höheren Abstraktion, manifestiert durch die Modelle, kann die Softwarequalität im Allgemeinen gesteigert werden. Das Eclipse Graphical Modeling Framework (GMF) nimmt sich diesem Ansatz an, indem zunächst Modelle erarbeitet werden, welche die Aufgabenstellung eindeutig beschreiben und als Input für die SC Generierung dienen. Als Output liefert das GMF automatisch realisierte Modellierungseditoren, mit Hilfe deren die gewünschte Domäne abgebildet und modelliert werden kann. Die Eclipse Rich Ajax Platform (RAP) ist ebenfalls ein generativer Ansatz, jedoch für die Entwicklung von Rich Internet Applications. Hierbei beschränkt sich die Entwicklung auf die Programmiersprache Java, von der ausgehend die für das Internet notwendigen Komponenten – HTML, JavaScript, Asynchronous JavaScript and XML (Ajax), CSS usw. – von dem RAP erstellt werden. Die Diplomarbeit soll das GMF, das RAP und deren Voraussetzungen in einem theoretischen Teil vorstellen sowie analysieren. Ausgehend von den beiden Technologien drängt sich die Frage regelrecht auf, ob eine Kombination dieser Konzepte einen sowohl effizienteren als auch effektiveren Softwareentwicklungsprozess im Bereich von Web-Anwendungen ermöglichen kann. Der praktische Teil wird versuchen auf diese Frage eine Antwort zu finden, indem mit Hilfe dieser Ansätze ein webbasierter Modelleditor implementiert wird. In diesem Zusammenhang soll auch geklärt werden, welche gemeinsamen Schnittstellen das GMF / RAP aufweisen, um mit Minimalem manuellem Eingriff effizient arbeiten zu können. Nachdem es sich um junge Disziplinen handelt, besteht die Möglichkeit, dass solche Verknüpfungspunkte noch gar nicht konzipiert worden sind. An dieser Stelle sollen adäquate Lösungsvorschläge präsentiert werden, um zukünftig eine homoge Zusammenarbeit zu ermöglichen. Marion Bauer Performanceanalyse von multi-core Prozessoren für Anwendungen aus Computational Science Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Eduard Mehofer, Universität Wien Abstrakt: In dieser Arbeit werden die Performance-Eigenschaften von multicore Prozessoren für Anwendungen aus Computational Science analysiert. Bei diesen Eigenschaften handelt es sich insbesondere um Ausführungszeiten von Anwendungen, die sehr große Datenmengen in Form von Arrays haben und auf diesen Daten arithmetische Operationen ausführen. Bei diesen Messungen, die auf verschiedene Desktop- und Serverarchitekturen durchgeführt wurden, kann festgestellt werden, wie groß die Bedeutung von guter Datenlokalität in parallelisierten, wissenschaftlichen Anwendungen ist. Weiters ist eine Technik für schlechte 163 164 Führungskräften ermöglichen fachlich zu handeln sowie richtig Situationen einzuschätzen. Diese Arbeit wird versuchen Antwort auf folgende Frage zu geben: Ist es möglicht Führungskompetenzen bei Personen durch Blended Learning Methoden zu entwickeln und wie kann solch eine Kompetenzentwicklung verwirklicht werden. Damit eine Antwort auf die gestellte Frage gegeben werden kann, werden in dieser Arbeit zu aller erst Grundbegriffe des Führungsprozesses systematisch definiert und erläutert. Darauffolgend werden Führungserfolgsmodelle untersucht, welche basierend auf Eigenschafts- sowie Verhaltenstheorien der Führung, Kompetenzen von Führungskräften hervorheben sollen. Anschließend darauf werden die theoretischen Aspekte von Führungskompetenzen und Blended Learning Lernumgebungen durchdiskutiert. Schlussendlich werden „Best Practise" Beispiele der Entwicklung von Führungskompetenz durch Blended Learning in berühmten Großunternehmen vorgestellt und ein Leitfaden zur Umsetzung eines Blended Learning Konzeptes zur Entwicklung von Führungskompetenzen im Rahmen einer Lehrveranstaltung ausgearbeitet." Friedrich Dimmel Usability Enhanced Agile Development for Web-Based Applications Studium: Masterstudium Informatikmanagement BetreuerIn: Ao.Univ.Prof. Dr. Renate Motschnig, Universität Wien Abstrakt: Die letzten Jahre brachten vielen neue Technologien in den WebBereich. Der neueste Trend, bzw. die Bezeichnung Web 2.0 steht gerade dafür, dass sich für Benutzer und Entwickler viel getan hat und sich neue Möglichkeiten eröffnen. Ein ebenso aktueller Bereich aus dem Umfeld von Web 2.0 sind sogenannte Rich Internet Applications. RIAs sind WebApplikationen, die im Browser ablaufen aber neue Funktionalitäten einbringen und somit komplexere Daten visualisieren und verarbeiten können. Multimedia Daten, wie z.B. Videos oder Musik, etc. lassen sich ebenso in Rich Internet Applications einbetten. Die letzten Jahre brachten viele neue Firmen und Start-Ups auf den Markt, vor allem benutzerzentrierte Web-Applikationen sind derzeit ein Hype. Viele verschiedene Firmen hatten wohl die gleichen Ideen, wenn es um solche Applikationen geht, doch nur wenige schafften es bis an die Spitze. Vor allem Start-Ups ohne viel Kapital können sich jedoch keine millionenteuren Marketing-Auftritte leisten; es muss daher andere Grüne geben, warum Firmen mit ihren Ideen erfolgreich sind. Einer dieser Gründe war höchstwahrscheinlich die Usability, also die möglichst einfache Benutzbarkeit von solchen Services. Wenn es darum geht, Benutzer an Webseiten zu binden und vor allem den Benutzer Teil der Webseite werden zu lassen, in dem er zu den Inhalten beiträgt, ist es wichtiger als je zuvor, die Webseite so zu gestalten, dass der Benutzer sich mit ihr zurechtfindet. Für Software-Entwicklung gibt es viele verschiedene Richtlinien, jedoch kaum angepasst an moderne Web-Applikationen. Gerade der Umstand, dass der Benutzer ins Zentrum der Applikationen tritt, erfordert aber die Analyse solcher Richtlinien für Web-Applikationen und im Speziellen auch für Rich Internet Applikationen. Der Autor dieser Arbeit hat das Thema aufgrund seines großen Interesses zu den Themen WebApplikationen, Usability und auch Agile Methoden ausgewählt. Bereits seine Bakkalaureatsarbeit handelte von „Rich Internet Applications and Service Oriented Architectures“. Diese Arbeit beleuchtet die Implementierung von solchen RIAs, speziell im Hinblick auf Usability und den Entwicklungsprozess mit Agilen Methoden. Michael Koitz Implementierung und Analyse von Parallelen, Verteilten Datenbank Operationen auf Service-orientierten Architekturen Studium: Masterstudium Software Engineering und Internet Computing BetreuerIn: Ao.Univ.Prof. Dr. Erich Schikuta, Universität Wien Abstrakt: Diese Diplomarbeit befasst sich mit der Optimierung von Parallelen Datenbank Operationen in heterogenen Umgebungen. Der Fokus ist auf Sortier und Join Operationen gelegt, wegen ihrer Relevanz in fast allen Datenbank Systeme. Für die Implementierung der Sortier Operationen wurden der Parallel Binary Merge Sort und der Block Bitonic Sort ausgewählt, weil sie eine gute parallele Effizienz bieten. Für die Implementierung der Join Operationen wurde der Fokus auf den Merge Join, Nested Loop Join und den Hash Join gelegt. Alle diese Algorithmen wurden als Web Services implementiert um sie einfach zwischen den Nodes (Computer) zu transferieren. Als Framework wurde SODA wegen der Flexibilität und Erweiterbarkeit ausgewählt. SODA ist in Java geschrieben und benutzt Apache Tomcat als Container für die Web Services. Die Arbeit basiert auf der Idee die variierenden Ressource Charakteristiken (z.B. Netzwerkbandbreite) von heterogenen Umgebungen auszunutzen. Diese Herangehensweise wurde implementiert und mittels Speedup und Scale-up Analyse bestätigt. Haris Jaganjac Entwicklung von Führungskompetenz durch Blended Learning Studium: Masterstudium Wirtschaftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Renate Motschnig, Universität Wien Abstrakt: Führungskompetenzen stellen besondere Fähigkeiten dar mit Hilfe von welchen Führungskräfte in der Lage sind den Führungsalltag zu meistern. Diese schließen, unter anderen, Fertigkeiten ein welche 165 166 Wolfgang Koller Ausgewählte formale und programmtechnische Aspekte des medizinischen Expertensystems FuzzyKBWean Gottfried Nindl Eine Ajax Literaturdatenbank mit ADOweb Studium: Diplomstudium Wirtschaftsinformatik BetreuerIn: O. Univ. Prof. Dr. Dimitris Karagiannis, Universität Wien Studium: Diplomstudium Informatik BetreuerIn: Univ.Prof. Dr. Klaus-Peter Adlassnig, Medizinische Universität Wien Abstrakt: Nach dem „Platzen der Dot-Com Seifenblase“ muss sich die Internet Branche auf neue Konzepte besinnen. Das Schlagwort Web 2.0 beschreibt einen neuen, kollaborativen Ansatz, der Benutzer zunehmend in den Gestaltungsprozess von Software involviert. Am Musterbeispiel der Online-Enzyklopädie Wikipedia kann man erkennen, dass kollektive Wissensarbeit zu einer Multiplikation des individuellen Wissens führt. Zur Etablierung eines solchen sozialen Umfelds wird ein Prototyp für eine webbasierte Literaturdatenbank entwickelt, welche ein Dokumenteninformationsportal für das Wissensmanagement einer Community bereit stellen soll. Das Ziel ist die Schaffung eines synergetischen, wachsenden und selbstregulierenden Informationsraums, in dem sich dessen Teilnehmer gegenseitig fördern und helfen können. Dafür gewährleistet die Technologie Ajax (Asynchronous JavaScript and XML) den Komfort und die Benutzerfreundlichkeit einer Rich Internet Applikation (RIA). Die Wissensmanagementmethode PROMOTE, welche als Anwendungsbibliothek des Modellierungswerkzeugs ADONIS implementiert ist, definiert die Bedeutung der abgelegten Dokumente. Das funktionale Verbinden von Ajax und ADONIS wird mit dem Webframework ADOweb bewerkstelligt. Weiterhin beschreibt das Schlagwort Web 2.0 nichts anderes als die Metamorphose einer Benutzeroberflächentechnologie zu einer Plattform. Blogs und Wikis sind nur die ersten Vorboten einer neuen Generation von Applikationen, die kollaborative Umgebungen auf der Grundlage des Internets konstruieren. Das Web von morgen besitzt das Potential die Infrastruktur der virtuellen Realität bilden zu können, da auf viele Funktionen, wie z. B. die Partizipation und die Vernetzung, zurück gegriffen werden kann. Ajax wird in naher Zukunft großer Erfolg verheißen, da browserbasierte Applikationen den Betriebssystemdistributionen Konkurrenz machen werden. Diese Behauptung wird durch den entwickelten Prototyp untermauert, der auf dem ausgewählten Ajax Framework RAP eine RIA aufsetzt. Open Source Projekte können auch für kommerzielle Unternehmen interessant werden, da sie zum Anwerben neuer Kunden verwendet werden können. Die Etablierung einer Community ist entscheidend, wobei auch das Softwareunternehmen BOC mit ihrem Forschungsprojekt ADOweb ungeahnte Potentiale nutzen kann. Abstrakt: Das Ziel des Projektes FuzzyKBWean war es, auf Intensivstationen die Entwöhnung, das so genannte „Weaning“, beatmeter Patienten vom Beatmungsgerät (Respirator) durch ein medizinisches Expertensystem zu steuern. In der ersten Implementierungsstufe soll es als „open-loop“-System den behandelnden Ärzten eine möglichst effiziente, das heißt rasche und schonende, Entwöhnungsstrategie vorschlagen, während die Handlungsentscheidung dem Arzt überlassen bleibt. Aufbauend auf den in dieser Phase gewonnenen Erfahrungen, nach ausgedehnten Tests und nach Optimierung der Wissensbasis, ist als endgültiges Ziel ein „closed-loop“System vorgesehen. Bei diesem wird das Expertensystem die Entwöhnung autonom steuern und der Arzt muss nur in Ausnahmefällen, wie zum Beispiel in Notsituationen, eingreifen. In dieser Arbeit werden drei Komponenten beschrieben, die aufbauend auf einer bereits existierenden Implementierung von FuzzyKBWean realisiert wurden. Die Wissenserwerbskomponente ermöglicht eine interaktive Modellierung und Anpassung von Wissensbasen. Im Datenbankkonzept werden all jene Mechanismen beschrieben, die für die Speicherung der relevanten Daten sorgen. Die Inferenzkomponente schließlich interpretiert die vom Patientendatenmanagementsystem gelieferten physiologischen Daten und berechnet auf der Grundlage der in der Wissensbasis enthaltenen Regeln neue Stellwerte für das Beatmungsgerät. Die aktuelle Version von FuzzyKBWean ist ein regelbasiertes Expertensystem mit Echtzeitverhalten. Seine hervorstechendste Eigenschaft ist, dass es zur Steuerung der Entwöhnung zwei Konzepte, nämlich Fuzzyund Nicht-FuzzyRegelungsmodelle, einsetzt und dadurch einen direkten Vergleich der beiden Ansätze ermöglicht. Man geht in der Arbeitsgruppe FuzzyKBWean davon aus, dass ein unscharfes („fuzzy“) Regelungskonzept der Denk- und Ausdrucksweise von medizinischen Experten näher kommt als ein Modell auf der Basis von scharfer („crisp“) Logik. Dadurch erhofft man sich ein Regelungsverhalten des Systems, das einen kontinuierlicheren, für den Patienten schonenderen und insgesamt effizienteren Entwöhnungsvorgang zur Folge hat. 167 168 existierendes Framework als Basis oder Anhaltepunkt besitzt. Dieser Rahmen wird für IT Unternehmensarchitekturmanagement im BMF/BRZ benutzt. Wir werden einen Blick auf die Ziele werfen sowie auf die Prinzipien die, auf den Zielen basierend, festgelegt wurden. Auch werden wir sehen wie diese Prinzipien angewendet werden und welchen Einfluss dies auf die verschiedenen Ebenen der Architekturmodelle hat. Dem Hauptteil folgt eine Zusammenfassung und Diskussion. Wir werden darin besprechen, was wir aus dieser Arbeit schliessen können und für die weitere Zukunft gelernt haben und mit auf den Weg nehmen können. Hristo Novatchkov Mobile Coaching Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Ao.Univ.Prof. Dr. Arnold Baca, Universität Wien Abstrakt: Der Anwendungsbereich des mobilen Trainings zählt zu den relativ jungen und aufstrebenden Methoden in der Welt der Sportinformatik. Dessen Hauptziel ist es, Sportler sowie deren Betreuer durch das Einbinden von leicht anwendbaren bzw. mobilen Hilfsmitteln bei der Durchführung ihrer Sporteinheiten zu unterstützen. Solch eine Mobilisierung wird in erster Linie durch die Verwendung von Handheld-PCs wie z.B. PDAs erreicht. Die meisten Geräte dieser Art konnen sich mittlerweile drahtlos mit dem Internet und anderen Rechnernetzen verbinden, was ihre Anwendung an nahezu beliebigen Orten möglich macht. Auf diese Art und Weise kann eine beständige Verbindung sowie eine stabile Datenübertragung sehr einfach realisiert werden. Diese Arbeit präsentiert eine konkrete Implementierung eines mobilen Trainingssystems, welches im Stande ist, all diese Vorteile zu nutzen. Ein PDA dient dabei als Speicher- und Synchroniesierungseinheit fur verschiedene Arten von Informationen, wie z.B. biomechanische Daten, während eine Serverkomponente die abgeglichenen Werte verarbeitet, um diese später in Form eines Diagramms fur den Endbenutzer abrufbar zu machen. David Pölz Evaluation of selected machine learning methods for detecting pishing e-mail Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Univ.Ass. Dr. Wilfried Gansterer, Universität Wien Abstrakt: The thesis deals with the problem of detecting phishing e-mails. In con- trast to spam e-mails, phishing e-mails are designed to look very similar to legitimate e-mails which makes them hard to detect. My main interest is to investigate the idea of finding phishing e-mails with machine learning algorithms based on a feature set which was deter- mined in previous work. First, the thesis gives an overview of the phishing situation and conveys background information about the test data used. Then I review five important machine learning algorithms: Decision trees , neural networks , naive bayes , k nearest neighbor and support vector machines For each of this algorithms the thesis explains how it basically works. Then it shows how it can be applied to the phishing detection problem. For experiments I apply the widely used data mining program. This process is documented in detail and the most important parameter options are explained. Furthermore I try to improve the results of the regular machine learning algorithms by applying combination techniques like bagging, boosting and stacking. The final chapter compares the results achieved for the phishing detec- tion problem with each of the five algorithm for various parameter settings. Moreover it explains why there are differences in the results and what are advantages and disadvantages of the five algorithms concerning available data, run time and prediction accuracy. Jean-Marie Parisot The role of standards in IT-architecture: BMF/BRZ case study Studium: Masterstudium Informatikmanagement BetreuerIn: O.Univ.Prof. Dr. Dimitris Karagiannis, Universität Wien Abstrakt: IT Unternehmensarchitekturmanagement ist während den letzten Jahren immer mehr in den Mittelpunkt für Manager getreten. Da Unternehmen von ihrer IT Funktionalität abhängen, wurde es plötzlich eine Tatsache, daß es wichtig ist, seine IT zu kennen, sowie, und diese an den Unternehmensplan zu justieren. Nur ein Unternehmen, das dies umsetzt, wird erweitert, ist erfolgreich und spart zukünftig Geld. Das schwierigste hierbei ist jedoch einen Plan zu schaffen um das ganze erfolgreich umzusetzen. Einige Frameworks können als Grundlage oder Anhaltepunkt benutzt werden, jedoch muss ein eigenes Framework erstellt werden das das Unternehmen darstellt. Diese Arbeit wirft zunächst einen allgemeinen Blick auf IT Architekturmanagement, wie sich das ganze entwickelt hat, die Grundsteine, und wie wir es heutzutage kennen. Auch werden wir sehen was wirklich zu IT Architekturmanagement gehört und wie es aufgebaut ist. Auch werden die wichtigsten und bekanntesten Frameworks besprochen, analysiert und verglichen und daraus das Framework gewählt was für den zweiten Teil der Arbeit notwendig erscheint. Der größte Teil der Arbeit besteht aus der Entwicklung von einem IT Architekturrahmen der ein schon 169 Jana Rajtarova Management of antibiotics for urinary tract infections Studium: Masterstudium Medizinische Informatik BetreuerIn: Univ.Prof. Dr. Klaus-Peter Adlassnig, Medizinische Universität Wien Abstrakt: Sachgemäße und effektive Verschreibung von Antibiotika wird durch die Entwicklung neuer, resistenter Bakterien immer wichtiger. 170 Fehlende Information über die Ursache einer Infektion resultiert oftmals in der Verschreibung von Breitbandantibiotika, welche die Entwicklung von Resistenzen fördern. Das Ziel dieser Arbeit ist es, einen Prototyp eines entscheidungsunterstützenden Systems für die Verschreibung von Antibiotika bei Harnwegsinfektionen (HWI) zu entwickeln. Für diesen Zweck werden Daten verwendet, die im Rahmen von MONI, einem wissensbasierten System zur Überwachung von nosokomialen Infektionen, eingesetzt an der Klinischen Abteilung für Krankenhaushygiene des Allgemeinen Krankenhauses in Wien, gesammelt werden. Von dieser Patientendatenbank werden Datensätze abgerufen, deren Daten ähnlich denen des aktuellen Patienten sind. Die Verteilung der Erreger in der Gruppe ähnlicher Datensätze stellt das Erregerspektrum dar. Für Patienten mit Komplikationen, welche durch Fuzzy- und HWI-spezifische Regeln ermittelt werden, ist eine Diagnose notwendig, welche durch den Arzt oder durch Regeln des Programms bestimmt wird. Aus dem Wissen über Antibiotika, Therapien für spezifische Erreger und HWI wurde eine Wissensbasis erstellt. Mit all diesem Wissen und den Daten über den aktuellen Patienten und unter Berücksichtigung möglicher Nebenwirkungen, Gegenanzeigen, Allergien, Resistenz der Erreger und Komorbidität wird eine patientenspezifische Therapie präsentiert. Um die Applikation in einem ersten Schritt zu testen, wurden fünf Testfälle entwickelt, die Situationen aus dem klinischen Alltag widerspiegeln. Die Wissensbasis und die Regeln lieferten gültige Diagnosen und Empfehlungen. In allen von der Applikation vorgeschlagenen Therapien konnte Übereinstimmung mit den in der medizinischen Fachliteratur publizierten nachgewiesen werden. Mit der vorliegenden Applikation konnte die Realisierbarkeit eines entscheidungsunterstützenden Systems für das Antibiotikamanagement bei Harnwegsinfektionen gezeigt werden. als auch bei der PatientInnenfreundlichkeit gesteigert werden. Material und Methoden: In einem Untersuchungsraum der Allgemeinen Abteilung für Dermatologie erstellen die StudienteilnehmerInnen mit einer Mobiltelefonkamera ein oder mehrere Fotos ihrer Hautveränderung. Weiters füllen sie einen interaktiven Fragebogen auf einem Notebook aus, der zusätzliche Informationen zu ihrer Dermatose liefern soll. Anschließend werden die Bilder per MMS an eine Studienmailadresse übermittelt. Danach wird die Patientin / der Patient von einer Dermatologin / einem Dermatologen untersucht. Diese/r erstellt eine Diagnose. (Gold-StandardWeg). Die per MMS oder E-Mail übermittelten Bilder werden bezüglich Kontrast, Farbe und anderer technischer Bildparameter untersucht. Mit Hilfe dieser Daten soll erfasst werden, ob ein Laie diagnostizierbare Fotos erstellen kann. Weiters kann evaluiert werden, ob die Bilder vor der Begutachtung mittels digitaler Bildbearbeitung modifiziert bzw. verbessert werden müssen. Die Bilder und der Fragebogen werden einer Jury bestehend aus 3 DermatologInnen - vorgelegt, die ohne direkten PatientInnenkontakt eine Diagnose erstellen sollen. Der Vergleich der telemedizinischen mit der Gold-Standard-Diagnose erlaubt die Beurteilung, wie zuverlässig die telemedizinische Konsultation ist. Diskussion: Diese Arbeit zeigt, dass der Einsatz von Mobiltelefonen in der Teledermatologie aus technischer Sicht sehr wohl möglich erscheint. Trotzdem ist nicht jedes Mobiltelefon geeignet, die Dermatosen so darzustellen, dass eine seriöse Diagnose erstellt werden kann. Zittern, fehlende Fokussierung und falsche Aufnahmeeinstellungen beeinflussen das Ergebnis deutlich. Für diese Studie wurden aktuelle Mobiltelefone aus dem 1. Quartal 2008 verwendet. Es konnte gezeigt werden, dass in vielen Fällen die technische Abbildungsqualität durchaus ausreicht. Aus formaler Sicht und unter Berücksichtigung des Mangels an Studien sollten Mobiltelefone für medizinische Zwecke vorerst nicht eingesetzt werden. Kritisch werden die Grenzen von Geräten der sogenannten consumer electronic für medizinische Zwecke aufgezeigt. Zum gegenwärtigen Zeitpunkt fehlen zur praktischen Umsetzung besonders die gesetzlichen Grundlagen. Es ist zu prüfen, ob technische Apparate, die nicht den strengen Auflagen von Medizinprodukten genügen, in Zukunft eingesetzt werden. Die Nachfrage nach möglichst unmittelbarer Dokumentation und Übertragung von medizinischen Sachverhalten kommt zunehmend von den Anwendern selbst (potentielle PatientInnen). Durch die ständige Weiterentwicklung und die daraus resultierende Verbesserung der Hardund Software sollten Mobiltelefonkameras zu einem späteren Zeitpunkt nochmals einem Test unterzogen werden. Christian Scheibböck Telemedizin in der Dermatologie im Rahmen einer klinischen Studie Evaluation der Verwendbarkeit der Bilddaten mittels quantitativer Bildanalyse Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Dietmar Rafolt, Medizinische Universität Wien Abstrakt: Motivation: Die Telemedizin ist ein wichtiger Bestandteil der Medizin, der in immer mehr Bereichen Einzug hält. Speziell in der Dermatologie besteht die Möglichkeit ein besseres Zeitmanagement zu erreichen, um beispielsweise Wartezeiten zu reduzieren. Die Patientin/der Patient kann von jedem beliebigen Standort aus ihre/seine Hautveränderungen fotografieren - das kann mittels Digital- oder Mobiltelefonkamera erfolgen. Unmittelbar kann das erstellte Bild per MMS oder E-Mail an eine Dermatologin / einen Dermatologen zur Begutachtung verschickt werden. Die Teledermatologie hat weiters das Potential die Kosten, im Vergleich zum momentanen Standard-Diagnoseweg, zu reduzieren. Die Effizienz der Ambulanzen könnte in ökonomischer Hinsicht 171 172 im Detail mit der oft vernachlässigten RFIDMiddleware. Zusätzlich werden die wesentlichen Punkte über das Thema RFIDSecurity festgehalten. Anschließend findet man eine Einführung in die RFIDIntegration mit allen ihren Problemen. Schließlich wird neben dem Leitfaden für die Integration eines Zutrittkontrollsystems mittels RFID auch ein Überblick über die zukünftige Entwicklung und bereits realisierte Anwendungen gegeben. Stefan Schneider Lokalisierung mit Bluetooth mittel neuronaler Netze Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Ao.Univ.Prof. Dr. Helmut Hlavacs, Universität Wien Abstrakt: In dieser Arbeit wird ein neuer Ansatz für ein Indoor-PositioningSystem, basierend auf Bluetooth, vorgestellt. Im Gegensatz zu anderen Arbeiten auf diesem Gebiet wird die Position des zu lokalisierenden Mobilen Gerätes (MD) nicht über Trilateration bestimmt, sondern mit Hilfe eines künstlichen neuronalen Netzes (KNN). Dieser Ansatz wurde gewählt, da Funkwellenausbreitung in Gebäuden durch Hindernisse stark beeinträchtigt wird. Das führt dazu, dass die Position eines MD über Trilateration nur sehr ungenau bestimmt werden kann. Das KNN soll aus vorher genommenen Messwerten Informationen über die Umgebung lernen und so in der Lage sein, ein MD genauer lokalisieren zu können. Dieser Ansatz wurde in einem Experiment in einer Altbauwohnung untersucht. Dazu wurde ein auf freier Software (Linux, BlueZ und Java) basierendes Messsystem entwickelt. Dieses besteht aus mehreren Base Stations (BS), von denen jede mit einem Standard Bluetooth-Modul (MSI BToes 2.0) ausgestattet wurde, und einem Server, welcher die BSs verwaltet. Mit diesem System wurden Messwerte gesammelt, die für das Training der KNNs verwendet wurden. Es konnte gezeigt werden, dass MDs der Bluetooth-Geräteklasse 2 unter Idealbedingungen mit einem durchschnittlichen Fehler von 5,4cm lokalisiert werden konnten. Die Position von MDs der Bluetooth-Geräteklasse 3 konnte unter Idealbedingungen mit einem durchschnittlichen Fehler von 1,9cm bestimmt werden. Marlene Schöllhuber Benchmarking von Projektmanagement mit Hilfe von Reifegrad- und Kompetenzmodellen Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Ao.Univ.Prof. Dr. Renate Motschnig, Universität Wien Abstrakt: Diese Arbeit handelt von den „Reifegrad- und Kompetenzmodellen“ des Projektmanagements. Anhand dieser Modelle können Organisationen die „Reife“ ihres Projektmanagements einschätzen bzw. durch einen externen Experten bewerten lassen. Darüber hinaus bietet der Großteil der geläufigsten Reifegrad- und Kompetenzmodelle Hilfestellung für eine anschließende Verbesserung der Projektmanagementprozesse. In den ersten beiden Kapiteln erfolgt eine Einführung in die Thematik. Danach folgt eine Vorstellung der bekanntesten Modelle, die sich derzeit am Markt befinden. Im Anschluss daran wird aufgezeigt, welche Faktoren bei der Wahl eines Modells beachtet werden sollten. Abschließend wird erläutert, wie eine Bewertung in der Praxis erfolgt. Dazu wurde einerseits ein idealtypischer Ablauf geschildert, andererseits eines der vorgestellten Modelle anhand der Bewertung zweier realer Unternehmen mit Hilfe verschiedener Qualitätskriterien getestet. Thomas Schnöller RFID-Integration in betriebliche Geschäftsprozesse Michael Toman Computer Science in Sports Studium: Masterstudium Wirtschaftsingenieurwesen Informatik BetreuerIn: Ao.Univ.Prof. Christine Strauß, Universität Wien Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof. Dr. Erich Schikuta, Universität Wien Abstrakt: RFID ist eine hochinteressante Technologie, was sich in der steigenden Zahl von Publikation, dieses Gebiet betreffend, widerspiegelt. Bei einer Literaturrecherche findet man oftmals Artikel, die sich mit den technischen Aspekten dieser Technologie auseinandersetzen. Steht man aber nun selbst vor der Entscheidung der möglichen Einführung von RFID in ein Unternehmen, stellt sich die Frage, was die bestmögliche Vorgehensweise für eine erfolgreiche Integration ist. Speziell im Bereich der RFIDIntegration ist es sehr schwierig, konkrete Leitfäden und Checklisten zu erhalten, um Rahmenbedingungen festlegen zu können. An dieses Problem anknüpfend, soll dem interessierten Leser dieser Arbeit, ein möglichst umfassender Einblick in die Fragestellung der Integration von RFID gegeben werden. Dabei wird ein Überblick über den Aufbau von RFID-Systemen mit ihren Hardwarekomponenten gegeben. Ferner beschäftigt sich ein Kapitel 173 Abstrakt: Ziel dieser Diplomarbeit ist es, zwei Anforderungen zu erfüllen. Erstens, einen umfassenden Überblick über den Einsatz von Methoden und Konzepten der Informatik auf dem Gebiet der Sportwissenschaft zu vermitteln. Dies beinhaltet nicht nur den aktuellen Stand der Forschung, sondern auch das Aufzeigen relevanter Informationen und Verbindungen zu verwandten Themenbereichen. Die zweite Anforderung besteht in der didaktischen Aufbereitung der recherchierten Ergebnisse und einer optimalen Wissensvermitlung in Hinblick auf diese Resultate. Diese Aufgabenstellung wird durch den Aufbau eines Online-Kompendiums begegnet, welches für einen breiten Personenkreis konzipiert ist: Es soll sowohl interessierten Laien die Möglichkeit zur Aneignung von 174 Grundlagenwissen bieten, als auch Forschern aktuelle Methoden und Verfahren aufzeigen, welche angrenzend oder auch fernab ihres eigenes Forschungsgebietes angesiedelt sind. Gabriela Waldhart Integrierter Ansatz zum Programm-, Projekt- und IT-Architekturmanagement Studium: Masterstudium Wirtschftsinformatik BetreuerIn: Univ.Prof. Dr. Dimitris Karagiannis, Universität Wien Abstrakt: Die vorliegende Diplomarbeit thematisiert das Zusammenwirken von IT-Architektur-, Projekt- und Programm-management und zeigt einen integrierten Ansatz dieser drei Managementbereiche. Dafür wird an erster Stelle ein Überblick über diese Managementgebiete gegeben, sowie eine Einordnung im breiten Feld des IT-Managements getroffen. Anschließend werden namhafte IT-Architektur-, Projektbeziehungsweise Programmmanagement Frameworks, wie etwa das Zachman Framework im Architekturbereich oder das V-Modell XT zum Projektmanagement, behandelt und auf deren Eignung zur Kombination mit anderen Frameworks eingegangen. Im praktischen Teil der Diplomarbeit werden sodann ein Programm und die damit verbundene Projekte zur Analyse und Umsetzung von IT-Architekturen vorgestellt. Als zentrale Anhaltspunkte gelten hier das "Open Group Architecture Framework" (TOGAF), PRINCE2, sowie dessen eng verwandtes "Managing Successful Programmes" (MSP) Framework. Dabei wird sowohl auf die tragenden Rollen und Verantwortungen in den jeweiligen Programm-, beziehungsweise Projektphasen, als auch auf Aufgaben eingegangen. Nicht zuletzt werden auch konkrete Schwierigkeiten wie etwa die Konfliktbehandlung auf Programmebene bei parallel laufenden IT-Architekturprojekten angesprochen. Zum Schluss folgen eine kritische Beurteilung der Methode, sowie ein Resümee der Arbeit. 175 INDEX AUTORINNEN UND AUTOREN Abou-Zahra, Shadi, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Ahmed, Mansoor, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Altrichter, Christian, Institut für Managementwissenschaften Ammer, Andreas, Institut für Computergraphik und Algorithmen - Arbeitsbereich Computergraphik Angermann, Christoph, Institut für Managementwissenschaften Apaydin-Yücel, Dilek, Medizinische Universität Wien Apfelthaler, Kathrin, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Awender, Simone, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Babic, Nebojsa, Institut für Softwaretechnik und Interaktive Systeme Baldass, Gioia, Universität Wien Bamberger, Harald, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Multidisciplinary Design Baranyi, René, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Bauer, Marion, Universität Wien Baumgartner, Jürgen, Institut für Wirtschaftsmathematik Benmoumen, Imane, Institut für Managementwissenschaften Berger, Andreas, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Berger, Franz, Institut für Computergraphik und Algorithmen - Arbeitsbereich Algorithmen und Datenstrukturen Bernroider, Mahshid, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Beyreder, Markus, Institut fur Computersprachen - Arbeitsbereich Theoretische Informatik und Logik Biro, Sandor, Institut für Computertechnik Bohunsky, Paul, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Bolnberger, Sebastian, Universität Wien Bonitz, Christoph, Institut für Computergraphik und Algorithmen - Arbeitsbereich Algorithmen und Datenstrukturen Brandstetter, Hannes, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Breier, Florian, Institut für Informationssysteme - Arbeitsbereich Distributed Systems 176 Brenner, Richard, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Cerny, Roman, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Chiu, Dey-Fuch, Institut für Computergraphik und Algorithmen - Arbeitsbereich Computergraphik Culha Flechl, Vahidenur, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Cvitkovich, Andreas, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Czoppelt, Gerd, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich Human Computer Interaction Dao Tran, Minh, Institut für Informationssysteme- Arbeitsbereich Wissensbasierte Systeme Darmaputra, Yansen, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence David, Monika, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Deischler, Gernot, Institut für Softwaretechnik und Interaktive Systeme Deix, Wolfgang, Institut für Computergraphik und Algorithmen - Arbeitsbereich Computergraphik Dejmek, Dominik, Institut für interdisziplinäres Bauprozessmanagement Dietl, Gerald, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Dietzel, Olivia, Institut für Computergraphik und Algorithmen - Arbeitsbereich Algorithmen und Datenstrukturen Dimmel, Friedrich, Universität Wien Dorner, Markus, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Eggenhofer, Robert, Institut für Geoinformation und Kartographie Eis, Christian, Institut für Informationssysteme Elgin, Selen, Institut für Softwaretechnik und Interaktive Systeme - Arbeitsbereich Information and Software Engineering Emeakaroha, Vincent Chimaobi, Institut für Breitbandkommunikation Emsenhuber, Gerlinde, Institut für Computergraphik und Algorithmen Arbeitsbereich Computergraphik Feder, Alexander, Institut für Informationssysteme- Arbeitsbereich Wissensbasierte Systeme Fellnhofer, Andreas, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Flanitzer, Thomas, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Fraunschiel, Melanie, Institut für Mechanik und Mechatronik Freund, Wolfgang, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Frühstück, Anton, Institut für Computergraphik und Algorithmen - Arbeitsbereich Computergraphik 177 Frühwirth, Sascha, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Gabriel, Nicole, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Gamper, Michael, Institut für elektrische Antriebe und Maschinen Gansterer, Peter, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Genswaider, Ronald, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Goldfarb, Doron, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Gondowidjaja, Clemens, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Goudarzi, Visda, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich Human Computer Interaction Grüneis, Joachim, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Guggenberger, Philipp, Institut für Managementwissenschaften Habicher, Markus, Zentrum für Informations- und Facilitymanagement Hablesreiter, Bernhard, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Harich, Markus, Institut für Statistik und Wahrscheinlichkeitstheorie Hartl, Isabella, Institut für Computertechnik Hartl, Philipp, Institut für Computergraphik und Algorithmen - Arbeitsbereich Computergraphik Hartmann, Nicole, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction Hedayati-Rad, Elham, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Heigl, Thomas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Heinz, Thomas, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Herren, Marianne, Institut für Geoinformation und Kartographie Hess, Andrea, Institut für Informationssysteme Hirsch, Eduard, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Höfenstock, Emanuel, Institut für Softwaretechnik und Interaktive Systeme Hofer, Christoph, Institut für Managementwissenschaften Hren, Yvonne, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Huber, Benedikt, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Huber, Philipp, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics Hussein, Kariem, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme 178 Ion, Radu, Institut für Statistik und Wahrscheinlichkeitstheorie Jaganjac, Haris, Universität Wien Janhovics, Robert, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Kahler-Ullepitsch, Harald, Institut für Rechnergestützte Automation Arbeitsbereich Automatisierungssysteme Kaiser, Hannes, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Kanzler, Andreas, Institut für Technische Informatik - Arbeitsbereich Real-Time Systems Karakoc, Ufuk, Institut für Informationssysteme Karl, Hans-Dieter, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Karner, Christoph, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Katai, Michael, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Kaunang, Gemma Ferdinand, Institut für Analysis und Scientific Computing Kaynak, Berk, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Kekeiss, Christian, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Keszthelyi, Laszlo, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Kilic, Hasan, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich Multidisciplinary Design Kim, Nikolai, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Kirchweger, Anna, Institut für Managementwissenschaften Kleedorfer, Florian, Institut für Informationssysteme Knausz, Markus, Institut für Computergraphik und Algorithmen - Arbeitsbereich Algorithmen und Datenstrukturen Kneissl, Michael, Institut für Managementwissenschaften Knoll, Matthias, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Kofler, Mario Jerome, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Köhler, Wolfgang, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Kohlhauser, Stefan, Institut für Computertechnik Koitz, Michael, Universität Wien Koller, Wolfgang, Medizinische Universität Wien Kolomaznik, Patrick, Institut für Managementwissenschaften Kraut, Hubert, Institut für Technische Informatik - Arbeitsbereich Real-Time Systems Kremmel, Thomas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering 179 Krenn, Ulirch, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Krestel, Christian, Institut für Wirtschaftsmathematik Krumpöck, Markus, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Kuch, Johannes, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Kulnigg, Martin, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Kurz, Gernot, Institut für Analysis und Scientific Computing, logo med uni Langthaler, Johannes, Institut für Wirtschaftsmathematik Leder, Sonja, Institut für Informationssysteme- Arbeitsbereich Wissensbasierte Systeme Lederer, Doris, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Lee, Mei Sin, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Lenz, Gerald, Department für Raumentwicklung, Infrastruktur- und Umweltplanung Levrinc, Rastislav, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Libal, Tomer, Institut fur Computersprachen - Arbeitsbereich Theoretische Informatik und Logik Liensberger, Armin, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Lin, Chia-chang, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Löbl, Claudia, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Löwenstein, Bernhard, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Ludl, Christian, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Mager, Andreas, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Manutscheri, Arman, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Maricevic, Tomislav, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Martinovic, Ruza, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Mauczka, Andreas, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Mc Allister, Sean, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Meller, Christoph, Institut für Wirtschaftsmathematik 180 Menches, Alexander N., Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Messner, Robert, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Meurers, Christian, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction Mihailevschi, Vadim, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Mitterbauer, Josef, Institut für Computertechnik Monitzer, Andreas, Institut für Computergraphik und Algorithmen Arbeitsbereich Computergraphik Morandell, Wolfgang, Institut für Computergraphik und Algorithmen Arbeitsbereich Algorithmen und Datenstrukturen Moser, Claudia, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Moser, Jürgen, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Müller, Abraham, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics Müller, Andreas, Institut für Rechnergestützte Automation - Arbeitsbereich Mustererkennung und Bildverarbeitung Müller, Gerald, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics Mund, Thomas, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Muri, Stephan, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Music, Thomas, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich Human Computer Interaction Neuwirth, Martin, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction Nikoll, Nikolaus, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Nindl, Gottfried, Universität Wien Novak, Roman, Institut für Geoinformation und Kartographie Novatchkov, Hristo, Universität Wien Oates, Carolyn, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Obernberger, Gerhard, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction Oberschneider, Alexandra, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction Öhlinger, Patrick, Institut für Wirtschaftsmathematik Opitz, Markus, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Oprsal, Juraj, Institut für Informationssysteme - Arbeitsbereich Distributed Systems 181 Ostrcil, Dr., Richard, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Paier, Michael, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Paisios, Emmanouil, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Parisot, Jean-Marie, Universität Wien Payani, Prasanna Kumari, Institut für Rechnergestützte Automation Arbeitsbereich Automatisierungssysteme Perner, Andreas, Institut für Softwaretechnik und Interaktive Systeme Pichler, Christian, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics Pilani, Sunil, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Platzer, Werner, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Platzgummer, Gerd, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Pölz, David, Universität Wien Potocka, Anna, Institut für Computergraphik und Algorithmen - Arbeitsbereich Algorithmen und Datenstrukturen Prein, Andreas, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Pröstler, Michael, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Pruckermayr, Christoph, Institut fur Computersprachen - Arbeitsbereich Theoretische Informatik und Logik Puchegger, Thomas, Department für Raumentwicklung, Infrastruktur- und Umweltplanung Pucher, Christian, Institut für Technische Informatik - Arbeitsbereich Real-Time Systems Puchta, Jürgen, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich Human Computer Interaction Rainer, Thomas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Rajtarova, Jana, Medizinische Universität Wien Rammer, Katja, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Reitner, Heiko, Institut für Analysis und Scientific Computing Rezvani-Naraghi, Roshanak, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction Riepler, Michael, Institut für elektrische Antriebe und Maschinen Rieschl, Werner, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Rigler, David, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau 182 Ring, Stefan, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Ringhofer, David, Department für Raumentwicklung, Infrastruktur- und Umweltplanung Röck, Dominik, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Roschger, Christoph, Institut fur Computersprachen - Arbeitsbereich Theoretische Informatik und Logik Rosenauer, Gregor, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Rossa, Martha, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Rossler, Markus, Institut für Computertechnik Ruzicka, Dietmar, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Samimi, Pouria, Institut für Fertigungstechnik Sari, Murat, Institut für Computergraphik und Algorithmen - Arbeitsbereich Computergraphik Satzer, Manfred, Institut für Computergraphik und Algorithmen - Arbeitsbereich Computergraphik Schaffer, Gerd, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Schanes, Christian, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Schedenig, Marian, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Scheibböck, Christian, Medizinische Universität Wien Scheller, Thomas, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Schimper, Kathrin, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Schindler, Paul, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Schmied, Gernot, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Schnabl, Stefan, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Schneider, Stefan, Universität Wien Schnöller, Thomas, Universität Wien Schöllhuber, Marlene, Universität Wien Scholz, Florian, Institut für Gestaltungs- und Wirkungsforschung - Arbeitsbereich Human Computer Interaction Schreiber, Christian, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Schwarzbauer, Martin, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme 183 Singewald, Christoph, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Sokop, Christian, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics Sreerama, Sai Giridhar, Institut für Rechnergestützte Automation Arbeitsbereich Automatisierungssysteme Stadler, Urban, Institut für Mechanik und Mechatronik Steiner, Lukas, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Strnad, Thomas, Institut für Technische Informatik - Arbeitsbereich Real-Time Systems Strodl, Stephan, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Stubenschrott, Martin, Institut für Mechanik und Mechatronik Sturmlechner, Manfred, Institut für Rechnergestützte Automation Arbeitsbereich Automatisierungssysteme Terczka, Alexander, Institut für Rechnergestützte Automation - Arbeitsbereich Automatisierungssysteme Thiery, Johannes, Institut für Geoinformation und Kartographie Thullner, Robert, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Toman, Michael, Universität Wien Triska, Markus, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Tschurlovits, Marie-Theres, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Interactive Media Systems Tuzcu, Bayram, Institut für Fertigungstechnik Ulbing, David, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Unterasinger, Lukas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Url, Christian, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Uzun, Serkan, Institut für Informationssysteme Vielguth, Stefan, Institut für Computertechnik Wachter, Bernhard, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Wagner, Gerhard, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Waldhart, Gabriela, Universität Wien Wallner, Gerald, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Human Computer Interaction Wang, Bin, Institut für Wirtschaftsmathematik Wastyn, Christoph, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Weber, Ulrike, Department für Raumentwicklung, Infrastruktur- und Umweltplanung 184 Webley, Andreas, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Wehinger, Bernhard, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Weingartner, Hannes, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Weisl, Wilfried, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Wiedermann, Peter, Institut für Computersprachen - Arbeitsbereich Programmiersprachen und Übersetzerbau Willitsch, Leo, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Wimmer, Engelbert, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence Winkler, Markus, Institut für Softwaretechnik und Interaktive Systeme Winkler, Thomas, Institut für Informationssysteme - Arbeitsbereich Distributed Systems Winnisch, Markus, Institut für Gestaltungs- und Wirkungsforschung Arbeitsbereich Multidisciplinary Design Wögerer, Wolfgang, Institut für Technische Informatik - Arbeitsbereich Real-Time Systems Wohlmann, Matthias, Institut für Computergraphik und Algorithmen Arbeitsbereich Computergraphik Wronski, Daniel, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Information and Software Engineering Yaman, Emine, Institut für Analysis und Scientific Computing Yildiz, Hasibe, Institut für Informationssysteme Yücel, Ahu Zeynep, Institut für Softwaretechnik und Interaktive Systeme Arbeitsbereich Business Informatics Zaubzer, Ferdinand, Institut für Computergraphik und Algorithmen Arbeitsbereich Algorithmen und Datenstrukturen Zaubzer, Stephan, Institut für Computergraphik und Algorithmen - Arbeitsbereich Algorithmen und Datenstrukturen Zerawa, Simon-Alexander, Institut für Managementwissenschaften Zwierschitz, Thomas, Institut für Informationssysteme - Arbeitsbereich Database and Artificial Intelligence INSTITUTE DER FAKULTÄT FÜR INFORMATIK I N S T I T U T F Ü R T E C H N I S C H E I N F O R M A T I K .................. 3 Arbeitsbereich Real Time Systems..............................................3 I N S T I T U T F Ü R R E C H N E R G E S T Ü T Z T E A U T O M A T I O N .7 Arbeitsbereich Automatisierungssysteme....................................7 Arbeitsbereich Mustererkennung und Bildverarbeitung ...............33 I N S T I T U T F Ü R I N F O R M A T I O N S S Y S T E M E ................... 33 Arbeitsbereich Distributed Systems..........................................33 Arbeitsbereich Database and Artificial Intelligence .....................42 Arbeitsbereich Knowledge Based Systems ................................52 I N S T I T U T F Ü R C O M P U T E R S P R A C H E N ........................ 57 Arbeitsbereich Programmiersprachen und Übersetzerbau...........57 Arbeitsbereich Theoretische Informatik und Logik ......................65 INSTITUT FÜR COMPUTERGRAPHIK UND A L G O R I T H M E N .................................................................... 68 Arbeitsbereich Algorithmen und Datenstrukturen.......................68 Arbeitsbereich Computergraphik ..............................................73 INSTITUT FÜR GESTALTUNGS- UND WIRKUNGSF O R S C H U N G ...................................................................... 80 Arbeitsbereich Multidisciplinary Design .....................................80 Arbeitsbereich Human Computer Interaction .............................82 INSTITUT FÜR SOFTWARETECHNIK UND I N T E R A K T I V E S Y S T E M E ................................................. 88 Arbeitsbereich Information und Software Engineering .................88 Arbeitbereich Interactive Media Systems ................................120 Arbeitsbereich Business Informatics.......................................121 185 186 ANDERE INSTITUTE DER TU WIEN ZENTRUM FÜR INFORMATIONS- UND F A C I L I T Y M A N A G E M E N T ............................................... 129 INSTITUT FÜR ANALYSIS UND SCIENTIFIC C O M P U T I N G ..................................................................... 129 I N S T I T U T F Ü R W I R T S C H A F T S M A T H E M A T I K ........... 133 INSTITUT FÜR STATISTIK UND W A H R S C H E I N L I C H K E I T S T H E O R I E .............................. 137 INSTITUT FÜR GEOINFORMATION UND K A R T O G R A P H I E .............................................................. 138 INSTITUT FÜR INTERDISZIPLINÄRES B A U P R O Z E S S M A N A G E M E N T ....................................... 141 DEPARTMENT FÜR RAUMENTWICKLUNG, I N F R A S T R U K T U R - U N D U M W E L T P L A N U N G ............ 142 I N S T I T U T F Ü R F E R T I G U N G S T E C H N I K ....................... 144 I N S T I T U T F Ü R M E C H A N I K U N D M E C H A T R O N I K .... 145 I N S T I T U T F Ü R M A N A G E M E N T W I S S E N S C H A F T E N . 148 INSTITUT FÜR ELEKTRISCHE ANTRIEBE UND M A S C H I N E N .................................................................... 154 I N S T I T U T F Ü R C O M P U T E R T E C H N I K .......................... 156 I N S T I T U T F Ü R B R E I T B A N D K O M M U N I K A T I O N ........ 161 IN ZUSAMMENARBEIT MIT ANDEREN W I S S E N S C H A F T L I C H E N E I N R I C H T U N G E N ............... 162 187 KONTAKT http://www.informatik.tuwien.ac.at Zentrum für Koordination und Kommunikation der Fakultät für Informatik Favoritenstraße 9/195 1040 Wien [IN:N] Informatik-Netzwerk für Absolventinnen und Absolventen der Fakultät für Informatik und andere interessierte Personen http://inn.tuwien.ac.at IMPRESSUM Konzept, Graphische Gestaltung: Dipl.-Ing. Karin Hraby © 2008 Technische Universität Wien Fakultät für Informatik Diese Veranstaltung der Fakultät für Informatik wird unterstützt von: Hauptsponsor