masterarbeiten 2011
Transcription
masterarbeiten 2011
STUDIUM Masterarbeiten 2011 HSR Hochschule für Technik Rapperswil ■ Oberseestrasse 10 ■ Postfach 1475 ■ CH-8640 Rapperswil Telefon +41 (0)55 222 41 11 ■ office@hsr.ch ■ www.hsr.ch Vorwort des Prorektors Im Masterstudium findet eine gezielte Vertiefung der Ausbildung in den Bereichen Technik, Informationstechnologie sowie Bau- und Planungswesen statt. Die Masterstudierenden erweitern ihre Fachkenntnisse sowie Methoden- und Selbstkompetenzen aufgrund der guten Einbindung in ein Forschungsteam. In der noch stärker projektorientierten Ausbildung profitieren die Masterstudentinnen und -studenten von den besten Fachleuten auf ihrem Gebiet. Die Studierenden wirken aktiv bei Projekten mit, die einen bestehenden Forschungsschwerpunkt aufweisen, was eine hohe Spezialisierung in diesem Themenfeld ermöglicht. Mit der Masterarbeit beweisen sie ihre Fähigkeit, eine umfassende Arbeit, die hohen methodischen sowie konzeptionellen und wissenschaftlichen Ansprüchen gerecht wird, selbstständig durchzuführen. Ich freue mich, Ihnen gemeinsam mit den hoch motivierten Masterabsolventen und -absolventinnen sowie Ihren Betreuern die Abschlussarbeiten vorzustellen. Überzeugen Sie sich selbst von der Qualität und den Ergebnissen dieser ausserordentlichen Leistungen. Rapperswil, im März 2011 Jean-Marc Piveteau Prorektor 3 Examinatoren Prof. Oliver Augenstein Prof. Heinz Domeisen Prof. Dr. Frank Ehrig Prof. Dr. Markus Henne Prof. Hansjörg Huser Prof. Dr. Josef M. Joller Prof. Dr. Albin Kenel Dr. Christian Marti Prof. Matthias Rommel Prof. Dr. Hansruedi Schneider Prof. Dr. Joachim Schöffel Prof. Dr. Guido Schuster Prof. Peter Sommerlad Prof. Dr. Jürg Speerli Prof. Felix Wenk Expertinnen und Experten Johannes Abegg Prof. Dr. Bryan T. Adey Prof. Dr. Ivar Austvoll Dr. Hans Bärfuss Martin Botzler Dr. Peter Derleth Ralph Eismann Dr. Juan Gruber Hans Gschwend Dr. Rolf Guldenfels Dr. Karjoth Günter Prof. Bernhard Hämmerli Dr. Klaus Hornberger Ludger Klostermann Dierk König Dr. Guido Lauber Prof. Dr. Michael Niedermeier Christoph Ruch Prof. Dr. Tom Ryen Nadia Semadeni Wicki 4 Themen, Diplomandinnen und Diplomanden Master Research Unit Environmental Engineering Alternative Wasserkraftnutzungen – Abwasserkraftwerk Morgental Fernando Bonato 8 Fischdurchgängigkeit und Kleinwasserkraft im Kanton Zürich David Walti 9 Optimierung von Geschiebesammlern Timotheus Wepf 10 Praxistaugliches Bemessungsverfahren für kombinierte Pfahl-Plattenfundationen (KPP) Martin Schierscher 11 Quantifizierung klimatischer Einflüsse auf Porenwasserspannungen in ungesättigten Böden Jan Amstutz 12 Runout analysis of rapid, flow-like landslides Philipp Fitze 13 Sanierung Töss Orüti – Steg Stefanie Berchtold 14 Thermische und optische Charakterisierung von Parabolrinnenkollektoren Marco Larcher15 Traglastversuche an hochfesten Stahlbetonstützen Gion Blumenthal 16 Master Research Unit Innovation in Products, Processes and Materials Auslegung und Aufbau einer automatischen Laserschweissanlage Dominique Martin 18 Bewertung des Einsatzes von Simulationstools zur Auslegung von dreidimensionalen, metallfolienhinterspritzten Kunststoffbauteilen Thomas Reber 19 Machbarkeitsstudie zum Dampfschiff «Schaffhausen» Roman Frei 20 Master Research Unit Public Planning Vergleich zwischen einzelbauwerk- und netzfokussierten Erhaltungsstrategien für Verkehrsinfrastrukturen am Beispiel der A19 bei Grengiols Ulrich Stüssi 22 Vision Lachen 2030 Reto Rogger 23 5 Themen, Diplomandinnen und Diplomanden (Fortsetzung) Master Research Unit Sensor, Actuator and Communication Systems Efficient Implementation and Evaluation of Methods for the Estimation of Motion in Image Sequences Robert Hegner 26 Energieeffiziente Kompression von Multi-Kavitäten-Druckdaten in Echtzeit Silvan Forrer 27 Kopfgestenerkennung mit 3D-Beschleunigungs- und Drehratensensoren Mario Jurcevic 28 Master Research Unit Software and Systems 6 C3P0 Thomas Corbat 30 Conflict Detection and Resolution of XACML Policies Florian Huonder 31 DeepSpace-8 Pascal Kesseli 32 Optimizing XACML Policies Stefan Oberholzer 33 ReDHead Lukas Felber 34 Scala Refactoring Mirko Stocker 35 Transcompiler-Infrastruktur Martin Seelhofer 36 TrueSense in the Cloud Roland Krummenacher 37 Master Research Unit Environmental Engineering Die MRU Environmental Engineering realisiert interdisziplinäre Forschungsprojekte aus den Schwerpunkten «Bauingenieurwesen», «Technischer Umweltschutz» und «Erneuerbare Energien». Die MRU verfügt über ein Forschungsteam aus allen Sparten der Naturwissenschaften und des Engineering, von dem die Masterstudierenden profitieren. An der MRU beteiligte Institute Die MRU «Environmental Engineering» wird von den folgenden Instituten der HSR gemeinsam getragen und zentral koordiniert: –– Institut für Bau und Umwelt IBU –– Institut für Energietechnik IET –– Institut für Umwelt- und Verfahrenstechnik UMTEC –– Institut für Solartechnik SPF 7 DiplomandFernando Bonato ExaminatorProf. Dr. Jürg Speerli ExperteDr. Guido Lauber, Emch+Berger AG, Spiez Master Research Unit Environmental Engineering Projektpartner Rüesch Engineering AG, Herisau, AR Fernando Bonato Alternative Wasserkraftnutzungen – Abwasserkraftwerk Morgental Ausgangslage: Im Rahmen der Förderung der erneuerbaren Energien werden vermehrt auch Trinkwasser- und Abwasserkraftwerke geplant und realisiert. Abwasserkraftwerke können neben der Erzeugung von elektrischer Energie auch einen wichtigen Beitrag zu Gunsten der Gewässerqualität leisten. Aufgabenstellung: In dieser Masterarbeit sollen in einer ersten Phase die technologischen und kommerziellen Entwicklungsmöglichkeiten von Trinkwasser- und Abwasserkraftwerken aufgezeigt werden. In einer zweiten Phase soll ein Abwasserkraftwerk, welches die Ableitung des gereinigten Abwassers der ARA Hofen bis zur ARA Morgental beinhaltet, ausgearbeitet werden. In einer dritten Phase soll die Sanierung des Bergerbachs, welcher ein Teil des Projektgebietes entwässert, geplant werden. Situationsplan Projektgebiet Schema Toskammer Ein neuer Querschnitt des Bergerbachs 8 Ergebnis: Die Untersuchungen haben unter anderem ergeben, dass Trink- und Abwasserkraftwerke eine sehr positive Umweltbilanz aufweisen, da sie in bestehende Infrastrukturen integriert werden können. Neben der ARA Hofen befindet sich die Wasserfassung des geplanten Abwasserkraftwerks. Eine 5 km lange, erdverlegte Druckleitung mit einem Durchmesser von 700 mm führt das gereinigte Abwasser bis zur Zentrale, welche direkt neben dem Areal der ARA Morgental liegt. In der Zentrale wird eine vertikale, vierdüsige Peltonturbine mit einer Leistung von 1.1 MW angeordnet, welche eine jährliche Stromproduktion von ca. 4.1 GWh aus erneuerbarer Energie erzeugt. Die Gestehungskosten belaufen sich auf 10.6 Rp/kWh. Für den Fall, dass die Turbine nicht in Betrieb genommen werden kann, wird parallel zur Turbine eine Bypassleitung eingerichtet. Die hauptsächliche Energieumwandlung erfolgt dann durch ein leistungsfähiges Ringkolbenventil mit elektrischem Regler, welches ebenfalls als Druckstossminderung eingesetzt werden kann. Das durch den Bypass abgeleitete Wasser gelangt in die Toskammer, wo die restliche Energie des Wassers abgeleitet wird. Der Bergerbach wurde untersucht und die Ergebnisse zeigen, dass er nicht hochwassersicher ist und verschiedene ökologische Defizite aufweist. Als Lösungsvorschlag für den Bergerbach wurde eine neue, naturnahe Gerinnegeometrie dimensioniert, welche aufgrund der Schutzziele für ein HQ30/ HQ100 die beste Variante darstellt, da sich so Synergien zwischen ökologischer Aufwertung und Hochwasserschutz nutzen lassen. Mit den vorgeschlagenen Massnahmen im Bergerbach wird ein genügender Hochwasserschutz gewährleistet und das Ökosystem für Pflanzen und Tiere wieder hergestellt. DiplomandDavid Walti ExaminatorDr. Christian Marti ExperteNadia Semadeni Wicki, Axpo AG, Baden Master Research Unit Environmental Engineering Projektpartner Baudirektion Kanton Zürich; Amt für Abfall, Wasser, Energie und Luft (AWEL) David Walti Fischdurchgängigkeit und Kleinwasserkraft im Kanton Zürich Nicht fischgängiges Absturzbauwerk am Ellikerbach bei Ellikon Ausschnitt aus dem Übersichtsplan der zu sanierenden Absturzbauwerke (rot: 1. Priorität, gelb: 2. Priorität, grün: 3. Priorität) Ausgangslage: Das revidierte Bundesgesetz über den Schutz der Gewässer (Gewässerschutzgesetz GSchG), welches zum 1. Januar 2011 in Kraft getreten ist, verfolgt unter anderem die Absicht, der längst bestehenden Forderung der Fischdurchgängigkeit mit finanziellen Anreizen einen neuen Umsetzungsschwung zu verleihen. Es verpflichtet sämtliche Kantone, bis Ende 2012 eine Übersicht über die zu sanierenden Gewässerabschnitte und Wasserkraftanlagen inklusive erster Massnahmevorschläge zu erarbeiten. Der Kanton Zürich will zu diesem Zweck in einem ersten Schritt das rund 400 km umfassende kantonale Gewässernetz untersuchen. Bei grösseren Abstürzen sind die kantonalen Behörden neben der Problematik der Fischdurchgängigkeit immer wieder mit der Frage konfrontiert, ob im Sinne der Förderung erneuerbarer Energien ein Kleinwasserkraftwerk betrieben werden könnte. Zur Beurteilung der eingereichten Nutzungsgesuche will der Kanton Zürich eine Übersicht über die Abstürze erarbeiten, bei welchen aufgrund der Absturzhöhe und Wasserführung tatsächlich ein wirtschaftlich interessantes und nutzbares Potential vorhanden ist. Vorgehen: Im Rahmen dieser Studie werden die kantonalen Fliessgewässer auf ihre Fischdurchgängigkeit untersucht. Dazu wird das Gewässernetz nach Auswertung der vorhandenen Vermessungsdaten sowie Festlegung der Kriterien bezüglich Fischdurchgängigkeit begangen und die Hindernisse für die Fischwanderung werden aufgenommen. Mit Hilfe eines Bewertungskonzeptes werden die Abstürze und Bauwerke anschliessend in verschiedene Sanierungsprioritätsstufen bezüglich Fischdurchgängigkeit eingestuft. Weiter wird bei den grösseren Abstürzen untersucht, ob sich diese aufgrund der Absturzhöhe und Wasserführung zur Nutzung von Kleinwasserkraft eignen. An potentiellen Standorten bezüglich Kleinwasserkraftnutzung werden anschliessend die Jahresproduktionen berechnet. Im letzten Teil werden konzeptionelle Überlegungen zur Projektierung solcher Kleinwasserkraftanlagen gemacht. Ergebnis: Die Untersuchung hat ergeben, dass die kantonalen Fliessgewässer zahlreiche Hindernisse für die Fischwanderung aufweisen. In den untersuchten Gewässerabschnitten fallen 90 Absturzbauwerke in die erste Prioritätsstufe und sind dringend zu sanieren. Zudem wurde aufgrund der Ermittlung der Jahresproduktionen ersichtlich, dass im Kanton Zürich noch sechs interessante Standorte zur Kleinwasserkraftnutzung vorhanden sind. Potentieller Standort einer Kleinwasserkraftanlage an der Glatt bei Glattfelden 9 DiplomandTimotheus Wepf ExaminatorProf. Dr. Jürg Speerli ExperteDr. Guido Lauber, Emch+Berger AG, Spiez Master Research Unit Environmental Engineering Timotheus Wepf Optimierung von Geschiebesammlern Versuchsreihe zur Optimierung der Funktionsweise von Geschiebesammlern Ausgangslage: Zum Schutz vor Überschwemmungen im Bereich eines Schwemmkegels wird durch technische Massnahmen das Geschiebe im Oberlauf zurückgehalten. Diese Geschiebesammler haben oft eine Dosierungsfunktion. Das heisst, dass das Geschiebe temporär zurückgehalten und bei abklingender Hochwasserwelle ausgespült wird. Daraus ergeben sich zwei Probleme: Im Zeitabschnitt des temporären Rückhalts ergeben sich Erosionserscheinungen im Unterlauf. Weiter konnte in Modellversuchen beobachtet werden, dass bei fehlendem Schwemmholz der Geschiebesammler bei abklingender Hochwasserwelle grösstenteils entleert werden kann. Eine Überschwemmung und Übersarung im Unterlauf kann die Folge sein. Versuchsstand an der HSR Hochschule für Technik Rapperswil Modellversuch zur Rückhaltewirkung der Sortiersperre Sortiersperre am Palanggenbach im Kanton Uri 10 Vorgehen: Es ergeben sich vier Anforderungen an die Funktion eines Geschiebesammlers. Erstens soll ein übermässiger Austrag bei abklingender Hochwasserwelle verhindert werden. Zweitens soll ein Geschiebeaustrag von feineren Fraktionen während des Ereignisses gewährleistet werden. Drittens soll der Geschiebetransport bei kleineren Ereignissen nicht eingeschränkt werden und viertens der finanzielle Aufwand für den Unterhalt bzw. die maschinelle Räumung des Geschiebesammlers möglichst gering sein. Für die Modellversuche wurde eigens ein Versuchsstand erstellt. Verschiedenste Typen von Ausleitbauwerken von Geschiebesammlern wurden getestet und die Erreichbarkeit der Ziele untereinander verglichen. Die Ausleitbauwerke unterscheiden sich in der Funktion der Dosierung und Filterung. Unter Filterung wird ein selektiver Rückhalt von groben Komponenten verstanden, wobei feine Komponenten ungehindert durchdriften können. Die Untersuchung umfasste Modellversuche mit einer Sortiersperre (Filterung), einer Grunddole (Dosierung) und einer gesteuerten Schütze (Dosierung). Ergebnis: Mit Dosiersperren können die angestrebten Ziele nicht erreicht werden. Die Modellversuche zeigten, dass die Ersetzung der Dosierung durch die Filterung entscheidende Vorteile bringt. Je nach Stababstand kann die Sperre für kombinierte Schwemmholz- und Geschiebeführung oder reine Geschiebeführung optimiert werden. Durch die Filterung kann ein teilweiser Geschiebetrieb permanent aufrechterhalten werden. Ein übermässiger Geschiebeaustrag bei einer abklingenden Hochwasserwelle kann durch die mechanische Rückhaltewirkung effektiv verhindert werden. Die Funktion der Sortiersperre bei einem Schwemmholzanfall bedarf weiterer Untersuchungen. Die Selbstentleerung und die Spülung sowie die Durchgängigkeit bei kleineren Ereignissen soll zukünftig genauer analysiert werden. DiplomandMartin Schierscher ExaminatorProf. Dr. Hansruedi Schneider ExperteDr. Rolf Guldenfels, Bundesamt für Verkehr, Bern Master Research Unit Environmental Engineering Martin Schierscher Praxistaugliches Bemessungsverfahren für kombinierte Pfahl-Plattenfundationen (KPP) Analyse des Tragverhaltens mit der FEM zur Herleitung eines praxistauglichen Bemessungsverfahrens Ausgangslage: Die Kombinierte Pfahl-Platten-Gründung (KPP) ist eine geotechnische Verbundkonstruktion, welche sowohl die Tragwirkung der Platte wie auch diejenige der Pfähle berücksichtigt. Diese Gründungsform wird in der Schweiz selten als KPP bemessen, sondern als reine Pfahlfundation. Ein Grund dafür ist das unverständliche Bemessungskonzept für KPP in der Norm SIA 267. Bild 1: Die Fundation von schweren Hochhäusern erfordert oft den Einsatz von reinen Pfahlgründungen oder als wirtschaftliche Alternative eine KPP Bild 2: Komplexe Interaktion der beiden Gründungselemente Pfahl und Platte bei einer kombinierten Pfahl-Platten-Gründung (KPP) Vorgehen: Das Tragverhalten einer KPP wird massgeblich durch die Steifigkeit der beteiligten Elemente beeinflusst. Diese können mit bekannten Ansätzen berechnet werden. Die Koppelung der beiden Teilsysteme erfolgt mithilfe eines Interaktionsfaktors, welcher die gegenseitige Beeinflussung der Elemente erfasst. Für die Bemessung einer KPP stehen unterschiedliche Verfahren zur Verfügung. Es muss zwischen numerischen 3D-FE-Verfahren und numerischen oder analytischen Näherungsverfahren unterschieden werden. Für das in dieser Arbeit geforderte Handberechnungsverfahren kommt nur ein analytisches Näherungsverfahren in Frage. Die im Literaturstudium zusammengetragenen Bemessungsverfahren weisen teilweise grössere Abweichungen zu den Resultaten des numerischen 3D-FE-Verfahrens auf. Anhand des Ansatzes von Randolph wurde ein praxistaugliches Bemessungsverfahren entwickelt, welches als Eingabegrössen die Steifigkeit der beteiligten Elemente und einen Interaktionsfaktor benötigt. Die Berechnung der Eingabewerte konnte praxistauglich vereinfacht und in parametrisierten Diagrammen dargestellt werden. Die Überprüfung des neuentwickelten Bemessungsverfahrens erfolgte anhand von drei Beispiel-KPPs. Es konnte in allen Fällen eine wesentliche Verbesserung der Genauigkeit erreicht werden. Das neue Bemessungsverfahren wurde anschliessend in Anwendungsbeispielen zur Berechnung von bereits ausgeführten und instrumentierten KPPs herangezogen. Ein Vergleich zwischen den numerischen 3D-FE-Berechnungen, dem Bemessungsverfahren und den effektiven Messwerten weist eine ausreichend genaue Übereinstimmung auf. Fazit: Es hat sich gezeigt, dass im Bereich der KPP noch einiges optimiert werden kann. Es wird empfohlen, den Abschnitt über die KPP in der Norm SIA 267 zu überarbeiten. Das in dieser Arbeit entworfene Bemessungsverfahren zeigt auf, dass ein praxistauglich vereinfachtes Verfahren eine genügende Genauigkeit erreichen kann. Eine vermehrte Anwendung der KPP in der Schweiz ist allein aus wirtschaftlicher Sicht erstrebenswert. Durch ein geeignetes Pfahllayout kann zusätzlich auch die Anfälligkeit der Gründung gegen Verkippen und Setzungsdifferenzen reduziert werden. Bild 3: Querschnitt durch eine 3D-FE-Berechnung einer KPP mit 16 Pfählen 11 DiplomandJan Amstutz ExaminatorProf. Dr. Hansruedi Schneider ExperteDr. Rolf Guldenfels, Bundesamt für Verkehr, Bern Master Research Unit Environmental Engineering Jan Amstutz Quantifizierung klimatischer Einflüsse auf Porenwasserspannungen in ungesättigten Böden Rutschung in Pontresina GR, 04.07.2010 (Quelle: Kanton Graubünden) Ausgangslage: Hanginstabilitäten gehören zu den häufigsten Naturgefahren der Schweiz. Insbesondere die oberflächennahen Rutschungen werden meist durch heftige Niederschlagsereignisse ausgelöst. In der klassischen Geotechnik wird angenommen, dass der Böschungsbruch durch das Ansteigen des Grundwasserspiegels verursacht wird. In den oberflächennahen Zonen von steilen Hängen ist jedoch meist gar kein Grundwasserspiegel vorhanden. Deshalb muss ein grosser Teil der Rutschungen auf eine andere Ursache zurückzuführen sein. In ungesättigten Böden haben Porenwasserspannungen einen wesentlichen Einfluss auf die Böschungsstabilität. Die sogenannten Saugspannungen verleihen dem ungesättigten Boden eine scheinbare Kohäsion. Durch Infiltration von Regenwasser wird diese scheinbare Kohäsion im Boden zerstört. Dieser Vorgang kann die Böschungsstabilität so stark reduzieren, dass eine Rutschung ausgelöst wird. Vorgehen: Aufgrund von hochaufgelösten Niederschlagsprognosen und lokalen Böschungsneigungen wurde ein regionales Hangrutschvorhersagemodell entwickelt. Basierend auf gut dokumentierten Ereignissen konnte überprüft werden, ob dieses Modell die Gefahr zeitlich und örtlich richtig einschätzt. Des Weiteren wurden Laboruntersuchungen durchgeführt mit dem Ziel, die sich zeitlich verändernden Porenwasserspannungen in ungesättigten Böden als eine Folge der Infiltration von Regenwasser zu quantifizieren. Die Ergebnisse der Infiltrations- und Evaporationsversuche wurden mit den Resultaten einer FE-Modellierung verglichen. Hangrutschvorhersage aufgrund der Niederschlagsprognosen COSMO-7 Tensiometermessungen beim Infiltrationsversuch im physikalischen Modell 12 Ergebnis: Es wurde gezeigt, dass die oberflächennahen Rutschungen im Fall Napf 2005 und teilweise auch im Fall Appenzell 2002 aufgrund der hochaufgelösten Niederschlagsprognosen COSMO-7 und den regionalen Böschungsneigungen gemäss dem digitalen Höhenmodell DHM25 prognostizierbar waren. Bei den Prognosen zum Ereignis Appenzell 2002 wurden die Niederschlagsintensitäten unterschätzt. Dies ist der Grund, weshalb die Rutschungen in diesem Fall nur teilweise vorausgesagt werden konnten. Aufgrund eines physikalischen und numerischen Modells konnten die klimatischen Einflüsse auf Porenwasserspannungen beim Bodenmaterial «Sand von Teufen» quantifiziert werden. Es hat sich herausgestellt, dass die Resultate der FEModellierung bei bekannten Bodeneigenschaften relativ gut mit Messergebnissen des physikalischen Modells übereinstimmen. Graduate Candidate Philipp Fitze ExaminerProf. Dr. Hansruedi Schneider Co-Examiner Dr. Rolf Guldenfels, Bundesamt für Verkehr, Bern Master Research Unit Environmental Engineering Project Partner University of British Columbia, Vancouver Philipp Fitze Runout analysis of rapid, flow-like landslides A review of common methods and back-analysis of two examples Introduction: A growing population and a need for natural resources is resulting in new developments on or below unstable slopes. This trend and more extreme weather conditions are responsible for an increasing number of landslides, resulting in huge socioeconomic losses. Debris flows, debris avalanches, rock avalanches, and flow slides are amongst the most dangerous landslides. They are extremely rapid and cause significant destruction along their path, often far from their origin. Hazard analysis of flow-like landslides, consisting of a stability analysis and, very important, a run-out analysis USGS debris-flow experiments used for numerical back-analysis Result of the numerical runout simulation of the Goldau rock avalanche, 1806, Switzerland Objective: Runout analysis, used for the prediction of landslide motion and its effects, is a very important assessment component for the management of landslide risks. The overall objective of this thesis is to present a broad view of the post-failure motion of landslides. Different runout approaches are discussed and applied to the USGS debris flow experiments and the case study: the Goldau rock avalanche. The ultimate goal, however, is the creation of a substantial database of calibrated input parameters for the numerical models. This database may in future be a useful tool for predicting landslides. Result: Runout prediction methods can be empirical or analytical. The empirical methods use correlations of real events to estimate the runout distance, but they are generally not capable of estimating the intensity parameters, and show a large scatter. In sensitive areas it is recommended to use the more rigorous analytical approaches which are capable of accounting for local geometry and materials. Analytical approaches include the sliding block model and depth-averaged continuum dynamic models. Both models were tested and used in this work. For the continuum dynamic models, DAN and DAN3D were used; in the former, the landslide motion is simulated along a user prescribed path and in the latter, across three-dimensional terrain. These models are capable of accounting for strain-dependent, non-hydrostatic internal stresses, material entrainment; and varying rheologies along the path. They are efficient and have been tested against and back-calculated full-scale tests, showing good results. The back-calculations for the USGS debris-flow experiments and the Goldau rock avalanche performed in this work confirm the capability of DAN and DAN3D to model a large variety of flow-like landslides. Since these models are based on the «equivalent fluid» approach, a hypothetical landslide mass based on a rheological relationship, typical patterns regarding the rheology and motion mechanisms of different landslides have to be identified through back-calculation of real events. Some typical patterns of debris flow and rock avalanches have been identified in this work: self-channelization in debris flows; the lubricating effect of eroded liquefiable path material; and a mud surge ploughed on the margins in rock avalanches, all resulting in a larger impact area. The back-calculated rheology-parameter in this work, together with other reported values, can be used for a forward prediction of the runout of landslides in similar environments. 13 DiplomandStefanie Berchtold ExaminatorDr. Christian Marti ExperteJohannes Abegg, Flussbau AG, Zürich Master Research Unit Environmental Engineering Projektpartner Baudirektion Kanton Zürich; Amt für Abfall, Wasser, Energie und Luft (AWEL) Stefanie Berchtold Sanierung Töss Orüti – Steg Variantenstudium und Vorprojekt Ausgangslage: Im Zuge der grossen Gewässerkorrektionen wurde die Töss Mitte des 19. Jahrhunderts stellenweise begradigt und eingeengt. Um der Tiefenerosion entgegenzuwirken, wurden vorwiegend im hinteren Teil der Töss Schwellen errichtet. Aus heutiger Sicht führten diese Massnahmen u.a. zu einem ökologisch verarmten und monotonen Fliessgewässer. Zudem ist die Hochwassersicherheit nicht gegeben. Situation Aufgabenstellung: Für den rund 1.8 km langen Streckenabschnitt Orüti – Steg soll ein Sanierungsvorschlag auf Stufe Vorprojekt ausgearbeitet werden. Der Sanierungsvorschlag soll u.a. einen differenzierten Hochwasserschutz gewährleisten, sowie eine ökologische Aufwertung beinhalten, welche die Vorgaben des neuen Gewässerschutzgesetzes bezüglich Durchgängigkeit und Raumbedarf erfüllt. In diesem Abschnitt soll zudem die Geschiebetransportkapazität erhöht werden. Diese Anforderungen werden unter folgenden Randbedingungen gestellt: geringe mittlere Abflüsse, verhältnismässig grosse Abflüsse bei Hochwasser sowie jährliches Trockenfallen der Töss. Basierend auf bestehenden Gerinnevermessungen, hydrologischen Angaben und einer Geschiebehaushaltstudie der Töss wurden sechs Varianten zur Sanierung der Töss mit den oben genannten Zielen ausgearbeitet. Anschliessend wurden die sechs Varianten verglichen und bewertet. Die Bestvariante «Nachhaltigkeit» wurde schliesslich auf Stufe Vorprojekt ausgearbeitet. Ergebnis: Die Strecke Orüti – Steg weist sowohl hochwasserschutztechnische als auch ökomorphologische Defizite auf. Mit der Bestvariante «Nachhaltigkeit» werden die Defizite in diesem Abschnitt bestmöglich und unter Berücksichtigung der bestehenden Eigenheiten behoben. Die Bestvariante enthält folgende Massnahmenelemente: Töss im Ist-Zustand mit Steinmantelsperre –– Gerinneverbreiterungen –– Lenkbuhnen zur Konzentration des Abflusses –– Aufgelöste unstrukturierte Blockrampen –– Entfernung von Schwellen und Steinmantelsperren –– Einbau von ingenieurbiologischen Massnahmen zur Abflusskonzentration bzw. zur Aufwertung der Ökologie –– Neugestaltung der Mündungsbereiche von Seitenbächen –– Erstellung eines Biotops –– Objektschutz bei Hochwasser –– Natürliche Fischaufstiegshilfen bei Abstürzen –– Gewässerzugänge für die Bevölkerung Ausschnitt aus der Situation der Bestvariante; v.l. Objektschutz, Biotop, entfernte Querverbauung, aufgelöste unstrukturierte Blockrampe 14 Mit den oben vorgeschlagenen Massnahmen können die vorgegebenen Ziele erreicht werden. Die vorgeschlagene Bestvariante kann sowohl aus hydraulischer wie auch aus ökologischer Sicht ausgeführt werden. DiplomandMarco Larcher ExaminatorProf. Matthias Rommel ExperteRalph Eismann, ETH, Zürich Master Research Unit Environmental Engineering Marco Larcher Thermische und optische Charakterisierung von Parabolrinnenkollektoren Einleitung: In meiner Projektarbeit 2 konstruierte ich einen Parabolrinnenkollektor mit der Bezeichnung PRK1. Die Aufgabe der Masterarbeit bestand darin, diesen Kollektor zu bauen und anschliessend thermisch und optisch zu charakterisieren. Abbildung 1: Thermisches Modell des Receivers mit allen in EES und Matlab modellierten Wärmequellen und Wärmeströmen Abbildung 2: Auf Tracker montierte PRK1, die verwendeten Strahlungsmessgeräte und das Windmessgerät Aufgabenstellung: Die thermischen Messungen beinhalten eine Wirkungsgradkennlinienmessung (WGK-Messung) und eine thermische Verlustmessung (UL-Messung). Bei der WGK-Messung soll der Kollektor mit einem Tracker des SPF der Sonne nachgeführt werden, um den Konversionsfaktor sowie die thermischen Verluste (unter Einstrahlung) messen zu können. Zusätzlich sollen die thermischen Verluste über die Auskühlung des Receivers ermittelt werden (Nachmessung ohne Solarstrahlung). Für die optische Charakterisierung ist eine Simulation eines einzelnen Sonnenstrahls mittels Laser geplant. Anhand der Auftreffpunkte des Laserstrahls auf dem Absorberrohr sollen Rückschlüsse auf die Reflektorgeometrie gezogen werden. Ergebnis: Der PRK1 wurde zu Beginn der Masterarbeit zusammengebaut. Ein zweiter Testkollektor, der ursprünglich als Messemodell geplant war (PolyTrough1200), wurde uns von der Firma NEP zur Verfügung gestellt. Für die Verifizierung der thermischen Messungen wurden die Modelle beider Parabolrinnenkollektoren mit den Programmen Matlab und EES, entsprechend der Abbildung 1, abgebildet. Die Ergebnisse der WGK-Messung waren inkonsistent und führten zu keinen brauchbaren Resultaten. Verschiedene mögliche Gründe hierfür wurden untersucht (ungenügende Fokussierung der Kollektoren, ungenügend genaue Ausrichtung auf dem Tracker und insgesamt zu wenige auswertbare Messtage). Für die UL-Messung wurden die Kollektoren ebenfalls auf dem Tracker montiert. Eine Holzabdeckung wurde über die Kollektoren gebaut, um während der Nacht den langwelligen infraroten Strahlungsaustausch zwischen Himmel und Kollektor zu unterbinden und so definierte Randbedingungen zu schaffen. Die UL-Messung führte bei beiden Kollektoren zu brauchbaren Resultaten (Abbildung 3). Für die optische Charakterisierung der Kollektoren wurde ein neuer Messaufbau entwickelt, mit dem der Auftreffpunkt eines senkrecht zur Kollektorebene eintreffenden Laserstrahls auf dem Absorberrohr bestimmt werden konnte. Aus den Messungen konnten Reflektorbereiche bestimmt werden, die nicht ausreichend genau orientiert sind. Es ist möglich, aus den Messungen den Anteil der direkten Solarstrahlung abzuschätzen, der nicht auf das Absorberrohr konzentriert wird und so zu optischen Verlusten führt. Abbildung 3: Auswertung der UL-Messung mit linearer Approximation und dem theoretischen Verlauf 15 DiplomandGion Blumenthal ExaminatorProf. Dr. Albin Kenel ExperteChristoph Ruch, alphabeton AG, Ruswil Master Research Unit Environmental Engineering Gion Blumenthal Traglastversuche an hochfesten Stahlbetonstützen Experimentelle Untersuchung an gedrungenen zentrisch-belasteten Stützen Ausgangslage: Vorfabrizierte Druckglieder sind heute vom Bau nicht mehr wegzudenken. Die Firma alphabeton AG aus Ruswil produziert solche Druckglieder. Dabei werden hochfeste Betone mit Zylinderdruckfestigkeiten von über 100 MPa eingesetzt. Der Längsbewehrungsgehalt liegt vielfach über 8 %. Um ihre Produkte weiterzuentwickeln, arbeitet die Firma alphabeton AG mit externen Partnern zusammen. Spiralbewehrung Ø6, s=24 mm; Zerreissen der Querbewehrung Bügelbewehrung Ø20, s=300 mm; Ausknicken der Längsstäbe Runder Prüfkörper mit Rissbild und bei Versuchsende 16 Aufgabenstellung: Untersucht werden soll einerseits das Abplatzverhalten und die Resttragfähigkeit hochfester Stützen in Abhängigkeit von Bügelabständen und Bügeldurchmessern. Andererseits soll die Wirkungsweise gestossener und verschweisster Bügel analysiert werden. Weitere Variationsparameter sind die Querschnittsform, der Längs- und Querbewehrungsgehalt, die Querbewehrungsart und die Lasteinleitungsbedingungen. An 52 Traglastversuchen soll das Traglastverhalten von gedrungenen zentrisch-belasteten Prüfkörpern untersucht werden. Fazit: Die Ergebnisse der Traglastversuche zeigen, dass die Quer- und Längsbewehrung eine Perforationsfläche zwischen Bewehrungsüberdeckungsbeton und Kernbeton erzeugen. Mit zunehmender Perforationsfläche reduziert sich die maximale Bruchlast des Druckglieds. Nach dem Abplatzen des Überdeckungsbetons kann die Last nicht gesteigert werden, da zum einen die Restquerschnittsfläche des Betons kleiner ist und zum anderen der mechanische Bewehrungsgehalt der Umschnürung zu gering ist. Bei gleichem Bewehrungsgehalt der Umschnürung wirkt eine Querbewehrung mit kleinerem Durchmesser und kleinerem Abstand günstiger als eine Querbewehrung mit grösserem Durchmesser und grösserem Abstand. Die Längsstauchung des Prüfkörpers beim Zerreissen der Querbewehrung hängt einerseits vom mechanischen Bewehrungsgehalt der Umschnürung und andererseits vom Bügeldurchmesser ab. Master Research Unit Innovation in Products, Processes and Materials Die MRU IPPM beschäftigt sich schwerpunktmässig mit innovativen Entwicklungen für einzelne Produkte, Systeme oder ganze Anlagen, die den betrieblichen Anforderungen entsprechen. Grundlage für alle Entwicklungsprozesse ist die Anwendung einer Entwicklungssystematik und die Betrachtung des gesamten Produktlebenszyklus bis zur Produktentsorgung. Ein wichtiger Bestandteil ist hierbei die Kenntnis moderner Fertigungsprozesse und Werkstoffe. Die Entwicklung geschieht in den meisten Fällen in Zusammenarbeit mit einem oder mehreren Industriepartnern oder im Rahmen öffentlich geförderter Projekte. An der MRU beteiligte Institute Die MRU «Innovation in Products, Processes and Materials» (IPPM) wird von den folgenden Instituten gemeinsam getragen und zentral koordiniert: –– Institut für Labortechnologie ILT –– Institut für Mechatronik und Automatisierungstechnik IMA –– Institut für Produktdesign, Entwicklung und Konstruktion IPEK –– Institut für Werkstofftechnik und Kunststoffverarbeitung IWK –– Institut für Anlagen- und Sicherheitstechnik SITEC 17 DiplomandDominique Martin ExaminatorProf. Heinz Domeisen ExperteHans Gschwend, Hilti AG, Schaan, FL Master Research Unit Innovation in Products, Processes and Materials Projektpartner Roth + Co. AG, Oberuzwil, SG Dominique Martin Auslegung und Aufbau einer automatischen Laserschweissanlage Schema der Anlage Roboterzelle Ausgangslage: Die Firma Roth + Co. AG ist ein namhafter Schweizer Produzent von Temperatursensoren, betreibt ein SCS-zertifiziertes Messlabor für thermische Grössen und ist seit kurzem erstes Primärlabor (designiertes Institut für die Messgrösse Temperatur) der Welt. Für die Herstellung der mechanischen Bauteile für die Thermosensoren im eigenen Hause verwendet die Firma Roth + Co. AG eine Laserschweissanlage. Diese Anlage konnte bisher nur manuell betrieben werden. Um die wachsende Nachfrage nach grossen Serien kostengünstig und effizient zu erfüllen, wurde die Automatisierung der Anlage notwendig. Die bestehende Laserschweissanlage wurde genau analysiert und in einem weiteren Schritt mögliche Konzepte zur automatisierten Bestückung erarbeitet. Eine der grössten Herausforderungen war die Abdeckung des stark variierenden Teilespektrums. So sollten mit ein und derselben Anlage Rohre mit einem Durchmesser von 2 bis 30 Millimeter und einer Länge von 10 bis 440 Millimetern gehandhabt werden können. Vorgehen: Aufgrund der flexiblen und gut ausbaubaren Möglichkeiten wurde das Konzept mit einem Industrieroboter gewählt und umgesetzt. Es wurde darauf geachtet, den Roboter mit möglichst wenigen Änderungen in die bestehende Anlage zu integrieren. Da hier ein Laser der Klasse 4 sowie ein Roboter zum Einsatz kommen, wurde ein spezielles Augenmerk auf die Sicherheit gelegt. So wurde eine Sicherheitssteuerung verwendet, welche ausschliesslich für die sicherheitsrelevanten Komponenten wie die Überwachung des Zellenzutritts zuständig ist. Zur Steuerung der Anlage wurde ein Touchpanel eingesetzt. Dieses besitzt selber keine Intelligenz und dient lediglich zur Darstellung der Zustände der Anlage, sowie zur Eingabe von Parametern. Um den Prozess optimal betreiben zu können wurde die Programmierung der gesamten Anlage neu realisiert. Die Steuerung der Schweissanlage wird wie bis anhin auf der SPS ausgeführt. Der Roboter wurde autonom programmiert, so dass alle Bewegungen und Entscheide von der Robotersteuerung übernommen werden. Dabei ist die Synchronisation zwischen Roboter und SPS von zentraler Bedeutung. Ergebnis: Die Anlage wurde komplett aufgebaut und entspricht den Anforderungen. Sie gewährleistet ein zuverlässiges Arbeiten. Es konnte durchgehend die Sicherheitskategorie 3 realisiert werden. Der Roboter weist die gewünschte Wiederholgenauigkeit auf. Die automatisierte Laserschweissanlage wird der Firma Roth + Co. AG eine effiziente Produktion der Thermofühler ermöglichen. Damit können bis zu 1440 Teile in einer Nacht geschweisst werden. Roboter beim Greifen eines Röhrchens 18 DiplomandThomas Reber ExaminatorProf. Dr. Frank Ehrig ExperteLudger Klostermann, Innovatur, Jona Master Research Unit Innovation in Products, Processes and Materials Thomas Reber Bewertung des Einsatzes von Simulationstools zur Auslegung von dreidimensionalen, metallfolienhinterspritzten Kunststoffbauteilen Unterstützung von Bauteil- und Werkzeugauslegung Ausgangslage: Für die Herstellung dekorativer, dreidimensionaler Bauteilgeometrien im Metallfolienhinterspritzen wird zunächst ein Zuschnitt aus der Metallfolie ausgestanzt und dieser anschliessend in einem Tiefziehwerkzeug umgeformt. Im letzten Arbeitsgang wird dieser Vorformling dann mit Kunststoff in einem Spritzgiesswerkzeug hinterspritzt. Wichtige Bewertungskriterien für die hergestellten Bauteile sind Faltenbildung, Rissbildung, Verfärbung und Abformung der Konturen. Die Auslegung und Abstimmung der einzelnen Prozessschritte zur Erzielung qualitativ ausreichender Bauteile erfolgt heute experimentell und bedarf einer Vielzahl von Iterationsschleifen, die zeit- und kostenintensiv sind. Schema des entwickelten Reibwertmessgeräts Ziel der Arbeit: Realisierung einer «gekoppelten» Simulation des Vorform- und Hinterspritzprozesses mit der Analyse und Bewertung der Einflüsse der Einstellparameter und Werkstoffkennwerte auf die Bauteileigenschaften. Die Werkstoffkennwerte sind experimentell zu ermitteln und mit Literaturwerten zu vergleichen. Ergebnis: Die Literaturrecherche hat einerseits gezeigt, dass dieser Prozess in der Durchgängigkeit so noch nicht simuliert wurde. Andererseits liessen sich nur Werkstoffdaten für vergleichsweise dicke Bleche finden, welche das Verhalten dünner Bleche ungenau beschrieben. Folgende Punkte wurden experimentell bestimmt: –– Die Materialkennwerte wurden durch Zugversuche ermittelt. –– Die Reibwerte wurden mittels eigens entwickelter Apparatur für verschiedenste Haftvermittler und Metalloberflächen ermittelt. –– Grenzformänderungskurven wurden durch die ETH Zürich zur Verfügung gestellt und wurden auf die Zugversuche skaliert. Zusammenwirken der Einflüsse auf das Metallfolienhinterspritzen –– Die Dehngrenze für die Martensitbildung und die Oberflächenveränderungen wurde ermittelt. Alle Messresultate und Erkenntnisse wurden in Simulationen von Versuchsbauteilen umgesetzt. –– Der Einfluss der Parameter auf die Simulation und den Vorformprozess wurde ermittelt. –– Die Koppelung der Spritzgusssimulation und der Vorformung wurde realisiert. –– Der Metallfolienhinterspritzprozess wurde in einer Simulation berechnet. Simulationsergebnisse des Vorformprozesses für ein Praxisbauteil (oben: Reales Bauteil, unten: Simulation) Die Arbeit wurde mit der Umsetzung der Erkenntnisse auf ein Seriebauteil weitergeführt. Es konnte gezeigt werden, dass durch die Simulation vor der Herstellung die Problemzonen der Umformung der Werkzeuge erkennbar sind. Die Erkenntnisse wurden abschliessend auf ein Praxisbauteil übertragen. Auch dort wurden realitätsnahe Ergebnisse erzielt. 19 DiplomandRoman Frei ExaminatorProf. Dr. Markus Henne ExperteProf. Dr. Michael Niedermeier, Hochschule Ravensburg-Weingarten, Weingarten Master Research Unit Innovation in Products, Processes and Materials Roman Frei Machbarkeitsstudie zum Dampfschiff «Schaffhausen» Nachbau des Schiffskörpers nach heutiger Bauweise Ausgangslage: Das Dampfschiff «Schaffhausen» war mit einer Länge von über 44 Metern das grösste auf dem Untersee und dem Rhein eingesetzte Dampfschiff. Es handelte sich um einen in den Jahren 1912/13 von den Gebrüdern Sulzer entwickelten und gebauten Flachdecker für 400 Passagiere. Während Jahrzehnten verkehrte die «Schaffhausen» erfolgreich als Kursschiff, bis sie aus wirtschaftlichen Gründen im Jahre 1967 die letzte Fahrt nach Romanshorn antrat und verschrottet wurde. Die einst stolze Flotte von insgesamt fünf Dampfschiffen der Schweizerischen Schifffahrtsgesellschaft Untersee und Rhein URh war somit endgültig Geschichte. Endgültig? Das Originalschiff im Einsatz (Bild aus dem Stadtarchiv Schaffhausen: www.stadtarchiv-schaffhausen.ch) CAD: Visualisierung der Stahlstruktur des neuen Dampfschiffes Strömungssimulation: Vergleich des neuen Schiffskörpers mit dem Original 20 Ziel der Arbeit: Im Rahmen einer Machbarkeitsstudie sollte der Nachbau der «Schaffhausen» überprüft werden. Dabei galt es, den heutigen gesetzlichen Vorschriften im Schiffbau sowie den gesellschaftlichen und wirtschaftlichen Ansprüchen Rechnung zu tragen. Das Ziel dieser Arbeit bestand darin, den Schiffskörper nach moderner Bauweise zu konstruieren und zu dimensionieren. Weiter sollte die mechanische Festigkeit überprüft werden. Zudem sollte mittels numerischer Strömungssimulation ein Vergleich des neuen Schiffskörpers zum Original hinsichtlich Widerstandsverhalten erstellt werden. Ergebnis: Um den geltenden Krängungsvorschriften gerecht zu werden, wurde der Schiffskörper um einen Meter verbreitert. Nebst besserer Stabilität im Wasser wird gleichzeitig das Platzangebot für die Passagiere erhöht. Die tragende Stahlstruktur wurde mittels CAD dreidimensional konstruiert. Die ursprüngliche Querspant-Bauweise wurde durch die heute gängige Art mit Längsspanten ersetzt. Die Längsfestigkeit wurde überprüft, indem der Querschnitt vom Hauptspant als Biegeträger betrachtet wurde. Zu den maximal zulässigen Zug- und Druckspannungen resultierte ein Sicherheitsfaktor von über 1,2. Das CAD-Modell diente ausserdem als wichtiges Hilfsmittel für die Gewichtsprognose. Die 70 Tonnen Gesamtgewicht des neuen Schiffskörpers sind für einen Nachbau unkritisch. Der Formwiderstand des von Wasser umströmten Schiffskörpers wurde mittels Computational Fluid Dynamics (CFD) ermittelt. Der Wert des neuen Schiffskörpers liegt dabei trotz grösserer Breite und mehr Tiefgang in ähnlicher Grössenordnung wie jener des Originalschiffes. Die Ergebnisse führen zum Fazit, dass die Konstruktion des Schiffskörpers mechanisch sowie auch bezüglich des Strömungsverhaltens den heutigen Anforderungen gerecht wird. Master Research Unit Public Planning Das Studienziel des «Master in Public Planning» orientiert sich an den Forderungen einer nachhaltigen Raum- und Landschaftsplanung und umfasst in einem ganzheitlichen Ansatz planerische, kulturelle, wirtschaftliche, technische und soziale Lehrinhalte. An der MRU «Public Planning» werden die Projekte in den Forschungsschwerpunktthemen Siedlungs- und Freiraumplanung, Landschaftsplanung und naturnaher Tourismus, Verkehrsplanung und Infrastruktur sowie Regionalplanung und Agglomerationspolitik abgewickelt: An der MRU beteiligte Institute Die MRU «Public Planning» wird von den folgenden Instituten gemeinsam getragen und zentral koordiniert: –– IBU, Institut für Bau und Umwelt –– ILF, Institut für Landschaft und Freiraum –– GTLA, Institut für Geschichte und Theorie der Landschaftsarchitektur –– IRAP, Institut für Raumentwicklung 21 DiplomandUlrich Stüssi ExaminatorProf. Felix Wenk Experte Prof. Dr. Bryan T. Adey, Institut für Bau- und Infrastrukturmanagement (IBI), ETH Zürich, Zürich Master Research Unit Public Planning Ulrich Stüssi Vergleich zwischen einzelbauwerk- und netzfokussierten Erhaltungsstrategien für Verkehrsinfrastrukturen am Beispiel der A19 bei Grengiols Ausgangslage: Im Kontext der Erhaltung von Verkehrsinfrastrukturen entstehen Kosten unterschiedlicher Art und es gilt, den Ansprüchen verschiedener Interessengruppen zu genügen. Da Verkehrsinfrastrukturen hierzulande praktisch flächendeckend bestehen, wird ihrer Erhaltung grosse Bedeutung zugeschrieben. Vor diesem Hintergrund gilt es an die aktuelle Forschung anzuknüpfen und bestehende Ansätze weiterzuverfolgen. Die Grundlage dafür bilden aktuelle Untersuchungen am Institut für Bau- und Infrastrukturmanagement der ETH Zürich auf dem Gebiet des Erhaltungsmanagements. Zusammensetzung der Gesamtkosten der Erhaltung Vergleich Einzelbauwerk- und Netzfokus auf einem Abschnitt; rot die Objekte eines Abschnitts, blau der Einzelbauwerkfokus und grün der Netzfokus Gesamtkosten der Erhaltung [Mio. CHF] des untersuchten Streckenabschnitts 22 Vorgehen: Darauf basierend wird an einem Praxisbeispiel untersucht, wie sich einzelbauwerk- und netzfokussierte Erhaltungsstrategien auf die zu erwartenden Kosten auswirken und wie, abhängig von Abschnitts- und Regionalcharakteristiken, solche Strategien optimal festgelegt werden können. Ergebnis: Die netzfokussierte Erhaltung schnitt im Vergleich der beiden Ansätze, unter Berücksichtigung der Rahmenbedingungen, um rund 15% günstiger ab. Dabei unterschieden sich die beiden Ansätze bedeutend in den Strassennutzerkosten. Die Objektkosten unterschieden sich in Abhängigkeit des Ansatzes kaum und die Kosten Dritter lieferten einen praktisch vernachlässigbaren Anteil zu den Gesamtkosten. Eine Gegenüberstellung der Ansätze mit Blick auf die Strassennutzerkosten zeigte eine erstaunliche Abhängigkeit solcher von Abschnitts- und Regionalcharakteristiken. Diese Abhängigkeit ergibt sich aus der Festlegung der Verkehrsführung während den Erhaltungsmassnahmen. Für den Einzelbauwerkfokus spricht ein grösserer Freiraum in der Wahl der Verkehrsführung während den Erhaltungsmassnahmen. Der Vorteil des netzfokussierten Ansatzes ist die aufgrund gleichzeitiger Erhaltungsmassnahmen an mehreren Objekten reduzierte Dauer der Bautätigkeit. Beide Aspekte beeinflussen die Höhe der Strassennutzerkosten. Unter Berücksichtigung der Vorteile der beiden Ansätze konnten Empfehlungen zur Optimierung der Erhaltungskosten unter dem Netzfokus formuliert werden. So wird vermutet, dass beide Aspekte (höherer Freiheitsgrad bei der Wahl der Verkehrsführung beim Einzelbauwerk- und reduzierte Dauer der Bautätigkeit beim Netzfokus) in gewissem Sinne vereint werden könnten und so in der Erhaltungsplanung mit dem Netzfokus zu minimalen Gesamtkosten der Erhaltung führen. Auch wenn dieser Ansatz nicht weitergeführt wurde, bietet er doch eine Grundlage für weitere Untersuchungen und Anstoss zu weiterer, praxisrelevanter Forschungstätigkeit auf dem Gebiet des Erhaltungsmanagements. DiplomandReto Rogger ExaminatorProf. Dr. Joachim Schöffel ExperteDr. Klaus Hornberger, Hornberger Architekten AG, Zürich Master Research Unit Public Planning Reto Rogger Vision Lachen 2030 Entwicklungsvorschlag für die kommunalen Infrastrukturen auf Basis von Alternativ- und Variantenlösungen Auftrag: Mit der Vision Lachen 2030 werden Wege und Möglichkeiten einer langfristigen Planung der Landreserven auf dem gesamten Gemeindegebiet von Lachen aufgezeigt – v.a. für die Realisierung öffentlicher Infrastrukturen wie Schulhäuser, Sportanlagen und -bauten sowie Kultureinrichtungen. Dabei sollen einerseits die unterschiedlichen Möglichkeiten der künftigen Nutzung des Gemeindegebiets geprüft werden und andererseits dargestellt werden, wo sinnvollerweise eine Entwicklung stattfinden sollte, wo Reserven erhalten bleiben müssen oder aufgegeben werden können und welche Schlüsselgrössen die Siedlungsentwicklung massgeblich beeinflussen. Ferner versteht sich die Vision Lachen 2030 als eine vorbereitende Planung für die Zonenplanrevision. Luftbild Lachen 2002 Bevölkerungsprognose für 2030 Vorgehen: 1. Bestandesaufnahmen und -analysen auf der Ebene Parzelle und der Ebene Siedlungsgefüge der Gesamtgemeinde sowie Prognosen und Annahmen zur zukünftigen Entwicklung der Gemeinde Lachen. 2. Erarbeitung und Diskussion von Entwicklungsvarianten: Trendszenarien der Parzellen- und der Landnutzung sowie städtebauliche Visionen «Siedlungsgefüge Lachen 2030». 3. Analytische Abwägung durch Konfrontation der Entwicklungsvarianten, Bewertung der Einzelaspekte und Herausstellen von Planungsentscheiden besonderer Tragweite. 4. Strategischer Entwicklungsvorschlag «Lachen 2030». Fazit: Die Projektentwicklung erfordert einerseits den Blick auf die betroffenen Parzellen, auf ihre heutige Nutzung, auf brachliegende Nutzungen und auf bestehende oder geplante Bauten und deren Nutzungszyklen. Andererseits muss das Spektrum der Entwicklungsmöglichkeiten des gesamten Siedlungsgefüges, künftiger Siedlungserweiterungen sowie der Nutzungsstruktur des Gemeindegebiets überprüft werden. Beide Blickwinkel werden unter Beizug relevanter Daten und Prognosen zur zukünftigen Entwicklung der Gemeinde Lachen eingenommen. Bearbeitungsmethode und Vorgehensweise wurden theoriegeleitet entwickelt, entsprechend dem «state of the art» in der Stadtentwicklung. Potenzielle Entwicklungsschwerpunkte im Siedlungsgefüge 23 Master Research Unit Sensor, Actuator and Communication Systems An der MRU SAC werden mit mikroelektronischen Tools Sensoren selbst entwickelt. Die damit gewonnenen Daten werden dann mit Algorithmen bearbeitet und / oder mit Kommunikationssystemen an Aktoren übermittelt. Das systematische Denken wird in dieser MRU mit modernster Regeltechnik abgedeckt und die Kommunikationstechnik wird von der Antenne bis zur Internetapplikation beherrscht. Die Studierenden erlernen und vertiefen je nach Spezialisierung bedeutende Kenntnisse in Elektronik und Mikroelektronik, Embedded Systems, digitaler Signal- und Bildverarbeitung, Systemdynamik und Regelungstechnik, Telekom- und Computernetzwerken sowie Hochfrequenztechnik. An der MRU beteiligte Institute Die MRU «Sensor, Actuator and Communication Systems» wird von den folgenden Instituten gemeinsam getragen und zentral koordiniert: –– Institut für Kommunikationssysteme ICOM –– Institut für Mikroelektronik und Embedded Systems IMES 25 Graduate Candidate Robert Hegner ExaminerProf. Dr. Guido Schuster Co-ExaminerAssoc. Prof. Dr. Tom Ryen, Assoc. Prof. Dr. Ivar Austvoll Master Research Unit Sensor, Actuator and Communication Systems Project Partner University of Stavanger, Norway Robert Hegner Efficient Implementation and Evaluation of Methods for the Estimation of Motion in Image Sequences image sequence directional filter compute component velocities directional filter compute component velocities directional filter compute component velocities directional filter compute component velocities combine component velocities Introduction: Optical flow estimation (the estimation of the apparent motion of objects in an image sequence) is used in many applications, including video compression, object detection and tracking, robot navigation, and so on. This project focussed on one specific optical flow estimation algorithm, which uses directional filters and an AM-FM demodulation algorithm to estimate the velocities. flow vectors Objective: The main goals of this project were –– implementing the algorithm in CUDA (parallel computing architecture developed by NVIDIA) to make use of the huge parallel computing power of modern GPUs (graphic processing units). –– extending the algorithm to a multiresolution scheme to allow the estimation of higher speeds (Pyramid Algorithm). Overview of the Basic Algorithm –– integrating the algorithms into an (existing) Matlab GUI which allows comparison of the new algorithm with other optical flow estimation algorithms. Level 3 Level 2 Level 1 Level 0 M/8 v2 = 2 v3 M/4 v1 = 2 v2 M/2 v = v0 = 2 v1 M Downsampling 8 N/ 4 N/ 2 N/ N Downsampling of the image sequence for the Pyramid Algorithm Extended Matlab GUI for the comparison of different optical flow estimation algorithms 26 Result: The speedup of the CUDA implementation (running on a GeForce GTX 260 with 216 parallel cores) compared to an existing Matlab implementation (running on an Intel Core 2 Quad 2.4GHz) is several thousand times (depending on the dimensions of the image sequence). For most of the image sequences used for evaluation, the accuracy of the Pyramid Algorithm is better than or comparable to the accuracy of the OpenCV implementation of the famous Lucas-Kanade algorithm. Due to the large spatial support of the directional filters, the algorithm has some problems handling motion discontinuities, particularly in the border regions of an image sequence. The estimation of high speeds was achieved by computing a rough estimate of the (high) speeds in a downsampled image sequence. The motion in the full-resolution image sequence can then be compensated before estimating the speeds on the fullresolution image. These new estimates of the compensated speeds can finally be used to refine the first rough estimates. This procedure can be applied recursively over several levels (Pyramid Algorithm). One problem of the pyramid implementation of the algorithm is that unreliable estimates from downsampled levels can have a negative impact on the estimations at the full-resolution level. DiplomandSilvan Forrer ExaminatorProf. Dr. Guido Schuster ExperteDr. Juan Gruber, Kistler AG, Winterthur Master Research Unit Sensor, Actuator and Communication Systems Silvan Forrer Energieeffiziente Kompression von Multi-Kavitäten-Druckdaten in Echtzeit Aufgabenstellung: Aufgabe dieser Arbeit war es, ein Datenkompressionsverfahren zu entwickeln. Dieses soll in der Kompression von Druckdaten, welche im Spritzgussprozess von verschiedenen Sensoren aufgezeichnet werden, zur Anwendung kommen. Der Zweck davon ist, durch die kleinere Datenmenge den Energieverbrauch für die Funkübertragung zu reduzieren. Das Funkübertragungssystem ist paketbasiert. Weitere Anforderungen bestanden in der Echtzeitfähigkeit und Robustheit gegenüber Datenverlusten. Ziel war es, einen lauffähigen Algorithmus auf einem eingebetteten System zu entwickeln. Multi-Kavitäten-Druckdaten Energiebedarf mit und ohne Kompression Vorgehen/Technologien: Für den Kompressionsalgorithmus wurde ein verlustbehaftetes Differenzkodierungsverfahren gewählt. Dessen Funktionsweise besteht – vereinfacht beschrieben – darin, durch möglichst gute Prädiktion die Messwerte vorherzusagen. Übertragen werden soll nur der nicht vorhersagbare oder stochastische Anteil am Signal. Dieses Differenzsignal wird mit einem arithmetischen Kodierer kodiert. Der Prädiktor, welcher die Vorhersage macht, ist das Herzstück dieses Verfahrens. Als Besonderheit wurde das populäre, aber in der Datenkompression wenig verbreitete Kalman-Filter gewählt. Der Einfluss von verlorenen oder beschädigten Daten wird mittels speicherbasierter Extrapolation so gering wie möglich gehalten. Ergebnis: Der entwickelte Codec wurde auf einem Low-Power-Mikrocontroller mit ARM Cortex-M3 Core implementiert. Mit diesem System konnte, gegenüber einer Datenübertragung von Rohdaten, eine Reduktion der Energieaufnahme um den Faktor fünf erzielt werden. Dies gelang durch die Verkleinerung der Datenmenge um das Zehnfache und die effiziente Implementierung des Kompressionsverfahrens. Die Komprimierung und Dekomprimierung der Daten wird in weniger als einem Achtel der Aufzeichnungszeit ausgeführt und garantiert somit die Echtzeitfähigkeit. Blockdiagramm des Encoders 27 DiplomandMario Jurcevic ExaminatorProf. Dr. Guido Schuster ExperteDr. Peter Derleth, Phonak AG, Stäfa Master Research Unit Sensor, Actuator and Communication Systems Mario Jurcevic Kopfgestenerkennung mit 3D-Beschleunigungs- und Drehratensensoren Ausgangslage: Diese Master Thesis beschäftigt sich mit der Gestenerkennung, insbesondere mit Kopfgesten. Es wurde eine Gestenerkennung für Kopfbewegungen mit Beschleunigungs- und Drehratensensoren entwickelt. Beschleunigungssensor des HearNet Vorverarbeitung der Beschleunigungsdaten HMM für die Kopfgeste links 28 Vorgehen: Um die Kopfgesten zu erkennen, werden zwei Sensormodule am Körper befestigt: Ein Modul wird am Kopf befestigt, das andere wird am Oberkörper getragen. Das System zur Kopfgestenerkennung verwendet HearNet zur Aufzeichnung der Beschleunigungen. HearNet besteht aus einem Koordinator und ein bis mehreren Sensormodulen. Der Koordinator ist dafür zuständig, dass die Sensormodule synchron abtasten. Das Sensormodul hat jeweils einen 3D-Beschleunigungssensor. Ein weiteres Sensorsystem wurde verwendet, um die Drehraten des Kopfes aufzuzeichnen. Dieses System stammt aus einer vorangegangenen Arbeit zur Gang-Analyse. Mit den aufgezeichneten Beschleunigungen und Drehraten wurden dann verschiedene Methoden getestet, um die Kopfgesten aus den Daten herauszufinden. Um die Kopfgesten aus den Beschleunigungsdaten herauszufinden, werden diskrete und kontinuierliche HMM verwendet. Für die Kopfgestenerkennung mit den Drehraten wurden verschiedenste statische Klassifizierer getestet. Es wurde auch eine Kopfgestenerkennung in Bewegung gemacht. Die Gestenerkennung ist zusätzlich erschwert, weil die Bewegung (Gehen, Rennen) die Beschleunigungen bzw. die Drehraten am Kopf stört. Ergebnis: Mit dem HearNet konnten die Bewegungen des Kopfes zuverlässig erkannt werden. Die kontinuierlichen HMM zeigten dabei eine viel bessere Leistung als die diskreten HMM. Die Kopfgestenerkennung in der Bewegung funktionierte aber auch mit den kontinuierlichen HMM nicht. Die Störungen durch die Bewegung waren für eine Erkennung zu gross. Die Kopfgestenerkennung mit dem zweiten System, dem Gang-Analyse-System, funktioniert zuverlässig. In Bewegung funktioniert die Kopfgestenerkennung auch zuverlässig. Der Aufwand für die Gestenerkennung ist für die beiden Systeme unterschiedlich. Die Gestenerkennung mit den Beschleunigungssensoren ist einiges aufwändiger als jene mit den Drehratensensoren. Master Research Unit Software and Systems Die MRU Software and Systems bietet die Kompetenzschwerpunkte «Software Engineering» und «Secure Unified Communications» am Standort Rapperswil an. Im «Software Engineering» befassen sich Dozierende und Studierende u. a. mit automatisierten Tests und Builds, effektivem Umgang mit grossen Softwaresystemen, Anwendungen im Enterprise-, GIS- und Web-Umfeld sowie Entwicklungsautomatisierung für Open-Source-Umgebungen. Den Schwerpunkt für «Secure Unified Communications» bilden u. a. zukunftsgerichtete Kommunikationstechnologien mit speziellem Fokus auf Performance- und Netzwerkmanagementaspekte, kryptografisch sicheren Übertragungs- und Authentisierungsmethoden, sowie der Konvergenz von Sprach- und Datendiensten (z. B. Voice-over-IP). An der MRU beteiligte Institute Die MRU «Software and Systems» wird von den folgenden Instituten am Standort Rapperswil gemeinsam getragen: –– Institut für Software IFS –– Institute for Networked Solution INS –– Institute for Internet Technologies and Applications ITA 29 Graduate Candidate Thomas Corbat ExaminerProf. Peter Sommerlad Co-Examiner Martin Botzler, Siemens Building Technologies, Zug Master Research Unit Software and Systems Thomas Corbat C3P0 C-Plus-Plus-Parser-for-C++0x Introduction: The C++ Standards Committee is working on a new standard for C++, unofficially bearing the name C++0x. To fully profit from the new possibilities and features, a programmer needs to use his tools to support them. We at the Institute for Software, as participants in the Eclipse C++ Development Tooling (CDT) project, are eager to improve this integrated development environment (IDE) continuously, especially with our focus on automated refactoring support. Such tools rely on source code representation in an abstract form, usually represented through an abstract syntax tree (AST). In this Master‘s thesis we continue to build this cornerstone to support C++0x, a parser for constructing that AST. An example symbol table tree, showing the existing declarations and possible locations for the declaration of variable «i» Objective: In a preceding term project we started to develop C3P0, a parser with an understandable grammar, from scratch. Its eventual purpose is to recognize C++0x code, for which it constructs a CDT-AST. The success of this term project motivated us to continue the work on C3P0 in this Master‘s thesis. The focus was on three major goals: –– Implement a symbol table for storing information about declarations to enable semantic decisions in the parser. –– Deal with preprocessing directives to fully support C++ programs. –– Have the parser construct a CDT-AST. Result: The objectives have been achieved. –– The symbol table has been implemented in tree form. It records declared types and allows their resolution to perform decisions on the parser‘s rule alternatives. The preprocessor handles all preprocessing directives to create a single character stream, tokenized by the lexer. The parser creates the CDTAST. –– The standalone preprocessor (C2P0 – C++-Preprocessor-for-C++0x) can deal with conditional inclusion, source file inclusion and macro expansion. It transforms the input files into a character stream and creates a position map to retain the original source locations. –– The parser, capable of recognizing the new C++ standard, constructs a CDT-AST for the recognized code. Currently, it is not possible to create CDT-AST nodes for all new features, as they are not yet available. Although the C3P0 project is not completely finished, this Master‘s thesis shows that it is possible to develop a parser incrementally and with a grammar base, even for a language as complex as C++. In addition to the work done on implementing the C3P0 parser, this Master‘s thesis also contributed to C++ standardization by recognizing inconsistencies and editorial mistakes in the standard draft. The position map allows initial token resolution, pointing at the original location in the source file, through the offset in the preprocessor output. 30 Graduate Candidate Florian Huonder ExaminerProf. Dr. Josef M. Joller Co-Examiner Dr. Günter Karjoth, IBM, Zurich Research Laboratory, Rüschlikon Master Research Unit Software and Systems Florian Huonder Conflict Detection and Resolution of XACML Policies Automatic Support for Policy Creation Introduction: The eXtensible Access Control Markup Language (XACML) is an OASIS approved standard for access control. The XACML specification also provides a set of combining algorithms to resolve conflicts. Conflicting policies are policies that are applicable to the same request but result in different responses. It is up to an administrator to design the policies in such a way that the semantics are respected within the conflict resolution. We introduce algorithms for conflict detection and conflict resolution that enable an administrator to detect and to resolve conflicts in a sensible way. The hatched areas denote conflicts Directed Acyclic Graph representing the conflict resolutions Approach: XACML policies can easily be represented as n-dimensional rectangles. In this form conflicts among XACML policies can be detected with well-established algorithms used to detect overlaps within geometric figures. These algorithms are the Plane Sweep Algorithm, which performs well in static policy deployments, and the AABB – AABB Intersection Algorithm that performs well in more dynamic policy deployments. For conflict resolution we follow two basically different approaches. The first algorithm, Cutting Planes Algorithm, cuts the intersecting part from the overruled policy. This results in a policy deployment where only one policy is applicable at the same time. The second algorithm, Precedence Stringing Algorithm, orders the policies in such a way that the first applicable policy has the highest precedence. These policies are then combined under the first-applicable combining algorithm. We also propose an algorithm for handling the special case of regular expressions. Regular expressions can be expressed as finite automata and intersections can easily be detected with our proposed algorithm. All conflict resolution algorithms depend on a directed acyclic graph that represents the conflict resolutions. Result: We propose three algorithms for conflict detection: –– Plane Sweep Algorithm –– AABB – AABB Intersection Algorithm –– Regex Intersection Algorithm With these three algorithms we are able to detect every conflict among XACML policies. We further propose two algorithms for conflict resolution: –– Cutting Planes Algorithm –– Precedence Stringing Algorithm The resolution transformed into an XACML policy tree With these two algorithms we are able to resolve all conflicts in a reasonable way. We also made a proof of concept implementation to demonstrate the feasibility of our algorithms. The source code is available on http://www.herasaf.org/research.html. 31 Graduate Candidate Pascal Kesseli ExaminerProf. Peter Sommerlad Co-Examiner Martin Botzler, Siemens Buildung Technologies, Zug Master Research Unit Software and Systems Pascal Kesseli DeepSpace-8 Loop Analysis and Transformation towards STL Algorithms DS-8 Logo Introduction: One of the very first things prospective programmers are taught, after having written their first «Hello World» to the console, are the possibilities and proper use of loops and iterations. Unfortunately, loops and iterations are always a potential source of errors and complexity in programming. The C++ programming language tries to solve this problem with its Standard Template Library (STL), which – among other things – attempted to mitigate the complexity of loops by providing them encapsulated in reusable generic standardized algorithms. Even though STL algorithms provide remarkable benefits, like code readability, they are not used as frequently as they could be. Reasons for this unfavorable situation are manifold, but its implications can be summarized into one hypothesis: Large portions of today‘s C++ code can be considerably simplified by replacing custom loops with calls to generic STL algorithms. This leaves the problem of recognizing suitable loops, matching them with a corresponding standard algorithm and transforming the loop into an algorithm call expression. Objective: Manual transformation of loops to safer and more expressive STL algorithm calls is expensive, challenging and error-prone. Therefore, possibilities, requirements and implementation options of automatic loop transformations have been analyzed in the scope of this Master‘s thesis. The nominal objectives of this task are listed in the following: –– Statistical analysis of larger existing code bases –– Research and formulate transformation systems –– Implement proposed systems in an Eclipse CDT (C++ Development Tools) plug-in Benefits of STL algorithms to code readability Screenshot of final plug-in 32 Result: The focus of the resulting Eclipse plug-in implementation has been set to the two common STL algorithms «for_each» and «find/find_if». Using tree pattern matching algorithms on the program code‘s abstract syntax tree (AST), loops equivalent to the STL algorithm calls can be identified surprisingly reliably. The implementation also features a natural support for conversion of the loop‘s body to C++0x Lambdas, STL or TR1 bind functors, greatly shortening the resulting code. The project has proven room for automatic code transformation in areas where others have not even dared to try. While safe fully-automatic code transformation has proven to be impossible, the plug-in can guide developers in transforming their code semiautomatically to call STL algorithms instead of existing error-prone loops. Graduate Candidate Stefan Oberholzer Examiners Prof. Oliver Augenstein, Prof. Dr. Josef M. Joller Co-Examiner Prof. Bernhard Hämmerli, Hochschule Luzern, Horw Master Research Unit Software and Systems Stefan Oberholzer Optimizing XACML Policies Conflict Detection, Transformation and Minimization Introduction: Companies and other organizations are making more and more use of XACML-based access control solutions. Administrators of XACML access control policies are facing the problem of building an efficient policy set that resolves conflicts between policies as intended. Objective: The following tasks on policies are defined in this thesis –– Define parallel algorithms to detect conflicts between policies. –– Define parallel algorithms to optimize policy sets. Creating a policy set out of policies with precedence definition Flattening an existing policy tree –– This work focuses on XACML 3. As XACML 2 is in use in most companies and organizations a description will be given of how the proposed algorithms and solutions can also be applied to it. Result: Two parallel algorithms to detect conflicts between policies are proposed. The first allocates the extreme points of the policies to the processes. Each one detects conflicts and forwards the result to the neighboring processes if a policy cannot be completely resolved. The other algorithm is optimized for the case where a large number of policy groups exist only in conflict with each other. In the case of policy set optimization an algorithm to minimize targets is proposed. In addition to this, operations on a policy set are defined. This includes adding a policy to resolve the conflicts as intended and transforming the policy tree to reduce the number of levels, or to add additional levels in the policy tree defined by the policy set. To test the correctness of these operations an existing mapping to description logic has been extended with the algorithms new to XACML 3. The proposed algorithms support an administrator in creating a policy tree by optimizing targets, detecting conflicts and creating a policy tree out of a set of rules. The operations optimize the evaluation performance of a policy set. XACML policy in XML, description logic and graphical description 33 Graduate Candidate Lukas Felber ExaminerProf. Peter Sommerlad Co-Examiner Martin Botzler, Siemens Building Technologies, Zug Master Research Unit Software and Systems Lukas Felber ReDHead Refactor Dependencies of C/C++ Header Files Introduction: Even though C++ is one of the most widespread programming languages and is used in many different areas very effectively, C++ IDEs only have limited support for features fostering agile development. Such features, for example refactoring, have been made popular by Java‘s IDEs, most notably Eclipse‘s Java Development Tools (JDT), and are considered a must-have feature of an IDE by many developers today. At HSR‘s Institute for Software, several improvements to Eclipse‘s C/C++ Development Tooling (CDT) have been developed, and this work continues that tradition. The ReDHead menu Objective: In the scope of this master thesis, the ReDHead tool was developed, adding the ability to optimize header dependencies of C++ programs in CDT. ReDHead‘s features provide functionality to statically analyze the include dependencies of C++ files and provide suggestions on how the include structure of a C++ software project can be optimized.The aim of these optimizations is to (1) improve code quality, (2) reduce code coupling, (3) lower compile-time and (4) improve the speed of the development. Existing C++ projects often span millions of lines of code distributed over hundreds of files. Long-living projects tend to develop a complex net of include dependencies leading to an unmanageable physical architecture of the system. As a side effect of huge coupling and often unnecessary parts not being removed, compile times rise significantly. Hence, the possibility to approach such design issues supported by an automated static include analysis tool is a crucial advantage. Result: This is a list of features that the ReDHead tool provides: –– Organize/Optimize includes Static code coverage –– Find unused includes –– Directly include referenced files –– Find unused files –– Static code coverage Organize Includes 34 Graduate Candidate Mirko Stocker ExaminerProf. Peter Sommerlad Co-Examiner Dierk König, Canoo Engineering AG, Basel Master Research Unit Software and Systems Mirko Stocker Scala Refactoring Automated Refactoring Tools for Scala IDEs The refactoring library is already part of the official Scala IDE for Eclipse. Introduction: In this thesis, I developed a refactoring tool for the Scala programming language. Scala is a modern language developed by Professor Martin Odersky and his team at EPFL. It combines various aspects from object oriented and functional programming models. While it supports the developers with many powerful features, it is still fully compatible with code written in Java, allowing projects to mix Scala and Java. Most modern integrated development environments (IDE) support the developer with automated refactorings. Having such support reduces the time needed and therefore the difficulty of applying a refactoring; it is also less errorprone than doing the same operations manually. If Scala is to become widely used in companies, it also needs to provide tools, including integrated development environments. There are already several Scala IDEs, but their refactoring support is still very limited. Objective: The primary goal of this thesis is to support Scala IDEs with automated refactoring tools. The refactoring functionality is offered in the form of a library, so it can be integrated into and shared among different IDEs and other tools designed to refactor Scala code. To demonstrate the implemented refactorings, the library has to be integrated into the Eclipse based Scala IDE. A second goal is to make the creation of new automated refactorings as simple as possible, enabling interested developers to implement their own refactorings or other code transformations. Result: A library that uses the Scala compiler and contains everything that is needed to create automated refactorings and code transformations for Scala. The following refactorings have been implemented: Extract Method moves a selection of expressions into a new method. –– Rename for all the names that are used in the source code. –– Extract Method to extract a selection of statements into a new method. –– Extract Local to introduce a new local variable for an existing expression. –– Inline Local to replace references to a local variable with its right-hand side. –– Organize Imports to clean up the imported dependencies of a source file. These refactorings are all fully integrated into the Scala IDE for Eclipse, along with an online help that explains the usage of each refactoring. The implemented refactorings are already part of the current development builds of the Scala IDE for Eclipse and have been presented at Scala Days 2010, the first Scala conference. Extract Local refactoring allows users to introduce a new name for an expression. 35 DiplomandMartin Seelhofer ExaminatorProf. Hansjörg Huser ExperteDr. Hans Bärfuss, PDF Tools AG, Bachenbülach Master Research Unit Software and Systems Projektpartner PDF Tools AG, Winkel Martin Seelhofer Transcompiler-Infrastruktur Zur Übersetzung von Code einer auf C# basierenden Mastersprache nach Java und C++ Einleitung: In dieser Master Thesis wird die Entwicklung einer Transcompiler-Infrastruktur beschrieben, welche Quellcode von einer von C# abgeleiteten Mastersprache in verschiedene Zielsprachen übersetzen kann. Die Arbeit baut auf einer Diplomarbeit aus dem Jahre 2006 auf, in welcher die Machbarkeit des Transcompiler-Ansatzes für eine Teilmenge von C# nach Java nachgewiesen wurde. Auftraggeber für dieses Projekt ist die PDF Tools AG, welche daran interessiert ist, ihre aktuelle C++-Codebasis ihrer Werkzeuge in eine Mastersprache zu migrieren und daraus automatisiert den Quellcode für die drei Zielsprachen C#, Java und C++ zu generieren. Auf diese Weise können die Werkzeuge der PDF Tools AG ihren Kunden nativ zur Verfügung gestellt werden. Abbildung 1: Ist vs. Soll Abbildung 2: Der Weg zum Ziel Abbildung 3: Resultierende Architektur 36 Aufgabenstellung: Zu den wichtigsten Zielen und Aufgaben dieser Master Thesis gehören das Festlegen der Elemente der Mastersprache, das Formulieren eines Konzepts für das Mapping nach Java und C++ sowie der Entwurf und die Implementation des Ganzen im Rahmen einer vollständigen, in Visual Studio integrierten Transcompiler-Infrastruktur. Was die Mastersprache betrifft, so geht es hauptsächlich darum, für deren Sprachelemente einen Weg aufzuzeigen, wie diese transformiert und in die Zielsprachen übersetzt werden können. Gerade beim Mapping nach C++ gibt es dabei diverse Schwierigkeiten, weil sich einige konzeptionelle Ansätze der .NET-Plattform fundamental von C++ unterscheiden. Ein Beispiel dafür ist die Speicherverwaltung, welche auf der .NET-Plattform automatisiert mittels Garbage Collection abläuft, in C++ aber in voller Verantwortung des Programmierers liegt. Ergebnis: Entstanden ist im Rahmen des Projekts eine umfangreiche TranscompilerInfrastruktur, welche die angestrebten Ziele erfüllt. Die Mastersprache liegt in Form einer LR(1)-Grammatik vor, welche von der C#-3.0-Sprachspezifikation abgeleitet ist. Diese wird mithilfe eines Scanner- und Parser-Paares auf MPLEX/MPPG-Basis (von lex und yacc abgeleitete Generatoren im .NET-Umfeld) in einen abstrakten Syntaxbaum übersetzt und mit Typinformation angereichert. Diese Information wird für die Transformation und Codegeneration in den Zielsprachencode sowie für die Unterstützung von Syntax Highlighting und den Intellisense-Support in Visual Studio benötigt. Die Transcompiler-Infrastruktur steht dabei als einfach zu installierendes Erweiterungspaket für Visual Studio 2010 sowie als eigenständige Konsolenanwendung für das Batch-Processing zur Verfügung. DiplomandRoland Krummenacher ExaminatorProf. Hansjörg Huser ExperteDr. Hans Bärfuss, PDF Tools AG, Bachenbülach Master Research Unit Software and Systems Projektpartner BizTelligence Consulting Wettstein, Windisch Roland Krummenacher TrueSense in the Cloud Entwicklung von Architekturvarianten für die Windows-Azure-Plattform anhand einer CRM-Applikation für Retail-Shops und deren Umsetzung Einleitung: Im Internet existiert er schon länger: Der gläserne Kunde. Spezialisierte Software registrieren auf Online-Shops jeden Klick, zeichnen auf, welche Produkte sich der Einkaufende wie lange angeschaut hat und wie er sich innerhalb des virtuellen Einkaufszentrums bewegt. In der realen Welt sind wir noch nicht so weit. Die Marketing-Abteilungen der Detailhändler wissen zwar, wer die Kunden sind und was sie gekauft haben – was die Kunden jedoch angeschaut und NICHT gekauft haben, weiss niemand. Dabei wäre diese Information genauso wichtig, da die Marketing-Aktivitäten aufgrund dieser Erkenntnisse besser koordiniert und die Ausgaben dadurch gesenkt werden könnten. Das Start-Up-Unternehmen BizTelligence möchte diese Marktlücke schliessen. Darstellung der Kundenströme einer Kantine als Heatmap. Das Innere eines Windows-Azure-Datencenters. Eine SaaS-Architekturvariante der Applikation mit Windows Azure. Aufgabenstellung: Die Idee ist, dass in Filialen mit an der Decke montierten Kameras gezählt wird, wie lange Kunden vor einem Regal stehengeblieben und wo wie viele Kunden durchgegangen sind. Aufgrund eines Grundrisses der Filiale soll dann den Verkaufsmitarbeitenden aufgezeigt werden, welche Gänge und Regale stark frequentiert sind und welche wiederum eher schwachen Zulauf haben. Neben der Übernahme und dem Ausbau der bestehenden Prototyp-Applikation zur Produktreife, ging es der BizTelligence bei dieser Masterarbeit vor allem auch darum zu evaluieren, wie sie als kleines Start-Up-Unternehmen ohne finanzielle Mittel und ohne eigene IT-Hosting-Infrastruktur das Bedürfnis von Grosskunden mit vielen Filialen bewältigen kann. Konkret soll geprüft werden, in welcher Form die Applikation in der Cloud von Windows Azure installiert und gehostet werden kann und welche Software-Architektur sich dafür am besten eignet. Ergebnis: Windows Azure stellt hauptsächlich eine Platform-as-a-Service (PaaS) zur Verfügung. Auf dieser Plattform können Applikationen und Daten hochskalierbar und hochverfügbar (99.95 % zugesicherte Uptime, dreifach repliziert) gehostet werden. Die Schnittstellen, beispielsweise zur Cloud-Datenbank SQL Azure, wurden dabei möglichst äquivalent zu herkömmlichen Applikationen oder Technologien entwickelt, wodurch lokale Software-Komponenten und Cloud-Services sehr einfach miteinander kommunizieren können. Der grösste Unterschied ist jedoch das Finanzierungsmodell: Anstelle einer Up-Front-Investition in IT-Infrastruktur bezahlen die Nutzer nur das, was sie effektiv benötigen – stunden- und kilobytegenau abgerechnet. Für den Markteintritt von BizTelligence wurde schliesslich eine Architektur evaluiert und umgesetzt, welche das Hosting der Applikation in der Cloud vorsah. Langfristig jedoch ist geplant, die Applikation mandantenfähig als Software-as-aService in der Cloud zu betreiben, wodurch die enorme Skalierbarkeit von Windows Azure erst richtig ausgenützt werden kann. 37