Bericht 2004 - 2005 - Hilfe

Transcription

Bericht 2004 - 2005 - Hilfe
Bericht 2004 - 2005
Über die Arbeitsbereiche
„Systementwurf in der Mikroelektronik“
Forschungszentrum Informatik und
„Technische Informatik“
Universität Tübingen
Wolfgang Rosenstiel
FZI-Bericht 1-13-1/06
1
Vorwort
Dieser Bericht gibt einen aktuellen Überblick über die Themen, die derzeit
in den Arbeitsbereichen „Systementwurf in der Mikroelektronik (SiM)“ am
Forschungszentrum Informatik (FZI) und „Technische Informatik“ am
Wilhelm-Schickard-Institut für Informatik der Universität Tübingen
bearbeitet werden.
Im FZI-Forschungsbereich SiM und am Lehrstuhl für Technische Informatik
arbeiten zurzeit insgesamt über 30 Mitarbeiterinnen und Mitarbeiter, die
größtenteils aus Drittmitteln verschiedener Auftraggeber finanziert werden. Eine Reihe von Stipendiaten und selbstverständlich viele Studierende,
die als wissenschaftliche Hilfskräfte oder im Rahmen ihrer Diplom- und Studienarbeiten mitarbeiten, unterstützen die Forschung und Lehre zusätzlich.
Im Rahmen dieses Berichts soll vor allem auf die Arbeiten der letzten zwei
Jahre eingegangen werden.
Meine Arbeitsbereiche beschäftigen sich schwerpunktmäßig mit Fragen des
Entwurfs
mikroelektronischer
Systeme.
Ein
besonders
aktueller
Schwerpunkt ist in diesem Zusammenhang der Entwurf eingebetteter
Systeme (Embedded Systems). Weitere Schwerpunktthemen betreffen
Plattform-basierten Entwurf (Platform Based Design), Verifikation,
Virtuelles und Reales Prototyping, Einsatz von Parallelrechnern, Neuronale
Netze sowie Multimedia.
Im Berichtszeitraum konnten 10 Mitarbeiterinnen und Mitarbeiter ihre
Promotion
erfolgreich
abschließen,
es
entstanden
ca.
40
Veröffentlichungen sowie 50 Diplom- und Studienarbeiten.
Für weitere Informationen sei auf die Projektübersicht im WWW, die
Zusammenstellung der Veröffentlichungen bzw. die Kontaktadressen am
Ende dieses Berichts verwiesen.
Mai 2006
Wolfgang Rosenstiel
2
Inhal tsv erzeichni s
Projekte und Arbeitsthemen..............................................................................................7
Entwurf eingebetteter Systeme
(Leitung: Dr. O. Bringmann) .........................................................................................11
Parallelrechner und parallele Programmierung
(Hr. Holtwick, Hr. Ganzenmüller, Hr. Nagel, Hr. Pinkenburg) ....................................28
NeuroTeam
(Leitung: Dr. M. Bogdan) ..............................................................................................32
Rekonfigurierbare Rechensysteme
(Hr. Oppold, Hr. Schweizer)..........................................................................................35
Analyse und Optimierung komplexer System-on-Chip-Entwürfe
(Leitung: Dr. J. Gerlach) ................................................................................................38
Formale Methoden
(Leitung: Dr. T. Kropf)...................................................................................................48
Multimediatechnik
(Leitung: Steffen Holtwick) ..........................................................................................51
Veröffentlichungen ..........................................................................................................54
Vorträge ............................................................................................................................60
Promotionen .....................................................................................................................63
Diplomarbeiten.................................................................................................................64
Studienarbeiten ................................................................................................................65
Liste der Projektpartner 2004-2005 .................................................................................68
Abbildungsverzeichnis......................................................................................................71
Kontaktadressen...............................................................................................................72
3
Forschungszentrum Informati k,
Forschungsbereic h „Systementwurf in der Mikroelektronik
(SiM)“
Leitung: Rosenstiel, Wolfgang, o.Prof., Dr. rer. nat.
Sekretariat: Reiter, Diana
Wissenschaftliche Angestellte und Stipendiaten:
Bringmann, Oliver, Dr. rer. nat, Dipl.-Inform. (Abteilungsleitung)
Katchan, Igor, Dipl.-Ing. (bis 06/05)
Krause, Matthias, Dipl.-Ing. (seit 05/04)
Lipsa, Gabriel-Mihai, Dipl.-Ing. (bis 04/05)
Menn, Carsten, Dipl.-Inform. (bis 06/04)
Schnerr, Jürgen, Dipl.-Inform.
Schönwald Timo, Dipl.-Inform.
Siebenborn, Axel, Dipl.-Inform.
Viehl, Alexander, Dipl.-Inform. (seit 10/04)
Vörg, Andreas, Dipl.-Inform. (bis 01/05)
Stipendiaten:
Copaciu, Flavius (bis 09/05)
Parfuntseu, Pavel
Die Karlsruher Mitarbeiterinnen und Mitarbeiter 2005/2006
4
Universität Tübingen, W ilhel m-Schickard-Insti tut,
Arbei tsbereich „Technische Informatik“
Leitung: Rosenstiel, Wolfgang, o.Prof., Dr. rer. nat.
Sekretariat: Reimold, Margot
Wissenschaftliche Angestellte:
Bensch, Michael, Dipl.-Inform.
Behrend, Jörg‚ Dipl.-Bioinform. (seit 01/06)
Bernauer,Andreas, Dipl.-Bioinform. (seit 10/05)
Bogdan, Martin, Dr. rer. nat.
Braun, Axel, Dipl.-Inform.
Dreher, Werner, Dipl.-Phys.
Ganzenmüller, Sven, Dipl.-Phys.
Gerlach, Joachim, Dr. rer. nat.
Heim, Gerald, Dipl.-Inform.
Hermle, Thomas, Dipl.-Inform. (bis 12/04)
Holtwick, Steffen, Dipl.-Phys.
Katchan, Igor, Dipl.-Ing. (01/04 bis 12/04)
Kuhn, Tommy, Dr. rer. nat.
Lämmermann, Stefan, Dipl.-Ing. (seit 06/05)
Lipsa, Gabriel-Mihai, Dipl.-Ing. (05/05 bis 07/05)
Ludwig, Lothar, Dr. rer. nat. (bis 12/04)
Müller, Matthias, Dipl.-Inform. (seit 07/05)
Nagel, Andreas, Dipl.-Phys. (seit 04/05)
Oppold, Tobias, Dipl.-Inform.
Peranandam, Prakash Mohan, Dipl.-Inform.
Pinkenburg, Simon, Dipl.-Phys.
Ritt, Marcus, Dr. rer. nat. (bis 12/03)
Ruf, Jürgen, Dr. rer. nat.
Schmitt, Stephen, Dipl.-Inform.
Schröder, Michael, Dipl.-Inform. (bis 10/05)
Schulz-Key, Carsten, Dipl.-Inform. (bis 09/05)
Schweizer, Thomas, Dipl.-Inform.
Weiss, Roland, Dr. rer. nat. (bis 11/05)
Winterholer, Markus, Dipl.-Inform. (bis 12/04)
Stipendiaten:
Brugger, Dominik, Dipl.-Bioinform. (seit 10/05)
Da Silva Rocha, Karina, Master Comp. Sc. (seit 04/05)
De Oliveira Filho, Julio Alexandrino, Master Electr. (seit 04/04)
Lettnin, Djones, Master Electr. Eng. (seit 05/04)
Subramanian, Suguna, Master Comp Sc. (seit 05/05)
5
Die Tübinger Mitarbeiterinnen und Mitarbeiter 2005/2006
6
Proj ekte und A rbei tsthemen
Der Forschungsbereich „Systementwurf in der Mikroelektronik“ (SiM)
am Forschungszentrum Informatik in Karlsruhe (FZI) und der Lehrstuhl
Technische Informatik an der Universität Tübingen bestehen seit 1990.
Beide Arbeitsgruppen waren und sind an mehreren nationalen und
internationalen Projekten beteiligt und beschäftigen sich mit
zahlreichen Themen auf dem Gebiet des Entwurfs und der
Anwendung mikroelektronischer Systeme. Im Vordergrund stehen
Fragen des Entwurfs mikroelektronischer Systeme. Ein besonders
aktueller Schwerpunkt ist in diesem Zusammenhang der Entwurf
eingebetteter
Systeme
(Embedded
Systems
Weitere
Schwerpunktthemen betreffen Plattform-basierten Entwurf (Platform
Based Design), Verifikation, Virtuelles und Reales Prototyping, Einsatz
von Parallelrechnern, Neuronale Netze sowie Multimedia.
Im Folgenden sind die aktuellen Projekte nach den zugehörigen
Arbeitsthemen gegliedert und beschrieben.
Entwurf eingebetteter Systeme (Leitung: Dr. O. Bringmann)
•
•
•
•
Applikationsspezifische Architekturbewertung
-
Modellbasierte Entwurfsevaluierung mit UML2 und SysML
(Alexander Viehl)
-
Kommunikations- und Performanzabschätzung
eingebetteter Systeme (Axel Siebenborn)
-
Zielarchitekturorientierte Abschätzung von
Schaltungsimplementierungen (Carsten Menn)
Modellierung und Verfeinerung von virtuellen Prototypen
-
SystemC-basierte Modellierung verteilter eingebetteter
Systeme als virtuelle Prototypen (Matthias Krause)
-
Automatische Verfeinerung der Kommunikation und
Generierung von Target Software (Matthias Krause)
-
Applikationsspezifische Network-on-Chip-Architekturen
(Axel Siebenborn, Timo Schönwald)
-
SystemC, GreenSocs, GreenBus (Pavel Parfuntseu)
Validierung und Test von Hardware/Software-Systemen
-
Instruction-Set-Emulation (Jürgen Schnerr)
-
FPGA-basierte Fehleremulation für sicherheitskritische
Anwendungen (Igor Katchan, Pavel Parfuntseu)
Autonomic Computing für zuverlässige mikroelektronische und
eingebettete Systeme
-
Architektur und Designmethodik für Autonomic System on
Chip (Andreas Bernauer, Gabriel Lipsa, Oliver Bringmann)
7
•
•
Zuverlässige Systeme (Oliver Bringmann)
Wiederverwendung qualifizierter Intellectual Property
-
IP-Qualifizierung (Andreas Vörg)
-
IP-Verwaltung (Andreas Vörg)
SystemC Parser - als Teil des KaSCPar Tools (Karlsruhe SystemC
Parser) (Pavel Parfuntseu)
Parallelrechner und parallele Programmierung (Hr.
Holtwick, Hr. Ganzenmüller, Hr. Nagel, Hr. Pinkenburg)
•
Objektorientierte parallele Ein-/Ausgabe (Simon Pinkenburg)
•
Ein objektorientiertes paralleles Framework für wissenschaftliche
Simulationen (Sven Ganzenmüller)
•
Implementierung einer Oberflächenspannung in sph2000 (Andreas
Nagel)
NeuroTeam (Leitung: Dr. M. Bogdan)
•
OTC - Online Tool Controlling mit neuronalen Netzen (Elena
Sapojnikova, Michael Schröder, Michael Bensch)
•
Ausbeuteoptimierung mit Halbleiter Herstellerdaten (Dominik
Brugger, Michael Bensch)
•
Workload Prediction - Vorhersage der Auslastung von
Großrechnern (Michael Bensch, Dominik Brugger)
Rekonstruierbare Rechensysteme (Hr. Oppold, Hr. Schweizer)
•
Entwurf und Bewertung von Architekturen von dynamisch
rekonfigurierbaren Prozessoren (Tobias Oppold)
•
Reduzierung der Verlustleistung bei prozessorartig
rekonfigurierbarer Hardware (Thomas Schweizer)
Optimierung komplexer System-on-Chip-Entwürfe (Leitung: Dr. J.
Gerlach)
•
Performanzanalyse und -optimierung von Systemmodellen und
Kommunikationsarchitekturen (Axel Braun)
•
Modellierung von Echtzeitbetriebssystemen und Optimierung von
Echtzeitsystemen (Matthias Müller)
•
Coverage-basierte Bewertung und Optimierung von
Verifikationsumgebung (Karina Da Silva)
•
Verifikation von Software in eingebetteten Echtzeitsystemen
(Djones V. Lettnin)
•
Verifikation komplexer SoC-Entwürfe mit Low-Cost Prototyping
Umgebungen (Stephen Schmitt)
•
Lokalisierung durch die Nutzung der Bluetoothtechnologie
(Suguna Subramanian)
8
•
Simulationsumgebung für superskalare Prozessoren (Gerald Heim)
•
Wertevorhersage in Prozessoren (Gerald Heim)
•
Low-Power Technologien in modernen Prozessorarchitekturen
(Gerald Heim)
Formale Methoden (Leitung: Dr. T. Kropf)
•
GRASP - Integration formaler und funktionaler
Verifikationswerkzeuge (Roland Weiss, Jürgen Ruf, Thomas Kropf)
•
KOMFORT - Kombination formaler und semiformaler Techniken zur
Verifikation von C++-basierten Systembeschreibungen (Prakash
Peranandam, Pradeep Nalla, Jürgen Ruf, Thomas Kropf)
•
FEST - Funktionale Verifikation von Systemen (Stefan
Lämmermann, Roland Weiss, Jürgen Ruf, Thomas Kropf)
Multimediatechnik (Leitung: Steffen Holtwick)
Informationen über die genannten Projekte unter:
•
DFG - Eingebettete Systeme
http://sppes.fzi.de/
•
DFG-SPP-RP: DFG-Schwerpunktprogramm Rapid Prototyping
http://www.ida.ing.tu-bs.de/research/coops/dfg-spp-rp/home.g.shtml
•
ESDG: Embedded Systems Design Group
http://www.fzi.de/sim/index.html
•
ECSI
http://www.ecsi.org
•
EEG - Signalklassifikation
http://www-ti.informatik.uni-tuebingen.de/~schroedm/eeg/index.html
•
FMG - Formal Methods Group
http://www-ti.informatik.uni-tuebingen.de/~fmg
•
GCI: Graduiertenkolleg Chemie in Interphasen
http://www.interphasen.de/
•
GRASP: GRAfische Spezifikation und Echtzeitverifikation von
Produktionsautomatisierungssystemen (GRASP)
http://www.c-lab.de/grasp
•
GRIP: Integrated System for the Neuroelectric Control of Grasp in
Disabled Persons
http://www.grip-europe.org
•
INTER: Intelligent Neural Interface
http://www-ti.informatik.uni-tuebingen.de/~bogdan/inter_titel.html
•
Marie Curie
http://marie-curie.fzi.de/
9
•
MULTIMEDI@AT: MBone Tools – Videokonferenz im Internet
http://struppi.informatik.uni-tuebingen.de/bioinformatik/index.html
•
NeuroTeam
http://www.NeuroTeam.de
•
OASE: Objektorientierter Hardware/Software-Entwurf
http://www-ti.informatik.uni-tuebingen.de/~oase/
•
OASIS: Open Architecture Server for Information Search and Delivery
http://www-ti.informatik.uni-tuebingen.de/oasis/
•
PONS
http://homepages.uni-tuebingen.de/schwarz/ponsproject.html
•
SFB382: Verfahren und Algorithmen zur Simulation physikalischer
Prozesse auf Höchstleistungsrechnern
http://www-ti.informatik.uni-tuebingen.de/~c6
•
SPEAC
http://speac.fzi.de
•
SystemC
http://www-ti.informatik.uni-tuebingen.de/~systemc
•
TOOLIP
http://toolip.fzi.de
10
Entwurf eingebetteter Sy steme (Leitung: Dr. O .Bringmann)
In unserem Alltag spielen komplexe eingebettete Systeme eine immer
größere Rolle. Einbettete Systeme haben im letzten Jahrzehnt die
Veränderungen
in
der
Daten-,
Kommunikationsund
Automobiltechnik stark geprägt und sind zu einem festen Bestandteil
des täglichen Lebens geworden. Die steigenden Anforderungen nach
Leistungsfähigkeit, Komfort, Zuverlässigkeit und Sicherheit führen zu
einer wachsenden Komplexität und Vernetzung eingebetteter
Systeme, die neue Spezifikations- und Entwurfsverfahren erfordern.
Ebenso werden komplette Systeme auf einem Baustein (Systems-onChip, SoCs in Low-Power-Technologie) gefordert, die die Entwicklung
verteilter autonomer und skalierbarer Teilsysteme unterstützen. Des
Weiteren wird in Zukunft neue Funktionalität in der Automobil-,
Informations- und Kommunikationstechnik weniger durch die Summe
der Einzelkomponenten sondern durch deren gegenseitige
Vernetzung realisiert, so dass neue Anwendungen überwiegend aus
der Vernetzung resultieren werden. Dieser Wandel im Produktbereich
zwingt zunehmend auch zu einem Paradigmenwechsel im Entwurf.
Der bestehende komponentenzentrierte Entwurf muss einer
ganzheitlichen Sicht auf ein vernetztes eingebettetes System weichen,
um frühzeitig die Auswirkungen der Vernetzung unter Verwendung
eines virtuellen Prototypen analysieren und bewerten zu können.
Die Aktivitäten in den Jahren 2004 und 2005 standen deshalb ganz im
Zeichen der steigenden Vernetzung in der Automobil-, Informationsund Kommunikationstechnik. Insbesondere der durch die bestehenden
Entwurfsmethoden geprägte traditionelle Entwicklungsablauf gemäß
des „V-Modells“ erweist sich zunehmend als problematisch, da eine
ganzheitliche Sicht auf ein vernetztes System und damit die
Verifikation der Systemintegration erst nach kostspieligem Aufbau
eines realen Prototypen möglich ist. Verletzte Systemanforderungen
oder Integrationsfehler können somit erst am Ende des
Entwurfsablaufs aufgedeckt werden und führen zu langen
Entwurfszyklen und damit verbunden zu einer verspäteten
Markteinführung mit hohen Umsatzeinbußen. Dieses Problem erweist
sich nicht nur auf Integrator- sondern auch auf Zuliefererseite als
bedeutsam, da eine fehlerfreie Entwicklung der Teilsysteme erst beim
Systemintegrator nachgewiesen werden kann.
Der Forschungsbereich SIM hat den genannten Paradigmenwechsel im
Entwurf durch Erforschung einer ganzheitlichen Modellierungs-,
Analyse- und Verifikationsmethodik für verteilte eingebettete Systeme
aufgegriffen, wodurch die Auswirkungen der Systemintegration
bereits anhand eines abstrakten Modells des gesamten Systems
analysiert und somit viele Integrationsfehler bereits in frühen
Entwurfsphasen aufgedeckt werden können. Hierzu zählen Techniken
zur abstrakten Modellierung eines gesamten verteilten Systems, die
einerseits eine enge Anbindung an das Requirement-Engineering und
11
andererseits
eine
lückenlose
Verbindung
zu
den
Implementierungsprozessen ermöglichen. Der Schlüssel für einen
erfolgreichen Entwurf ist die Bereitstellung eines plattformbasierten
Entwurfsprozesses, der sowohl die Funktion als auch die zugrunde
liegende Hardware-Architektur durch Verwendung eines virtuellen
Prototypen frühzeitig in den Entwurfsprozess einbezieht, um die
Leistungsfähigkeit
der
intendierten
Hardwareund
Netzwerkarchitektur bestimmen und optimieren zu können. Durch die
Erforschung von neuen Ansätzen zur SystemC-basierten Modellierung
virtueller HW-Prototypen, zur automatischen applikationsspezifischen
Architekturexploration
von
Hardware/Software-Systemen,
zur
Unterstützung einer Hardware-nahen Software-Entwicklung für
künftige On-Chip Prozessor-Cores bis hin zu einer methodischen
Wiederverwendung von IP-Blöcken konnten wichtige Lücken in einem
durchgängigen
plattformbasierten
Entwurfsablauf
geschlossen
werden. Die erforschte Methodik ist sowohl für System-on-ChipEntwürfe als auch für Netzwerke verteilter Steuergeräte anwendbar,
die zu entscheidenden Innovationsträgern der Telekommunikationsund Automobilindustrie geworden sind. Im Weiteren sind die
Forschungsaktivitäten,
die
sowohl
im
Rahmen
von
Forschungsprojekten als auch durch teilweise öffentlich geförderten
Verbundprojekten z.B. SpeAC (BMBF 01M 3067, MEDEA+ A508) und
Uranos (BMBF 01 M 3075) finanziert werden, in den folgenden
Schwerpunkten kurz dargestellt.
Abb. 1: Pla ttform ba sie rte r E ntw urf v on v erte ilte n
ei nge bettete n Sy ste me n und S ystem s- on- Chi p
12
Applikati onsspezifische Archi tekturbewertung
Modellbasierte Entwurfsevaluierung mit UML2 und SysML (Alexander
Viehl)
Die Unified Modeling Language (UML) ist eine allgemeine
Modellierungssprache, die im Softwareentwicklungsprozess weit
verbreitet für
die
Spezifikation
und
den
Entwurf von
Softwaresystemen eingesetzt wird. Die Modellierung von Systemen
mit UML erlaubt den Beginn des Modellierungsprozesses auf einem
hohen Abstraktionsniveau und die Beschreibung von Aspekten wie
dem Zeitverhalten und der Architektur noch bevor Teile der
Funktionalität implementiert wurden. (siehe Abb. 2)
Abb. 2: De si gnflow z ur M odellie rung und A naly se von
ei nge bettete n Sy ste me n mi t U ML 2/Sy sML
13
UML2.0 und SysML versuchen, bewährte Techniken aus der
Softwaretechnik in das Systems Engineering zu überführen. Dazu
wurden neue Modelle und Profile entwickelt, die den Bedürfnissen der
Systementwicklung auf hohen Abstraktionsebenen genügen. Bis jetzt
liegt dabei der Fokus auf Modellierungsaspekten. Quantitative
Performanzanalyse wird nicht ausreichend in frühen Entwurfsphasen
adressiert. In diesem Forschungsbereich wurde ein Verfahren zum
Rapid Prototyping und zur frühen Entwurfsbewertung von
eingebetteten Systemen und Systems-on-Chip (SoC) entwickelt. Der
Ansatz umfasst die Beschreibung des Gesamtsystems oder von
Teilkomponenten
mit UML2/SysML
und die
automatisierte
Überführung in ein formales Systemmodell. Auf diesem Modell können
Analysen
hinsichtlich
Performanzaspekten
oder
potentiellen
Konflikten auf geteilten Kommunikationsressourcen durchgeführt
werden. Weiterhin können aus dem Modell automatisch
Simulationsmodelle in SystemC erzeugt werden, welche durch
Monitoring-Schnittstellen die Simulation und damit die Erkennung von
Performanzengpässen
und
Ressourcenkonflikten
unterstützen.
Dadurch ist es möglich, ein Systemmodell zu einem frühen
Entwurfszeitpunkt zu evaluieren. Die gewonnenen Informationen
können in einem weiteren Schritt zur Modifikation des spezifizierten
Modells verwendet werden und unterstützen somit eine Exploration
des Entwurfsraumes.
Kommunikations- und Performanzabschätzung eingebetteter
Systeme (Axel Siebenborn)
Um Fehler beim Entwurf und die hiermit verbundenen Auswirkungen
auf den Entwicklungszyklus zu vermeiden, wird eine Validierung der
Systembeschreibung in einer möglichst frühen Phase des Entwurfs
angestrebt. Da komplexe Systeme aus mehreren miteinander
interagierenden Komponenten bestehen, müssen beim Entwurf nicht
nur die einzelnen Komponenten, sondern das System global validiert
werden. Durch formale Verfahren werden die Fälle ermittelt, in denen
ein extremes Laufzeitverhalten auftritt (Worst-Case). Hierbei wird das
globale System betrachtet, wobei das interne Verhalten einzelner
Funktionsblöcke berücksichtigt wird. Der Ansatz besteht in der
Kombination
und
Erweiterung
einer
Methode
zur
Laufzeitabschätzung von Software auf einem eingebetteten Prozessor
und einer Methode zur Analyse des Kommunikationsverhaltens
zwischen Prozessen. Ziel der Laufzeitabschätzung ist die Bestimmung
einer Unter- und Obergrenze für sequenziell auszuführende
Programmteile. Durch analytische Verfahren können diese Grenzen
unabhängig von den Eingabedaten ermittelt werden. Die
Schwierigkeiten hierbei erwachsen insbesondere aus der Entwicklung
und dem Einsatz moderner Prozessorkonzepte im Bereich
eingebetteter Systeme. So haben superskalare Befehls-Pipelines,
Konzepte zur Sprungvorhersage und Cache-Speicher einen größeren
14
Einfluss auf das Laufzeitverhalten und müssen in entsprechenden
Modellen bei der Analyse berücksichtigt werden. Um den
Einfluss blockierender Kommunikationen auf die Ausführungszeit
berücksichtigen zu können, wird ein Ansatz zur Analyse des
Kommunikationsverhaltens paralleler Prozesse mit dem Verfahren zur
Laufzeitabschätzung
verknüpft.
Durch
das
Verfahren
der
Kommunikationsanalyse
können
Kommunikationen,
die
unterschiedliche
Prozesse
synchronisieren
identifiziert
und
Wartezeiten der Kommunikationspartner bestimmt werden. Durch
Synchronisationspunkte werden parallele Prozesse zeitlich zueinander
in Beziehung gesetzt. Auf Basis der Synchronisationspunkte kann das
globale Zeitverhalten des Systems bestimmt werden. Aufbauend auf
dem Verfahren zur Kommunikationsanalyse wird ein Verfahren
vorgestellt, mit dem Konflikte beim Zugriff unterschiedlicher
Funktionsblöcke
auf
gemeinsame
Speichermodule
oder
Kommunikationskanäle erkannt, sowie inkorrekt modelliertes
Kommunikationsverhalten aufgedeckt werden kann. Dies erlaubt die
Bestimmung einer minimalen Anzahl von Kommunikationsressourcen
unter Vermeidung von Ressourcen- und Laufzeitkonflikten. In
Abbildung 1 ist die Aufteilung der Ausgangsbeschreibung in den
beiden Problemdomänen dargestellt. Abbildung 3 zeigt die
Implementierung der beschriebenen Methoden als Werkzeugkette.
Comm un icating Processes
Contro l Structure
F
5
Comm un ication Structure
F
1
?
F
4
F
2
F
3
Problem
Decomposition
Communication
Analysis
Register
Instruction
set
Execution
Units
Pipeline
WCET
Analysis
µC Architecture
Worst-Case
Timing Behaviour
Abb. 3: Probl em a ufteil ung i n K om m unik a ti onsstruk tur und
Kontroll fl ussgraphe n zwi sc hen K om m unik ati onspunk te n
15
SystemC
SystemC2XML
XML
XMIL
Gen_CDG
PORTOS
C/C++
gcc arch
ASM arch
CDG
DiSCoE
WCET
g CPU
c
c
Gromit
Splitter
ASM
path
Abb. 4: We rkz e ugke tte
Zielarchitekturorientierte Abschätzung von
Schaltungsimplementierungen (Carsten Menn)
In diesem Forschungsbereich wurde ein Verfahren zur Abschätzung
von Flächenbedarf und Latenz von digitalen Schaltungen entwickelt.
Das Verfahren zeichnet sich dadurch aus, dass es bereits in sehr frühen
Phasen des Entwurfs von digitalen Schaltungen eingesetzt werden
kann, da lediglich eine zeitfreie Verhaltensbeschreibung der
gewünschten Funktionalität benötigt wird. So ist es bereits möglich,
schon während der Architekturauswahl im plattformbasierten Entwurf
von SoCs eine Abschätzung vorzunehmen. Somit kann beispielsweise
die Auswahl von zu verwendenden FPGA-Typen unterstützt bzw.
bewertet werden. Während der Hardware/Software Partitionierung
bzw. der Abbildung von Funktionalität auf entsprechende
Komponenten einer Architektur, hilft die hier vorgestellte
Abschätzung sehr früh, ungünstige Entscheidungen zu verwerfen.
Damit wird der Entwurfsprozess insgesamt beschleunigt, da nur für
viel versprechende Kandidaten der zeitaufwendige Syntheseprozess
vollständig durchgeführt wird. Da das Abschätzungsverfahren modular
aufgebaut ist und diese Module sich an die Einzelphasen der HighLevel Synthese (Allokierung, Ablaufplanung, Bindung) orientieren, ist
der Einsatz auch während jedes einzelnen Schrittes der High-Level
Synthese möglich.
Ohne tatsächlich eine Synthese durchführen zu müssen, kann die
Abschätzung Ergebnisse für zu erwartende Werte nach der RTSynthese bereitstellen und das Steuerwerk (für FPGA-Realisierungen)
sowie die Besonderheiten der Logikminimierung von Multiplizierern
mit konstanten Operanden mitberücksichtigen.
16
Die Abschätzung des Flächenbedarfs eines Steuerwerks, welches in
einem FPGA realisiert werden soll, kann in konstanter Zeit erfolgen, da
es gelungen ist durch statistische Analyse eine geschlossene Formel zur
Berechnung des Flächenbedarfs zu finden. Hierfür ist keine Kenntnis
über die Übergangs- bzw. Ausgabefunktionen des Steuerwerks nötig.
Daher ist auch diese Abschätzung in sehr frühen Phasen des
Entwurfsablaufs einsetzbar.
Ein konstanter Operand an einem Eingang eines Multiplizierers kann
dazu führen, dass während der Logikminimierung der Flächenbedarf
des Multiplizierers drastisch reduziert wird. In vielen (Teil-)
Applikationen
im
Multimedia-Bereich
treten
derartige
Multiplikationen häufig auf, so dass hier die Vernachlässigung dieses
Aspekts zu unzureichenden Abschätzungsergebnissen führen würde.
In einer ersten Untersuchung konnte die Möglichkeit aufgezeigt
werden, für verschiedene Multiplizierer-Typen den Flächenbedarf und
die Latenz anhand des Konstantenwertes eines Operanden
abzuschätzen. Hierzu genügen Eckdaten, die aus der Synthese einiger
Multiplizierer gewonnen werden können. Die Abschätzungsergebnisse
konnten durch die Berücksichtigung der durch die Logikminimierung
reduzierten Multiplizierer noch weiter verbessert werden.
Modelli erung und Verfei nerung von vi rtuellen Prototypen
SystemC-basierte Modellierung verteilter eingebetteter Systeme als
virtuelle Prototypen (Matthias Krause)
Intelligente eingebettete Systeme, wie sie beispielsweise im Automobil
eingesetzt werden, sind zunehmend durch die steigende Vernetzung
geprägt. So wird in Zukunft neue Funktionalität weniger durch die
Summe der Einzelkomponenten, sondern durch deren Vernetzung
realisiert. Während in den Achtziger und Neunziger Jahren passive
Sicherheitssysteme,
wie
aufprallsichere
Fahrgastzellen
und
Airbagsysteme unsere Fahrzeuge in ihrer Sicherheit wesentlich
verbessert haben, wird die nächste Dekade den aktiven
Sicherheitssystemen gehören, die sich überwiegend als SicherheitsFahrerassistenzsysteme zusammenfassen lassen. Der Markt für diese
Systeme wird sich nach einer Analyse von B&D Forecast zu einem
bedeutenden Umsatz- und Ertragsträger für die Automobilzulieferer
entwickeln. Hierbei ist zu erkennen, dass bei den etablierten passiven
Sicherheitssystemen Innovation durch komplexere Steuergeräte sowie
durch eine Erhöhung der Anzahl der Steuergeräte erzielt wurde.
Durch den Übergang von passiven zu aktiven Sicherheitssystemen wird
Innovation funktionsbedingt durch Interaktion von Steuergeräten
erzielt und lässt sich nicht mehr durch einfaches Hinzufügen von
Steuergeräten handhaben. Der Mehrwert resultiert somit zunehmend
aus der Vernetzung, sogar einhergehend mit einer Reduktion der
Gesamtanzahl an Steuergeräten, wobei die Vernetzung hohe
17
Funktionsrelevanz
besitzt.
Als
Beispiel
seien
künftige
Assistenzfunktionen genannt, die eine enge Vernetzung der aktiven
und passiven Sicherheitssysteme mit den vorausschauenden
Fahrerassistenzsystemen erfordern. Erkennt die Adaptive Cruise
Control
(ACC)
eine
kritische
Verkehrssituation,
legt
das
Sicherheitssystem die Bremsbeläge unmerklich an die Bremsscheiben
an und bereitet den Bremsassistenten so auf eine eventuelle
Notbremsung vor. Das ACC ist wiederum eng mit der
Fahrzeugumfelderkennung über Video- bzw. Radarsensorik gekoppelt.
In einer weiteren Ausbaustufe fließen Umgebungsinformationen aus
dem GPS-System ein. So werden nur durch Vernetzung von
existierenden Steuergeräten neue aktive Sicherheitssysteme mit
hohem Mehrwert bereitgestellt, die jedoch hohe Anforderungen an
eine reibungslose Interaktion stellen.
Analoge
Entwicklungen
sind
auch
im
Bereich
der
Mobilkommunikation erkennbar. Bereits heute haben sich mobile
Endgeräte über Kommunikations- und Multimediaanwendungen
hinaus entwickelt. Die bisherigen Funktionen zeichnen sich dadurch
aus, dass sie passiv den Funktionsumfang eines mobilen Endgeräts
erhöhen, also dem Benutzer einfach zusätzliche Anwendungen bieten.
Dadurch, dass Mobiltelefone eine äußerst hohe Verbreitung gefunden
haben und stets mitgeführt werden, eröffnen sich eine Vielzahl neuer
Anwendungsgebiete, die weit über die bisherigen Funktionen
hinausgehen. Als Beispiel seien Gesundheitsüberwachungsfunktionen
genannt, die den Puls, Blutzuckerspiegel und die Herzfrequenz der
Nutzerin/des Nutzers überwachen und zukünftig aktiv bei Bedarf
einen Notruf absenden können, der mit GPS-Ortungsinformationen
versehen ist. Einen weiteren Anwendungsfall liefert ein zukünftiges
Szenario, in welchem beim Einsteigen in ein Fahrzeug das
Mobiltelefon der Fahrerin/des Fahrers automatisch eine Verbindung
mit der im Wagen installierten Freisprechanlage über Bluetooth
initiiert. Ähnlich wie bei den Automobil-Beispielen ist auch bei diesen
geplanten Systemen ein Wechsel von passiver zu aktiver Funktionalität
zu verzeichnen, wobei diese Funktionen ebenfalls nicht durch
Einzelkomponenten, sondern durch deren Vernetzung realisiert
werden.
Einhergehend mit dem beschriebenen Paradigmenwechsel im
Produktbereich ist jedoch auch ein Paradigmenwechsel im
Entwurfsprozess notwendig: Sowohl in der Automobil- als auch in der
Mobilkommunikationsbranche
geht
die
Systemverantwortung
zunehmend an den Zulieferer über. Dies bedeutet, dass der Zulieferer
seine eigene Komponente nicht mehr isoliert betrachten kann,
sondern im globalen Kontext entwerfen und verifizieren muss.
Konkret bedeutet dies, dass bestimmte Fragestellungen, die den
globalen Kontext betreffen, schon sehr früh beantwortet werden
müssen, bevor der eigentliche Komponentenentwurf begonnen hat.
Für Automobil-Anwendungen muss daher frühzeitig verifiziert
werden, ob das Gesamtsystem mit der zu entwerfenden Komponente
18
die Sicherheitsanforderungen der Applikation erfüllt. Bei der
Mobilkommunikation wäre eine analoge Fragestellung, ob das
Gesamtsystem mit der zu entwerfenden Komponente die Performanz-,
Power- und Miniaturisierungsanforderungen des Endgerätes erfüllt. Es
war bisher ausreichend, die Anforderungen einer einzelnen
Komponente zu prüfen, müssen künftig die Anforderungen an das
Gesamtsystem einschließlich der zu entwerfenden Komponente
verifiziert werden. Im Gegensatz zu vernetzten Systems-on-Chip
handelt es sich hierbei um offene, frei konfigurierbare Systeme, bei
denen nicht die Realisierung einer Applikation auf einem Chip,
sondern das Zusammenwirken mehrerer, ursprünglich unabhängiger
Applikationen zur Realisierung einer neuen Funktionalität im
Vordergrund steht. Das Gesamtsystem kann somit für jeden
Anwendungsfall variieren und besteht zum Teil aus unbekannten und
artfremden Komponenten, deren Konfiguration sich zur Anpassung an
unterschiedliche Marktbedingungen ändern kann.
Automatische Verfeinerung der Kommunikation und Generierung
von Target Software (Matthias Krause)
Um die genannten Schwierigkeiten zu überwinden, muss der
bestehende komponentenzentrierte Entwurf einer ganzheitlichen
Sicht eines vernetzten eingebetteten Systems weichen, um frühzeitig
die Auswirkungen der Vernetzung unter Verwendung eines virtuellen
Prototypen analysieren und bewerten zu können. Dabei müssen auch
die Schwierigkeiten überwunden werden, sowohl Software als auch
Hardware in einem Gesamtkontext zu betrachten. Die Sprache
SystemC kann hierbei den entscheidenden Beitrag liefern, da sie die
geforderte ganzheitliche Sicht auf das vernetzte System ermöglicht.
SystemC wird dabei als Integrationssprache verwendet, die SystemSpezifikationen von Hardware, Software sowie Kommunikation in
einem Gesamtkontext beschreibt. So können beispielsweise
Spezifikationen aus UML/SysML oder Matlab/Simulink automatisch
nach SystemC überführt werden und somit in einer frühen Phase des
Entwurfs bereits simuliert und verifiziert werden. Dadurch kann eine
Aussage über die Beeinflussung der einzelnen Komponenten
aufeinander bereits vor der Erstellung eines realen Prototypen
getroffen, und dadurch möglicherweise erforderliche Re-Designs
vermieden werden.
Die Systemintegration mit SystemC findet dabei auf einer sehr hohen
Abstraktionsebene statt und erfordert daher eine schrittweise
Verfeinerung dieses funktionalen Modells bis hin zur fertigen
Implementierung.
Abbildung 5 verdeutlicht die erforderliche Verfeinerung. SystemCModule müssen auf eine entsprechende Zielarchitektur abgebildet
werden, die aus Zielprozessor und Echtzeitbetriebssystem besteht. Der
Prozessor wird dabei als SystemC-Modell in das Gesamtsystem
integriert.
Die
Applikation
wird
automatisch
auf
einem
Echtzeitbetriebssystem abgebildet. Hierzu wurde eine Bibliothek zur
19
RTOS-Charakterisierung entworfen, mit dessen Hilfe das Werkzeug
PORTOS (Porting to Real Time Operation System) SystemC-Konstrukte
auf äquivalente RTOS-Konstrukte abbildet. Um die SystemCBeschreibung einzulesen, wurde der SystemC-Parser KaSCPar
entwickelt. KaSCPar (Karlsruher SystemC Parser) ist ein Werkzeug, das
SystemC-Code einliest und daraus ein strukturiertes Zwischenformat in
XML erzeugt. Der Parser besteht aus zwei Teilen. SC2AST parst den
SystemC-Code und erzeugt einen AST (Abstract Syntax Tree). Für jedes
SystemC-Sprachelement wird ein Token im AST erzeugt. SC2XML liest
das AST-Zwischenformat ein und erzeugt eine „elaborated XML
description“. Diese ist aufgeteilt in einen strukturellen und einen
funktionalen Teil. Der funktionale Teil enthält alle Informationen über
Prozesse, Modul-Konstruktoren und den Kontroll- und Datenfluss
jedes Prozesses. Der strukturelle Teil enthält Informationen über die
hierarchische Struktur und die Verknüpfung der Module
untereinander. Diese strukturierten Systeminformationen überführt
PORTOS mit den Angaben aus der RTOS-Bibliothek in den Target Code
des spezifizierten Betriebssystems. Dabei besteht auch die Möglichkeit
in der RTOS-Bibliothek ein SystemC-RTOS-Modell zu spezifizieren,
welches in das SystemC-Modell integriert wird, um den Einfluss des
RTOS auf das Systemverhalten mit zu simulieren. Der bisherige
SystemC-Code muss dadurch nicht mehr von Hand an das RTOS-Modell
angepasst werden. Um das zeitliche Verhalten der Prozesse möglichst
genau zu simulieren, können die Ergebnisse der Laufzeitabschätzung
(siehe Kommunikationsanalyse) zurückannotiert werden.
Abb. 5: V e rfei nerungs-Sc hic hte n
20
Neben der Software-Verfeinerung ist auch die Verfeinerung der
Kommunikation ein wichtiger Aspekt. Die funktionale Spezifikation
stellt die Kommunikation nur als reine Punkt-zu-Punkt-Verbindungen
dar. Diese müssen auf eine entsprechende Bus-Architektur abgebildet
werden. Die Kommunikationsarchitektur ist dabei in einem SystemCChannel gekapselt auf den über SystemC-Interfaces zugegriffen wird.
Durch das Austauschen des Channels kann somit jede vorhandene
Busarchitektur verwendet werden. Diese können auf verschiedenen
Abstraktionsebenen zur Verfügung gestellt werden. Modelle auf
Transaktionsebene bieten hierbei die Möglichkeit, das Zeitverhalten
zyklengenau oder approximativ mit zu berücksichtigen, aber dennoch
moderate Simulationszeiten zu erzielen. Die verwendeten Busmodelle
liegen bei diesem Verfahren als IP-Komponenten in SystemC vor. Über
eine XML-Schnittstelle können Konfigurationen für den jeweiligen Bus
vorgenommen werden. Das Verfeinerungs-Werkzeug BRAIn (Bus
Refinement Analysis and Implementation) setzt ebenfalls auf dem
SystemC-Parser KaSCPar auf.
Applikationsspezifische Network-on-Chip-Architekturen (Axel
Siebenborn, Timo Schönwald)
Beim Entwurf immer komplexer werdender Systeme auf einem
einzelnen Chip, stellt die Verbindung und Kommunikation der
einzelnen Komponenten ein großes Problem dar. Schon heute
bestehen
Systems-on-Chip
aus
Prozessorkernen,
anwendungsspezifischer Hardware und Speicher, die oft über ein
Bussystem miteinander verbunden sind. Der Nachteil bei Bussystemen
besteht in der mangelnden Skalierbarkeit auf sehr große Systeme.
Dieser Nachteil wird bei dem Entwurfsparadigma Network-on-Chip
(NoC) vermieden, indem Kommunikationstechniken, wie sie in
allgemeinen Computernetzwerken angewendet und zur On-ChipKommunikation einsetzt werden. Daten werden hierbei als Pakete in
einem durch Router strukturierten Netz übermittelt. Wesentlicher
Nachteil solcher paketbasierten Kommunikation ist die schlechte
Vorhersagbarkeit der Zeiteigenschaften, die einen Einsatz in Systemen
mit Echtzeitanforderungen erschweren. Als Lösungsansatz können die,
bei der Kommunikationsanalyse gewonnenen Informationen genutzt
werden, um eine geeignete Netzwerktopologie zu generieren und
Komponenten in diesem Netzwerk zu platzieren. Die Informationen
über mögliche Konflikte im Netzwerk können zur Bestimmung
konfliktfreier Wege für die einzelnen Kommunikationen genutzt
werden (Routing). (siehe Abb. 6)
21
Functional Multi-Process-Description
NoC Platform
F
1
F
3
Mapping
5
F
F
2
F
4
F
6
Time constraints
Network Configuration
Communication
Analysis
Abb. 6: A bbildung von F unk ti onsbl öc ke n a uf NoCPla ttform
In der Abbildung 6 ist der Einsatz von NoC im plattformbasierten
Entwurf dargestellt. Die funktionale Beschreibung wird auf eine
Plattform mit integriertem Netzwerk abgebildet. Die verarbeitenden
Elemente, wie Prozessorkerne oder dedizierte Hardware, sind direkt
oder über Router miteinander verbunden. Durch die Anwendung der
bereits beschriebenen Kommunikations- und Konfliktanalyse können
die Engpässe in diesem System bestimmt werden und entsprechende
Parameter für das Netzwerk generiert werden. Für die einzelnen
Verarbeitungselemente werden wiederum angepasste Verfahren zur
Performanzabschätzung
verwendet.
Durch
eine
iterative
Vorgehensweise wird das generierte System analysiert um die
Ergebnisse zu einer weiteren Verfeinerung zu nutzen.
SystemC, GreenSocs, GreenBus (Pavel Parfuntseu )
GreenBus, GreenSocs und FZI werden ein Standard-SystemCBusmodellierungs-Framework
bereitstellen,
das
für
viele
Anwendungen einsetzbar sein wird. Wir fokussieren die Entwicklung
einer Single-Common-Bus-Struktur, die für alle IP geeignet ist,
unabhängig davon welche Bus-Strukturen angelegt wurden oder
werden. GreenBus wird sich als ein open standard entwickeln, unter
Beteiligung sowohl akademischer als auch industiereller SystemCNutzer und -Entwickler.
Validierung und Test v on Hardware/Software-Systemen
Instruction-Set-Emulation (Jürgen Schnerr)
Durch die Fortschritte in der Entwicklung von Halbleiterbauelementen
ist es möglich geworden, komplette Systeme hoher Funktionalität auf
einem Chip zu implementieren, die so genannten Systems-on-a-Chip
(SoCs). Solche Systeme führen aufgrund ihrer Komplexität zu
Problemen bei der Verifikation. Um diese Verifikation zu unterstützen
22
wurde ein architekturgenaues Prototypingsystem entwickelt, für die
Instruction-Set-Emulation (ISE) beliebiger Prozessoren, bestehend aus
einer
Hardware-Plattform
und
dazugehörenden
SoftwareWerkzeugen. Hierbei wurden sowohl die Software-Komponenten
unter Verwendung eines Mikroprozessors, als auch die Hardware
unter Verwendung von FPGAs emuliert. Die entwickelte EmulationsPlattform kann für die Entwicklung und das Debugging von Software,
die für SoC-Prozessorkerne geschrieben wurde, verwendet werden.
Die ISE wurde durch eine zyklengenaue Übersetzung des Binärcodes in
Binärcode des emulierenden Prozessors erreicht. Zyklengenau wird die
Übersetzung
dadurch,
dass
sie
vom
Übersetzer
mit
Zykleninformationen annotiert wird. Um diese Annotierung
vornehmen zu können, muss eine Analyse des Programms durch den
Übersetzer erfolgen. Dabei wird das Programm in Basisblöcke
aufgeteilt und die Ausführungszeit jedes Basisblocks auf dem
Zielprozessor wird statisch abgeschätzt. Dies geschieht mit Hilfe einer
Modellierung der Pipeline des Zielprozessors. Da nicht alle
Eigenschaften
der
Architektur
eines
Prozessors,
die
die
Ausführungszeit betreffen, statisch vorhersagbar sind, muss die
Abschätzung der Laufzeit während der Ausführung des Programms
korrigiert werden. Eine solche Korrektur ist zum Beispiel bei
bedingten Sprüngen, wenn eine Sprungvorhersage verwendet wird,
oder aber auch bei der Berücksichtigung von Cache-Speichern nötig.
Die durch die zyklengenaue Ausführung des Kodes notwendig
gewordene Synchronisation des Emulationssystems mit der Hardware
wird erreicht, indem das Emulationssystem den Takt für die
angeschlossene Hardware durch eine dedizierte Hardware selbst
generiert. Die Anzahl der zu generierenden Taktschritte wird dabei
durch die Annotationen im Code bestimmt und dem Taktgenerator
übermittelt.
Das Problem des Debuggings des zyklengenau übersetzten Kodes
wurde mit Hilfe einer Schnittstelle zwischen dem übersetzten Code
und einem herkömmlichen Software-Debugger gelöst. Diese
Schnittstelle
musste
sowohl
eine
Übersetzung
des
Übertragungsprotokolls, als auch Adress- und Registerübersetzungen
leisten.
FPGA-basierte Fehleremulation für sicherheitskritische
Anwendungen (Igor Katchan, Pavel Parfuntseu)
Hohe Sicherheit ist oft eine der wichtigsten Zielsetzungen bei der
Entwicklung eingebetteter Systeme. Für viele kommerzielle
Anwendungen sind Test-basierte Ansätze das Hauptinstrument zur
Erfüllung dieser Anforderungen. In der Praxis kann die volle
Fehlerabdeckung jedoch nicht erreicht werden. Für die Fehler, die
durch den Test nicht entdeckt werden, muss festgestellt werden, ob
diese zu sicherheitskritischen Folgen führen können. Basierend auf
diesen Analyseergebnissen wird der Systemtest erweitert, um die
23
sicherheitskritischen Fehler abzudecken. In der Praxis werden die
Folgen eines Fehlers mit Hilfe eines Logik-Emulators analysiert. Dabei
ersetzt das Emulationsmodell reale Systemkomponenten. Das
Systemverhalten wird genau imitiert und alle sicherheitsrelevanten
Charakteristiken werden bewertet. Dadurch kann die Wirkung eines
Fehlers auf die Systemsicherheit als kritisch oder unkritisch klassifiziert
werden. Der Einsatz der teueren Logik-Emulatoren beschränkt jedoch
sehr stark die Anwendung dieses Verfahrens. Durch eine niedrige
Taktfrequenz
der
Logik-Emulatoren
ist
außerdem
die
Experimentablaufzeit viel niedriger als die Ablaufzeit in der realen
Umgebung. Der Einsatz der FPGA-basierten Rapid-PrototypingPlattformen anstelle der Logik-Emulatoren verspricht deutliche
Kostenvorteile und eine höhere Emulationsgeschwindigkeit.
Die im Rahmen dieses Schwerpunktes entwickelten Techniken sind von
der Emulationsplattform unabhängig. Im Laufe der Arbeiten wurden
Werkzeuge zur Abbildung des Originaldesigns auf die Virtex-FPGA von
Xilinx und zur Steuerung des Emulationsexperimentes entwickelt. An
den vorgegebenen Knoten in der Designnetzliste werden die so
genannten Fehlerinjektoren eingebaut, die eine gesteuerte
Aktivierung verschiedener Fehlermodelle ermöglichen. Bei der
Designtransformation war es sehr wichtig das Verhalten der
Systemmodule ganz genau in der FPGA-Zieltechnologie darzustellen,
da viele ASIC-Designtechniken nicht direkt in FPGA überführt werden
können. Das Verfahren wurde mit dem Einsatz der im Rahmen eines
anderen Forschungsschwerpunktes entstandenen Rapid-PrototypingPlattform Spyder an realen industriellen Anwendungen evaluiert.
Autonomic Computi ng für zuverlässige mikroelektronische
und eingebettete Systeme
Architektur und Designmethodik für Autonomic System on Chip
(Andreas Bernauer, Gabriel Lipsa, Oliver Bringmann)
Die Produktion von immer kleineren Chips wird in absehbarer Zeit zu
Problemen beim Design führen: Strahlung kann leichter Bits
umdrehen, durch die hohe Integrationsdichte und Komplexität
werden
Produktionsfehler
wahrscheinlicher
oder
Materialveränderungen
durch
Alterung
und
Temperaturschwankungen lassen Ströme langsamer oder nicht mehr
fließen. Die anhaltende und gleichmäßige Funktionsfähigkeit
einzelner Komponenten und Leitungen kann also im Design nicht
mehr vorausgesetzt werden. Außerdem wird man Designfehler in Kauf
nehmen müssen, will man die Entwicklung eines komplexen Chips in
einem annehmbaren Zeitrahmen halten. Bisherige Designmethoden
mit
Worst-case-Analysen
bezüglich
Zeitverhalten
und
Leistungsaufnahme werden mit diesen Problemen nicht mehr
umgehen können. In diesem Projekt wollen wir neue Designmethoden
24
entwickeln, die verlässliche und robuste Systeme garantieren, obwohl
Teile des Chips unzuverlässig, falsch arbeiten oder gar ausfallen. Um
den Übergang zu der neuen Designmethode nicht zu abrupt zu
gestalten und um Investitionen in Intellectual Property zu schützen,
stellen wir uns eine neue Architektur vor, welche aus zwei Ebenen
besteht; einer funktionalen und einer autonomen Ebene (siehe
Abbildung 1). In der funktionalen Ebene befindet sich der eigentliche
Chip mit seinen funktionalen Elementen (FE). In der autonomen Ebene
befinden sich so genannte autonome Elemente (AE), welche die
Funktionsfähigkeit der FE überwachen (Monitor), beispielsweise je ein
AE pro FE. Zugleich bewertet das AE, ob sich das FE innerhalb der
Spezifikation befindet (Evaluator). Ist dies nicht der Fall, sorgt das AE
für eine Rekonfiguration des FE oder gar des Chips (Aktuator). Ein
solches System kann sich sowohl selbst organisieren und reparieren als
auch selbst optimieren und schützen. Wir nennen es „Autonomic
System on Chip“. In einer ersten Phase wollen wir untersuchen, wie die
Rekonfiguration eines funktionalen Elements oder eines Chips
aussehen kann, wenn es suboptimal oder nicht mehr funktioniert.
Hierfür werden redundante funktionale Elemente notwendig sein. In
einer zweiten Phase wollen wir die daraus gewonnenen Erkenntnisse
verwenden, um eine neue Designmethode zu entwickeln, welche
neben Zeitverhalten, Chipfläche und Leistungsaufnahme auch
Zuverlässigkeit und Robustheit berücksichtigen. Die Vorstellung ist,
dass der Entwickler angeben kann, wie zuverlässig und robust er den
Chip haben möchte, und die Designmethode schlägt ihm vor, wie viele
redundante funktionale Einheiten dafür notwendig sind. (siehe Abb.
7)
Abb. 7: A utonom e s Sy ste m on Chip mi t zw ei E be ne n,
ei ne r he rk öm mlic he n funk ti onal e n E be ne und ei ne r
a utonom e n E be ne, w elche di e funktional e E bene
übe rw ac ht und ge ge be ne nfalls rek onfi guri e re n k a nn.
25
Zuverlässige Systeme (Oliver Bringmann)
Das flexiblere und autonome Reagieren von eingebetteten Systemen,
sich an Störungen und Veränderungen der Umwelt und des inneren
Zustands anzupassen, erfordert ein neues Denken im Entwurfsprozess.
Nicht mehr nur die Funktion, Performanz und der Leistungsverbrauch
dürfen im Vordergrund stehen, sondern auch das Erfassen und
Reagieren der Systeme unter gestörten Betriebsbedingungen. Die
Zuverlässigkeit und Sicherheit wird in Zukunft eine notwendige
Voraussetzung sein, um erfolgreich im internationalen Wettbewerb zu
bestehen. Autonomes Verhalten von eingebetteten Systemen bietet
eine Alternative, um deren Zuverlässigkeit zu beherrschen.
Insbesondere wird im Bereich der Elektronik durch den Übergang von
der Mikro- zur Nanoelektronik aufgrund steigender Miniaturisierung
zunehmenden
Entwurfsproblemen
entstehen.
So
können
Sättigungsströme, Versorgungsspannung sowie Subthreshold-Ströme
nicht mehr als feste Größe angesehen werden und haben daher einen
hohen Einfluss auf die Zuverlässigkeit von integrierten Systemen. Dies
führt dazu, dass künftig der übliche „Worst-Case“-Entwurf in Bezug
auf Zeitverhalten und Leistungsverbrauch nicht mehr möglich sein
wird. Im Vordergrund wird zunehmend Zuverlässigkeit, Robustheit
und Komplexität stehen, so dass ein Paradigmenwechsel beim Entwurf
und der Herstellung künftiger SoCs notwendig ist. Eine Lösung für
dieses Problem besteht ebenfalls in der Verwendung von selbstorganisierenden und selbst-heilenden Hardware-Architekturen, die
durch dynamische Reorganisation robust auf ausfallende Subsysteme
reagieren können und somit die Zuverlässigkeit des Gesamtsystems
signifikant erhöhen. Weitere Aspekte befassen sich mit den Einflüssen
eines dynamischen Power-Managements auf die Zuverlässigkeit sowie
mit der Anwendung autonomer Prinzipien zur Erhöhung der
Sicherheit.
Wiederverwendung quali fizierter Intell ectual Property
IP-Qualifizierung (Andreas Vörg)
Aktuelle und zukünftige Chipentwürfe werden aus wieder
verwendbaren Basisbausteinen, so genannten Intellectual PropertyModulen (IP-Modulen) aufgebaut. Diese IP-Module müssen definierte
Qualitätskriterien erfüllen, um den Chipentwurf zu beschleunigen, das
Integrationsrisiko aufseiten des IP-Nutzers und den Aufwand für
Nacharbeit aufseiten des IP-Anbieters zu reduzieren. Die
Übereinstimmung des IP-Modulentwurfs mit diesen Kriterien muss
automatisch geprüft werden, da durch das exponentielle
Komplexitätswachstum manuelle Prüfungen nicht mehr durchführbar
sind. Qualitätsmängel und die Bindung von Ressourcen, die durch
einen konventionellen Austauschprozess nach der Qualifizierung
durch den IP-Anbieter entstehen, können durch einen automatisierten,
26
qualitätserhaltenden IP-Austauschprozess verhindert, beziehungsweise
wesentlich reduziert werden.
Es hat sich gezeigt, dass für die erfolgreiche Integration von IP
besondere
Kriterien
erfüllt
sein
müssen.
Daher
sind
Kriteriensammlungen wie Design-for-Test, Design-for-Synthesis,
Coding-Styles, etc. entstanden. Erfüllt ein IP-Modul diese Kriterien wird
es als qualitativ hochwertig bezeichnet. Oft haben diese Kriterien aber
nur eine firmenweite Verbreitung, so dass ein externer IP-Nutzer sich
nur schwer ein Bild von der tatsächlichen Nutzbarkeit eines
bestimmten IP-Moduls in seinem Systementwurf machen kann. Die
Mehrdeutigkeit des Qualitätsbegriffes ist ein wesentliches Problem,
dass nur durch Standardisierung gelöst werden kann. Dafür haben wir
innerhalb der Virtual Socket Interface Alliance an der Standardisierung
der Qualitätskriterien und ihrer Bewertung mitgearbeitet.
Für die entwickler- und nutzerseitige Überprüfung eines IP-Moduls
(Qualifizierung) gegenüber den definierten Qualitätskriterien sind
Konzepte erarbeitet worden. Die große Anzahl an Kriterien sowie die
Komplexität heutiger Entwürfe erfordern die Automatisierung der
Qualifikation. Zu den automatisierten Aufgaben gehören unter
anderem
die
Überprüfung
von
Kodierrichtlinien,
die
Synthetisierbarkeit von digitalem Soft-IP, Vollständigkeits- und
Integritätsprüfungen
und
Gewährleistung
einer
hohen
Verifikationsabdeckung.
Diese
Aufgaben
sind
in
einem
Qualifizierungssystem eingebettet, dass in unterschiedlichen Phasen
des Entwurfsablaufes eingesetzt werden kann.
IP-Verwaltung (Andreas Vörg)
Konzepte und Werkzeuge für die IP-Verwaltung ermöglichen das
effiziente Auffinden bereits wieder verwendbar entworfener IP
Module. Zur Effizienzsteigerung des IP-basierten Entwurfs wurde an
einem Verwaltungssystem, dem Reuse Management System (RMS),
gearbeitet. Das bestehende RMS Konzept ist wesentlich erweitert
worden, für den Nutzer transparenter in den Entwurfsablauf integriert
und durch Prüfalgorithmen wird die Konsistenz der Datenbasis
sichergestellt. Es hat sich gezeigt, dass die Erstellung neuer
Klassifikationen und das „Füllen“ der Datenbank mit IPCharakterisierungsdaten einen erheblichen Aufwand erfordern. Dieser
konnte durch neu entstandes Werkzeug minimiert werden.
SystemC Parser - als Teil der KaSCPar Umgebung (Karlsruhe SystemC
Parser) ( Pavel Parfuntseu)
Eigenschaften des SystemC-Parsers:
•
Unterstützt C++ und SystemC 2.1
•
Basiert auf C++-Grammatik mit Unterstützung von SystemC
“keywords”
•
nutzt GNU gcc-Preprocessor
27
•
unterstützt die Syntaxanalyse von Multiple-Sources-Files
•
mit JavaCC & JJTree gestaltet
•
generiert zwei Output-Files: Das AST und das ausgearbeitete
SystemC-Design in XML-Format
Parall elrechner und parall ele Programmierung (Hr.
Holtwick, Hr. Ganzenmüller, Hr. Nagel, H r. Pi nkenburg)
Im Rahmen des interdisziplinären Sonderforschungsbereichs 382 mit
dem Titel "Verfahren und Algorithmen zur Simulation physikalischer
Prozesse auf Höchstleistungsrechnern" forschen und entwickeln
Arbeitsgruppen der Institute für Numerik, Informatik, Mathematik und
Physik der Universitäten Stuttgart und Tübingen. Das Teilprojekt C6
stellt dabei mit dem Thema "Objektorientierte Parallelisierung" das
zentrale Bindeglied zwischen der Entwicklung wissenschaftlicher
Simulationen und deren Parallelisierung auf Höchstleistungsrechnern
dar.
Als Ziel der Arbeiten von C6 lässt sich die Vereinfachung der
Parallelisierung
von
wissenschaftlichen
Anwendungen
durch
Entwicklung
von
portablen,
effizienten
und
abstrakten
Programmierschnittstellen und Bibliotheken formulieren. Im Fokus der
Arbeiten steht hauptsächlich die Umsetzung objektorientierter
Implementierungstechniken
zur
Parallelisierung
numerischer
Teilchensimulationen, wie z.B. der Entwurf geeigneter Klassenmodelle
oder die Verwendung von Entwurfsmustern (engl. design pattern), die
es ermöglichen, die Parallelisierung vom physikalischen Modell zu
entkoppeln. Am Ende dieser Entwicklung steht dann eine
objektorientierte Bibliothek oder ein Rahmengerüst (engl.
framework), das die Implementierung der Modelle deutlich
vereinfacht. Die daraus erwachsenen Methoden und Werkzeuge
werden in zahlreiche Kooperationen innerhalb und außerhalb des
Sonderforschungsbereichs eingebracht. Die folgenden Unterabschnitte
geben einen Überblick über die aktuellen Aufgabengebiete der
innerhalb unserer Arbeitsgruppe existierenden Teilprojekte.
Objektorientierte parallele Ein-/Ausgabe (Simon Pinkenburg)
In den letzten Jahren führten immer aufwändigere Anwendungen
einerseits und die steigende Gesamtleistung eines Parallelrechners
andererseits, zu einer wahrhaften Explosion der im Laufe einer
Simulation
entstehenden
Daten.
Die
Entwicklungen
der
Festspeicherindustrie konnten dabei jedoch mit denen der
Prozessortechnik nicht Schritt halten. Während sich die Leistung eines
Prozessors nahezu alle 18 Monate verdoppelt hat, stieg die
Festplattenleistung lediglich um 8-10% pro Jahr. Abhilfe schaffte die
Entwicklung von parallelen Dateisystemen und Schnittstellen zur
Formulierung paralleler Ein-/Ausgabe.
28
Die zur Entwicklung und Parallelisierung von wissenschaftlichen
Simulationen zunehmend verwendeten objektorientierten Methoden
können dabei allerdings nur bedingt eingesetzt werden, da Standards
der parallelen Programmierung, wie z.B. MPI-2, lediglich prozedurale
Schnittstellen bieten und eine Persistenz objektorientierter
Datenstrukturen nicht erlauben.
Die
Konzeption
und
Implementierung
von
TPO-IO,
der
objektorientierten Schnittstelle zur parallelen Ein-/Ausgabe, erfolgte
unter Verwendung von C++ und dem Einsatz damit verbundener
Techniken. Es wurde eine portable Schnittstelle erzeugt, indem TPO-IO
auf den weitverbreiteten Standard MPI-IO aufsetzt. Die Übertragung
objektorientierter Datenstrukturen auf einen Festspeicher gelingt auf
Basis der Analogie zur Kommunikation und mit Hilfe zusätzlich
notwendiger Metainformationen, die aus Gründen der Effizienz in
einer separaten Datei gespeichert werden. Die objektorientierte
Modellierung der Schnittstelle bietet dem Benutzer eine hohe
Transparenz und Wiederverwendbarkeit innerhalb der Anwendung.
Insgesamt wird der gesamte Funktionsumfang von MPI-IO unterstützt
und an geeigneter Stelle optimiert. Dies gelingt durch Mechanismen
zur Automatisierung von Berechnungen innerhalb der Schnittstelle,
die
insbesondere
die
hohe
Komplexität
von
Partitionierungsalgorithmen
reduzieren.
Der
Einsatz
von
Vorgabeargumenten und vordefinierten Verteilungsmustern führt
schliesslich insgesamt zu einer verbesserten Bedienbarkeit und
einfacheren Abbildung einer objektorientierten parallelen Ein/Ausgabe.
In zahlreichen synthetischen Messungen auf unterschiedlichen
Rechnerarchitekturen (Kepler Cluster in Tübingen, Cray Opteron
Cluster in Stuttgart, Hitachi SR8000-F1 in München) konnte belegt
werden, dass eine objektorientierte Abstraktion der Ein-/Ausgabe
möglich ist, ohne dabei nennenswert an Leistung zu verlieren.
Zahlreiche
Anwendungen
unserer
Arbeitsgruppe,
wie
z.B.
Teilchensimulationen oder Gensequenzanalysen, konnten bereits von
dem Einsatz der Schnittstelle profitieren indem deutliche
Leistungssteigerungen erzielt werden konnten.
Ein objektorientiertes paralleles Framework für wissenschaftliche
Simulationen (Sven Ganzenmüller)
Aufbauend auf den Forschungen der Arbeitsgruppe C6 des SFB 382
(\emph {Verfahren und Algorithmen zur Simulation physikalischer
Prozesse
auf
Höchstleistungsrechnern}
)
im
Bereich
der
Anwendungsentwicklung mit Entwurfsmustern und der effizienten
Parallelisierung wurde ein objektorientiertes Framework für
Simulationen
mit
der
SPH-Methode
(Smoothed
Particle
Hydrodynamics) entwickelt. Das Ergebnis ist eine modulare Bibliothek,
in der die Elemente Konfiguration, Physik, Zeitentwicklung, Geometrie
und Parallelisierung vollständig entkoppelt sind. Im Vergleich zu
29
anderen Ansätzen erlaubt eine vereinfachte Konfiguration,
numerische und physikalische Parameter der Simulationen zu
variieren, ohne den Code neu übersetzen zu müssen. (siehe Abb. 8)
Abb. 8: A ufba u de s sph2 00 0- Fram ew ork s m it
Schni ttstell e n z ur K onfi guration und Vi sualisierung
Um die Effizienz der Teilchenbibliothek zu untersuchen wurde eine
Beispielimplementierung entwickelt. Sie dient der Untersuchung des
Primärstrahlzerfalls, der bei der Diesel-Direkteinspritzung in Motoren
eine wichtige Rolle spielt. Hierzu wird die Einspritzung von Diesel in
eine mit Luft gefüllte Kammer simuliert und die Abspaltung einzelner
Dieseltröpfchen vom kompakten Strahl verfolgt. Laufzeitmessungen
auf dem Kepler-Cluster ergaben eine Effizienz die mit einer
optimierten C-Bibliothek vergleichbar ist. Die Erweiterung der
Bibliothek um parallele Ein-/Ausgabe konnte die Performanz noch
erheblich steigern. Bei Simulationen mit vielen Teilchen halbiert sich
hier durch die Rechenzeit.
Die Ergänzung der Nachbarschaftssuche um einen variablen
Wechselwirkungsradius und somit eine konstante Anzahl von
Nachbarn ermöglicht bessere Einblicke in die dynamischen Abläufe.
Während bei konstantem Radius die Auflösung der Teilchen gleich ist,
bleibt bei variablem Radius die Genauigkeit erhalten. In Bereichen
geringer Teilchendichte nimmt die Auflösung zwar ab, jedoch steigt
sie in den teilchenreichen Zonen, beispielsweise bei Wirbeln. Diese
können somit ohne Genauigkeitsverluste und bei vergleichbarer
Laufzeit besser untersucht werden. (siehe Abb. 9)
30
Abb. 9: Druc kv erteil ung bei ei ne r Die selsi m ulati on
nach 1 20 0 und 3 0 00 Ze itsc hri tte n
Die
aktuellen
Arbeiten
befassen
sich
mit
verschiedenen
Optimierungsansätzen zur Verkürzung der Laufzeit. Dabei wird
zunächst eine sukzessive Erweiterung des Simulationsgebiets zur
Laufzeit implementiert, die dafür sorgt, dass immer nur eine dünne
Luftschicht vor dem Dieselstrahl berechnet werden muss.
Implementierung einer Oberflächenspannung in sph2000 (Andreas
Nagel)
Um den Primärstrahlzerfall bei der Dieseleinspritzung realistischer zu
simulieren, müssen noch folgende drei physikalische Effekte
berücksichtigt werden: Oberflächenspannung, Kavitation und
Turbulenz. Als erstes wird zurzeit die Oberflächenspannung in sph2000
implementiert und verifiziert. Die Oberflächenspannung entsteht
durch die einseitigen molekularen Kräfte der auf der Oberfläche
befindlichen Dieselmoleküle. Es wird angenommen, dass der
Oberflächenspannungskoeffizient überall konstant ist, so dass die
Oberflächenkräfte stets senkrecht zur Oberfläche sind. Dann ist auch
die Oberflächenkraft proportional zur Krümmung der Oberfläche, d.h.
je kleiner die Dieseltröpfchen sind, desto grösser sind die
Oberflächenkräfte. Die Implementierung der Oberflächenspannung in
sph2000 basiert hauptsächlich auf Arbeiten der Astrophysik Tübingen
(v.a. der Diplomarbeit von Oliver Dräger). Als SPH-Formulierung der
Oberflächenspannung wird dabei die Continuum-Surface-ForceMethode bzw. alternativ die Tensormethode verwendet. Im Gegensatz
zur Realität kommt es jedoch mit diesen Methoden zu einer
Durchmischung von Dieselteilchen mit Luftteilchen. Deshalb wird
zusätzlich eine künstliche Separationskraft eingeführt. Diese wirkt als
rücktreibende Kraft auf jene Dieselteilchen, die sich über die
Dieseloberfläche hinausbewegt haben.
31
Die zukünftigen Arbeiten umfassen außer der Implementierung der
Kavitation in sph2000 auch die Verfeinerung der Parallelisierung und
der Lastbalancierung, die auf die neu implementierten Modelle
angepasst sind.
NeuroTeam (Leitung: Dr. M. Bogdan)
Daten, die in verschiedensten Anwendungsbereichen aufgenommen
werden, weisen oft nicht-lineare Charakteristiken auf, die mit
herkömmlichen Verfahren nur schwer oder unter sehr großem
Aufwand zu fassen sind. Um Aufwand und Dauer bei der Entwicklung
signalverarbeitender Systeme zu minimieren bietet sich für derartige
Anwendungen der Einsatz künstlicher neuronaler Netze (KNN) oder
maschinelles Lernen (ML) an, welche auf Grund beispielhafter
Datensätze die nicht-linearen Zusammenhänge erlernen können. Das
NeuroTeam befasst sich mit der problemorientierten Untersuchung,
Erweiterung und Umsetzung dieser Verfahren in der Anwendung.
Hierbei kommt die interdisziplinäre Ausrichtung des NeuroTeams
vorteilhaft zum Tragen.
KNNs und MLs wurden in der Vergangenheit vom NeuroTeam in
Projekten aus den verschiedensten Anwendungsbereichen erfolgreich
eingesetzt. So wurden sie unter anderem zur Wiederherstellung von
Farben in gescannten Bildern oder für elektronische Nasen verwendet.
Im Bereich der Informationssuche im Internet sowie bei der
Qualitätssicherung in der Halbleiterindustrie konnten die Verfahren
ebenfalls erfolgreich eingesetzt werden. In der Biomedizin wurden
KNNs zur Verarbeitung von Nervensignalen zur Echtzeit-Steuerung
von Prothesen und für Biosensoren eingesetzt.
Aktuell beschäftigt sich das NeuroTeam mit Anwendungen aus der
Chemie, der Qualitätssicherung in der Industrie und der Biomedizin. Im
Rahmen des Graduiertenkollegs „Interphasen in der Chemie“ wurde
das Projekt EChem++ gestartet, welches zum Ziel hat,
elektrochemische Versuche zu automatisieren und zu simulieren.
Hierbei werden KNNs zur Klassifikation eingesetzt.
In einem Projekt, das gemeinsam mit der Robert Bosch GmbH und der
ELMOS Semiconductor AG durchgeführt wird, wird angestrebt, mittels
erhöhter Qualitätssicherungsmaßnahmen die Produktivität zu
steigern. In diesem Fall werden KNNs und MLs eingesetzt. Sie dienen
zur Korrelationsanalyse in der Fehleranalyse sowie zur Vorhersage der
Zuverlässigkeit der Produktionsanlagen.
Der Schwerpunkt des NeuroTeams liegt im Bereich der
biomedizinischen Anwendung. Hierbei konzentrieren sich die Arbeiten
auf den Bereich der Signalverarbeitung von Nervensignalen, wobei in
Abhängigkeit von der Anwendung auf die Echtzeitfähigkeit des
signalverarbeitenden Systems größten Wert gelegt wird. Die
Signalverarbeitung beschränkt sich nicht nur auf die Verarbeitung von
32
invasiv aufgenommen Nervensignalen, sondern sie bezieht sich auch
auf mittels Elektroenzephalogramme (EEG) indirekt aufgenommene
Daten und auf die funktionale elektrische Stimulation (FES) peripherer
Nerven. Zur Untersuchung der Interaktion zwischen Cortex und
Cerebellum werden ebenso invasiv aufgenommene Nervensignale
verwendet, wie für die Entwicklung einer nervengesteuerte Prothese.
Bei der Erkennung von epileptischen Erscheinungen sowie zur
Erstellung von Brain-Computer-Interfaces werden Informationen aus
EEGs mittels KNNs und MLs extrahiert. Darüber hinaus werden KNNs
vom NeuroTeam zur FES für die Wiederherstellung von
Handfunktionen bei C5/C6-Querschnittsgelähmten eingesetzt.
Zusammenfassend kann gesagt werden, dass sich das NeuroTeam auf
die Signalverarbeitung von Daten mit nicht-linearen Charakteristiken
konzentriert. Dazu werden verschiedenste Verfahren aus der
Signalverarbeitung
(z.B.
adaptive
Filter,
Autoregression,
Fouriertransformation, Wavelettransformation, K-nearest Neighbour,
Feature Selection, etc.) angewendet. Die Hauptkompetenz des
NeuroTeams liegt dabei in der Anwendung künstlicher neuronaler
Netze und Verfahren des maschinellen Lernens zur datenbasierten
Signalverarbeitung, sowie in der statistischen Daten(vor)verarbeitung.
Weitergehende Informationen über das NeuroTeam sind unter
http://www.NeuroTeam.de erhältlich.
OTC - Online Tool Controlling mit neuronalen Netzen (Elena
Sapojnikova, Michael Schröder, Michael Bensch)
Im
Rahmen
des
Förderschwerpunktes
„Innovative
Produktionstechnologien für Mikrochips“ wurde das OTC Projekt
(Online Tool-Controlling mit Neuronalen Netzen) von der Universität
Tübingen zusammen mit den Projektpartnern Robert Bosch GmbH und
ELMOS Semiconductor AG durchgeführt. Ziel des Projektes ist die
Qualitätssicherung
des
Produktionsablaufes
in
der
Halbleiterproduktion. Die entwickelte Software ist in der Lage,
Maschinenparameter sowie Messdaten von Wafern zu analysieren.
Die
von
den
Projektpartnern
zur
Verfügung
gestellten
Produktionsdaten wurden mit künstlichen neuronalen Netzen bzw.
mit Methoden des maschinellen Lernens untersucht. Zunächst wurden
die Daten mit Hilfe der Sequential Floating Forward Selection für die
Anwendung auf Chip-Daten optimiert. Je nach Aufgabenstellung
(Korrelation oder Vorhersage) der so erhaltenen Daten kamen
entweder Fuzzy ARTmaps oder Support Vector Machines (SVM) zum
Einsatz. (siehe Abb. 10)
33
Automatische Auswahl
wichtiger
Produktionsparameter
ändere
Werte
Trainingsdaten
aus Anlage
nein
nein
Test OK?
Trainiere
Fuzzy -ARTMAP
oder SVM
Validierung
OK?
ja
ja
Onlinedaten
aus Anlage
Vorhersage
der Ausbeute
möglich
Experte
bewertet
Fuzzy -Regeln
Abb. 1 0: D a te nfl uss der e rstellte n S oftwa re.
Mit Hilfe des Systems konnten tatsächlich Korrelationen zwischen
Fehlverhalten produzierter Halbleiter mit den dafür ursächlichen
Produktionsparametern hergestellt werden. Die Ergebnisse des
Projekts wurden auf der European Advanced Equipment Control/
Advanced Process Control Industriekonferenz (Dublin, April 2005) und
auf dem European Symposium on Artificial Neural Networks (Brügge,
April 2005) präsentiert.
Ausbeuteoptimierung mit Halbleiterherstellerdaten (Dominik
Brugger, Michael Bensch)
Ein weiterer Halbleiterhersteller (IBM) hat Interesse an der
Anwendung
und
Weiterentwicklung
der
vom
NeuroTeam
entwickelten Algorithmen auf dem Bereich Ausbeuteoptimierung
bekundet. In der ersten Phase des Projekts sollen bewährte
Algorithmen eingesetzt und an die speziellen Gegebenheiten des
Projektpartners angepasst werden. In der zweiten Phase werden bisher
unerprobte Methoden evaluiert.
Workload Prediction – Vorhersage der Auslastung von Großrechnern
(Michael Bensch, Dominik Brugger)
Das Workload Prediction Project, welches das NeuroTeam mit IBM
(Böblingen) begonnen hat, zielt darauf ab, die Arbeitslast der IBM
Großrechner die
unter dem z/OS Betriebssystem laufen,
vorherzusagen. Anhand der Vorhersage soll die Lastverteilung
optimiert werden. Dies kann sich z.B. bei Webservern bemerkbar
machen, indem Internetseiten schneller geladen werden können. Des
Weiteren
kann
eine
bessere
Lastverteilung
direkt
zu
Kostenersparnissen
bei
den
Kunden
führen.
Wichtige
Herausforderungen werden das Modellieren des bestehenden
Workload Managers, das Extrahieren geeigneter Daten aus dem
System und darauf basierend das Erforschen geeigneter
Vorhersagemethoden sein.
34
Rekonfiguierbare Rechensy steme (Hr. O ppold, H r.
Schweizer)
Viele der gängigen Ansätze im Bereich der rekonfigurierbaren
Hardware sehen in der Rekonfiguration nur die Möglichkeit der
Wiederverwendbarkeit
eines
Bausteins
für
verschiedene
Anwendungen. Die Möglichkeiten, die neuere Architekturen bieten,
gehen aber weit über diesen Vorteil hinaus. Sie erlauben insbesondere
durch extrem schnelles Rekonfigurieren (in weniger als einem
Taktschritt), zur Laufzeit die Funktionsblöcke eines Bausteins für
unterschiedliche
Operationen
der
gleichen
Anwendung
wiederzuverwenden.
Häufiges Rekonfigurieren zur Laufzeit ist dabei Teil der normalen
Ausführung. Durch das Schritthalten der Rekonfiguration mit der
Ausführung ergibt sich ein zusätzlicher Freiheitsgrad, der ein neues
"Rekonfigurations-Prinzip" begründet. Dieses neue Prinzip, das wir
prozessorartige Rekonfiguration nennen, erlaubt es, in einem
Taktschritt genau den Teil einer Schaltung, der in diesem Taktzyklus
benötigt wird, durch rekonfigurierbare Datenpfade zu realisieren und
abzuarbeiten. Entsprechende Bausteine sind erst seit kurzer Zeit
verfügbar und werden nur von einigen wenigen Herstellern
angeboten. Meist handelt es sich dabei nur um Prototypen und viele
Fragen bezüglich der bestmöglichen Gestaltung einer solchen
Architektur und der dazugehörigen Werkzeuge sind noch ungelöst.
In dem von der DFG im Rahmen des Schwerpunktprogramms 1148
("Rekonfigurierbare Rechensysteme") geförderten Projekt wird eine
Entwurfsund
Bewertungsumgebung
für
prozessorartig
rekonfigurierbare Architekturen entwickelt.
Zwei wesentliche Komponenten dieser Umgebung sind ein
Architekturmodell sowie ein Entwurfswerkzeug für die Abbildung von
Anwendungen auf die Architektur. Diese beiden Komponenten
werden gemeinsam in einem iterativen Prozess sukzessiv verfeinert. Da
sich gezeigt hat, dass unterschiedliche Anwendungen unterschiedliche
Architekturen erfordern, wird der Prozess jeweils für Anwendungen
aus einer bestimmten Anwendungsklasse, wie z.B. der graphischen
Datenverarbeitung durchgeführt.
Als Ausgangspunkt für die Architektur wurde ein sehr allgemeines
Modell für prozessorartig rekonfigurierbare Architekturen erstellt, das
anhand verschiedener Parameter konfiguriert werden kann. Es
orientiert sich an tatsächlich gebauten Architekturen, wodurch die
technologischen Möglichkeiten gebührend berücksichtigt werden.
Andererseits abstrahiert das Modell von den realen Architekturen, um
genügend Freiheitsgrade für Optimierungen zu lassen. Mit diesem
Modell und den davon abgeleiteten Kostenfunktionen ist es möglich,
die unterschiedlichen Gestaltungsmöglichkeiten einer Architektur zu
bewerten und zu optimieren.
35
Um den Entwurf auf hohen Abstraktionsebenen zu unterstützen,
erfolgt die Anwendungsbeschreibung auf Basis von C/C++. Da
prozessorartig rekonfigurierbare Architekturen sowohl Eigenschaften
von
softwareprogrammierbaren
Prozessoren
als
auch
von
anwendungsspezifischer Hardware haben, werden bei der
Anwendungsabbildung Techniken aus dem Compilerbau und aus der
Hardware-Synthese eingesetzt. Aus dem Bereich der HardwareSynthese werden vor allem die aus der Synthese von algorithmischen
Beschreibungen
(High-Level
Synthese)
bekannten
Verfahren
eingesetzt. Neben der Performanz und den Herstellungskosten spielt
vor allem der Energieverbrauch einer Architektur eine entscheidende
Rolle. Der gemeinsamen Verfeinerung von Architektur und
Entwurfswerkzeug entsprechend, wird der Energieverbrauch sowohl
bei der Gestaltung der Architektur als auch bei der
Anwendungsabbildung berücksichtigt.
Entwurf und Bewertung von Architekturen
rekonfigurierbaren Prozessoren (Tobias Oppold)
von
dynamisch
Aktuelle Untersuchungen über rekonfigurierbare Rechensysteme
zeigen, dass es eine Vielzahl von rekonfigurierbaren Architekturen
gibt, die sich in ihren Merkmalen ganz wesentlich unterscheiden. Ein
Compiler zur automatisierten Abbildung hochsprachlich beschriebener
Anwendungen steht nur in den wenigsten Fällen zur Verfügung. Ein
solcher Compiler ist jedoch eine wichtige Voraussetzung für die
Akzeptanz neuer Architekturen. Um dieser Anforderung gerecht zu
werden, wurde eine Bewertungs- und Entwurfsumgebung geschaffen,
in der die automatisierte Abbildung von C-Beschreibungen eine
treibende Kraft für die Identifikation von Architekturmerkmalen ist,
die für eine effiziente Ausführung benötigt werden. Der Fokus liegt
dabei auf Architekturen, die in weniger als einem Taktschritt
rekonfiguriert
werden
können
und
als
"prozessorartig
rekonfigurierbar" bezeichnet werden. (siehe Abb. 11)
Abb. 1 1: E ntw urfsa bla uf: G e mei nsa me Ve rfei nerung v on Arc hi tek tur und
Com pil e r ge trie be n durc h Anwe ndunge n.
36
Durch die Analyse verschiedener Anwendungen, wie sie typischerweise
in eingebetteten Systemen zum Einsatz kommen, werden
Anforderungen an die Architektur, den Compiler und deren
Zusammenspiel extrahiert. Die Ergebnisse werden verwendet, um zu
evaluieren
welche
Merkmale
durch
existierende
Architekturen/Compiler unterstützt werden, und um neue
Architekturen zu entwerfen, für die ein C-Compiler unmittelbar
verfügbar ist, da dieser gemeinsam mit der Architektur entwickelt
wurde.
Als
Zielarchitektur
wurde
das
CRC-Modell
(Configurable
Reconfigurable Core) als ein allgemeines Modell für prozessorartig
rekonfigurierbare Architekturen entwickelt. Das CRC-Modell ist in der
Hardwarebeschreibungssprache Verilog implementiert und kann
anhand unterschiedlichster Parameter (Breite des Datenpfads,
Topologie
des
Verbindungsnetzwerks,
Zieltechnologie,
etc.)
konfiguriert werden. Durch die Festlegung aller Parameter wird eine
Instanz des CRC-Modells definiert. Die Instanzen werden mit
kommerziellen Synthesewerkzeugen auf die Gatter-Ebene abgebildet
und anschließend analysiert. Die Analyse umfasst den Flächenbedarf,
die Ausführungsgeschwindigkeit, sowie die Verlustleistung und den
Energieverbrauch bezogen auf eine Anwendung. In der Bewertungsund Entwurfsumgebung wird für eine Anwendung zunächst ein unter
gegebenen Randbedingungen für die Ausführungsgeschwindigkeit
hinsichtlich des Ressourcenverbrauchs optimales Ausführungsmuster
gesucht. Ein Ausführungsmuster entspricht im Wesentlichen einer
Beschreibung auf der Register-Transfer-Ebene und wird durch die
angewendeten
Compiler-Techniken
(Pipelining,
OperatorenVerkettung, etc.) definiert. In einem darauf folgenden Schritt werden
die für das Ausführungsmuster benötigen Architekturmerkmale
(Verbindungsnetzwerk, Anzahl Kontexte, Steuerungseinheit, etc.)
bestimmt und bei Bedarf dem CRC-Modell neu hinzugefügt und
analysiert. Anhand der resultierenden Kostenfunktionen, die
insbesondere auch die Verlustleistung und den Energieverbrauch
umfassen, werden Ausführungsmuster und Architekturmerkmale
verworfen oder akzeptiert, wodurch der Compiler und die Architektur
sukzessive verfeinert werden.
Reduzierung der Verlustleistung bei prozessorartig
rekonfigurierbarer Hardware (Thomas Schweizer)
Neben der Performanz und den Herstellungskosten spielen vor allem
der Energieverbrauch und die Verlustleistung bei prozessorartig
rekonfigurierbaren Architekturen eine entscheidende Rolle. Im
Rahmen des Projekts wurde ein neues Verfahren zur Reduzierung der
Verlustleistung, des Energieverbrauchs und des Energy Delay Product
(EDP) für prozessorartig rekonfigurierbare Hardware entwickelt. Das
Verfahren beruht auf der Tatsache, dass in digitalen Schaltungen oft
Situationen auftreten, in denen eine Berechnung früher
abgeschlossen ist als nötig. Diese Zeit wird als Schlupfzeit bezeichnet.
37
Bei der Schlupfzeit kann es sich um Zeiten im Bereich von wenigen
Nanosekunden oder noch weniger handeln. Diejenigen Komponenten
einer Schaltung, die auf einem Verzögerungspfad mit Schlupfzeit
liegen, können mit einer geringeren Spannung betrieben werden,
ohne dass sich die Ausführungszeit der Gesamtschaltung verlängert.
Allein durch die geringere Spannung entstehen keine Einbußen in der
Ausführungszeit. Durch die geringere Spannung verringern sich die
Verlustleistung und auch der Energieverbrauch der Schaltung. Gängige
aktuelle Ansätze nutzen bereits diese Schlupfzeit: Dynamische
Spannungsanpassung (DVS) und Adaptive Spannungsanpassung (AVS)
benötigen Frequenzanpassung und zusätzliche Funktionen in
Hardware und/oder Betriebssystem. DVS und AVS lohnen sich daher
nur, wenn die Schlupfzeit sehr groß ist. Clustered Voltage Scaling (CVS)
wird bei ASIC-Designs verwendet und erste Ansätze für FPGAs
existieren. Die Ansätze für FPGAs entsprechen CVS, nur dass die
Spannungsinseln nach der Herstellung des Chips festgelegt werden
können. Diese Ansätze sehen aber nur eine statische Verteilung von
Spannungsinseln vor. Bei dem entwickelten Verfahren handelt es sich
um eine Kombination von zeitlicher Spannungsanpassung (wie bei
DVS/AVS) und räumlicher Spannungsanpassung (wie bei CVS), d.h. dass
jede Spannungsinsel individuell angesteuert werden kann und auch
die Spannung dieser Spannungsinseln zur Laufzeit verändert werden
kann. Dies wird dadurch erreicht, dass die Steuerungseinheit einer
Schaltung (FSM) nicht nur Komponenten zur Auswahl eines
Datenpfads (Multiplexer, etc.) ansteuert, sondern auch einen
Transistor, der die Versorgungsspannung für eine Komponente
auswählt.
Analyse und O pti mierung komplexer Sy stem-on-ChipEntwürfe (Lei tung: D r. J. G erl ach)
Die Entwicklung von Halbleiterbauelementen ist durch ein extrem
schnelles Voranschreiten des Entwurfsfaktors Komplexität geprägt. In
heutiger Zeit erreichen Halbleiterbausteine einen Komplexitätsgrad,
der es erlaubt, komplette Systeme hoher Funktionalität auf einem
einzelnen Chip zu integrieren (sog. Systems-on-Chip, kurz SoC). Diesem
enormen Anstieg an Komplexität kann die Produktivität des
Entwurfsprozesses bereits seit einigen Jahren nicht mehr Schritt
halten. Aus diesem Ungleichgewicht resultiert eine sich kontinuierlich
vergrößernde
Kluft
zwischen
Komplexitätsund
Produktivitätswachstum, bekannt unter dem Begriff „Productivity
Gap“, die nur durch Fortschritte auf methodischer Ebene in den Griff
zu bekommen ist.
Nachfolgend werden Arbeiten beschrieben, deren Ziel eine Steigerung
der Produktivität des Entwurfsprozesses beim SoC-Entwurf ist.
Wichtige Maßnahmen stellen dabei ein Übergang zu höheren
Abstraktionsebenen
der
Entwurfsbeschreibung,
sowie
eine
zunehmende Erhöhung des Automatisierungsgrads der zum Einsatz
38
kommenden Entwurfsverfahren dar. Die im Folgenden beschriebenen
Ansätze agieren auf der Ebene abstrakter Systemmodelle in SystemC.
Die
Systembeschreibungssprache
SystemC
ermöglicht
eine
Modellierung und Analyse von komplexem Systemverhalten auf hoher
Abstraktionsebene
unter
Anwendung
transaktionsbasierter
Kommunikationsmechanismen. SystemC bietet eine flexible Kopplung
von
Modellen
unterschiedlicher
Entwurfsdomänen
und
Abstraktionsstufen und erlaubt so einen schnellen Aufbau von
ausführbaren Systemprototypen. Dabei unterstützt der auf C/C++
basierende Ansatz eine flexible Integration von Software in ein
Systemmodell, was insbesondere aufgrund des immer größer
werdenden Software-Anteils heutiger und zukünftiger SoCs eine
notwendige Voraussetzung für eine ganzheitliche Erfassung des SoCVerhaltens darstellt. Mit diesen Eigenschaften unterstützt SystemC
effektiv Entwurfsmethoden wie etwa den IP-basierten Entwurf, den
Plattformbasierten Entwurf oder Algorithmus-/Architektur-Co-Design,
die wiederum einen wichtigen Beitrag zur Verringerung des
„Productivity Gaps“ leisten. Wie die nachfolgend beschriebenen
Arbeiten zeigen werden, können auf diese Weise wichtige
Fragestellungen des Systementwurfs bereits auf der Ebene abstrakter
Systemmodelle, also bereits in einer frühen Phase des Entwurfsablaufs
adressiert
werden,
was
zu
einer
Beschleunigung
des
Systementwurfsprozesses (Time-to-Market), zu einer verbesserten
Ausschöpfung des Optimierungspotenzials sowie zu einer Erhöhung
der Qualität und Vorhersagbarkeit des Entwurfsergebnisses führt.
In
komplexen
SoC-Architekturen
besitzt
insbesondere
die
Kommunikationsarchitektur sowie deren adäquate Dimensionierung
und Konfiguration einen hohen Einfluss auf das spätere
Systemverhalten. Innerhalb der Arbeiten des Schwerpunktbereichs
„Performanzanalyse und -optimierung von Systemmodellen und
Kommunikationsarchitekturen“
erfolgt
eine
Analyse
des
Kommunikationsverhaltens
und
eine
Optimierung
der
Kommunikationsstruktur auf der Ebene abstrakter Modelle für
Systemfunktionalität und -architektur. Auf diese Weise wird der
Systemdesigner in einer frühen Phase des Entwurfsablaufs effektiv bei
der Auswahl
der Systemarchitektur
und
Festlegung
von
Architekturparametern
unterstützt.
Der
Schwerpunktbereich
„Modellierung von Echtzeitbetriebssystemen und Optimierung von
Echtzeitsystemen“ berücksichtigt den aus Flexibilitäts- und
Portabilitätsgründen immer stärker werdenden Einfluss von Software
und Betriebssystem im SoC-Entwurf. Die Arbeit erweitert damit die im
vorigen
Schwerpunktbereich
adressierte
Modellierung
und
Optimierung
komplexer
Hardware-Architekturen
um
die
Berücksichtigung von Software und Betriebssystemverhalten als
weitere Freiheitsgrade des Optimierungsproblems. Neben einer
adäquaten Auswahl und Konfiguration der Systemarchitektur nimmt
die Verifikation des Systemverhaltens einen zentralen Stellenwert im
SoC-Entwurf ein. Aufgrund der hohen Komplexität von SoCs kommen
39
dabei nach wie vor in hohem Maße simulationsbasierte Ansätze zur
Anwendung. Der Schwerpunktbereich „Coverage-basierte Bewertung
und Optimierung von Verifikationsergebnissen“ untersucht Ansätze
zur Bewertung und Optimierung der funktionalen Testabdeckung bei
der Verifikation von SoC-Architekturen und liefert somit einen
wichtigen Beitrag zur Erhöhung der Aussagekraft simulationsbasierter
Verifikationsergebnisse. Der Schwerpunktbereich „Verifikation von
Software in eingebetteten Echtzeitsystemen“ widmet sich im
Speziellen der Verifikation eingebetteter Software und liefert somit
eine abstraktere Sicht auf die Verifikation von SoCs. Die schnelle
Verfügbarkeit von System-Prototypen ermöglicht neben den zuvor
genannten Vorteilen einen frühzeitigen Start der SoftwareEntwicklung, die – im Gegensatz zu konventionellen Entwurfsabläufen
- bereits parallel zum Hardware-Entwurf erfolgen kann. Auf diese
Weise reduziert sich die Gesamtentwurfszeit und begünstigt so eine
schnelle
Markteinführung
des
Systems.
Die
Arbeiten
im
Schwerpunktbereich „Verifikation komplexer SoC-Entwürfe mit LowCost Prototyping-Umgebungen“ liefern einen Ansatz zur schnellen
Realisierung von Prototypen für die Systemverifikation auf Basis von
Rapid-Prototyping-Plattformen. Begleitend zu den genannten
Arbeiten erfolgt innerhalb der Arbeitsgruppe eine Betreuung der
European SystemC Users Group sowie eine aktive Mitarbeit in zwei
Working-Groups der Open SystemC Initiative (OSCI), der Transaction
Level Modeling Working Group und der Verifikation Working Group
(letztgenannte unter Leitung der Universität Tübingen). Die Betreuung
der European SystemC Users Group beinhaltet die regelmäßige
Organisation und Durchführung von Veranstaltungen (Users Group
Meetings, pro Jahr zwei Veranstaltungen) sowie zusätzlicher
Aktivitäten im Messe- und Ausstellungsbereich internationaler
Konferenzen.
Performanzanalyse und -optimierung von
Kommunikationsarchitekturen (Axel Braun)
Systemmodellen
und
Die optimale Dimensionierung und Konfiguration komplexer
mikroelektronischer Systeme gehört neben der Sicherstellung der
funktionalen Korrektheit zu den wichtigsten Aufgaben innerhalb des
Systementwurfsprozesses. Neue Entwurfsansätze, wie etwa der
Plattform-basierte
Entwurf,
erfordern
eine
frühzeitige
Berücksichtigung der eingesetzten Ressourcen und der adressierten
Applikation bzw. Applikationsklassen auf hoher Abstraktionsebene.
Insbesondere die Kommunikationsarchitektur besitzt dabei einen
signifikanten Einfluss auf das Verhalten und die Performanz des
Zielsystems.
Im
Rahmen
der
Arbeiten
wurde
ein
auf
der
Systembeschreibungssprache
SystemC
basierendes
Verfahren
entwickelt, das auf Basis abstrakter Modelle für Systemfunktionalität
und -architektur eine Analyse des Kommunikationsverhaltens und eine
Optimierung der Kommunikationsstruktur durchführt. Hierzu wurde
eine umfassende Bibliothek parametrisierbarer Architekturmodelle für
40
beispielsweise Busse, Prozessoren oder Speicher aufgebaut. Es wurde
ein Ansatz zur Instrumentierung des Systemmodells und zur
simulationsbasierten Ermittlung relevanter Daten entwickelt, der die
Anwendung einer verfügbaren Datenbank beinhaltet. Für diesen
Ansatz wurden Auswertungsmechanismen bereitgestellt, die weitreichende Analysen des Kommunikationsverhaltens unterstützen.
Schwerpunkte
bilden
dabei
etwa
die
Erhebung
eines
applikationsspezifischen Anforderungsprofils durch spektroskopische
Auswertungen oder die Hierarchie- und Segmentabbildung für
Bussysteme durch Anwendung von Clustering-Verfahren. Auf Basis
kumulativer Kommunikationsfunktionen werden so genannte Arrivalund Service-Curves berechnet, aus denen sich – unter Einbeziehung
von
externen
Vorgaben
wie
Zeitschranken
oder
dem
applikationsspezifisches Anforderungsprofil – Vorschläge für die
Parametrisierung und Konfiguration der Busstruktur ableiten lassen.
Freie Architekturparameter sind hierbei in erster Linie die
Bustopologie sowie die zur Anwendung kommenden Busprotokolle.
Andere Architekturparameter wie etwa Daten- und Adresspfadbreiten
oder Taktverhältnisse sind bei Bussen in der Regel durch die
verwendeten Prozessoren relativ genau fixiert. Ein wichtiges
Optimierungspotenzial bei der Anbindung von Prozessoren an Busse
liefert ferner die Integration von Cache-Speichern und Puffern, deren
Organisation und Dimensionierung auf Basis des Anforderungsprofils
der Applikation sowie Methoden zur Hot-Spot-Erkennung erfolgt.
(siehe Abb. 12)
Abb. 1 2: E xtrak ti on v on Si m ula ti onsda te n und
Da te nba nk -A nbi ndung
Eine Untersuchung und Validierung der Methoden erfolgte am
Beispiel einer datenflussorientierten Anwendung aus dem Bereich
Signalverarbeitung, die einer industriellen Kooperation mit einem
führenden deutschen Unternehmen im Bereich Luft- und
Raumfahrttechnik entstammt. Das Beispiel ist gegeben durch eine
Synthetic-Aperture-Radar
(SAR)
Pipeline,
die
mit
einer
nachgeschalteten Kompressions- und Forward-Error-Correction-Stufe
41
(FEC) integriert ist. Die Zielplattform dieser Anwendung umfasst
mehrere
PowerPC-Prozessoren
sowie
dedizierte
HardwareBeschleuniger.
Modellierung von Echtzeitbetriebssystemen und Optimierung von
Echtzeitsystemen (Matthias Müller)
In der Vergangenheit bestanden eingebettete Systeme in der Regel
aus speziell an den jeweiligen Anwendungsbereich angepasster
Hardware, auf der ein geringer Softwareanteil zur Ausführung
gebracht wurde. Durch den hohen Spezialisierungsgrad der Hardware
lassen sich auf diese Weise einerseits hohe Performanzwerte erzielen,
die andererseits durch eine aufwändige Entwicklung und geringe
Flexibilität derartiger Systeme zu erkaufen sind. Diese Nachteile,
zusammen mit der kontinuierlich ansteigenden Komplexität
eingebetteter Systeme, führten zum Übergang zu neuen
Entwurfskonzepten,
welche
die
Integration
standardisierter
Komponenten
wie
etwa
CPUs,
DSPs,
Bussysteme
oder
Speicherbausteine vorsehen und den Einsatz von Spezialhardware auf
ein Minimum reduzieren. Die Systemfunktionalität wird dabei zum
überwiegenden Teil durch die ausgeführte Software bestimmt. Zur
Reduzierung des Entwicklungsaufwands und zur Verbesserung der
Flexibilitäts- und Portabilitätseigenschaften der Software kommen
dabei Echtzeit-Betriebssysteme (Real-Time Operating System, RTOS)
zum Einsatz, die eine definierte Schnittstelle zwischen Hardware und
Software bilden
und somit eine zusätzliche Abstraktionsschicht
zwischen Hardware und Software definieren. Damit stellen Software
und RTOS einen erheblichen Anteil des Gesamtsystems, den es beim
Entwurf und bei der Optimierung eingebetteter Systeme in einer
frühen Phase des Entwurfsprozesses zu berücksichtigen gilt.
Entsprechend
stellt
die
Verfügbarkeit
eines
abstrakten
Modellierungsansatzes, welches die drei Komponenten Hardware,
Software und RTOS in einem einheitlichen Systemmodell integriert,
eine notwendige Voraussetzung dar.
Im
Rahmen
der
Arbeiten
wurde
eine
auf
der
Systembeschreibungssprache SystemC basierende Methodik konzipiert,
die in der Lage ist, alle drei der genannten Komponenten zu erfassen.
Der Ansatz erweitert das im vorigen Abschnitt beschriebene Vorgehen
zur SystemC-basierten Modellierung und Optimierung komplexer
Hardware-Architekturen um die Berücksichtigung von Software und
Betriebssystemverhalten
als
weitere
Freiheitsgrade
des
Optimierungsproblems. Als Ausgangspunkt für die Entwicklung eines
modularen und in seinen charakteristischen Eigenschaften (etwa
Scheduling-Verfahren,
Ressource-Management-Strategie
oder
Synchronisationsmechanismen) parametrisierbaren RTOS-Modells in
SystemC dient die im Werkzeug PORTOS des FZI Karlsruhe eingesetzte
RTOS-Bibliothek. Darauf aufsetzend sollen im Folgenden realitätsnahe
Modelle von Echtzeitsystemen erstellt werden, die eine Untersuchung
von Fragestellungen bezüglich der Abbildung von RTOS-Instanzen auf
CPUs in Mehrprozessorsystemen sowie deren Parametrisierung und
42
Konfiguration
im
Hinblick
auf
eine
Optimierung
Gesamtsystemverhaltens ermöglichen. (siehe Abb. 13)
des
Abb. 1 3: Modul a re s Sy ste mm odell m it me hre re n RT OSInsta nz e n
Coverage-basierte
Bewertung
und
Verifikationsumgebung (Karina Da Silva)
Optimierung
von
Bei der simulationsbasierten Verifikation hängt die Aussagekraft des
Verifikationsergebnisses hochgradig von Art und Umfang der
innerhalb des Simulationsverlaufs betrachteten Testfälle ab. Daher
nehmen bei komplexen SoC-Entwürfen Ansätze, die eine Bewertung
und
zielgerichtete
Verbesserung
der
Qualität
der
Verifikationsumgebung unterstützen, eine immer wichtigere Stellung
ein. Während verfügbare Werkzeuge strukturelle Kriterien für eine
Bewertung der Qualität einer Verifikationsumgebung heranziehen
(etwa Line- oder Branch-Coverage), legen neue Ansätze funktionale
Kriterien, entsprechend dem Anteil der durch die Testumgebung
überprüften
Schaltungsfunktionalität,
als
Bewertungsmaßstab
zugrunde (Functional Coverage).
Im Rahmen der Arbeiten wurde ein auf SystemC basierender Ansatz
zur teilautomatisierten Generierung von Testbench-Strukturen
entwickelt und um Mechanismen zur Berücksichtigung von Functional
Coverage Informationen ergänzt. Hierzu wurden Methoden
bereitgestellt, die eine Spezifikation von funktionalen Abhängigkeiten
erlauben sowie deren Überprüfung innerhalb des Simulationsablaufs
überwachen. Auf diese Weise liefert das Verfahren Aussagen
bezüglich der Qualität der verwendeten Testbench bzw. konkrete
43
Hinweise, in welcher Art eine Erweiterung der Testbench zur
Verbesserung der Aussagekraft der Verifikationsphase vorzunehmen
ist. Der realisierte Ansatz zur Berücksichtigung von Functional
Coverage
beinhaltet
Mechanismen,
die
innerhalb
des
Simulationsablaufs den Status und Fortschritt der Verifikation
ermitteln und Rückmeldung darüber liefern, ob die vom Benutzer
spezifizierten funktionalen Abhängigkeiten einer Überprüfung
unterzogen wurden oder nicht. Weiter wird das Auftreten von vom
Benutzer als illegal spezifizierte funktionale Abhängigkeit überwacht
und für den Fall eines Auftretens angezeigt. Neben der Überwachung
einzelner funktionalen Abhängigkeiten ist ferner eine korrelierte
Betrachtung verschiedener funktionaler Abhängigkeiten möglich. In
diesem Fall liefert der Ansatz Rückmeldung, ob die vom Benutzer
spezifizierte Kombination von funktionalen Abhängigkeiten im
Simulationsverlauf einer Überprüfung unterzogen wurde oder nicht
(Cross Coverage). Auf diese Weise wird der Benutzer wirkungsvoll bei
der Identifikation nicht überprüfter Corner Cases unterstützt.
Verifikation von Software in eingebetteten Echtzeitsystemen (Djones
V. Lettnin)
Der sich kontinuierlich vergrößernde Software-Anteil in eingebetteten
Echtzeitsystemen macht Ansätze für die effiziente Verifikation
eingebetteter Software innerhalb des Gesamtsystems erforderlich. Ziel
der Arbeiten ist, simulationsbasierte und funktionale/semiformale
Verifikationsansätze, wie sie etwa im Bereich des Hardware-Entwurfs
zur Anwendung kommen, auf die abstrakte Ebene von komplexem
Software- und Systemverhalten zu übertragen.
Im Rahmen der Arbeiten wurde ein Ansatz entwickelt, der auf Basis
von SystemC eine Verifikation temporaler Abhängigkeiten auf
Software- und Systemebene ermöglicht. Hierzu wurden Mechanismen
bereitgestellt, die eine Spezifikation und automatische Überprüfung
von Ausdrücken zur Beschreibung von temporalen Abhängigkeiten
(Assertions) auf Basis abstrakter Events unterstützen. Auf diese Weise
werden die bisherigen, auf taktgenauer Ebene agierenden Techniken
höheren Abstraktionsebene zugeführt, was eine Verifikation von
Software- und Systemverhalten auf der Ebene abstrakter
Transaktionen ermöglicht. Innerhalb des Systementwurfsprozesses
erfolgt eine schrittweise Verfeinerung des initialen Systemmodells. Der
entwickelte Ansatz unterstützt eine Wiederverwendung von
Assertions
höherer
Abstraktionsebene
auf
niedrigeren
Entwurfsebenen, wodurch sich der Verifikationsaufwand für den
nachfolgenden Entwurfsablauf deutlich verringert.
Das Verfahren wurde unter anderem erfolgreich für die Verifikation
von Modulen eines DVB (Digital Video Broadcasting) Echtzeit-Systems
angewendet.
44
Verifikation komplexer SoC-Entwürfe mit
Prototyping-Umgebungen (Stephen Schmitt)
Hilfe
von
Low-Cost
Bedingt durch den stetigen Technologiefortschritt, der es ermöglicht,
durch kleiner werdende Strukturgrößen immer mehr Funktionalität
auf einem Chip unterzubringen, steigt die Anwendungsvielfalt und
Komplexität der Systeme bei gleichzeitig sinkenden Entwurfszeiten
und -kosten. Heutige SoCs werden in der Regel nicht mehr von Grund
auf neu entworfen, sondern aus IP-Komponenten und ganzen
Plattformen zusammengesetzt. Das korrekte Zusammenspiel aller
Hardware-Komponenten sowie der darauf ablaufenden Software muss
bereits früh im Entwicklungsprozess verifiziert werden, um Fehler im
System schnell erkennen und beseitigen zu können und so hohe
Kosten für einen Neuentwurf zu vermeiden. Für die Verifikation
komplexer SoC-Entwürfe auf niedriger Abstraktionsebene kommen
kostenintensive Verifikationssysteme zur Generierung aussagekräftiger
Analyseergebnisse zum Einsatz. Diese bestehen aus mehreren parallel
arbeitenden
Prozessoren
oder
programmierbaren
Hardwarebausteinen (FPGAs). Für die Abbildung des zu testenden
Entwurfs auf das Verifikationssystem ist zusätzlich komplexe und
damit teure Software erforderlich.
Aus diesem Grund wurden im Rahmen des MEDEA+ Projekts SpeAC in
Zusammenarbeit mit der Firma Infineon Technologies AG Methoden
und Werkzeuge untersucht und entwickelt, die es ermöglichen, eine
kostengünstige aber dennoch schnelle und architekturgenaue
Prototyping-Umgebung für die funktionale Verifikation komplexer
SoCs zur Verfügung zu stellen. Die Prototyping-Umgebung besteht aus
FPGA-basierten Prototyping-Boards, die zur parallelen Entwicklung
von Hardware- und Software-Komponenten verwendet werden
können. Zur Bewertung der entwickelten Methoden wurde der
kommerziell eingesetzte TriCore1 Mikrokontroller der Firma Infineon
Technologies AG auf dem Prototyping-System integriert. Da sich
derartig
komplexe
Systeme
nicht
ohne
weiteres
auf
ressourcenbeschränkten FPGA-Plattformen integrieren lassen, wurde
die Methode der Partialemulation entwickelt, welche eine auf
Prioritätslisten basierende Abbildung des Mikrokontrollers auf das
Prototyping-Board vornimmt. Daran anschließend wurde eine
Software-Entwicklungsumgebung
an
das
Prototyping-System
angebunden, die eine schnelle und transparente Entwicklung
Hardware-naher Software erlaubt. Durch die Anbindung weiterer
Prototyping-Boards wird eine schnelle Integration zusätzlicher neuer
Hardware-Komponenten sichergestellt. Das Ergebnis ist eine
kostengünstige
Entwicklungsplattform
für
eingebettete
Hardware/Software-Systeme,
die
dem
Entwickler
ein
architekturgenaues aber dennoch performantes Simulationsmodell der
SoC-Hardware zur Verfügung stellt.
Die Prototyping-Umgebung wurde für die funktionale Verifikation
aktuell bei Infineon in der Entwicklung befindlicher Peripherie45
Komponenten sowie für die Entwicklung Hardware-naher Software
für diese Komponenten eingesetzt.
Lokalisierung durch die Nutzung der Bluetooth - Technologie
(Suguna Subramanian)
Das Forschungsziel ist die Gestaltung einer Bluetooth-verwendenden
End-User-Anwendung, als eines der tauglichsten Positioning-Tools in
einer örtlich begrenzten Umgebung. Unter Berücksichtigung des
Traffic-Managements, der Dienstgüte, Routing-Bedienung und von
Bluetooth betreffenden Sicherheitsfragen, wird sich meine Arbeit
besonders auf die Implementierung von Bluetooth-ad-hoc Netzen
(Piconet und Scatternet) beziehen. Ist das ad-hoc Netz einmal
ausgebildet, wird auch die Lokalisierung mit entsprechenden
Stationierungsmaßnahmen vollzogen werden können. (siehe Abb. 14)
2
APs
Basisnetz
werk
APs
1
3
Datenbank Server
Abb. 1 4: BT AP s Bl uetooth V erbi ndungspunk te
Simulationsumgebung für superskalare Prozessoren (Gerald Heim)
Für die Simulation moderner Mikroarchitekturen und einzelner
Komponenten, die in Mikroprozessoren zum Einsatz kommen, wurde
eine Simulationsumgebung entworfen und implementiert. Diese
Umgebung ermöglicht die Simulation einer großen Vielfalt an
Modellen aus dem Gebiet der Rechnerarchitektur, von Caches und
Sprungvorhersagemechanismen bis zur Befehlsausführung durch
dynamisches Scheduling. Der Aufbau der Umgebung sieht vor, dass
verschiedene Architekturen im Rahmen tracebasierter Simulation
unterstützt werden.
Bislang wurden zwei Architekturen implementiert. Für die Simulation
skalarer und superskalarer Prozessorstrukturen können Pipelines
46
konfiguriert und simuliert werden. Durch die Java-basierte
Implementierung ist die Simulationsumgebung portabel und kann
leicht um weitere Komponenten erweitert werden.
Wertevorhersage in Prozessoren (Gerald Heim)
Moderne Prozessoren versuchen die auf Befehlsebene vorhandene
Parallelität mit vielfältigen Mitteln in einem hohen Grad
auszuschöpfen, um so die Verarbeitungsgeschwindigkeit zu steigern.
Damit eine hohe Rate an Befehlsausführungen erreicht werden kann,
genügt es wie sich gezeigt hat nicht, allein den Befehlsstrom in seiner
gegebenen Form zu betrachten und dort nach Parallelität zu suchen.
Man findet mehr Parallelität, wenn mit fortgeschrittenen Techniken
wie Sprungvorhersage verbunden mit spekulativer out-of-order
Ausführung die Kandidatenmenge für die Parallelausführung weiter
vergrößert wird, und damit die Ausführung der einer
Datenflussmaschine sehr ähnlich wird.
Dies ist der Stand der heute schon vermarkteten superskalaren
Prozessoren.
Weitere Parallelität kann erreicht werden, indem die Anzahl spekulativ
ausgeführter Befehle weiter vergrößert wird. Für heutige Prozessoren
ist die Anzahl der spekulativ ausgeführten Befehle durch die
Spekulationstiefe der Sprungvorhersage, die Kapazität interner Puffer
und Busse sowie nicht zuletzt durch Datenabhängigkeiten begrenzt.
Mit Hilfe von Datenwertvorhersage kann an entscheidenden Stellen
die Spekulative Ausführung fortgeführt werden, ohne dass sich zu
viele nicht bearbeitbare Befehle aufstauen.
Datenwertvorhersage ist aber komplexer als Sprungvorhersage, weil
nicht von vorn herein klar ist, welche Datenwerte vorhergesagt
werden sollen. Außerdem wird für Datenwerte beobachtet, dass diese
stärker divergieren als die Werte der Sprungvorhersage.
Wertevorhersage kann daher nicht die Qualität der Sprungvorhersage
erreichen und muss deshalb als eine weitere Vorhersagestufe in einem
bereits durch Sprungvorhersage und Dekodierung bearbeiteten
Befehlsstrom verstanden werden und nur dann zur Anwendung
kommen, wenn weitere Parallelität gesucht wird oder sehr große
Latenzzeiten kaschiert werden sollen.
Für die Untersuchung von Wertevorhersagern in Prozessoren bedeutet
dies, dass sie nur im Kontext der Befehlsausführung untersucht werden
können, wenn die Einstreuung systematischer Fehler vermieden
werden soll.
Von speziellem Interesse sind dabei die Auswirkungen des
Zusammenspiels von Sprung- und Datenwertvorhersage, die Auswahl
der für Vorhersage in Frage kommenden Datenwerte und die
quantitativen Auswirkungen von Datenwertvorhersage auf die
Mikroarchitektur.
47
Die Auswahl der zu vorhersagenden Datenwerte hat auf den Erfolg
des gesamten Verfahrens weit reichende Auswirkungen, da erhofften
Gewinne leicht durch übermäßig viele Falschvorhersagen zunichte
gemacht werden können.
Low-Power Technologien in modernen Prozessorarchitekturen
(Gerald Heim)
Durch
die
fortschreitende
und
immer
höher
werdende
Integrationsdichte beim Entwurf und Bau von neuen sehr
leistungsfähigen Prozessoren steigt auch der Energieverbrauch pro
Fläche immer mehr. Durch intelligente Techniken wie das zeit- oder
ereignisgesteuerte Abschalten einzelner Regionen des Chips kann der
Energieverbrauch reduziert werden.
Dies senkt den Aufwand, der zur Kühlung des Prozessors betrieben
werden muss. Außerdem wird der Stromverbrauch reduziert und die
Lebensdauer verlängert.
Die
herkömmlichen
Technologien
zur
Reduzierung
des
Stromverbrauchs setzen sehr detaillierte Modelle voraus, die dann auf
Register-Transferebene modifiziert werden. Jedoch zeigt sich, dass so
oft entscheidende Schritte zur Einsparung nicht mehr möglich sind.
Deshalb müssen Wege gefunden werden, das Stromsparpotential
bereits in frühen Entwurfsphasen zu bewerten und in lohnenden
Teilen des Entwurfs gezielt zu verfolgen.
Formale M ethoden (Leitung: Dr. T. Kropf)
Durch die immer kürzeren Entwicklungszeiten von eingebetteten
Systemen müssen diese aus HW und SW bestehenden Systeme heute
effizient und schnell produziert werden. Vor allem die Fehlerfreiheit
der Eingebetteten Systeme muss gewährleistet werden, damit
Systemfehler bei sicherheitskritischen Anwendungen ausgeschlossen
werden können, wie dies im Medizin- oder Luft- und RaumfahrtBereich notwendig ist. Dies kann man nur erreichen, wenn man die
Fehler im Entwicklungsprozess findet. Gemäß aktueller Studien nimmt
der Verifikationsaufwand beim Systementwurf einen Anteil von bis zu
70% des Gesamtaufwandsein. Dadurch erlangen Verfahren zur
Steigerung der Verifikationseffizienz immer höhere Wichtigkeit. Durch
die hohe Komplexität der heutigen Systementwürfe ist eine
Verifikation unter Anwendung klassischer Simulationstechniken in der
Regel nicht möglich und liefert daher nur bedingt gültige
Korrektheitsaussagen. Formale Methoden gewinnen dadurch für die
Verifikation an Bedeutung, die den Nachweis für die funktionale
Korrektheit eines Schaltungsabschnitts auf formalem Wege erbringen
und vollständige Korrektheitsaussagen liefern. Da die Anwendung von
formalen Verifikationstechniken nur eingeschränkt möglich ist,
besteht an dieser Stelle Forschungsbedarf.
48
Die Arbeitsgruppe formale Methoden verfolgt in ihrer Forschung
folgende Themen:
•
Verbesserung der formalen Verifikationsmethoden
•
Semiformale Verifikationstechniken (High-Level Verifikation /
HW/SW-Verifikation)
•
Hardwarenahe Software Verifikation
Spezifikation
Simulation, semiformale
Verifikation
System-Ebene
System
Simulation
RT-Ebene
m
ple
Im
g
un
Gatterebene
Ve
r ifi
r
tie
en
ka
ti
on
Eigenschaftsverifikation
Model-Checking
Equivalenz Verifikation
Layout-Ebene
Formale
Verifikation
Abb. 1 5: V eri fi ka ti onse be ne n
GRASP
Integration
formaler
und
funktionaler
Verifikationswerkzeuge (Roland Weiss, Jürgen Ruf, Thomas Kropf)
Verbundprojekt mit Prof. Rammig und Dr. Wolfgang Müller,
Universität Paderborn im DFG Schwerpunktprogramm "Integration
von
Techniken
der
Softwarespezifikation
für
ingenieurwissenschaftliche Anwendungen".
Ziel dieses Projekts ist die Nutzbarmachung von formalen
Verifikationstechniken
im
Entwurf
von
Produktionsautomatisierungssystemen (PA-Systemen). Die formale
Verifikation von PA-Systemen dient dazu, bereits in frühen
Entwurfsphasen und auf hohen Abstraktionsebenen Entwurfsfehler
aufzuspüren.
Ein besonderer Schwerpunkt bei dieser Arbeit liegt auf der
Verifikation und der ingenieurgerechten Modellierung von
zeitbehafteten Systemen und ihren Eigenschaften. Zu diesem Zweck
werden formale Spezifikationstechniken wie quantitative temporale
Logiken oder zeitbehaftete endliche Automaten, die als Basis der
formalen Verifikation dienen, in den Entwurfsablauf integriert. Die
verschiedenen Arbeiten im Rahmen des Projekts werden in einer
49
prototypischen Entwurfsumgebung zusammengeführt, die von der
Eingabe über die Verifikation und Simulation bis hin zur
Unterstützung bei der Fehlersuche den Entwurf von PA-Systemen
unterstützt.
Der zentrale Punkt der aktuellen Projektarbeiten ist die Kombination
von Simulation und formaler Verifikation. Die Ziele, die wir damit
erreichen sind folgende:
•
Erhöhte Testabdeckung (höhere Zuverlässigkeit der Systeme).
•
Anwendung der Verfahren auf Systeme, die zu groß sind für die
formale Modellprüfung.
•
Prüfen der gleichen formalen Eigenschaften wie bei der
simulationsbasierten Methode oder der formalen Modellprüfung.
KOMFORT – Kombination formaler und semiformaler Techniken zur
Verifikation von C++-basierten Systembeschreibungen (Prakash
Peranandam, Pradeep Nalla, Jürgen Ruf, Thomas Kropf)
Ziel dieses DFG-Projektes ist, die Vorteile der klassischen Simulation mit
den Vorteilen formaler Methoden zu kombinieren. So können kritische
Systemeigenschaften formal spezifiziert werden und „on-the-fly“, d.h.
parallel zum Ablauf einer klassischen Simulation, überprüft werden Es
werden
Partitionierungstechniken entwickelt, mit denen die zu
testenden Stimuli und das zu verifizierende System so aufgeteilt
werden können, dass sich davon Teile mit Simulation validieren lassen
und andere Teile mit formalen Methoden verifiziert werden können.
Zu
diesem
Zweck
werden
Systembeschreibungen
als
Validationsgrundlage herangezogen. Die formale Semantik von
SystemC™ wird auf die neuste Version angepasst, durch diese formale
Semantik wird die zeitliche Abarbeitung von Prozessen und
Ereignissen in SystemC definiert.
Aus charakteristischen Simulationsläufen werden Bündel gebildet, die
mittels symbolisch
repräsentierter Akzeptoren auf Korrektheit
überprüft werden.
Eine Idee besteht darin, dass das System nicht im Rechner simuliert,
sondern in einer speziellen
Emulationsumgebung direkt als Hardware emuliert wird. Um die onthe-fly-Techniken auch in dieser späten Validationsphase nutzen zu
können, ist es wichtig, die zu testenden Eigenschaften automatisch in
endliche Automaten zu übersetzen. Eine weitere Möglichkeit der
Kombination von Simulation und formaler Verifikation ist die Formale
Verifikation mit vorgeschalteter Simulation.
Die Projektarbeiten befinden sich momentan bei der Verbesserung der
Verifikationsmethoden für große Systementwürfe. Für diese
Verbesserung werden die zwei Verfahren des intelligenten Splittings
und der Parallelisierung verwendet, welche in das Werkzeug SymC
50
eingebunden werden. Folgende Ziele werden über das Projekt
erreicht:
Die Verifikation von Systementwürfen wird beschleunigt. Große
Entwürfe können formal verifiziert werden. Die Eigenschaftsprüfung
kann viel weiter in die Tiefe des Zustandsraums gehen
FEST - Funktionale Verifikation von Systemen (Stefan Lämmermann,
Roland Weiss, Jürgen Ruf, Thomas Kropf)
Verbundprojekt des Edacentrum und dem Bundes Ministerium für
Bildung
und
Forschung
mit
den
zu
bearbeitenden
Schwerpunktprogrammen "Einheitliche Semantik für Hardware- und
Software-Systeme und Eigenschaftsextraktion" und „Verifikation und
Analyse“.
In dem Projekt werden Ziele, der vereinheitlichte Modellierung für
Software- und Hardwarekomponenten für die Verifikationsverfahren
und -algorithmen für HW/SW-Systeme verfolgt, der automatischen
Extraktion von Systemeigenschaften aus den zu verifizierenden
HW/SW-Systemen
und
die
Kombination
neuer
Verifikationsalgorithmen mit Algorithmen der klassischen Analyse
bzw. Simulation (Semiformale Verfahren). Die Verfahren dienen dazu
in der Systemebene das System zu verifizieren.
Zur Eigenschaftsextraktion werden verschiedene Methoden der
statischen Analyse erforscht. Denkbare Verifikationsziele umfassen
Terminierungsbedingungen,
Zeiteigenschaften
oder
Initialisierungsbedingungen. Es wird versucht hardwarenahe Software
auf Hardware-Modelle abzubilden und diese mit verschiedenen
Hardware-Verifikationsverfahren zu prüfen. Methoden sollen
entwickelt werden, die neue Verifikationsalgorithmen mit
Algorithmen der klassischen Analyse bzw. Simulation kombiniert. Das
Ergebnis sind semi-formale Verfahren, die auf HW/SW-Systeme mit
industrieüblicher Komplexität anwendbar sind.
Den Schwerpunkt der aktuellen Projektarbeiten bilden derzeit die
Eigenschaftsextraktion, die hardwarenahe Softwareverifikation und
die semiformale Verifikation. Die Ziele, die wir erreichen möchten,
sind:
•
Automatisierte Eigenschaftsextraktion auf der Systemebene
•
Hardware-nahe Software-Verifikation für AutomotiveAnwendungen
•
Semiformale Verifikationsverfahren für die High-Level Verifikation
Multi mediatechni k (Lei tung: S teffen H oltwick)
Einen festen Bestandteil des Lehrangebots bildet das vom Fachbereich
angebotene Multimediatechnik-Praktikum. Ziel des Praktikums ist das
Sammeln von praktischen Erfahrungen in den Themengebieten der
51
Vorlesungen Multimediatechnik 1 und 2, die ebenfalls vom Lehrstuhl
Technische Informatik von Herrn Professor Rosenstiel angeboten
werden. Das Praktikum umfasst derzeit 8 Aufgaben mit jeweils
theoretischen und praktischen Aufgabenstellungen, die in kleinen
Gruppen von zwei bis drei Teilnehmern innerhalb von zwei bis vier
Wochen bearbeitet werden.
Die folgenden Themenbereiche werden behandelt: Dateiformate für
Bilder und Grafiken, Kompressionsverfahren für Bilder und Audio- und
Videodaten,
optische
Speichermedien,
VideokonferenzAnwendungen,
Multimediadatenbanken
und
der
MPEG-4
Videostandard. Die Praktikumsversuche werden kontinuierlich an
aktuelle Entwicklungen angepasst und beinhalten auch kreative
Leistungen wie die Planung und Erstellung einer eigenen DVD.
In den vergangenen beiden Jahren entstanden am Fachbereich
Multimediatechnik zwei Diplomarbeiten und fünf Studienarbeiten.
Die aktuellen Themenschwerpunkte liegen in den Bereichen
Multimediadatenbanken,
Multimediaanwendungen
auf
Mobiltelefonen,
mobile
Navigation
und
Routenplanung,
Spracherkennung und Sprachsynthese, automatische Inhaltsanalyse bei
Audio- und Videodaten, Digitales Rechtemanagement und
Kopierschutzverfahren sowie Barrierefreiheit im Internet.
Im Rahmen einer Diplomarbeit und zweier Studienarbeiten wurde der
Internetauftritt der Technischen Informatik unter Einhaltung der
aktuellen Richtlinien zur Barrierefreiheit im Internet neu gestaltet und
unter Verwendung aktueller Programmiertechniken (Templates, PHP,
CSS)
neu
implementiert.
Dabei
wurde
insbesondere
auf
Übersichtlichkeit und einfache Wartbarkeit des Auftritts wertgelegt.
Die Umsetzung erfolgt mit Hilfe des Open Source ContentManagement-Systems TYPO3. Die Arbeiten haben gezeigt, dass auch
moderne Techniken zur Erstellung von Internetseiten noch
Kompromisse bei der Barrierefreiheit erfordern. (siehe Abb. 16)
Abb. 1 6: E ntw urf für die barri ere frei e S ta rtse ite de r
Tec hni sc he n I nforma ti k
52
Eine weitere Diplomarbeit hat sich mit Multimediadatenbanken
beschäftigt und zu diesem Thema einen neuen Praktikumsversuch
konzipiert. Die Konvergenz der digitalen Medien ist ein aktuelles
Thema und eröffnet vielfältige Anwendungsmöglichkeiten. Für die
Diplomarbeit wurde das Open Source Framework Fedora (Flexible and
Extensible Digital Object Repository Architecture) der Cornell
University verwendet und eine eigene Anwendung namens JImPeR
(Java-based IMage and PErson Repository), zur Erkennung von
Gesichtern und der Verwaltung von Personenfotos, implementiert.
Abbildung 17 zeigt die Benutzeroberfläche der Anwendung. Der
entwickelte
Praktikumsversuch
soll
insbesondere
die
Metadatenmodelle und das Konzept der Web Services verdeutlichen.
Abb. 1 7: Be nutz eroberfl äc he der A nw e ndung JIm Pe R z ur Ve rw altung v on
P ortrai ts
Ein weiteres, sehr aktuelles Thema sind Multimediaanwendungen auf
mobilen Endgeräten. Trotz ihrer begrenzten technischen Ressourcen
sind Mobiltelefone wegen ihrer zahlenmäßigen Verbreitung für solche
Anwendungen besonders interessant. Im Rahmen einer Studienarbeit
wurden verschiedene Anwendungen auf einem aktuellen UMTSMobiltelefon, getestet und der aktuelle Stand der Technik
dokumentiert. Die Studienarbeit beschäftigte sich vor allem mit
Videophonie über UMTS und Möglichkeiten der Kommunikation
zwischen einem Mobiltelefon und einem PC über UMTS oder
Bluetooth. In unserer Arbeitsgruppe werden zurzeit einige
Anwendungen für das Symbian Betriebsystem entwickelt.
53
Veröffentlic hungen
Avila, Dölling, Rosenstiel
Towards seamless top-down design of A/MS systems: An
example of system to block-level design in automotive
applications
Proceedings of Forum on Design Languages (FDL), 2005
Avila, Dölling, Rosenstiel
Eine teilautomatisierbare Methodik für den Übergang von der
System- auf die Schaltungsebene am Beispiel eines
Reglerentwurfs aus dem Automobilbereich
Proceedings of Analog, 2005
Bensch, Bogdan, Czerner, Linke, Montino, Schröder, Rosenstiel
Neural network algorithms for generalised online tool control
in medium size semiconductor fabs
Proceedings of AEC/APC Conference, Benefits of AEC/APC for FAB
Efficiency and Product Yield, 2005
Bensch, Schröder, Bogdan, Rosenstiel
Feature Selection for High-Dimensional Industrial Data
Proceedings of ESANN, 2005
Bensch, Schröder, Bogdan, Rosenstiel, Hinterberger, Mellinger, Birbaumer
The Web Browser „Nessi“: A BCI Application
3rd Int. BCI meeting, Albany, 2005
Braun, Schubert, Stark, Haug, Gerlach, Rosenstiel
A Case Study: SystemC-Based Design of an Industrial Exposure
Control Unit
C. Grimm (ed.), “Languages for System Specification”, Chapter 8 (pp. 119132), Kluwer Academic Publishers, 2004
Braun, Grosser, Gerlach, Rosenstiel
Entwicklung einer SystemC-basierten Simulationsumgebung
für einen 8-Bit-RISC-Mikrocontroller
GI/ITG Workshop, 2005
Braun, Gerlach, Rosenstiel, Siebenborn, Bringmann
SystemC-Based Communication and Performance Analysis
Proceedings of Forum on Design Languages (FDL), 2005
Bringmann, Siebenborn, Rosenstiel
Conflict Analysis in Multiprocess Synthesis for Optimized
System Integration
International Conference on Hardware - Software Codesign and System
Synthesis, CODES+ISSS, 2005
54
Donlin, Braun, Rosenstiel
SystemC for the Design and Modeling of Programmable
Systems
Proceedings of Field-Programmable Logic and its applications (FPL), 2004
Flake, Müller, Pape, Ruf
Specification and formal verification of temporal properties of
production automation systems
LNCS, Springer Verlag Heidelberg, 2004
Ganzenmüller, Pinkenburg, Rosenstiel
SPH2000: A Parallel Object-Oriented Framework for Particle
Simulations with SPH*
Proceedings of Euro-Par 2005, Parallel Processing, 11th International
Euro-Par Conference (José C. Cunha, Pedro D. Medeiros (Eds.)), Lecture
Notes in Computer Science 3648 Springer 2005, ISBN 3-540-28700-0, 2005
Herkersdorf, Rosenstiel
Towards a Framework and a Design Methodology for
Autonomic Integrated Systems
GI-Edition Lecture Notes in Informatics, Informatik 2004 – Informatik
verbindet, Band 2, Beiträge der 34. Jahrestagung der Gesellschaft für
Informatik e.V., 2004
Hipp, Rosenstiel
Parallel Hybrid Particle Simulations Using MPI and OpenMP
Proceedings of Euro-Par, Parallel Processing, 10th International Euro-Par
Conference Euro-Par, 2004
Hipp, Pinkenburg, Holtwick, Kunze, Schäfer, Rosenstiel, Ruder
Libraries and Methods for Parallel Particle Simulations
Proceedings of HLRS Stuttgart, 2005
Lettnin, Braun, Bogdan, Gerlach, Rosenstiel
Synthesis of Embedded SystemC Design: A Case Study of
Digital Neural Networks
Proceedings of Design, Automation and Test in Europe (DATE), 2004
Lettnin, Weiss, Braun, Ruf, Rosenstiel
Temporal Properties Verification of System Level Design
Proceedings of NetObjectDays, 2005
Lipsa, Herkersdorf, Rosenstiel, Bringmann, Stechele
Towards a Framework and a Design Methodology for
Autonomic SoC
Proceedings of ARCS 2005 und ACS 2005
55
Lysaght, Rosenstiel (Hrsg.)
New
Algorithms,
Architectures
Reconfigurable Computing
Springer, 2005
and
Applications
for
Nalla, Weiss, Ruf, Kropf, Rosenstiel
Parallel Bounded Property Checking with SymC
Proceedings of GI/ITG/GMM Workshop, 2005
Nalla, Weiss, Peranandam, Ruf, Kropf, Rosenstiel
Symbolic bounded property checking in parallel
Elsevier, 2005
Oetjens, Gerlach, Rosenstiel
Ein XML-basierter Ansatz zur flexiblen Darstellung und
Transformation von Schaltungsbeschreibungen, Modellierung
und Beschreibungssprachen
Proceedings of GI/ITG/GMM Workshop, 2004
Oppold, Schweizer, Kuhn, Rosenstiel
A New Design Approach for Processor-Like Reconfigurable
Hardware
Proceedings of Euro DesignCon, Munich, Germany, 2004
Oppold, Schweizer, Kuhn, Rosenstiel
Cost Functions for the Design of Dynamically Reconfigurable
Processor Architectures
Workshop on Synthesis And System Integration of Mixed Information
technologies (SASIMI), Kanazawa, Japan, 2004
Oppold, Schweizer, Kuhn, Rosenstiel
A Design Environment for Processor-Like Reconfigurable
Hardware
IEEE International Conference on Parallel Computing in Electrical
Engineering (PARELEC), Dresden, Germany, 2004
Oppold, Schweizer, Kuhn, Rosenstiel, Kanus, Strasser
Evaluation of Ray Casting on Processor-Like Reconfigurable
Architectures
International Conference on Field Programmable Logic and Applications
(FPL), 2005
Qin, Pinkenburg, Rosenstiel
Parallel Motif Search Using PARSEQ
Proceedings of the International Conference on Parallel and Distributed
Computing and Networks (PDCN), 2005
56
Peranandam, Weiss, Ruf, Kropf, Rosenstiel
Dynamic Guiding of Bounded Property Checking
Proceedings of IEEE International High Level Design Validation and Test
Workshop (HLDVT), 2004
Perandam, Weiss, Ruf, Kropf, Rosenstiel
Overlap reduction in symbolic system traversal
Proceedings of IEEE International High Level Design Validation and Test
Workshop (HLDVT), 2005
Peranandam, Weiss, Ruf, and Kropf.
Transactional level verification and coverage metrics by means
of symbolic simulation
Proceedings of GI/ITG/GMM Workshop, 2004
Pinkenburg, Rosenstiel
Parallel I/O in an object-oriented message-passing library
In Recent Advances in Parallel Virtual Machine and Message Passing
Interface, PVM/MPI, Springer-Verlag, 2004
Rosenstiel
IP and design reuse
The VLSI journal 37, 2004
Ruf, Weiss, Kropf, Rosenstiel
Modeling and Formal Verification of Production Automation
Systems
Proceedings of Forum on Design Languages (FDL), 2004
Sciuto, Martin, Swan, Flake, Ghenassia, Srouji, Rosenstiel
SystemC and SystemVerilog: Where do they fit? Where are
they going?
Proceedings of Design, Automation and Test in Europe (DATE), 2004
Schäfer, Speith, Hipp, Kley
Simulations of planet-disc
Particle Hydrodynamics
Astronomy&Astrophysics 2004
interactions
using
Smoothed
Schmitt, Rosenstiel
Rapid Prototyping of a Microcontroller IP Core under Resource
Limitations
In: Lindwer, Gerousis, Figueras (Eds.): Design, Automation and Test in
Europe, Designers Forum, Paris, 2004
57
Schmitt, Rosenstiel
Verification of a Microcontroller IP Core for System-on-Chip
Designs Using Low-Cost Prototyping Environments
In: Stoffel, Kunz (Eds.): Methoden und Beschreibungssprachen zur
Modellierung und Verifikation von Schaltungen und Systemen,
Kaiserslautern, 2004
Schmitt, Rosenstiel
Fast and efficient development of hardware-dependent
software for SoC designs
In: Sullivan (Ed.): Euro DesignCon 2004, München, 2004
Schnerr, Bringmann, Rosenstiel
Cycle Accurate Binary Tanslation for Simulation Acceleration
in Rapid Prototyping of SoCs
Proceedings of Design, Automation and Test in Europe (DATE), 2005
Schröder, Lal, Hinterberger, Bogdan, Hil, Birbaumer, Rosenstiel, Schölkopf
Robust EEG Channel Selection Across Subjects for Brain
Computer Interfaces
Proceedings of International Conference on Machine Learning (ICML),
2005
Schulz-Key, Winterholer, Schweizer, Kuhn, Rosenstiel
Object-Oriented
Modeling
and
Synthesis
of
SystemC
Specifications
Asia South Pacific Design Automation Conference (ASPDAC), Yokohama,
Japan, 2004
Schweizer, Oliveira, Oppold, Kuhn, Rosenstiel
Evaluation of Temporal-Spatial Voltage Scaling for ProcessorLike Reconfigurable Architectures
Proceedings of the Euro DesignCon, München, 2005
Siebenborn, Bringmann, Rosenstiel
Communication Analysis for System on Chip Design
Proceedings of Design, Automation and Test in Europe (DATE), 2004
Viehl, Bringmann, Rosenstiel
Performance Analysis of Sequence Diagrams for SoC Design
Proceedings of the 2nd UML for SoC-Design Workshop (UML-SoC), 42nd
Design Automation Conference (DAC), Pages 55-61, Anaheim, June12,
2005
Vörg, Radetzki, Rosenstiel
Measurement of IP Qualification Costs and Benefits
Proceedings of Design, Automation and Test in Europe (DATE), 2004
58
Vörg, Rosenstiel
Automation of IP qualification and IP exchange
The VLSI journal 37 2004
Weiss, Ruf, Kropf, Rosenstiel
Efficient and customizable integration of temporal properties
into SystemC
Proceedings of Forum on Design Languages (FDL), 2005
Weiss, Ruf, Kropf, Rosenstiel
Symbolic model checking and simulation with temporal
assertions
Proceedings of Design, Automation and Test in Europe (DATE), 2005
Winterholer, Schulz-Key, Schweizer, Kuhn, Rosenstiel
Object-Oriented Hardware Synthesis with SystemC
Proceedings of Forum on Design Languages (FDL), 2004
59
Vorträge
Bringmann, Oliver: „New System Level Design Methodologies Tailored to
European Electronic Key Applications and Their Industrial Utilization in
SpeAC“, DATE '04, Paris, Februar 2004
Bringmann, Oliver: „New System Level Design Methodologies in the
SpeAC Project 2nd open Workshop on System Level Design in the
MEDEA+/Ekompass Project SpeAC“, DATE '04, Paris, Februar 2004
Bringmann, Oliver: „Spezifikation und Algorithmus/Architektur-Codesign
für hochkomplexe Anwendungen der Automobil- und
Kommunikationstechnik (SpeAC)“, 3. Ekompass Workshop, Hannover, Mai
2004
Bringmann, Oliver: „Performanz- und Konfliktanalyse zur optimierten
Bus-Allokierung“, Fach- und Kooperationsworkshop "Matlab-Integration
und Performanzanalyse", Dresden, Dezember 2004
Bringmann, Oliver: „Spezifikation und Algorithmus/Architektur-Codesign
für hochkomplexe Anwendungen der Automobil- und
Kommunikationstechnik (SpeAC)“, 4. Ekompass Workshop, Hannover,
April 2005
Bringmann, Oliver: „Transaction Level Modelling in System Design“,
MEDEA+ Design Automation Conference, Château des
Mesnuls/Frankreich, Mai 2005
Bringmann, Oliver: „Research Challenges Towards a Coherent TLM
Methodology“, ECSI Workshop on Efficient Transaction Level Modelling,
Paris, Mai 2005
Bringmann, Oliver: „Current OSCI Activities and Future Plans for TLM
Standardisation“, ECSI Workshop on Efficient Transaction Level Modelling,
Paris, Mai 2005
Bringmann, Oliver: „Modellierung virtueller Prototypen mit SystemC und
formale Performanz- und Kommunikationsanalyse zur
Architekturexploration“, IBM SystemC Summit, Böblingen, Juli 2005
Bringmann, Oliver: „Einsatz von SystemC für den Entwurf von Hardwarenaher Software unter Verwendung virtueller Prototypen“,
Kolloqiumsvortrag, Fraunhofer Institut Experimentelles Software
Engineering, Kaiserslautern, Dezember 2005
60
Bringmann, Oliver: „Conflict Analysis in Multiprocess Synthesis for
Optimized System Integration, IEEE/ACM/IFIP International Conference on
Hardware - Software Codesign and System Synthesis (CODES-ISSS)“, New
York, USA, September 2005
Ganzenmüller, Sven: „Eine objektorientierte parallele Bibliothek für
Teilchensimulationen“, Saas-Almagell, Schweiz, März 2004
Ganzenmüller, Sven: „SPH2000: A Parallel Object-Oriented Framework for
Particle Simulations with SPH“, Lissabon, Portugal, September 2005
Krause, Matthias: „Einführung in MOST Media Oriented System
Transport“, Robert Bosch GmbH, Schwieberdingen, Oktober 2004
Rosenstiel, Wolfgang: “SystemC and SystemVerilog: Where do they fit? Where are they going?“, Panel Discussion, DATE '04, Paris, 17. Februar
2004
Rosenstiel, Wolfgang: “Abstract Modeling: Is it worth to bother?“, Panel
discussion, DATE '04, Paris, 18. Februar 2004
Rosenstiel, Wolfgang: “Entwurf und Entwurfsmethodik eingebetteter
Systeme“, DFG-Senat, Bonn, 06. Mai 2004
Rosenstiel, Wolfgang: “Zukünftige EDA-Forschungsschwerpunkte“,
Ekompass-Workshop, Hannover, 18. Mai 2004
Rosenstiel, Wolfgang: “Specification and Algorithm/Architecture-CoDesign for Highly Complex Applications in Automotive and
Communication“, European Technology Platform, Rom, 29. Juni 2004
Rosenstiel, Wolfgang: “Rapid Prototyping and Software Debugging for
the TriCore1 MCU IP Core on FPGA-based Prototyping Platforms“,
Synopsys Scientific Seminar, Mountain View/USA, 09. August 2004
Rosenstiel, Wolfgang: “SystemC and SystemVerilog for System Level
Design“, Taipeh/Taiwan, 20. Oktober 2004
Rosenstiel, Wolfgang: “System Level Design: Where is EDA?“, Panel
Discussion, EuroDesignCon, München, 26. Oktober 2004
Rosenstiel, Wolfgang: “Aktuelle Prozessorarchitekturen“, IBM Symposium,
Herrenberg, 29. Oktober 2004
Rosenstiel, Wolfgang: “Is there a market for SystemC tools?“ , Panel
Discussion, DATE '05, München, 10. März 2005
Rosenstiel, Wolfgang: “SystemC-Based Communication and Performance
Analysis“, FDL, Lausanne, 29. September 2005
61
Rosenstiel, Wolfgang: “ESL Tradeoff: What is the Best Way to Bring a New
Algorithm from a C/C++ or SystemC Reference to Silicon?“ Panel
Discussion, EuroDesignCon, München, 24. Oktober 2005
Rosenstiel, Wolfgang: „Moderne Rechnerarchitekturen“, IBM Symposium,
Herrenberg, 28. Oktober 2005
Rosenstiel, Wolfgang: “New System Level Design Flow Cutting Design
Efforts and Time-to-Market for SoC“, Medea+ Forum, Barcelona, 21.
November 2005
Schmitt, Stephen: „Rapid prototyping of a microcontroller IP core under
resource limitations”, Paris, Februar 2004
Schmitt, Stephen: „Verification of a microcontroller IP core for System-onChip designs using low-cost prototyping environments”, Kaiserslautern,
Februar 2004
Schmitt, Stephen: „Fast and efficient development of hardwaredependent software for SoC designs“, München, Oktober 2004
Schmitt, Stephen: „Integrierte Simulation und Emulation eingebetteter
Hardware/Software-Systeme“, Tübingen, Juni 2005
Viehl, Alexander: „Control Flow Aware Communication and Conflict
Analysis“ 3rd Open SpeAC Workshop, Friedrichshafen, Juni 2005
62
Promoti onen
Bai, Lu: „Functional Requirement Estimation for Vehicle E/E System
Integration”, 17. März 2006
Braun, Markus: „Steigerung der Effizienz simulationsbasierter
Verifikation durch Einsatz von testüberdeckungsgeführter Simulation“,
17. März 2006
Cossy, Melanie: „Entwicklungsprozess und Softwarearchitektur für
sicherheitsbezogene verteilte Anwendungen im Fahrzeug“, 18. April
2005
Dagli, Ismail: „Erkennung von Einscherer-Situationen für
Abstandsregeltempomaten“, 02. Februar 2005
Heinisch, Cordula: „Konfigurationsmodell und Architektur für eine
automatisierte Software-Aktualisierung von Steuergeräten im
Automobil“, 06. Oktober 2004
Menn, Carsten: „Hardware-Abschätzung für High-Level
Spezifikationen digitaler Schaltungen“, 21. Juli 2004
Ruh, Jens: „Entwurf von fehlertoleranten Steuergeräteapplikationen in
Kraftfahrzeugen unter Berücksichtigung moderner
Entwicklungsmethodik“, 21. März 2005
Schmitt, Stephen: „Integrierte Simulation und Emulation eingebetteter
Hardware/Software-Systeme“, 19. Mai 2005
Siebenborn, Axel: „Kommunikations- und Laufzeitanalyse für den
Entwurf eingebetteter Systeme“, 17. März 2006
Vörg, Andreas: „Automatisierte Qualifizierung und Auslieferung
wiederverwendbarer Komponenten“, 31. März 2005
63
Diplomarbei ten
Autenrieth, Christof: „Künstliche neuronale Netze zur automatischen
Erkennung des Hirnareals Nucleus subthalamicus“, 2004
Benderman, Dmitri: „ Entwurf und Implementierung eines Ansatzes
zur automatischen Abbildung von SystemC-Spezifikationen auf ein
Echtzeitbetriebssystem“, 2004
Hahn, Katharina: „Erweiterung hybridscher Fahrfunktion durch
ACC/Radarsensorik am Beispiel Start/Stopp“, 2004
Müller, Matthias: „Simulationsdatenextraktion und –analyse bei
transaktionsbasierten Systemmodellen“, 2004
Doberenz, Stefan: „Untersuchung und Implementierung von
Bluetooth-basierten Sensor-/Aktonetzwerken“, 2005
Glatthaar, Simon: „Untersuchungen und Modelle zur Optimierung von
Wertevorhersage und Cachelokalität in modernen
Prozessorarchitekturen“, 2005
Kappler, Willi: „Domain Specific Language für ein objektorientiertes
SPH-Framework“, 2005
Oertel, Amalinda: „Software-Modultest am Beispiel einer
Displayansteuerung für ein ACC-Fahrzeug“, 2005
Schnaidt, Benjamin: „Profiling eines parallelen, objektorientierten SPHFramework“, 2005
Schönwald, Timo: „Spezifikationsbasierte Generierung von
strukturellen SystemC-Modellen aus UML und SysML“, 2005
Stark, Daniel: „Untersuchung und Implementierung von
Multimediadatenbanken unter Verwendung von Fedora“, 2005
Yilmaz, Elena: „Aufbau und Anwendung einer flexiblen
Transformationsumgebung für SystemC-Beschreibungen“, 2005
Wang, Yuhui: „Untersuchung aktueller Methoden zur Verifikation von
hardwarenaher Software anhand eines Beispiels aus der Industrie“,
2006
64
Studienarbeiten
Altundal, Sevinal: „Modellierung und Integration von Reorder Buffer
und Register Renaming“, 2004
Autenrieth, Christof: „Motoransteuerung im Projekt Echem++“, 2004
Chiviny, Long-Marquardt: „Clock Gating”, 2004
Grosser, Thomas: „Implementierung einer SystemCSimulationsumgebung für eine 8-bit RISC-Architektur“, 2004
Gulan, Stefan: „Erstellen robuster Modelle mit SVM“, 2004
Hauser, Stefan: „Entwicklung einer SystemC-ModelSimCosimulationsumgebung mit integrierter XML-basierter
Schnittstellengenerierung“, 2004
Hermann, Michael: „Entwurf und Einrichtung einer Datenbank zur
Verwaltung von Messdaten und Benchmarks“, 2004
Hofmann, Matthias: „Realtime Spike Sorting“, 2004
Rörig, Rebecca: „Untersuchung der Robustheit des SVMKlassifikationsalgorithmus bezüglich fehlender Eingabedimensionen
für kontinuierliches BCI-Feedback“, 2004
Seidel, Ingo: „Konzeption eines Praktikums zur Vorlesung
Signalverarbeitung“, 2004
Sinz, Fabian: „Kamerakalibrierung und Tiefenschätzung“, 2004
Wang, Yuhui: „Eine Verifikationsmethode vom Softwaremodell bis zur
FPGA-basierten Emulationsumgebung“, 2004
Willman, Jörg: „Aufbau einer Simulationsumgebung zur Korrektheitsprüfung von Technologiemigrationsschritten“, 2004
Bauer, Johanna: „Untersuchung des Zeitverhaltens des GSM
Teledienstes SMS“, 2005
Blocher, Kai: „FPGA Power Dissipation“, 2005
Chen, Jingkai: „Effiziente Synthese temporaler
Eigenschaftsspezifikationen“, 2005
Christensen, Andrea: „Dynamische Synapsen für künstliche neuronale
Netze“, 2005
65
Claßen, Henning: „Evaluation of the FFT on CRC”, 2005
Ehlers, Sabrina: „Plug-in-Integration des Modellprüfers RAVEN in
Eclipse”, 2005
Eisenhardt, Sven: „Documentation for the OOAS using UML (IBM
Rational Rose)”, 2005
Ergin, Tamer: „Entwurf und Implementierung von XSL-Stylesheets zur
Transformation von Hardware-Entwurfsdarstellungen“, 2005
Gebhard, Clemens: „Konflikterkennung zu Ressourcenallokation in
eingebetteten Systemen“, 2005
Haq, Wadood: „Darstellung der Schallkeule von Fledermäusen“, 2005
Hollmann, Lars: „Von der Idee bis zur DVD“, 2005
Hütter, Maximilian: „Automatische AltiVec – Die SIMD-Einheit der
PowerPC Prozessoren“, 2005
Kramer, Simon: „Entwicklung einer SystemC-Umgebung für Eclipse“,
2005
Masekowsky, Stephan: „Modellierung & Integration von Caches und
Write Buffern für superskalare Prozessoren“, 2005
Maslow, Christina: „Entwicklung und Test von Softwarekomponenten
zur Klassifikation von Halbleiterproduktionsdaten“, 2005
Moritz, Sandra, steinhilber Ingrid: „Automatische GUI-Generierung zur
Konfiguration von Simulationspaketen“, 2005
Renner, Christian: „Verhaltensvisualisierung eingebetteter Systeme
durch UML2 Sequenz-Diagramme“, 2005
Steffal, Michael: „Low-Power Entwicklungswerkzeuge“, 2005
Tikhonova, Marina: „Block-Fetch Modelle für superskalare
Prozessoren”, 2005
Waldert, Stephan: „Real-time Access to MEG Data and First
Applications”, 2005
Weinberger, Katharina: „Integration eines USB-IP-Kerns zur
emulationsbasierten Software-Entwicklung auf dem TriCore1“, 2005
66
Yilmaz, Elena: „Anwendung von Clock-Gating für XML-basierte LowPower-Optimierung von digitalen Schaltungen“, 2005
Kebede, Dereje: „Entwicklung eines Werkzeuges zur Transformation
von UML2.0 State-Machines für die Systembewertung“, 2006
67
Liste der Projektpartner 2004-2005
AMD Saxony LLC & Co. KG, Dresden, Uranos
Arexsys S., Meylan, France, Speac
Amtel Germany GmbH, Ulm, AIS
Bull S., Les Clayes-sous-Bois, France, Speac
Cadence Design Systems GmbH, Feldkirchen/München, Speac, AIS
CATENA Software GmbH, Frankfurt/Oder, AIS
Concept Engineering GmbH, Freiburg, AIS
CoWare, Leuven, Belgien, DiSCo
Design&Reuse, Grenoble, France, DiSCo
EADS Astrium GmbH, Friedrichshafen, Speac
ESG Elektroniksystem- und Logistik GmbH, München, DaiSY
ELMOS Semiconductor AG, Dortmund, Vertrag im Rahmen des BMBFVerbundvorhabens „Overall Equipment Effectiveness (OEE)“,
Teilvorhaben „Konzeption zu einbeziehenden Gestaltung des
Faktors Mensch in den Produktionsprozess“
Euro Telematik AG, Ulm, Speac
Fraunhofer-Gesellschaft (IIS/EAS), Dresden, Uranos
GreenSocs Ltd., Cambridge, United Kingdom, GS_GUB
IBM Deutschland Entwicklung GmbH, Böblingen, Kooperationsvertrag
zur Anfertigung und Betreuung von einer „externen“
Dissertation
Projekt Workload Prediction for Workload Management zum
Rahmenvertrag mit IBM über Forschungs- und
Entwicklungsarbeiten vom 29. Juli 2005
IBM Research, Rüschlikon, Schweiz, SPYDER
Infineon Technologies AG, München, Projekt BMBF-Verbundsprojekt
SpeAC
zum
Thema
„System-levelPerformanzabschätzungsmethoden für Modelle unterschiedlicher
Abstraktionsebenen, sowie befehlszyklengenaue Emulation eines
controllers auf einem Prototypingsystem“, AIS, Uranos
Italtel S.p.A., Castelletto di Settimo Milanese, Italien, Speac
Lucent Technologies Network Systems GmbH, Nürnberg, AIS
Melexis GmbH, Erfurt, Speac, AIS
Memscap S., Ismier, France, Speac
MunEDA, GmbH, München, AIS
Netmodule AG, Niederwangen, Schweiz, Speac
Nokia GmbH, Bochum, AIS
PDF Solutions GmbH, AIS
Philips Semiconductors GmbH, Hamburg, AIS
Politecnio di Milano, Milano, Italien, Speac
Prodesign, München, Valse XT
Robert Bosch GmbH, Reutlingen, Projekt Rahmenvertrag B-4009
„Entwurf mikroelektronischer Schaltungen“, Einzelauftrag
„SpeAC“, Einzelauftrag „Valse XT“, Studie SystemC, AIS
Robert Bosch GmbH, Schwieberdingen, „SystemC-Studie“
68
Robert Bosch GmbH, Stuttgart, Vertrag im Rahmen des BMBFVerbundvorhabens „Overall Equipment Effectiveness (OEE)“,
Teilvorhaben „Konzeption zu einbeziehenden Gestaltung des
Faktors Mensch in den Produktionsprozess“
RWTH Aachen, Lehrstuhl für Wärmeübertragung und Klimatechnik,
SFB382
RWTH Aachen, Lehrstuhl für Wärmeübertragung und Klimatechnik,
SPP241
sci-worx GmbH, Hannover, Speac, Uranos
STMicrolectronics S.1, Agrate Brianza, Italien, Speac
Swiss Federal Institute of Technology Zurich (ETH), Zürich, Schweiz,
Speac
Synopsys GmbH, Herzogenrath, Speac
Synopsys, USA, Speac
Tecnotron Elektronik GmbH, Weissensberg, Speac
Thales Communications S. (Thomson-CSF), Gennevilliers, Frankreich,
Speac
TU Chemnitz (SSE), Chemnitz, Uranos
TU Chemnitz (TI), Chemnitz, Uranos
TU München, München, AIS
UJF/TIMA, Grenoble, Frankreich, Speac
TU Braunschweig, Braunschweig, Speac, AIS
Universität Bremen, Bremen, Uranos
Universität Erlangen-Nürnberg, Erlangen-Nürnberg, AIS
Universität Kaiserslautern, Kaiserslautern, AIS
Universität
Mannheim,
Institut
für
Informatik,
Lehrstuhl
Rechnerarchitektur, ATOLL
Universität München, Höchstleistungsrechenzentrum Bayern, LeibnizRechenzentrum, SFB 382
Universität München, Lehrstuhl Integrierte Systeme, Institut für
System- und Schaltungstechnik, Fakultät für Elektrotechnik und
Informationstechnik
Universität Paderborn, Paderborn, AIS
Universität Stuttgart, Höchstleistungsrechenzentrum Stuttgart, SFB
382
Universität Stuttgart, ICA 1, Computational Physics, SFB 382
Universität Stuttgart, Institut für Theoretische und Angewandte
Physik, SFB 382
Universität Stuttgart, Visualisierung und Interaktive Systeme, SFB 382
Universität Trier, Trier, Uranos
Universität Tübingen, Computational Physics, SFB 382
Universität
Tübingen,
Wilhelm-Schickard-Institut,
Graphisch
Interaktive Systeme, SFB 382
Universität Tübingen, Interfakultäres Institut für Zellbiologie,
Landesschwerpunktprogramm Gensequenzanalyse auf PCClustern
Universität Tübingen, Mathematisches Institut, SFB 382
Universität Tübingen, Theoretische Astrophysik, SFB 382
69
Universität Tübingen, Wilhelm-Schickard-Institut, SFB 382,
Landesschwerpunktprogramm Gensequenzanalyse auf PCClustern
VISHAY Semiconductor GmbH, Heilbronn, Entwicklung InfrarotDemonstrator basiert auf Spyder-Plattform
Wirtschaftsministerium
Baden-Württemberg,
ITund
Medienprogramm des Landes Baden-Württemberg, Stuttgart,
Kompetenzvertiefung Embedded Systems
Woodward Governor Company, Stuttgart, Low-Cost-Ethernet
X2E, Kandel, Most Integration
70
Abbildungsverzeichnis
Abb. 1: Plattformbasierter Entwurf von verteilten
eingebettetenSystemen und Systems-on-Chip..........................12
Abb. 2: Designflow zur Modellierung und Analyse von
eingebetteten Systemen mit UML2/SysML ................................13
Abb. 3: Problemaufteilung in Kommunikationsstruktur und
Kontrollflussgraphen zwischen Kommunikationspunkten ......15
Abb. 4: Werkzeugkette ...........................................................................16
Abb. 5: Verfeinerungs-Flow ....................................................................20
Abb. 6: Abbildung von Funktionsblöcken auf NoC-Plattform ..............22
Abb. 7: Autonomes System on Chip mit zwei Ebenen, einer
herkömmlichen funktionalen Ebene und einer autonomen
Ebene, welche die funktionale Ebene überwacht und
gegebenenfalls rekonfigurieren kann.......................................25
Abb. 8: Aufbau des sph2000-Frameworks mit Schnittstellen zur
Konfiguration und Visualisierung..............................................30
Abb. 9: Druckverteilung bei einer Dieselsimulation nach 1200
und 3000 Zeitschritten................................................................31
Abb. 10: Datenfluss der erstellten Software ..........................................34
Abb. 11: Entwurfsablauf: Gemeinsame Verfeinerung von Architektur
und Compiler getrieben durch Anwendungen.......................36
Abb. 12: Extraktion von Simulationsdaten und
Datenbank-Anbindung ............................................................41
Abb. 13: Modulares Systemmodell mit mehreren RTOSInstanzen...................................................................................43
Abb. 14: BT APs Bluetooth Verbindungspunkte....................................46
Abb. 15: Verifikationsebenen .................................................................49
Abb. 16: Entwurf für die barrierefreie Startseite der Technischen
Informatik .................................................................................52
Abb. 17: Benutzeroberfläche der Anwendung JImPeR zur
Verwaltung von Portraits .........................................................53
71
Kontaktadressen
FZI Forschungszentrum Informatik
Systementwurf in der Mikroelektronik (SiM)
Haid-und-Neu-St 10-14
D-76131 Karlsruhe
Tel.: ++49/721/9654-401
Fax: ++49/721/9654-409
E-Mail: reiter@fzi.de
URL: http://www.fzi.de/sim
Universität Tübingen
Fakultät für Informatik
Arbeitsbereich Technische Informatik
Sand 13
D-72076 Tübingen
Tel.: ++49/7071/29-78956
Fax: ++49/7071/29-5062
E-Mail: binder@informatik.uni-tuebingen.de
URL: http://www-ti.informatik.uni-tuebingen.de
72