Vorlesung Betriebssysteme I Organisatorisches

Transcription

Vorlesung Betriebssysteme I Organisatorisches
Vorlesung Betriebssysteme I
Thema 1: Einführung
Robert Baumgartl
12. Oktober 2015
1 / 34
Organisatorisches
I
2/0/2, d. h., 90’ Vorlesung und 90’ Praktikum pro Woche
I
Vorlesung dienstags 15:10 Uhr, Z 211
I
Lehrender: Prof. Robert Baumgartl
Kontakt:
I
I
I
I
I
I
Praktikum in Linux-Laboren (Z 136c/Z 146a)
I
I
I
robert.baumgartl@informatik.htw-dresden.de
dem Subject bitte „[BS1]“ voranstellen
Tel. 462 2510
Raum Z 357
Betreuung durch mich und Laboringenieure (Herr Schubert,
Herr Paul)
Start: 12. 10. 2015
Prüfung: Klausur, 90’, Voraussetzung: Beleg
2 / 34
Vorkenntnisse
Bitte um Handzeichen – Wer hat schon
I
mit Windows gearbeitet?
I
mit Linux (o. a. Unix) gearbeitet?
I
einen der Editoren vi oder emacs genutzt?
I
in C programmiert?
I
make eingesetzt?
I
fork() beim Programmieren benutzt?
I
in der Open-Source-Community mitgewirkt?
I
einen Treiber geschrieben?
3 / 34
Vorkenntnisse II
Wer weiß, was das macht:
char *foo(char *dest, const char *src)
{
while(*dest++ = *src++);
}
. . . und das?
bash$ :(){ :|:&};:
(Vorsicht! Nicht ausprobieren!)
4 / 34
Wozu befassen wir uns mit Betriebssystemen?
... es gibt doch Windows!
Einige Gedanken:
I
Grundlagenfach der Informatik
I
BS gehören zu den komplexesten Softwaresystemen
überhaupt!
aktiver Forschungsgegenstand
I
I
I
I
I
Betriebssysteme-Sicherheit
Skalierbarkeit
Sensornetze
Echtzeitbetriebssysteme
I
Linux!
I
und zuguterletzt: Wir wollen doch kompetent die Frage
beantworten, ob Linux oder Windows besser ist?!
5 / 34
Vorläufige Themenübersicht
1. Einführung
2. Linux in a Nutshell
3. Dateisystem
4. Grundlegende Begriffe, Teil 2
5. Aktivitäten
6. Kommunikation
7. Scheduling
8. Threads (Aktivitäten, die zweite)
9. Synchronisation
7 / 34
Einige Aspekte von Betriebssystemen
I
Bedienung
I
Administration
I
Programmierung für Betriebssysteme
I
Programmierung von Betriebssystemen
I
Abstraktionen für Aktivitäten (Prozesse, Threads,
Coroutinen, Fibers, Tasks)
I
Fehlertoleranz
I
Security & Safety
I
Forensik
8 / 34
Ziel des Kurses
Vermittlung von vorwiegend praktischen Kenntnissen zu
I
Nutzung elementarer Werkzeuge
I
Automatisierung von Bedienhandlungen
I
Interaktion zwischen Applikationen und
Betriebssystem(en)
I
Struktur und Vorgängen innerhalb von Betriebssystemen
I
Unix-artigen und Windows-Betriebssystemen
9 / 34
Eine kurze Geschichte der . . . Betriebssysteme
Andrew Tanenbaum unterscheidet 4 Epochen
1. 1945-55 – Elektronenröhren
I
keine Betriebssysteme
2. 1955-65 – Transistoren
I
I
Mainframes – kommerzielle Computer
Batchsysteme (Ziel: maximale Rechnerauslastung)
3. 1965-75 – niedrig integrierte Schaltkreise
I
I
I
I
I
I
I
IBM System/360 → OS/360 (Ziel: Kompatibilität)
Multiprogramming (mehrere Ausführungseinheiten
gleichzeitig)
Spooling
Timesharing (Ziel: Reduktion der Systemantwortzeit)
MULTICS (ambitioniert, aber erfolglos)
Minicomputer (kleiner als Mainframe; DEC PDP-1. . . -11)
UNIX (portabel, offen, kollaborativ entwickelt)
10 / 34
Eine kurze Geschichte der . . . Betriebssysteme
Andrew Tanenbaum unterscheidet 4 Epochen
4. 1975-heute — hoch integrierte Schaltkreise
I
I
I
I
I
I
I
1976: Prozessor Zilog Z80 → CP/M
etwa ab 1977: Homecomputer (Apple II, C64, . . . )
1979: Prozessor i8088; PC
1980: QDOS → MS-DOS
1984: Apple Macintosh → MacOS (GUI)
1985: Microsoft Windows 1.0
1992: Linux
11 / 34
Plattformen fürs „Personal Computing“
I verkaufte „Personal
Computing Units“ pro
Jahr
I Quelle:
http://twitpic.com/87nbjj
12 / 34
GUI von MacOS (1984)
(http://upload.wikimedia.org/wikipedia/en/5/50/Apple_Macintosh_Desktop.png)
13 / 34
Betriebssysteme
Es gibt:
I
I
I
Windows-Familie (2.0 → 10)
Linux
MacOS X
... das wars, oder?
I
MS-DOS, RTEMS, QNX, FreeBSD, SymbianOS, PalmOS,
RTAI, HP-UX, BeOS, Minix, Chorus, L4, Mach, Amoeba,
OS/390, DCP, TOS, CP/M, VMS, eCos, Contiki, OS/2 . . .
I
vgl. http://de.wikipedia.org/wiki/Liste_der_Betriebssysteme
14 / 34
Betriebssysteme
Es gibt:
I
I
I
Windows-Familie (2.0 → 10)
Linux
MacOS X
... das wars, oder?
I
MS-DOS, RTEMS, QNX, FreeBSD, SymbianOS, PalmOS,
RTAI, HP-UX, BeOS, Minix, Chorus, L4, Mach, Amoeba,
OS/390, DCP, TOS, CP/M, VMS, eCos, Contiki, OS/2 . . .
I
vgl. http://de.wikipedia.org/wiki/Liste_der_Betriebssysteme
15 / 34
UNIX
I
. . . ist kein Betriebssystem, sondern eine ganze Familie
I
Name ist ein Wortspiel aus dem Vorgänger „Multics“ und
„unique“
I
zusammen mit der Programmiersprache C in den 70er
Jahren entwickelt
I
einige Vertreter: *BSD, System V, Linux, HP-UX, AIX,
Solaris, Minix
I
sogar Microsoft hat ein UNIX entwickelt: XENIX (es ist
aber schon lange tot)
I
der zugehörige Standard heißt POSIX
I
beliebt vor allem im Serverbereich (aber nicht nur!)
I
Nutzer haben mit Vorurteilen zu kämpfen . . .
16 / 34
Lizensierungsaspekte
2 grundlegende Ideen:
I
Closed Source: Quellcode ist geheim,
„Betriebsgeheimnis“, steht i. a. nur dem Hersteller zur
Verfügung
I
Open Source: Quellcode steht prinzipiell jedem zur
Verfügung → kann modifiziert und weiterverteilt werden
(und soll dazu ermuntern)
18 / 34
Kommerzielle Lizenzen
I
kann (muss aber nicht) Einblick in Quellcode umfassen
(z. B. für nichtkommerzielle Zwecke)
I
erfordert meist Vertrag („End User License Agreement“
(EULA))
I
typische EULAs sind im EU-Raum jedoch unwirksam (zum
Glück)
Kosten für:
I
Entwicklungswerkzeuge
I
Bibliotheken (z. B. für Protokollstacks oder zum Debugging)
I
Royalties: pro Installation auf Zielgerät
I
(Schulung der Entwickler)
19 / 34
GNU General Public License (GPL)
I
I
Richard Stallman, 1989
Kurzform:
1. Das Werk darf für beliebige Zwecke verwendet werden
(auch kommerziell).
2. Das Werk darf beliebig weitergegeben werden, kostenlos
oder kostenpflichtig. Der Quelltext (auch eigener
Modifikationen) ist mitzuliefern.
3. Das Werk darf beliebig modifiziert werden.
4. Es dürfen keine Einschränkungen an diesen Regeln
erfolgen.
I
enthält sog. starkes „Copyleft“: erzwingt die
Weiterverbreitung von aus freien Werken abgeleiteten
Werken → niemand kann die Verbreitung eines
ursprünglich freies Werk verhindern („Virulenz“)
I
wichtigste Open-Source-Lizenz
I
Beispiele: Linux, eCos, GCC, emacs, vi
20 / 34
Nachteile der GPL
I
untersagt das Vermischen von GPL-Code mit Code, der
unter inkompatibler Lizenz steht (also alle closed source,
aber auch freie Software)
I
→ Binärtreiber bestimmter Grafikkarten sind eigentlich
illegal im Linux-Kern (geduldet; „tainted kernel“)
I
erschwert die Migration zu freier Software, da in
Unternehmen existierende kommerzielle Software nicht
ohne weiteres in diese integriert werden kann
I
Verletzungen werden verfolgt! (gpl-violations.org)
21 / 34
Wozu benötigen wir nun ein Betriebssystem?
1. Bereitstellen von Diensten und dafür notwendigen
Abstraktionen (z. B. „Prozess“, „Datei“, „Gerätetreiber“
u. v. a. m.)
2. Ressourcenverwaltung inklusive Protokollierung
3. Koordinierung paralleler Abläufe
4. Basis für Schutz und Sicherheit
22 / 34
Klassifizierung von Betriebssystemen
Kriterium: Nutzeranzahl
I
Single-User-BS
I
Multi-User-BS
Kriterium: Anzahl unabhängiger Aktivitäten
I
Single-Tasking-BS
I
Multi-Tasking-BS
Kriterium: Kommunikation mit der Umwelt
I
BS zur Stapelverarbeitung (Batchbetrieb)
I
interaktives BS
I
BS für autonome Systeme
23 / 34
Klassifizierung von Betriebssystemen II
Kriterium: Verteilung
I
lokales BS
I
verteiltes BS
Kriterium: Zielarchitektur/Einsatzzweck
I
Serverbetriebssystem
I
eingebettetes Betriebssystem
I
Echtzeitsystem
I
Mainframe-BS
I
BS für Personal Computer
I
BS für Smart Card
I
BS zur Ausbildung/Lehre
24 / 34
Apropos: welches Betriebssystem wird eingebettet
eingesetzt?
Quelle: http://www.eetimes.com/document.asp?doc_id=1263083
25 / 34
Interaktion mit dem Betriebssystem
Paradigmen:
I
vorwiegend textorientiert (Konsole, Shell,
Eingabeaufforderung)
I
grafische Oberfläche (Windows, KDE, Windowmaker)
Die Frage Was ist besser? führt unausweichlich zu Ärger
I
keine Frage des Betriebssystems sondern der
persönlichen Vorliebe
26 / 34
Modellierung und Strukturierung von BS
Problem: BS gehören zu den komplexesten Softwaresystemen
überhaupt! → durch Lesen des Programmcodes kaum zu
verstehen
Technik: Durch Reduktion der möglichen
Kommunikationsbeziehungen zwischen Komponenten
Übersicht schaffen.
27 / 34
Modell 1: Monolithisches System
I
Andrew Tanenbaum: “The Big Mess”
I
jede Routine, Funktion, . . . darf jede andere im System
rufen
unübersehbare Vielfalt potentieller
Kommunikationsbeziehungen
I
kein Information Hiding
I
BS = Sammlung von Funktionen
I
typisch für „historisch gewachsene“ Systeme
I
effizient!
28 / 34
Modell 2: Geschichtetes System
I
Applikation
Steuerungshierarchie
I
Kommunikation nur zwischen Instanzen benachbarter
Schichten
Beispiel: OSI-Schichtenmodell der ISO für
Kommunikationsprotokolle (7 Schichten)
leider kein vergleichbarer Standard in der BS-Technologie
etabliert
Diensthierarchie
I
Dateisystem
Gerätetreiber
Betriebssystem−Kern
Hardware
Abbildung: Beispiel für ein geschichtetes System
I
Gefahr der Ineffizienz
29 / 34
Variante: quasikonsistente Schichtung
I
Schichtung nicht zwingend:
Applikation
COMMAND
DOS
BIOS
I/O
CPU
Applikationen
"Betriebssystem"
Hardware
Abbildung: Quasikonsistente Schichtung im MS-DOS
30 / 34
Beispiel für ein komplex geschichtetes Modell
Windows, and Chapter 4 details management mechanisms such as the registry, service processes,
and Windows Management Instrumentation. Other chapters explore in even more detail the internal
structure and operation of key areas such as processes and threads, memory management, security,
the I/O manager, storage management, the cache manager, the Windows file system (NTFS), and
networking.
Mark Russinovitch et al: Windows Internals. 6th ed., Microsoft Press, 2012, S. 47
System Processes
Session
manager
Local session
manager
Services
Service
control
Windows
DLLs
manager
Applications
Service host
Windows DLLs
Windows DLLs
Windows
DLLs
Print
spoolerDLLs
Windows
Local Security
Windows
AuthorityDLLs
Winlogon
Windows
DLLs
Windows
User
application
SUA
Subsystem DLLs
Windows DLLs
Wininit
Windows DLLs
Environment
Subsystems
Windows DLLs
Windows DLLs
NTDLL.DLL
User mode
Kernel mode
System
threads
System Service Dispatcher
(Kernel mode callable interfaces)
Advanced local
procedure
call
Configuration
manager
Process
manager
Memory
manager
Security
reference
monitor
Plug and Play
manager
Object
manager
Device
and file
system
drivers
Cache
manager
I/O
manager
Windows
USER,
GDI
Graphics
drivers
Kernel
Hardware abstraction layer (HAL)
Hardware interfaces (buses, I/O devices, interrupts,
interval timers, DMA, memory cache control, etc.)
FIGURE 2-3 Windows architecture
CHAPTER 2 System Architecture
47
31 / 34
Modell 3: Client-Server-Modell
I
Diensterbringung durch eine zentrale Instanz
I
Client wendet sich mit Dienst-Wunsch an Server
I
Server erbringt gewünschten Dienst, wenn möglich
I
Beispiele: Speicherverwaltung im BS, NTP-Server,
Drucker-Server, . . .
I
sog. Mikrokern-Architekturen wenden das Prinzip
konsequent auf BS-Komponenten an
32 / 34
Zusammenfassung: Was haben wir gelernt?
1. Es gibt viele BS
2. Was ist UNIX?
3. Lizensierung: Closed Source vs. Open Source
4. Klassifikationskriterien von BS
5. Modellierung/Strukturierung von BS:
I
I
I
monolithisch
geschichtet
Client-Server-Beziehungen
33 / 34
Literaturvorschläge
I
Andrew S. Tanenbaum: Modern Operating Systems.
Pearson Education
I
Richard Stallings: Operating Systems. Fifth Edition,
Prentice-Hall
I
Dokumentation der Geschichte des
Windows-Betriebssystems: http://www.winhistory.de/
I
Ellen Siever, Stephen Figgins, Robert Love, Arnold
Robbins: Linux in a Nutshell. Sixth Edition, O’Reilly, 2009
I
Cameron Newham: Learning the Bash Shell. Third Edition,
O’Reilly, 2005
34 / 34
Vorlesung Betriebssysteme I
Thema 2: Linux in a Nutshell
Robert Baumgartl
05. 11. 2013
1 / 24
Linux
I
bekanntestes Open-Source-Projekt weltweit
I
Multiuser-Multitasking-Betriebssystem
I
Unix-artig
I
Schöpfer: Linus Torvalds
I
primär kommandoorientiert, aber auch mit vielen
(schönen) bunten Oberflächen bedienbar
I
außerordentlich gut skalierbar
I
für sehr viele Plattformen verfügbar (Auswahl): IA-32,
IA-64, Sun SPARC, Motorola 68000, PowerPC, ARM, IBM
S/390, MIPS, HP PA-RISC, Atmel AVR32, AD Blackfin
2 / 24
Im Anfang war ein Posting . . .
From: torvalds@klaava.Helsinki.FI (Linus Benedict Torvalds)
Newsgroups: comp.os.minix
Subject: What would you like to see most in minix?
Summary: small poll for my new operating system
Message-ID: <1991Aug25.205708.9541@klaava.Helsinki.FI>
Date: 25 Aug 91 20:57:08 GMT
Organization: University of Helsinki
Hello everybody out there using minix I’m doing a (free) operating system (just a hobby, won’t be big and
professional like gnu) for 386(486) AT clones. This has been brewing
since april, and is starting to get ready. I’d like any feedback on
things people like/dislike in minix, as my OS resembles it somewhat
(same physical layout of the file-system (due to practical reasons)
among other things).
I’ve currently ported bash(1.08) and gcc(1.40), and things seem to work.
This implies that I’ll get something practical within a few months, and
I’d like to know what features most people would want. Any suggestions
are welcome, but I won’t promise I’ll implement them :-)
Linus (torvalds@kruuna.helsinki.fi)
PS. Yes - it’s free of any minix code, and it has a multi-threaded fs.
It is NOT protable (uses 386 task switching etc), and it probably never
will support anything other than AT-harddisks, as that’s all I have :-(.
3 / 24
Evolution
I
17. September 1991: Version 0.01: 241 KiB, 8413 LoC1
I
13. März 1994: Version 1.0.0: 563 KiB, 170.581 LoC
I
9. Juni 1996: Version 2.0.0: 2.015 KiB, 716.119 LoC
I
9. Oktober 2008: Version 2.6.26.6, mehr als 8 Millionen
LoC
I
2012: Version 3.6, knapp 15 Millionen LoC
I
neueste Version stets hier: http://kernel.org/
1
Lines of Code (Programmzeilen)
4 / 24
Kernel vs. System
Mit Linux i. e. S. ist der Kernel, d. h. , das eigentliche
Betriebssystem gemeint.
Zu einem Linux-System gehört jedoch viel mehr:
I
Basiswerkzeuge zur Bedienung
I
Kommandointerpreter (Shell): bash, ksh, csh, tcsh
I
Entwicklungswerkzeuge: gcc (GNU Compiler Collection)
I
(textbasierte) Applikationen
I
grafische Basisschnittstelle: X Window System
I
Fenstermanager
I
grafische Applikationen
→ Gesamtsystem wird manchmal (korrekter) GNU/Linux
genannt.
5 / 24
Distributionen
I
sind Zusammenstellungen des Kernels, von Applikationen
und Werkzeugen zur Konfiguration, die ein lauffähiges
Gesamtsystem erzeugen
I
vereinfachen den Konfigurations- und Updateaufwand
beträchtlich (Paketmanagement)
unterscheiden sich in vielen Einzelaspekten:
I
I
I
I
I
I
hauptsächliches Einsatzziel Desktoprechner, Server,
eingebettetes System
Einstellung zu proprietären Komponenten
Sprachanpassung (Lokalisierung)
...
Frage nach der besten Distribution führt gemeinhin zu
Meinungsverschiedenheiten
6 / 24
Beispiele für populäre Distributionen
Name
Merkmal
Gentoo
das System wird grundlegend aus den Quellen erzeugt
Fedora
freies Linux der Fa. Red Hat
SUSE
Distribution der Fa. Novell (frei und kommerziell)
Debian
frei, stabil, (meist) etwas veraltete Applikationen
Ubuntu
anfängerfreundlich, frei
Knoppix
bekannte Live-Distribution
DVL
für die Ausbildung in BS-Sicherheit
Openmoko spezialisiert für Smartphones
Siehe auch:
http://de.wikipedia.org/wiki/Liste_von_Linux-Distributionen
http://upload.wikimedia.org/wikipedia/commons/8/8c/Gldt.svg
7 / 24
Womit mache ich . . .
Textverarbeitung? openoffice, LATEX
Kinoabend? mplayer, totem
Instant Messaging? gajim
Diashows? gqview, display
Bildbearbeitung? gimp, Imagemagick
WWW-Recherche? firefox, iceweasel, epiphany
Notensatz? lilypond
Funktionsplotting? gnuplot
Vektorgrafik? xfig
Programmeingabe? vi, emacs, joe
8 / 24
Qual der (Editor-)Wahl
vi
I
auf jedem UNIX-System vorhanden
I
effizient, leichtgewichtig
I
arbeitet im Terminal
emacs
I
kann alles: editieren, Mail und News lesen, browsen,
Terminal bedienen, Kuchen backen . . .
I
sehr flexibel
I
schwierig zu konfigurieren (Lisp)
I
grundlegende Edit-Kommandos sind die gleichen wie in
der Bash
joe ist ein Behelf, der nicht an die Mächtigkeit der anderen
beiden Editoren heranreicht
9 / 24
Neal Stephenson über Emacs
“I use Emacs, which might be thought of as a
thermonuclear word processor. It was created by
Richard Stallman; enough said. It is written in Lisp,
which is the only computer language that is beautiful.
It is colossal, and yet it only edits straight ASCII text
files, which is to say, no fonts, no boldface, no
underlining. If you are a professional writer i.e., if
someone else is getting paid to worry about how your
words are formatted and printed, Emacs outshines all
other editing software in approximately the same way
that the noonday sun does the stars. It is not just
bigger and brighter; it simply makes everything else
vanish.”
(Neal Stephenson, In the Beginning . . . was the Command Line)
10 / 24
Grafische Nutzeroberflächen
I
K Desktop Environment (KDE)
I
GNOME
I
WindowMaker
I
Xfce
I
Ion
I
awesome
Unterscheidungskriterien:
I
’Look & Feel’
I
Tastaturbedienbarkeit
I
Umfang (Startzeit, Ressourcenbedarf)
Frage nach dem besten Windowmanager → Chaos.
11 / 24
Womit schaue ich Dokumente an?
Extension
.chm
.djvu
.doc
.dvi
.jpg
.pdf
.ps
.svg
Betrachter
xchm
djview
openoffice, abiword
xdvi
gqview
acroread, xpdf, evince
gv
Browser
12 / 24
Erste Hilfe
I
man <kommando> zeigt die zugehörige Manualseite
I
info <kommando> dito, jedoch mit emacs-Steuerung
I
apropos <begriff> zeigt zum Suchbegriff gehörige
Kommandos
I
der Schalter --help gibt zu vielen Kommandos nähere
Erklärungen
I
Das WWW bietet eine Fülle von Hilfen für alle Probleme
rund um Linux
13 / 24
Das Manual
I
Manual-Seiten sind in verschiedene Kategorien eingeteilt
(man man)
I
I
I
Shellbefehle, z. B. open
Systemrufe, z. B. open()
Bibliotheksfunktionen, z. B. fopen()
I
mehrere Sektionen pro Seite: NAME, SYNTAX,
BESCHREIBUNG, OPTIONEN, DATEIEN, SIEHE AUCH,
FEHLER, und AUTOR
I
Humorige Bemerkungen sind häufig, vgl. man 3 gets
(unter BUGS) oder man rtfm (, sofern installiert)
14 / 24
Die 20 wichtigsten Kommandos – Teil 1
Kdo.
ls
cd
cp
mv
rm
mkdir
rmdir
chmod
less
cat
w
Zweck
Verzeichnisanzeige (list)
Verzeichniswechsel (change dir)
Kopieren von Dateien (copy)
Bewegen von Dateien/Verzeichnissen (move)
Löschen von Dateien/Verzeichnissen (remove)
Verzeichnis anlegen (make dir)
Verzeichnis löschen (remove dir)
Rechte einer Datei ändern (change mode)
seitenweise Anzeige von Dateien
Anzeige des Dateiinhalts (catalogue)
zeigt an, wer eingeloggt ist (und was er tut)
15 / 24
Die 20 wichtigsten Kommandos – Teil 2
Kdo.
grep
find
man
ps
kill
bg
top
mount
du
ln
Zweck
Suche von Zeichenketten
Suche nach Dateien
Anzeige von Manualseiten
Anzeige von Prozessstatistiken (process state)
Zustellung von Signalen
Programm in den „Hintergrund“ schicken (background)
Anzeige der rechenintensivsten Prozesse
Datenträger einbinden (montieren)
Anzeige des Platzbedarfs von Dateien (disk usage)
Anlegen eines Verweises (Links)
aber: nicht jedes zweibuchstabige Kürzel ist ein Kommando!
16 / 24
Konzept: „Alles ist eine Datei“
3 Kategorien von Dateien:
1. „gewöhnliche“ Datei = unstrukturierte Strom von Bytes
2. Verzeichnis (Directory) = Datei, die Verzeichniseinträge
enthält
3. Spezialdateien:
I
I
I
I
Links (Hard Links, symbolische Links)
Geräte (zeichen- oder blockorientiert)
„named pipes“ (FIFOs)
Sockets
Vorteil: einheitliche Behandlung der abstrahierten Objekte.
17 / 24
Die Shell
I
normaler Nutzerprozess, der kontinuierlich
1. Kommandos einliest,
2. diese ausführt,
3. etwaige Ausgaben des Programms am Bildschirm darstellt.
I
verschiedene: csh, tcsh, ksh, bash
I
Folgen von Shell-Kommandos nennt man Shellscript
I
da die Shell auch Konstrukte für Verzweigungen, Schleifen
und Funktionsaufrufe mitbringt, handelt es sich um eine
Programmiersprache.
I
mächtiges Werkzeug
18 / 24
Einfaches Shellscript
#!/bin/bash
# some sanity checks
if test ! -x ‘which mac‘ ; then
printf "Please install mac first. Aborting.\n"
>&2
exit 127
fi
if test ! -x ‘which lame‘ ; then
printf "Please install lame first. Aborting.\n"
>&2
exit 127
fi
# do the work
for FILE in *.ape ; do
mac "$FILE" "${FILE/ape/wav}" -d
lame -h -b320 "${FILE/ape/wav}" "${FILE/ape/mp3}"
rm -f "${FILE/ape/wav}"
done
exit 0
19 / 24
Shell vs. Grafikoberfläche - kein Widerspruch
20 / 24
Kurzer Rundgang durchs Dateisystem
. . . machen wir interaktiv.
21 / 24
Was haben wir gelernt?
1. UNIX (in der Gestalt von Linux) ist sehr mächtig und sehr
flexibel; es erfordert jedoch eine Portion
Einarbeitungsaufwand.
2. Die Shell wird interaktiv bedient.
3. Shellscripts sind Kommandofolgen der Shell; die Syntax ist
ein wenig kryptisch, man kann sie aber meistern.
4. Das Dateisystem ist ein hierarchischer Baum.
22 / 24
Literaturvorschläge
I
Linus Torvalds und David Diamond: Just for Fun. Wie ein
Freak die Computerwelt revolutionierte, dtv, 2002
I
http://www.bin-bash.de/
24 / 24
Vorlesung Betriebssysteme I
Thema 3: Dateisystem
Robert Baumgartl
9. Februar 2015
1 / 35
Wozu ein Dateisystem?
Aufgaben von Dateisystemen:
I
Verwirklichung sinnvoller Abstraktionen zum Strukturieren
der abzulegenden Information (Datei, Verzeichnis)
I
Management des Freispeichers
Herausforderungen:
I
Langsamkeit der Medien, da meist mechanische
Operationen notwendig
I
Umfang der Informationen
I
Fehlertoleranz
Heterogenität:
I
magnetische Massenspeichermedien
I
optische
I
elektrische
2 / 35
Aufbau einer Festplatte
I
Stapel von rotierenden Magnetplatten, konstante
Rotationsgeschwindigkeit (CAV – Constant Angular
Velocity)
I
Rotationsgeschwindigkeit ca. 5400 – 15000 min−1
I
2-16 Platten
I
konzentrische Spuren (Tracks), ca. 10.000 pro Oberfläche
I
übereinanderliegende Spuren bilden einen sog. Zylinder
I
kleinste ansprechbare Einheit: physischer Block („Sektor“;
512 Byte), z.B. 150-300 Sektoren pro Spur
I
1 Schreib-Lesekopf pro Plattenoberfläche, radiale
Bewegung aller Köpfe gemeinsam
3 / 35
Aufbau einer Festplatte
I
historisch: Adressierung eines Sektors über {Zylinder,
Kopf, Sektor}-Tripel (Cylinder, Head, Sector – CHS)
I
heute: Logical Block Addressing (LBA), einfache
Durchnumerierung aller Blöcke
I
physisches Layout vor Nutzer verborgen: Abbildung
Logischer Blocknummern auf Physische Blocknummern
(LBN → PBN) durch Festplattenelektronik
4 / 35
Schematischer Aufbau einer Festplatte
Spur
Spur
Zylinder
Platte
Abbildung: Seitenansicht
Sektor
Abbildung: Draufsicht
5 / 35
Optische Medien: Compact Disc (CD)
Grundlage: Red Book Standard von Philips und Sony
Standard
Red Book
Yellow Book
Green Book
Blue Book
Orange Book
White Book
-
Kürzel
CD-DA
CD-ROM
CD-I
CD-Extra
CD-R[W]
Video-CD
Photo CD
Bemerkungen
Audio-CD
CD Interactive
Audio+Daten-CD
Recordable CDs
Tabelle: Übersicht relevanter CD-Standards
6 / 35
Fakten zur CD
I
Abtastung mittels eines Infrarotlasers, unterschiedliches
Reflexionsverhalten von Pits und Lands
I
eine (!) Spur (Breite: 0.5 µm), von innen nach außen
gelesen, Abstand 1.6 µm
I
konstante Speicherdichte → Constant Linear Velocity
(CLV) → variable Umdrehungsgeschwindigkeit je nach
Position auf Medium
2 (CD-Audio) bzw. 3 unabhängige
Fehlerkorrektur-Schichten:
I
I
I
I
I
Symbol: 8 Bit Payload pro 14 Bit-Symbol (Eight-to-Fourteen
Modulation, EFM)
P
Frame: SYNC + CTL + 32 Symbole ( 588 Bit, davon 24
Byte Nutzlast)
Sektor: 98 Frames á 24 Byte Nutzlast = 2352 Byte Länge
kleinste adressierbare Einheit: Sektor (CD-ROM)
7 / 35
Welche Dateisysteme gibt es?
BS
MS-DOS
Windows 9x
Windows NT. . . Vista
MacOS
Linux
OS/2
Dateisystem
FAT12, FAT16
VFAT
NTFS
HFS
ext2fs, ext3fs
HPFS
Tabelle: Betriebssystemspezifische Dateisysteme
Gute BS lesen auch die Dateisysteme der „Konkurrenz“, sofern
diese offen liegen.
Zusätzlich gibt es BS-übergreifende Dateisysteme, z. B.
IS09660 (Dateisystem der CD-ROM) oder CIFS.
8 / 35
Grundlegende Abstraktionen: Datei
Datei = „Ansammlung“ von Nutzdaten + Attribute
Beispiele typischer Attribute:
I
Schutz: Wer darf welche Operation mit Datei ausführen?
I
Eigentümer der Datei
I
Beschränkungen der erlaubten Operationen (Read-Only)
I
Beschränkungen der Sichtbarkeit der Datei (Hidden Flag,
.dateiname)
I
Dateiname
I
Zeitstempel (letzter Zugriff, letzte Änderung, Kreation)
I
Größe der Datei
I
Stellung des Dateipositionszeigers
→ stat-Kommando unter Linux
9 / 35
Typen von Dateien
Unterscheidung von Dateitypen
I durch Attribute (Dateinamen, ASCII/binary-Flag),
I durch Dateinamen,
I durch Magic Word.
Ein Magic Word ist eine charakteristische Bytesequenz am
Beginn der Datei, anhand derer ihr Typ identifiziert werden
kann.
Sequenz
JFIF
GIF89a
#!/bin/bash
ELF
Bedeutung
JPEG File Interchange Format
Graphics Interchange Format (V.89a)
Shell-Skript
Executable and Linkable Format
Tabelle: Beispiele für Magic Words
10 / 35
Beispiele: JFIF, PDF
robge@ilpro121:~/txt/job/htw/bs1$ hexdump -C pic/tux2.jpg
00000000 ff d8 ff e0 00 10 4a 46 49 46 00 01 01 01 00 48 |ÿØÿà..JFIF.....H|
00000010 00 48 00 00 ff db 00 43 00 01 01 01 01 01 01 01 |.H..ÿÛ.C........|
00000020 01 01 01 01 01 01 01 01 01 01 01 01 01 01 01 01 |................|
*
00000050 01 01 01 01 01 01 01 01 01 ff db 00 43 01 01 01 |.........ÿÛ.C...|
00000060 01 01 01 01 01 01 01 01 01 01 01 01 01 01 01 01 |................|
...
robge@ilpro121:~/txt/job/htw/bs1$ hexdump -C select-pages.pdf
00000000 25 50 44 46 2d 31 2e 34 0a 38 20 30 20 6f 62 6a |%PDF-1.4.8 0 obj|
00000010 20 3c 3c 0a 2f 4c 65 6e 67 74 68 20 31 32 35 20 | <<./Length 125 |
00000020 20 20 20 20 20 20 0a 2f 46 69 6c 74 65 72 20 2f |
./Filter /|
00000030 46 6c 61 74 65 44 65 63 6f 64 65 0a 3e 3e 0a 73 |FlateDecode.>>.s|
00000040 74 72 65 61 6d 0a 78 da 8d 8e 31 0a c3 30 0c 45 |tream.xÚ..1.Ã0.E|
00000050 77 9f e2 5f c0 8a 24 47 ae bc 17 4a c6 9c a1 43 |w.â_À.$G...JÆ.¡C|
...
11 / 35
Dateinamenskonventionen
Jedes Dateisystem hat Regeln zum Aufbau eines
Dateinamens:
FAT (File Allocation Table) – MS-DOS
I
„berüchtigte“ 8.3-Konvention
I
.COM, .EXE – ausführbare Dateien
I
.BAT – Batchdateien (analog zu Shellskripten)
VFAT – ab Windows 95
I
bis 255 Zeichen lang
I
Unicode-kodiert
I
keine Unterscheidung von Groß- und Kleinschreibung
Unix
I
unterscheidet Groß- und Kleinschreibung
I
name.ext eigentlich unüblich, aber trotzdem genutzt
12 / 35
Wurzelverzeichnis, Pfadtrenner
Wurzelverzeichnis
VFAT: C:\, D:\, . . . , Z:\
Unix: /
VMS: [000000]
Betriebssystem
Windows
Unix
Multics
VMS
Trennsymbol
\
/
>
:
Tabelle: Trennsymbole für Pfadangaben
13 / 35
(Abstrakte) Operationen über Dateien
Operation
Open
Read
Write
Seek
Close
Append
Truncate
Rename
Bemerkungen
Vor eigentlichem Zugriff erforderlich
(sequentiell)
(sequentiell)
Verstellen des Dateipositionszeigers
nicht vergessen
Anfügen von Daten an Dateiende
Datei verkürzen (z. B. auf 0)
Datei umbenennen
14 / 35
Anmerkungen
I
Dateien müssen vor Zugriff geöffnet werden.
I
Lese- und Schreiboperationen nutzen gemeinsam den
Dateipositionszeiger
I
Dieser steht initial auf Position 0 und kann mittels
Seek-Operation beliebig versetzt werden.
I
Lesen und Schreiben versetzt den Dateipositionszeiger
ebenfalls.
I
Wird beim Zugriff das Ende der Datei erreicht, wird i. A.
EOF (End of File) gemeldet
I
Um mit dem Inhalt einer Datei zu arbeiten, muss diese in
den Hauptspeicher transferiert oder eingeblendet werden.
15 / 35
Dateifunktionen der C-Bibliothek
Funktion
fopen()
fclose()
fread()
fwrite()
fprintf()
feof()
ferror()
fseek()
ftell()
flock()
Semantik
Eröffnen
Schließen
Lesen
Schreiben
(formatiertes) Schreiben
Test auf Dateiende
Test auf Fehler
Versetzen des Positionszeigers
Abfrage desselbigen
Sperren einer Datei
mehr: man 3 stdio
16 / 35
C-Bibliotheksfunktionen
I
gepuffert
I
definiert in stdio.h
I
geöffnete Datei wird durch FILE* identifiziert
I
stdin, stdout, stderr
I
betriebssystemeunabhängig (portabel)
I
standardisiert nach ANSI C3.159-1989
17 / 35
Systemrufe zur Dateiarbeit (Unix)
Operation
open()
read()
write()
lseek()
close()
link()
rename()
mmap()
Semantik
Eröffnen der Datei
Leseoperation
Schreiboperation
Verstellen des Dateipositionszeigers
Schließen der Datei
Verweis (Hard Link) auf Datei anlegen
Datei umbenennen
Datei in Hauptspeicher einblenden
18 / 35
Unix-Systemrufe zur Dateiarbeit
I
definiert in <unistd.h>
I
standardisiert in POSIX
I
portabel nur in Unix-Betriebssystemen
I
geöffnete Datei wird durch Dateideskriptor (integer)
identifiziert
19 / 35
Funktionen zur Dateiarbeit (Win32) – kleine Auswahl
Operation
CreateFile()
ReadFile()
WriteFile()
SetFilePointer()
CloseFile()
CreateHardLink()
MoveFile()
CreateFileMapping()
Semantik
Öffnen (kein Witz!)
Lesen
Schreiben
Dateipositionszeiger setzen
Schließen der Datei
(Hard Link) anlegen
Datei umbenennen (u. a.)
Datei in Hauptspeicher einblenden
20 / 35
Systemrufe zur Dateiarbeit (Windows)
I
MSDN listet 114 Funktionen zur Arbeit mit Dateien
I
Identifikation geöffneter Objekte mit Handles
Beispiel:
HANDLE WINAPI CreateFile(
LPCTSTR
lpFileName,
DWORD
dwDesiredAccess,
DWORD
dwShareMode,
LPSECURITY_ATTRIBUTES lpSecurityAttributes,
DWORD
dwCreationDisposition,
DWORD
dwFlagsAndAttributes,
HANDLE
hTemplateFile
);
21 / 35
Einige typische Datei-Kommandos in Unix
Kommando
cp
mv
rm
ln
chmod
chown
dd
shred
stat
Semantik
Kopieren (copy)
Bewegen (move)
Löschen (remove)
Verweis anlegen (link)
Ändern der Zugriffsrechte (change mode)
Ändern des Eigentümers (change owner)
Umleitung von Strömen
sicheres Löschen
Anzeige der Dateiattribute
22 / 35
Kommandos über Massenspeicher und Dateisystem
Kommando
du
df
fdisk
mount
mkfs
fsck
hdparm
Zweck
Schätzen des Speicherbedarfs eines Verzeichnisses
Anzeige Belegungszustand
Partitionierung
Montieren des Datenträgers
Anlegen eines Dateisystems
Prüfen (und Reparieren) der Integrität des
Dateisystems
Detailinformationen zum Massenspeicher
23 / 35
Verzeichnisse („Ordner“)
I
Organisation der Dateien auf Massenspeicher
I
üblich: Hierarchie von Verzeichnissen
I
bevorzugte Datenstruktur: Baum, gerichteter Graph
Wurzelverzeichnis
A
a
B
a
b
Nutzerverzeichnisse
C
c
c
c
Dateien
Abbildung: Zweistufiges Dateisystem
24 / 35
Hierarchien von Verzeichnissen
Wurzelverzeichnis
A
a
B
B
b
Nutzerverzeichnisse
C
c
B
C
b
Unterverzeichnisse
der Nutzer
C
c
C
c
c
c
Nutzerdateien
Abbildung: Typisches hierarchisches Dateisystem
25 / 35
Unix-Systemrufe über Verzeichnissen
mkdir() Anlegen eines neuen Verzeichnisses
rmdir() Löschen eines Verzeichnisses
opendir() Eröffnen
closedir() Schließen
readdir() Sequentielles Lesen der Einträge eines V.
scandir() Gezieltes Suchen von Einträgen innerhalb eines
V.
rewinddir() Zurückstellen des Eintragszeigers
symlink() Anlegen eines Soft Link
26 / 35
Verweise (Links)
I
zusätzliche Verweise auf Verzeichniseinträge
I
Sinn: Vermeidung von Dateikopien, Vereinfachung der
Aktualisierung, Erhöhung der Flexibilität
I
UNIX: 2 Typen – Soft Links, Hard Links
I
Systemrufe link(), symlink()
I
Kommando ln zum Anlegen
27 / 35
Verweise auf Dateien und Verzeichnisse
A
l
B
B
l2
C
c
B
C
C
b
c
C
c
c
c
Abbildung: Beispiele für Verweis auf Datei (rot) und Verzeichnis (blau)
28 / 35
Zugriffsrechte von Dateien
Abstraktion zur Beschränkung des Zugriffs
Wozu?
I Schaden durch
I
I
I
unkundige Nutzer,
bösartige Nutzer und
fehlerhafte Software
zu minimieren
Allgemeines Modell: Zugriffsmatrix
I
Spalten: (passive) Objekte, z. B. Dateien, die
Zugriffsbeschränkungen unterliegen
I
Zeilen: (aktive) Subjekte, z. B. Nutzer oder Prozesse,
deren Zugriff beschränkt werden soll
I
Inhalt der Elemente: erlaubte Operationen, gewährte
Rechte
29 / 35
Beispiel zur Zugriffsmatrix
Nutzer A
Nutzer B
Nutzer C
Datei 1
Own/R/W
R
R/W
Datei 2
Own/R/W
R
I
Zugriffsmatrix i. a. spärlich besetzt
I
→ zwei Wege der Dekomposition
Datei 3
Own/R/W
W
Datei 4
R
Own/R/W
30 / 35
Dekomposition der Zugriffsmatrix
Access Control List (ACL)
I
Dekomposition der Zugriffsmatrix nach Objekten
I
für jedes Objekt wird gespeichert, welches Subjekt welche
Operation mit ihm ausführen darf
im Beispiel:
I
I
I
I
I
Datei 1: A(OWN/R/W), B(R), C(R/W)
Datei 2: B(OWN/R/W), C(R)
Datei 3: A(OWN/R/W), B(W)
Datei 4: B(R), C(OWN/R/W)
Capability List
I
Dekomposition der Zugriffsmatrix nach Subjekten
I
für jedes Subjekt wird gespeichert, auf welche Objekte es
wie zugreifen darf
31 / 35
Beispiele
I
Read-Only Flag im MS-DOS
I
rwxrwxrwx-Abstraktion im klassischen UNIX
I
rwlidka-Rechte im Andrew File System (AFS); (für
Verzeichnisse): read, write, lookup, insert, delete, lock,
administer
32 / 35
Zugriffsrechte in Unix
I
jede Datei hat 3 Rechte: Lesen, Schreiben, Ausführen
I
Rechte werden für 3 Kategorien von Nutzern vergeben:
den Eigentümer, die Gruppe, alle anderen Nutzer des
Systems
I
⇒ 3x3 Bits, die gesetzt oder gelöscht sein können
I
I
Ausführungsrecht für Verzeichnis: man darf
hineinwechseln
Änderung mittels chmod-Kommando
Beispiel:
~> chmod u+rwx g+r-wx o-rwx foo.sh
~> ls -l foo.sh
-rwxr----- 1 robge robge 4 2008-10-28 10:26 foo.sh
33 / 35
Rechte der restlichen Nutzer
Rechte der Gruppenmitglieder
Rechte des Eigentümers
Ausgabe des Kommandos ls -l
Eigentümer
Größe
Zeitpunkt der letzten
Modifikation
Name
−rw−r−−−−− 1 robge if 353400 2008−10−28 10:03 foo.txt
Typ der Datei
Gruppe
Anzahl Verzeichnisse
Abbildung: Ausgebenene Informationen bei ls -l
34 / 35
Zusammenfassung: Was haben wir gelernt?
I
Was sind Datei und Verzeichnis?
I
Dateityp, Namenskonventionen, Pfadsymbole
I
Was versteht man unter Links?
I
typische Kommandos, C-Funktionen und Systemrufe zur
Dateiarbeit
I
Wie werden Zugriffsrestriktionen für Dateien realisiert?
35 / 35
Vorlesung Betriebssysteme I
Thema 4: Grundlegende Begriffe, Teil 2
Robert Baumgartl
9. Februar 2015
1 / 19
Begriffe: Schnittstelle
I
beschreibt den statischen Aspekt einer
Kommunikationsbeziehung
I
Kommunikation über Schnittstelle kann synchron und
asynchron erfolgen
I
kann in Hardware oder in Software vorliegen
Hardwareschnittstellen – Beispiele
I
Peripheral Component Interconnect (PCI)
I
Controller Area Network (CAN)
I
InfiniBand
Softwareschnittstellen = Gesamtheit aller nutzbaren
Funktionen einer Bibliothek, eines Betriebssystems, einer
Middleware (aka API – Application Programmer’s Interface)
Beispiele: POSIX, Win32, Qt-API
2 / 19
Begriffe: Protokoll
I
I
beschreibt den dynamischen Aspekt einer Kommunikation
(also den Ablauf)
Beispiele
I
I
I
Timingdiagramme für das Signalspiel
Semantikbeschreibung von Systemrufen
Präzedenzen für den Aufruf von Funktionen
Protokoll und Schnittstelle bedingen einander!
Es gibt proprietäre und offene Schnittstellen und Protokolle.
3 / 19
Beispiel für (Teil einer) Protokollbeschreibung
Start
open()
read()
write()
close()
Abbildung: Typische Präzedenzen bei Funktionen eines Dateisystems
4 / 19
Protokollbeispiel
Kommunikation eines Kunden mit dem Clerk bei McDonald’s
Clerk
Customer
"Hi."
"Hi."
{"Hi", "Hello"}
"Whaddaya wanna?"
"A Burger."
{"Burger", "Fries",
"Chicken"}
"Anything else?"
{"Yes", "No"}
"No"
"Drink?"
"Large Coke."
{"small", "medium", "large"} x
{"Coke", "Fanta", "Sprite"}
"Takeaway?"
"No."
{"Yes", "No"}
computation
time
"$4.99"
pay
"Bye."
{"Bye", "Get lost!"}
"Bye."
t
5 / 19
Aktivitäten und Ressourcen
In einem Rechensystem gibt es zwei Kategorien von
grundsätzlichen Objekten
1. Aktivitäten: das, was abgearbeitet wird
I
I
I
I
I
I
Task
Prozess
Thread
Routine
...
(siehe später)
2. Ressourcen: das, was Aktivitäten „zum Leben“ benötigen
6 / 19
Ressourcen
I
„alles das, was keine Aktivität ist“
I
Aktivitäten konkurrieren um Ressourcen
I
existieren in allen Schichten eines Systems
I
Beispiele: Datei, Festplatte, Programmcode,
Hauptspeicherblock
I
= Hardware und alle passiven Abstraktionen eines
Rechensystems (d. h. auch CPU und Geräte)
I
besitzen zu jedem Zeitpunkt einen inneren Zustand
(z. B. CPU: Gesamtheit der Inhalte aller Register)
I
Ressourcen werden durch Aktivitäten angefordert,durch
eine zentrale Instanz zugeteilt und nach Nutzung durch die
Aktivität zurückgegeben(← Protokoll!)
7 / 19
Entziehbare Ressourcen
Def. Eine entziehbare Ressource kann nach ihrer Zuteilung der
Aktivität jederzeit entzogen werden. Der Vorgang ist für die
Aktivität transparent.
Ablauf:
1. Aktivität anhalten
2. Zustand der Ressource sichern (z.B. auf Datenträger
schreiben)
3. [Ressource anderweitig verwenden]
4. Zustand der Ressource restaurieren
5. Aktivität fortsetzen
Voraussetzung für Entziehbarkeit:
I
Zustand der Ressource ist vollständig auslesbar
I
Zustand der Ressource kann beliebig manipuliert werden.
8 / 19
Entziehbare Ressourcen - Beispiele
I
CPU (Zustand kann in den Hauptspeicher ausgelagert
werden)
I
Hauptspeicherblock (Zustand kann auf Massenspeicher
ausgelagert werden)
I
Datei
Die meisten Ressourcen sind nicht entziehbar:
I
CPU-Cache
I
Drucker
I
Netzwerkkarte
9 / 19
Exklusiv nutzbare Ressourcen
Def. Eine exklusiv nutzbare Ressource darf zu jedem Zeitpunkt
maximal von einer Aktivität genutzt werden.
I
Beispiele: Hardware, (beschreibbarer) Speicher, zum
Schreiben eröffnete Datei
I
BS muss Exklusivität durchsetzen (→
Synchronisationsmechanismen)
Zuteilung kann mittels verschiedener Strategien erfolgen:
I
I
I
I
Fairness
Minimierung der Wartezeit
Garantie einer maximalen Wartezeit
10 / 19
Klassifikation und Beispiele für Ressourcen
entziehbar
Prozessor, Speicher
gleichzeitig nutzbar
Programmcode, Datei, Speicher
wiederverwendbar
Prozessor, Datei, Speicher
physisch
Prozessor, Speicher, Geräte
nicht entziehbar
Datei, alle verbrauchbaren BM
exklusiv nutzbar
Prozessor, Drucker, Signal
verbrauchbar
Signal, Nachricht, Interrupt
logisch oder virtuell
Datei, Signal, Prozessor (!)
Tabelle: Klassifikation von Ressourcen
11 / 19
Ressourcentransformation
Applikationsebene
Ebene des Filesystems
Ebene der Treiber
Byte einer Datei
log. Block, z.B. 4 kB
phys. Sektor, 512 Byte
Hardware−Ebene
Abbildung: Transformation der Ressource physischer Sektor in Datei
Es kann dabei sogar eine neue Qualität entstehen:
Speicher + Identifikator + Programmcode = neuer Prozess
12 / 19
User Mode und Kernel Mode
I
Idee: nur in einem privilegierten Modus (Kernel Mode)
dürfen alle Operationen ausgeführt werden (z.B. Zugriff auf
die Hardware, Manipulation von systemrelevanten
Datenstrukturen wie der Prozesstabelle)
I
dieser ist dem Betriebssystem vorbehalten
I
Applikationen werden in einem restriktiven Modus (User
Mode) ausgeführt (z.B. erfolgt automatische Prüfung der
Gültigkeit jeder Speicherreferenz)
I
bei Verletzung der Restriktionen wird die Applikation
abgebrochen
I
Unterscheidung Kernel Mode vs. User Mode analog zur
Einteilung Administratoren vs. gewöhnliche Nutzer
I
Ziel: Etablierung eines grundlegenden Schutzkonzeptes
13 / 19
User Mode und Kernel Mode
Was darf man nur im Kernel Mode?
I
neuen Prozess erzeugen
I
Treiber ins System laden oder daraus entfernen
I
generell: Diensterbringung des Betriebssystems
I
nicht jedoch: typische Adminaufgaben
Die CPU muss User Mode/Kernel Mode unterstützen, d.h.,
verschiedene Privilegierungsmodi unterscheiden.
14 / 19
Systemruf
Damit der „gewöhnliche“ Nutzer die Funktionen des Kernels
überhaupt anwenden darf, gibt es den Mechanismus des
Systemrufs.
I
BS bietet dem Programmierer Funktionen, diese werden
über Systemrufe zur Verfügung gestellt
I
Gesamtheit aller Systemrufe eines BS ist dessen
Application Programmer’s Interface (API)
I
Nutzung analog den Funktionen einer Bibliothek mit einem
Unterschied: Diensterbringung erfolgt im Kernel Mode
I
→ gewöhnlicher Funktionsaufruf als Mechanismus
unbrauchbar!
I
Systemrufe können blockieren!
15 / 19
Prinzip eines Systemrufs
User Mode
Kernel Mode
System−
eintritt
Applikation
Betriebssystem
System
ruf
System−
dienst
System−
austritt
16 / 19
Ablauf eines Systemrufs
count = read(fd, buffer, nbytes);
user space
return to caller
library
call
TRAP into kernel
5
put # for read in register
10
4
11
9
adjust stack
6
call read
kernel
space
dispatch
syscall
3
push fd
2
push &buffer
1
push nbytes
7
user
program
8
syscall
handler
Abbildung: Allgemeiner Ablauf eines Systemrufs read()
17 / 19
Ablauf von WriteFile() in Windows 2000/XP/Vista
Win32 application
Call WriteFile(...)
KERNEL32.DLL
Call NtWriteFile()
Return to Caller
NtWriteFile()
in NTDLL.DLL
int 0x2e
Return to Caller
WriteFile() in
Win32−
specific
Used by all
subsystems
User Mode
Kernel Mode
Software Interrupt
SystemService in
NTOSKRNL.EXE
NtWriteFile() in
NTOSKRNL.EXE
Call NtWriteFile()
Dismiss Interrupt
Do the Operation
Return to Caller
Quelle: David Solomon, Inside Windows XP, Microsoft Press, 2000
18 / 19
Was haben wir gelernt?
1. Protokoll und Schnittstelle
2. Ressourcen
I
I
I
entziehbare
exklusiv nutzbare
Ressourcentransformation
3. Kernel Mode und User Mode
4. Was ist ein Systemruf?
19 / 19
Vorlesung Betriebssysteme I
Thema 5: Aktivitäten
Robert Baumgartl
9. Februar 2015
1 / 34
Prozesse
Def. Ein Prozess ist ein in Ausführung befindliches Programm.
I
Lebenszyklus: Erzeugung → Abarbeitung → Beendigung
I
benötigt Ressourcen bei Erzeugung (Hauptspeicher,
eineindeutigen Identifikator PID, Programmcode)
I
benötigt weitere Ressourcen im Laufe seines Lebens, nicht
mehr benötigte Ressourcen gibt er i. a. zurück
I
Jeder Prozess besitzt einen virtuellen Prozessor, d. h.
CPU wird zwischen allen Prozessen geteilt (jeder erhält
CPU für eine gewisse Zeitspanne, vgl. folgende Abbildung)
I
Hauptmerkmal: Jeder Prozess besitzt einen eigenen
Adressraum (jeder Prozess denkt gewissermaßen, er sei
allein im System)
I
Jeder Prozess besitzt einen Vaterprozess sowie u. U.
Kindprozesse
2 / 34
...
...
...
P3
...
P2
...
P1
...
Virtuelle vs. reale CPU
virtuelle
CPU
virtuelle
CPU
virtuelle
CPU
...
Px
...
Transformation
reale
CPU
Abbildung: Virtuelle vs. reale CPU
3 / 34
I Umschaltungeines
zwischen
Prozessen: Context Switch durch
Zustandsmodell
Prozesses
das Betriebssystem
Drei grundlegende Globalzustände werden stets
unterschieden:
aktiv : Prozess wird abgearbeitet. Er besitzt alle
angeforderten Ressourcen und die CPU.
bereit : Prozess besitzt alle angeforderten Ressourcen
jedoch nicht die CPU.
wartend : Prozess wartet auf Zuteilung einer durch ihn
angeforderten Ressource und wird nicht
abgearbeitet.
1
bereit
aktiv
2
3
4
wartend
4 / 34
Zustandsübergänge (Transitionen) bei Prozessen
1. aktiv → bereit: Aktiver Prozess wird verdrängt (Ursache
z. B. höherpriorisierter Prozess wurde bereit oder
Zeitscheibe abgelaufen)
2. bereit → aktiv: wie 1.
3. aktiv → wartend: Aktiver Prozess geht in Wartezustand (er
hat eine Ressource angefordert, deren Zuteilung ihm
verweigert wurde; er blockiert)
4. wartend → bereit: wartender Prozess erhält angeforderte
Ressource schließlich zugeteilt.
5 / 34
Zustandsübergänge cont’d
I
bereit → wartend: unmöglich (ein bereiter Prozess kann
nichts tun, also auch keine Ressource anfordern, die ihm
verweigert wird)
I
wartend → aktiv: nicht sinnvoll (Prozess erhält eine
Ressource, auf die er wartet, rückgebender aktiver
Prozess würde für Ressourcenrückgabe „bestraft“)
I
Es gibt stets einen aktiven Prozess (CPU kann nicht
„leerlaufen“), falls keine Nutzarbeit anliegt
Idle-Prozess
I
Jede Ressourcenanforderung wird irgendwann erfüllt.
I
Prozesszustandsdiagramme in realen Systemen sehen
häufig komplexer aus (sind es aber nicht).
6 / 34
Prozesszustände im Linux-Kernel 2.6
existing task calls
TASK_ZOMBIE
fork() and creates
scheduler dispatches task to run:
schedule() calls context_switch()
a new process
(task is terminated)
task exits via do_exit()
task forks
TASK_RUNNING
TASK_RUNNING
(ready but
not running)
(running)
task is preempted
by higher priority task
task sleeps on wait queue
for a specific event
TASK_INTERRUPTIBLE
or
TASK_UNINTERRUPTIBLE
event occurs and task is woken up
and placed back on the run queue
(waiting)
Quelle: Robert Love, Linux Kernel Development, 2005
7 / 34
Prozesszustände im Windows NT/2000/XP
Create and initialize
thread object
Reinitialize
Initialized
Set object to
signaled state
Terminated
Execution
completes
Place in
ready queue
Thread
waits on
an object
handle
Waiting
Ready
Resources
become
available
Resources
unavailable
Transition
Running
Select for
execution
Preempt
Standby
Preempt
(or time quantum ends)
Contex−switch to it
and start its execution
(dispatching)
Quelle: David Solomon, Inside Windows 2000, Microsoft Press,
2000
8 / 34
Speicherabbild
I
jeder Prozess besitzt eigenen Adressraum (Größe
systemabhängig, typisch 232 Bytes)
I
Adressraum ist exklusiv (Ausnahme:
Shared-Memory-Segmente)
Bestandteile (Abb. 10) eines Adressraums in UNIX:
I
I
I
I
I
Text: Programmcode
Data: initialisierte Daten
BSS: uninitialisierte Daten, “Heap”
Stack
9 / 34
Prinzipieller Adressraumaufbau eines Prozesses
High
Umgebung, Argumente
Stack
"break"
Heap
uninitialisierte Daten
(BSS)
null−initialisiert
initialisierte Daten
Text
aus Datei eingelesen
durch exec()
Low
10 / 34
Prozessverwaltung
I
Prozesse werden unterbrochen und fortgesetzt (Wechsel
zwischen bereit und aktiv)
I
→ alle Informationen, die für Fortsetzung benötigt werden
(= Mikrozustand), müssen archiviert werden
I
→ Prozesstabelle aka Process Control Block (PCB)
I
konkrete Ausprägung der Parameter stark systemabhängig
I
Beispiel eines Eintrags: Tabelle 1
I
Linux: struct task_struct in
include/linux/sched.h; ca. 1.7 kBytes groß
11 / 34
Mikrozustand eines Prozesses
Prozessverwaltung
Speicherverwaltung
Dateiverwaltung
Register
Zeiger auf Text-Segment
Wurzelverzeichnis
Befehlszeiger
Zeiger auf Data-Segment
Arbeitsverzeichnis
Flagregister
Zeiger auf Stack
offene Dateideskriptoren
Globalzustand
User ID
Priorität
Gruppen-ID
Prozess-ID
ID des Vaters
Zeitstempel
erhaltene CPU-Zeit
Tabelle: Typischer Eintrag in der Prozesstabelle
12 / 34
Informationen zu Prozessen: das Kommando ps
gibt tabellarisch zu jedem Prozess des Nutzers aus
I
PID (Prozess-ID)
I
TTY (das zugehörige Terminal)
I
Zustand (Status) des Prozesses
I
die bislang konsumierte CPU-Zeit
I
das zugrundeliegende Kommando
13 / 34
Kommando ps (Fortsetzung)
Kommandoswitches von ps, die Sie brauchen werden:
-A listet alle Prozesse
r listet alle bereiten Prozesse (, die sich die CPU teilen)
X gibt Inhalt des Stackpointers und einiger weiterer Register
aus
f zeichnet Verwandtschaftsverhältnisse mit ASCII-Grafik
(besser: pstree-Kdo.)
-l langes Format (zusätzlich UID, Parent PID, Priorität,
Größe)
Ein falscher Kommandozeilenparameter gibt eine kurze
Zusammenfassung der gültigen Switches aus.
Achtung: Die Syntax der Optionen von ps ist kompliziert;
manchmal mit vorangestelltem ’-’, manchmal ohne.
14 / 34
Weitere wichtige Prozess-Kommandos
I
top - kontinuierliche Prozessbeobachtung
I
pstree - (text-)grafische Veranschaulichung von
Prozessverwandschaften
I
pgrep - Suche nach Prozessen mittels regulärer
Ausdrücke
Beispiel:
pgrep -l "[[:alpha:]]*d\>"
listet die PID und Namen aller Daemon-Prozesse
I
nice - Setzen der Prozesspriorität
I
kill - Senden von Signalen
15 / 34
Erzeugung von Prozessen
I
Nur ein Prozess kann einen anderen Prozess erzeugen
(lassen), z. B. durch
I
I
I
I
I
Mechanismus: Systemruf
I
I
I
Doppelklick auf ein Icon
Eingabe eines Kommandos
Abarbeitung eines Skriptes
Bootvorgang des Rechners
UNIX: fork()
Win32: CreateProcess()
erzeugter Prozess landet zunächst im Bereit-Zustand
16 / 34
Beispiel: Prozesserzeugung im Shellskript
#!/bin/bash
# number of xterms to start
if [ "$1" == "" ]
then
iterations=1
else
iterations=$1
fi
# do the (dirty) work
for (( count=0; count < $iterations; count++))
do
xterm &
done
# finish(ed)
exit 0
17 / 34
Erzeugung eines Unix-Prozesses mittels fork()
pid_t fork (void) ;
I
erzeugt identische Kopie des rufenden Prozesses, mit
differierendem PID und PPID (Parent Process Identificator)
I
beide Prozesse setzen nach fork() fort und sind fortan
unabhängig voneinander
I
Es ist nicht vorhersehbar, ob Vater oder Sohn zuerst
fork() verlassen
Resultat:
I
I
I
Vater: -1 im Fehlerfalle, PID des Sohnes ansonsten
Sohn: 0
I
Vater-Sohn-Verwandschaft
I
Vater und Sohn arbeiten identischen Code ab, haben aber
private Variablen
18 / 34
Typischer Einsatz von fork()
int main(int argc, char* argv[])
{
pid_t ret;
ret = fork();
if (ret == -1) {
printf("fork() failed. Stop.\n");
exit(EXIT_FAILURE);
}
if (ret == 0) { /* Sohn */
printf("Ich bin der Sohn!\n");
exit(EXIT_SUCCESS);
}
else { /* Vater */
printf("Ich bin der Vater!\n");
printf("Der PID des Sohnes betraegt %d.\n", ret);
exit(EXIT_SUCCESS);
}
}
19 / 34
Wieviel Prozesse schlafen?
#include <unistd.h>
int main(void)
{
fork();
fork();
fork();
sleep(60);
return 0;
}
20 / 34
Variablen sind privat
int var = 42;
int main(int argc, char* argv[])
{
pid_t ret;
if ((ret = fork())== -1) {
printf("fork() failed. Stop.\n");
exit(EXIT_FAILURE);
}
if (ret == 0) { /* Sohn */
var = 32168;
printf("Sohns ’var’ hat den Wert %d.\n", var);
sleep(5);
printf("Sohns ’var’ hat (immer noch) den Wert %d
.\n", var);
exit(EXIT_SUCCESS);
}
else { /* Vater */
sleep(2);
printf("Vaters ’var’ hat den Wert %d.\n", var);
exit(EXIT_SUCCESS);
}
}
21 / 34
Die Bibliotheksfunktion system()
int system (const char∗ string) ;
I
führt das Kommando string mittels /bin/sh -c aus
I
string kann Kommando und dessen Parameter enthalten
I
kehrt erst zurück, wenn Kommando beendet wurde
I
kombiniert fork() und exec()
22 / 34
Überlagerung des Prozessabbilds mittels execl()
I
execl() übernimmt (u. a.) eine Pfadangabe einer
ausführbaren Binärdatei als Parameter
I
ersetzt den aktuell abgearbeiteten Programmcode durch
diese Binärdatei
I
springt diesen Code sofort an und beginnt, diesen
abzuarbeiten
I
kehrt nur im Fehlerfalle zurück (z. B. bei falscher
Pfadangabe)
I
Rückkehr in Ausgangsprozess unmöglich (!)
I
Systemruf-Familie: 5 Rufe mit sehr ähnlicher Semantik
(execl(), execle(), execv(), execlp() und
execvp())
I
erzeugt keinen neuen Prozess
23 / 34
Überlagerung des Prozessabbilds mittels execl()
#include <unistd.h>
#include <stdio.h>
#include <stdlib.h>
int main(int argc, char* argv[])
{
int ret;
printf("%s vor Aufruf von execl()\n", argv[0]);
ret = execl("/bin/ls", "ls", NULL);
if (ret == -1) {
printf("execl() ging schief. Und nun?\n");
exit (EXIT_FAILURE);
}
/* wird nicht erreicht ! */
printf("%s nach Aufruf von execl()\n", argv[0]);
exit (EXIT_SUCCESS);
}
24 / 34
Beendigung von Prozessen
Beendigung kann selbst oder durch anderen Prozess erfolgen
(falls dieser die Rechte dazu besitzt)
I
Selbstbeendigung:
I
I
I
I
Verlassen von main(),
return innerhalb von main(),
exit() an beliebiger Stelle im Programm, z. B. als Folge
eines Fehlers
Fremdbeendigung:
I
I
Zustellung eines Signals durch anderen Prozess
fataler Fehler durch den Prozess selbst (Division durch Null,
illegale Instruktion, Referenz eines ungültigen Zeigers, . . . )
25 / 34
Möglichkeit zur Beendigung: durch das System
#include <stdio.h>
int main(int argc, char* argv[])
{
int ret = 42;
int x = 0;
ret = ret / x;
printf("Geschafft!\n");
return 0;
}
Abarbeitung:
robge@ilpro121:~> ./div-by-zero
Gleitkomma-Ausnahme
26 / 34
Möglichkeit der Beendigung: exit (mit Rückkehrcode)
Listing 1: Generierung eines Rückkehrcodes (retval.c)
#include <stdlib.h>
int main(int argc, char* argv[])
{
if (argc==2) {
exit (atoi(argv[1]));
}
else {
exit(42);
}
}
Listing 2: Abfrage des Rückkehrcodes im Shellskript
#!/bin/bash
./retval 14
echo $?
./retval
echo $?
27 / 34
Synchronisation mittels wait()
pid_t wait( int ∗status) ;
I
bringt den rufenden Prozess in den Wartezustand
I
dieser wird (automatisch) wieder verlassen, wenn ein
(beliebiger) Kindprozess terminiert
I
falls kein Kindprozess existiert, wird einfach fortgesetzt
I
status enthält Statusinformationen zum Kindprozess
(u. a. Rückkehrcode)
Resultat:
I
I
I
-1 bei Fehler
PID des beendeten Kindprozesses ansonsten
→ zur Synchronisation zwischen Vater und Sohn nutzbar
28 / 34
Beispiel 1 zu wait()
#include
#include
#include
#include
#include
<sys/types.h>
<sys/wait.h>
<stdio.h>
<stdlib.h>
<unistd.h>
int main(int argc, char* argv[])
{
pid_t ret;
ret = fork();
if (ret == -1) {
perror("fork");
exit(EXIT_FAILURE);
}
if (ret == 0) { /* Sohn */
printf("Sohn geht schlafen...\n");
sleep(10);
printf("Sohn erwacht und endet.\n");
exit(EXIT_SUCCESS);
}
else {
/* Vater */
printf("Vater wartet auf Sohns Ende.\n");
ret = wait(NULL);
if (ret == -1) {
perror("wait");
exit(EXIT_FAILURE);
}
printf("Vater endet (nach Sohn).\n");
exit(EXIT_SUCCESS);
}
}
29 / 34
Beispiel 2 zu wait()
#include <stdio.h>
#include <unistd.h>
#include <sys/wait.h>
int main(int argc,
{
sleep(20);
fork();
sleep(20);
fork();
wait(NULL);
sleep(20);
fork();
sleep(20);
return 0;
}
char* argv[])
/* 1. */
/* 2. */
/* 3. */
Wann sind welche Prozesse im System?
30 / 34
fork(), exec() und wait() zusammen: eine Shell
Eine Shell tut im Prinzip nichts weiter als:
1: loop
2:
Kommando → von stdin einlesen
3:
fork()
4:
Sohnprozess überlagert sich selbst mit Kommando &&
Vater wartet auf die Beendigung des Sohnes
5: end loop
Beispiel: minishell.c (extern, da zu groß)
31 / 34
Windows: CreateProcess()
I
keine Verwandtschaft zwischen Prozessen → keine
Hierarchie
I
legt neuen Adressraum an (→ neuer Prozess)
I
startet in diesem einen Thread, der das angegebene
Programm ausführt
I
gewissermaßen Hintereinanderausführung von fork()
und exec()
BOOL CreateProcess (
LPCTSTR lpApplicationName,
// pointer to name of executable module
LPSTR lpCommandLine,
// pointer to command line string
LPSECURITY_ATTRIBUTES lpProcessAttributes,
LPSECURITY_ATTRIBUTES lpThreadAttributes,
BOOL bInheritHandles,
// handle inheritance flag
DWORD dwCreationFlags,
LPVOID lpEnvironment,
// pointer to new environment block
LPCTSTR lpCurrentDirectory,
// pointer to current directory name
LPSTARTUPINFO lpStartupInfo,
LPPROCESS_INFORMATION lpProcessInformation
);
32 / 34
Ist das alles zu Aktivitäten?
Mitnichten!
I
vfork(), clone(), . . .
I
Threads
I
Coroutinen und Fibers
I
Kommunikation
I
Synchronisation
33 / 34
Was haben wir gelernt?
1. Begriff des Prozesses
2. Zustände und Transitionen zwischen ihnen
3. Prozesserzeugung in Unix mittels fork()
4. Überlagerung des Prozessabbilds mittels exec()
5. Methoden der Prozessbeendigung
6. einfache Synchronisation mittels wait()
34 / 34
Vorlesung Betriebssysteme I
Thema 6: Kommunikation
Robert Baumgartl
9. Februar 2015
1 / 38
Einige Gedanken
Kommunikation = Übertragung von Informationen zwischen
Aktivitäten
I
meist mit Synchronisation (d. h., zeitlicher Koordination)
verbunden
I
Synonym: Inter Process Communication (IPC)
I
Vielzahl an Mechanismen, „historisch gewachsen“
I
Teilnehmer benötigen gemeinsam genutzte Ressource
I
Identifikation/Authentisierung der Teilnehmer erforderlich
2 / 38
Beispiele für IPC-Mechanismen (Auswahl)
I
Datei
I
Pipe
I
Signal
I
benannte Pipe (FIFO)
I
Socket
I
gemeinsam genutzer Speicher (Shared Memory)
I
Nachrichten
I
Mailboxen
I
speichereingeblendete Datei (memory-mapped File)
I
entfernter Prozeduraufruf (Remote Procedure Call)
I
Clipboard
I
...
3 / 38
Kategorisierung von IPC-Mechanismen
Interprozeßkommunikation (IPC)
Synchronisation
Semaphore
Signale
Kommunikation
speicherbasiert
strombasiert
nachrichtenbasiert
Shared Memory
Pipe
Message Passing
Named Pipe
Message Queue
4 / 38
Kommunikationsbeziehungen
Anzahl der Teilnehmer:
I
1:1
I
1:m
I
n:1
I
n:m
Gleichzeitigkeit von Hin- und Rückkanal:
I
unidirektional
I
bidirektional
weitere Aspekte:
I
lokale vs. entfernte Kommunikation
I
direkte vs. indirekte Kommunikation
5 / 38
Synchrone und Asynchrone Kommunikation
Sendeoperation (Send)
I
synchron: Sender wartet (blockiert), bis Empfänger die
Information entgegengenommen hat (implizite Quittung)
I
asynchron: Sender setzt nach dem Senden einer
Nachricht sofort seine Arbeit fort („No-Wait-Send“, „Fire
and Forget“); Beispiel: Telegramm
Empfangsoperation (Receive)
I
synchron: Die Empfangsoperation blockiert den
Empfänger so lange, bis Information eintrifft.
I
asynchron: Empfänger liest Information, falls empfangen
wurde und arbeitet anschließend weiter, auch wenn nichts
empfangen wurde
6 / 38
Synchrone vs. Asynchrone Operationen
synchrone Operationen:
I
direkte Zustellung der Informationen (ohne
Zwischenspeicher)
I
implizite Empfangsbestätigung
I
i. a. einfacher zu programmieren
I
standardmäßig arbeiten Kommunikationsoperationen in
Unix synchron
asynchron:
I
Nachricht muss zwischengespeichert werden
I
Vorteil: wenn ein kommunizierender Prozess abbricht,
dann wird der Partner nicht unendlich blockiert
I
kein Deadlock möglich (gegenseitige Blockierung infolge
fehlerhafter Programmierung)
I
Benachrichtigung des Empfängers u. U. kompliziert
7 / 38
Verbindungsorientierte und verbindungslose
Kommunikation
Ablauf
Beispiele
verbindungsorientiert
verbindungslos
3 Phasen:
Aufbau der Verbindung
Datenübertragung
Abbau der Verbindung
1 Phase:
(analoges) Telefon
TCP
Pipe
Datenübertragung
Telegramm
IP
Signal
8 / 38
Verbindungsarten
Unicast Punkt-zu-Punkt-Verbindung, Direktverbindung, 2
Teilnehmer
Multicast 1 Sender, mehrere (aber nicht alle) Empfänger,
Gruppenruf
Broadcast 1 Sender, alle Empfänger (z. B. eines Subnetzes)
9 / 38
Kommunikation über Datei
I
ältester IPC-Mechanismus
I
Sender schreibt Daten in Datei
I
Empfänger liest Daten aus Datei
I
nachteilig: zweimaliger Zugriff auf Massenspeicher
I
aber: es gibt auch Dateisysteme im RAM
I
nachteilig: überlappender Zugriff durch Sender und
Empfänger
I
Lösung: Sperren der Datei (File Locking), z. B. mittels
lockf()
I
Beispiel: filelock.c (extern)
I
Problem: Sperren setzt Wohlverhalten voraus
10 / 38
Kommunikation mittels Pipe („Röhre“)
int pipe(int filedes[2]);
I
liefert Feld von 2 Dateideskriptoren zurück (einer zum
Lesen, einer zum Schreiben)
I
Zugriff wie auf eine Datei (read(), write(), close()),
jedoch kein open(), lseek()
I
Datenübertragung innerhalb eines Prozesses sinnlos?!
I
Woher weiß Empfänger, dass die Pipe existiert?
11 / 38
Vorgehensweise
1. Prozess ruft pipe() → Pipe wird durch BS angelegt.
2. Prozess ruft fork() (Deskriptoren werden vererbt!).
3. Jeder Prozess schließt einen seiner Deskriptoren.
(Verständigung erfolgt)
4. Datenübertragung mittels read() bzw. write()
5. Beide Prozesse rufen close() → Pipe wird nach zweitem
close() durch BS vernichtet
12 / 38
Veranschaulichung der Pipe-Erstellung
1
π
π
1
fd[0]
fd[1]
R
W
2
fork()
2
fd[0]
fd[1]
R
W
3
fd[0]
fd[1]
fd[0]
fd[1]
R
W
R
W
4
Daten
13 / 38
Eigenschaften der Pipe
I
stets unidirektional (→ für bidirektionale Übertragung 2
Pipes nötig)
I
keine Synchronisation beim Schreiben (Daten werden im
Kern gepuffert)
I
Schreiboperationen, die weniger als PIPE_BUF1 Daten
umfassen, müssen atomar (in einem Rutsch) erfolgen.
I
keine persistente Ressource (verschwindet nach letztem
close())
I
nur zwischen verwandten Prozessen möglich!
1
Linux gegenwärtig: 4096 Bytes; vgl. limits.h
14 / 38
Pipe: problematische Situationen
I
Lesen von einer eröffneten Pipe, die keine Daten enthält,
blockiert. Wird danach die Schreibseite geschlossen, kehrt
read() mit Resultat 0 zurück.
I
Leseoperation aus Pipe mit ungültigem Filedeskriptor –
liefert Fehler EBADF (Bad File Descriptor)
I
Leseoperation aus Pipe, die nach Schreibvorgang
geschlossen wurde – liefert zunächst Daten, dann 0 als
Resultat =
b End of File (EOF)
I
I
Schreiboperation auf Pipe, deren Leseseite geschlossen –
liefert Signal SIGPIPE an schreibenden Prozess
Prozess(e) enden mit eröffneter Pipe – Filedeskriptoren
werden bei Prozessbeendigung automatisch geschlossen
Literatur: man 7 pipe
15 / 38
Anwendungsbeispiel
Pipe-Operator (‘|’) der Shell zur Verknüpfung von stdout des
Senders mit stdin des Empfängers:
robge@ipaetz2:~$ du | sort -n -r | less
Beispiel 2: simplepipe.c (extern)
16 / 38
Putting it all together: popen()
FILE *popen(const char *cmd, const char *type);
I
I
legt eine Pipe an, forkt den rufenden Prozess und ruft im
Kind eine Shell auf, die cmd ausführt
Resultat: Zeiger auf I/O-Strom, der
I
I
I
mit stdin von cmd verbunden ist, wenn type == "w"
oder
mit stdout von cmd verbunden ist, wenn type == "r".
Lese- oder Schreiboperation geschehen also mit Pipe, die
mit ge-fork()-tem Prozess cmd verbunden ist
I
muss mit pclose() geschlossen werden
I
erleichtert Kommunikation C-Programm ↔
Shellkommando
Beispiel: popen.c (extern)
17 / 38
Signale
I
Mittel zur Signalisierung zwischen Prozessen bzw. BS und
Prozessen
I
Übermittlung einer Information, ohne dass Prozess aktiv
beteiligt
I
Ursprung: UNIX
I
Generierung → Zustellung → Behandlung (Reaktion auf
Signal)
I
jedes Signal hat Nummer, Name, Defaultaktion
I
meist (aber nicht immer) keine Datenübertragung
I
Verwandschaft der Partner ist nicht notwendig
18 / 38
Signale – Prinzipieller Ablauf
1. Sende-Prozess generiert ein Signal
2. System stellt das Signal dem Empfänger-Prozess zu
3. Wenn Empfänger Signalhandler installiert hat → Aufruf
des Signalhandlers (asynchron zur Programmausführung)
4. Wenn kein Signalhandler installiert → Ausführung der
Default-Aktion (z. B. Abbruch, Ignorieren)
19 / 38
Signale unter Unix (Übersicht)
Name
SIGHUP
SIGINT
SIGILL
SIGKILL
SIGSEGV
SIGPIPE
SIGCHLD
SIGSTOP
SIGTSTP
SIGCONT
Def.-Aktion
Abbruch
Abbruch
Abbruch
Abbruch
Coredump
Abbruch
Ignoriert
Stop
Stop
Semantik
Verbindung beendet (Hangup)
CTRL-C von der Tastatur
Illegale Instruktion
Sofortige Beendigung
Segmentation Violation
Schreiben in ungeöffnete Pipe
Kind-Prozess beendet
Anhalten des Prozesses
CTRL-Z von der Tastatur
Fortsetzen eines angehaltenen Prozesses
Tabelle: Auswahl von Signalen nach POSIX
vollständige Übersicht: man 7 signal
20 / 38
Senden von Signalen an der Kommandozeile
Senden mit dem (externen) Kommando kill:
robge@hadrian:~$ while true ; do echo -n; done &
[1] 6578
robge@hadrian:~$ kill -SIGQUIT 6578
[1]+ Verlassen
while true; do
echo -n;
done
Generierung bestimmter Signale auch mit der Tastatur möglich:
Signal
SIGINT
SIGQUIT
SIGTSTP
erzeugende Tastaturkombination
Ctrl-C
Ctrl-4 oder Ctrl-\
Ctrl-Z
21 / 38
Signale in der Bash
Einrichtung eines Signalhandlers mittels trap
#!/bin/bash
trap "echo CTRL-C gedrà 14 ckt. Na fein." SIGINT
trap "echo CTRL-Z gedrà 14 ckt. Mach ruhig weiter so."
SIGTSTP
trap "echo Auch SIGQUIT kann mir nix anhaben."
SIGQUIT
echo Entering loop
while true ; do echo -n ; done
Handler wird
I
(asynchron) angesprungen,
I
ausgeführt, und
I
es wird am Unterbrechungspunkt fortgesetzt.
Handler darf nur (externe) Kommandos enthalten, keine
Bash-Instruktionen.
22 / 38
Noch ein Bash-Beispiel
laufschrift.c (extern)
Probieren Sie:
robge@hadrian:~$ ps x
5341 pts/5
S+
5343 pts/0
S+
robge@hadrian:~$ kill
robge@hadrian:~$ kill
robge@hadrian:~$ kill
usw.
| grep "./laufschrift"
0:00 ./laufschrift
0:00 grep ./laufschrift
-SIGSTOP 5341
-SIGCONT 5341
-SIGSTOP 5341
23 / 38
Signale in C – Teil 1: Senden
int kill(pid_t pid, int sig);
I
sendet das durch sig spezifizierte Signal an Prozess mit
PID pid
I
Zuvor wird geprüft, ob der ausführende Nutzer dazu
berechtigt ist.
I
Spezifikation des Signals: SIGHUP, SIGQUIT, SIGKILL
usw., vgl. Headerdatei bits/signum.h
I
wenn pid == -1, dann wird das betreffende Signal an
jeden Prozess geschickt, für den der Nutzer dieses Recht
hat (Vorsicht!)
24 / 38
Was passiert nun bei Zustellung eines Signals?
Behandlung bei Zustellung:
I
nichtabfangbares Signal (KILL, STOP) → zugeordnete
Aktion {Abbruch, Stop} wird ausgeführt
I
abfangbares Signal: wenn kein Signalhandler installiert →
Default-Aktion {Abbruch, Stop, Ignorieren} ausgeführt
I
wenn entsprechender Handler installiert → Handler wird
(asynchron zur Programmausführung) aufgerufen
Anmerkungen:
I
abfangbares Signal kann auch ignoriert werden
25 / 38
Signale in C – Teil 2: Installation eines Signalhandlers
void (*signal(int signum, void (*handler)(int)))(int);
fieses Konstrukt; Analyse:
I
I
signal() ist ein Systemruf
übernimmt 2 Parameter:
I
I
I
signum – Nummer des Signals, für das ein Handler
installiert werden soll
handler – Zeiger auf eine Funktion, die einen Integer
übernimmt und nichts zurückliefert
Rückgabewert: Zeiger auf eine Funktion, die einen Integer
übernimmt und nichts zurückliefert (genauso wie
handler())
26 / 38
Was bedeutet das?
I
Handler ist die Funktion, die angesprungen wird, sobald
das entsprechende Signal zugestellt wird
I
Parameter des Handlers ist die (konkrete) Nummer des
Signals, da es jederzeit möglich ist, einen Handler für
verschiedene Signale zu installieren
Resultat:
I
I
I
SIG_ERR bei Fehler
ansonsten Zeiger auf den vorherigen Handler
Anstatt des Handlers kann auch übergeben werden:
I
I
I
SIG_IGN → Signal soll ignoriert werden
SIG_DFL → Default-Aktion wird eingestellt.
27 / 38
Beispiel 1: Handler für SIGINT (Ctrl-C)
#include
#include
#include
#include
<stdio.h>
<stdlib.h>
<unistd.h>
<signal.h>
long inc = 1;
void ctrl_c_handler (int c)
{
inc = ( (inc==1) ? -1 : 1);
return;
}
int main(void)
{
long count;
sig_t ret;
ret = signal(SIGINT, (sig_t) &ctrl_c_handler);
if (ret == SIG_ERR) {
perror("signal");
exit(EXIT_FAILURE);
}
/* output count continuously */
for (count=0; ; count+=inc) {
printf("%08li\n", count);
}
exit(EXIT_SUCCESS);
}
(signalhandler.c)
28 / 38
Weitere Beispiele zu Signalen
I
Signal bei Ende eines Kindprozesses: sigchld.c (extern)
I
Redefinition des Handlers im Handler: catch_ctrl_c.c
(extern)
I
Selbstabbruch nach definierter Zeitspanne: alarm.c
(extern)
29 / 38
Zwischenfazit: Signale unter POSIX
4 „klassische“ Funktionen:
I
kill()
I
signal()
I
pause() - wartet (passiv) auf ein Signal
I
alarm() - definiert eine Zeitspanne, bis SIGALRM
zugestellt wird („Der Wecker klingelt.“)
30 / 38
Nachteile und Unzulänglichkeiten von Signalen
I
unzuverlässig
I
keine Nutzdatenübertragung
I
keine Priorisierung
I
keine Speicherung (in Warteschlange)
modernere (aber kompliziertere) Signalbehandlung:
sigaction(), sigprocmask() & Co.
31 / 38
Gemeinsam genutzter Speicher (Shared Memory)
I
Idee: Kommunikation über gemeinsamen Speicher
I
keine implizite Synchronisation (!)
I
ohne Adressräume problemlos implementierbar
bei virtuellem Speicher Funktionen des BS nötig:
I
I
I
I
I
I
Anlegen des Segmentes
Einblenden in beide Adressräume
(Datenübertragung)
Ausblenden aus allen Adressräumen
Zerstören des Segments
I
Zugriff auf gemeinsam genutzten Speicher über Zeiger,
überlagerte Datenstrukturen (→ effizient), kein Systemruf
nötig
I
UNIX: shmget(), shmat(), shmdt(), shmctl()
I
Segmente sind i.a. persistent (überleben den anlegenden
Prozess)
32 / 38
Nachrichtenaustausch (Message Passing)
Prinzip
1. Sender konstruiert Nachricht und trägt diese in einen
Puffer ein
2. Sender ruft Funktion send()
3. Nachricht wird durch das System transportiert
4. Empfänger ruft Funktion receive(), der er einen Puffer
übergibt, in den die Nachricht kopiert wird
Analogie: Briefsendung
33 / 38
Nachrichtenaustausch (Message Passing)
Diskussion
I
notwendig, wenn kein gemeinsamer Speicher existiert
(z. B. in verteilten Systemen)
I
jedoch auch mit gemeinsamem Speicher möglich
(z. B. Unix)
I
zwei grundlegende Operationen: send(), receive()
I
synchrone und asynchrone Operation möglich
Beispiele:
I
Message Passing Interface (MPI)
I
Nachrichtenwarteschlangen POSIX (msgrcv(),
msgsnd() usw.)
34 / 38
Synchroner und asynchroner Nachrichtenaustausch
π1
π1
π2
π2
send()
π2
send()
Zeit
receive()
π1
receive()
I.
send()
receive()
II.
III.
Abbildung: I./II. – blockierend, III. nichtblockierend (asynchron)
35 / 38
Kommunikation über Sockets
. . . in der LV „Rechnernetze“
36 / 38
Was haben wir gelernt?
1. Was sind IPC-Mechanismen?
2. ausführlich kennengelernt:
I
I
I
Datenaustausch mittels Datei
die „klassische“ Unix-Pipe
Signale (zumindest in der Bash)
3. kurz angerissen
I
I
Shared Memory
Message Passing
4. nicht behandelt
I
I
Sockets
named Pipes
37 / 38
Testfragen
1. Beschreiben Sie den Ablauf bei der Zustellung eines
Signals!
2. Was ist der Unterschied zwischen synchronem und
asynchronem Senden beim Message Passing?
3. Entwerfen Sie ein C-Programm, das einen Sohn erzeugt
und diesem mittels einer Pipe eine Nachricht zukommen
lässt!
4. Welchen Kommunikationsmechanismus würden Sie
einsetzen, wenn Sie Daten übertragen müssen und die
Teilnehmer nicht verwandt sind?
5. Was ist ein persistenter Kommunikationsmechanismus?
38 / 38
Vorlesung Betriebssysteme I
Thema 7: Zuteilung des Prozessors
Robert Baumgartl
27. Januar 2015
1 / 33
Prozessorzuteilung (Scheduling)
I
= Beantwortung der Frage:
„Welche Aktivität soll zu einem bestimmten
Zeitpunkt abgearbeitet werden (und für wie
lange)?“
I
Komponente im Betriebssystem: der Scheduler (Planer)
I
Verfahren zur Ermittlung einer Abarbeitungsplans
(Schedule)
2 / 33
Typische Zielgrößen
Je nach betrachteter Systemklasse (z. B. Batchsysteme,
Interaktive Systeme, Echtzeitsysteme) existieren verschiedene
zu optimierende Parameter:
I
mittlere Reaktionszeit aller Prozesse
I
mittlere Verweilzeit aller Prozesse (turnaround time)
I
maximale CPU-Ausnutzung
I
maximale Anzahl gleichzeitiger Datenströme
I
Garantie einer maximalen Reaktionszeit
I
Fairness: n Prozesse → jeder 1/n der Prozessorzeit
I
Quality-of-Service (QoS): „Jeder bekommt so viel, wie er
bezahlt hat.“
I
Ausschluss des Verhungerns einzelner Prozesse
3 / 33
Planung anderer Ressourcen
Außer dem Prozessor können (müssen aber nicht) die
folgenden Ressourcen geplant werden:
I
Hauptspeicher,
I
Aufträge an den Massenspeicher,
I
Kommunikationsbandbreite,
I
Interrupts
I
...
Beispiel: Linux besitzt einen sog. I/O-Scheduler, der
Festplattenaufträge plant (d. h. , ggf. umsortiert).
4 / 33
Beispiel: Schedulingebenen in einem Batch-System
CPU
CPU
Scheduler
Arriving Job
Input Queue
Haupt−
speicher
Admission
Scheduler
Disk
Memory
Scheduler
Quelle: Andrew Tanenbaum, Modern Operating Systems. 2000,
S. 141
5 / 33
Off-Line- vs. On-Line-Verfahren
Off-Line
I
komplette Ermittlung des Abarbeitungsplans vor
Inbetriebnahme des Systems
I
Zur Laufzeit des Systems wird der vorbereitete Plan
abgearbeitet (keine Entscheidungen mehr notwendig).
I
inflexibel
I
sehr hohe Auslastung möglich
I
Startzeitpunkte, Ausführungszeiten, Abhängigkeiten aller
Aktivitäten müssen a priori bekannt sein.
I
z. B. bei autonomen oder Echtzeit-Systemen
I
situationsspezifische Pläne möglich, System unterscheidet
mehrere Modi
6 / 33
Off-Line- vs. On-Line-Verfahren
On-Line
I
Auswahl des jeweils nächsten abzuarbeitenden Prozesses
erfolgt zur Laufzeit des Systems.
I
Flexibel: System kann auf Änderungen verschiedener
Parameter, Umwelteinflüsse, Nutzeranforderungen
reagieren
I
keine Zeit für langwierige Auswahlverfahren →
Kompromiss zwischen Optimalität des ausgesuchten
Prozesses und Dauer für die Entscheidung notwendig.
Typische interaktive Betriebssysteme wie Windows oder Linux
planen on-line.
7 / 33
Beispiel für Off-Line-Scheduling
Ein (nicht näher spezifiziertes) Rechensystem bestehe aus 3
Prozessen, die wiederum aus den folgenden unabhängigen
Teilprozessen bestehen (benötigte Rechenzeit in Klammern):
P1 : { p11 (3), p12 (2), p13 (2), p14 (5) }
P2 : { p21 (5), p22 (7) }
P3 : { p31 (5), p32 (2) }
Außerdem bestehen die folgenden expliziten zeitlichen
Abhängigkeiten zwischen den Teilprozessen:
p21 vor p12 , p12 vor p22 , p13 vor p31 ,
p14 vor p32 , p22 vor p32 .
Darüberhinaus müssen die Teilprozesse ein- und desselben
Prozesses hintereinander liegen.
8 / 33
Präzedenzgraph
Die zeitlichen Abhängigkeiten veranschaulicht man am besten
in einem Präzedenzgraphen:
I einen Knoten für jeden Teilprozess
I eine Kante zwischen zwei Knoten genau dann, wenn der
erste Knoten beendet sein muss, bevor der zweite
gestartet werden darf
p11
p14
p13
3
p12
5
2
p31
2
p21
5
p22
5
p32
2
7
Abbildung: Präzedenzgraph des Beispielprozesssystems
9 / 33
Ableitung eines Schedules (off-line)
Verfahren:
1. Bildung der Bereit-Menge B (enthält alle Prozesse, die
abgearbeitet werden können)
2. Auswahl von n Prozessen aus B (n ist die
Prozessoranzahl, im einfachsten Falle also 1) nach
vorgegebenem Kriterium (z. B. „den kürzesten Prozess
zuerst“)
3. Planung der ausgewählten Prozesse für bestimmte
Zeitspanne (im einfachsten Falle: für eine Zeiteinheit)
4. Falls noch nicht alle Prozesse geplant sind → Goto 1
5. Stop
10 / 33
Anwendung auf Beispieltaskmenge
I
I
I
n = 2 (z. B. Dualcore-Prozessor)
Auswahl des jeweils kürzesten Prozesses (Shortest Job
Next)
Abarbeitung ohne Unterbrechung, wenn einmal gestartet
(Run-to-Completion)
Zeit
0
3
5
7
9
14
19
B
p11 , p21
(p21 )
p12
p13 , p22
p14 , p31
p31
p32
Auswahl
p11 , p21
(p21 )
p12
p13 , p22
p14
p31
p31
Tabelle: Schedulingzeitpunkte für Beispiel
11 / 33
Resultierender Schedule
p 11
P1
p 12
0
2
p 31
p 32
p 22
p 21
P2
p 14
p 13
4
6
8
10
12
14
16
18
20
22
Abbildung: Off-Line Schedule für Beispieltaskmenge und ohne
Unterbrechungen
I
Resultat: Gantt-Diagramm (benannt nach dem
Unternehmensberater (!) Henry L. Gantt)
I
Komplettierung des letzten Teilprozesses zu t = 21
I
Prozessoren nicht voll ausgelastet (idle time); Ursache:
Präzedenzen zwischen Teilprozessen
12 / 33
Zeitgesteuertes Scheduling
I
alle Abläufe im System erfolgen in festem zeitlichen
Rahmen, periodisch
I
keine Interrupts → keine unvorhergesehenen Aktivitäten
I
Kommunikation mit externe Komponenten: Abfragen
(Polling)
I
typisch für autonome und Echtzeitsysteme
I
Nutzung von off-line ermittelten Schedules, zwischen
denen umgeschaltet werden kann (Moduswechsel)
I
Beispiel: Medienzugriffsverfahren Time Division Multiple
Access (TDMA)
13 / 33
Time Division Multiple Access
Prinzip:
I Übertragungszeit wird in (unendlich viele) Perioden fester
Länge aufgeteilt
I innerhalb jeder Periode erhält jeder (potentielle)
Kommunikationsteilnehmer 1/n der Periodenlänge, einen
sog. Slot
I in seinem Slot kann jeder senden oder nicht
I → keine Kollisionen möglich
Prozess sendet nicht.
...
0
1
2
3
4
5
6
7
t
Slot
Periode
14 / 33
Ereignisgesteuertes Scheduling
Prinzip:
I
System reagiert auf Einflüsse von außen (Interrupts)
I
Aktivitäten werden als Reaktion auf Interrupts bereit
I
prinzipiell keine Garantie von Ausführungszeiten möglich,
da Auftrittszeitpunkte von Interrupts nicht vorhersehbar
I
typisch für interaktive Systeme
I
Beispiel: Grafische Benutzeroberflächen (Ereignisse:
Mausbewegung, Klick, Tastendruck, aber auch Interrupt
durch die Netzwerkkarte)
15 / 33
Was passiert denn eigentlich beim Interrupt?
Prozess
Instruktion n
Instruktion 1
Instruktion n+1
Instruktion 2
Interruptservice−
Routine (ISR)
Interrupt
Instruktion n+2
IRET
Abbildung: Ablauf einer Interruptbehandlung (vereinfacht)
I
Interrupts sind asynchron zum Programmablauf
I
Quellen: Geräte (I/O), Programm, Betriebssystem
16 / 33
Interrupt: Ablauf in der CPU
Hardware
Device controller or
other system hardware
issues an interrupt
Processor finishes
execution of current
instruction
Software
Save remainder of
process state
information
Process interrupt
Processor signals
acknowledgment
of interrupt
Processor pushes PSW
and PC onto control
stack
Processor loads new
PC value based on
interrupt
Restore process state
information
Restore old PSW
and PC
(William Stallings: Operating
Systems.
6th ed., Pearson, 2009)
Figure 1.10 Simple
Interrupt Processing
17 / 33
Schedulingzeitpunkt beim On-Line Scheduling
Unterbrechung eines aktiven Prozesses:
I durch das BS, (prinzipiell) jederzeit (präemptives
Multitasking):
I
I
I
wenn ein Prozess blockiert (z. B. an Ressource),
wenn ein Prozess bereit wird (z. B. als Reaktion auf einen
Interrupt oder durch eine Ressourcenfreigabe),
wenn ein Prozess endet.
I
durch das BS, jedoch nur an bestimmten Stellen,
sogenannten Preemption Points
I
freiwillig, an bestimmten Stellen, z. B. Systemruf
(kooperatives Multitasking)
I
nach Komplettierung einer Aktivität (run-to-completion)
18 / 33
Prioritäten und Priorisierung
I
(gewollt) unfair, Prozesse besitzen unterschiedliche
Wichtigkeit
I
einfachste Möglichkeit: Fixed External Priorities (FEP))
I
d. h. , jeder Prozess erhält vor der Laufzeit des Systems
einen Parameter fest zugeordnet, der seine Wichtigkeit
ausdrückt, seine Priorität
I
zur Laufzeit wird stets der höchstpriorisierte unter allen
bereiten Prozessen ausgewählt
19 / 33
Prioritäten zum zweiten
Implizite Prioritäten: ein bestimmter Parameter jedes
Prozesses wird „zweckentfremdet“ zur Bestimmung der
Priorität herangezogen.
Beispiele:
I
Länge des Jobs
I
verbleibende Abarbeitungszeit
I
Zeit seit letzter Aktivierung
I
Deadline (Zeit bis zur unbedingten Komplettierung)
20 / 33
Statische und dynamische Prioritäten
Statisch: Priorität eines Prozesses ist konstant.
I
einfacher Scheduler
I
gut zu analysieren
I
nicht besonders flexibel (was ist, wenn sich die Wichtigkeit
eines Prozesses ändert?)
Dynamisch: Priorität eines Prozesses ändert sich mit der Zeit.
I
periodische Neuberechnung (Aufwand!)
I
erlaubt situationsspezifische Anpassungen
I
schwieriger zu analysieren
21 / 33
Uniprozessor- vs. Multiprozessor-Scheduling
I
I
zusätzlich nötige Entscheidung, wo Prozess abgearbeitet
wird
Ziel: Load Balancing
I
I
zu starr: möglicherweise schlechte Ausnutzung der
Prozessoren
zu flexibel: häufiger Wechsel des Prozessors (Thrashing)
→ sehr hoher Overhead
I
ideal: auf einem unbeschäftigten Prozessor fortsetzen
I
günstig: Prozessor, auf dem der Prozess unterbrochen
wurde (Cache, TLB)
I
Parameter Affinität des Prozesses zu einem bestimmten
Prozessor
22 / 33
Round Robin – Zeitscheibenverfahren
Idee: Jeder Prozess erhält den Prozessor für eine bestimmte
Zeitspanne (Quantum tq ), dann ist der nächste dran.
I
Grundgedanke: Fairness
I
tq klein → Umschaltaufwand im Verhältnis zur Nutzarbeit
groß, kleine Reaktionszeit pro Prozess
I
tq groß → relativer Umschaltaufwand klein, Reaktionszeit
pro Prozess groß
I
wichtiger Parameter: Umschaltzeit tcs (Context Switch
Time)
I
Reaktionszeit eines Prozesses abhängig von tcs , Anzahl
Prozesse, tq
I
häufig Kombination mit Prioritäten (RR innerhalb einer
Prioritätsklasse)
23 / 33
Veranschaulichung Round-Robin
t cs
...
P1
P2
P3
P1
...
tq
t rsp
Abbildung: Parameter beim Zeitscheibenverfahren
24 / 33
Beispiel: Einfache Batch-Verfahren
First In First Out (FIFO, FCFS)
I
Prozesse werden in der Reihenfolge ihres Eintreffens
(vollständig abgearbeitet)
I
fair
I
leicht zu analysieren (→ Warteschlangentheorie)
Shortest Job Next (SJN)
I
Idee: schnell ein paar kurze Jobs fertigstellen, bevor alle
auf einen langen Job warten müssen.
I
Prozess mit der kürzesten Dauer wird ausgewählt,
run-to-completion
I
Ausführungszeit muss bekannt sein
I
minimiert mittlere Verweilzeit (t v ) und mittlere Wartezeit
(t w )
I
ungerecht, Verhungern möglich
25 / 33
Beispiel zu SJN
Job
J1
J2
J3
J4
4 Beispieltasks:
J4
0
J1
3
J3
Dauer
6
8
7
3
J2
9
16
24
Abbildung: Resultierender SJN-Schedule
tw =
0 + 3 + 9 + 16
=7
4
tv =
3 + 9 + 16 + 24
= 13
4
26 / 33
Unix
I
I
zeitscheibengesteuert (Quantum)
versucht, 2 Klassen von Prozessen zu unterscheiden und
getrennt zu behandeln:
1. interaktive („I/O-bound“)
2. (vorwiegend) rechnende („compute-bound“)
I
Rechnende Prozesse nutzen ihre Zeitscheibe voll aus
I
Interaktive Prozesse nutzen ihre Zeitscheibe häufig nicht
aus (warten auf Interaktion durch Nutzer oder Gerät; d. h.
blockieren häufig)
wenn Zeitscheibe nicht ausgenutzt, wird Priorität (leicht)
erhöht → Unix bevorzugt interaktive Prozesse:
I
I
I
interaktive Prozesse reagieren besser
rechnende Prozesse werden etwas benachteiligt
27 / 33
Linux?
I
dynamische Prioritäten mit Zeitscheiben
I
genaues Verfahren ziemlich kompliziert
I
jeder interaktive Prozess besitzt einen sog. nice-Value
dieser beschreibt, wie der betreffende Prozess im
Vergleich zu anderen interaktiven Prozessen priorisiert
wird
I
I
I
I
I
-20: höchste Priorität
0: default
19: niedrigste Priorität
Kommandos nice und renice (für bereits laufende
Prozesse) ändern diesen Wert
~> renice 20 -p 24195
24195: old priority 0, new priority 19
Achtung: normale Nutzer dürfen Priorität nur monoton ändern.
28 / 33
Anzeige Priorität und nice-Wert mittels top
top - 14:31:23 up 3:28, 6 users, load average: 1.68, 0.67, 0.30
Tasks: 91 total,
4 running, 87 sleeping,
0 stopped,
0 zombie
Cpu(s): 42.1%us, 44.7%sy, 13.2%ni, 0.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Mem:
256396k total,
239564k used,
16832k free,
31364k buffers
Swap: 1048568k total,
84k used, 1048484k free,
100936k cached
PID
3735
24194
24195
23793
23928
1
2
3
4
5
6
9
10
104
138
139
140
USER
root
robge
robge
robge
robge
root
root
root
root
root
root
root
root
root
root
root
root
PR
16
15
39
15
15
15
RT
34
10
10
11
17
19
10
15
15
10
NI
0
0
19
0
0
0
0
19
-5
-5
-5
-5
-5
-5
0
0
-5
VIRT
161m
7404
5672
9640
7408
1948
0
0
0
0
0
0
0
0
0
0
0
RES
12m
3216
2636
5808
3260
648
0
0
0
0
0
0
0
0
0
0
0
SHR
4400
2244
1412
4272
2264
552
0
0
0
0
0
0
0
0
0
0
0
S
R
S
R
S
R
S
S
S
S
S
S
S
S
S
S
S
S
%CPU %MEM
50.9 4.9
26.6 1.3
15.6 1.0
6.0 2.3
0.3 1.3
0.0 0.3
0.0 0.0
0.0 0.0
0.0 0.0
0.0 0.0
0.0 0.0
0.0 0.0
0.0 0.0
0.0 0.0
0.0 0.0
0.0 0.0
0.0 0.0
TIME+
3:08.68
1:59.25
2:08.29
0:01.57
0:01.82
0:01.14
0:00.00
0:00.00
0:00.08
0:00.00
0:00.00
0:00.00
0:00.00
0:00.02
0:00.01
0:00.08
0:01.04
COMMAND
Xorg
xterm
bash
WindowMaker
xterm
init
migration/0
ksoftirqd/0
events/0
khelper
kthread
kblockd/0
kacpid
kseriod
pdflush
pdflush
kswapd0
29 / 33
Scheduling in Windows 2000/XP/Vista
I
prioritätsgesteuert, präemptiv
31
"real−time" levels
16
15
variable levels
1
0
system level
Abbildung: Prioritätsstufen im Windows 2000/XP
30 / 33
Scheduling in Windows 2000/XP/Vista
I
Round-Robin bei Threads gleicher Priorität
I
Länge des Quantums differiert für Desktop- und
Server-Variante (Server: 6fach länger!)
I
Quantum wird für Vordergrundthreads verdoppelt
temporäre Prioritätsanhebung (Priority Boost) in den
Levels 1-15 u. a. bei
I
I
I
I
Komplettierung einer I/O-Operation
Fensterthreads, die in den Vordergrund gelangen,
Gefahr des Verhungerns.
31 / 33
Prinzip des Priority Boost
tq
Priorität
Basis−
priorität
aktiv
wartend
aktiv
preempted
aktiv
Zeit
32 / 33
Was haben wir gelernt?
1. on-line vs. off-line Scheduling
2. zeitgesteuertes vs. ereignisgesteuertes Scheduling
3. Interrupts
4. kooperatives vs. präemptives Multitasking
5. statische vs. dynamische Prioritäten
6. Round Robin; Einfluss der Zeitscheibenlänge
7. Priority Boost
33 / 33
Vorlesung Betriebssysteme I
Thema 8: Threads (Aktivitäten, die zweite)
Robert Baumgartl
28. 01. 2014
1 / 22
Threads (Leichtgewichtsprozesse)
I
I
Prozess = Container für Ressourcen + (ein)
identifizierbarer Handlungsablauf (“Thread of Execution”)
Idee: Trennung beider Konzepte:
I
I
Prozess = Container für Ressourcen (passiv)
Thread = identifizierbarer unabhängiger Handlungsablauf
(aktiv)
I
→ ein oder mehrere Threads pro Prozess möglich, diese
teilen sich die Ressourcen des Prozesses
I
→ parallele Abarbeitung innerhalb eines Adressraums
Der Begriff „Thread“ ist auch im Deutschen weitestgehend
etabliert, die korrekte Übersetzung „Faden“ benutzen nur
Fanatiker. Eher wird noch „Leichtgewichtsprozess“ eingesetzt.
2 / 22
Veranschaulichung mehrerer Threads
...
...
...
...
...
...
...
P3
...
...
P2
...
...
...
P1
P1
Abbildung: Übergang von mehreren Prozessen zu mehreren Threads
in einem Prozess
3 / 22
Konsequenzen
I
I
I
I
Thread kann nur innerhalb eines Prozesses existieren!
alle Threads eines Prozesses teilen sich dessen
Ressourcen und Adressraum bis auf die Register und den
Stack
⇒ kein Schutz zwischen Threads eines Prozesses
Kooperation im Vordergrund
dem Prozess gehörend
jedem Thread gehörend
Adressraum
Globale Variablen
eröffnete Dateien
Signale
Kindprozesse
Program Counter
Register
Stack (!)
automatische Variablen
Globalzustand
Tabelle: Gemeinsame und private Ressourcen von Threads eines
Prozesses (Beispiele)
4 / 22
Warum Threads?
I
I
I
I
I
feingranulare Parallelität der Verarbeitung
Erzeugung/Vernichtung viel schneller als von Prozessen
effektive Ausnutzung mehrerer CPUs/Kerne
Umschaltung zwischen Threads eines Prozesses schnell
Dekomposition in Threads liefert Performancegewinn,
insbesondere wenn Ein-/Ausgabe-beschränkte
Funktionalität
Abbildung: Textverarbeitung mit 3 Threads (Tanenbaum: Modern
Operating Systems, S.95)
5 / 22
Variante 1: User-Level-Threads
I
I
I
I
I
I
I
Threads werden im User Mode (d.h., ohne Intervention
und Wissen des Betriebssystems) erzeugt, synchronisiert,
vernichtet
Threadbibliothek, die Routinen zum Erzeugen, Beenden,
Synchronisieren und Umschalten von Threads realisiert,
erforderlich
Threadbibliothek übernimmt Management aller Threads
(speichert deren Zustandsinformationen)
Umschaltungvorgang: Sichern und Restaurieren des
Thread-Kontextes (alle Register)
kooperatives Programmiermodell: jeder Thread muss
freiwillig (ab und zu) den Prozessor abgeben
Kernel hat kein Wissen über Threads, kennt (und
verwaltet) nur Prozesse
m:1-Abbildung, d. h. , allen Threads ist genau eine
Kernel-Aktivität zugeordnet, nämlich der zugehörige
Prozess
6 / 22
Veranschaulichung von User-Level-Threads
...
...
T3
...
T2
...
T1
...
...
P1
...
...
Thread Library
User Mode
Kernel Mode
Abbildung: User-Level-Threads
7 / 22
User-Level-Threads, cont’d
Bewertung:
+ kann (auch) für Betriebssystem implementiert werden,
welches kein Threadkonzept kennt (z. B. MS-DOS)
+ Threadoperationen besonders schnell, da kein
Kernein-/austritt, kein Flush der Prozessorcaches, kein
Adressraumwechsel
– blockierender Systemruf blockiert alle Threads eines
Prozesses (verhindert Parallelität), Abhilfe:
? nichtblockierende Systemrufe
? im Vorhinein ermitteln, ob Ruf blockieren wird (z. B. mittels
select()); wenn ja, dann Weiterarbeit eines anderen
Threads
– Page Fault blockiert alle Threads eines Prozesses
– kooperatives Programmiermodell mit freiwilliger Abgabe
des Prozessors erforderlich (da keine unterbrechende
Instanz aka Betriebssystem)
8 / 22
Variante 2: Kernel-Level-Threads
I
1:1-Abbildung (jedem Thread ist genau eine Aktivität des
Kernels zugeordnet)
I
Threads im Kernel verwaltet, dieser verteilt Threads auf
alle existierenden Kerne
I
Threadoperationen teurer, da mit Systemruf (~eintritt,
~austritt) verbunden (z. B. CreateThread() in Win32)
I
Kombinationen aus User-Level- und Kernel-Level-Threads
sind ebenfalls möglich
9 / 22
Veranschaulichung von Kernel-Level-Threads
...
...
T3
...
T2
...
T1
...
...
P1
User Mode
...
...
Kernel Mode
CPU
Abbildung: Kernel-Level-Threads
10 / 22
Transition single-threaded → multi-threaded
Komplexität der Umwandlung traditioneller sequentieller
Programme in multithreaded applications darf nicht
unterschätzt werden!
Einige Problemkreise:
I
globale Systemvariablen, wie errno stehen nur einmal pro
Prozess zur Verfügung
I
nicht reentranter Code, z. B. in Bibliotheken, muss vor
gleichzeitigem Betreten durch mehrere Threads geschützt
werden
I
Signale sind meist prozessspezifisch
I
Management mehrerer Stacks bei User-Level-Threads
11 / 22
Threads in Windows
I
Windows-Welt: beginnend ab Windows NT (Win32-API)
sind Kernel-Level-Threads im System verankert.
I
I
CreateProcess() legt einen neuen Adressraum an und
startet in ihm einen (ersten) Thread
mittels CreateThread() können in einem existierenden
Prozess weitere Threads gestartet werden
I
User-Level-Threads existieren zusätzlich: die so
genannten Fibers
I
d. h. , es können mehrere User-Level-Threads (Fibers) in
einem Kernel-Level-Thread existieren
12 / 22
Threads in Linux
I
ab Kernel 2.0 Bibliothek LinuxThreads
I
weitgehend, aber nicht vollständig, POSIX-kompatibel
I
limitiert (max. Threadanzahl 8192)
I
nicht allzu performant
I
daher ab 2002 Entwicklung der Native POSIX Thread
Library (NPTL)
I
behebt diese Nachteile, voll POSIX-kompatibel
I
1:1-Implementierung (1 Thread pro Kernelaktivität)
I
andere Unixe besitzen u. U. andere
Thread-Implementierungen, die aber stets POSIX-Threads
realisieren
Abfrage der installierten Thread-Version in Linux:
~> getconf GNU_LIBPTHREAD_VERSION
13 / 22
POSIX-Threads (Pthreads)
I
POSIX standardisiert ein Thread-API für Unix-artige
Betriebssysteme
I
API wird Pthreads genannt
I
Standard enthält keine Aussage zur Implementierung der
Funktionen (z. B., ob Kernel- oder User-Level-Threads
realisiert werden sollen)
I
man 7 pthreads
I
auch für Win32 verfügbar (pthreads-w32)
14 / 22
Pthreads-API – Übersicht
pthread_create()
pthread_join()
pthread_exit()
pthread_detach()
pthread_kill()
pthread_attr_init()
pthread_mutex_lock()
pthread_mutex_unlock()
pthread_cond_init()
pthread_cond_wait()
pthread_cond_signal()
Anlegen eines neuen Threads
Warten auf Ende des Threads
Beenden des rufenden Threads
Abkoppeln vom Vater
Zustellung eines Signals an Thread
Init der Thread-Attribute
Synchronisation am Mutex
Anlegen einer Bedingungsvariable
Sync. an Bedingungsvariable
Tabelle: Einige Funktionen der Pthreads-API
15 / 22
Pthreads-Programmierung
I
#include <pthread.h>
I
Linken mit Schalter -lpthread
I
Funktionsnamen beginnen stets mit pthread_
I
alle Funktionen liefern 0 wenn erfolgreich, -1 bei Fehler
I
Threads eines Prozesses kommunizieren über
gemeinsame (globale) Variable
I
IPC nur zu Threads anderer Prozesse
16 / 22
Hello, world mittels Pthreads
# i n c l u d e < p t h r e a d . h>
# i n c l u d e < s t d i o . h>
# i n c l u d e < s t d l i b . h>
# d e f i n e MAXITER 200000
v o i d ∗ t h r e a d _ f ( v o i d ∗arg )
{
p r i n t f ( "world!\n" ) ;
p t h r e a d _ e x i t ( NULL ) ;
}
i n t main ( v o i d )
{
pthread_t a ;
int ret ;
}
p r i n t f ( "Hello, " ) ;
r e t = pthread_create (
&a ,
/∗ p o i n t e r t o v a r i a b l e c o n t a i n i n g t h r e a d ID
NULL ,
/∗ p o i n t e r t o t h r e a d a t t r i b u t e s
( v o i d ∗) &t h r e a d _ f ,
/∗ t h r e a d f u n c t i o n
NULL ) ;
/∗ p o i n t e r t o argument
i f ( r e t != 0) {
p e r r o r ( "creating 1st thread" ) ;
e x i t ( EXIT_FAILURE ) ;
}
p t h r e a d _ j o i n ( a , NULL ) ;
e x i t ( EXIT_SUCCESS ) ;
∗/
∗/
∗/
∗/
17 / 22
Erzeugung eines Threads
int pthread_create(pthread_t *tid, pthread_attr_t
*attr, void* (*start_fkt)(void*), void *arg);
I
erzeugt neuen Thread
I *tid:
Identifikator des neuen Threads
I *attr:
legt Attribute des Threads fest
I *start\_fkt:
Startfunktion
I *arg:
Zeiger auf (beliebiges) Datum, welches der Thread
als Parameter erhält
I
keine Vater-Sohn-Beziehungen; jeder darf create-n und
join-en
18 / 22
Join und Detach
int pthread_join(pthread_t tid, void **ret);
I
Analogon zum waitpid(), wartet auf Ende des Threads mit
Id tid
I
Rückgabewert über ret
I
erst nach join() wird der Thread vernichtet (analog
Zombie-Status)
int pthread_detach(pthread_t tid);
I
macht den Thread un-join-bar, d.h., er wird sofort
vernichtet, wenn er seine Startfunktion verlässt
19 / 22
GNU Portable Threads (GNU Pth)
I
User-Level-Threads für Unix
I
m:1-Implementierung
I
http://www.gnu.org/software/pth/
I
kooperatives Multitasking mit Prioritäten
I
Linken mit Schalter -lpth
20 / 22
Hello, world! mit GNU Pth
# i n c l u d e < p t h . h>
# i n c l u d e < s t d i o . h>
# i n c l u d e < s t d l i b . h>
v o i d ∗p t h _ t h r e a d ( v o i d ∗arg )
{
p r i n t f ( "world\n" ) ;
p t h _ e x i t ( NULL ) ;
}
i n t main ( v o i d )
{
pth_t t i d ;
if
(! pth_init () ) {
p r i n t f ( "No pth lib available\n" ) ;
e x i t ( EXIT_FAILURE ) ;
}
p r i n t f ( "Hello, " ) ;
t i d = pth_spawn (PTH_ATTR_DEFAULT, &p t h _ t h r e a d , NULL ) ;
if (! tid ) {
p r i n t f ( "Could not spawn thread\n" ) ;
e x i t ( EXIT_FAILURE ) ;
}
p t h _ j o i n ( t i d , NULL ) ;
}
return 0;
21 / 22
Was haben wir gelernt?
I
Threads sind eine Abstraktion zur effizienten
Parallelisierung von Programmabläufen.
I
Kernel-Level-Threads ↔ User-Level-Threads
I
Windows bringt beide Arten „von Haus aus“ mit
I
wichtigste Implementierung unter Unix/Linux: Pthreads
I
pthread_create() startet einen neuen Thread
I
pthread_exit() beendet einen Thread (oder: Verlassen
der Threadfunktion)
22 / 22