primecluster™ 4.2a20 - Fujitsu manual server

Transcription

primecluster™ 4.2a20 - Fujitsu manual server
Dokuschablonen DIN A5 V7.31de für FrameMaker V7.x vom 07.03.2007
by S. Thums Services&Tools © cognitas GmbH 2002-2007
7. Mai 2009 Stand 08:30.46
PRIMECLUSTER™ 4.2A20
Data Management Tools (Solaris™)
Ausgabe April 2009
Pfad: D:\Daten\PCL\4.2A20Sol\u42128.4\d\42128d44.vor
Kritik… Anregungen… Korrekturen…
Die Redaktion ist interessiert an Ihren Kommentaren zu
diesem Handbuch. Ihre Rückmeldungen helfen uns, die
Dokumentation zu optimieren und auf Ihre Wünsche und
Bedürfnisse abzustimmen.
Sie können uns Ihre Kommentare per E-Mail an
manuals@ts.fujitsu.com senden.
Zertifizierte Dokumentation
nach DIN EN ISO 9001:2000
Um eine gleichbleibend hohe Qualität und
Anwenderfreundlichkeit zu gewährleisten, wurde diese
Dokumentation nach den Vorgaben eines
Qualitätsmanagementsystems erstellt, welches die
Forderungen der DIN EN ISO 9001:2000 erfüllt.
cognitas. Gesellschaft für Technik-Dokumentation mbH
www.cognitas.de
Copyright und Handelsmarken
Copyright © 2009 Fujitsu LIMITED.
Alle Rechte vorbehalten.
Liefermöglichkeiten und technische Änderungen vorbehalten.
Alle verwendeten Hard- und Softwarenamen sind Handelsnamen und/oder Warenzeichen der jeweiligen
Hersteller.
Dieses Handbuch wurde erstellt von
cognitas. Gesellschaft für Technik-Dokumentation mbH
www.cognitas.de
Dieses Handbuch wurde
auf chlorfrei gebleichtem
Papier gedruckt.
Inhalt
1
Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1
Inhalt des Handbuchs . . . . . . . . . . . . . . . . . . . . . . 7
1.2
PRIMECLUSTER Dokumentation . . . . . . . . . . . . . . . . 8
1.3
1.3.1
1.3.1.1
1.3.1.2
1.3.1.3
1.3.1.4
1.3.1.5
1.3.2
Darstellungsmittel . . . . . . . . . . . .
Schreibweise . . . . . . . . . . . . . . .
System-Eingabeaufforderung (Prompts)
Tastatur . . . . . . . . . . . . . . . . .
Schriftarten . . . . . . . . . . . . . . .
Beispiel 1 . . . . . . . . . . . . . . . .
Beispiel 2 . . . . . . . . . . . . . . . .
Kommandosyntax . . . . . . . . . . . . .
1.4
Wichtige Hinweise und Warnungen . . . . . . . . . . . . . . 12
2
Volume Manager (RCVM)
2.1
Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2
Anforderungen zur Unterstützung von RCFS
2.3
2.3.1
2.3.2
2.3.3
2.3.4
2.3.4.1
2.3.4.2
2.3.4.3
2.3.4.4
2.3.4.5
2.3.4.6
2.3.4.7
2.3.4.8
2.3.4.9
2.3.4.10
2.3.5
2.3.6
2.3.7
Typen virtueller Platten . . . . . . . . .
Einfache (simple) virtuelle Platten . . . . .
Verkettete virtuelle Platten . . . . . . . . .
Aufgeteilte virtuelle Platten (RAID0) . . . .
Gespiegelte virtuelle Platten (RAID1) . . .
Struktur von Spiegelplatten . . . . . .
Funktionen von Spiegelplatten . . . . .
Implementieren von Spiegelplatten . .
Zustände von Spiegelplatten . . . . . .
Catch-Up-Prozess . . . . . . . . . . .
Dirty Region Log (DRL)-Prozess . . .
Fehlerbehebung auf Spiegelplatten . .
Arbeiten mit Spiegelplatten . . . . . .
Meldungen des Spiegelplatten-Treibers
Spiegeln von root-Platten . . . . . . .
Virtuelle statesave- und statsv-Platten . .
Virtuelle DRL-Platte . . . . . . . . . . . .
Hinzufügen eines Knotens . . . . . . . . .
U42128-J-Z100-4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 9
. 9
10
10
10
11
11
11
. . . . . . . . . . . . . . . . . . . 13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . 14
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
15
16
18
20
20
21
22
23
27
30
30
31
32
33
35
37
38
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.ivz
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Inhalt
2.4
2.4.1
2.4.2
2.4.2.1
2.4.2.2
2.4.2.3
2.4.3
Konfigurieren virtueller Platten . . . . . . . . . . . . . .
Grenzwerte und Rahmenbedingungen . . . . . . . . . . .
Konfiguration . . . . . . . . . . . . . . . . . . . . . . . .
Bearbeiten der Konfigurationsdatei /etc/dktab . . . . .
Virtuelle Platten in einer OPS-Umgebung konfigurieren
Mit dkconfig(1M) und dkmirror(1M) konfigurieren . . . .
Beispielkonfiguration . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
2.5
2.5.1
2.5.2
. . . 54
. . . 54
2.5.3
2.5.4
Online-Rekonfiguration einer Spiegelplatte . . . . . . .
Spiegelplatte mit einem definierten Piece konfigurieren . .
Neues Spiegel-Piece zu einer konfigurierten Spiegelplatte
hinzufügen . . . . . . . . . . . . . . . . . . . . . . . . .
Piece von einer konfigurierten Spiegelplatte entfernen . .
Root Mirror . . . . . . . . . . . . . . . . . . . . . . . . .
2.6
2.6.1
2.6.2
Label-basierte Konsistenzprüfung . . . . . . . . . . . . . . . 59
Besonderheiten bei Installation und Aktualisierung . . . . . . . . 60
Besonderheiten beim Betrieb . . . . . . . . . . . . . . . . . . . 61
2.7
2.7.1
2.7.2
2.7.2.1
2.7.2.2
Besonderheiten bei gespiegelten root-Platten
Beispiel einer gespiegelten root-Platte . . . . . .
Deaktivierung der root-Spiegelung . . . . . . . .
Deaktivierung . . . . . . . . . . . . . . . . .
Aktivierung . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
63
70
70
73
2.8
2.8.1
2.8.2
2.8.3
2.8.4
Select vdisks . . . . . . . . . .
Eigenschaften von select vdisks
Hardware . . . . . . . . . . . .
Konfiguration von select vdisks .
Arbeiten mit select vdisks . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
74
74
74
74
75
3
File Share (RCFS) . . . . . . . . . . . . . . . . . . . . . . . . 77
3.1
RCFS-Komponenten . . . . . . . . . . . . . . . . . . . . . . . 78
3.2
Unterschiede zwischen RCFS und NFS . . . . . . . . . . . . 79
3.3
RCFS-Gerätenamen und Major/Minor Device Numbers . . . . 80
3.4
Knotengruppen . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.5
RCFS-Dateisysteme einhängen
3.6
Automatisches Failover des RCFS-Dateisystem-Servers . . . 83
3.7
RCFS-Dateisysteme aushängen . . . . . . . . . . . . . . . . 84
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
39
42
42
46
47
52
. . . 56
. . . 57
. . . 58
. . . . . . . . . . . . . . . . 81
U42128-J-Z100-4
Inhalt
3.8
Beispiel für RCFS-Eintrag in /etc/vfstab . . . . . . . . . . . 84
3.9
3.9.1
3.9.2
3.9.3
RCFS-Kommandos
rcfs_fumount . . . .
rcfs_list . . . . . . .
rcfs_switch . . . . .
4
Manual-Pages . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.1
CCBR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2
CF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.3
CFS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4
CIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.5
CPAT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.6
Monitoring-Agent . . . . . . . . . . . . . . . . . . . . . . . . 93
4.7
PAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.8
RCVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.9
PCS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.10
Ressourcendatenbank . . . . . . . . . . . . . . . . . . . . . 95
4.11
RMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.12
RMS Wizards . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.13
SCON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.14
SF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.15
SIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.16
Web-Based Admin View . . . . . . . . . . . . . . . . . . . . 98
U42128-J-Z100-4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
85
86
89
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.ivz
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Inhalt
5
Anhang – Systemparameter . . . . . . . . . . . . . . . . . 101
Abkürzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Fachwörter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Bilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Stichwörter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
U42128-J-Z100-4
1
Vorwort
PRIMECLUSTER™ Data Management Tools bieten Virtual Disk- und Shared
File System-Management in einem Knoten-Cluster. Dieses Handbuch
beschreibt die Konfigurations- und Verwaltungsverfahren der Tools in dieser
Suite.
Das Handbuch richtet sich an Systemverwalter und Programmierer, die mit der
Installation und Pflege vernetzter Dateisysteme vetraut sind. Es wird angenommen, dass der Leser mit Folgendem vertraut ist:
●
Produktfamilie PRIMECLUSTER
●
Betriebssystem Solaris™ OE
1.1
Inhalt des Handbuchs
Dieses Handbuch ist wie folgt aufgebaut:
●
Das Kapitel „Volume Manager (RCVM)“ beschreibt das RCVM-Konzept für
Festplatten, die beiden wesentlichen Typen virtueller Platten und ihre Funktionsweise und enthält detaillierte Informationen zur Konfiguration aller
Arten von virtuellen Platten.
●
Das Kapitel „File Share (RCFS)“ erläutert das PRIMECLUSTER File Share,
das die Nutzung eines Dateisystems durch alle oder mehrere Knoten eines
Cluster ermöglicht.
●
Das Kapitel „Manual-Pages“ enthält eine Liste der Manual-Pages zu CF, CIP,
SF, Ressourcendatenbank, RMS, SIS und SCON.
●
Das Kapitel „Anhang – Systemparameter“ erläutert das Einstellen von
Systemparametern für RCFS.
U42128-J-Z100-4
7
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
PRIMECLUSTER Dokumentation
1.2
Vorwort
PRIMECLUSTER Dokumentation
Die unten aufgeführten Dokumente enthalten detaillierte Informationen über
PRIMECLUSTER-Produkte.
Die Bücher können im Internetshop http://manualshop.ts.fujitsu.com bestellt werden.
●
Freigabemitteilungen für alle Produkte—Diese Dokumentationsdateien
werden als html-Dateien auf der PRIMECLUSTER-CD mitgeliefert. Hier finden Sie aktuelle Informationen zu Installation, Konfiguration und Betrieb von
PRIMECLUSTER. Lesen Sie diese Informationen unbedingt zuerst.
●
Konzept (Solaris, Linux)—Dieses Handbuch enthält Einzelheiten über das
Konzepte der PRIMECLUSTER-Produktreihe.
●
Installationshandbuch (Solaris)—Dieses Handbuch enthält die für die Installation und den Upgrade von PRIMECLUSTER-Produkten erforderlichen Informationen.
●
Installationshandbuch (Linux)—Dieses Handbuch enthält die erforderlichen
Informationen für die Installation und den Upgrade von PRIMECLUSTER
unter Linux.
●
Web-Based Admin View (Solaris, Linux) Operation Guide—Dieses Handbuch
enthält Informationen zur Verwendung des Management-GUI für WebBased Admin View.
●
Cluster Foundation (CF) (Solaris) Konfigurieren und Verwalten—Enthält Anweisungen zur Konfigurierung und Verwaltung der PRIMECLUSTER Cluster
Foundation.
●
Cluster Foundation (CF) - Konfigurieren und Verwalten (Linux)—Dieses Handbuch enthält Anweisungen zur Konfigurierung und Verwaltung der
PRIMECLUSTER Cluster Foundation unter Linux.
●
Reliant Monitor Services (RMS) mit Wizard Tools (Solaris, Linux) Konfigurieren
und Verwalten—Dieses Handbuch enthält Anweisungen zur Konfigurierung
und Verwaltung der PRIMECLUSTER Reliant Monitor Services mithilfe der
Schnittstelle Wizard Tools.
●
Reliant Monitor Services (RMS) mit PCS (Solaris, Linux) Konfigurieren und
Verwalten—Dieses Handbuch enthält Anweisungen zur Konfigurierung und
Verwaltung der PRIMECLUSTER Reliant Monitor Services mithilfe der
Schnittstelle PCS (PRIMECLUSTER Configuration Services).
8
U42128-J-Z100-4
Vorwort
Darstellungsmittel
●
Reliant Monitor Services (RMS) (Solaris, Linux) Reference Guide—Dieses Handbuch beschreibt Diagnoseverfahren zur Lösung von RMS-Konfigurationsproblemen, einschließlich der Betrachtung und Interpretation von RMS-LogDateien. Es stellt eine Liste aller RMS-Fehlermeldungen mit möglicher
Ursache und einem Handlungsvorschlag für jeden Fall bereit.
●
Scalable Internet Services (SIS) (Solaris, Linux) Konfigurieren und
Verwalten—Dieses Handbuch enthält Informationen zur Konfigurierung und
Verwaltung von Scalable Internet Services (SIS).
●
Global Disk Services (Solaris) Configuration and Administration Guide—Dieses
Handbuch enthält Informationen zur Konfigurierung und Verwaltung von
Global Disk Services (GDS).
●
Global File Services (Solaris) Configuration and Administration Guide—Dieses
Handbuch enthält Informationen zur Konfigurierung und Verwaltung von
Global File Services (GFS).
●
Global Link Services (Solaris, Linux) Configuration and Administration Guide:
Redundant Line Control Function—Dieses Handbuch enthält Informationen
zur Konfigurierung und Verwaltung der "Redundant Line Control"-Funktion
für Global Link Services (GLS).
●
Global Link Services (Solaris) Configuration and Administration Guide: Multipath
Function—Dieses Handbuch enthält Informationen zur Konfigurierung und
Verwaltung der Multipath-Funktion für Global Link Services (GLS).
●
SNMP Referenzhandbuch (Solaris, Linux)—Dieses Handbuch enthält Referenzinformationen zum Produkt Simple Network Management Protocol
(SNMP).
1.3
Darstellungsmittel
Um die Handbuchinhalte in einem einheitlichen Format darzustellen, wurde dieses Handbuch nach bestimmten Vorgaben für Schreibweise, Schriftart und
Kommandosyntax aufgebaut.
1.3.1
Schreibweise
In diesem Handbuch wird die im Folgenden beschriebene Schreibweise verwendet.
U42128-J-Z100-4
9
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Vorwort
Darstellungsmittel
1.3.1.1
System-Eingabeaufforderung (Prompts)
Vor Beispielen für Kommandozeilen, die nur vom Systemverwalter (bzw. Root)
ausgeführt werden können, steht eine Systemverwalter-Eingabeaufforderung,
das Nummernzeichen (#). Eingaben, für die keine Systemverwalter-Berechtigung benötigt wird, werden mit voranstehendem Dollarzeichen ($) gekennzeichnet.
1.3.1.2
Tastatur
Wenn Tasten betätigt werden sollen, die keine druckbaren Zeichen erzeugen,
werden diese als Tasten-Icons gezeigt, zum Beispiel [Enter] oder [F1]. [Enter]
bedeutet beispielsweise, dass die mit Enter beschriftete Taste gedrückt werden
soll. [Ctrl-b] bedeutet, dass zunächst die mit Ctrl oder Strg beschriftete Taste
gedrückt gehalten und dann die Taste [B] gedrückt werden soll.
1.3.1.3
Schriftarten
Bestimmte Elemente in diesem Handbuch werden durch unterschiedliche
Schriftarten hervorgehoben.
Schriftart
Funktion
Konstante
Breite
Rechnerausgaben und Programm-Listings; Kommandos,
Dateinamen, Bezeichnungen von Manual-Pages und sonstige Zitate innerhalb des Fließtextes.
Kursiv
Variablen, die durch passende Werte zu ersetzen sind.
Diese können in spitze Klammern eingeschlossen sein, um
sie vom umgebenden Text abzuheben, z. B.
<knotenname>RMS; Sofern nichts Gegenteiliges angegeben
ist, sollten die spitzen Klammern nicht mit eingegeben werden.
Name einer Position in einer zeichenbasierten oder graphischen Benutzeroberfläche. Hierbei kann es sich um einen
Menüpunkt, ein Optionsfeld, eine Check-Box, ein Texteingabefeld, ein Feld oder einen Fenstertitel handeln.
Fett
Positionen in einer Kommandozeile, die exakt wie gezeigt
eingegeben werden müssen.
Die folgenden Beispiele verdeutlichen die Schriftartkonventionen.
10
U42128-J-Z100-4
Vorwort
1.3.1.4
Darstellungsmittel
Beispiel 1
Nachstehende Zeilen zeigen verschiedene Einträge in einer Datei namens
/etc/passwd:
root:x:0:1:0000-Admin(0000):/:
sysadm:x:0:0:System Admin.:/usr/admin:/usr/sbin/sysadm
setup:x:0:0:System Setup:/usr/admin:/usr/sbin/setup
daemon:x:1:1:0000-Admin(0000):/:
1.3.1.5
Beispiel 2
Wenn mit dem Kommando cat der Inhalt einer Datei gezeigt werden soll, ist folgende Kommandozeile einzugeben:
$
cat datei
1.3.2
Kommandosyntax
Die Konventionen für den Aufbau einer Kommandosyntax lauten:
Symbol
Name
[]
Eckige Klam- Umschließen ein optionales Element.
mern
{}
Geschweifte
Klammern
Umschließen zwei oder mehr Elemente, von
denen nur eins benötigt wird. Die einzelnen Elemente sind durch einen Längsstrich (|) voneinander getrennt.
|
Längsstrich
In geschweiften Klammern trennt dieser Strich
mehrere Elemente, von denen nur eins benötigt
wird. Wenn sich der Strich nicht in geschweiften
Klammern befindet, handelt es sich um ein PipeSymbol, das zeigt, dass die Ausgabedaten eines
Programms als Eingabedaten für ein anderes Programm verwendet werden.
()
Runde Klammern
Umschließen Elemente, die bei Wiederholung in
Gruppen zusammengefasst werden müssen.
...
Auslassungs- Kennzeichnet ein Element, das wiederholt werden
punkte
kann. Wenn eine Gruppe von Elementen wiederholt werden kann, wird die Gruppe in Klammern
gesetzt.
U42128-J-Z100-4
Bedeutung
11
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Vorwort
Wichtige Hinweise und Warnungen
1.4
Wichtige Hinweise und Warnungen
In diesem Handbuch sind Passagen, die unbedingt beachtet werden müssen,
wie folgt gekennzeichnet:
I Enthält zusätzliche Informationen zu dem erläuterten Thema.
V Achtung
Weist auf eine Gefahrensituation hin, die zur Beschädigung von Daten
oder zum Datenverlust führen kann.
12
U42128-J-Z100-4
2
Volume Manager (RCVM)
In diesem Abschnitt werden folgende Themen behandelt:
●
Übersicht geht auf das RCVM-Konzept für Festplatten ein.
●
Anforderungen zur Unterstützung von RCFS erläutert, wann RCFS verwendet werden soll.
●
In Typen virtueller Platten sind die hauptsächlichen Arten von virtuellen Platten sowie ihre Funktion beschrieben.
●
Konfigurieren virtueller Platten enthält detaillierte Informationen zur Konfiguration aller Arten von virtuellen Platten.
●
In Label-basierte Konsistenzprüfung wird beschrieben, wie Vdisk die statesave-Konsistenzprüfung durchführt, um sicherzustellen, dass die Spezifikationen für die gespiegelte vdisk auf den verschiedenen Knoten übereinstimmen.
●
Besonderheiten bei gespiegelten root-Platten beschreibt die Verwendung
einer virtuellen Platte zum Spiegeln der root-Partition.
●
Select vdisks erläutert die Eigenschaften von select vdisks, die Hardware,
die Konfiguration von select vdisks sowie die Arbeit mit select vdisks.
2.1
Übersicht
RCVM ist ein Konzept zur Verwaltung virtueller Platten, das für Benutzer und
Anwendungen in vollem Umfang transparent ist. Daher müssen bereits vorhandene Anwendungen nicht angepasst werden, um virtuelle Platten nutzen zu
können. RCVM bietet Benutzern mehr Eigenschaften als vergleichbare Verwaltungskonzepte und erreicht eine deutlich bessere Performance.
Virtuelle Platten unterscheiden sich in der Funktion nicht von physischen Platten. Für virtuelle Platten wird ein Pseudo-Gerätetreiber zwischen den höchsten
Level des logischen Eingabe-/Ausgabe (I/O)-Systems und den physischen
Gerätetreiber eingefügt. Dieser Pseudo-Gerätetreiber ordnet dann alle logischen I/O-Anfragen physischen Platten zu.
U42128-J-Z100-4
13
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Anforderungen zur Unterstützung von RCFS
Volume Manager (RCVM)
Üblicherweise beträgt die mittlere Zeit zwischen Störungen (MTBF, Mean Time
Between Failure) bei Laufwerken 200.000 Stunden (etwa 20 Jahre). D. h., dass
bei einem System mit 100 Laufwerken statistisch gesehen alle zwei Monate ein
Laufwerk ausfällt, in einem System mit 1.000 Laufwerken alle acht Tage. Selbst
wenn man annimmt, dass Laufwerke bereits heute zuverlässiger sind und
immer besser werden, ist diese Situation bei weitem nicht akzeptabel.
Um dieses Problem in den Griff zu bekommen, wurden verschiedene RAIDTechniken (Redundant Array of Independent Disks, redundante Gruppe unabhängiger Platten) entwickelt. Insbesondere bei den virtuellen Platten des Typs
stripe (aufgeteilt) und mirror (gespiegelt) (RAID0 bzw. RAID1) sind die RAIDKonzepte im Datenträgerverwaltungsmodul implementiert. RAID bezieht sich
auf Platten-Subsysteme, die die Zuverlässigkeit, Verfügbarkeit und Performance von Massenspeichersystemen deutlich erhöhen.
2.2
Anforderungen zur Unterstützung von
RCFS
Wenn mit RCFS gearbeitet werden soll, sind die im Abschnitt 3.3 der RCFSDokumentation dargelegten Anforderungen zu beachten, bevor mit der Installation des RCVM begonnen werden kann.
2.3
Typen virtueller Platten
Dieser Abschnitt beschreibt die hauptsächlichen Typen virtueller Platten und
ihre Funktion.
Unterschiedliche Typen virtueller Platten stehen für eine Vielzahl von Anwendungen zur Verfügung. Die wichtigsten Arten von virtuellen Platten werden in
den folgenden Abschnitten beschrieben:
●
Einfache virtuelle Platten – Definieren entweder einen Bereich innerhalb
einer Partition einer physischen Platte oder eine vollständige Partition.
●
Gespiegelte virtuelle Platten – Erhöhen die Sicherheit und Verfügbarkeit von
Plattensystemen durch gleichzeitige Ausführung von Schreibvorgängen auf
zwei oder mehr physischen Geräten.
Virtuelle Platten sind ein Konzept zur Verwaltung von Datenträgern. Dieses
Konzept sorgt für eine wesentlich komfortablere und flexiblere Handhabung von
Speichermedien. Virtuelle Platten bieten Endbenutzern und Programmen voll-
14
U42128-J-Z100-4
Volume Manager (RCVM)
Typen virtueller Platten
ständige Transparenz. Nach ihrer Installation stellen sie alle I/O-Schnittstellen
physischer Platten bereit. Zwischen dem höchsten Level des logischen Eingabe-/Ausgabe (I/O)-Systems und den Treibern der physischen Geräte werden
Pseudo-Gerätetreiber eingefügt. Diese Pseudo-Gerätetreiber ordnen alle I/OAnfragen den zugrundeliegenden physischen Platten zu.
Virtuelle Platten bestehen aus einer oder mehreren der folgenden Komponenten:
●
Physische Platte
●
einem Teil einer physischen Platte
●
einer weiteren virtuellen Platte
2.3.1
Einfache (simple) virtuelle Platten
Einfache virtuelle Platten definieren entweder einen Bereich innerhalb einer Partition einer physischen Platte oder eine vollständige Partition. Eine Partition
kann weiter durch Festlegung der relativen Position und der Größe einer virtuellen Platte dieses Typs unterteilt werden. Falls keine Angaben für relative Position und Größe gemacht wurden, wird die gesamte Partition als virtuelle Platte
definiert. Durch einfache virtuelle Platten kann eine physische Platte zum Beispiel in mehr Bereiche (Pieces) unterteilt werden, als dies üblicherweise durch
Partitionierung möglich ist.
Physische
Partition
(c4t3d5s3)
Virtuelle Platte
(vdisk2)
Virtuelle Platte
(vdisk3)
Virtuelle Platte
(vdisk4)
Bild 1: Unterteilung einer physischen Partition in einfache virtuelle Platten
U42128-J-Z100-4
15
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Typen virtueller Platten
Volume Manager (RCVM)
Da bei der Erstellung von virtuellen Platten die Partitionstabelle auf SystemLevel nicht geändert werden muss, ist es sinnvoll, physische Platten in einfache
virtuelle Platten zu unterteilen. In dem Beispiel in Bild 1, wird nur Bezug genommen auf die Partition s0 im Systemkern. Benutzer und Anwendungsprogramme
können jedoch auf drei verschiedene virtuelle Platten (vdisk2, vdisk3 und vdisk4)
zugreifen.
Eine weitere gängige Nutzung einfacher virtueller Platten ist, eine virtuelle
Platte, die aus mehreren physischen Platten zusammengesetzt ist (d. h., eine
verkettete virtuelle Platte), in kleinere Teilen zu gliedern, die von einer Anwendung optimaler genutzt werden können. Näheres zur Konfiguration einer einfachen virtuellen Platte enthält der Abschnitt „Konfigurieren virtueller Platten“.
2.3.2
Verkettete virtuelle Platten
Verkettete (concatenated) virtuelle Platten bestehen aus zwei oder mehr Pieces
auf einem oder mehreren Plattenlaufwerken. Ihre Kapazität entspricht der
Summe ihrer Einzelbestandteile. Anders als bei einfachen virtuellen Platten, bei
denen die Platte in kleine Pieces unterteilt ist, werden hier die einzelnen Platten
oder Partitionen zusammengefasst und bilden eine einzelne große logische
Platte wie in Bild 2 gezeigt.
16
U42128-J-Z100-4
Volume Manager (RCVM)
Physische Partition
(c2t2d0s1)
Typen virtueller Platten
Verkettete virtuelle Platte
(vdisk 30)
Physische Partition
(c2t3d1s3)
Pieces einer physischen Partition, spezifiziert durch relative Position und Länge
(c2t2d0s4)
Virtuelle Platte
(vdisk20)
Virtuelle Platte
(vdisk21)
Bild 2: Muster für die Zusammensetzung einer verketteten virtuellen Platte
Eine verkettete virtuelle Platte kann aus Partitionen einer physischen Platte,
Teilen einer Partition oder weiteren virtuellen Platten bestehen. Entsprechend
kann diese Platte äußerst flexibel strukturiert werden. Alle I/O-vorgänge auf
einer virtuellen Platte entsprechen exakt den I/O-Vorgängen auf einer physischen Platte, deren Kapazität der Summe der Teile der virtuellen Platte entspricht. Die Pieces einer verketteten Platte können nach Bedarf angeordnet werden. Durch die Festlegung von relativer Position und Größe bei der Definition
der virtuellen Platte können physische Platten oder Positionen weiter unterteilt
werden.
U42128-J-Z100-4
17
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Volume Manager (RCVM)
Typen virtueller Platten
2.3.3
Aufgeteilte virtuelle Platten (RAID0)
Aufgeteilte (striped) virtuelle Platten bieten unter bestimmten Voraussetzungen
eine weitaus höhere Datendurchsatzrate für I/O-Vorgänge als normale Platten.
Falls zum Beispiel Anwendungsprogramme eine große Zahl von I/O-Vorgängen
auf einer virtuellen Platte ausführen, können diese Vorgänge über verschiedene Plattenlaufwerke und/oder Controller verteilt werden.
Physische Platte
(c3t2d1s0)
Physische Platte
(c3t2d2s0)
Physische Platte
(c3t2d3s0)
Physische Platte
(c3t2d4s0)
1
2
3
4
Stripe 1
5
6
7
8
Stripe 2
9
10
11
12
Stripe 3
13
14
15
16
Stripe 4
17
18
19
20
Stripe 5
22
Piece 2
23
Piece 3
24
Piece 4
21
Piece 1
Aufgeteilte (striped) virtuelle Platte
mit 4 Pieces (vdisk3)
Stripe 6
Cluster
Bild 3: Struktur einer aufgeteilten (striped) virtuellen Platte
Aufgeteilte virtuelle Platten (auch striped vdisk) bestehen aus zwei oder mehreren
Einzelbestandteilen (Pieces). Dabei kann es sich um physische Partitionen
oder weitere virtuelle Platten (üblicherweise eine Spiegelplatte) handeln. Relative Position und Größe können für jedes Piece der striped vdisk festgelegt werden. Aus Gründen der Performance sollten alle Bestandteile möglichst auf
unterschiedlichen physischen Platten oder sogar unterschiedlichen SCSIKanälen liegen. Bei aufgeteilten virtuellen Platten werden die Blocknummern der
virtuellen Platte in diejenigen der physischen Platten konvertiert. Daher können
sequenzielle I/O-Vorgänge auf der virtuellen Platte in I/O-Vorgängen auf zwei
oder mehr physischen Platten umgesetzt werden. Dies entspricht RAID-Level 0
(RAID0).
Jedes der Pieces (in Bild 3, jede physische Platte) einer striped vdisk ist in Cluster unterteilt. Ein Cluster ist der größte Teil eines Piece, dessen Blöcke sequenziell indiziert sind. Cluster werden auf einem Piece hintereinander angeordnet.
In Bild 3 ist beispielsweise jede physische Platte in sechs Cluster gegliedert.
18
U42128-J-Z100-4
Volume Manager (RCVM)
Typen virtueller Platten
Der Konvertierungsalgorithmus verarbeitet die Cluster der Reihe nach: Er
beginnt mit dem Zugriff auf den ersten Clusters des ersten Piece (d. h. in , Cluster 1 der physischen Platte c3t2d1s0 in Bild 3), anschließend auf den ersten
Cluster des zweiten Piece (Cluster 2 der Platte c3t2d2s0 in Bild 3) usw., bis der
erste Cluster aller physischen Platten zugewiesen ist. Daraufhin erfolgt der
Zugriff auf den zweiten Cluster für jedes Piece der virtuellen Platte (d. h., auf
alle Cluster in stripe 2, hier also 5, 6, 7 und 8).
Alle Pieces müssen dieselbe Größe haben und ein Mehrfaches der ClusterGröße sein.
Wenn Sie eine maximale Datendurchsatzrate erzielen wollen, müssen Sie
einige Punkte berücksichtigen:
●
Die wichtigste Größe bei einer aufgeteilten virtuellen Platte ist die ClusterGröße. Sie muss so gewählt werden, dass sie den Anwendungen entspricht,
die auf diese virtuelle Platte hauptsächlich zugreifen.
●
Wenn Sie die Cluster-Größe zu groß wählen, so dass der größte Teil aller
I/O-Vorgänge immer denselben Cluster nutzt, wird der eigentliche Vorteil
eine striped vdisk zunichte gemacht.
●
Sie müssen vermeiden, den Cluster zu klein zu definieren, um nicht die Verwaltungslast des Treibers der virtuellen Platte unnötig zu erhöhen.
●
Um eine aufgeteilte virtuelle Platte optimal zu nutzen, sollten Sie mehrere
Aufträge gleichzeitig ausführen. Sie können die I/O-Aufträge auf mehrere
physische Platten verteilen, indem Sie eine entsprechende Cluster-Größe
wählen. In diesem Fall sollte die Cluster-Größe mindestens der Größe des
größten Blocks in der Anwendung, die auf die betreffende Platte zugreift,
entsprechen.
Wenn beispielsweise eine Anwendung Blöcke von bis zu 16 KB nutzt, müssen
Sie die Cluster-Größe der aufgeteilten virtuellen Platte auf n x 16 KB einstellen,
wobei n für eine ganze Zahl steht. Sie sollten eine Größe von 16 KB bis zu 1 MB
wählen.
Außerdem müssen Sie bereits zu einem frühen Zeitpunkt im Rahmen entsprechender Tests sicherstellen, dass Ihr System optimal partitioniert ist.
U42128-J-Z100-4
19
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Typen virtueller Platten
2.3.4
Volume Manager (RCVM)
Gespiegelte virtuelle Platten (RAID1)
Bei gespiegelten virtuellen Platten werden alle Ausgabevorgänge gleichzeitig
auf zwei oder mehr physischen Geräten ausgeführt. Zusätzlich zur Steigerung
der Plattenperformance erhöhen Spiegelplatten deutlich die Sicherheit und Verfügbarkeit von Systemen. Die Ursprungsdaten werden in einer oder mehreren
identischen Kopien gespeichert. Es ist unmöglich, die Originale von den Kopien
zu unterscheiden. Bei Spiegelplatten sprechen wir daher nur von Bestandteilen
(Pieces) einer Spiegelplatte und nicht von Masterl, Quelle oder Kopie.
Falls ein Teil der Spiegelplatte ausfällt, kann das System weiterhin zuverlässig
und ohne Unterbrechung arbeiten, da die Daten und ihre Kopien auf unterschiedlichen Platten gespeichert sind. Falls die Originale und Kopien auf Platten unterschiedlicher Controller gespeichert sind, können Benutzer ihre Arbeit
sogar fortsetzen, wenn einer dieser Controller ausfällt.
Im Falle gespiegelter virtueller Platten wird RAID-Level 1 im Betriebssystem implementiert. Wie die anderen Typen virtueller Platten bieten die Spiegelplatten
dem Benutzer und allen Anwendungen vollständige Transparenz.
2.3.4.1
Struktur von Spiegelplatten
Eine gespiegelte Platte, wie sie in Bild 4 gezeigt wird, kann aus zwei oder mehr
Pieces bestehen, umfasst in der Praxis aber gewöhnlich maximal drei Pieces,
die aus mehreren physischen Partitionen bestehen. Alle diese Pieces einer
gespiegelten Platte müssen dieselbe Größe haben. Anders als bei verketteten
und bei aufgeteilten (striped) virtuellen Platten, bei denen die Kapazität der virtuellen Platte der Summe der einzelnen Pieces entspricht, ist die Größe der
gesamten Spiegelplatte gleich der Größe eines ihrer Pieces.
20
U42128-J-Z100-4
Volume Manager (RCVM)
Typen virtueller Platten
vdisk10
c4t1d1s0
c4t1d2s0
Spiegelplatte mit zwei Pieces
vdisk11
c4t2d3s1
c4t2d2s1
c4t2d4s1
Spiegelplatte mit drei Pieces
Bild 4: Struktur von Spiegelplatten
2.3.4.2
Funktionen von Spiegelplatten
Die Berechtigung zum Schreiben auf eine Spiegelplatte beinhaltet gleichzeitig
die Berechtigung zum Schreiben auf jedes der Pieces, aus denen die Platte
zusammengesetzt ist. Hierdurch ist sichergestellt, dass alle Pieces identische
Daten enthalten. Da der Benutzer auf alle Pieces schreiben darf, verlangsamen
sich die Schreibvorgänge gegenüber physischen Platten geringfügig. Dies ist
jedoch zu vernachlässigen, wenn sich die Pieces auf verschiedenen Platten
unterschiedlicher Controller befinden, da die Schreibvorgänge parallel zueinander ausgeführt werden.
Umgekehrt besteht bei Berechtigung zum Lesen einer Spiegelplatte Lesezugriff
lediglich auf eines der Pieces. Da die Daten aller Pieces identisch sind, kann
der Lesevorgang auf ein beliebiges dieser Pieces erfolgen. In der Praxis wird
daher dasjenige Piece gewählt, das den schnellsten Lesezugriff bieten kann.
Dies wird anhand der Anzahl der anstehenden I/O-Vorgänge für die zugrundeliegenden physischen Platten ermittelt. Die Platte mit der geringsten Zahl an
Vorgängen in der Warteschlange wird dem Lesevorgang zugewiesen Sind alle
Warteschlangen gleich lang, alterniert der Lesezugriff.
U42128-J-Z100-4
21
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Volume Manager (RCVM)
Typen virtueller Platten
I Eine Ausnahme hiervon ist der sequenzielle Lesezugriff. Da in diesem
Fall der Read Cache der Platte gegebenenfalls nicht ausreicht, wird nur
eines der Pieces der Spiegelplatte gelesen.
2.3.4.3
Implementieren von Spiegelplatten
Um komplexere Strukturen wie etwa gespiegelte, aufgeteilte virtuelle Platten zu
erstellen, sollten Sie bei eventuellen Fehlern der Prozedur besondere Aufmerksamkeit widmen. So können Sie beispielsweise bei der Konfiguration sicherstellen, dass ein Fehler in einem der Pieces einer Spiegelplatte sich nur minimal auf
die Sicherheit der gesamten Spiegelplatte auswirkt.
Aufgeteilte (striped) virtuelle Platte
(/dev/vd/vdisk2)
Stripe 0
Gespiegelte
Platte
(/dev/vd/vdisk0)
470 MB
Piece A
470 MB
Piece B
Pieces der physischen Platte
Festplattenteil
Stripe 1
Gespiegelte
Platte
(/dev/vd/vdisk1)
470 MB
Piece C
470 MB
Piece D
Fehlerhaftes Piece
Festplattenteil
Bild 5: Korrekter Aufbau einer Spiegelplatte
Bild 5 stellt die korrekte Weise der Konfiguration einer aufgeteilten (striped)
Spiegelplatte dar. Zunächst wurden zwei Spiegelplatten konfiguriert und zu
einer aufgeteilten virtuellen Platte zusammengefasst. Auf diese Weise werden
RAID-Level 0 und RAID-Level 1 implementiert.
22
U42128-J-Z100-4
Volume Manager (RCVM)
Typen virtueller Platten
Durch diese Anordnung ergeben sich keinerlei Auswirkungen auf die Kapazität
oder die Geschwindigkeit der virtuellen Platte. Sicherheit und Verfügbarkeit der
Platte werden jedoch beträchtlich erhöht. Fällt eines der Pieces der Platte (hier
Piece C) aus, wird lediglich die Spiegelplatte vdisk1 in den Status
NOT-MIRRORED gesetzt. Die aufgeteilte virtuelle Platte bleibt weiterhin voll funktionsfähig. Selbst wenn in der Folge in Piece A oder B ein Fehler auftritt, ist dies
für den Benutzerprozess nicht erkennbar. Erst wenn beide Pieces einer Spiegelplatte ausfallen, kann nicht mehr auf das betreffende Piece der aufgeteilten
virtuellen Platte zugegriffen werden.
Außerdem kann in der in Bild 5 dargestellten Konfiguration die Spiegelplatte
schnell und problemlos wiederhergestellt werden. Sobald der Fehler behoben
ist, muss ein Catch-Up-Prozess ausgeführt werden. In unserem Beispiel müssen lediglich 470 MB kopiert werden, da der Catch-Up-Prozess nur auf der
Spiegelplatte vdisk1 läuft.
2.3.4.4
Zustände von Spiegelplatten
Im Normfall enthalten alle Pieces einer Spiegelplatte exakt dieselben Daten.
Fällt aus irgendeinem Grund eines dieser Pieces aus, können Sie davon ausgehen, dass es defekt ist. Da dieses Piece nun keine gültige Kopie der Spiegelplattendaten mehr enthält, kann es auch nicht mehr verwendet werden. Fällt ein
Piece aus, wird der Zugang auf die Daten der übrigen, fehlerfreien Pieces der
Spiegelplatte beschränkt. Solange noch ein fehlerfreies Piece vorhanden ist,
bleibt die Spiegelplatte voll funktionsfähig.
Um sicherzustellen, das die Datenintegrität eines Piece jederzeit überprüft werden kann, wird jedem Piece einer Spiegelplatte ein Status zugewiesen. Hierdurch unterscheidet sich die gespiegelte Platte von allen anderen Typen virtueller oder physischer Platten.
Für die Pieces einer Spiegelplatte sind folgende vier Zustände definiert:
online, disabled, enabled oder Master:
●
online – Dies ist der normale Status eines Piece auf einer Spiegelplatte.
Ein Piece enthält eine vollständige und gültige Kopie der Daten der Spiegelplatte und kann sowohl für Lese- als auch für Schreibvorgänge genutzt werden. Der Status online ist so lange gültig, bis I/O-Fehler in diesem Piece
auftreten oder bis der Systemverwalter über ein entsprechendes Kommando einen anderen Status einstellt. Jeder Schreibvorgang auf der Spiegelplatte wird auf allen online befindlichen Pieces ausgeführt. Lesevorgänge werden jedoch nur auf einem Teil der Festplatte vorgenommen, der
den Status online hat.
U42128-J-Z100-4
23
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Typen virtueller Platten
Volume Manager (RCVM)
●
disabled – Tritt auf einem Piece im Status online ein nicht behebbarer
I/O-Fehler auf, wird dieses automatisch in den Zustand disabled geschaltet. Danach werden keine weiteren I/O-Vorgänge auf diesem Piece mehr
ausgeführt, da die Integrität der Daten hier nicht mehr gewährleistet werden
kann. Das Piece verbleibt so lange im Status disabled, bis der Systemverwalter diesen Status manuell aufhebt. Normalerweise ist dies der Fall, wenn
die Ursache für den Fehler erkannt und behoben ist. Bei der Erstkonfiguration erhalten alle Pieces der Spiegelplatte standardmäßig den Status
disabled, da sie unmittelbar nach der Konfiguration noch keine gültigen
Kopien der Daten enthalten.
●
enabled – Wenn ein Piece einer Spiegelplatte, das sich im Status
disabled befindet, wieder aktiviert werden soll, wird ihm der Status
enabled zugewiesen. Ein solches Piece mit dem Status enabled ist für den
Benutzer auswählbar, befindet sich jedoch nicht im Status online, solange
nicht eine neue Kopie der Daten von der Spiegelplatte darauf erstellt wird.
Das Kopieren erfolgt automatisch durch Aktivieren eines Systemprozesses,
der die Daten von online-Piecees ausliest und auf die aktivierten Pieces
kopiert. Dies ist auch dann möglich, wenn der Benutzer auf der Spiegelplatte
gleichzeitig einen I/O-Vorgang ausführt. Sobald die Kopie erstellt ist, wird
das aktivierte Piece wieder online gesetzt, da es nun garantiert eine identische Kopie der Spiegelplattendaten enthält. Alle Schreibvorgänge auf der
Spiegelplatte werden auf allen Pieces mit Status online bzw. enabled ausgeführt. Gelesen werden können jedoch ausschließlich Pieces im Status
online.
●
Master – Wenn eine Spiegelplatte aufgrund eines Fehlers oder vom Systemverwalter in den Status DOWN gesetzt wurde, kann mit Hilfe der Option m des Kommandos dkmirror(1M) dasjenige Piece der Platte definiert werden, das bei der nächsten Konfiguration dieser Spiegelplatte als MasterPiece verwendet werden soll. Dieses Piece wird dann in den Status online
gesetzt und fungiert als Datenquelle für den Catch-Up-Prozess. Ansonsten
entspricht dieser Status dem Status online.
In ähnlicher Weise ist auch für die virtuelle Spiegelplatte als Ganzes ein Status
definiert. Je nach dem Status der einzelnen Pieces kann sich eine Spiegelplatte
in einem der nachstehenden drei Zustände befinden:
●
24
MIRRORED – Eine Spiegelplatte wird als MIRRORED gekennzeichnet, wenn
mindestens zwei ihrer Pieces online sind. In diesem Fall wirken sich Fehler
in den einzelnen Pieces der Spiegelplatte für den Benutzer nicht aus.
U42128-J-Z100-4
Volume Manager (RCVM)
Typen virtueller Platten
●
NOT-MIRRORED – Eine Spiegelplatte wird als NOT-MIRRORED gekennzeichnet, wenn nur eines ihrer Pieces online ist. Zwar kann die Platte weiterhin
genutzt werden, die Daten sind aber nicht mehr redundant abgesichert.
●
DOWN – Eine Spiegelplatte wird als DOWN gekennzeichnet, wenn keines ihrer
Pieces online ist. Auf einer Spiegelplatte im Status DOWN können keine weiteren I/O-Vorgänge mehr ausgeführt werden.
Die Statusänderung kann automatisch oder manuell erfolgen. Der Treiber der
Spiegelplatte kann den Status eines Piece automatisch ändern, wenn in diesem
Piece ein I/O-Fehler auftritt (von online zu disabled) oder wenn Daten vollständig kopiert wurden (von enabled zu online). Der Status eines Piece kann
manuell vom Systemverwalter mit Hilfe des Kommandos dkmirror(1M) geändert werden. Mit Hilfe dieses Kommandos kann auch der aktuelle Status einer
Spiegelplatte bzw. der einzelnen Pieces darauf abgefragt werden.
Der Status jeder Spiegelplatte (MIRRORED, NOT-MIRRORED oder DOWN) sowie
aller ihrer Pieces (enabled, disabled, online oder Master) wird auf einer
virtuellen Platte des Typs statesave oder statsv gespeichert (siehe
Abschnitt „Virtuelle statesave- und statsv-Platten“). Diese wird als StatesaveGerät bezeichnet.
Ein Statesave-Gerät befindet sich immer auf mindestens einer physischen
Platte, so dass die Statusinformationen permanent gespeichert sind. Daher
wird das System beim Start immer mit demselben Status wieder aktiviert, in
dem es sich beim Herunterfahren befand.
Die auf dem Statesave-Gerät gespeicherten Informationen werden geändert,
wenn der Status einer Spiegelplatte oder eines Piece wechselt (Zugriffsfehler,
Ende des Catch-Up-Prozesses (siehe Abschnitt „Catch-Up-Prozess“) oder
manuelle Änderung mit dkmirror(1M)).
U42128-J-Z100-4
25
vdisk11 (MIRRORED)
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
Volume Manager (RCVM)
Typen virtueller Platten
Piece 0
Piece 1
Piece 2
c2t2d0s1
(online)
c2t2d1s1
(online)
c2t2d2s1
(online)
Fehler in Piece 1
vdisk11 (MIRRORED)
Piece 0
Piece 1
Piece 2
c2t2d0s1
(online)
c2t2d1s1
(disabled)
c2t2d2s1
(online)
Fehler in Piece 0
vdisk11 (NOT-MIRRORED)
Piece 0
Piece 1
Piece 2
c2t2d0s1
(disabled)
c2t2d1s1
(disabled)
c2t2d2s1
(online)
Fehler in Piece 2
c2t2d1s1
(disabled)
vdisk11 (DOWN)
Piece 0
Piece 1
Piece 2
c2t2d0s1
(disabled)
c2t2d1s1
(disabled)
c2t2d2s1
(disabled)
Bild 6: Verhalten einer Spiegelplatte bei Fehlern in einzelnen Pieces
26
U42128-J-Z100-4
Volume Manager (RCVM)
2.3.4.5
Typen virtueller Platten
Catch-Up-Prozess
Eine der wichtigsten Eigenschaften eines Spiegelplattentreibers ist die Fähigkeit, die einzelnen Pieces einer Spiegelplatte zu synchronisieren. Dies ist entweder beim Start (d. h. unmittelbar nach Konfiguration der Spiegelplatte) oder
nach dem Wechsel eines Piece in den Status enabled erforderlich. Im Rahmen
des Synchronisationsprozesses werden die Daten von online-Pieces auf
Pieces im Status enabled kopiert. Sobald der Kopiervorgang beendet ist, werden die bisher im Status enabled befindlichen Pieces online geschaltet. Diesen Kopiervorgang bezeichnet man als Catch-Up-Prozess. Im Rahmen eines
Catch-Up-Prozesses müssen gegebenenfalls sämtliche auf einem gespiegelten Piece enthaltene Daten kopiert werden. Wenn ein DRL zur Verfügung steht,
genügt gegebenenfalls das Kopieren der Daten, die zwischen den Pieces nicht
synchron sind. Während des Catch-Up- oder DRL-Prozesses können andere
Prozesse auf die Spiegelplatte zugreifen. Lesevorgänge werden auf einem einzelnen online-Piece ausgeführt, Schreibvorgänge dagegen auf allen Pieces
im Status online und im Status enabled. Das bedeutet, dass im Anschluss an
den Catch-Up- oder DRL-Prozess alle Pieces identische Daten enthalten. Zu
beachten ist jedoch, dass die Plattenperformance eingeschränkt sein kann,
solange der Catch-Up- bzw. DRL-Prozess noch läuft.
Sobald mindestens ein online-Piece (als Datenquelle für den Kopiervorgang)
und mindestens ein enabled-Piece (als Ziel des Kopiervorgangs) vorhanden
ist, wird automatisch ein Catch-Up-Prozess gestartet. Veranlasst wird dieser
Prozess von dem Treiber der Spiegelplatte. Ist der Prozess beendet, wird der
Status des Ziels von enabled in online geändert.
U42128-J-Z100-4
27
vdisk11 (DOWN)
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
Volume Manager (RCVM)
Typen virtueller Platten
Piece 0
Piece 1
Piece 2
c2t2d0s1
(disabled)
c2t2d1s1
(disabled)
c2t2d2s1
(disabled)
Manuelle Einstellung des
Piece-Status
Piece 0 ist online
Piece 1 ist enabled
(dkmirror -o0 -e1 /dev/vd/vdisk11)
vdisk11 (NOT-MIRRORED, Catch-Up-Prozess läuft)
Piece 0
Piece 1
Piece 2
c2t2d0s1
(online)
c2t2d1s1
(enabled)
c2t2d2s1
(disabled)
Automatischer
Catch-Up-Prozess
(Lesen von Piece 0,
Schreiben auf Piece 1)
vdisk11 (MIRRORED)
Piece 0
Piece 1
Piece 2
c2t2d0s1
(online)
c2t2d1s1
(online)
c2t2d2s1
(disabled)
Bild 7: Verhalten einer Spiegelplatte bei Initialisierung des Piece-Status
Nur eines der Pieces jeder Spiegelplatte kann manuell in den Status online
versetzt werden. Die übrigen Pieces erreichen den online-Status über einen
Catch-Up-Prozess. Würden zwei Pieces manuell online gesetzt, bestünde die
Gefahr, dass in den verschiedenen Pieces der Spiegelplatte unbeabsichtigt
unterschiedliche Daten konfiguriert werden.
28
U42128-J-Z100-4
Volume Manager (RCVM)
Typen virtueller Platten
Alle I/O-Vorgänge im Rahmen des Catch-Up-Prozesses werden ohne Pufferung ausgeführt. Der Prozess verläuft asynchron zu Benutzerein- und -ausgaben und ist völlig unabhängig von anderen auf dieser oder einer anderen Spiegelplatte ausgeführten I/O-Vorgängen. Der Catch-Up-Prozess kommuniziert
mit einem speziellen System-Thread, dem Dämon-Thread mr_daemon thread.
Der Catch-Up-Prozess ist erfolgreich beendet, wenn alle Pieces mit dem Status
enabled entweder online sind oder (aufgrund eines fehlgeschlagenen
Schreibvorgangs) den Status disabled haben. Er kann nicht erfolgreich ausgeführt werden, wenn er die Daten eines online-Piece nicht lesen oder ein
enabled-Piece nicht ändern kann, denn dies bedeutet, dass für Lesevorgänge
keine weiteren Pieces im Zustand online bzw. für Schreibvorgänge keine weiteren enabled-Pieces vorhanden sind.
Im Rahmen des Catch-Up-Prozesses werden sämtliche Schreibvorgänge auf
allen Pieces mit dem Status enabled ausgeführt. Wenn ein Schreibvorgang
nicht ausgeführt werden kann, wird das betreffende Piece aus dem Status
enabled in den Status disabled versetzt. Lesevorgänge werden vom CatchUp-Prozess nur auf einem einzigen online-Piece ausgeführt. Wenn die Ausführung eines Lesevorgangs nicht möglich ist, wird dieses Piece von online
auf disabled gesetzt. Anschließend wird der Lesevorgang auf einem anderen
Piece mit Statusonline erneut versucht. Sind keine weiteren online-Pieces
mehr vorhanden, wird der Catch-Up-Prozess beendet.
Tritt während einer Benutzerein- oder -ausgabe in einem Piece im Status online
ein Fehler auf, wird dieses Piece in der Regel auf disabled gesetzt. Auf I/O-Fehler, die im Rahmen des Catch-Up-Prozesses auftreten, trifft dies jedoch nicht
zu. Vielmehr verbleibt die Spiegelplatte, anstatt nach einem fehlgeschlagenen
Lesevorgang im Catch-Up-Prozess den Status DOWN anzunehmen, im Zustand
NOT-MIRRORED und wird der Catch-Up-Prozess abgebrochen. Das onlinePiece wird auf disabled gesetzt. Um dieses Piece der Spiegelplatte wieder in
den Status online zu setzen, muss das Kommando dkmirror -o eingegeben werden.
U42128-J-Z100-4
29
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Typen virtueller Platten
2.3.4.6
Volume Manager (RCVM)
Dirty Region Log (DRL)-Prozess
Der DRL-Prozess unterstützt das schnelle Resilvering von gespiegelten vdisks
nach Ausfall eines Knotens oder Cluster. Dabei wird nur ein geringer Prozentsatz der Daten von der vdisk kopiert, um den Status der gespiegelten vdisk wiederherzustellen. Diese Informationen werden auf einem gemeinsam genutzten
Gerät gespeichert, das für alle Cluster-Knoten zugänglich ist (siehe Abschnitt
„Virtuelle DRL-Platte“).
Hier sind einige Punkte zu beachten:
●
Die DRL-Verarbeitung erfolgt nur, wenn das Statesave-Gerät und die DRLInformation nach dem Ausfall noch intakt sind, andernfalls wird ein vollständiger Catch-Up-Prozess ausgeführt.
●
Im Rahmen der DRL-Verarbeitung werden lediglich online befindliche
Pieces wiederhergestellt. Für die Wiederherstellung von aktivierten (enabled) Pieces ist ein vollständiger Catch-Up-Prozess erforderlich.
●
Dieser Prozess deckt die Synchronisation deaktivierter Pieces auf einer
vdisk nicht ab, wenn diese später aktiviert werden. Hierfür ist ein vollständiges Catch-Up erforderlich.
Die DRL-Verarbeitung wird bei Ausfall eines Knotens in einem Cluster von den
verbleibenden Knoten des betreffenden Cluster automatisch gestartet. Jeder
dieser verbleibenden Knoten versucht, die online-Pieces der OPS-Spiegelplatten mit den Informationen aus dem gemeinsam genutzten Dirty Region Log zu
synchronisieren. Sollte die DRL-fähige Spiegelplatte für den ausgefallenen
Knoten auf keinem anderen Knoten des Cluster definiert sein, wird der DRLProzess ausgeführt, sobald der ausgefallene Knoten wieder betriebsbereit ist.
Fällt ein Cluster, der nur aus einem einzigen Knoten besteht, oder ein kompletter Cluster aus, wird DRL nach dem Neustart der Systeme auf den Spiegelplatten ausgeführt.
2.3.4.7
Fehlerbehebung auf Spiegelplatten
Tritt bei einem Piece einer Spiegelplatte ein Fehler auf, wird dieses Piece automatisch in den Status disabled gesetzt. Entsprechend werden darauf keine
weiteren I/O-Vorgänge ausgeführt, bis der Systemverwalter dieses Piece wieder aktiviert (enabled). Diese einfache Regel gilt ohne jede Einschränkung,
denn sie garantiert die Konsistenz sämtlicher auf allen online-Pieces gespeicherten Daten. Dabei erfolgt keine Unterscheidung zwischen kritischen Fehlern
auf dem Plattenlaufwerk und einem einfachen, nicht behebbaren ECC (Error
Correction Code, Fehlerkorrekturcode)-Fehler in einem einzelnen Sektor.
30
U42128-J-Z100-4
Volume Manager (RCVM)
Typen virtueller Platten
In der Praxis können die meisten Pieces, die in den Status disabled gesetzt
wurden, nach Beseitigung des Fehlers wieder in den Status enabled wechseln.Fehler des Typs Header mismatch auf der Platte können durch Zuweisung anderer Sektoren behoben werden. Die meisten ECC-Fehler lassen sich
beseitigen, indem der betroffene Sektor neu geschrieben wird. Häufig können
defekte Plattenlaufwerke erfolgreich zurückgesetzt werden. Fehler in der Controller-Hardware, die Justage des Lese-/Schreibkopfes sowie andere Laufwerkfehler fallen üblicherweise nicht in die Zuständigkeit des Systemverwalters. Treten Fehler dieses Typs auf, muss das betreffende Piece der Spiegelplatte so
lange im Status disabled verbleiben, bis es ausgetauscht wird.
Zusätzliche Sicherheit bietet es, die Spiegelplatte von vornherein mit drei
Pieces zu konfigurieren, wobei das dritte Piece als Reservelaufwerk dient und
den Status disabled erhält. Dieses dritte Laufwerk mit dem Status disabled
verursacht keine zusätzliche Systembelastung. Alle logischen Schreibvorgänge
auf der Spiegelplatte werden lediglich in zwei physische Vorgänge umgesetzt.
Fällt eines der anderen Laufwerke aus, wird das dritte Laufwerk zur Verfügung
gestellt. Dieses kann problemlos in den Zustand enabled gesetzt werden.
Sobald der automatische Catch-Up-Prozess abgeschlossen ist, hat die Spiegelplatte wieder den Status MIRRORED, und die Daten sind wieder effizient
geschützt.
Durch dieses Konzept wird auch die Erstellung von Backup-Kopien vereinfacht.
Sie können einfach das zusätzliche Laufwerk in den Status enabled setzen
und so den Catch-Up-Prozess in Gang bringen. Ist dieser Prozess abgeschlossen, versetzen Sie das Laufwerk einfach wieder zurück in den Status
disabled. Hierdurch wird dieses Laufwerk deaktiviert, enthält jetzt aber eine
vollständige und aktuelle Kopie sämtlicher Daten der Spiegelplatte. Diese
Daten können jetzt gesichert werden, ohne dass sich dies negativ auf die Performance der Platte auswirkt. Verfügt die zusätzliche Platte über zwei Verbindungen zu zwei Systemen, kann sie auch für die Erstellung eines Backup des
anderen Systems genutzt werden.
2.3.4.8
Arbeiten mit Spiegelplatten
Ist die Spiegelplatte einmal konfiguriert und initialisiert, verursacht ihre Verwaltung nur noch minimalen Aufwand. Bei der Umschaltung in den Multi-UserModus veranlasst das System automatisch dkconfig(1M) aus den StartSkripts aller nicht gruppierten vdisks. Der Status der Spiegelplatte wird beibehalten, nachdem das System kontrolliert (und im Allgemeinen auch nicht kontrolliert) heruntergefahren und neu gestartet wurde.
U42128-J-Z100-4
31
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Typen virtueller Platten
Volume Manager (RCVM)
I Bei Ausfall eines Systems (beispielsweise durch einen Stromausfall) rei-
nitialisiert RCVM den Status der Spiegelplatte. Dazu wird der Catch-UpProzess automatisch gestartet. Fällt das System während des CatchUp-Prozesses aus, wird das betreffende Piece deaktiviert (disabled), so
dass es manuell mit dem Kommando dkmirror(1M) aktiviert werden
(enabled) muss. Hierdurch wird der Catch-Up-Prozess in Gang gesetzt.
Für virtuelle Platten des Typs ops wird das Catch-Up durch einen der verbleibenden Cluster-Knoten gestartet. Ist auf keinem der anderen Knoten
dieselbe virtuelle Spiegelplatte konfiguriert, wird der Catch-Up-Prozess
bei der nächsten Konfiguration der betreffenden vdisk ausgeführt.
Die Konfiguration der Spiegelplatte wird anhand der Datei /etc/dktab festgestellt und geht daher in den seltensten Fällen verloren. Spiegelplatten können
so lange weiterbenutzt werden, bis keines der Pieces mehr den Status online
hat.
I Zu beachten ist, dass ein direkter Zugriff auf Partitionen, die als online-
Pieces einer Spiegelplatte konfiguriert sind, unter keinen Umständen
zulässig ist. Dies ist ähnlich wie bei einem eingehängten Dateisystem, in
dessen Partitionen nicht direkt hineingeschrieben werden darf.
2.3.4.9
Meldungen des Spiegelplatten-Treibers
Die nachstehenden Meldungen (Beispiele) werden vom Treiber der Spiegelplatte auf der Systemkonsole gezeigt. Diese Meldungen erfolgen, wenn während der Ausführung des Kommandos dkmirror(1M) ein Piece den Status
wechselt, wenn ein I/O-Fehler behoben wird und wenn Pieces automatisch aufgrund von I/O-Fehlern in den Status disabled gesetzt werden:
Mirror Disk initialization complete.
Mirror Disk shutdown complete.
Mirror vdisk0: piece 0 online.
Mirror vdisk0: piece 1 enabled.
Mirror vdisk7: piece 1 disabled.
Mirror vdisk7:
Mirror vdisk7:
Mirror vdisk7:
MIRRORED.
Mirror vdisk7:
piece 2 Write error at block 784.
piece 2 is now disabled.
2 online pieces left – this Mirror Disk is still
Recovered from the write error.
Mirror vdisk7: piece 0 Read error at block 24.
Mirror vdisk7: piece 0 is now disabled.
32
U42128-J-Z100-4
Volume Manager (RCVM)
Typen virtueller Platten
Mirror vdisk7: 1 online piece left – this Mirror Disk is now
NOT-MIRRORED.
Mirror vdisk7: Retrying the read on another piece.
Läuft noch ein Catch-Up-Prozess, erhalten Sie ständig Informationen über die
einzelnen Schritte des Prozesses. Nachstehend sind beispielhaft einige typische Meldungen aufgelistet:
Mirror
Mirror
Mirror
Mirror
Mirror
Mirror
vdisk7:
vdisk7:
vdisk7:
vdisk7:
vdisk7:
vdisk7:
CATCH-UP starting – from piece(s) 0 1 to piece 2.
No more enabled pieces to catchup to.
No more online pieces to catchup from.
CATCH-UP aborted.
CATCH-UP attemped – piece 2.
CATCH-UP failed – piece 2 is NOT online.
2.3.4.10 Spiegeln von root-Platten
Die root-Platte (auch als Systemplatte bezeichnet) ist ein ganz besonders sensibler Bereich. Fällt die root-Platte aus, kommt das gesamte System zum Stillstand. Durch Spiegeln der root-Platte können Sie die Sicherheit und Verfügbarkeit des Gesamtsystem beträchtlich steigern. Allerdings ist das Spiegeln der
root-Partition praktisch nur von Nutzen, wenn alle anderen Pieces dieser Platte
ebenfalls gespiegelt werden. Dies wird erheblich vereinfacht, wenn Sie zwei
identische Platten (d. h. mit gleicher Größe und Partitionierung) für die Spiegelung verwenden.
Ist die root-Platte gespiegelt, müssen beim System-Boot zusätzliche Verwaltungsaufgaben erfüllt werden. Nachstehend wird der Boot-Prozess für ein System mit einer gespiegelten root-Platte erläutert.
Wenn das System gestartet wird, wertet die Boot-Software die Konfigurationsdatei /etc/system aus. Die Einträge in dieser Datei werden als Parameter
übergeben und beinhalten auch die Information, ob die root-Platte gegebenenfalls gespiegelt werden soll.
Das Betriebssystem prüft die übergebenen Parameter und ruft gegebenenfalls
die Volume Manager-Software auf, um die Spiegelung der root-Platte zu veranlassen. Zu diesem Zweck wird einer der gespiegelten Teile der gespiegelten
root-Platte (beispielsweise /dev/dsk/c0t0d0s0) eingehängt, der von Open
Boot Prompt (OBP) als Boot-Gerät genutzt wird.
U42128-J-Z100-4
33
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Typen virtueller Platten
Volume Manager (RCVM)
Danach werden die Konfigurationsdateien für gespiegelte root-Platten,
/mrconfig.1 und /mrconfig.2, ausgelesen. Die virtuellen Platten für die
Pieces root, swap und usr einschließlich der zugehörigen statesave- bzw.
statsv-vdisks werden konfiguriert. Danach kann das gerade eingehängte Dateisystem wieder ausgehängt und statt dessen das Dateisystem der gespiegelten
root-Platte eingehängt werden. Anschließend stehen alle Optionen normaler
gespiegelter Platten jetzt auch für die root-Platte zur Verfügung. Nähere Informationen hierzu enthält der Abschnitt „Konfigurieren virtueller Platten“.
V Achtung
Wird das Betriebssystem neu installiert, wird der Inhalt der Systemplatte
überschrieben und gehen entsprechend auch die Informationen zur
Spiegelung verloren. Daher müssen Sie nach einer Neuinstallation alle
virtuellen Platten neu konfigurieren. Wenn Sie die root-Plattenspiegelung noch nicht wieder aktiviert haben, ist noch eine funktionsfähige
Kopie des bisherigen Betriebssystems auf dem anderen Piece der
gespiegelten root-Platte vorhanden. Bearbeiten Sie die Datei vfstab,
um den Gerätepfad der Originalplatte einzubinden. Markieren Sie die
Einträge für die virtuelle gespiegelte root-Platte mit Kommentarzeichen.
(Siehe hierzu den Abschnitt „Deaktivierung der root-Spiegelung“). Nachdem Sie die Platte, die noch nicht neu installiert wurde, als Open Boot
Prom (OBP)-Boot-Gerät definiert haben, können Sie die einzelnen
Pieces dieser Kopie als Master-Pieces deklarieren und das bisherige
Betriebssystem neu starten.
Um von der zweiten Platte ein alternatives Boot ausführen zu können, muss die
Platte als Boot-Gerät im OBP des Systems bekannt sein. Ändern Sie die BootParameter mit dem Kommando eeprom wie folgt:
eeprom boot-device=”rcvm_p0 rcvm_p1”
eeprom use-nvramrc?=true
eeprom nvramrc=”devalias rcvm_p0 \
/pci@94,4000/scsi@2/disk@1,0:a \
devalias rcvm_p1 /pci@94,4000/scsi@2/disk@2,0:a”
Ist rcvm_p0 (Piece 0) der ersten Platte nicht verfügbar, erfolgt das Boot über
das zweite Piece. Solaris akzeptiert keine vdisk-Gerätenamen als Dump-Gerät.
Bei Verwendung des Kommandos dumpadm muss als Dump-Gerät eines der
Swap-Gerät-Pieces eingestellt sein. Wenn das Dump-Gerät aufgrund eines I/OFehlers nicht zur Verfügung steht, können Sie mit dumpadm auf das zweite
Piece des Swap-Geräts umschalten.
34
U42128-J-Z100-4
Volume Manager (RCVM)
2.3.5
Typen virtueller Platten
Virtuelle statesave- und statsv-Platten
Statesave-Devices werden ausschließlich für die nichtflüchtige Speicherung
der Statusinformationen gespiegelter Platten benutzt. Diese Geräte können aus
einem, zwei oder noch mehr Pieces bestehen. Sie sind genauso strukturiert wie
Spiegelplatten, d. h., alle Pieces müssen dieselbe Größe haben. Da die Daten,
die auf einem Statesave-Gerät gespeichert werden, extrem wichtig für den
Betrieb aller Spiegelplatten sind, sollten Sie dieses Gerät mit mindestens zwei
Pieces konfigurieren. Virtuelle Platten dieses Typs benötigen nur relativ wenig
Speicher. Ein Statesave-Gerät muss jedoch mindestens 64 KB haben.
Die maximale Anzahl Einträge auf einem Statesave-Gerät beträgt 4986. In diesem Fall gelten alle Pieces sämtlicher Spiegelplatten einer bestimmten Gruppe
sowie die Spiegelplatte selbst als jeweils ein Eintrag. Wenn Sie mehr Einträge
benötigen, müssen Sie ein weiteres Statesave-Gerät (sowie eine neue Gruppe)
einrichten.
Bei der Konfigurierung von Statesave-Geräte wird zwischen statesave-Platten und statsv-Platten unterschieden, obwohl beide prinzipiell dasselbe Format und dieselbe Funktion haben Während der Konfiguration können virtuelle
Platten in Gruppen unterteilt werden (siehe Abschnitt „Konfigurieren virtueller
Platten“).Auf virtuellen Platten des Typs statesave werden Statusinformationen sämtlicher Spiegelplatten einer bestimmten Gruppe gespeichert, während
auf statsv-Platten die entsprechenden Informationen für nicht in Gruppen eingeordnete Spiegelplatten abgelegt werden. Für jede Gruppe ist jeweils eine
separate statesave-Platte erforderlich, für alle nicht in Gruppen eingeordneten Spiegelplatten zusammen eine einzige statsv-Platte. Virtuelle Platten im
lokalen System, die immer zur Verfügung stehen müssen, sollten als nicht gruppierte (statsv) vdisks konfiguriert werden.
Vdisks, die Multihosted-Geräte unterstützen, sollten je nach den Anwendungen,
die auf die vdisk zugreifen, in verschiedenen Gruppen zusammengefasst werden. Auf diese Weise kann der Hochverfügbarkeits-Monitor (RMS) das Hochfahren/Herunterfahren der Gruppe unabhängig von den anderen Gruppen kontrollieren.
Bevor Sie die erste Spiegelplatte konfigurieren können, muss ein StatesaveGerät konfiguriert sein. Auf diese Platten können ausschließlich SpiegelplattenTreiber zugreifen. Statesave-Devices stehen für den Normalbenutzer nicht zur
Verfügung.
U42128-J-Z100-4
35
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Typen virtueller Platten
Volume Manager (RCVM)
Statesave-Devices können sich in einem der folgenden Zustände befinden:
●
ONLINE – mindestens ein Piece ist online.
●
ENABLED – nur ein Piece ist enabled (der Status muss noch aktualisiert
werden).
●
DOWN – es sind keine Pieces online. Dieses Statesave-Gerät kann nicht
benutzt werden.
Weitere Spezifikationen:
(in use)
Das Statesave-Gerät wird derzeit zum Speichern der Statusinformationen der konfigurierten Spiegelplatte(n) benutzt. Alle Versuche, diese Platte zu dekonfigurieren, verlaufen erfolglos.
Spezifikationen zu den einzelnen Pieces:
online
Das Piece enthält gültige Daten.
disabled
Das Piece kann nicht benutzt werden. Mögliche Ursachen:
●
I/O error – Fehler bei einem I/O-Vorgang.
●
open failed – ein Versuch, das Piece zu aktivieren, schlug
fehl.
●
manual – das Piece wurde mit
dkmirror -d manuell deaktiviert.
enabled
Das Piece ist aktiviert und kann benutzt werden. Bei der nächsten Aktualisierung des Status werden Statusinformationen auch
auf dieses Piece geschrieben. Verläuft dieser Schreibvorgang
erfolgreich, wird das Piece in den Status online gesetzt.
open
Das Piece wurde erfolgreich geöffnet. Der Lese-/Schreibvorgang
ist noch auszuführen. Verläuft der Lesevorgang erfolgreich, wird
der Status auf enabled geändert.
36
U42128-J-Z100-4
Volume Manager (RCVM)
2.3.6
Typen virtueller Platten
Virtuelle DRL-Platte
DRL-Geräte werden ausschließlich für die Speicherung der DRL-Informationen
von Spiegelplatten eingesetzt. Diese Geräte können aus zwei oder mehr Pieces
bestehen. Alle Pieces der DRL-vdisk müssen physische Platten gleicher Größe
sein. Da die auf diesen Geräten gespeicherten Daten äußerst wichtig für das
schnelle Resilvering von Spiegelplatten sind, sollten Sie die Geräte mit mindestens 2 Pieces konfigurieren.
Gruppierte vdisks sind DRL-fähig, wenn ein DRL-Gerät für die betreffende
Gruppe definiert wurde. Das DRL-Gerät einer Gruppe muss konfiguriert werden, bevor Sie die Spiegelplatten in der Gruppe konfigurieren.
In der Datei /kernel/drv/vd.conf können die maximale Anzahl der Knoten
im Cluster, die DRL unterstützen, die Anzahl der Blöcke in DRL für jeden einzelnen Knoten sowie die Anzahl der parallelen Schreibvorgänge im DRL jedes
Knoten konfiguriert werden. Nachstehend sind diese Parameter mit den Standardwerten angegeben:
max_drl_nodes = 16 für OPS vdisks und max_drl_nodes = 1 für non-OPS
vdisks
drl_sublog_size = 127
parallel_drl_writes = 4
Der Parameter max_drl_nodes sollte auf die maximale Anzahl Knoten eingestellt werden, auf die der Cluster im Laufe der Zeit möglicherweise anwächst.
Der Parameter max_drl_nodes kann auf einen Wert von 16 bis 64 gesetzt werden. Für den Parameter drl_sublog_size kann ein Wert im Bereich von 1 bis
2048 eingegeben werden. Bei größeren Werten verlängern sich die Zeiten für
die DRL-Wiederherstellung. Bei kleineren Werten kann sich der Schreibdurchsatz verringern. Der Standardwert 127 bildet in den meisten Fällen den geeigneten Mittelweg und ergibt üblicherweise Wiederherstellungszeiten unter 10
Sekunden.
Durch die Parameter max_drl_nodes und drl_sublog_size wird bestimmt,
wie groß eine virtuelle DRL-Platte sein muss. Die Mindestgröße einer DRLvdisk beträgt
1+max_drl_nodes * (drl_sublog_size +1)
Bei einer OPS-Konfiguration mit Standardwerten ist dies 2049.
Bei einer Nicht-OPS-Konfiguration mit Standardwerten ist dies 129.
U42128-J-Z100-4
37
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Typen virtueller Platten
Volume Manager (RCVM)
Ein DRL-Gerät kann einen der nachstehenden Zustände annehmen:
●
MIRRORED – mindestens zwei Pieces sind online.
●
ENABLED – nur ein Piece ist enabled (der Status muss noch aktualisiert
werden).
●
DOWN – es sind keine Pieces online. Dieses DRL-Gerät kann nicht benutzt
werden.
(in use)
Das DRL-Gerät wird gerade für die Speicherung der DRL-Informationen der konfigurierten Spiegelplatte(n) benutzt. Alle Versuche, diese Platte zu dekonfigurieren, schlagen fehl.
Spezifikationen zu den einzelnen Pieces:
online
Das Piece enthält gültige Daten.
disabled
Das Piece kann nicht benutzt werden. Mögliche Ursachen:
enabled
2.3.7
●
I/O error – Fehler bei einem I/O-Vorgang.
●
open failed – ein Versuch, das Piece zu aktivieren, schlug
fehl.
●
manual – das Piece wurde mit dkmirror -d manuell deaktiviert.
Das Piece ist aktiviert und kann benutzt werden.
Hinzufügen eines Knotens
Eine DRL-vdisk kann nicht konfiguriert werden, solange Daten-Spiegelplatten
der vdisk-Gruppe konfiguriert sind. In diesem Fall können DRL-Pieces lediglich
über das Kommando dkmirror -e in den Status „Enabled" gesetzt werden, so
dass sie nach der nächsten Ausführung des Kommandos dkconfig -c online
gesetzt werden.
38
U42128-J-Z100-4
Volume Manager (RCVM)
2.4
Konfigurieren virtueller Platten
Konfigurieren virtueller Platten
Die folgenden Abschnitte liefern detaillierte Informationen dazu, wie die verschiedenen Typen virtueller Platten konfiguriert werden. Angegeben werden
hier auch Grenzwerte und Rahmenbedingungen, die bei der Konfigurierung
und Nutzung virtueller Platten erfüllt sein müssen, sowie schrittweise Anweisungen zur Konfigurierung der Platten. Prinzipiell ist die Konfigurationsprozedur
für alle Arten von virtuellen Platten gleich.
I Der erste Sektor einer Solaris-Platte enthält das Disk Label. Wenn vdisks
von Beginn der Platte erstellt werden, muss der Benutzer darauf achten,
dass dieses Disk Label nicht zerstört wird. Die Solaris-Dateisysteme nutzen den ersten Sektor nicht, so dass das Label erhalten bleibt. Ein
Schreibvorgang im ersten Sektor des Roh-Geräts führt zur Zerstörung
des Labels, so dass die Platte nach einem Neustart des Systems nicht
mehr genutzt werden kann.
Aufgrund dieser Tatsache wird der erste Sektor von Spiegelplatten, die
mit Partitionen vom Beginn einer Platte definiert wurden, nicht auf
andere Pieces kopiert (im Rahmen des Catch-Up-Prozesses.
2.4.1
Grenzwerte und Rahmenbedingungen
Bei der Konfigurierung von virtuellen Platten müssen bestimmte Rahmenbedingungen erfüllt und Grenzwerte eingehalten werden. Dies bezieht sich insbesondere auf die Anzahl und Größe der Pieces einer virtuellen Platte sowie die
Anbindung der virtuellen Platten.
Theoretisch kann eine virtuelle Platte maximal eine Größe von
264 Bytes = 16 Ebyte haben. Die Größe der Dateisysteme unterliegt jedoch den
folgenden Beschränkungen:
●
Die maximale Größe eines Dateisystems auf einer vdisk ist begrenzt durch
das Dateisystem.
●
Die maximale Anzahl virteller Platten in einem System ist derzeit auf 1000
begrenzt. Dieser Wert ist in /kernel/drv/vd.conf
(maxvdunit=1000) vordefiniert und kann vom Systemverwalter geändert
werden. Er muss im Bereich 1÷65.535 liegen.
●
Die Anzahl der Pieces einer virtuellen Platte ist auf 1024 begrenzt und kann
nicht verändert werden.
U42128-J-Z100-4
39
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Konfigurieren virtueller Platten
Volume Manager (RCVM)
●
Die Anzahl der Pieces bei aufgeteilten virtuellen Platten und bei verketteten
virtuellen Platten ist auf 99 begrenzt; bei gespiegelten virtuellen Platten und
virtuellen Platten vom Typ DRL, statesave und statsv ist die Anzahl der
Pieces auf 8 begrenzt und kann nicht geändert werden.
●
Virtuelle Platten können verschachtelt werden: So kann beispielsweise eine
virtuelle Platte Bestandteil einer anderen virtuellen Platte sein. Die verschachtelte virtuelle Platte muss jedoch vor der übergeordneten virtuellen
Platte konfiguriert werden. Außerdem können pro System maximal fünf Verschachtelungs-Levels definiert werden. Allerdings ist dies als rein theoretischer Wert zu betrachten. In vielen Fällen ist es nicht praktikabel mehr als
drei Verschachtelungs-Levels zu haben.
I Spiegelplatten können nur auf physischen Platten konfiguriert werden.
●
Bei aufgeteilten (striped) virtuellen Platten müssen alle Pieces dieselbe
Größe haben. Die Größe der Pieces wiederum muss durch die Stripe-Größe
restlos teilbar sein.
●
Alle Pieces einer gespiegelten Platte müssen dieselbe Größe haben. Die
Größe der gesamten Spiegelplatte entspricht der Größe eines dieser
Pieces.
●
Für die root-Partition und den primären Swap-Bereich kann nur eine Art von
virtueller Platte verwendet werden, nämlich eine gespiegelte root-Platte.
Eine Spiegelplatte für das root-Dateisystem bzw. den primären SwapBereich darf keine weiteren virtuellen Platten enthalten.
I Zusätzlich müssen alle anderen Swap-Bereiche auf Spiegelplatten
angesiedelt sein, die physische Plattenpartitionen umfassen.
●
Eine virtuelle Platte darf nicht als Bestandteil eines Statesave-Gerätes definiert werden.
●
Bei aufgeteilten virtuellen Platten sollten kleine Stripe-Größen (unter 16 KB)
vermieden werden. Hier haben sich Stripe- Größen von 16, 32 und 64 KB
bewährt. Je nach Anwendung (beispielsweise ein einzelner Prozess, der
sequenziell Lese- und Schreibvorgänge ausführt) sind auch größer bemessene Stripes (beispielsweise 1 MB) praktisch.
40
U42128-J-Z100-4
Volume Manager (RCVM)
Konfigurieren virtueller Platten
●
Eine Konfigurierung von vdisks, in der der Sektor 0 der zugrundeliegenden
physischen Platte nicht dem Block 0 der vdisk entspricht, ist nicht zulässig.
Wenn beispielsweise eine aufgeteilte vdisk, die aus der Slice 2 einer Partitionsplatte besteht, einen der Sektoren 0 anders als bei Sektor 0 der vdisk
positionieren würde, wäre dies unzulässig. Eine Spiegelplatte jedoch, die
aus denselben beiden physischen Platten besteht, wäre zulässig, da der
Sektor 0 der physischen Platte und der Block 0 der virtuellen Platte identisch
sind. Jeder Versuch, den Sektor 0 zu beschreiben, führt zu einer Fehlermeldung.
●
Ein Statesave-Gerät für eine Gruppe kann bis zu 4986 Einträge enthalten.
Jede Spiegelplatte der Gruppe sowie alle Pieces dieser Spiegelplatten gelten als jeweils ein Eintrag. Lokale vdisk-Gruppen, die während des Starts im
Single-User-Modus verfügbar sein sollten, können konfiguriert werden,
indem in das Skript /etc/rcS.d/S40vdisk eine entsprechende Konfigurationszeile eingefügt wird (zum Konfigurieren lokaler DRL-vdisks für /opt, ....).
DRL-Devices müssen die Standardkonfiguration von 2049 Blöcken aufweisen. Details hierzu finden Sie im Abschnitt „Einfache (simple) virtuelle Platten“.
I Wenn die Konfigurationsdaten einer Platte modifiziert werden, gehen
die auf der betreffenden Platte gespeicherten Daten verloren. Ist eine
aufgeteilte (striped) virtuelle Platte mit zwei Pieces konfiguriert und
wird diese Definition in drei Pieces geändert, gehen alle auf dieser
virtuellen Platte gespeicherten Daten verloren. Änderungen in den
Dateien S65vdisk und S40vdisk gehen bei einer Update-Installation von SMAWvd verloren.
I Damit RCVM ordnungsgemäß arbeitet, sind bestimmte Symbole aus der
CF-Software erforderlich. RCVM lädt das Modul symsrv der CF-Software, wenn der Manager geladen wird. Um OPS-vdisks konfigurieren
oder nutzen zu können, muss das Cluster Foundation Software Module
geladen und der betreffende Knoten Mitglied eines Cluster sein.
Die Informationen, die für die Berechnung der Größe von Pieces und Stripes
einer virtuellen Platte, die physische Platten nutzt, benötigt werden, sind mit
Hilfe des Kommandos format bzw. des Kommandos prtvtoc (Spalte Blk
Count) abrufbar.
U42128-J-Z100-4
41
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Konfigurieren virtueller Platten
2.4.2
Volume Manager (RCVM)
Konfiguration
Mit Ausnahme von gespiegelten root-Platten ist die Konfigurationsprozedur für
alle Arten virtueller Platten gleich.
I In einer Cluster-Umgebung müssen Sie die Systemzeit unbedingt synchronisieren. Benutzen Sie dazu das Kommando ntpdate.
Nachstehend sind die Einzelschritte der Konfiguration erläutert:
●
Bearbeiten der Konfigurationsdatei /etc/dktab
●
Virtuelle Platten mit dkconfig(1M) konfigurieren
Nur bei Spiegelplatten:
●
Definieren des Status der virtuellen Spiegelplatten mit dkmirror(1M)
Wenn ein Dateisystem auf der virtuellen Platte eingerichtet werden soll:
●
Einrichten eines neuen Dateisystems mit den entsprechenden Systemkommandos, beispielsweise mkfs(1M) oder newfs(1M)
●
Bearbeiten der Datei /etc/vfstab
●
Neues Dateisystem mit dem Kommando mount(1M) einhängen
2.4.2.1
Bearbeiten der Konfigurationsdatei /etc/dktab
Die Konfiguration sämtlicher virtuellen Platten im System ist in der Datei
/etc/dktab definiert. Mit Hilfe dieser Datei verwaltet das Kommando
dkconfig(1M) die virtuellen Platten.
I Die Pflege dieser Datei ist Aufgabe des Systemverwalters. Ebenso wie
bei /etc/vfstab muss der Zugriff auf diese Datei strikt kontrolliert werden, d. h., nur der Systemverwalter sollte über eine Schreibberechtigung
verfügen.
Der Systemverwalter kann diese Datei mit Hilfe eines Texteditors bearbeiten.
Die einzelnen Felder der Datei sind durch Leerstellen oder Tabulatoren voneinander getrennt. Enthält die erste Spalte einer Zeile ein Nummernzeichen (#),
wird diese Zeile als Kommentar interpretiert. Leerzeilen werden ignoriert. Die
virtuellen Platten können in der Datei /etc/dktab in beliebiger Reihenfolge
angegeben sein. Nur für verschachtelte virtuelle Platten gelten gewisse Einschränkungen. Letztere müssen beginnend mit dem niedrigsten Verschachte-
42
U42128-J-Z100-4
Volume Manager (RCVM)
Konfigurieren virtueller Platten
lungs-Levels definiert werden. Wenn Sie Spiegelplatten definieren, müssen Sie
darauf achten, dass vor dieser Definition der entsprechende Eintrag für ein
statesave-Gerät sowie optional ein DRL-Gerät steht.
Die Pfadnamen in der Datei /etc/dktab verweisen auf blockorientierte
Geräte. Alle Angaben von relativer Position und Länge erfolgen in Blöcken. Ein
Block einer virtuellen Platte hat immer eine Länge von 512 Bytes, was der Sektorgröße der physischen Platte entspricht.
In der Datei/etc/dktab müssen für jede virtuelle Platte zwei Arten von Konfigurationszeilen enthalten sein: Eine Deklarationszeile für die virtuelle Platte
sowie n Definitionszeilen für die einzelnen Pieces dieser virtuellen Platte. Die
Deklarationszeile beginnt immer in der ersten Spalte, vor den Definitionszeilen
für die Pieces der virtuellen Platte steht jedoch ein Leerraum.
Das nachstehende Beispiel zeigt einen Auszug aus der Datei /etc/dktab:
# Concatenated virtual disk
/dev/vd/vdisk0 concat 6
/dev/dsk/c2t2d0s1
/dev/dsk/c2t3d1s3
/dev/dsk/c2t2d0s4
0
1000
/dev/dsk/c2t2d0s4
1000
1000
/dev/vd/vdisk20
/dev/vd/vdisk21
# Striped virtual disk
# (stripe size: 32 blocks)
/dev/vd/vdisk1 stripe 4 32
/dev/dsk/c3t2d1s1
/dev/dsk/c3t2d2s1
/dev/dsk/c3t2d3s1
/dev/dsk/c3t2d4s1
# Three small simple virtual disks“
# (Size: 2400 blocks each)
/dev/vd/vdisk2 simple
/dev/dsk/c4t3d5s1
0
2400
/dev/vd/vdisk3 simple
/dev/dsk/c4t3d5s1
2400
2400
/dev/vd/vdisk4 simple
/dev/dsk/c4t3d5s1
4800
2400
Jede Deklarationszeile für eine virtuelle Platte besteht aus mindestens zwei Feldern, die den Namen des Geräteknotens und den Typ der virtuellen Platte
angeben. Außer bei einfachen virtuellen Platten ist für alle virtuellen Platten ein
drittes Feld erforderlich, in dem üblicherweise die Anzahl der auf dieser Platte
vorhandenen Pieces angegeben ist. Bei aufgeteilten (striped) virtuellen Platten
U42128-J-Z100-4
43
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Volume Manager (RCVM)
Konfigurieren virtueller Platten
muss in einem vierten Feld die Stripe-Größe in 512-Byte-Blöcken angegeben
werden. Das nachstehende Beispiel zeigt Deklarationszeilen für verschiedene
Arten von virtuellen Platten:
/dev/vd/vdisk0
/dev/vd/vdisk1
/dev/vd/vdisk2
/dev/vd/vdisk3
/dev/vd/vdisk4
simple
concat
stripe
mirror
statsv
2
2
3
2
32
Virtuelle Platten können zu Gruppen zusammengefasst werden. Dies ist insbesondere für Spiegelplatten von Bedeutung. Ein System kann maximal eine
statsv-Platte enthalten, auf der sämtliche Statusinformationen zu nicht in
Gruppen geordneten Spiegelplatten enthalten sind. Alternativ können virtuelle
Platten des Typs statesave benutzt werden, um die Statusinformationen zu
den Spiegelplatten einer bestimmten Gruppe zu speichern. Virtuelle DRL-Platten enthalten Informationen für das schnelle Resilvering von Spiegelplatten
einer bestimmten Gruppe. Durch das Gruppieren von Spiegelplatten gestaltet
sich die Konfiguration und Verwaltung von Spiegelplatten beträchtlich flexibler.
Bei der Definition einer Gruppe von Spiegelplatten müssen Sie sicherstellen,
dass das Suffix group=n in der Deklaration einer virtuellen Platte des Typs
statesave, des Typs DRL sowie aller Spiegelplatten dieser Gruppe enthalten
ist. Dies wird im nachstehenden Beispiel einer Deklaration einer virtuellen
Platte des Typs statesave, einer Platte des Typs DRL und zweier Spiegelplatten in der Gruppe group 0 illustriert:
/dev/vd/vdisk0
statesave,group=0
2
/dev/dsk/c2t2d2s6
0
128
/dev/dsk/c2t2d3s6
0
128
/dev/vd/vdisk1
,group=0
2
/dev/dsk/c2t2d4s6
0
2500
/dev/dsk/c2t2d5s6
0
2500
/dev/vd/vdisk3
mirror,group=0
2
/dev/dsk/c2t2d1s1
/dev/dsk/c2t2d12s1
/dev/vd/vdisk4
mirror,group=0
2
/dev/dsk/c2t2d14s1
/dev/dsk/c2t2d13s1
44
U42128-J-Z100-4
Volume Manager (RCVM)
Konfigurieren virtueller Platten
Das folgende Beispiel zeigt die Deklaration von nicht in Gruppen eingeordneten
Spiegelplatten und der entsprechenden virtuellen Platte vom Typ statsv dar:
/dev/vd/vdisk0
statsv
/dev/dsk/c2t2d4s6
/dev/dsk/c2t2d5s6
2
0
0
128
128
/dev/vd/vdisk3
mirror
/dev/dsk/c2t2d1s5
/dev/dsk/c2t2d14s5
2
/dev/vd/vdisk4
mirror
/dev/dsk/c2t2d4s4
/dev/dsk/c2t2d14s4
2
Virtuelle Platten anderer Typen können ebenfalls in Gruppen zusammengefasst
werden. Dies ist insbesondere dann vorteilhaft, wenn Sie Gruppen virtueller
Platten gleichzeitig konfigurieren bzw. dekonfigurieren wollen.
Lokale vdisk-Gruppen, die während des Starts im Single-User-Modus verfügbar sein sollten, können konfiguriert werden, indem in das Skript
/etc/rcS.d/S40vdisk eine entsprechende Konfigurationszeile eingefügt
wird (zum Konfigurieren lokaler DRL-vdisks für /opt etc.).
I Beachten Sie, dass die virtuellen Platten einer Gruppe beim Systemstart
nicht automatisch vom Start-Skript konfiguriert werden.
Wollen Sie also beispielsweise, dass die Gruppe 10 automatisch konfiguriert
wird, wenn Sie auf den Multi-User-Modus umstellen, fügen Sie in das startSkript /etc/rc2.d/S65vdisk am Ende der if-Anweisung im Abschnitt start
die Zeile "/usr/bin/dkconfig -cg10" folgendermaßen ein:
'start')
/usr/bin/dkconfig -cg10
;;
'stop
')
Mit Hilfe anderer Start-Skripts nach S65vdisk können auch spezielle vdiskGruppen konfiguriert werden.
I Die Start-Skripts /etc/rc2.d/S65vdisk und
/etc/rcS.d/S40vdisk werden zusammen mit dem SMAWvd-Paket
geliefert. Alle Änderungen, die Sie an dieser Datei vornehmen, gehen
verloren, wenn die Datei aktualisiert oder gelöscht wird. Änderungen in
den Dateien S65vdisk und S40vdisk gehen bei einer Update-Installation von SMAWvd verloren.
U42128-J-Z100-4
45
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Konfigurieren virtueller Platten
2.4.2.2
Volume Manager (RCVM)
Virtuelle Platten in einer OPS-Umgebung konfigurieren
In einer OPS-Umgebung kommen verteilte Spiegelplatten zum Einsatz.
Die Definitionen der verteilten Spiegelplatten und der zugehörigen StatesaveDevices müssen auf allen Systemen identisch sein. Ihr Status wird auf den
beteiligten Hostsystemen konsistent gehalten. Ist auf diesem Knoten CF nicht
im Status UP, schlägt das Kommando dkconfig für OPS-Platten fehl.
Die entsprechende Definition ist durch das Schlüsselwort ops gekennzeichnet,
woran sich die Gruppennummer und die Anzahl n der nachfolgend definierten
Spiegelplatten anschließen. Die folgenden N Zeilen geben die SCSI-Kanäle an,
mit denen die Platten verbunden sind.
Bei der ersten virtuellen Platte muss es sich um eine Platte des Typs
statesave handeln, danach müssen eine optionale, virtuelle DRL-Platte oder
gespiegelte virtuelle Platten folgen. Beispiel:
/dev/vd/vdisk0
statesave,ops,group=0
/dev/dsk/c2t2d2s5 0 128
/dev/dsk/c2t2d3s5 0 128
/dev/vd/vdisk1
drl,ops,group=0
2
/dev/dsk/c2t2d1s1 0 2500
/dev/dsk/c2t2d4s1 0 2500
/dev/vd/vdisk2
mirror,ops,group=0
2
/dev/dsk/c2t2d2s1
/dev/dsk/c2t2d3s1
46
2
U42128-J-Z100-4
Volume Manager (RCVM)
2.4.2.3
Konfigurieren virtueller Platten
Mit dkconfig(1M) und dkmirror(1M) konfigurieren
Mit dem Kommando dkconfig(1M) kann der Prozess der Konfiguration virtueller Platten vollständig kontrolliert werden. Außerdem wird dieses Kommando
dazu benutzt, die in der Konfigurationsdatei /etc/dktab eingefügten Definitionen zu aktivieren. dkconfig(1M) ruft Informationen zur Konfiguration der virtuellen Platten aus der Datei /etc/dktab ab, ähnlich wie das Kommando
mount(1M) die Datei /etc/vfstab als Quelle für Informationen zu eingehängten Dateisystemen nutzt. Mit dkconfig(1M) werden die virtuellen Platten konfiguriert und wird eine Übersicht über die aktuelle Konfiguration virtueller Platten
gezeigt. Entsprechend dürfen unter keinen Umständen die Definitionen der konfigurierten virtuellen Platten in /etc/dktab verändert werden, solange die
betreffende virtuelle Platte konfiguriert und aktiv ist. Die Definitionen nicht konfigurierter virtueller Platten können jedoch jederzeit bearbeitet werden.
Wenn Sie mehrere virtuelle Platten konfigurieren, überprüft dkconfig(1M) die
Platten auf unbeabsichtigte Überschneidungen zwischen physischen Platten.
Dies gilt jedoch nur für virtuelle Platten, die mit dem aktuellen dkconfig(1M)Aufruf konfiguriert wurden. Vor oder nach diesem Aufruf konfigurierte virtuelle
Platten (beispielsweise einer anderen Gruppe) werden hierbei nicht berücksichtigt. Daher muss der Systemverwalter beim Definieren einer virtuellen Platte
sicherstellen, dass die einzelnen Pieces dieser Platte sich nicht mit vorhandenen Dateisystemen, Datenbereichen oder anderen bereits konfigurierten virtuellen Platten überschneiden.
Eine schon vorhandene konfigurierte vdisk vom Typ concat oder simple kann
erweitert werden, indem man mit der Option reconfig von dkconfig ein
neues Piece hinzufügt. Das neue Piece kann ein physisches Gerät oder eine
andere virtuelle Platte sein. Optional kann die relative Position und die Größe
des Piece angegeben werden. Die Datei /etc/dktab wird automatisch aktualisiert, damit sie die Definition des neuen Piece für die rekonfigurierte vdisk einschließt.
Wird eine virtuelle Platte (unabhängig von ihrer Definition) einfach konfiguriert,
besteht kein Risiko. Die vorhandenen Dateisysteme und Daten sind nur gefährdet, wenn die Platte aktiviert wird und tatsächlich Daten darauf geschrieben
werden. Wenn Sie sehr schnell eventuelle Fehler in der Definition erkennen,
können Sie die virtuelle Platte immer noch deaktivieren. Eine virtuelle Platte,
die bereits konfiguriert ist und gerade benutzt wird, kann jedoch nicht dekonfiguriert werden. Versuche, eine gerade benutzte virtuelle Platte zu dekonfigurieren, führen zur Ausgabe der Fehlermeldung EBUSY (Gerät belegt).
U42128-J-Z100-4
47
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Konfigurieren virtueller Platten
Volume Manager (RCVM)
Wenn auf einer oder mehreren der in /etc/dktab definierten virtuellen Platten
ein Dateisystem enthalten ist, muss dkconfig(1M) vor fsck(1M) und
mount(1M) ausgeführt werden, da eine virtuelle Platte erst nach der Konfiguration einsatzfähig ist. Dies erfolgt automatisch, wenn in den Multi-User-Modus
umgeschaltet wird. In diesem Fall ruft das Start-Skript das Kommando
dkconfig(1M) auf, um die virtuellen Platten entsprechend der Datei
/etc/dktab zu konfigurieren. Für virtuelle Platten, die in Gruppen konfiguriert
sind, gilt dies jedoch nicht.
Wenn Sie die virtuellen Dateisysteme im Single-User-Modus manuell prüfen
wollen, müssen Sie vor dem Aufruf von fsck(1M) in der Kommandozeile
/etc/rc2.d/S65vdisk ausführen. Wenn bei Aufruf von fsck(1M) keine konfigurierten virtuellen Platten vorhanden sind, wird die Fehlermeldung ENXIO
(Gerät oder Adresse nicht verfügbar) ausgegeben.
Obwohl alle für virtuelle Platten in der Datei /etc/dktab definierten oder als
Argument in dkconfig(1M) enthaltenen Pfadnamen blockorientierte Geräteeinträge sind, werden sowohl block- als auch zeichenorientierte Einträge unterstützt.
Zu dem Kommando dkconfig(1M) steht eine Vielzahl von Optionen zur Verfügung. Nähere Informationen hierzu sind auf den Manual-Pages zu
dkconfig(1M) zu finden. Nachstehend sind einige Beispiele aufgeführt, die die
Verwendung dieses Kommandos demonstrieren:
●
Konfigurieren aller in /etc/dktab definierten virtuellen Platten:
# dkconfig -Ac
●
Konfigurieren aller in /etc/dktab definierten OPS-Platten:
# dkconfig -Oc
●
Ausgeben einer kurzen Liste der Konfiguration sämtlicher virtueller Platten:
# dkconfig -Al
●
Ausgeben einer detaillierten (ausführlichen) Liste der Konfiguration aller virtuellen Platten:
# dkconfig -Alv
●
Ausgabe einer detaillierten (ausführlichen) Beschreibung der virtuellen
Platte vdisk2:
# dkconfig -lv /dev/vd/vdisk2
●
Ausgabe einer kurzen Beschreibung der ersten vier virtuellen Platten:
# dkconfig -l /dev/vd/vdisk[0-3]
48
U42128-J-Z100-4
Volume Manager (RCVM)
●
Konfigurieren virtueller Platten
Konfigurieren aller virtuellen Platten der Gruppe 1:
# dkconfig -cg1
●
Rekonfigurieren einer einfachen, verketteten oder gespiegelten virtuellen
Platte durch Hinzufügen eines neuen Piece:
# dkconfig -r piece=pcename{:offset:length} /dev/vd/vdisk2
●
Dekonfigurieren aller virtuellen Platten:
# dkconfig -Au
●
Dekonfigurieren aller OPS-Platten:
# dkconfig -Ou
Anhand der I/O-Statistiken, die mit der Kommandooption -lv gezeigt werden,
können Sie die Verteilung von I/O-Vorgängen auf die verschiedenen physischen
Platten feststellen. Insbesondere bei aufgeteilten (striped) virtuellen Platten
kann auf Grundlage dieser Informationen die optimale Einstellung sichergestellt
werden. Bei einer ungleichmäßigen Verteilung der verschiedenen Vorgängen
auf die einzelnen Pieces der virtuellen Platte muss entweder das Dateisystem
oder die virtuelle Platte selbst neu konfiguriert werden.
I Sie können auch die Standardwerkzeuge iostat und vmstat von Solaris benutzen, um die statistischen Daten der RCVM-Platten zu betrachten.
I Beachten Sie, dass bei Ausführung von /etc/rc2.d/S65vdisk stop
Informationen zu den bis dahin verfügbaren konfigurierten vdisks
gespeichert werden. Diese vdisks werden erneut konfiguriert, wenn
/etc/rc2.d/S65vdisk start ohne Neustart des Systems ausgeführt
wird.
Damit ist der Konfigurationsvorgang für alle virtuellen Platten mit Ausnahme der
gespiegelten Platten abgeschlossen. Bei der Erstkonfiguration von Spiegelplatten sind einige zusätzliche Verwaltungsaufgaben auszuführen.
Nach der Erstkonfiguration mit dkconfig(1M) haben alle Pieces einer Spiegelplatte den Status disabled.Damit befindet sich die gesamte Spiegelplatte im
Zustand DOWN, so dass sie nicht für Dateisysteme oder für die Speicherung von
Daten genutzt werden kann. Entsprechend muss der Systemverwalter bei einer
Neukonfiguration von Spiegelplatten die Spiegelplatte manuell in den Status
MIRRORED setzen. Hierzu wird das Kommando dkmirror(1M) benutzt.
U42128-J-Z100-4
49
Volume Manager (RCVM)
Die Spiegelplatte muss wie nachstehend beschrieben initialisiert werden (die
hier angegebenen Kommandos sind jedoch lediglich Beispiele):
1. Das folgende Kommando setzt ein Piece einer Spiegelplatte in den Zustand
enabled:
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
Konfigurieren virtueller Platten
# dkmirror -en virtuelle_platte
n steht hier für die Nummer des Spiegelplatten-Piece (die Zählung beginnt
bei 0). An Stelle von virtuelle_platte müssen Sie den Pfadnamen der Spiegelplatte eingeben. Bei einer Spiegelplatte mit zwei Pieces würde das Kommando also lauten:
# dkmirror -e0 -e1 /dev/vd/vdisk8
Werden mehrere Spiegelplatten definiert, kann mit nachstehendem Kommando auch eine Gruppe von Platten auf enabled gesetzt werden:
# dkmirror -agN
Hier steht N für die Nummer der Spiegelplattengruppe.
Das nächste Kommando dient dazu, den Status aller Spiegelplatten in sämtlichen Gruppen auf enabled zu ändern:
# dkmirror -aA
2. Anschließend muss eines der Pieces der Spiegelplatte online gesetzt werden. Dieses Piece fungiert dann als Datenquelle für den anschließend automatisch ausgeführten Catch-Up-Prozess. Das heißt, dass die Daten dieses
Piece auf alle anderen Pieces im Zustand enabled übertragen werden.
Dies gilt sogar, wenn die Spiegelplatte noch keine gültigen Daten enthält. Mit
der Option -C des Kommandos dkmirror(1M) kann ein Piece auch ohne
Ausführung des Catch-Up-Prozesses in den Status online gesetzt werden.
Dieses manuelle online-Setzen ist jedoch nur für eines der Pieces einer
Spiegelplatte möglich und erfolgt mit nachstehendem Kommando:
# dkmirror -on virtuelle_platte
Auch hier steht n für die Nummer des Piece auf der betreffenden Platte und
virtuelle_platte für den Geräteknoten der Spiegelplatte. Das Kommando zu
unserem obigen Beispiel würde folgendermaßen lauten:
# dkmirror -o0 /dev/vd/vdisk8
50
U42128-J-Z100-4
Volume Manager (RCVM)
Konfigurieren virtueller Platten
Die einzelnen Pieces einer Spiegelplatte können außerdem direkt von
disabled auf online gesetzt werden. Damit lassen sich die Schritte 1 und
2 folgendermaßen zusammenfassen:
# dkmirror -o0 -e1 /dev/vd/vdisk8
3. Sobald eines der Pieces der Spiegelplatte online geschaltet ist, startet das
System automatisch den Catch-Up-Prozess. Informationen zum Zustand
der Spiegelplatte und ihrer einzelnen Pieces können darüber hinaus mit
dem Kommando dkmirror(1M) abgerufen werden.
Nach Ausführung von Schritt 1 ergibt sich die folgende Ausgabe:
# dkmirror -lv /dev/vd/vdisk8
Mirror disk /dev/vd/vdisk8
DOWN
piece 0 /dev/dsk/c2t2d1s1 enabled
piece 1 /dev/dsk/c2t2d2s1 enabled
(catch-up required)
(catch-up required)
Sobald sich eines der Pieces der Spiegelplatte im Zustand online befindet
(Schritt 2), wird der Catch-Up-Prozess gestartet:
# dkmirror -lv /dev/vd/vdisk8
Mirror disk /dev/vd/vdisk8
NOT-MIRRORED (catch-up: 35%)
piece 0 /dev/dsk/c2t2d1s1 online
(catch-up source)
piece 1 /dev/dsk/c2t2d2s6 enabled (catch-up in progress)
Ist der Catch-Up-Prozess erfolgreich beendet, befinden sich alle Pieces
online und hat die Spiegelplatte insgesamt den Status MIRRORED:
# dkmirror -lv /dev/vd/vdisk8
Mirror disk /dev/vd/vdisk8
MIRRORED
piece 0 /dev/dsk/c2t2d1s1 online
piece 1 /dev/dsk/c2t2d2s1 online
Die Angabe N% besagt, dass der Catch-Up-Prozess noch läuft und zu N Prozent abgeschlossen ist.
Mit # dkmirror -dn virtuelle_platte können Sie das Piece n einer Spiegelplatte deaktivieren. Dies gilt auch, wenn dieses Piece das letzte verfügbare
online-Piece dieser Spiegelplatte ist. Wenn Sie gezwungen sind, mit Hilfe
des Kommandos dkmirror die Pieces einer Spiegelplatte bei normalem
Betrieb zu deaktivieren, müssen Sie zusätzlich die Option -N spezifizieren.
Hierdurch wird verhindert, dass das letzte verfügbare Piece im Zustand
online auf der Spiegelplatte deaktiviert wird.
U42128-J-Z100-4
51
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Volume Manager (RCVM)
Konfigurieren virtueller Platten
Mit der Option -mn wird das Piece n einer Spiegelplatte zum Master-Piece
deklariert. Wird die betreffende Spiegelplatte das nächste Mal konfiguriert,
wird automatisch ein Catch-Up-Prozess gestartet, in dem die Daten von diesem Piece auf die übrigen Pieces kopiert werden. Über die Option -m wird
nach einem Neustart eine gespiegelte root-Konfiguration aktiviert.
Nähere Informationen zur Verwendung des Kommandos dkmirror(1M) finden
Sie auf der entsprechenden Manual-Page.
2.4.3
Beispielkonfiguration
Dieser Abschnitt enthält eine Beispielkonfiguration, die sämtliche erforderlichen
Schritte für die Konfigurierung virtueller Platten zeigt:
1. Erstellen Sie alle Einträge in der Datei /etc/dktab wie folgt:
/dev/vd/vdisk1 statsv 2
/dev/dsk/c2t2d1s5
/dev/dsk/c2t2d2s5
/dev/vd/vdisk2 mirror 2
/dev/dsk/c2t2d3s1
/dev/dsk/c2t2d4s1
/dev/vd/vdisk3 concat 4
/dev/dsk/c2t2d1s1
/dev/dsk/c2t2d4s4
/dev/dsk/c2t2d3s1
/dev/dsk/c2t2d3s4
/dev/vd/vdisk4 simple
/dev/dsk/c2t2d3s3 0 2400
/dev/vd/vdisk5 simple
/dev/dsk/c2t2d3s3 2400 2400
/dev/vd/vdisk6 simple
/dev/dsk/c2t2d3s3 4800 2400
/dev/vd/vdisk8 mirror 3
/dev/dsk/c2t2d2s3 0 20480
/dev/dsk/c2t2d3s3 7200 20480
/dev/dsk/c2t2d4s3 0 20480
/dev/vd/vdisk10 statesave, group=10
/dev/dsk/c2t2d30s5
/dev/dsk/c2t2d60s5
/dev/vd/vdisk11 drl, group=10
2
/dev/dsk/c2t2d30s4
/dev/dsk/c2t2d60s4
/dev/vd/vdisk0 mirror, group=10
2
/dev/dsk/c2t2d30s6
/dev/dsk/c2t2d60s6
52
2
U42128-J-Z100-4
Volume Manager (RCVM)
Konfigurieren virtueller Platten
2. Konfigurieren Sie sämtliche virtuellen Platten wie folgt:
# dkconfig -Ac
3. Prüfen Sie die Konfigurationsdaten wie folgt:
# dkconfig -Al
Neues Dateisystem erstellen und einhängen
Die in den nachstehenden Abschnitten beschriebenen Konfigurationsschritte
müssen nur ausgeführt werden, wenn auf der virtuellen Platte ein Dateisystem
eingerichtet werden muss.
Da es sich bei vdisk8 um eine Spiegelplatte handelt, müssen Sie zunächst eines
der Pieces dieser Platte in den Status online setzen. In dem vorliegenden Beispiel erhalten die übrigen beiden Pieces den Status enabled, so dass ein
Catch-Up-Prozess veranlasst wird:
# dkmirror -o0 -e1 -e2 /dev/vd/vdisk8
Mit dem Kommando mkfs(1M) werden die neuen Dateisysteme vxfs erstellt.
Ein zeichenorientierter Geräte-Eintrag und die Größe des Dateisystems müssen wie folgt als Parameter spezifiziert werden:
# mkfs -Fvxfs /dev/vd/rvdisk8 10240
Nachdem das Dateisystem initialisiert ist, sollten Sie das neue Dateisystem in
die Datei /etc/vfstab eintragen. Wenn sich eines der Dateisysteme /usr,
/var, /opt oder /home auf einer virtuellen Platte befindet, müssen Sie dafür
sorgen, dass als fsck-Level der Wert 0 erscheint:
/dev/vd/vdisk8 /dev/vd/rvdisk8 /usr vxfs 0 yes rw
Für andere Dateisysteme sieht eine Deklarationszeile in dieser Datei folgendermaßen aus:
/dev/vd/vdisk8 /dev/vd/rvdisk8 /u8 vxfs 1 yes rw
Um das Dateisystem nutzen zu können, müssen Sie es mit Hilfe des Kommandos mount(1M) einhängen. Beispiel:
# mount /u8
I Das Verzeichnis /u8 muss bereits vorhanden sein. Andernfalls wird eine
Fehlermeldung ausgegeben.
U42128-J-Z100-4
53
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Online-Rekonfiguration einer Spiegelplatte
Volume Manager (RCVM)
Existiert dieses Verzeichnis noch nicht, können Sie es mit folgendem Kommando einrichten:
# mkdir /u8
Wiederholen Sie anschließend den Einhängeprozess.
Alternativ zu einem vxfs-Dateisystem können Sie auch ein ufs-Dateisystem
einrichten. Verwenden Sie hierzu das Kommando newfs(1M).
Nähere Informationen zu den Kommandos newfs(1M), mkfs(1M), fsck(1M)
und mount(1M) enthalten die zugehörigen Manual-Pages.
2.5
Online-Rekonfiguration einer Spiegelplatte
Mithilfe der Online-Rekonfiguration einer Spiegelplatte kann die Konfiguration
einer Spiegelplatte mit nur einem definierten Piece sowie das Hinzufügen eines
Pieces zu bzw. die Entfernung eines Pieces von einer konfigurierten Spiegelplatte online vorgenommen werden. Statesave und drl-Platten sind per definitionem vdisk-Spiegelplatten mit besonderen Eigenschaften. Darum bezieht sich
der Begriff "mirror" oder "Spiegel" auf Platten des Typs MIRROR, STATESAVE und
DRL mit dem oder ohne das Attribut OPS.
Diese Erweiterung wird auch für Root Mirror unterstützt.
2.5.1
Spiegelplatte mit einem definierten Piece
konfigurieren
Sie können vdisk-Platten des Typs mirror/statesave/drl mit nur einem
Piece konfigurieren. Das Piece kann als jedes beliebige der 8 gespiegelten
Pieces definiert werden. Die Anzahl gespiegelter Pieces ist auf maximal 8
begrenzt. Wenn ein Piece nicht definiert ist, wird in der Datei /etc/dktab das
Schlüsselwort NOTCONFIGURED benutzt, um es als nicht definiert und nicht konfiguriert zu kennzeichnen.
54
U42128-J-Z100-4
Volume Manager (RCVM)
Online-Rekonfiguration einer Spiegelplatte
Beispiel:
1. Das folgende Beispiel bezieht sich auf eine Spiegel-vdisk mit nur einem
Piece:
/dev/vd/vdisk0
statesave,ops,group=0
/dev/dsk/c3t123d2s1
0
32
/dev/vd/vdisk1
drl,ops,group=0 1
/dev/dsk/c3t123d4s1
0
/dev/vd/vdisk2 mirror,ops,group=0
/dev/dsk/c3t123d10s1
1
1024
1
2. Beispiel für die Verwendung des Schlüsselwortes NOTCONFIGURED:
Wenn eine Spiegelplatte definiert werden soll, bei der die Definition eines
Pieces (physische Beschreibung) zum Zeitpunkt der Konfiguration bei
einem beliebigen Paar nicht bekannt ist, können Sie das Schlüsselwort
NOTCONFIGURED verwenden, um das betreffende Piece entsprechend zu
kennzeichnen. Das Piece kann dann rekonfiguriert werden, indem der Spiegelplatte ein neues Piece hinzugefügt wird.
Im folgenden Beispiel sind piece 0 und piece 1 nicht definiert und werden
nicht konfiguriert:
/dev/vd/vdisk0
statesave,ops,group=0
/dev/dsk/c3t123d2s1
0
NOTCONFIGURED
/dev/dsk/c3t123d4s1
0
/dev/vd/vdisk1 mirror,ops,group=0
NOTCONFIGURED
/dev/dsk/c3t123d10s1
/dev/dsk/c3t123d12s1
U42128-J-Z100-4
3
32
32
3
55
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Online-Rekonfiguration einer Spiegelplatte
2.5.2
Volume Manager (RCVM)
Neues Spiegel-Piece zu einer konfigurierten
Spiegelplatte hinzufügen
Mit RCVM können Sie einer konfigurierten Spiegelplatte ein neues Piece online
hinzufügen. Es werden maximal 8 gespiegelte Pieces unterstützt. Es können
also nicht mehr als 8 Pieces hinzugefügt werden. Ein Gerät wird der Spiegelkonfiguration als das als nicht konfigurierte Gerät hinzugefügt, sofern ein solches vorhanden ist. Andernfalls wird das neue Piece an die bereits konfigurierten gespiegelten Pieces angehängt.
Die Syntax des Kommandos, mit dem ein gespiegeltes Piece hinzugefügt wird,
sieht wie folgt aus:
# dkconfig -r piece=devname{:offset:length} vdisk#
wobei devname der Name des neuen Piece-Gerätes ist und offset und length dessen relative Position und Länge angeben. Relative Position und Länge sind optional. Die /etc/dktab wird automatisch aktualisiert, damit sie die Definition des
neuen Piece für die rekonfigurierte gespiegelte vdisk einschließt. Bearbeiten
Sie /etc/dktab bei einer Spiegel-vdisk nicht manuelle, die mit der Option -r
rekonfiguriert wird. Wenn die Platte, die rekonfiguriert wird, auf mehreren Clusterknoten definiert ist, muss die Reconfiguration auf allen Clusterknoten durchgeführt werden.
Nach einer erfolgreichen Rekonfiguration, wird das neue gespiegelte Piece
zunächst deaktiviert. Setzen Sie den Status des neuen gespiegelten Pieces
mithilfe des Kommandos dkmirror fest. Führen Sie das Kommando dkmirror
-e aus, um das neue Piece zu aktivieren (Näheres finden Sie in Abschnitt „Mit
dkconfig(1M) und dkmirror(1M) konfigurieren“) und automatisch ein umfassendes Catch-up des RCVM-Moduls anzustoßen.
I Bei einer OPS-Spiegelplatte müssen die neuen Pieces auf allen Knoten
der Spiegelung hinzugefügt werden, bei denen die Spiegelung konfiguriert wurde, bevor der Status DISABLE des neuen Pieces geändert
wurde. Benutzen Sie dkconfig -r, um den Status des statesavePieces von DISABLE in OPEN zu ändern, da statesave nicht über preserved statesave verfügt. Die nächste Lese-/Schreiboperation von bzw. zu
diesem Piece ändert dessen Status in aktiviert und online. Es ist daher
nicht erforderlich, bei einer statesave-Platte das Kommando dkmirror
auszuführen.
I Weitere Einzelheiten über den vollen Funktionsumfang von dkconfig und
über die relevanten Fehlermeldungen finden Sie in der RCVM OnlineDokumentation.
56
U42128-J-Z100-4
Volume Manager (RCVM)
Online-Rekonfiguration einer Spiegelplatte
Gehen Sie beispielsweise wie folgt vor, um der Spiegelplatte vdisk1 ein neues
Piece hinzuzufügen:
1. Rufen Sie die Spiegelplatte vdisk1 und den Status ihrer jeweiligen Pieces
auf. Das Kommando dkmirror -lv vdisk1 zeigt, dass piece 0 nicht konfiguriert ist:
Mirror disk /dev/vd/vdisk1:
NOTCONFIGURED
piece 1 /dev/dsk/c3t123d4s1
piece 2 /dev/dsk/c3t123d6s1
MIRRORED
online
online
2. Fügen Sie der Spiegelplatte vdisk1 das neue Piece wie folgt hinzu:
dkconfig -r piece=/dev/dsk/c3t123d7s1 vdisk1
3. Rufen Sie den Status der gespiegelten Pieces wie folgt auf:
dkmirror -lv vdisk1
Mirror
piece
piece
piece
disk /dev/vd/vdisk1:
0 /dev/dsk/c3t123d7s1
1 /dev/dsk/c3t123d4s1
2 /dev/dsk/c3t123d6s1
MIRRORED
disabled (default)
online
online
dkmirror -lv vdisk1 zeigt an, dass piece 0 nicht konfiguriert ist.
4. Aktivieren Sie das neue Piece wie folgt:
dkmirror -e 0 vdisk1
2.5.3
Piece von einer konfigurierten Spiegelplatte
entfernen
Ein deaktiviertes gespiegeltes Piece kann von einer konfigurierten Spiegelplatte entfernt werden, ohne dass die betreffende Platte zuvor dekonfiguriert
werden muss. I/O-Vorgänge von und zur Spiegel-vdisk werden nicht angehalten
(Suspended), während das Piece entfernt wird. Die Spiegelung bleibt bei allen
verbleibenden Pieces verfügbar und voll funktionsfähig. Der Status eines
Pieces, das entfernt werden soll, muss mit dkmirror -d piece# mirror-volume
auf DISABLE gesetzt werden. Nachdem der Status auf DISABLE gesetzt wurde,
kann das Piece mithilfe des folgenden Kommandos entfernt werden:
# dkconfig -d piece# mirror-volume
U42128-J-Z100-4
57
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Online-Rekonfiguration einer Spiegelplatte
Volume Manager (RCVM)
Damit wird auf dem Konten, auf dem das Kommando ausgeführt wird, der
Piece-Index bei piece# von der konfigurierten Spiegelung entfernt. Bei OPSSpiegelplatten muss das Kommando dkconfig -d auf allen Knoten ausgeführt
werden, auf denen die Spiegelplatte konfiguriert ist. Wenn ein Piece entfernt
wird, so wird auch die Spiegeldefinition in der Datenbankdatei /etc/dktab von
RCVM entsprechend geändert. Bearbeiten Sie die Datei /etc/dktab der Spiegelung, die rekonfiguriert wird, nicht manual.
Sie können sämtliche konfigurierten gespiegelten Pieces mit Ausnahme des
letzten verbleibenden Pieces entfernen. Das letzte Piece einer konfigurierten
Spiegelung kann nur entfernt werden, indem die Spiegelung mit dkconfig -u
dekonfiguriert wird. Wenn das Piece, das aus der konfigurierten Spiegelung
entfernt werden soll, nicht das höchste Piece ist, wird die Spiegeldefinition des
betreffenden Pieces in der Datei /etc/dktab mit NOTCONFIGURED gekennzeichnet. Handelt es sich um das höchste Piece, so wird seine Definition aus
der Spiegeldefinition entfernt.
I Weitere Einzelheiten über den vollen Funktionsumfang von dkconfig und
über die relevanten Fehlermeldungen finden Sie in der RCVM OnlineDokumentation.
Gehen Sie beispielsweise wie folgt vor, um das Piece 0 der Spiegel-vdisk1 zu
entfernen:
1. Deaktivieren Sie das Piece wie folgt:
# dkmirror -d 0 vdisk1
2. Entfernen Sie das Piece wie folgt:
# dkconfig -d 0 vdisk1
3. Rufen Sie den Status der gespiegelten Pieces auf. Das Kommando
dkmirror -lv vdisk1 zeigt an, dass piece 0 nicht konfiguriert ist:
Mirror disk /dev/vd/vdisk1:
NOTCONFIGURED
piece 1 /dev/dsk/c3t123d4s1
piece 2 /dev/dsk/c3t123d6s1
2.5.4
MIRRORED
online
online
Root Mirror
RCVM unterstützt nun auch eine online Konfiguration von Mroot. Eine online
Konfiguration von Mroot verläuft genauso wie die einer normalen Spiegelplatte.
Allerdings aktualisiert die Rekonfiguration einer Mroot-Platte die Datei vd.conf
mit den neuen Konfigurationsdaten der Spiegelplatte.
58
U42128-J-Z100-4
Volume Manager (RCVM)
2.6
Label-basierte Konsistenzprüfung
Label-basierte Konsistenzprüfung
Alle Versionen von vdisk bieten (gegebenenfalls nach Installation des aktuellen
Patches) neben dem ursprünglichen Default-Verfahren eine neue Version der
statesave-Konsistenzprüfung, die auf den Datenträgernamen der Platten
basiert. Vdisk führt eine statesave-Konsistenzprüfung durch, um sicherzustellen, dass die Spezifikationen für die gespiegelte vdisk auf den verschiedenen
Knoten übereinstimmen. Dieser Abgleich erstreckt sich auf die Anzahl der Spiegel-Pieces, relative Position und Länge der Pieces sowie das physische Gerät,
das den Pieces zugrundeliegt. Erkennt vdisk, dass die Konfiguration nicht hundertprozentig übereinstimmt, werden sämtliche Pieces einer gespiegelten
Platte deaktiviert.
In den früheren vdisk-Versionen wurde für die Feststellung, ob die physischen
Geräte übereinstimmen, die Gerätenummer der Pieces einer Spiegel-Platte
verwendet. Da Solaris jedoch nicht so konfiguriert werden kann, dass gewährleistet ist, dass die Gerätenummer einer physischen Platte auf den verschiedenen Knoten in einem Cluster identisch ist, kann es unter bestimmten Umständen, beispielsweise beim Austausch eines Controllers oder bei einem
hardwarebasierten Failover, dazu kommen, dass sich die Gerätenummer eines
physischen Piece nach dem Neustart eines Cluster-Knotens geändert hat. In
diesem Fall würde vdisk fälschlicherweise eine nicht übereinstimmende Konfiguration erkennen und damit die Pieces einer Spiegelplatte deaktivieren.
Mit der neuen statesave-Konsistenzprüfung in vdisk werden die DatenträgerLabel der Platte herangezogen, um diese Problematik zu umgehen. Statt der
Gerätenummer dient jetzt der achtstellige Datenträgername im Header der
Platte zur Identifikation einer physischen Platte. Damit wird garantiert auf jedem
Knoten dasselbe Ergebnis erzielt.
Damit vdisk erkennen kann, dass auf verschiedenen Knoten unterschiedliche
physische Platten als dasselbe Spiegel-Piece spezifiziert wurden, muss jede
physische Platte einen eindeutigen Datenträgernamen haben. Datenträgernamen können in vdisk auf zweifache Weise zugewiesen werden:
●
Zuordnung durch den Benutzer
●
Automatische Zuordnung
Erfolgt die Zuweisung durch den Benutzer, dann muss der Benutzer jeder in der
Datei /etc/dktab aufgeführten Platte ein eindeutiges Datenträger-Label
zuweisen. Für die Definition der Labels kann das Systemdienstprogramm
format verwendet werden. Die Zuweisung des Datenträger-Label muss erfolgen, bevor die Platte mit Hilfe von vdisk konfiguriert wird.
U42128-J-Z100-4
59
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Label-basierte Konsistenzprüfung
Volume Manager (RCVM)
Bei der automatischen Zuweisung prüft vdisk, ob ein nicht initialisiertes Datenträger-Label vorhanden ist (d. h., nur Nullen bzw. nur Leerstellen). Wurde das
Label noch nicht definiert, erstellt vdisk einen Namen für den Datenträger auf
Grundlage des Hostnamens des betreffenden Knotens und der aktuellen Uhrzeit und definiert das Label automatisch. Hierbei ist zu beachten, dass vdisk
Label nicht vergleichen kann, die zu unterschiedlichen Zeiten im Cluster erstellt
wurden und daher gegebenenfalls zwei übereinstimmende Label existieren
können. Dieses Risiko ist jedoch äußerst gering. Existieren zwei identische
Label, kann vdisk die Nutzung der Platten mit den übereinstimmenden Labels
zwar zulassen, aber gegebenenfalls nicht mehr alle Unstimmigkeiten in der
Konfiguration erkennen.
2.6.1
Besonderheiten bei Installation und
Aktualisierung
Damit kontinuierliche Aktualisierungen unterstützt werden, greift vdisk standardmäßig auf die derzeitige Konsistenzprüfung anhand der Gerätenummern
zurück.
Ist vdisk auf einem neuen System installiert und entscheidet sich der Benutzer
für die benutzerdefinierte oder die automatische Zuweisung von Labels, kann
er mit Hilfe von dkmigrate und durch Ausführung von dkmigrate -u bzw.
dkmigrate -a vdisk permanent konfigurieren, bevor er vdisks einrichtet.
Näheres hierzu enthält die Manual-Page zum Kommando dkmigrate.
Wird vdisk auf einem vorhandenen System aktualisiert, kann der Benutzer dennoch auf eines der Label-basierten Konsistenzprüfungsschemata umstellen. Zu
beachten ist, dass diese Umstellung nicht mehr rückgängig zu machen ist. Um
auf die Label-basierte Prüfung zu migrieren, müssen Sie folgende Schritte ausführen:
1. Prüfen Sie, ob die Datei /etc/dktab auf allen Knoten korrekt ist.
2. Führen Sie nach Installation des neuen vdisk-Pakets auf jedem Knoten im
Cluster das Kommando dkmigrate -n aus. Zu beachten ist, dass nach
Ausführung dieses Kommandos die Datei /etc/dktab nicht mehr ohne
weiteres geändert werden kann, bevor Sie Schritt 5 ausgeführt haben.
3. Überprüfen Sie, ob alle Spiegel-vdisks konfiguriert wurden.
4. Wenn die Datei /etc/dktab die nicht unterstützte Option nocheck enthält,
muss diese entfernt werden.
60
U42128-J-Z100-4
Volume Manager (RCVM)
Besonderheiten bei gespiegelten root-Platten
5. Soll die benutzerdefinierte Label-Zuweisung gewählt werden, vergeben Sie
mit dem Dienstprogramm format für alle in /etc/dktab aufgelisteten Platten einen Namen und führen Sie anschließend auf allen Knoten das Kommando dkmigrate -u aus.
Bei automatischer Label-Zuweisung ist auf allen Knoten folgendes Kommando auszuführen.
# dkmigrate -a
2.6.2
Besonderheiten beim Betrieb
Beachten Sie: Wenn die Label-basierte Konsistenzprüfung aktiviert ist, bewirkt
eine Änderung des Datenträger-Labels einer vdisk nach der Konfiguration, dass
die Konfiguration als nicht mehr konsistent angesehen wird. Wird eine solche
Nichtübereinstimmung erkannt, werden alle betroffenen Spiegel-Pieces deaktiviert.
Um eine vorhandene Platte auszutauschen bzw. eine neue Platte hinzuzufügen, muss für das Aktivieren von Spiegel-Pieces, die auf die neue Platte zurückgreifen, das Kommando dkmirror mit der Option -S ausgeführt werden. Über
diese Option wird vdisk angewiesen, dass eine neue Platte mit einem anderen
Datenträger-Label installiert wurde. Wurde user-labeling eingestellt, muss
das Datenträger-Label eingestellt werden, bevor dkmirror ausgeführt werden
kann. Bei automatischer Label-Zuweisung und einem nicht initialisierten Platten-Label übernimmt vdisk die Benennung der Platte selbständig.
2.7
Besonderheiten bei gespiegelten rootPlatten
Sollen virtuelle Platten dazu benutzt werden, die root-Partition, die Partition usr
und den primären Swap-Bereich zu spiegeln, müssen weitere Rahmenbedingungen erfüllt sein. Dies ist darauf zurückzuführen, dass die auf der root-Platte
gespeicherten Daten für die Konfiguration benötigt werden. RCVM bietet
jedoch auch die Möglichkeit, diese Partitionen als Spiegelplatten zu konfigurieren. Auf diese Weise können die Sicherheit und die Verfügbarkeit des Gesamtsystems deutlich gesteigert werden. Dennoch ist die Konfigurationsprozedur für
die root-Partition, die Partition usr und den Swap-Bereich komplexer als bei
anderen Spiegelplatten.
U42128-J-Z100-4
61
Volume Manager (RCVM)
/dev/vd/vdisk6
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
Besonderheiten bei gespiegelten root-Platten
/dev/vd/vdisk0
/dev/vd/vdisk3
/dev/vd/vdisk1
/dev/vd/vdisk4
/
/
swap
swap
/opt
/opt
/usr
/usr
/var
/var
...
...
Bild 8: Beispielkonfiguration einer gespiegelten root-Platte
Die Spiegelung der root-Partition, der usr-Partition und des Swap-Bereichs ist
nur möglich, wenn alle Pieces der root-Platte ebenfalls gespiegelt werden. Nur
dann kann das System unterbrechungsfrei weiterarbeiten, wenn ein Piece der
root-Platte ausfällt. Gespiegelte root-Platten werden mit denselben Kommandos konfiguriert und verwaltet wie normale Spiegelplatten auch, jedoch sind in
einigen Fällen spezielle Parameter erforderlich. Andere Partitionen wie etwa
/var, /opt und /home werden wie normale Spiegelplatten gespiegelt.
Sobald das Betriebssystem von einer gespiegelten root-Platte aus gestartet
wurde, ist die Plattenkonfiguration nicht mehr modifizierbar. Eine manuelle
Deaktivierung sämtlicher Pieces dieser virtuellen Platte ist nicht zulässig. Mindestens eines der Pieces muss immer online sein, da andernfalls das gesamte
System ausfallen würde.
Für die root-, die usr-Partition und den primären Swap-Bereich muss in die
Datei /etc/dktab ein entsprechender Eintrag eingefügt werden. Diese Einträge sind praktisch identisch mit denen einer Spiegelplatte. Sie enthalten
jedoch zusätzlich im Feld mit der Typangabe den Subtyp root, usr bzw. swap.
Anschließend müssen mit dem Kommando dkconfig -wR die Dateien
/mrconfig.1 und /mrconfig.2 erstellt werden. Diese sind für das SystemBoot erforderlich. Sie basieren auf Einträgen in der Datei /etc/dktab.
62
U42128-J-Z100-4
Volume Manager (RCVM)
Besonderheiten bei gespiegelten root-Platten
Die Einträge für das root-Dateisystem, das /usr-Dateisystem, den primären
Swap-Bereich und alle sonstigen Partitionen der root-Platte müssen in der
Datei /etc/vfstab modifiziert werden. In dieser Datei werden alle Einträge für
physische Platten durch die virtuellen Platten ersetzt.
Abschließend muss das physische Piece, das jetzt die korrekten Daten enthält,
für die Spiegelplatten definiert werden. Dieses Piece bildet die Datenquelle, von
der in einem Catch-Up-Prozess beim nächsten System-Boot die Daten geladen
werden, so dass sichergestellt ist, dass alle Pieces der gespiegelten root-Platte
gültige Daten enthalten. Hierzu wird das Kommando dkmirror -mn verwendet,
in dem n für die Nummer des Piece mit den gültigen Daten steht. Nach dem
Neustart des Systems und Beendigung des automatischen Catch-Up-Prozesses sind alle Partitionen der root-Platte gespiegelt.
2.7.1
Beispiel einer gespiegelten root-Platte
Das folgende Beispiel illustriert die Spiegelung sämtlicher Partitionen einer
root-Platte. Die root-Platte trägt die Bezeichnung /dev/dsk/c0t0d0s0, die
Spiegelplatte die Bezeichnung /dev/dsk/c0t1d0s0. Die Partitionstabellen
der beiden Platten sind identisch. Prüfen Sie mit Hilfe des Kommandos
prtvtoc, ob noch nicht genutzte Partitionen vorhanden sind, die zwecks Speicherung von Statusinformationen als virtuelle Platten des Typs statsv definiert
werden können. Sind keine nicht benutzten Partitionen mehr verfügbar, definieren Sie statsv anhand einer relativen Positionsangabe am Ende des SwapBereichs. In den nachfolgenden Schritten ist die Verkleinerung des SwapBereichs näher beschrieben. Um die Partitionstabelle der Spiegelplatte entsprechend der Partitionstabelle der Root-Platte einzurichten, sind folgende
Kommandos einzugeben:
prtvtoc /dev/dsk/c0t1d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2
Überprüfen Sie das Ergebnis mit Hilfe von prtvtoc /dev/dsk/c1t1d0s2 und
vergleichen Sie es mit der Ausgabe des Kommandos prtvtoc
/dev/dsk/c0t2d0s2.
V Achtung
Wenn Sie den Swap-Bereich für das statsv-Gerät verwenden, darf
diese Partition nicht auch als Dump-Gerät für Solaris verwendet werden.
Andernfalls könnten die vstatsv-Informationen zerstört werden wenn
ein umfangreicher Dump erstellt wird. Verwenden Sie dumpadm um das
Dump-Gerät einer anderen physischen Partition zuzuweisen.
U42128-J-Z100-4
63
Volume Manager (RCVM)
1. Um die root-Platte für die Spiegelung vorzubereiten, führen Sie das nachstehende Kommando aus, um die Struktur der aktuellen root-Plattenpartition festzustellen:
# prtvtoc /dev/dsk/c0t0d0s0
/dev/dsk/c0t0d0s0 partition map
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
Besonderheiten bei gespiegelten root-Platten
Dimensions:
512 bytes/sector
420 sectors/track
5 tracks/cylinder
2100 sectors/cylinder
8489 cylinders
8487 accessible cylinders
Flags:
1: unmountable
10: read-only
Unallocated space:
First
Sector
Sector
Count
6295800
260400
17665200
157500
Partition
Directory
0
2
1
4
2
5
3
7
4
3
5
0
6
4
7
8
Tag
00
00
00
00
01
00
00
00
Last
Sector
6556199
17822699
Flags
First
Sector
0
1050000
0
3147900
13108200
5245800
15206100
6556200
1050000
2097900
17822700
2097900
2097900
1050000
2459100
6552000
Sector
Count
Last
Sector
1049999
3147899
17822699
5245799
15206099
6295799
17665199
13108199
Mount
/
/var
/opt
/usr
/export/home
In diesem Beispiel: root, swap, /usr, /var.In diesem Beispiel müssen
/opt und /export/home gespiegelt werden, um eine vollständige Spiegelung der root-Platte zu erzielen. Beachten Sie außerdem, dass Slice 1 nicht
benutzt wird und daher für die Speicherung der Statusinformationen für die
gespiegelten Platten verfügbar ist. Diese Slice ist größer als erforderlich.
Benötigt werden mindestens 16 KB.
64
U42128-J-Z100-4
Volume Manager (RCVM)
Besonderheiten bei gespiegelten root-Platten
In dem folgenden Beispiel für das Layout einer root-Platte sind keine nicht
benutzten Partitionen enthalten:
# prtvtoc /dev/dsk/c0t0d0s0
/dev/dsk/c0t0d0s0 partition map
Dimensions:
512 bytes/sector
420 sectors/track
5 tracks/cylinder
2100 sectors/cylinder
8489 cylinders
8487 accessible cylinders
Flags:
1: unmountable
10: read-only
Unallocated space:
First
Sector
Sector
Count
6295800
260400
17665200
157500
Partition
Directory
0
2
1
4
2
5
3
7
4
3
5
0
6
4
7
8
Tag
00
00
00
00
01
00
00
00
Last
Sector
6556199
17822699
Flags
0
1050000
0
3147900
13108200
5245800
15206100
6556200
First
Sector
Sector
Count
1050000
2097900
17822700
2097900
2097900
1050000
2459100
6552000
Last
Sector
1049999
3147899
17822699
5245799
15206099
6295799
17665199
13108199
Mount
/
/usr/openwin
/var
/opt
/usr
/export/home
In diesem Fall müssen wir die Swap-Partition in zwei vdisks, eine für „statsv“
und eine für „swap“, untergliedern, da für die Speicherung der Statusinformationen keine freien Partitionen zur Verfügung stehen.
U42128-J-Z100-4
65
Volume Manager (RCVM)
2. Die Datei /etc/vfstab muss bearbeitet werden.
Alte Einträge (diese alten Einträge sollten Sie speichern, indem Sie in Spalte
1 das Kommentarzeichen “#”eintragen):
#/dev/dsk/c0t0d0s4
#/dev/dsk/c0t0d0s0
no
#/dev/dsk/c0t0d0s6
no
#/dev/dsk/c0t0d0s3
no
#/dev/dsk/c0t0d0s7
2
yes#/dev/dsk/c0t0d0s5
yes
#/dev/dsk/c0t0d0s1
2
yes -
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
Besonderheiten bei gespiegelten root-Platten
-
-
swap
-
no
/dev/rdsk/c0t0d0s0 /
ufs
1
/dev/rdsk/c0t0d0s6 /usr
ufs
1
/dev/rdsk/c0t0d0s3 /var
ufs
1
/dev/rdsk/c0t0d0s7 /export/home ufs
/dev/rdsk/c0t0d0s5 /opt
ufs
2
/dev/rdsk/c0t0d0s1 /usr/openwin ufs
Neue Einträge:
/dev/vd/vdisk4
no
/dev/vd/vdisk0
no
/dev/vd/vdisk6
no
/dev/vd/vdisk3
no
/dev/vd/vdisk7
2
yes/dev/vd/vdisk5
yes
/dev/vd/vdisk1
2
yes-
-
-
swap
-
/dev/vd/rvdisk0
/
ufs
1
/dev/vd/rvdisk6
/usr
ufs
1
/dev/vd/rvdisk3
/var
ufs
1
/dev/vd/rvdisk7
/export/home
ufs
/dev/vd/rvdisk5
/opt
2
/dev/vd/rvdisk1
/usr/openwin
ufs
ufs
In dem vorstehenden Beispiel handelt es sich bei /usr/openwin um eine
eingehängte Partition. Im Falle, dass Slice 1 nicht benutzt wird, ist dieser
Eintrag nicht vorhanden.
66
U42128-J-Z100-4
Volume Manager (RCVM)
Besonderheiten bei gespiegelten root-Platten
3. Anschließend muss die Datei /etc/dktab erstellt oder bearbeitet werden.
In dem nachstehenden Beispiel für die Datei /etc/dktab kann eine der Slices (in diesem Fall s1) der root-Platte für die Speicherung von Statusinformationen genutzt werden:
/dev/vd/vdisk15 statsv
/dev/dsk/c0t0d0s1
/dev/dsk/c0t1d0s1
2
/dev/vd/vdisk0
mirror,root
/dev/dsk/c0t0d0s0
/dev/dsk/c0t1d0s0
2
/dev/vd/vdisk4
mirror,swap
/dev/dsk/c0t0d0s4
/dev/dsk/c0t1d0s4
2
/dev/vd/vdisk6
mirror,usr
/dev/dsk/c0t0d0s6
/dev/dsk/c0t1d0s6
# Entry for /var
/dev/vd/vdisk3
mirror
/dev/dsk/c0t0d0s3
/dev/dsk/c0t1d0s3
# Entry for /opt
/dev/vd/vdisk5
mirror
/dev/dsk/c0t0d0s5
/dev/dsk/c0t1d0s5
# Entry for /export/home
/dev/vd/vdisk7
mirror
/dev/dsk/c0t0d0s7
/dev/dsk/c0t1d0s7
U42128-J-Z100-4
2
2
2
2
67
Volume Manager (RCVM)
Sind keine freien Partitionen vorhanden, die für die statsv-Informationen
genutzt werden können, teilen wir die swap-Partition in zwei vdisks, jeweils
eine für "statsv" und eine für "swap". In diesem Fall enthält die Datei
/etc/dktab in etwa folgende Einträge:
/dev/vd/vdisk15 statsv
/dev/dsk/c0t0d0s4
/dev/dsk/c0t1d0s4
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
Besonderheiten bei gespiegelten root-Platten
2097772
2097772
/dev/vd/vdisk0
mirror,root
/dev/dsk/c0t0d0s0
/dev/dsk/c0t1d0s0
2
/dev/vd/vdisk4
mirror,swap
/dev/dsk/c0t0d0s4
/dev/dsk/c0t1d0s4
k
/dev/vd/vdisk6
mirror,usr
/dev/dsk/c0t0d0s6
/dev/dsk/c0t1d0s6
2
# Entry for /var
/dev/vd/vdisk3
mirror
/dev/dsk/c0t0d0s3
/dev/dsk/c0t1d0s3
# Entry for /opt
/dev/vd/vdisk5
mirror
/dev/dsk/c0t0d0s5
/dev/dsk/c0t1d0s5
# Entry for /export/home
/dev/vd/vdisk7
mirror
/dev/dsk/c0t0d0s7
/dev/dsk/c0t1d0s7
# Entry for /usr/openwin
/dev/vd/vdisk1
mirror
/dev/dsk/c0t0d0s1
/dev/dsk/c0t1d0s1
68
2
0
0
128
128
2097771
2097771
2
2
2
2
2
U42128-J-Z100-4
Volume Manager (RCVM)
Besonderheiten bei gespiegelten root-Platten
4. Die Konfiguration der gespiegelten root-, /usr- und Swap-Platte muss mit
dem nachstehenden Kommando in die Dateien /mrconfig.1 und
/mrconfig.2 eingetragen werden:
# dkconfig -wR
5. Danach werden alle nicht gruppierten virtuellen Platten wie folgt konfiguriert:
# dkconfig -vwac
6. Der Status der neuen Spiegelplatten wird folgendermaßen initialisiert:
# for i in 0 1 3 4 5 6
7> do
>
dkmirror -d0 -d1 /dev/vd/vdisk$i
>
dkmirror -m0 /dev/vd/vdisk$i
> done
V Achtung
Haben Sie die falsche Spiegelplatte als Master-Piece spezifiziert,
besteht die Gefahr, dass alle Daten verloren gehen.
7. Um von der zweiten Platte ein alternatives Boot ausführen zu können, muss
die Platte als Boot-Gerät im OBP des Systems bekannt sein. Ändern Sie die
Boot-Parameter mit dem Kommando eeprom wie folgt:
eeprom boot-device=rcvm_p0 rcvm_p1”
eeprom use-nvramrc?=true
eeprom nvramrc=”devalias rcvm_p0 \
/pci@94,4000/scsi@2/disk@1,0:a \
devalias rcvm_p1 /pci@94,4000/scsi@2/disk@2,0:a”
Bei Verwendung des Kommandos dumpadm muss als Dump-Gerät eines
der Swap-Gerät-Pieces eingestellt sein. Wenn das Dump-Gerät aufgrund
eines I/O-Fehlers nicht zur Verfügung steht, können Sie mit dumpadm auf
das zweite Piece des Swap-Geräts umschalten.
V Achtung
In einer Konfiguration in der ein Teil des Swap-Geräts als statsvPartition verwendet wird, verwenden Sie dumpadm um das DumpGerät einer anderen physischen Partition zuzuordnen; andernfalls
könnte die statsv Information zerstört werden.
Ist rcvm_p0 (Piece 0) der ersten Platte nicht verfügbar, erfolgt das Boot über
das zweite Piece.
U42128-J-Z100-4
69
Volume Manager (RCVM)
8. Abschließend muss das System mit # init 6 neu gestartet werden.
Nach dem Start des Systems wird für alle Spiegelplatten automatisch der
Catch-Up-Prozess veranlasst.
V Achtung
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
Besonderheiten bei gespiegelten root-Platten
Bei der Konfigurierung einer gespiegelten root-Platte bestehen folgende potenzielle Fehlerquellen:
1. Starten Sie den Catch-Up-Prozess keinesfalls, bevor das System
neu gestartet wurde.
2. Überzeugen Sie sich, dass Sie das richtige Master-Piece angegeben haben.
I Achten Sie unbedingt darauf, nach der Konfigurierung Ihrer vdisk das
System mit dem Kommando init 6 neu zu starten. Mit dem SolarisKommando reboot werden die Skripts für die ordnungsgemäße
Dekonfiguration der Spiegelplatten nicht ausgeführt, so dass gegebenenfalls ein vollständiges Catch-Up erforderlich ist.
2.7.2
Deaktivierung der root-Spiegelung
Dieser Abschnitt geht auf die Deaktivierung und Wiederaktivierung der Spiegelung ein.
2.7.2.1
Deaktivierung
Wenn Sie die Spiegelung eines Systems, das mit einer gespiegelten root-Platte
arbeitet, deaktivieren wollen, gehen Sie folgendermaßen vor:
1. Kopieren Sie die Datei /etc/vfstab:
# cp /etc/vfstab /etc/vfstab.bak
Kopieren Sie die Datei /etc/dktab:
# cp /etc/dktab /etc/dktab.bak
2. Ändern Sie die Datei /etc/vfstab:
Alte Einträge:
#/dev/dsk/c0t0d0s4
no #/dev/dsk/c0t0d0s0
1
no -
70
/dev/rdsk/c0t0d0s0
/
swap
ufs
U42128-J-Z100-4
Volume Manager (RCVM)
Besonderheiten bei gespiegelten root-Platten
#/dev/dsk/c0t0d0s6
/dev/rdsk/c0t0d0s6 /usr
1
no #/dev/dsk/c0t0d0s3
/dev/rdsk/c0t0d0s3 /var
1
no #/dev/dsk/c0t0d0s7
/dev/rdsk/c0t0d0s7 /export/home
2
yes #/dev/dsk/c0t0d0s5
/dev/rdsk/c0t0d0s5 /opt
2
yes #/dev/dsk/c0t0d0s1
/dev/rdsk/c0t0d0s1 /usr/openwin
2
yes /dev/vd/vdisk4
no /dev/vd/vdisk0
/dev/vd/rvdisk0
/
1
no /dev/vd/vdisk6
/dev/vd/rvdisk6
/usr
1
no /dev/vd/vdisk3
/dev/vd/rvdisk3
/var
1
no /dev/vd/vdisk7
/dev/vd/rvdisk7
/export/home
2
yes /dev/vd/vdisk5
/dev/vd/rvdisk5
/opt
2
yes -/dev/vd/vdisk1
/dev/vd/rvdisk1
/usr/openwin ufs
2
yes -
ufs
ufs
ufs
ufs
ufs
swap
ufs
ufs
ufs
ufs
ufs
Neue Einträge:
/dev/dsk/c0t0d0s4
no /dev/dsk/c0t0d0s0
1
no /dev/dsk/c0t0d0s6
1
no /dev/dsk/c0t0d0s3
1
no /dev/dsk/c0t0d0s7
2
yes /dev/dsk/c0t0d0s5
2
yes /dev/dsk/c0t0d0s1
2
yes #/dev/vd/vdisk4
no #/dev/vd/vdisk0
1
no #/dev/vd/vdisk6
1
no #/dev/vd/vdisk3
1
no #/dev/vd/vdisk7
U42128-J-Z100-4
-
-
swap
/dev/rdsk/c0t0d0s0
/
ufs
/dev/rdsk/c0t0d0s6
/usr
ufs
/dev/rdsk/c0t0d0s3
/var
ufs
/dev/rdsk/c0t0d0s7
/export/home
ufs
/dev/rdsk/c0t0d0s5
/opt
ufs
/dev/rdsk/c0t0d0s1
/usr/openwin
ufs
-
-
swap
/dev/vd/rvdisk0
/
ufs
/dev/vd/rvdisk6
/usr
ufs
/dev/vd/rvdisk3
/var
ufs
/dev/vd/rvdisk7
/export/home ufs
71
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Besonderheiten bei gespiegelten root-Platten
2
yes #/dev/vd/vdisk5
2
yes #/dev/vd/vdisk1
2
yes -
Volume Manager (RCVM)
/dev/vd/rvdisk5
/opt
ufs
/dev/vd/rvdisk1
/usr/openwin ufs
Wie Sie sehen, wurden die Kommentarzeichen # in der ersten Spalte der
Original-Zeilen gelöscht und statt dessen die Zeilen für die virtuellen Platten
mit Kommentarzeichen markiert.
3. Ändern Sie die Datei /etc/dktab, indem Sie in die erste Spalte jeder Zeile
das Kommentarzeichen # eintragen:
#
#
#
#
#
#
#
#
#
#
#
#
#
#
#
##
#
#
#
/dev/vd/vdisk15 statsv
/dev/dsk/c0t0d0s1
/dev/dsk/c0t1d0s1
2
/dev/vd/vdisk0
mirror,root
/dev/dsk/c0t0d0s0
/dev/dsk/c0t1d0s0
2
/dev/vd/vdisk4
mirror,swap
/dev/dsk/c0t0d0s4
/dev/dsk/c0t1d0s4
2
/dev/vd/vdisk6
mirror,usr
/dev/dsk/c0t0d0s6
/dev/dsk/c0t1d0s6
2
Entry for /var
/dev/vd/vdisk3
mirror
/dev/dsk/c0t0d0s3
/dev/dsk/c0t1d0s3
## Entry for /opt
# /dev/vd/vdisk5
mirror
#
/dev/dsk/c0t0d0s5
#
/dev/dsk/c0t1d0s5
## Entry for /export/home
# /dev/vd/vdisk7
mirror
#
/dev/dsk/c0t0d0s7
#
/dev/dsk/c0t1d0s7
72
2
2
2
U42128-J-Z100-4
Volume Manager (RCVM)
Besonderheiten bei gespiegelten root-Platten
4. Ändern Sie vd.conf wie folgt:
use_mroot=0
5. Löschen Sie folgende Zeilen aus der Datei /etc/system:
forceload: drv/pseudo
forceload: drv/sd
rootdev:/pseudo/vd@0:vdisk0
6. Starten Sie das System mit folgendem Kommando neu:
# init 6
2.7.2.2
Aktivierung
Gehen Sie zum Aktivieren der Spiegelung folgendermaßen vor:
1. Kopieren Sie die gespeicherten Dateien /etc/dktab.bak und
/etc/vfstab.bak zurück wie folgt:
# cp /etc/dktab.bak /etc/dktab# cp /etc/vfstab.bak
/etc/vfstab
2. Gehen Sie anschließend folgendermaßen vor:
#
#
#
>
>
>
>
dkconfig -wRn
dkconfig -vwac
for i in 0 1 3 4 5 6 7
do
dkmirror -d0 -d1 /dev/vd/vdisk$i
dkmirror -m0 /dev/vd/vdisk$i
done
3. Starten Sie das System neu (# init 6 oder # init 5).
Nachdem alle Spiegelplatten im Rahmen des Catch-Up-Prozesses aktualisiert
wurden, steht wieder die volle Funktionalität der Spiegelplatte zur Verfügung.
U42128-J-Z100-4
73
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcvm.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Select vdisks
2.8
Volume Manager (RCVM)
Select vdisks
Dieser Abschnitt erläutert die Eigenschaften von select vdisks, die Hardware,
die Konfiguration von select vdisks sowie die Arbeit mit select vdisks.
2.8.1
Eigenschaften von select vdisks
Dieser Typ virtueller Platten ist auf SRDF-Konfigurationen von EMC Symmetrix
Raid-Boxen zugeschnitten. Eine select vdisk ist eine Spiegelplatte mit besonderen Eigenschaften. Sie hat mehrere Pieces (gewöhnlich zwei). Es kann
immer nur auf jeweils ein Piece zugegriffen werden. Das wäre im Fall von SRDF
die R1-Seite. Im Falle einer Umschaltung durch SRDF kann das andere Piece
mit dem Kommando dkmirror aktiviert werden. Das bis dahin aktive Piece wird
zugleich deaktiviert.
2.8.2
Hardware
Desaster-Konfiguration mit zwei Knoten und zwei EMC Symmetrix Speichersystemen, die mit SDRF (teilweise) gespiegelt werden.
2.8.3
Konfiguration von select vdisks
Neue Syntax für den Eintrag /etc/dktab:
/dev/vd/vdisk26 statesave 2
/dev/dsk/c5t0d1s1
/dev/dsk/c5t0d2s1
/dev/vd/vdisk27 select 2
/dev/dsk/c5t0d1s2
/dev/dsk/c5t0d2s2
Man kann auch Gruppen definieren: select,group=127
Diese vdisks können mit dkconfig konfiguriert werden.
I Für die spezielle Gruppe muss eine statesave-vdisk existieren. Wenn
keine Gruppe angegeben wird, muss eine statsv-Platte definiert werden.
74
U42128-J-Z100-4
Volume Manager (RCVM)
2.8.4
●
Select vdisks
Arbeiten mit select vdisks
Die vdisks können mit dkconfig gezeigt werden:
# dkconfig -lvg127
/dev/vd/vdisk26 512 blocks 'Statesave(OLR)' in 2 pieces
piece 0
/dev/dsk/c5t0d1s1[0...35551231] 7
io
piece 1 /dev/dsk/c5t0d2s1[0...35551231] 3 io
/dev/vd/vdisk27 35551232 blocks 'Select' in 2 pieces
piece 0
/dev/dsk/c5t0d1s2[0...35551231]
0 io
piece 1
/dev/dsk/c5t0d2s2[0...35551231]
0 io
I Sie können auch die Standardwerkzeuge iostat und vmstat von
Solaris benutzen, um die statistischen Daten der RCVM-Platten zu
betrachten.
●
Mit Hilfe von dkmirror kann man kontrollieren, welches Piece gerade aktiviert
ist:
# dkmirror -lvg127
Statesave disk /dev/vd/vdisk26:
ONLINE (in use)
piece 0
/dev/dsk/c5t0d1s1 online
piece 1
/dev/dsk/c5t0d2s1 online
Select disk /dev/vd/vdisk27:
ACTIVE
piece 0
/dev/dsk/c5t0d1s2 online
piece 1
/dev/dsk/c5t0d2s2 disabled (default)
●
dkmirror -M piecenumber vdiskname deaktiviert zuerst alle Pieces und versetzt dann das angegebene Piece in den Zustand online.
Dies ist nur möglich, wenn die select vdisk zwar konfiguriert, jedoch nicht in
Gebrauch ist.
●
Die Information, welches Piece aktiviert ist, überlebt einen Neustart. Daher
ist ein Statesave-Gerät erforderlich.
●
Ein E/A-Fehler beim aktivierten Piece führt nicht zur Deaktivierung des
Piece, aber der E/A-Fehler wird an den Aufrufer gemeldet.
●
dkmirror -e für eine select vdisk wird abgewiesen und eine Fehlermeldung wird ausgegeben, weil die Zustände enabled und catchup nicht für
select vdisks definiert sind.
U42128-J-Z100-4
75
3
File Share (RCFS)
Dieses Kapitel beschreibt PRIMECLUSTER File Share. Dank dieses optionalen
Cluster Foundation-Service kann ein Dateisystem von allen oder mehreren
Knoten in einem Cluster gemeinsam genutzt werden.
In diesem Abschnitt werden folgende Themen behandelt:
●
Der Abschnitt „RCFS-Komponenten“ beschreibt, welche Komponenten für
eine RCFS-Konfiguration erforderlich sind.
●
Der Abschnitt „Unterschiede zwischen RCFS und NFS“ beschreibt die Vorteile, die RCFS bietet.
●
Der Abschnitt „RCFS-Gerätenamen und Major/Minor Device Numbers“
beschreibt, wie identische Gerätenamen und übereinstimmende
Major/Minor Device Numbers im gesamten Cluster sichergestellt werden
können.
●
Im Abschnitt „Knotengruppen“ ist beschrieben, wie Gruppen von Knoten für
den RCFS-Server und die RCFS-Clients erstellt werden.
●
Der Abschnitt „RCFS-Dateisysteme einhängen“ beschreibt die Funktionsweise des mount-Kommandos in RCFS.
●
Im Abschnitt „Automatisches Failover des RCFS-Dateisystem-Servers“ ist
erläutert, wie RCFS bei Ausfall eines Servers reagiert.
●
Im Abschnitt „RCFS-Dateisysteme aushängen“ ist beschrieben, wie RCFS
auf dem RCFS-Server und den RCFS-Clients ausgehängt wird.
●
Der Abschnitt „Beispiel für RCFS-Eintrag in /etc/vfstab“ beschreibt, wie das
Einhängen von RCFS nach einem Neustart automatisiert werden kann.
●
Der Abschnitt „RCFS-Kommandos“ beschreibt RCFS-Verwaltungsbefehle,
die im CLI verfügbar sind.
U42128-J-Z100-4
77
3.1
RCFS-Komponenten
Cluster-Interconnect
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm
File Share (RCFS)
RCFS-Komponenten
Knoten A
Primärer
RCFS-Server
+
RCFS-Client
Knoten B
Knoten C
Knoten D
RCFS-BackupServer
+
RCFS-Client
RCFS-Client
RCFS-Client
Storage Area Network
Externer
PlattenSpeicher
Bild 9: Typische RCFS-Konfiguration
Wie in Bild 9 gezeigt, besteht eine File Share (RCFS)-Konfiguration aus folgenden Komponenten:
●
Cluster-Interconnect
●
RCFS-Server-Knoten
●
RCFS-Client-Knoten
●
Einem externen, für mehrere Hostrechner zugänglichen Plattenspeichergerät
Die RCFS-Server-Knoten können über ein Storage Area Network (SAN) auf
das externe Plattenspeichergerät zugreifen. Auf diesen Knoten wird das physische Dateisystem eingehängt, das anschließend den RCFS-Client-Knoten über
das Cluster-Interconnect logisch zur Verfügung gestellt wird. Da das physische
Dateisystem immer nur an einem RCFS-Server eingehängt werden kann, muss
das mount-Kommando von RCFS an demjenigen Knoten ausgeführt werden,
der als primary server node fungiert. Sowohl auf den RCFS-Client-Knoten als
auch auf den RCFS-Server-Knoten wird das logische Dateisystem an demselben Mount-Punkt eingehängt.
Die Hochverfügbarkeit von Dateien ist durch redundante Absicherung des Cluster-Interconnect und einen Backup-Server gewährleistet.
78
U42128-J-Z100-4
File Share (RCFS)
Unterschiede zwischen RCFS und NFS
Der RCFS-Dienst bietet die gesamte Semantik des POSIX-Dateisystems sowie
Hochverfügbarkeit und parallelen Zugriff auf ein Dateisystem. Diese RCFSFreigabe bietet eine überprüfte Unterstützung von UFS auf Solaris 9 OE und
Solaris 10 OE.
RCFS gewährleistet problemlose Verwaltung:
●
Knotengruppen werden für Server- und Client-Gruppen genutzt.
●
Knotengruppen sind einfach angeordnete Knotenlisten, die mit
ngadmin(1M) erstellt werden.
●
Im Cluster existiert eine konsistente und permanente Ansicht dieser Gruppen.
●
Server-Einhängevorgang sendet Meldungen an Clients.
●
An den Clients erfolgt das Einhängen automatisch.
●
Keine speziellen Konfigurationsdateien erforderlich (Datei vfstab auf dem
Server-Knoten wird benutzt).
●
Aushängen auf dem Server bewirkt Aushängen auf allen Knoten.
●
Clients können separat ausgehängt werden (beispielsweise durch Herunterfahren mit shutdown).
●
Clients können manuell eingehängt werden, sofern nach einem Aushängevorgang erforderlich.
3.2
Unterschiede zwischen RCFS und NFS
An dieser Stelle ist auf die unterschiedliche Semantik eines Clusters verglichen
mit einem Netzwerk hinzuweisen. In einem Netzwerk gibt es keine aktuelle Mitgliedschaft. Ohne dies kann jedoch ein Netzwerk-Dateisystem nicht immer
Reaktionen bereitstellen, wie dies bei einem lokalen Dateisystem der Fall ist.
Insbesondere kann NFS keine global einheitliche Ansicht der Daten garantieren. Dateiserver in einem Netzwerk können lediglich in eingeschränktem
Umfang Zustandsdaten zu den angeschlossenen Clients pflegen. Dies führt zu
einem gewissen Verwaltungsaufwand beispielsweise durch eine separate
Open-Service-Close-Sequenz für jede remote Client-Anwendung. RCFS dagegen kann Statusinformationen zu den angeschlossenen Clients pflegen und auf
deren aktuelle Daten zugreifen.
U42128-J-Z100-4
79
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
RCFS-Gerätenamen und Major/Minor Device Numbers File Share (RCFS)
3.3
RCFS-Gerätenamen und Major/Minor
Device Numbers
I Auf allen Knoten im Cluster müssen sowohl die Gerätenamen als auch
die Major/Minor Device Numbers der Speichergeräte identisch sein.
Dies ist beispielsweise mit Hilfe von RCVM zu erreichen, indem in die Datei
/etc/name_to_major für den Treiber vd ein eindeutiger Eintrag eingefügt
wird. Die Minor Device Numbers für vdisks wird anhand von Benennungskonventionen generiert (wenn der Name vdisk123 lautet, wird die Minor Device
Number 123 vergeben).
Zum Ändern der Datei /etc/name_to_major ersetzen Sie am Ende der Datei
den Eintrag major_number, wobei major_number für die ausgewählte, von
RCVM zu benutzende Major Device Number steht:
vd major_number
Die major_number darf noch auf KEINEM der Knoten im Cluster verwendet werden. Um die Änderungen in der Datei /etc/name_to_major in Kraft zu setzen,
müssen Sie das System mit init 6 oder shutdown neu starten.
I Verwenden Sie keinesfalls das Kommando reboot. Beim Kommando
reboot werden die rc-Skripts nicht ausgeführt, so dass Ihr System in
den LEFTCLUSTER-Zustand wechselt.
Die Änderung der major_number muss erfolgen, bevor mit der Installation des
RCVM begonnen wird (fügen Sie vd eindeutige_major_number in
/etc/name_to_major ein). Ist der RCVM bereits installiert, führen Sie pkgrm
SMAWvd aus. Achten Sie dabei darauf, dass die Dateien /dev/vd/config und
die vdisk-Gerätenamen /dev/vd/vdiskn und /dev/vdisk/rdiskn gelöscht
werden. Nach Ausführung von pkgadd sollten die Gerätenamen wieder mit
geänderter Major Device Number zur Verfügung stehen.
3.4
Knotengruppen
Wie in Bild 9 dargestellt gibt es zwei Arten von RCFS-Knoten: Server-Knoten
und Client-Knoten. Zur Identifizierung eines solchen Knotens als Serverund/oder Client-Knoten dient in RCFS das Kommando ngadmin(1M). Mit dem
Kommando ngadmin(1M) wird eine Tabelle mit Namen von Knotengruppen und
den entsprechenden Gruppenmitgliedern verwaltet. Dabei sind die Informatio-
80
U42128-J-Z100-4
File Share (RCFS)
RCFS-Dateisysteme einhängen
nen, welcher Knoten Mitglied welcher Knotengruppe ist, im gesamten Cluster
konsistent. Nähere Einzelheiten zu Knotengruppen enthält die Manual-Page zu
ngadmin(1M).
Zum Erstellen einer Knotengruppe geben Sie nachstehendes Kommando ein:
# ngadmin -c servernodes nodeA nodeB
# ngadmin -c clientnodes nodeA nodeB nodeC nodeD
wobei servernodes der Name einer Knotengruppe ist, „nodeA“ und „nodeB“ Mitglieder einer Knotengruppe bezeichnen,... clientnodes der Name einer zweiten
Knotengruppe mit den Mitgliedern nodeA, nodeB, nodeC und nodeD ist.
Zum Austauschen einer Knotengruppenkonfiguration geben Sie folgende Kommandos ein:
# ngadmin -c servernodes nodeC nodeD
# ngadmin -r servernodes nodeA nodeB
Hierdurch werden die ursprünglichen Mitglieder nodeC und nodeD der Knotengruppe servernodes aus der Gruppe gelöscht und die neuen Mitglieder nodeA
und nodeB der Knotengruppe servernodes hinzugefügt. Die folgenden Knotengruppen sind vordefiniert:
%all – alle funktionsfähigen Knoten, alle werden automatisch eingehängt
%nodename – Knoten auf dem das Kommando zum Einhängen ausgeführt wird
%noautomount – alle funktionsfähigen Knoten, keiner wird automatisch eingehängt
3.5
RCFS-Dateisysteme einhängen
RCFS-Dateisysteme können UFS als physisches Dateisystem (Physical File
System, PFS) verwenden. Die RCFS-Dateisysteme werden dadurch eingehängt, dass Sie ein mount(1M)-Kommando auf demjenigen Knoten ausführen,
der als Server für das Dateisystem eingesetzt werden soll. Sobald auf diesem
Server das physische Dateisystem eingehängt und RCFS darauf aufgesetzt
wurde, wird die Einhängeinformation an alle übrigen Knoten im System verteilt.
Nachdem die übrigen Knoten im System diese Informationen erhalten haben,
wird auf denjenigen Knoten, die als Client-Knoten des Dateisystems fungieren
sollen, das Dateisystem automatisch als RCFS-Client-Dateisystem eingehängt.
I Wenn Sie für den Server-Einhängevorgang die vordefinierte Client-Knotengruppe %noautomount angeben, wird der automatische Client-Einhängevorgang nicht durchgeführt.
U42128-J-Z100-4
81
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
RCFS-Dateisysteme einhängen
File Share (RCFS)
In Fällen, in denen an einem Client-Knoten ein RCFS-Dateisystem ausgehängt
wurde und dort wieder eingehängt werden muss, bewirkt ein auf diesem Client
ausgeführtes mount(1M)-Kommando, dass das Dateisystem eingehängt und
wieder als RCFS-Client-Dateisystem genutzt wird. Dieses automatische Einhängen auf den Clients erfolgt immer auf demselben Mount-Punkt-Pfad, der
auch für den Server gilt. Beim Mounten der Clients mit der Befehlszeile, muss
derselbe Mount-Punkt-Pfad wie beim Server verwendet werden.
I Benutzen Sie das folgende Kommando, um eine Datei manuell einzu-
hängen, wenn %noautomount gesetzt ist oder wenn das Dateisystem
auf dem Client manuell ausgehängt wurde:
# mount -F rcfs server_nodegroupname:server_mount_point mount_point
Zum Einhängen der in Bild 9 dargestellten RCFS-Konfiguration auf dem Knoten
„nodeA“ ist folgendes Kommando einzugeben:
# mount -F rcfs -opfs=ufs,svr=servernodes,cli=clientnodes
/dev/dsk/c1t122d1s0 /database
In diesem mount-Kommando besagt -F rcfs, dass dieses Dateisystem als File
Share eingehängt werden soll. Die einzelnen Optionen werden nach dem Parameter -o angegeben. In obigem Beispielkommando steht pfs=ufs für das
physische Dateisystem (pfs) UFS. Knoten, die über einen physischen Zugang
zu dem externen Plattenspeicher verfügen, sind Mitglieder der durch die Option
svr=servernodes spezifizierten Knotengruppe.
Wenn diese Option nicht spezifiziert wird, wird die vordefinierte Knotengruppe,
die nur den Knoten umfasst, auf dem das Kommando mount(1M) ausgeführt
wurde (%nodename), implizit als der server_nodegroupname verwendet.
Ähnlich werden die Knoten, die als Clients fungieren werden und an denen das
Einhängen automatisch erfolgt, mit der Option cli=clientnodes angegeben.
Wenn alle Knoten als Clients mit automatischem Einhängen dienen sollen,
kann die Option
cli=clientnodes entfallen.
– Wenn diese Option nicht angegeben wird, dann wird die vordefinierte Knotengruppe, die alle Knoten im System enthält, die sich aktuell im Zustand UP
befinden, (%all) implizit als Client-Knotengruppe verwendet.
– Die vordefinierte Knotengruppe %noautomount enthält alle Knoten im System, die sich aktuell im Zustand UP befinden, doch erfolgt das Einhängen
an den Clients nicht automatisch, wenn sie als Client-Knotengruppe verwendet wird.
82
U42128-J-Z100-4
File Share (RCFS)Automatisches Failover des RCFS-Dateisystem-Servers
Mit /dev/dsk/c1t122d1s0 wird das spezifische Gerät für das physische Gerät
definiert.Bei /database handelt es sich um den Mount-Punkt, an dem das
RCFS-Gerät an allen Knoten eingehängt wird.
Der Eintrag /etc/mnttab eines eingehängten RCFS-Dateisystems gibt an, ob
der lokale Knoten ein Server- oder Client-Knoten ist:
●
Auf dem Server-Knoten zeigt die Gerätekomponente im Eintrag mnttab das
Block-Gerät (block special device) des physischen Dateisystems.
●
Auf dem Client-Knoten hat die Gerätekomponente im Eintrag mnttab die
Gestalt server_node_group:server_mount_point.
Die Komponente der Einhänge-Optionen des Eintrags mnttab enthält eine Status-Option, die den aktuellen Zustand des RCFS-Dateisystems angibt: 2 =
AVAILABLE,
3 = SERVER_DOWN, 5 = FAILOVER_FAILED.
I Beachten Sie, dass die Reihenfolge in der Server-Knotengruppe ver-
wendet wird, um die Reihenfolge für das Einhängen von Failovers festzulegen. Das Kommando zum Einhängen des RCFS-Dateisystems
muss auf dem ersten Server-Knoten in der Knotengruppe „servernodes“
(d. h. dem primären Server für dieses RCFS-Dateisystem) eingegeben
werden.
I Der primäre Server (bzw. der Failover-Server nach Einhängen des Failovers) ist ein impliziter RCFS-Client für das eingehängte RCFS-Dateisystem (sogenannter client at server).
3.6
Automatisches Failover des RCFSDateisystem-Servers
Bei Ausfall eines Server-Knotens erfolgt automatisch ein Failover, so dass der
in der Server-Knotengruppe auf den ausgefallenen Knoten folgende Knoten
zum Failover-Server wird. Dieser neue Server-Knoten führt automatisch
fsck(1M) aus, hängt sich implizit in das Dateisystem ein und resynchronisiert
den Status des Dateisystems mit den Client-Knoten. Bei Ausfall des ServerKnotens blockieren die Client-Knoten alle Operationen, die einen Server benötigen so lange, bis das Dateisystem auf einem neuen Server eingehängt ist und
die Client-Knoten ihren jeweiligen Zustand mit dem Server synchronisiert
haben.
U42128-J-Z100-4
83
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
RCFS-Dateisysteme aushängen
3.7
File Share (RCFS)
RCFS-Dateisysteme aushängen
Wenn das Kommando umount(1M) zum Aushängen eines RCFS-Dateisystems
auf dem RCFS-Dateisystem-Server ausgeführt wird, wird automatisch auf allen
Client-Knoten das Dateisystem ausgehängt, bevor dies auf dem Server selbst
geschieht. Hierfür muss der Server gesperrt werden und auf Meldungen der
einzelnen Clients warten, dass das Aushängen des Dateisystems erfolgreich
vorbereitet wurde oder dass auf dem betreffenden Client das Dateisystem nicht
ausgehängt werden kann (weil es beispielsweise gerade genutzt wird). Kommt
von allen Clients die Rückmeldung, dass das Dateisystem ausgehängt werden
kann, wird es auf Server und Clients ausgehängt. Meldet einer der Clients, dass
das Aushängen nicht möglich ist, kann dies weder auf dem Server noch auf
einem der übrigen Clients erfolgen, d. h., das Aushängekommando schlägt fehl.
Clients, auf denen das Dateisystem nicht ausgehängt werden kann, senden
eine entsprechende Warnmeldung an die Konsole und protokollieren einen
Fehler.
Wenn Sie das Kommando umount(1M) auf einem Client-Knoten verwenden,
um ein RCFS-Dateisystem auszuhängen, so wird das Dateisystem nur auf diesem Client-Knoten ausgehängt.
3.8
Beispiel für RCFS-Eintrag in /etc/vfstab
Die einfachste Möglichkeit, für identische Gerätenamen in einem Cluster zu sorgen, bietet die Verwendung eines Datenträger-Managers wie etwa RCVM.
Dabei können die Namen der zugrundeliegenden physischen Platten auf den
verschiedenen Server-Knoten durchaus unterschiedlich sein (aufgrund der
unterschiedlichen Controller-Konfiguration), jedoch werden sie in der vdiskKonfiguration jeweils einem logischen Gerät eindeutig zugeordnet, das über
einen eindeutigen logischen Gerätenamen angesprochen werden kann.
84
U42128-J-Z100-4
File Share (RCFS)
RCFS-Kommandos
Um dafür zu sorgen, dass ein RCFS-Dateisystem in einem Cluster permanent
verfügbar ist, müssen Sie auf dem primären Server-Knoten in /etc/vfstab
einen Eintrag wie nachstehend dargestellt einfügen:
#device
device
mount
FS
fsck
mount
mount
#to mount to fsck
point
type pass
at boot options
#
/dev/vd/vdisk0 /dev/vd/rvdisk0 /database_ufs rcfs 2 yes
pfs=
ufs,
svr=servernodes,cli=clientnodes
/dev/vd/vdisk1 /dev/vd/rvdisk1 /database_ufs_2 rcfs 2 yes
pfs=ufs,svr=servernodes,cli=clientnodes
3.9
RCFS-Kommandos
Dieser Abschnitt beschreibt RCFS-Verwaltungsbefehle, die im CLI verfügbar
sind.
3.9.1
rcfs_fumount
Mit dem Kommando rcfs_fumount kann auf allen Clients, auf denen das
angegebene RCFS-Dateisystem eingehängt ist, das Aushängen erzwungen
werden, so dass alle zu diesem Zeitpunkt geblockten Dateisystemvorgänge
fehlschlagen. Dabei darf für das Dateisystem kein aktueller Server vorhanden
sein und müssen alle möglicherweise als Ersatz-Server bei einem Failover in
Frage kommenden Server ausgefallen sein, damit das Aushängen der Clients
erfolgreich erzwungen werden kann. Alle Server müssen sich im Zustand DOWN
befinden bzw. alle Failover-Versuche müssen fehlgeschlagen sein.
I rcfs_fumount ändert den Status der Client-Knoten dergestalt, dass
das Dateisystem ausgehängt werden muss, bevor es wieder zur Verfügung gestellt werden kann. Wenn das Kommando fehlschlägt, sollte der
Systemverwalter die angegebenen Operationen durchführen, um die
Arbeitsverzeichnisse der Prozesse zu löschen oder zu ändern, die den
Fehlschlag verursacht haben.
U42128-J-Z100-4
85
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
RCFS-Kommandos
File Share (RCFS)
rcfs_fumount mount_point
I rcfs_fumount ist nicht dafür vorgesehen, ein Aushängen beim Auftreten der Meldung file system busy zu erzwingen.
I rcfs_fumount schlägt auf einem oder mehreren Knoten fehl, wenn dort
noch Prozesse ablaufen, die auf das Dateisystem zugreifen. Verursacht
wird dieses Problem häufig von Prozessen, die ein Arbeitsverzeichnis
auf dem Ziel-Dateisystem haben. Wenn derartige Prozesse erkannt werden, erscheinen auf der Konsole und in der Datei /var/adm/messages
Meldungen ähnlich der Folgenden:
Notice: pid nnnn has working directory in /mount_point
Notice: Forced unmount of /mount_point failed
3.9.2
rcfs_list
Wenn das Kommando mount(1M) ohne weitere Optionen eingegeben wird,
wird eine Liste aller eingehängten Dateisysteme ausgegeben, für die in der
Datei mnttab Einträge enthalten sind. Die Datei mnttab enthält ausschließlich
Einträge für Dateisysteme, die auf dem Knoten eingehängt sind, auf dem die
Datei gespeichert ist. Entsprechend ergeben die mit dem Kommando
mount(1M) abgerufenen Informationen zu eingehängten Dateisystemen keine
generelle Übersicht über die insgesamt eingehängten RCFS-Dateisysteme
(d. h., die Ausgabe des Kommandos mount(1M) zeigt keinerlei Informationen
zu RCFS-Dateisystemen, die für Knotengruppen eingehängt wurden, in denen
der Knoten, auf dem das Kommando ausgeführt wurde, nicht enthalten ist.
Ebenso zeigt die Ausgabe keinerlei Informationen zu Clients, auf denen das
Kommando mount(1 M) ausgeführt und das RCFS-Dateisystem aufgrund von
Fehlerbedingungen nicht eingehängt werden konnte). Ziel war jedoch, den
Benutzern umfangreichere Informationen zu den eingehängten RCFS-Dateisystemen bereitzustellen, daher wurde rcfs_list in RCFS aufgenommen,
das zusätzliche Informationen liefert.
rcfs_list [-c][-e][-u] [-m mntpt] [-n nodename]
86
U42128-J-Z100-4
File Share (RCFS)
RCFS-Kommandos
Für das Kommando rcfs_list können folgende Optionen spezifiziert werden:
-c
Liste alle Client-Mount-Vorgänge auf (beinhaltet -e und -u).
-e
Liste Client-Mount-Vorgänge für alle Clients auf, an denen beim
letzten Mount-Versuch Fehler aufgetreten sind.
-u
Liste Client-Mount-Vorgänge für alle Clients auf, an denen
Dateisysteme ausgehängt wurden.
-m mntpt
Hier werden nur Mount-Vorgänge ausgegeben, für die mntpt als
Mount-Punkt definiert ist.
-n nodename
Liste ausschließlich die Mount-Vorgänge auf den betreffenden
Knoten.
Information zu Server-Einhängevorgängen:
Die Ausgabe des Kommandos rcfs_list enthält immer nachstehende Informationen für alle bzw. die ausgewählten (siehe Optionen -n und -m) RCFS-Server-Einhängevorgänge im System:
special
Die spezifische Gerätedatei, die eingehängt ist.
servernode Der Name des Knotens, der derzeit als Server für das Dateisystem
dient.
mntpt
Der Mount-Punkt, an dem das Dateisystem eingehängt ist.
svrng
Die Server-Knotengruppe für das Dateisystem (cf.
mount_rcfs(1M)).
clont
Die Client-Knotengruppe für das Dateisystem (cf.
mount_rcfs(1M)).
state
Der Zustand des Dateisystem-Mount-Vorgangs (AVAILABLE,
SERVER_DOWN, FAILOVER_STARTED, FAILOVER_FAILED,
UNMOUNT_STARTED).
fstype
Der Dateisystem-Typ für das PFS (ufs).
U42128-J-Z100-4
87
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
RCFS-Kommandos
File Share (RCFS)
mntoptions Die Zeilenoption des Kommandos mount für das physische Dateisystem, die beim Mounten des Servers benutzt wurden.
time
Datum und Uhrzeit der letzten Zustandsänderung für das Mounten
des Dateisystems.
errormsg
Eine Fehlermeldung, wenn die Zustandsangabe auf eine Störung
hinweist.
Information zu Client-Einhängevorgängen:
Wenn für das Kommando rcfs_list die Optionen -c, -e bzw. -u angegeben
wurden, werden für die ausgewählten RCFS-Client-Einhängevorgänge im System folgende Informationen gezeigt.
special
Die spezifische Gerätedatei, die eingehängt ist.
clientnode
Der Name des Client-Knotens.
mntpt
Der Mount-Punkt, an dem das Dateisystem eingehängt ist.
state
Der Zustand des Client-Mount-Vorgangs (MOUNTED, UNMOUNTED,
MOUNT_FAILED, CLIENT_DISABLED).
time
Datum und Uhrzeit der letzten Zustandsänderung für das Mounten
des Dateisystems.
errormsg
Eine Fehlermeldung, wenn die Zustandsangabe auf eine Störung
hinweist.
I Das Kommando rcfs_list nutzt Ressourcen, die während der
Switchover- bzw. Failover-Verarbeitung gesperrt sind. Entsprechend
wird das Kommando rcfs_list erst ausgeführt, wenn diese gesperrten
Ressourcen zur Verfügung stehen.
88
U42128-J-Z100-4
File Share (RCFS)
3.9.3
RCFS-Kommandos
rcfs_switch
Das Kommando rcfs_switch hat zwei Funktionen, je nach dem aktuellen
Zustand des angegebenen Mount-Punkts für das rcfs-Dateisystem:
rcfs_switch mount_point [target_node]
switchover:
Wenn sich das angegebene rcfs-Dateisystem im Zustand
AVAILABLE befindet, wird mit dem Kommando rcfs_switch der
Server-Mount-Vorgang (cf. mount_rcfs(1M)) für das eingehängte rcfs-Dateisystem, das durch mount_point spezifiziert ist,
von dem aktuellen Server auf den definierten neuen Server
target_node umgeschaltet. Wurde kein target_node angegeben, gilt
der lokale Knoten als neuer Server. Entspricht der angegebene
target_node dem aktuellen Server, wird nichts veranlasst.
failover:
Wenn der aktuelle Zustand des angegebenen rcfs-Dateisystems
SERVER_DOWN oder FAILOVER_FAILED lautet, veranlasst das
Kommando rcfs_switch ein Failover des eingehängten rcfsDateisystems, das durch mount_point spezifiziert ist, auf den
target_node. Wenn kein target_node angegeben wurde, gilt der
lokale Knoten als Failover-Server.
I Die Dateisystem-Puffer auf allen Knoten müssen synchron bereinigt werden, bevor das rcfs-Dateisystem umgeschaltet werden kann. Die für
das Bereinigen der Puffer erforderliche Zeit ist abhängig von der Menge
der asynchron eingetragenen Daten. Um die Umschaltzeit möglichst
kurz zu halten, sollte das rcfs-Dateisystem nicht bei hoher Systembelastung umgeschaltet werden.
I Wenn das rcfs-Dateisystem mit einer bestimmten Server-Knoten-
gruppe eingehängt wird (cf. mount_rcfs(1M)), muss der target_node
ebenfalls Mitglied der betreffenden Server-Knotengruppe sein.
Das Kommando rcfs_switch arbeitet synchron zum zugewiesenen Server
target_node und wartet ab, bis der neue Server den Zustand des rcfs-Dateisystems entweder auf AVAILABLE oder auf FAILOVER_FAILED umschaltet.
Wenn die Umschalt- oder Failover-Anforderung des angegebenen rcfs-Dateisystems fehlschlägt, in den Zustand FAILOVER_FAILED schaltet und kein
Failover-Server in der zugehörigen Server-Knoten-Gruppe festgelegt ist (cf.
mount_rcfs(1M)), kann das rcfs-Dateisystem durch eine weitere FailoverAnforderung reaktiviert oder mit Hilfe des Kommandos rcfs_fumount(1M) ausgehängt werden.
U42128-J-Z100-4
89
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\dmt-rcfs.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
RCFS-Kommandos
File Share (RCFS)
Scheitert die Switchover- bzw. Failover-Anforderung für das angegebene rcfDateisystem und wechselt in den Zustand FAILOVER_FAILED und es ist kein
Failover-Server in der zugehörigen Server-Knotengruppe angegeben (s.
„mount_rcfs“ auf Seite 92), dann kann das rcf-Dateisystem durch eine weitere
Failover-Anforderung reaktiviert oder mit Hilfe des Kommandos
rcfs_umount(1M) ausgehängt werden.
90
U42128-J-Z100-4
4
Manual-Pages
Dieses Kapitel enthält eine Liste der online verfügbaren Manual-Pages für
CCBR, CF, CFS, CIP, CPAT, den Monitoring-Agenten, PAS, RCVM, PCS,
Resource Database, RMS, RMS Wizards, SCON, SF, SIS, und Web-Based
Admin View.
Mit folgendem Kommando können Sie eine Manual-Page aufrufen:
$ man man_page_name
4.1
CCBR
Systemverwaltung
cfbackup
Cluster-Konfigurationsdaten für einen PRIMECLUSTER Knoten speichern
cfrestore
Gespeicherte Cluster-Konfigurationsdaten für einen PRIMECLUSTER
Knoten wiederherstellen
4.2
CF
Systemverwaltung
cfconfig
Knoten für einen PRIMECLUSTER Cluster konfigurieren oder aus der
Konfiguration entfernen
cfrecon
Die von einem PRIMECLUSTER-Knoten verwendeten Cluster-Interconnects dynamisch rekonfigurieren
cfregd
Dämon für die CF-Registersynchronisation
cfset
Einträge der Datei /etc/default/cluster.config im CF-Modul
anwenden oder ändern
U42128-J-Z100-4
91
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-manpages.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Manual-Pages
CFS
cftool
Knotenkommunikationsstatus für einen Knoten oder den Cluster drucken
rcqconfig
Quorum konfigurieren oder starten
rcqquery
Quorum-Status für den Cluster ermitteln
4.3
CFS
fsck_rcfs
Konsistenz des Dateisystems kontrollieren und interaktive Reparatur
mount_rcfs
RCFS-Dateisysteme einhängen
rcfs_fumount
Eingehängtes RCFS-Dateisystem erzwungen aushängen
rcfs_list
Status der eingehängten RCFS-Dateisysteme auflisten
rcfs_switch
Manuelles Switchover oder Failover eines RCFS-Dateisystems
ngadmin
Dienstprogramm für die Verwaltung von Knotengruppen
cfsmntd
Dämon zum Einhängen des RCFS
4.4
CIP
Systemverwaltung
cipconfig
CIP 2.0 starten bzw. beenden
ciptool
CIP-Informationen zu lokalen und entfernten Knoten im Cluster abrufen
92
U42128-J-Z100-4
Manual-Pages
CPAT
Dateiformat
cip.cf
Format der CIP-Konfigurationsdatei
4.5
CPAT
Systemverwaltung
cluster_uninstall
Entfernen der PRIMECLUSTER-Software vom System
4.6
Monitoring-Agent
Systemverwaltung
clrcimonctl
RCI-Monitor-Agent-Dämon starten, anhalten oder neu starten und Präsenz des Dämons zeigen
cldevparam
Ändert oder zeigt die einstellbaren Parameter des RCI/RCCU-Monitoring-Agenten
clrccumonctl
Konsolen-Monitor-Agent-Dämon starten, anhalten oder neu starten und
Präsenz des Dämons zeigen
clrccusetup
Registriert, ändert, löscht oder zeigt Konsoleninformation.
4.7
PAS
Systemverwaltung
mipcstat
MIPC-Statistik
clmstat
CLM-Statistik
U42128-J-Z100-4
93
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-manpages.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Manual-Pages
RCVM
4.8
RCVM
I (Nicht in allen Ländern erhältlich)
Systemverwaltung
dkconfig
Dienstprogramm für die Konfiguration virtueller Platten
dkmigrate
Dienstprogramm für die Migration virtueller Platten
vdisk
Treiber für virtuelle Platten
dkmirror
Dienstprogramm für die Verwaltung von Spiegelplatten
Dateiformat
dktab
Konfigurationsdatei für virtuelle Platten
4.9
PCS
Systemverwaltung
pcstool
Verändert PCS-Konfigurationen auf der Befehlszeile
pcscui
Zeichenorientierte Schnittstelle für PCS
pcs_reinstall
Hilfsprogramm für die Re-integration von PCS mit abhängigen Produkten
94
U42128-J-Z100-4
Manual-Pages
4.10
Ressourcendatenbank
Ressourcendatenbank
I Fügen Sie /etc/opt/FJSVcluster/man zur Umgebungsvariablen
MANPATH hinzu, um eine Manual-Page der Ressourcendatenbank zu zeigen
Systemverwaltung
clautoconfig
Automatische Ressourcenregistrierung ausführen
clbackuprdb
Ressourcendatenbank speichern
clexec
Remote-Kommando ausführen
cldeldevice
Mit der automatischen Ressourcenregistrierung registrierte Ressource
löschen
clinitreset
Ressourcendatenbank rücksetzen
clrestorerdb
Ressourcendatenbank wiederherstellen
clsetparam
Betriebsumgebung der Ressourcendatenbank zeigen und ändern
clsetup
Ressourcendatenbank einrichten
clstartrsc
Ressourcendatenbank aktivieren
clstoprsc
Ressourcen deaktivieren
clsyncfile
Eine Datei zwischen Cluster-Knoten verteilen
Benutzerkommando
clgettree
Baumstruktur der Ressourcendatenbank zeigen
U42128-J-Z100-4
95
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-manpages.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Manual-Pages
RMS
4.11
RMS
Systemverwaltung
hvassert
Status einer RMS-Ressource feststellen
hvcm RMS-Konfigurationsmonitor starten
hvconfig
RMS-Konfigurationsdatei zeigen oder speichern
hvdisp
Informationen zu RMS-Ressourcen zeigen
hvdist
RMS-Konfigurationsdateien verteilen
hvdump
Debugging-Informationen zu RMS zusammenstellen
hvgdmake
Kundenspezifischen RMS-Detektor kompilieren
hvlogclean
RMS-Log-Dateien bereinigen
hvrclev
Run-Level ändern, in dem RMS gestartet wird
hvreset
Aktuelle Aktivitäten unterbrechen und den Graphen userApplication
neu starten
hvsetenv
RMS rc start oder AutoStartUp manipulieren
hvshut
RMS herunterfahren
hvswitch
RMS-Benutzeranwendung auf anderen Rechner umschalten
hvthrottle
Verhindern, dass mehrere RMS-Skripts gleichzeitig ausgeführt werden
hvutil
Verfügbarkeit einer RMS-Ressource festlegen
96
U42128-J-Z100-4
Manual-Pages
RMS Wizards
Dateiformate
hvenv.local
Lokale Konfigurationsdatei für RMS-Umgebung
4.12
RMS Wizards
RMS Wizards und RMS Application Wizards
RMS Wizards sind als html-Seiten in dem SMAWRhvdo-Paket auf der CDROM dokumentiert. Nach Installation dieses Pakets steht diese Dokumentation im folgenden Verzeichnis zur Verfügung:
/usr/opt/reliant/htdocs.solaris/wizards.en
4.13
SCON
scon Software der Cluster-Konsole starten
4.14
SF
Systemverwaltung
rcsd Shutdown-Dämon der Shutdown Facility
sdtool
Schnittstellen-Tool für den Shutdown-Dämon
Dateiformate
rcsd.cfg
Konfigurationsdatei des Shutdown-Dämons
SA_rccu.cfg
Konfigurationsdatei des RCCU-Shutdown-Agenten
SA_ipmi.cfg
Konfigurationsdatei für den Shutdown-Agenten Intelligent Platform
Management Interface
SA_rccu.cfg
Konfigurationsdatei des RCCU-Shutdown-Agenten
U42128-J-Z100-4
97
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-manpages.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Manual-Pages
SIS
SA_rps.cfg
Konfigurationsdatei für einen Remote-Power-Switch-Shutdown-Agenten
SA_scon.cfg
Konfigurationsdatei für den SCON-Shutdown-Agenten
SA_sspint.cfg
Konfigurationsdatei für den Sun E10000 Shutdown-Agenten
SA_sunF.cfg
Konfigurationsdatei für den sunF System-Controller-Shutdown-Agenten
SA_wtinps.cfg
Konfigurationsdatei für den WTI-NPS-Shutdown-Agenten
4.15
SIS
Systemverwaltung
dtcpadmin
SIS-Verwaltungsdienstprogramm starten
dtcpd
SIS-Dämon für die Konfigurierung von VIPs starten
dtcpstat
Statusinformationen zu SIS
4.16
Web-Based Admin View
Systemverwaltung
fjsvwvbs
Web-Based Admin View beenden
fjsvwvcnf
Web-Server für Web-Based Admin View starten, anhalten oder neu starten
wvCntl
Web-Based Admin View starten, beenden oder Debugging-Informationen abrufen
98
U42128-J-Z100-4
Manual-Pages
Web-Based Admin View
wvGetparam
Umgebungsvariablen für Web-Based Admin View zeigen
wvSetparam
Umgebungsvariablen für Web-Based Admin View setzen
wvstat
Betriebszustand von Web-Based Admin View zeigen
U42128-J-Z100-4
99
5
Anhang – Systemparameter
Dieser Anhang befasst sich mit der Einstellung der RCFS Systemparameter.
Die in Solaris voreingestellte Stapelgröße muss erhöht werden. Bei
Solaris 8 OE und Solaris 9 OE handelt es sich dabei um den Parameter
lwp_default_stacksize. Bei Solaris 10 OE ist es der Parameter
default_stacksize.
Wenn RCFS installiert ist, werden die entsprechenden Werte in der Datei
/etc/system geändert. RCFS lädt nicht und gibt ein Diagnoseverfahren aus,
wenn die Stapelgröße des Kerns unzureichend ist.
Die Werte in der Datei /etc/system werden erst nach dem erneuten Booten
des Systems wirksam. Näheres über das Ändern der Kernparameter und deren
Bedeutung finden Sie im Handbuch System Administration Guide der Solaris
Administrator Collection.
U42128-J-Z100-4
101
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\kernelparams.fm
Abkürzungen
AC
Access Client
API
Application Program Interface
bm
Basismonitor
CCBR
Cluster Configuration Backup/Restore
CDL
Configuration Definition Language
CF
Cluster Foundation oder Cluster Framework
CIM
Cluster Integrity Monitor
CIP
Cluster Interconnect Protocol
CLI
Kommandoschnittstelle
CLM
Cluster-Manager
CRM
Cluster-Ressourcen-Management
ENS
Event Notification Services
GDS
Global Disk Services
U42128-J-Z100-4
103
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Abbreviations.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Abkürzungen
GFS
Global File Services
GLS
Global Link Services
GUI
Grafische Bedienoberfläche
HA
Hochverfügbarkeit
ICF
Internode Communication Facility
I/O
Input/Output
JOIN
Cluster Join Services Modul
LAN
Lokales Netzwerk
MDS
Metadatenserver
MIB
Management Information Base
MIPC
Mesh Interprocessor Communication
NIC
Netzwerkschnittstelle
NSM
Node State Monitor
OSD
Operating System Dependent (CF)
104
U42128-J-Z100-4
Abkürzungen
PAS
Parallel Application Services
PCS
PRIMECLUSTER Configuration Services
RCCU
Remote Console Control Unit
RCFS
PRIMECLUSTER File Share
RCI
Remote Cabinet Interface
RCVM
PRIMECLUSTER Volume Manager
RMS
Reliant Monitor Services
SA
Shutdown-Agent
SAN
Storage Area Network
SCON
Single Console Software
SD
Shutdown-Dämon
SF
Shutdown Facility
SIS
Scalable Internet Services
VIP
Virtual Interface Provider
U42128-J-Z100-4
105
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Abbreviations.fm
Fachwörter
Einträge in diesem Glossar, die spezielle PRIMECLUSTER Produkte betreffen,
werden durch die folgende Notation gekennzeichnet:
●
(CF) – Cluster Foundation
●
(PCS) – PRIMECLUSTER Configuration Services
●
(RMS) – Reliant Monitor Services
●
(RCVM) – Volume Manager (nicht in allen Ländern verfügbar)
●
(SIS) – Scalable Internet Services
Es kann sein, dass einige dieser Produkte in Ihrem Cluster nicht installiert sind.
Weitere Informationen erhalten Sie von Ihrem PRIMECLUSTER-Vertriebspartner.
AC
Siehe Access Client.
Access Client
Das GFS-Kern-Modul auf jedem Knoten, das mit dem Meta Data Server
kommuniziert und den gleichzeitigen Zugriff auf ein gemeinsam genutztes Dateisystem erlaubt.
Administrations-LAN
Ein optionales, privates lokales Netzwerk (LAN), das zur Erteilung von
Verwaltungskommandos an die Knoten im Cluster verwendet wird. Ein
zusätzlicher Sicherheits-Level entsteht dadurch, dass normale Benutzer
keinen Zugriff auf das Administrations-LAN haben. In PRIMECLUSTER
Konfigurationen befinden sich die Systemkonsole und die Cluster-Konsole im Administrations-LAN, sofern vorhanden.
Siehe auch Öffentliches LAN.
U42128-J-Z100-4
107
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Aktivieren einer Konfiguration (RMS)
Vorbereitung einer RMS-Konfiguration, die auf einem Server laufen soll.
Dies umfasst zwei wichtige Aktionen: Zunächst wird die Konfiguration auf
dem Host generiert, auf dem die Konfiguration erstellt bzw. bearbeitet
wurde. Anschließend wird die Konfiguration an alle Knoten verteilt, die
von dieser Konfiguration betroffen sind. Der Benutzer kann eine Konfiguration mit Hilfe von PCS, den Wizard Tools oder der Kommandoschnittstelle aktivieren.
Siehe auch Generieren einer Konfiguration (RMS), Verteilen einer Konfiguration (RMS).
Anwendung (RMS)
Im RMS-Kontext handelt es sich bei einem Anwendungsobjekt um eine
besondere Ressource, mit deren Hilfe andere Ressourcen logisch gruppiert werden. Im Allgemeinen repräsentiert es eine echte Anwendung
oder ein Anwendungspaket in einer Hochverfügbarkeits-Konfiguration.
Anwendungsschablone (RMS)
Eine vordefinierte Gruppe von Werten, die für die Objektdefinition zur
Verfügung stehen und von PCS, den RMS Wizard Tools oder dem PCS
Wizard Kit für die Erzeugung von Objektdefinitionen für einen bestimmten Anwendungstyp verwendet werden.
API
Siehe Application Program Interface.
Application Program Interface
Eine gemeinsame Schnittstelle zwischen einem Dienst-Provider und der
Anwendung, von der dieser Dienst verwendet wird.
Attribut (RMS)
Teil einer Objektdefinition, der festlegt, wie der Basis-Monitor im normalen Betrieb bei einem bestimmten Objekttyp agiert und reagiert.
108
U42128-J-Z100-4
Fachwörter
Aufgeteilte virtuelle Platte (striped virtual disk) (RCVM)
Aufgeteilte virtuelle Platten bestehen aus zwei oder mehr Bereichen.
Dabei kann es sich um physische Partitionen oder weitere virtuelle Platten (üblicherweise eine Spiegelplatte) handeln. Sequenzielle I/O-Vorgänge auf der virtuellen Platte können in I/O-Vorgängen auf zwei oder
mehr physischen Platten umgesetzt werden. Dies entspricht RAID-Level
0 (RAID0).
Siehe auch Verkettete virtuelle Platte (concatenated virtual disk) (RCVM),
Gespiegelte virtuelle Platte (RCVM), Einfache virtuelle Platte (RCVM), Virtuelle Platte.
Automatisches Switchover (RMS)
Der Prozess, durch den RMS die Steuerung einer userApplication
automatisch auf einen anderen Rechner umschaltet, wenn bestimmte
Bedingungen erkannt werden.
Siehe auch , Failover (RMS, SIS), Manuelles Switchover (RMS),
Switchover (RMS), Symmetrisches Switchover (RMS).
Backup und Restore der Cluster-Konfiguration
CCBR stellt ein einfaches Verfahren zum Sichern der aktuellen PRIMECLUSTER Konfigurationsdaten auf einem Cluster-Knoten bereit. Außerdem bietet es ein Verfahren zum Wiederherstellen der Konfigurationsdaten.
Basis-Cluster-Foundation (CF)
Dieses PRIMECLUSTER Modul ist auf das zugrunde liegende Betriebssystem aufgesetzt und stellt interne Schnittstellen für die CF-Funktionen
(Cluster Foundation) zur Verfügung, die von den PRIMECLUSTER
Diensten in der darüber liegenden Schicht verwendet werden.
Siehe auch Cluster Foundation (CF).
Basismonitor (RMS)
Das RMS-Modul, das die Verfügbarkeit von Ressourcen sichert. Der
Basismonitor wird von Dämonen und Detektoren unterstützt. Jeder überwachte Rechner verfügt über eine eigene Kopie des Basismonitors.
U42128-J-Z100-4
109
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Cache Fusion
Die verbesserte Schnittstelle für die Kommunikation zwischen Prozessen in Oracle 9i, mit deren Hilfe logische Blöcke auf dem Datenträger
(Puffer) im lokalen Arbeitsspeicher jedes Knotens zwischengespeichert
werden können. Dadurch muss ein Block bei einer erforderlichen Aktualisierung nicht auf der Festplatte gespeichert werden, sondern kann
durch Übermittlung einer Nachricht über den Interconnect auf einen
anderen Knoten kopiert werden. Auf diese Weise wird der Aufwand
durch physische Eingabe und Ausgabe vermieden.
CCBR
Siehe Backup und Restore der Cluster-Konfiguration.
CF
Siehe Cluster Foundation (CF).
CF-Knotenname (CF)
Der Name des CF-Cluster-Knotens, der konfiguriert wird, wenn ein CFCluster angelegt wird.
Cluster
Eine Gruppe von Computern, die durch Zusammenarbeit eine einzige
Datenverarbeitungsquelle bilden. Das bedeutet, dass in einem Cluster
eine verteilte Form von paralleler Datenverarbeitung ausgeführt wird.
Siehe auch RMS-Konfiguration (RMS).
Cluster Admin
Ein Java-basiertes, betriebssystemunabhängiges Management-Tool für
PRIMECLUSTERProdukte wie CF, SIS, RMS und PCS. Auf Cluster
Admin kann von der Web-Based Admin View-Schnittstelle zugegriffen
werden.
Siehe auch Cluster Foundation (CF), Scalable Internet Services (SIS), Reliant
Monitor Services (RMS), PRIMECLUSTER Configuration Services (PCS),
Web-Based Admin View.
Cluster Foundation (CF)
Die Gruppe von PRIMECLUSTER Modulen, die Basisdienste für die
Cluster-Kommunikation zur Verfügung stellt.
Siehe auch Basis-Cluster-Foundation (CF).
110
U42128-J-Z100-4
Fachwörter
Cluster-Interconnect (CF)
Die Gruppe privater Netzwerkverbindungen, die ausschließlich für die
PRIMECLUSTER Kommunikation verwendet wird.
Cluster Join Services (CF)
Durch dieses PRIMECLUSTER Modul werden neue Cluster gebildet und
Knoten hinzugefügt.
Cluster-Konsole
Die Workstation, auf der die von RMS überwachten Rechner zentral verwaltet werden. Die Single-Console-Software, SCON, läuft auf der Cluster-Konsole.
Configuration Definition Language (PCS)
Die Syntax für PCS-Konfigurationsschablonen.
Siehe auch PRIMECLUSTER Configuration Services (PCS).
Dämon
Ständig im Hintergrund aktiver Prozess, der wiederholt eine bestimmte
Funktion ausführt.
Datenbankknoten (SIS)
Knoten, die die Konfigurations- und Statistikdaten sowie die dynamischen Daten in einer SIS-Konfiguration verwalten.
Siehe auch Gateway-Knoten (SIS), Dienstknoten (SIS), Scalable Internet Services (SIS).
Detektor (RMS)
Ein Prozess, der den Zustand eines bestimmten Objekttyps überwacht
und Änderungen des Ressourcenzustands an den RMS-Basismonitor
meldet.
DHCP
Dynamic Host Control Protocol. Eine Standardmethode für die Informationsübermittlung an den Host beim Systemstart. Sie wird hauptsächlich
für die dynamische Zuweisung der IP-Adresse und Netzmaske des
Hosts verwendet. Es sind jedoch auch viele andere Parameter möglich,
wie Domänen-Namen, DNS-Server und Zeitserver.
U42128-J-Z100-4
111
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Dienstknoten (SIS)
Dienstknoten stellen mindestens einen TCP-Dienst zur Verfügung (beispielsweise FTP, Telnet und HTTP) und nehmen die durch Gateway-Knoten weitergeleiteten Client-Anforderungen entgegen.
Siehe auch Datenbankknoten (SIS), Gateway-Knoten (SIS), Scalable Internet
Services (SIS).
DOWN (CF)
Ein Knotenzustand, durch den gezeigt wird, dass der Knoten nicht verfügbar ist (als Down gekennzeichnet). Ein LEFTCLUSTER-Knoten muss
als DOWN gekennzeichnet werden, bevor er wieder in einen Cluster eingefügt werden kann.
Siehe auch UP (CF), LEFTCLUSTER (CF), Knotenzustand (CF).
Einfache virtuelle Platte (RCVM)
Einfache virtuelle Platten definieren entweder einen Bereich innerhalb
einer Partition einer physischen Platte oder eine vollständige Partition.
Siehe auch Verkettete virtuelle Platte (concatenated virtual disk) (RCVM),
Gespiegelte virtuelle Platte (RCVM), Aufgeteilte virtuelle Platte (striped virtual
disk) (RCVM), Virtuelle Platte.
Einhängepunkt
Siehe Mount-Punkt.
Eltern-Objekt (RMS)
Ein Objekt in der RMS-Konfigurationsdatei bzw. im Systemgraphen, für
das mindestens ein Kind-Objekt vorhanden ist.
Siehe auch Kind (RMS), Konfigurationsdatei (RMS), Leaf-Objekt (RMS), Systemgraph (RMS).
Enhanced Lock Manager (ELM) (CF)
Eine einfache, reaktionsstarke Sperrenverwaltung mit hoher Leistungsfähigkeit, die speziell für die Bereitstellung eines äußerst zuverlässigen
Lebensmeldungsmitteilungsmechanismus für PRIMECLUSTER Module
entwickelt wurde.
ENS (CF)
Siehe Event Notification Services (CF).
112
U42128-J-Z100-4
Fachwörter
Event Notification Services (CF)
Dieses PRIMECLUSTER Modul stellt eine Möglichkeit zur Verteilung
detaillierter Ereignismeldungen zur Verfügung.
Failover (RMS, SIS)
Durch diesen Prozess wird bei SIS ein ausgefallener Knoten auf einen
Backup-Knoten umgeschaltet. Bei RMS wird dieser Vorgang als
Switchover bezeichnet.
Siehe auch Automatisches Switchover (RMS), Manuelles Switchover (RMS),
Switchover (RMS), Symmetrisches Switchover (RMS).
Fehlererkennung (RMS)
Der Vorgang des Erkennens eines Fehlers. Dazu gehören bei RMS das
Veranlassen eines Log-Eintrags, das Senden einer Nachricht an eine
Log-Datei bzw. eine geeignete Fehlerbehebung.
Gateway-Knoten (SIS)
Gateway-Knoten verfügen über eine externe Netzwerkschnittstelle. Alle
eintreffenden Pakete werden von diesem Knoten empfangen und an den
ausgewählten Dienstknoten weitergeleitet, abhängig vom SchedulingAlgorithmus für diesen Dienst.
Siehe auch Dienstknoten (SIS), Datenbankknoten (SIS), Scalable Internet Services (SIS).
GDS
Siehe Global Disk Services.
Gemeinsam verwendete Ressource
Eine Ressource, beispielsweise ein Plattenlaufwerk, auf die mehrere
Knoten zugreifen können.
Siehe auch Private Ressource (RMS), Ressource (RMS).
Generieren einer Konfiguration (RMS)
Der Vorgang des Erzeugens einer einzelnen Konfigurationsdatei, die an
alle Knoten in der Konfiguration verteilt und zu einem späteren Zeitpunkt
aktiviert werden kann. Dies geschieht normalerweise automatisch, wenn
die Konfiguration durch PCS, die Wizard Tools oder das CLI aktiviert
wird.
Siehe auch Aktivieren einer Konfiguration (RMS), Verteilen einer Konfiguration (RMS).
U42128-J-Z100-4
113
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Generischer Typ (RMS)
Ein Objekttyp mit generischen Eigenschaften. Mit einem generischen
Typ wird RMS kundenspezifisch zum Überwachen von Ressourcen
angepasst, die keinem der mitgelieferten Objekttypen zugewiesen werden können.
Siehe auch Objekttyp (RMS).
Gespiegelte Bereiche (RCVM)
Die physischen Bestandteile, aus denen eine gespiegelte virtuelle Platte
zusammengesetzt ist. Zu diesen Bestandteilen zählen Spiegelplatten
und Datenplatten.
Siehe auch Gespiegelte Platten (RCVM).
Gespiegelte Platten (RCVM)
Eine Gruppe von Platten, die identische Daten enthalten. Bei Ausfall
einer Platte bleiben die übrigen Platten der Gruppe weiterhin verfügbar,
wodurch eine Unterbrechung der Datenverfügbarkeit vermieden wird.
Siehe auch Gespiegelte Bereiche (RCVM).
Gespiegelte virtuelle Platte (RCVM)
Gespiegelte virtuelle Platten bestehen aus zwei oder mehr physischen
Geräten. Alle Ausgabevorgänge werden gleichzeitig auf diesen Geräten
ausgeführt
Siehe auch Verkettete virtuelle Platte (concatenated virtual disk) (RCVM),
Einfache virtuelle Platte (RCVM), Aufgeteilte virtuelle Platte (striped virtual
disk) (RCVM), Virtuelle Platte.
GFS
Siehe Global File Services.
Global Disk Services
Dieses optionale Produkt stellt Datenträger-Verwaltungsfunktionen
bereit, durch die die Verfügbarkeit und Verwaltbarkeit von Informationen
auf der Festplatteneinheit des Storage Area Network (SAN) verbessert
werden.
Global File Services
Dieses optionale Produkt ermöglicht den direkten, parallelen Zugriff auf
das Dateisystem einer gemeinsam genutzten Speichereinheit von zwei
oder mehr Knoten in einem Cluster.
114
U42128-J-Z100-4
Fachwörter
Global Link Services
Dieses optionale PRIMECLUSTER Modul liefert Lösungen für hochverfügbare Netzwerke durch Multiplizierung einer Route in einem Netzwerk.
GLS
Siehe Global Link Services.
Grafische Bedienoberfläche
Eine Computeroberfläche mit Fenstern, Icons, Symbolleisten und Pulldown-Menüs, die einfacher zu bedienen ist als die KommandozeilenSchnittstelle.
Graph (RMS)
Siehe Systemgraph (RMS).
GUI
Siehe Grafische Bedienoberfläche.
Hochverfügbarkeit
Eine Philosophie des Systemdesigns bei der redundante Ressourcen
verwendet werden, um Single Points of Failure zu vermeiden.
Siehe auch Reliant Monitor Services (RMS).
Interconnect (CF)
Siehe Cluster-Interconnect (CF).
Internet-Protocol-Adresse
Eine numerische Adresse, die Computern oder Anwendungen zugewiesen werden kann.
Siehe auch IP-Aliasing.
Internode Communications Facility
Dieses Modul ist die Netzwerktransportschicht für die gesamte PRIMECLUSTER Kommunikation zwischen den Knoten. Es stellt mittels
betriebssystemabhängigen Codes die Schnittstelle zum E/A-Subsystem
dar und garantiert die Zustellung von Nachrichten, die sich in der Warteschlange befinden, an den Zielknoten in korrekter Reihenfolge, sofern
der Zielknoten nicht ausfällt.
IP-Adresse
Siehe Internet-Protocol-Adresse.
U42128-J-Z100-4
115
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
IP-Aliasing
Mit diesem Verfahren können einer Netzwerkschnittstelle mehrere IPAdressen (Alias-Adressen) zugeordnet werden. Mit Hilfe von IP-Aliasing
kann der Benutzer auch dann mit derselben IP-Adresse kommunizieren,
wenn die Anwendung auf einem anderen Knoten ausgeführt wird.
Siehe auch Internet-Protocol-Adresse.
JOIN (CF)
Siehe Cluster Join Services (CF).
Kind (RMS)
Eine in der Konfigurationsdatei definierte Ressource, die über mindestens ein Eltern-Objekt verfügt. Ein Kind kann über mehrere Eltern verfügen, und es kann entweder selbst Kinder haben (so dass es selbst auch
zum Eltern-Objekt wird) oder keine Kinder haben (so dass es zum LeafObjekt wird).
Siehe auch Ressource (RMS), Objekt (RMS), Eltern-Objekt (RMS).
Knoten
Ein Rechner in einem Cluster.
Knotenzustand (CF)
Jeder Knoten in einem Cluster verfügt lokal über Informationen zum
Zustand aller anderen Knoten im Cluster. Der Zustand jedes Knotens im
Cluster muss entweder UP, DOWN oder LEFTCLUSTER sein.
Siehe auch UP (CF), DOWN (CF), LEFTCLUSTER (CF).
Konfigurationsdatei (RMS)
Im RMS-Kontext die einzelne Datei, in der die überwachten Ressourcen
definiert und die gegenseitigen Abhängigkeitsbeziehungen eingerichtet
werden. Der voreingestellte Name dieser Datei lautet config.us.
Konsole
Siehe Cluster-Konsole.
Kundenspezifischer Detektor (RMS)
Siehe Detektor (RMS).
Kundenspezifischer Typ (RMS)
Siehe Generischer Typ (RMS).
116
U42128-J-Z100-4
Fachwörter
Leaf-Objekt (RMS)
Ein Objekt am unteren Ende des Systemgraphen. Diese Objektdefinition
steht am Anfang der Konfigurationsdatei. Ein Leaf-Objekt hat keine Kinder.
LEFTCLUSTER (CF)
Ein Knotenzustand, der zeigt, dass der betreffende Knoten nicht mit
anderen Knoten im Cluster kommunizieren kann. Das bedeutet, dass der
Knoten den Cluster verlassen hat. Der temporäre Zustand LEFTCLUSTER
dient der Vermeidung von Problemen, die durch eine Netzwerk-Partionierung entstehen können.
Siehe auch UP (CF), DOWN (CF), Netzwerk-Partitionierung (CF), Knotenzustand (CF).
Link (RMS)
Bezeichnet eine Eltern- bzw. Kindbeziehung zwischen bestimmten Ressourcen.
Log-Datei
Die Datei, in der signifikante Systemereignisse oder Meldungen aufgezeichnet werden. Die ASCC-Control- und -Satelliten-Dämonen erstellen
auf jedem Knoten, auf dem sie ausgeführt werden, Log-Dateien. Die
Wizard Tools, PCS, der RMS Basis-Monitor und die RMS-Detektoren
erstellen ebenfalls jeweils eigene Log-Dateien.
Lokales Netzwerk
Siehe Öffentliches LAN.
Lokaler Knoten
Der Rechner, von dem aus ein Kommando bzw. Prozess eingeleitet wird.
Siehe auch Remote-Rechner, Knoten.
Management Information Base
Eine hierarchische Datenbank mit Informationen zum lokalen Netzwerkgerät. Die Datenbank wird von Netzwerkverwaltungssoftware, z. B.
einem SNMP-Agenten, gepflegt.
Siehe auch Simple Network Management Protocol.
U42128-J-Z100-4
117
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Manuelles Switchover (RMS)
Der RMS-Prozess, mit dem ein Systemverwalter die Steuerung einer
userApplication auf einen anderen Knoten umschaltet.
Siehe auch Automatisches Switchover (RMS), Failover (RMS, SIS), Switchover (RMS), Symmetrisches Switchover (RMS).
MDS
Siehe Metadatenserver.
Meldung
Eine Gruppe von Daten, die ein Softwareprozess an einen anderen Prozess, ein Gerät oder eine Datei überträgt.
Metadatenserver
Ein GFS-Dämon, der die Steuerinformationen oder Metadaten eines
Dateisystems zentral verwaltet.
MIB
Siehe Management Information Base.
Mount-Punkt
Der Punkt innerhalb der Verzeichnisstruktur, an dem ein Dateisystem
eingefügt wird.
Multihosting
Mehrere Controller, die gleichzeitig auf eine Gruppe von Plattenlaufwerken zugreifen.
Nachrichtenwarteschlange
Ein bestimmter Speicherbereich, der für die Ablage von Nachrichten
reserviert ist, damit diese in der Reihenfolge ihres Eingangs verarbeitet
werden können.
Natives Betriebssystem
Der Teil eines Betriebssystems, der kontinuierlich aktiv ist und Systemaufrufe in Aktivitäten umsetzt.
118
U42128-J-Z100-4
Fachwörter
Netzwerk-Partitionierung (CF)
Diese Bedingung liegt vor, wenn zwei oder mehrere Knoten in einem
Cluster nicht über das Interconnect kommunizieren können. Bei laufenden Anwendungen können die Knoten jedoch noch auf gemeinsam
genutzten Geräten lesen und schreiben, wodurch die Datenintegrität
gefährdet wird.
Objekt (RMS)
Darstellung einer physischen oder virtuellen Ressource in der RMS-Konfigurationsdatei oder einem Systemgraphen.
Siehe auch Leaf-Objekt (RMS), Objektdefinition (RMS), Objekttyp (RMS).
Objektdefinition (RMS)
Ein Eintrag in der Konfigurationsdatei, der eine vom RMS zu überwachende Ressource identifiziert. Die in der Definition enthaltenen Attribute legen die Eigenschaften der entsprechenden Ressource fest.
Siehe auch Attribut (RMS), Objekttyp (RMS).
Objekttyp (RMS)
Eine Kategorie ähnlicher Ressourcen, die als Gruppe überwacht werden, beispielsweise Plattenlaufwerke. Jeder Objekttyp verfügt über
bestimmte Eigenschaften bzw. Attribute, die Überwachungsvorgänge
oder andere Aktionen einschränken oder festlegen. Wenn eine Ressource einem bestimmten Objekttyp zugeordnet ist, werden die diesem
Objekttyp zugeordneten Attribute auf die Ressource angewendet.
Siehe auch Generischer Typ (RMS).
Öffentliches LAN
Das lokale Netzwerk (LAN), über das normale Anwender auf ein System
zugreifen.
Siehe auch Administrations-LAN.
Online-Wartung
Die Möglichkeit, Geräte hinzuzufügen, zu löschen, zu ersetzen oder wiederherzustellen, ohne den Knoten herunterfahren oder ausschalten zu
müssen.
U42128-J-Z100-4
119
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Operating System Dependent (CF)
Dieses betriebssystemabhängige Modul stellt eine Schnittstelle zwischen dem lokalen Betriebssystem und der abstrakten, betriebssystemunabhängigen Schnittstelle bereit, auf der alle PRIMECLUSTER
Module basieren.
Oracle Real Application Clusters (RAC)
Oracle Parallel Server ermöglicht allen Benutzern und Anwendungen in
einer Cluster- oder MPP-Plattform (Massively Parallel Processing) den
Zugriff auf alle Daten in einer Datenbank. Früher unter dem Namen Oracle Parallel Server (OPS) bekannt.
OSD (CF)
Siehe Operating System Dependent (CF).
PCS
Siehe PRIMECLUSTER Configuration Services (PCS).
PCS Wizard Kit (PCS)
RMS-Konfigurationsprodukte, die für bestimmte Anwendungen entworfen wurden. Jede Komponente des PCS Wizard Kit umfasst kundenspezifische Voreinstellungen, Unteranwendungen, Detektoren und Skripte.
Diese Application Wizards passen auch die PCS-Schnittstelle an, damit
sie Steuerelemente für die zusätzlichen Eigenschaften zur Verfügung
stellen können.
Siehe auch PCS, Reliant Monitor Services (RMS).
Primärer Knoten (RMS)
Der voreingestellte Knoten, auf dem eine Benutzeranwendung beim
Starten von RMS online gebracht wird. Hierbei handelt es sich immer um
den Knotennamen des ersten Kindes, das in der Objektdefinition der
userApplication aufgelistet ist.
PRIMECLUSTER Configuration Services (PCS)
Die graphische Konfigurationsoberfläche für PRIMECLUSTER Produkte. PCS verwendet Standardschablonen, die in der Configuration
Definition Language (CDL) geschrieben wurden, um eine benutzerfreundliche Konfigurationsumgebung für Produkte wie RMS bereitzustellen. Die Standardschablonen können verändert oder ersetzt werden, um
eine kundenspezifische Schnittstelle für bestimmte Anwendungen oder
Installationen zu erhalten.
120
U42128-J-Z100-4
Fachwörter
PRIMECLUSTER Services (CF)
Dienstmodule, die Dienste und interne Schnittstellen für Cluster-Anwendungen zur Verfügung stellen.
Private Netzwerk-Adresse
Unter privaten Netzwerkadressen versteht man einen reservierten
Bereich von IP-Adressen, die durch Internet Corporation for Assigned
Names and Numbers (ICANN) festgelegt sind. Moderne Switches und
Router verhindern, dass diese Adressen an das Internet weitergeleitet
werden, so dass zwei oder mehr Unternehmen intern dieselbe private
Adresse verwenden können, ohne dass Konflikte oder Sicherheitsrisiken
entstehen.
Private Ressource (RMS)
Eine Ressource, auf die nur ein einzelner Knoten zugreifen kann und die
für andere RMS-Rechner nicht erreichbar ist.
Siehe auch Ressource (RMS), Gemeinsam verwendete Ressource.
Redundanz
Die Fähigkeit einer Komponente, die Ressourcenlast einer anderen, physisch ähnlichen Komponente zu übernehmen, falls die ursprüngliche
Komponente ausfällt oder heruntergefahren wird. Gängige Beispiele
sind RAID-Hardware und/oder RAID-Software zum Replizieren der auf
sekundären Speichergeräten gespeicherten Dateien, mehrere Netzwerkverbindungen zur Bereitstellung alternativer Datenwege sowie
mehrere Knoten, die dynamisch umgestellt werden können, so dass
wichtige Dienste in einem Cluster immer aufrecht erhalten bleiben.
Reliant Monitor Services (RMS)
Das Paket, das Hochverfügbarkeit der vom Benutzer angegebenen Ressourcen durch die Bereitstellung von Überwachungs- und Umschaltungsmöglichkeiten auf Linux- und Solaris-Plattformen sichert.
Remote-Rechner
Ein Rechner, auf den über eine Telekommunikationsleitung oder ein LAN
zugegriffen wird.
Siehe auch Lokaler Knoten, Knoten.
U42128-J-Z100-4
121
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Ressource (RMS)
Ein Hardware- oder Softwareelement (privat oder gemeinsam verwendet), das eine Funktion bereitstellt, beispielsweise eine gespiegelte
Platte, gespiegelte Plattenbereiche oder ein Datenbankserver. Eine
lokale Ressource wird nur vom lokalen Rechner überwacht.
Siehe auch Private Ressource (RMS), Gemeinsam verwendete Ressource.
Ressourcen-Definition (RMS)
Siehe Objektdefinition (RMS).
Ressourcen-Label (RMS)
Der Name der Ressource, wie er im Systemgraphen gezeigt wird.
Ressourcen-Zustand (RMS)
Aktueller Zustand einer Ressource.
RMS
Siehe Reliant Monitor Services (RMS).
RMS-Kommandos (RMS)
Kommandos, mit denen RMS-Ressourcen von der Kommandozeile aus
verwaltet werden können.
RMS-Konfiguration (RMS)
Eine Konfiguration mit zwei oder mehr Rechnern, die auf gemeinsame
Ressourcen zugreifen können. Jeder Knoten verfügt über eine eigene
Kopie des Betriebssystems und der RMS-Software sowie über eigene
Anwendungen.
RMS Wizard Kit (RMS)
RMS-Konfigurierungsprodukte, die für bestimmte Anwendungen entworfen wurden. Jede Komponente des Wizard Kit umfasst kundenspezifische Standardeinstellungen, Unteranwendungen, Detektoren und
Skripte. Diese Application Wizards passen auch die RMS-Wizard-ToolsSchnittstelle an, damit sie Steuerelemente für die zusätzlichen Eigenschaften zur Verfügung stellen können.
Siehe auch RMS Wizard Tools (RMS), Reliant Monitor Services (RMS).
122
U42128-J-Z100-4
Fachwörter
RMS Wizard Tools (RMS)
Ein Softwarepaket mit verschiedenen Konfigurierungs- und Verwaltungstools, mit dem Anwendungen in einer RMS-Konfiguration erstellt und verwaltet werden können.
Siehe auch RMS Wizard Kit (RMS), Reliant Monitor Services (RMS).
SAN
Siehe Storage Area Network.
Scalable Internet Services (SIS)
Das Paket, das die Datenverkehrbelastung gleichmäßig über ClusterKnoten verteilt und dabei für jede Verbindung die normalen Client-/Serversitzungen aufrecht erhält.
Schablone
Siehe Anwendungsschablone (RMS).
Schlüsselwort
Ein Wort, das in einer Programmiersprache eine bestimmte Bedeutung
hat. In der RMS-Konfigurationsdatei identifiziert das Schlüsselwort
object beispielsweise die Art der anschließenden Definition.
SCON
Siehe Cluster-Konsole.
SF
Siehe Shutdown Facility.
Shutdown Facility
Die PRIMECLUSTER Schnittstelle, die das Herunterfahren von ClusterKnoten verwaltet. SF wird während Failover-Vorgängen automatisch aufgerufen. SF benachrichtigt außerdem andere PRIMECLUSTER Produkte darüber, dass der Knoten erfolgreich heruntergefahren wurde, so
dass die Recovery-Vorgänge gestartet werden können
U42128-J-Z100-4
123
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Simple Network Management Protocol
Eine Reihe von Protokollen, durch die der Informationsaustausch zwischen verwalteten Netzwerkgeräten erleichtert wird. Die Protokolle werden von Software-Agenten implementiert, die sich in den Geräten befinden. Jeder Agent kann in Reaktion auf SNMP-Anforderungen von
anderen Geräten im Netzwerk Daten aus der lokalen Management Information Base (MIB) lesen und dorthin schreiben.
Siehe auch Management Information Base.
SIS
Siehe Scalable Internet Services (SIS).
Skalierbarkeit
Die Fähigkeit eines Computersystems, auf ein Ansteigen der Systemlast
dynamisch zu reagieren. Dies ist insbesondere bei Internet-Anwendungen äußerst wichtig, da die ständig zunehmende Nutzung des Internet
die Skalierbarkeit unentbehrlich macht.
Skript (RMS)
Ein Shell-Programm, das der Basismonitor bei einer Zustandsänderung
einer Ressource ausführt. Das Skript kann eine Änderung des Zustands
einer Ressource bewirken.
SNMP
Siehe Simple Network Management Protocol.
Storage Area Network
Das Hochgeschwindigkeits-Netzwerk, das mehrere (externe) Speichereinheiten miteinander und mit mehreren Rechnern verbindet. Diese Verbindungen bestehen üblicherweise aus Glasfaserkabeln.
Switchover (RMS)
Der Vorgang, bei dem RMS die Steuerung einer userApplication von
einem überwachten Rechner auf einen anderen Rechner umschaltet.
Siehe auch Automatisches Switchover (RMS), Manuelles Switchover (RMS),
Failover (RMS, SIS), Symmetrisches Switchover (RMS).
124
U42128-J-Z100-4
Fachwörter
Symmetrisches Switchover (RMS)
Symmetrisches Switchover bedeutet, dass jeder RMS-Knoten in der
Lage ist, Ressourcen von jedem anderen RMS-Knoten zu übernehmen.
Siehe auch Automatisches Switchover (RMS), Manuelles Switchover (RMS),
Failover (RMS, SIS), Switchover (RMS).
Systemgraph (RMS)
Visuelle Darstellung (Karte) der überwachten Ressourcen. Wird verwendet, um die RMS-Konfigurationsdatei zu erstellen bzw. zu interpretieren.
Siehe auch Konfigurationsdatei (RMS).
Typ
Siehe Objekttyp (RMS).
Umgebungsvariablen
Global definierte Variablen oder Parameter.
Unteranwendung (RMS)
Ein Teil der Konfigurationsschablone zur Konfigurationen eines Ressource-Typs für Hochverfügbarkeit. Die RMS-Konfiguration kann mehrere Instanzen jedes Ressource-Typs enthalten. Die Generic-Schablone
enthält Unteranwendungen für Befehle, Anwendungs-Controller, IPAdressen, virtuelle Netzwerkschnittstellen, lokale und remote Dateisysteme, Volume Manager und Storage Manager.
UP (CF)
Ein Knotenzustand, der zeigt, dass der betreffende Knoten mit anderen
Knoten im Cluster kommunizieren kann.
Siehe auch DOWN (CF), LEFTCLUSTER (CF), Knotenzustand (CF).
Verfügbarkeit
Als Verfügbarkeit wird die auf die meisten Unternehmen zutreffende
Anforderung bezeichnet, Anwendungen über das Internet 24 Stunden
am Tag, 7 Tage die Woche zu betreiben. Das Verhältnis von tatsächlicher
Nutzungsdauer zu geplanter Nutzungsdauer bestimmt die Verfügbarkeit
eines Systems.
U42128-J-Z100-4
125
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Fachwörter
Verkettete virtuelle Platte (concatenated virtual disk) (RCVM)
Verkettete (concatenated) virtuelle Platten bestehen aus zwei oder mehr
Bereichen auf einem oder mehreren Plattenlaufwerken. Ihre Kapazität
entspricht der Summe ihrer Einzelbestandteile. Im Gegensatz zu einfachen virtuellen Platten, bei denen die Platte in kleine Bestandteile unterteilt ist, werden die individuellen Platten oder Partitionen zu einer einzelnen großen logischen Platte zusammengefasst.
Siehe auch Gespiegelte virtuelle Platte (RCVM), Einfache virtuelle Platte
(RCVM), Aufgeteilte virtuelle Platte (striped virtual disk) (RCVM), Virtuelle
Platte.
Verteilen einer Konfiguration (RMS)
Der Vorgang des Kopierens einer Konfigurationsdatei und aller dazugehörigen Skripte und Detektoren an alle Knoten, die von dieser Konfiguration betroffen sind. Dies geschieht normalerweise automatisch, wenn
die Konfiguration durch PCS, die Wizard Tools oder das CLI aktiviert
wird.
Siehe auch Aktivieren einer Konfiguration (RMS), Generieren einer Konfiguration (RMS).
Virtuelle Platte
Ein Pseudo-Gerät, mit dem ein Teil oder eine Kombination physischer
Platten als einzelne logische Platte behandelt werden kann. Der Treiber
für die virtuelle Platte wird zwischen dem höchsten Level des logischen
Eingabe-/Ausgabe (I/O)-Systems und den Treibern der physischen
Geräte eingefügt, so dass alle logischen I/O-Anforderungen dem entsprechenden Bereich auf den physischen Platten zugeordnet werden
können.
Siehe auch Verkettete virtuelle Platte (concatenated virtual disk) (RCVM),
Gespiegelte virtuelle Platte (RCVM), Einfache virtuelle Platte (RCVM), Aufgeteilte virtuelle Platte (striped virtual disk) (RCVM).
Warteschlange
Siehe Nachrichtenwarteschlange.
Web-Based Admin View
Eine Java-basierte, betriebssystemunabhängige Oberfläche für PRIMECLUSTER Management-Komponenten.
Siehe auch Cluster Admin.
126
U42128-J-Z100-4
Fachwörter
Wizard (RMS)
Ein interaktives Softwaretool, das anhand vorab getesteter Objektdefinitionen einen bestimmten Anwendungstyp erzeugt.
Wizard-Kit (RMS)
Siehe PCS Wizard Kit (PCS), RMS Wizard Kit (RMS).
Wizard Tools (RMS)
Siehe RMS Wizard Tools (RMS).
Zustand
Siehe Ressourcen-Zustand (RMS).
Zustandsmeldung (RMS)
Eine Meldung, mit der ein Detektor den Basismonitor über den Zustand
einer bestimmten Ressource informiert.
U42128-J-Z100-4
127
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\Glossary.fm
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.avz
Bild 1:
Unterteilung einer physischen Partition in einfache virtuelle
Platten . . . . . . . . . . . . . . . . . . . . . . . . . .
15
Bild 2:
Muster für die Zusammensetzung einer verketteten
virtuellen Platte . . . . . . . . . . . . . . . . . . . . . .
17
Bild 3:
Struktur einer aufgeteilten (striped) virtuellen Platte
. . .
18
Bild 4:
Struktur von Spiegelplatten . . . . . . . . . . . . . . . .
21
Bild 5:
Korrekter Aufbau einer Spiegelplatte . . . . . . . . . . .
22
Bild 6:
Verhalten einer Spiegelplatte bei Fehlern in
einzelnen Pieces . . . . . . . . . . . . . . . . . . . . .
26
Bild 7:
Verhalten einer Spiegelplatte bei Initialisierung des
Piece-Status . . . . . . . . . . . . . . . . . . . . . . .
28
Bild 8:
Beispielkonfiguration einer gespiegelten root-Platte
. . .
62
Bild 9:
Typische RCFS-Konfiguration
. . . . . . . . . . . . . .
78
Dokuschablonen (OECBook) V2.1a vom 07.03.2007
by S. Thums Services&Tools © cognitas GmbH 2002-2007
18. Juni 2007 Stand 12:57.04
Bilder
U42128-J-Z100-4
129
Stichwörter
/etc/default/boot 33
/etc/dktab 43, 47, 52, 62, 67
/etc/vfstab 42, 47, 63, 66
/mrconfig.2 62
A
Anzahl Pieces 43
aufgeteilt (striped) 18
aufgeteilte virtuelle Platten (striped
vdisk) 19
B
Berechtigung zum Lesen einer
Spiegelplatte 21
Berechtigung zum Schreiben auf eine
Spiegelplatte 21
Blöcke 43
C
Catch-up-Prozess 27, 51
CCBR-Kommandos
cfbackup 91
cfrestore 91
CF-Kommandos
cfconfig 91
cfregd 91
cfset 91
cftool 92
rcqconfig 92
rcqquery 92
cfbackup 91
cfconfig 91
cfrestore 91
CFS-Kommandos
cfsmntd 92
fsck_rcfs 92
mount_rcfs 92
ngadmin 92
rcfs_fumount 92
rcfs_list 92
U42128-J-Z100-4
rcfs_switch 92
cfset 91
cfsmntd 92
cftool 92
CIP-Kommandos
cip.cf 93
cipconfig 92
ciptool 92
cip.cf 93
cipconfig 92
ciptool 92
clautoconfig 95
clbackuprdb 95
cldeldevice 95
cldevparam 93
clexec 95
clgettree 95
clinitreset 95
clmtest 93
clrccumonctl 93
clrccusetup 93
clrcimonctl 93
clrestorerdb 95
clsetparam 95
clsetup 95
clstartrsc 95
clstoprsc 95
clsyncfile 95
Cluster 7, 18
Cluster-Konsolen, SCON starten
cluster_uninstall 93
Clustergröße 19
CPAT-Kommando 93
97
D
Dateisystem
einhängen 53
erstellen 53
Dateisystem, neu, erstellen und
einhängen 53
Deklarationszeile 43
131
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.six
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Stichwörter
disable (deaktivieren) 51
disabled (deaktiviert) 24
dkconfig 31, 47, 94
dkmigrate 94
dkmirror 25, 49, 94
dktab 94
DLM/OPS-Umgebung 46
Dokumentation, verwandte
Dokumentation 8
DOWN 25
dtcpadmin 98
dtcpd 98
dtcpstat 98
E
EBUSY 47
ECC-Fehler 30
eeprom-Befehl 34, 69
Ein-/Ausgabefehler 32
einhängen 42
enabled (aktiviert) 24
ENXIO 48
Error Correction Code
(Fehlerkorrekturcode)
Gruppen
H
hvassert 96
hvcm 96
hvconfig 96
hvdisp 96
hvdist 96
hvdump 96
hvenv.local 97
hvgdmake 96
hvlogclean 96
hvrclev 96
hvreset 96
hvsetenv 96
hvshut 96
hvswitch 96
hvthrottle 96
hvutil 96
I
I/O-Fehler 36, 38
in use 36, 38
30
F
Fehler 30
Fehler des Typs Header
mismatch 31
fjsvwvbs 98
fjsvwvcnf 98
fsck 48
fsck_rcfs 92
G
Geräte-Knoten 43
Gerätetreiber
physisch 13
gespiegelte root-Platten
Besonderheiten 61–70
Grenzwerte 39
Größe des statesave-Gerätes 35
Gruppe 44
Gruppe von virtuellen Platten 44, 45
132
44
K
Kommandos
CCBR 91
CF 91
CFS 92
CIP 92
cluster_uninstall 93
CPAT 93
MA 93
PAS 93
RCVM 94
Resource Database 95
Konfiguration 39, 42
Konfigurationszeilen 43
L
Länge 43
Längen 43
Leistung 18
U42128-J-Z100-4
Stichwörter
M
MA-Kommandos
cldevparam 93
clrccumonctl 93
clrccusetup 93
clrcimonctl 93
Manual-Pages
Anzeige 91
Auflistung 91
manuell 36, 38
Master 24
Master-Piece 52
maximale Anzahl Einträge
Meldungen 32
mipcstat 93
mir_daemon-Thread 29
MIRRORED 24
mkfs 42
mount_rcfs 92
mroot 33
N
newfs 54
ngadmin 92
NOT-MIRRORED
O
open failed
OPS 46
ops 46
Piece 24, 32
Pieces 43
Pseudo-Gerätetreiber
Q
Quelle eines Catch-upProzesses 63
35
25
36, 38
P
Partitionen 32
Partitionstabelle einer Platte
PAS-Kommandos
clmtest 93
mipcstat 93
PCS-Kommandos
pcs_reinstall 94
pcscui 94
pcstool 94
pcs_reinstall 94
pcscui 94
pcstool 94
U42128-J-Z100-4
13, 15
16
R
Rahmenbedingungen 39, 61
RAID-Level 1 20
RAID0 18
RAID1 20
rcfs_fumount 92
rcfs_list 92
rcfs_switch 92
rcsd 97
rcsd.cfg 97
RCVM-Kommandos
dkconfig 94
dkmigrate 94
dkmirror 94
dktab 94
vdisk 94
Read Cache 22
relative Positionen 43
Resource Database-Kommandos
clautoconfig 95
clbackuprdb 95
cldeldevice 95
clexec 95
clgettree 95
clinitreset 95
clrestorerdb 95
clsetparam 95
clsetup 95
clstartrsc 95
clstoprsc 95
clsyncfile 95
RMS-Kommandos
hvassert 96
hvcm 96
hvconfig 96
hvdisp 96
133
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.six
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Stichwörter
hvdist 96
hvdump 96
hvenv.local 97
hvgdmake 96
hvlogclean 96
hvrclev 96
hvreset 96
hvsetenv 96
hvshut 96
hvswitch 96
hvthrottle 96
hvutil 96
root-Platte spiegeln
33
S
SA_ipmi.cfg 97
SA_rccu.cfg 97
SA_rps.cfg 98
SA_scon.cfg 98
SA_sspint.cfg 98
SA_sunF.cfg 98
SA_wtinps.cfg 98
scon-Kommando 97
sdtool 97
Sektorgröße 43
select vdisk 74
SF-Kommandos
rcsd 97
sdtool 97
Sicherheit 20, 33
Sichern
cfbackup-Kommando 91
RMS-Konfiguration 96
simple 15
SIS-Kommandos
dtcpadmin 98
dtcpd 98
dtcpstat 98
Spiegel 20
Spiegelplatte
disabled (deaktiviert) 24
enabled (aktiviert) 24
Fehlerbehebung 30
Master 24
134
MIRRORED 24
Sicherungskopien 31
Statusschalter bei dkmirror 25
Synchronisierung 27
Spiegelplatte initialisieren 50
Spiegelplatten 20, 44
Catch-up-Prozess 27
Funktionalität 21
implementieren 22
Status 23
Struktur 20
Zustände 23
Spiegelplatten definieren 43
Spiegelplatten, Zustände
DOWN 25
NOT-MIRRORED 25
Spiegelplattentreiber
Meldungen 32
Synchronisierung 27
Spiegelung deaktivieren 70
statesave 35, 44
statesave-Gerät 25, 35
DOWN 36, 38
ENABLED 36, 38
MIRRORED 38
ONLINE 36
online 36, 38
statsv 44
Status 23
Statusangeben zu Spiegelplatten 44
Statusschalter 25
Stripe-Größe 44
Stripe-Größen 40
Stromausfall 32
Swap-Bereich 40
Systemleistung 18
Systemparameter 101
Systemplatte 33
Systemverfügbarkeit erhöhen 20
T
Trennzeichen
42
U42128-J-Z100-4
Stichwörter
U
ufs-Dateisystem
54
wvstat
99
V
vdisk 94
Verfügbarkeit 33
verkettet 16
Verschachtelungstiefe 40
Virtuelle Platten
DLM/OPS-Umgebung 46
virtuelle Platten
/etc/dktab bearbeiten 42
aufgeteilt (striped) 18
Beispielkonfiguration 52
einfach (simple) 16
Grenzwerte 39
Gruppen 35
Konfiguration mit dkmirror 47
Konfigurationsvorgang 42
maximale Anzahl 39
mit dkconfig konfigurieren 47
Rahmenbedingungen 39
Spiegel 20
statesave 35, 36
statsv 36
Struktur 14
verkettet 16–17
Verschachtelungstiefe 40
vxfs-Dateisysteme 53
W
Warteschlange 21
Web-Based Admin View-Kommandos
fjsvwvbs 98
fjsvwvcnf 98
wvCntl 98
wvGetparam 99
wvSetparam 99
wvstat 99
Wiederherstellen, ClusterKonfiguration 91
wvCntl 98
wvGetparam 99
wvSetparam 99
U42128-J-Z100-4
135
© cognitas. Gesellschft für Technik-Dokumentation mbH 2006
Pfad: F:\PCL4.2A20\PCL_dt\42128d4\rms-preface.six

Similar documents