Matrixnormen und Eigenwertabschäatzungen
Transcription
Matrixnormen und Eigenwertabschäatzungen
50 50.1 Matrixnormen und Eigenwertabschätzungen Motivation • Die Berechnung der Eigenwerte einer Matrix ist aufwändig (vgl. Kapitel 45, Kapitel 51). • Kann man die Eigenwerte einer Matrix mit geringem Aufwand abschätzen? • Dies spielt z. B. eine Rolle bei Konvergenzbetrachtungen zu iterativen Algorithmen. • Ein wichtiges Hilfsmittel für solche Abschätzungen sind Matrixnormen. 50.2 Definition: Matrixnorm Unter einer Matrixnorm versteht man eine Funktion k · k : IRn×n → IR mit folgenden Eigenschaften: a) kAk ≥ 0 für alle A ∈ IRn×n (Nichtnegativität) kAk = 0 genau dann, wenn A = 0 (Nichtdegeneriertheit) b) kλAk = |λ| · kAk für alle λ ∈ IR, A ∈ IRn×n c) kA + Bk ≤ kAk + kBk für alle A, B ∈ IRn×n (Dreiecksungleichung) d) kA · Bk ≤ kAk · kBk für alle A, B ∈ IRn×n (Submultiplikativität) 50.3 Beispiele Es sei A ∈ IRn×n . a) Gesamtnorm: kAkG := n · max |aij | b) Zeilensummennorm: kAkZ := max c) Spaltensummennorm: i,j i kAkS := max j 177 n P j=1 n P i=1 |aij | |aij | d) Frobeniusnorm: kAkF := e) Spektralnorm: kAk2 := P n i,j=1 p a2ij 1/2 λmax (AT A), wobei λmax (AT A) der größte Eigenwert von AT A ist. n o Falls A symmetrisch ist, gilt kAk2 = max |λi | λi Eigenwert von A . i Da Matrizen und Vektoren oft gemeinsam auftreten, sollten Matrix- und Vektornormen zueinander passend gewählt werden. 50.4 Definition: Verträglichkeit von Normen Eine Matrixnorm k · kM heißt verträglich (kompatibel) mit einer Vektornorm k · kV , falls für alle A ∈ IRn×n und x ∈ IRn gilt kAxkV ≤ kAkM · kxkV . 50.5 Beispiele Zu den p-Normen kxkp := n 1/p P p |x | , 1≤p<∞, i i=1 max |xi | , i=1,...,n p=∞ als Vektornormen bestehen folgende Verträglichkeiten von Matrixnormen: a) kAkG und kAkS sind kompatibel zur Betragssummennorm kxk1 . b) kAkG , kAkF und kAk2 sind kompatibel zur euklidischen Norm kxk2 . c) kAkG und kAkZ sind kompatibel zur Maximumsnorm kxk∞ . 178 Beweis: Wir zeigen nur beispielhaft die Verträglichkeit von kAkG und kxk∞ . kAxk∞ X n = max aij xj i j=1 X n ≤ max |aij xj | i j=1 X n ≤ max i j=1 (Dreiecksungleichungen) max |akl | · max |xm | m k,l = n · max |akl | · max |xm | m k,l = kAkG · kxk∞ . Zu einer gegebenen Vektornorm k · kV existieren oftmals viele kompatible Matrixnormen k · kM . Es gibt jedoch eine Matrixnorm, für die die Abschätzung kAxkV ≤ kAkM · kxkV am schärfsten ist und die daher in der Praxis häufig verwendet wird. 50.6 Definition: Zugeordnete Matrixnorm Die zu einer gegebenen Vektornorm k · k = k · kV definierte Zahl kAk := max x6=0 kAxkV = max kAxkV kxkV =1 kxkV heißt der Vektornorm k · kV zugeordnete Matrixnorm. Bemerkung: Man kann zeigen, dass die zugeordnete Matrixnorm alle Eigenschaften der Definitionen 50.2 und 50.4 besitzt und die kleinste aller Matrixnormen mit dieser Verträglichkeit ist. 179 50.7 Beispiele Vektornorm zugeordnete Matrixnorm Betragssummennorm kxk1 Spaltensummennorm kAkS Maximumsnorm kxk∞ Zeilensummennorm kAkZ euklidische Norm kxk2 Spektralnorm kAk2 Matrixnormen sind nützlich zur Abschätzung von Eigenwerten. 50.8 Satz: Eigenwertabschätzung mit Matrixnormen Ist λ ein Eigenwert von A ∈ IRn×n und kAk eine beliebige, zu einer Vektornorm kompatible Matrixnorm, so gilt |λ| ≤ kAk . Beweis: Es sei v ein Eigenvektor zu λ. Dann folgt |λ| · kvk = kλvk = kAvk ≤ kAk · kvk . Da v 6= 0, gilt kvk = 6 0. Also ist |λ| ≤ kAk. 50.9 Beispiel 1 Für A = 0 −0,2 0,1 −0,1 2 0,4 erhält man 0 3 kAkG = 3 max |aij | = 3 · 3 = 9 i,j kAkZ = max{1,2 ; 2,4 ; 3,2} = 3,2 kAkS = max{1,2 ; 2,1 ; 3,5} = 3,5 p kAkF = 12 + 0,12 + (−0,1)2 + 22 + 0,42 + (−0,2)2 + 32 p = 14,22 ≈ 3,77 . 180 kAkZ liefert die schärfste Abschätzung: |λ| ≤ kAkZ = 3,2 . Tatsächlich gilt λ1 ≈ 3,0060 ; λ2 ≈ 2,0078 ; λ3 ≈ 0,9862 . Offenbar erlaubt Satz 50.8 nur die Abschätzung des betragsmäßig größten Eigenwertes. Gibt es auch Abschätzungen für alle Eigenwerte? 50.10 Satz von Gerschgorin Gegeben sei eine Matrix A = (aij ) ∈ IRn×n . a) Die Vereinigung der Kreisscheiben Ki := µ ∈ C n X |µ − aii | ≤ |aij | j=1 j6=i enthält alle Eigenwerte der Matrix A. b) Jede Zusammenhangskomponente aus m solchen Kreisen enthält genau m Eigenwerte (mit ihren Vielfachheiten gezählt). Beweis: Siehe z. B. Stoer/Bulirsch: Einführung in die numerische Mathematik II. Springer, Berlin. 50.11 Beispiel 1 Für A = 0 −0,2 0,1 −0,1 2 0,4 findet man 0 3 n o K1 = µ ∈ C |µ − 1| ≤ 0,2 181 Im µ n K2 = µ ∈ C n K3 = µ ∈ C o |µ − 2| ≤ 0,4 o |µ − 3| ≤ 0,2 . K2 K1 λ1 1 K3 λ2 2 3 λ3 Re µ Sämtliche Eigenwerte liegen in K1 ∪ K2 ∪ K3 . Da K1 , K2 , K3 sich gegenseitig nicht überlappen, liegt nach (b) in jeder der Kreisscheiben genau ein Eigenwert. Ferner ist A invertierbar, da 0 außerhalb von K1 ∪ K2 ∪ K3 liegt und somit kein Eigenwert sein kann (vgl. 45.6). 50.12 Definition und Korollar: Invertierbarkeit strikt diagonaldominanter Matrizen Eine Matrix A = (aij ) ∈ IRn×n heißt strikt diagonaldominant, wenn für alle i = 1, . . . , n gilt n X |aii | > |aij | . j=1 j6=i Jede strikt diagonaldominante Matrix A ist invertierbar. Beweis: Für eine solche Matrix A liegt 0 außerhalb der Gerschgorin-Kreisscheiben, ist also nach dem Satz von Gerschgorin kein Eigenwert von A. Bemerkung: Ganz analog lässt sich schließen, dass eine symmetrische Matrix A = (aij ) ∈ IRn×n mit positiven Diagonaleinträgen aii , die strikt diagonaldominant ist, positiv definit ist. 182