Computational Commutative Algebra 1 – Lecture Notes ∑ ∑ ∑
Transcription
Computational Commutative Algebra 1 – Lecture Notes ∑ ∑ ∑
Computational Commutative Algebra 1 – Lecture Notes 2004-04-20 • Einheiten sind nichts anderes als die Elemente, die invertierbar sind. • Anmerkung zur Definition ‘irreduzibel’: • Hier wird nur R\ {0} ∪ R × statt R\ ({0}) betrachtet, weil die Irreduziblität von Einheiten (diese werden ja von der Definition ausgenommen) nicht interessiert. • Betrachte den Polynomring R [x ] über den reellen Zahlen. Man will sagen, das 1 Polynome wie ‘ x + 1’ irreduzibel sind (Es gibt zwar die Zerlegung x + 1 = (2 x + 2) , 2 1 aber ‘ ’ ist eine Einheit.), aber nicht, dass Polyome wie ‘2’ (also konstante 2 Polynome) irreduzibel sind. • Ein Modul für einen Ring ist das Analogen zu einem Vektorraum zu einem Körper (gleiche Axiome). • Ein Ideal unterscheidet sich von einem Unterring darin, dass sogar R ⋅ I ⊆ I statt nur I ⋅ I ⊆ I gefordert wird. • Beispiel für ein Ideal, das kein Primideal ist: • R = Z ; I = {4,8,12, } ; r = 12 ∈ I ; r = r1r2 = 2 ⋅ 6 • Es müsste folgen 2 ∈ I ∨ 6 ∈ I , stimmt aber nicht. ( ) 2004-04-27 • Eine R-Algebra S ist ein Ring, der zugleich R-Modul ist, wenn man als Skalarprodukt R × S → S mit (r , s ) ϕ(r ) ⋅ s wählt. • Eine R-Algebra S heißt ‘endlich erzeugt’, wenn es {s1, , s n }∈ S gibt, so dass die Potenzprodukte s1α1 s nα n mit α i ≥ 0 S als R-Modul erzeugen. • bedeutet: Jedes s ∈ S lässt sich als Linearkombination von verschiedenen s1α1 schreiben, also s = i ≥1 λ i ⋅ s1α1. i s nα n .i bzw. s = i ≥1 c 1. i c n.i ⋅ s1α1. i snα n s nα n .i . • Bezug zur Realität: Oft betrachtet man Polynomringe, welche ja R-Algebren sind. Der Polynomring wird ‘erzeugt’ durch die Potenzprodukte x1α1 x nα n mit α i ≥ 0 , weil sich ja jedes Polynom schreiben lässt als p(x ) = i ≥1 c 1. i c n.i ⋅ x1α1. i x nα n .i . Da es nun nach der universellen Eigenschaft genau einen Ringhomomorphismus R [x1, , x n ] → S (mit u. a. der Eigenschaft ψ (x i ) = s i ) gibt, entsprechen sich p (x ) = i ≥1 c1.i c n.i ⋅ x1α1. i x nα n .i und s = i ≥1 c 1. i c n.i ⋅ s1α1. i s nα n .i . • Siehe auch Definition 1.1.13 im Buch. • Bei ‘ S ≅ R [x1, , x n ] / I ’ steht nichts anderes, als dass das Bild (hier: S) isomorph zum Page: 1 Ganzen (hier: R [x1, , x n ] ) ohne den Kern (hier: I) ist. 2004-04-29 • Spezielle Ringelemente im Polynomring: • Einheiten: P × = (i 1 , ) c (i 1 , , i n ∈Nn0 ,i n ) ⋅ x1i1 x1i n c(0, ,0 ) ∈ R × ∧ alle anderen c(i1 , ,i n ) nilpotent : • siehe Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-06; 13-20’ • R Ring, r ∈ R : r Primelement r irreduzibel: • r prime: r r1r2 r r1 ∨ r r2 • r irreduzibel: r ≠ r1r2 • Angenommen, r prime und nicht r irreduzibel (also r reduzibel): r = r1r2 ∧ (r r1 ∨ r r2 ) da reduzibel da prime • r1 und r2 sind ‘kleiner’ als r, weil r ja das Produkt der beiden ist. Da r aber auch prime ist, gilt aber auch r r1 ∨ r r2 . Also muss r1 oder r2 ‘größer’ als r sein (‘8’ kann nicht ‘6’ teilen, sondern frühestens ‘8’.). Dann muss aber r ‘gleich’ r1 xoder r2 sein (‘Größer’ als ‘8’ kann weder r1 noch r2 sein, denn 8 = r1r2 . Also muss r1 = 8 xor r2 = 8 und das jeweils andere muss gleich 1 sein (‘1’ ist jedoch eine Einheit.). Bei Polynomen bedeutet das, dass r1 xoder r2 den gleichen Grad wie r haben muss und das jeweils andere eine Zahl sein muss (eigentlich auch immer eine Einheit).). • Also ist r doch nicht reduzibel. Widerspruch. • siehe Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-06; 12-20’ 2004-05-25 • Die minimale Erzeugendenzahl von I = (x1, , x n ) ist 2 durch Nachdenken, dass n (n + 1) weil: Man überzeugt sich 2 x 1 x 1, x 1 x 2 , , x 1 x n , x 2 x 2 , x 2 x 3 , , x 2 x n , , x n x n n Stück n −1 Stück ein minimales 1 Stück Erzeugendensystem für I ist. Die Anzahl der Elemente ist die Summe der ersten n n(n + 1) natürlichen Zahlen. Nach Gauß ist das . 2 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-25; 08-14’: • M wird disjunkt zerlegt in homogene Komponenten vom Grad 0 und 1 – andere gibt es nicht –, nämlich M = M 0 ⊕ M1 . • Die Herleitung des minimalen Erzeugendensystems für M 0 dürfte klar sein. • Für das minimale Erzeugendensystem für M 1 wird Nakayama’s Lemma verwendet. Dazu wird von M zu M / P+ M übergegangen. Uns interessiert nur noch die homogene Komponente vom Grad 1 von M (d. h. M 1 ). Also interessiert uns die homogene Page: 2 Komponente vom Grad 1 von M / P+ M , also (M / P+ M )1 . Es gilt (siehe 1.7.9 im Buch): (M / P+ M )1 = M1 / (P+ M )1 . • (P+ M )1 sind Monome n vom Grad 1, die sich als Produkt von 2 Monomen schreiben lassen ( n = pm ). Dazu muss deg(p ) = 0 ∧ deg(m ) = 1 ∨ deg(p ) = 1 ∧ deg(m ) = 0 sein. Doch da p aus P+ kommt, hat p mindestens Grad 1 und somit bleibt nur noch deg(p ) = 1 ∧ deg(m ) = 0 übrig. Dies entspricht also P1M 0 . Mit anderen Worten: (P+ M )1 = P1M 0 . • Insgesamt kriegt man also (M / P+ M )1 = M1 / P1M 0 . • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-25; 14-14.jpg’: • Es gilt t ⋅ LT (f i ) = LT ~ LC (f ) hi + t f i , denn: LC (f i ) LC (f ) ~ LC (f ) ~ ~ hi + t fi = LT hi fi + tfi = max LT hi fi , LT (tfi ) LC (fi ) LC (fi ) ~ = max LT hi fi , t ⋅ LT (fi ) = { ( ) LT { ( ) } ( ) } t ⋅ LT (fi ) ~ weil LT (f ) > LT hi f i für alle f i , als ins Besondere für dieses f i mit t ⋅LT (f i )= LT (f ) =t ⋅LT ( fi ) 2004-06-03 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 03-29’: • g 1 = yg~1 und g 2 = xg~2 , weil: • g 1 x = −g 2 y • Weil die rechte Seite durch x teilbar ist, muss es auch die linke sein. • Weil y nicht durch x teilbar ist (klar), muss zwangsläufig g 2 durch x teilbar sein. • Analoges gilt für y. • also: g 1 = yg~1 und g 2 = xg~2 • g~1 = −g~2 , weil: g 1 x = −g 2 y ⇔ yg~1 x = − xg~2 y ⇔ g~1 = −g~2 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 07-29’ und folgende: • Für jedes feste Monom t ∈ T n muss der Koeffizient von t 0 ergeben, denn: • Mulipliziere g 1t 1 + + g s t s = 0 vollkommen aus und fasse gleiche Terme wie üblich zusammen, wodurch sich ihre Koeffzienten addieren. • Mit t sind diese Terme gemeint. • Da jeder Term t nur einmal in der sich ergebenden Summe aus Termen auftaucht, kann er sich nicht mit einem anderen wegkürzen. • Da die Summe immer noch 0 ergibt, muss vor allen Termen der Koeffizient 0 stehen. • In der Darstellung g i = c ij m j sind mit m j die Terme in Supp(g i ) gemeint. Also j sind die m j -s von einem g i nicht die gleichen wie von einem anderen. Auch das j ist bei jedem g i ein anderes. Page: 3 • Es folgt ‘ c1 j1 m j1 t 1 + • c 1 j1 m j1 t 1 + + c1 j s m j s t s = 0 ’, weil: ( + c 1 j s m j s t s = 0 ⇔ c 1 j1 + =t ) + c 1 j s t = 0 ⇔ c 1 j1 + + c1 j s = 0 =t • Letzteres wurde ja bereits festgestellt. • Also ist auch c1 j1 m j1 , , c sj s m j s eine Syzygie von (t 1, , t s ) . • (m j1 ( ) ,−m j 2 ∈ Syz(t 1, t 2 ) , ) ( ) m j1 t 1 = m j 2 t 2 ⇔ m j1 t 1 + − m j 2 t 2 = 0 Syz(t 1, t 2 ) • Da ( ⇔ nach Definition (m j1 weil: ) ,−m j 2 ∈ Syz(t 1, t 2 ) = siehe Tafelbild ' University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004- 06- 03; 05 - 29' ) ( σ12 , ) muss nun m j1 ,−m j 2 ein Vielfaches von σ12 sein, also m j1 ,−m j 2 = hσ12 . • c1 j1 h(t 12 ,−t 21,0, ,0) ist nichts anderes als (c1 j1 m j1 ,−c1 j1 m j 2 ,0, ,0 ) . Dies ist überhaupt erstmal eine Syzygie von (t 1, , t n ) , weil: c1 j1 m j1 t 1 − c1 j1 m j 2 t 2 + 0t 3 + + 0t s = 0 ⇔ c 1 j1 m j1 t 1 − c 1 j1 m j 2 t 2 = 0 ⇔ c 1 j1 m j1 t 1 = c 1 j1 m j 2 t 2 ⇔ m j1 t 1 = m j 2 t 2 (Dies ist ja der Fall (siehe oben).) • Subtrahiert man diese Syzygie ( (c1 j1 m j1 ,−c1 j1 m j 2 ,0, ,0 ) ) nun von der Syzygie ( ) ( c1 j1 m j1 , , c sjs m j s ), so erhält man eine neue (siehe Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 02-29’)), und zwar 0, (c 2 j 2 + c1 j1 )m j2 , c 3 j3 m j3 , , c sjs m js mit einem Koeffizienten ≠ 0 weniger. ( ) ( • Führt man das Verfahren fort, so kommt man nach s Schritten von c1 j1 m j1 , , c sjs m j s durch Subtraktion von anderen Syzygien auf (0, ,0 ) • also: c1 j1 m j1 , , c sjs m js − ( ) − − ( ) = (0, ,0 ) ⇔ c1 j1 m j1 , , c sjs m js = ( ( ) ( ) )+ +( ) ) s Stück • Da die ( ) alle Vielfache von mit 0-en auf die richtige Dimension gebrachte Vielfache von σ ij , liegt c1 j1 m j1 , , c sjs m j s in dem Modul, der von (ebenfalls die ( ) richtige Dimension gebrachten) σ ij -s erzeugt wird. ( ) • Die ursprüngliche Syzygie (g 1, , g s ) ist Summe von c1 j1 m j1 , , c sjs m j s -s, denn die g i -s sind ja g i = (c 1 j1 ) c ij m j und weil zu jedem Term t in g 1t 1 + j + g s t s eine Syzygie m j1 , , c sj s m j s von (t 1, , t s ) gebildet wird, was dafür sorgt, dass auch jeder Term m j jedes g i ’s genau einmal drankommt und somit: (c + (c m j1 , , c sj s m j s ) ) + c1 j1 m j1 , , c sj s m j s ) 1 j1 + m j1 , , c sj s m j s 1 j1 ( = (g 1, , g s ) 1 2 k (k = Anzahl der (verschiedenen) Terme t in g 1t 1 + + gsts ) Page: 4 • Beispiel zur λ -Funktion (Definition siehe Tafelbild ‘University; Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 17-29’): 1 f1 λ = λ f1 fs • = f1 ⋅ λ 1 0 0 0 + + fs 0 0 1 = ε1 = εs 1 = λ f1 0 Computational 0 + + λ fs 0 0 1 0 + + fs ⋅ λ 0 = f1v 1 + 0 + fs v s 1 • daher: Kern(λ ) = f1 f1 = 0 = Syz(v 1, ,v s ) λ fs fs =f1v1 + + fsv s n • T e1, , er -Graduierung von P s (siehe Tafelbild ‘University; Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 20-29’): 0 0 v1 • deg = vs ∈P 0 t i - te Stelle 0 v1 ⇔ c1t 1 = ∀j : t j ⋅ LT vs csts s = 0 = tei ∈T n e1, ,er g j .1 s j =1 c jt jε j g j .r =g j ∈P r Computational 0 = t j ⋅ LT (g j .k ) = 0 0 0 0 t i - te Stelle 0 0 für ein 1≤ k ≤ r (also falls k = i ist). • v muss kein Mehrdimensionen-Term sein um einen Grad zu haben, darf aber auch kein Vektor von beliebigen Polynomen sein, sondern nur ein Vektor, der in jeder Komponente ( c i t i ) ein Monom (oder 0) stehen hat. • Liften von Syzygien (vgl. Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 28-29’): • Syz(G ) wird berechnet wie folgt: 1. Berechne Syz(LM(G )) , was möglich ist, weil in LM(G ) ja nur Terme (mit Koeffizienten) stehen. Also setzt sich Syz(LM(G )) aus den fundamentalen Syzygien σ ij zusammen und lässt sich, wie auf den vorherigen Tafeln gezeigt, berechnen. 2. Sei (f1, , f s ) ∈ Syz(LM(G )) . Berechne λ((f1, , fs )) . 3. Ist λ((f1, , f s )) = 0 , so ist nach Definition von λ (f1, , fs ) eine Syzygie von G. 4. Ist λ((f1, , f s )) ≠ 0 , so gibt es für λ((f1, , fs )) = f1g 1 + + f s g s eine Darstellung Page: 5 h1g 1 + + hs g s , weil f1g 1 + + f s g s ∈ G und weil G ein Gröbner-Basis ist. 5. Dann ist f1g 1 + + f s g s = h1g 1 + + hs g s = λ ((f1, ,fs )) ⇔ f1g 1 + = λ ((f1, ,fs )) + f s g s − h1g 1 + + hs g s = 0 ⇔ (f1 − h1 )g 1 + + (f s − hs )g s = 0 Also ist ((f1 − h1 ), , (fs − hs )) eine Syzygie von G. 2004-06-08 • Hilbert’s Basissatz (Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-08; 10-18’): • LC(I ) ist ein Ideal in R, weil: • Seien a, b ∈ LC(I ) . Dann muss auch a + b auch in LC(I ) liegen.: • Seien a = LC(fa ) und b = LC(f b ) für f a , f b ∈ I . • Da I ein Ideal ist, darf man Elemente aus I mit Elementen aus R [x ] multiplizieren und bleibt in I. Also sind LT (f b ) ⋅ f a ∈ I und LT (f a ) ⋅ f b ∈ I . (Warum ∈R [ x ] ∈R [ x ] ∈I ∈I gerade diese Produkte? Diese beiden Produkte haben den gleichen Leitterm, nämlich LT (fa ) ⋅ LT(f b ) .) • Es gilt offensichtlich LT (f b ) LC ⋅ fa = LC(fa ) = a und ist ja nur ein Term und daher LC (fb )=1 LT (fa ) LC ⋅ f b = LC(f b ) = b . ist ja nur ein Term und daher LC (fb )=1 • Addiere nun LT (f b ) ⋅ f a + LT (fa ) ⋅ f b ∈ I . Da beide Summanden den gleichen ∈I ∈I Leitterm haben (siehe oben), addieren sich ihre Leitkoeffizienten, also LC(LT (f b ) ⋅ fa + LT (fa ) ⋅ f b ) = LC(LT (f b ) ⋅ f a ) + LC(LT (f a ) ⋅ f b ) = a + b . • Also ist auch a + b in LC(I ) , denn a + b ist der Leitkoeffizient vom Element LT (f b ) ⋅ fa + LT (fa ) ⋅ f b , welches in I liegt. • Sei a ∈ LC(I ) . Dann muss auch r ⋅ a ∈ LC(I ) sein mit r ∈ R .: • Sei a = LC(fa ) . • Da I ein Ideal ist, darf man Elemente aus I mit Elementen aus R [x ] r ⋅ fa ∈ I . multiplizieren und bleibt in I. Also ∈R [ x ], weil ∈R ∈I • Es gilt offensichtlich LC(r ⋅ fa ) = r ⋅ LC(fa ) = r ⋅ a . • Also ist auch r ⋅ a in LC(I ) , denn r ⋅ a ist der Leitkoeffizient vom Element r ⋅ fa , welches in I liegt. • Die LC I (i ) -s sind Ideale in R, weil: • Seien a, b ∈ LC I (i ) . Dann muss auch a + b auch in LC I (i ) liegen.: • Seien a = LC(fa ) und b = LC(fb ) mit deg fa = deg fb = i . ( ) ( ) ( ) Page: 6 • Da der Grad der beiden Polynome gleich ist und es nur eine Variable (x) gibt, ist fa = ax i + und fb = bx i + . • Dann ist aber deg(fa + fb ) = deg ax i + + bx i + =fa ( ) deg(fa + fb ) = i , auch ( denn )= i . = deg (a + b )x i + =fb • Also ist auch a + b in LC I (i ) , denn a + b ist der Leitkoeffizient vom Element fa + fb , welches Grad i hat. ( ) ( ) • Sei a ∈ LC I (i ) . Dann muss auch r ⋅ a ∈ LC I (i ) sein mit r ∈ R .: • Sei a = LC(fa ) mit deg fa = i , also f a = ax i + . mit deg(r ⋅ fa ) = i • Multipliziere fa mit r und erhalte r ⋅ fa = rax i + LC(r ⋅ fa ) = r ⋅ LC(fa ) = r ⋅ a . und ( ) • Also ist auch r ⋅ a in LC I (i ) , denn r ⋅ a ist der Leitkoeffizient vom Element r ⋅ fa , welches Grad i hat. • Weil die LC I (i ) -s Ideale in R sind und R noetherian ist, sind auch die LC I (i ) -s ( ) ( ) ( ) noetherian. Somit werden sie endlich erzeugt: LC I (i ) = r1(i ) , , rs(ii ) • f j(i ) := r j(i ) x i + { } , wobei 0 ≤ i ≤ k − 1 und 1 ≤ j ≤ s i (also r j(i ) ∈ r1(i ) , , rs(ii ) ) (k −1) • Ergänzungen zum Beweis der Behauptung I = f1, , f s , f1 , ,f k −1 sk −1 , , f1(0 ) , , f s(00 ) : • Die u i -s ∈ R gibt es allgemein, weil f ∈ I und LC(I ) = r1, , rs , und nicht nur, weil deg f ≥ k . • Die Bedingung ( deg f ≥ k deg f − deg f1 deg f − deg fs ) wird nur benötigt, damit in f − u1 x f1 + + u s x fs die Exponenten deg f − deg f i nicht negativ werden können, denn der größte Grad der f i -s ist k (mit anderen Worten: max{deg f i } = k ) (siehe Tafelfbild ‘University; Computational Commutative Algebra 1≤ i ≤ s 1 (Algebra 2); SS 2004; 2004-06-08; 12-18’). f − u1 x deg f − deg f1 f1 + + u s x deg f −deg fs fs ( ) ∈I , da alle fi ∈I = • nach Definition der fi (( f − u1 x deg f −deg f1 r1 x deg f1 + (( )+ + u s rs x deg f + f − (u1r1 + + u s rs )x deg f + = f − u1r1x deg f + = =LC (f ) x deg f + • Ist ( ( )+ ( + u s x deg f −deg fs rs x deg fs + )) =LC (f ) f − u1 x deg f −deg f1 f1 + )) ) + u s x deg f −deg fs fs = 0 , so ist ∈I , da alle fi ∈I f = u1x deg f −deg f1 f1 + + u s x deg f −deg fs fs und die Behauptung stimmt, da sich f als Linearkombination der f1, , fs , f1(k −1) , , fskk −−11, , f1(0 ) , , fs(00 ) schreiben lässt. • Ist f − u1 x deg f − deg f1 f1 + + u s x deg f −deg fs fs ≠ 0 , so ist aber Page: wegen 7 ( ) + u s x deg f −deg fs fs = f − u1 x deg f − deg f1 f1 + ( ( deg f − deg f1 deg f − u1 x f1 + + u s x wieder vorne anfangen. • Ist so deg f =: g < k , LC(f ) = u1 r1 (g ) (g ) deg f − deg fs − (u1r1 + f =LC (f ) x deg f )) + + u s rs )x deg f + =LC (f ) fs < deg f und man mit diesem Elemenent ( ) LC(f ) = LC I (g ) = r1(g ) , , rs(gg ) , ist also (g ) (g ) + + u sg rsg . • Außerdem gibt es zu den r j(g ) -s passende Polynome, nämlich die f j(g ) -s mit f j(g ) = r j(g ) x g + • Bilde . nun ( f − u1 x deg f − deg f1 f1 + statt f − u1 x ) entsprechend =g =g (g ) + u s x deg f − deg fs fs deg f − deg f1( g ) f1(g ) + + u s(g ) x deg f − deg fs( g ) g fs(gg ) und gehe analog zum Fall deg f ≥ k ∈I vor, wodurch es wieder ein Polynom kleineren Grades gibt oder man die 0 erreicht. • Erreicht man irgendwann die 0 (muss man zwangsläufig, weil die Grade ja von Schritt zu Schritt immer kleiner werden), so hat man f − u1 x deg f − deg f1 f1 + + u s x deg f −deg fs fs − ( ) − u1(g ) x deg f − deg f1( g ) f1(g ) + + u s(g ) x ( deg f − deg f1( g ) g fs(gg ) − =0 ) + u s x deg f − deg fs f s + ⇔ f = u1 x deg f −deg f1 f1 + + u1(g ) x deg f − deg fs( g ) f1(g ) + + u s(g ) x deg f − deg f ( g ) sg fs(gg ) + f1, , fs , f1(k −1), , fskk −−11, , f1(0 ), , fs(00 ) und hat somit f als Linearkombination der dargestellt. • Hilfssatz 1: • W π′ W /U Untermodul von (M / U ) Untermodul von M π′ • π′ ist in der Tat bijektiv, wenn man es nicht mit π verwechselt, denn W W / U . Kennt man nämlich W := W / U , so kann man W eindeutig angeben, nämlich W =W +U . • Beispiel zu ‘Normalform’: • Wähle K [x ] als P r und das Ideal x 2 + x als M. • Dann können in K [x ] / x 2 + x nur Polynome vom Typ c1 x 1 + c 0 x 0 (eigentlich ( ) ( ) ( ) c1 x 1 + c 0 x 0 , weil die Elemente von K [x ] / x 2 + x ja eigentlich Restklassen sind) liegen, wobei c i ∈ K . • Also wird K [x ] / x 2 + x erzeugt durch x 1, x 0 . Da die Koeffizienten nur aus K kommen, ist K [x ] / x 2 + x ein K-Vektorraum. ( ( ) ) ( ) ( ) • Z. B. liegt x in der Restklasse − x , weil x 2 = 1⋅ x 2 + x + (− 1)x . 2 ( 2 ∈ x +x ) ( K [x ] / x 2 + x ) Page: 8 ( ) • Da dieser Rest hier eindeutig ist, gilt: NF x 2 = − x . • NF 2 = NF , weil: NF 2 x 2 = NF NF x 2 = NF(− x ) = − x = NF x 2 • NF M = 0 , weil: Elemente aus M sind in 0 und haben damit keinen Rest, also ( ) ( ( )) ( ) NF M = 0 . • NF B K = id B , weil: Elemente aus K B K gerade die Reste sind und sich daher modulo M nicht mehr verändern. • Ergänzung zu ‘reduzierte Gröbner-Basis’: • g~i := LT (g 1 ) − c i .b b ∈ M , weil: b∈B =NF (LT (g1 )) • Für jedes (Multidimensionen-)Polynom p gilt: p = m M - Anteil von p • Also p − NF(p ) = m ∈ M . • eigentlich sowieso klar, + NF(p ) . ' Divisionsrest' 7 mod 4 = 3 ⇔ 7 = denn: =ˆ NF (7 ) =ˆ p 1⋅ 4 +3, also =ˆ M - Anteil von p 7 − 3 = 1⋅ 4 ∈ M . ~ • ‘ g i := LT (g 1 ) ’ reicht nicht, denn dann gilt zwar LT (g~1 ), ,LT (g~t ) = LT(M ) , aber nicht g~ ∈ M , was aber auch benötigt wird, damit man sagen kann, dass g~ , , g~ = M . i 1 t 2004-06-15 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-15; 02-12’: • w − (r1w 1 + + rl w l ) ∈ U , weil: • (r1w 1 + + rl w l ) ist Representant von w in M /U (wegen ( ) ( ) π w = r1w 1 + + rl w l + U ), liegt also in modulo U in derselben Restklasse wie w. • Wenn 2 Elemente in derselben Restklasse liegen, bedeutet dass, ihre Differenz in U liegt. • w − (r1w 1 + + rl w l ) ∈ W ∩ U , weil: • w − (r1w 1 + + rl w l ) ∈ U (siehe gerade eben) • w − (r1w 1 + + rl w l ) ∈ W , weil w − r1w 1 + ∈W ∈W ∈W ∈W + rl w l ∈W ∈W ∈W ∈W • Ergänzung zum Korollar auf Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-15; 03-12’: • R k ist noetherian, falls r noetherian ist, weil: • Wähle im Hilfsatz von eben M := R k , U := R k −1 und somit M / U = R k / R k −1 = R . • Dann ist (nach Induktion) U = R k −1 noetherian und nach Voraussetzung M / U = R noetherian. • Laut Hilfssatz ist dann M = R k noetherian. • Ergänzung zum Satz auf Tafelbild ‘University; Computational Commutative Algebra 1 Page: 9 (Algebra 2); SS 2004; 2004-06-15; 03-12’: • Gerade gezeigt: R k ist noetherian. • Außerdem ist U := ker (ϕ) ein Untermodul von R k . • Wähle also im Hilfssatz 2 auf Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-08; 15-18’ das dortige M als R k und U als ker (ϕ) . • Erhalte, dass R k / ker (ϕ) noetherian ist. • Nun ist aber das M aus dem Satz auf Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-15; 03-12’ isomorph zu R k / ker (ϕ) , also auch noetherian. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-15; 11-12’: • LT (g~i ) = LT (g i ) , weil: • g~i := LT g i − b∈B ∈M c b(i )b ∈B ∈LT {M } • Da aber auch g~i ∈ M , ist LT (g~i ) ∈ LT{M }. • Da aber LT{M } disjunkt mit B und g~i nur einen Term in LT{M } hat (alle anderen sind in B), so muss dieser Term der Leitterm von g~i sein. • Dieser Term ist LT (g i ) . • Mit anderen Worten: LT (g~i ) = LT (g i ) . 2004-06-17 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-17; 07-24’: Mit ‘ ’ ist das gemeint, was bisher B hieß, nämlich Π n \ LT{M } bzw. Π n \ LT{I }. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-17; 11-24’: • τ ij := σ ij − (h1, , hs ) ∈ Syz (f1, , f s ) , weil: S(f i , f j ) = ⇔ s k =1 hk f k S(f i , f j ) nach Definition = λ (σ ij ) s − k =1 hk f k =0 nach Definition von λ gleich λ (h1, ,hs ) ⇔ λ(σ ij ) − λ(h1, , hs ) = 0 ⇔ λ σ ij − (h1, , hs ) = 0 =:τ ij ⇔ λ(τ ij ) = 0 ⇔ λ ist gerade so definiert worden τ ij ∈ Syz (f1, , fs ) Page: 10 • LF(τ ij ) = σ ij , wegen: LT (hi f i ) ≤ LT S(f i , f j ) bzw. LT S(f i , f j ) = max (LT (hi f i )) . = λ (σ ij ) 1≤ i ≤ s = λ (σ ij ) • Ergänzung zu Buchberger’s Algorithmus (Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-17; 12-24’ und folgende): • Eine Frage, die man sich stellen könnte, ist, wo der Sinn darin liegt, Sij′ im Fall S ij′ ≠ 0 dem bisherigen Erzeugendensystem G = (g 1, , g s ) von I hinzuzufügen (Schritt 4). • Dazu erinnere man sich an folgende Charakterisierung eine Gröbner-Basis: G ist eine Gröbner-Basis ⇔ LT = (LT (g 1 ), ,LT (g s )) . I oder allgemein M • Ist nun S ij′ = NR G hier noch = ( g 1 , ,g s ∈I , denn NRG (m )= m − ∈I s i =1 S (g i , g j ) ) ≠ 0, so ist, weil der ∈I pi g i für alle m∈I mit bestimmten Polynomen pi ∈I ∈I ∈I Divisionsalgorithmus hier gestoppt hat, LT (S ij′ ) durch kein LT (g i ) mehr teilbar. • Mit anderen Worten: LT (S ij′ ) ist kein Vielfaches eines LT(g i ) mehr. • Mit anderen Worten: LT Sij′ ∉ (LT (g 1 ), ,LT (g s )) . ∈I ∈LT {I } • Also ist LT{I } ≠ (LT(g 1 ), ,LT(g s )) und damit G keine Gröbner-Basis. • Fügt man nun g s′ := S ij′ dem bisherigen G hinzu, so erzwingt man gerade, dass dann LT (S ij′ ) ∈ (LT (g 1 ), ,LT (g s ),LT (g s′ )) , denn es ist ja gerade LT (S ij′ ) = LT (g s′ ) , weil ja g s′ := S ij′ . • Dann besteht die Chance, dass jetzt LT{I } = (LT (g 1 ), ,LT (g s ),LT(g s′ )) und somit G eine Gröbner-Basis für I ist. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-17; 23-24’: • Wie kommt man auf die angeschriebene, hinzuzufügende Spalte? • Man möchte am Ende eine Matrix A haben, so dass G = FA . (Beachte: G und F sind Zeilenvektoren. G = (g1, , g s′ ) und F = (f1, , fs ) .) bisher berechnete Gröbner -Basis • Zu Anfang ist (g1, 1 (g1, , g s′ ) = (f1, , fs ) , g s′ ) = (f1, , f s ) 0 (also auch s ′ = s ), also 0 0 0 0 ursprüngliches Erzeugendensystem 0 . 1 Einheitsmatrix I s (mit s Zeilen und s′ Spalten) • Diese Gleichheit soll nach jedem Iterationsschritt des Algorithmus wiederhergestellt werden. Da einerseits in jedem Iterationsschritt ein p zu G hinzukommt, muss die Page: 11 bisherige Matrix A angepasst werden. • Da p = S (g i , g j ) − q1g 1 − − q s′ g s′ = (siehe vorheriges Tafelbild) und 1 1 t ij g i − t ji g j ci cj g i = (f1, , fs ) ai (für alle gi ) gilt, ist i - te Spalte der Matrix p = (f1, , f s ) 1 1 t ij ai − t ji a j − q1a1 − ci cj − q s ′ as ′ . Dies ist ein Spaltenvektor der Länge s . • Hängt man diesen Spaltenvektor an A an, so erhält man gerade: (g1, , g s′ , p ) =G = (f1, , fs ) =F 1 0 0 0 0 0 0 1 as +1 1 1 t ij ai − t ji a j − q1a1 − ci cj as ′ bisher hinzugefügte Spaltenvektoren − q s ′ as ′ neuer Spaltenvektor für p Einheitsmatrix I s vom Anfang bisherige Matrix A neue Matrix A • Also 1 1 t ij ai − t ji a j − q1a1 − ci cj − qs′as′ . • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-17; 24-24’: b1.i • hi = (g 1, , g s′ ) bs′.i • Wie fährt man nun fort, wenn man die Matrix B hat? c1 d1 • Ziel ist es ja, h = (h1, , ht ) als h = (f1, , f s ) H ct ds auszudrücken. d. h. man will d1 kennen. dt • Nun gilt: H = GB = FAB . =G Page: 12 • also: h = (h1, , ht ) H c1 c1 = (f1, , f s ) A B ct F s×s′ s′×t ct s×1 d1 =: ds 2004-06-22 • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 01-18’: • In dieser Definition fällt ein wesentlicher Teil nicht auf, nämlich, dass die g i -s aus M sein müssen. • Die Definition im Buch (Definition 2.4.2) ist natürlicher. • Ergänzung zu Bemerkung 2 auf Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 02-18’: • Je nachdem, welche Definition für ‘Gröbner-Basis’ man benutzt ist entweder nichts zu zeigen (Definition aus dem Buch) oder es ist was zu beweisen (Definition auf Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 01-18’). Im letzteren Fall Fall ist der Beweis ab Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-08; 07-18’ zu finden. • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 03-18’: • v ′ − v ′′ ∈ M , weil v ′ − v ′′ = v − v ′′ − v − v ′ . ∈M ∈M ∈M • “Insbesondere gilt v ′ − v ′′ = 0 oder ...”: Hier wird eine Fallunterscheidung gemacht. 1. Fall: v ′ − v ′′ = 0 , daher ohne Leitterm, weil kein Grad. Dann gilt offensichlich v ′ = v ′′ . 2. Fall: Es gibt einen Grad, somit einen Leitterm. Dieser ist dann in LT (M ) , weil v ′ − v ′′ ∈ M . • Beispiel zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 16-18’: • Sei f (x1 x 2 ) := x12 + x1 x 2 − x 2 − 1. • Dann ist deg(f ) = 2 . • Dann ist: = deg ( f f hom x0 , x 1, x 2 = x 0 neue Variable 2 ) x x ⋅ f 1 , 2 = x 02 ⋅ x0 x0 x1 x0 2 + x1 x0 x2 x − 2 −1 x0 x0 = x + x1 x 2 − x 0 x 2 − x 02 2 1 hom • In f hat jeder Term Grad 2, also ist f hom homogen vom Grad 2. • Das kommt dadurch, weil f hom sich aus f ergibt, indem diejenigen Terme, die in f einen zu kleinen Grad haben mit einer zusätzlichen Variable ( x 0 ) aufgefüllt werden, bis sie denselben Grad haben, wie die Terme, die den größten Grad haben, also deg(f ) . Page: 13 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 18-18’: LCM(t i , t j , t k ) LCM(t i , t j , t k ) LCM(t i , t j , t k ) • Wenn = 1 ist, so ist σ ik = σ ij + σ jK . t ik t ij t jK • Dann aber ist σ ik im Erzeugendensystem von Syz(LM(G )) (welcher ja auf jeden Fall von der Menge aller σ ij erzeigt wird) überflüssig. 2004-06-24 • Ergänzungen zum Beispiel auf Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 05-18’: • Die eigentlich Aussage des Beispiels ist, dass, wenn man I als Gröbner-Basis gegeben hat, man sofort sehen kann, ob P = I und damit , ob Z(I ) = { }, nämlich genau dann, wenn in der Gröbner-Basis eine Kostante steht. • NF(1) = 0 ⇔ In der Gröbner-Basis gibt es eine Konstante, weil: • Der Leitterm von 1 lässt sich unter der Voraussetzung NF(1) = 0 durch ein g i aus der Gröbner-Basis teilen. • Dazu muss der Leitterm von g i aber kleiner oder gleich dem von 1 sein. • Da es nicht echt kleiner geht, bleibt nur gleich. • Da nur Konstanten den Grad 0 haben, ist g i also eine Kosntante. • Da man durch g i teilen kann, ist g i nicht 0. 2004-06-29 • Ergänzung zur Bemerkung auf Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-29; 08-10’: • I ⊆ I , weil I = f f i ∈ I ⊇ f f 1 ∈ I = I ( ) a ∈ Z( I ) { • Z(I ) ⊇ Z I , weil: • } { } f (a ) = 0∀g ∈ I • Da I ⊆ I , gilt insbesondere f (a ) = 0∀f ∈ I . • Dann aber ist a ∈ Z(I ) . ( ) • Also a ∈ Z I a ∈ Z(I ) . ( ) • Das ist genau dann der Fall, wenn Z(I ) ⊇ Z I (einfache Mengentheorie). • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-29; 10-10’: Page: 14 Z(I ∩ J ) = Z(I ) ∪ Z(J ) ⇔ {a h(a ) = 0∀h ∈ I ∩ J } = {a f (a ) = 0∀f ∈ I }∪ {a g (a ) = 0∀g ∈ J } • ⇔ {a h(a ) = 0∀h ∈ I ∩ J } = {a f (a ) = 0∀f ∈ I ∨ g (a ) = 0∀g ∈ J } ⇔ h(a ) = 0∀h ∈ I ∩ J ⇔ ' 'entspricht ⊆ ' ⇐ 'entspricht ⊇ f (a ) = 0∀f ∈ I ∨ g (a ) = 0∀g ∈ J ⇔ (∃h ∈ I ∩ J : h(a ) ≠ 0 ⇔ ∃f ∈ I : f (a ) ≠ 0 ∧ ∃g ∈ J : g (a ) ≠ 0 ) • ‘ ’: • Wähle das existierende h ∈ I ∩ J , so dass h(a ) ≠ 0 . • Da h ∈ I ∩ J , ist h ∈ I und h ∈ J . • Wähle das zu findende f := h und das zu findende g := h . • Dann gilt f (a ) ≠ 0 ∧ g (a ) ≠ 0 . • ‘ ⇐ ’: • Wähle die existierenden f ∈ I und g ∈ J mit : f (a ) ≠ 0 ∧ g (a ) ≠ 0 . • Dann ist h := fg ∈ I ∩ J , denn fg ∈ I , weil f ∈ I , und fg ∈ J , weil g ∈ J . • Dann ist h(a ) = f (a ) ⋅ g (a ) ≠ 0 . ≠0 ≠0 2004-07-01 • Ab Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-01; 03-18’ ist das Liften von Syzygien sehr schön erklärt. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-01; 08-18’ und ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-01; 09-18’: • Bisher ist nur bekannt, wie man Sysygien für Gröbner-Basen berechnet, nicht aber für beliebige Erzeugendensystem. • Daher wird das beliebige Erzeugendensystem zunächst in eine Gröbner-Basis konvertiert und dafür Syz(G ) berechnet (Schritt 3). • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-01; 14-18’: h1 in M gibt mit hi ∈ K \ {0} • Man kann f i weglassen, wenn es einen Spaltenvektor hs (also eine hi = const ), denn: • Die Spaltenvektoren von M erzeugen nach Definition den Syzygienmodul von (f1, , fs ) . • Insbesondere ist jeder Spaltenvektoren von M selbst eine Syzygie von (f1, , fs ) . • Also (f1, , f s ) h1 = f1h1 + + fs hs = 0 . hs • Ist ein hi = const , so gilt: Page: 15 f1h1 + + f s hs = 0 ⇔ f1h1 + + f i −1hi −1 + f i +1hi +1 + + f s hs = −f i hi =const h h1 h h + + f i −1 i −1 + f i +1 i +1 + + fs s − hi − hi − hi − hi • Also lässt sich f i durch die übrigen f j -s ausdrücken und kann demnach im ⇔ f i = f1 Erzeugendensystem von weggelassen werden. • Man kann f i genau dann weglassen, wenn die i-te Zeile von M das Ideal (1) erzeugt, denn: • Zeige hier eigentlich nur die Rückrichtung, aber die Hinrichtung wird einem klar, wenn man die Rückrichtung verstanden hat. • Wenn die i-te Zeile von M das Ideal (1) erzeugt, dann gibt es p1, , p u , so Breite der Matrix dass 1 = p1 + h1.i + i - tes Element des 1. Spaltenvektors . pu hu.i - tes Element des u - ten Spaltenvektors • Ziel ist es nun, M eine neue Spalte hinzufügen zu können, in der an der i-ten Stelle eine Konstante steht. • Da in M nur Syzygien stehen dürfen, muss diese neue Spalte eine Syzygie sein. • Man darf beliebige Syzygien M hinzufügen, denn M soll ja ein Erzeugendensystem des Syzygienmoduls sein und einem Erzeugendensystem darf man beliebige Elemente des Moduls hinzufügen, ohne dass die Eigentschaft ‘erzeugend’ verloren geht. • Da man eine Spalte mit einer Konstanten an der i-ten Position haben will und 1 = p1h1.i + + pu hu.i , ist es nahe liegend, die neue Spalte so zu bilden: h1.1 + p1 p1h1.1 + hu.1 + pu h1.s + pu hu .1 = . p1h1.s + hu.s + pu hu .s • Dass diese neue Spalte auch wirklich eine Syzygie von f1, , fs ist, sieht man eigentlich schon daran, dass sie im Erzeugnis der alten Spalten liegt. Es lässt sich aber auch leicht direkt nachrechnen: p1h1.1 + + pu hu.1 (f1, , fs ) p1h1.s + + pu hu.s = f1 (p1h1.1 + + pu hu.1 ) + + fs (p1h1.s + = f1p1h1.1 + + f1 pu hu.1 + + f s p1h1.s + + fs pu hu.s = f1p1h1.1 + + f s p1h1.s + + f1pu hu.1 + + fs pu hu.s h1.1 = 0, weil Syzygie ist h1.s =0 + pu hu.s ) hu.1 =0, weil Syzygie ist hu.s =0 • In der i-ten Zeile dieser Spalte steht nun p1h1.i + + pu hu.i = 1 und mit der Überlegung von vorhin folgt, dass man f i weglassen kann. 2004-07-06 Page: 16 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-06; 13-16’: • I ∩ J = (lcm(f , g )) , weil: I ∩ J = h ∈ P h = a f = b g . Dies ist die Menge aller ∈P ∈P gemeinsamen Vielfachen. Die muss logischer Weise durch das kleinste gemeinsame Vielfache erzeugt werden. 2004-07-08 • Ergänzungen zu Tafelbildern ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 02-18’ bis ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 04-18’: ~ ~ • Der zentrale Punkt ist der Ansatz I = J ∩ J . Wüsste man, wie J aussieht, so hätte ~ man das gesuchte Z (I ) , denn Z (I ) = Z (J ) ∪ Z J . Im Folgenden wird herausgefunden, ~ dass es sich bei J um I : J handelt. ~ ~ • J ⋅ J ⊆ J ∩ J , weil: ~ ~ ~ ~ • Sei J = ( j 1, , j r ) , J = j 1, , j s und jˆ ∈ J ⋅ J . ~ ~ ~ ~ • Dann ist jˆ = p1.1 j 1 j 1 + + p1.s j 1 j s + + pr .1 j r j 1 + + pr .s j r j s . ~ ~ ~ ~ • Es gilt ˆj ∈ J , weil ˆj = p1.1 j 1 j 1 + + p1.s j s j 1 + + pr .1 j 1 j r + + pr .s j s j r . () ( ) ( ) ( ∈P ~ ~ • Es gilt ˆj ∈ J , weil ˆj = (p1.1 j 1 ) j 1 + ∈P ) ( ∈P ~ + (p1.s j 1 ) j s + ) ( ∈P ~ + (pr .1 j r ) j 1 + ) ∈P ~ + (pr .s j r ) j s . ∈P ∈P ∈P ~ ~ ~ • Also jˆ ∈ J ∩ J und somit J ⋅ J ⊆ J ∩ J . • I = J ∩ (I : J ) , weil: • ‘ ⊆ ’: • I ⊆ J (siehe Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 02-18’). • I ⊆ I : J , denn I : J := {h ∈ P hJ ⊆ I } und h ∈ I ist auch Element von {h ∈ P hJ ⊆ I}, denn für ein h ∈ I und ein j ∈ J ist auf Grund der Definition ‘Ideal’ auch hj ∈ I , also hJ ⊆ I . • Also I ⊆ J ∩ (I : J ) . • '⊇ ’: ~ ~ ~ ~ • Sei h ∈ J ∩ (I : J ) , also h ∈ J und h ∈ I : J ⇔ h J ⊆ I . ~ ~ ~~ • Weil h ∈ J und h J ⊆ I , ist h h ∈ I . ∈J ~ • Also h 2 ∈ I . • Weil I ein Radikalideal ist, gilt I = I . ( I := h ∈ P h i ∈ I ) ~ ~ • Da h 2 ∈ I , ist h ∈ I . ~ ~ • Weil h ∈ I und I = I , ist h ∈ I . • Ergänzung zu Tafelild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 05-18’: • “Für h ∈ P muss ...”: Bessere Formulierung: “Für h ∈ I : (g ) muss ..., weil { } Page: 17 h ∈ I : (g ) ⇔ h(g ) ⊆ I hg ∈ I ⇔ ∃ai : hg = a1f1 + + as fs . • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 06-18’: • I : (g ) = (c1.0 , , c r .0 ) , weil die c i .0 -s in Syz(g, f1, , fs ) zu g gehören, so dass c i .0 g = (− c i .1 )f1 + + (− c i .s )fs • Hat man für alle g 1, , g t das zugehörige I : (g i ) = c1.0 , , c ri .0 ( ( t t i =1 i =1 ) i berechnet, so gilt ) I : J = ∩ I : (g i ) = ∩ c1.0 , , c ri .0 i . • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 11-18’: M : (w i ) • = erste Komponente n der Elemente des Erzeugende nsystems von Syz(w i ,v 1, ,v s ) • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 13-18’: • Ann P (M ) = U : P r , weil: • Da M ≅ P r / U , kann man die Elemente aus M als Restklassen betrachten, also p ∈ M für p ∈ P r . • Dann ist r r r Ann P (M ) = f ∈ P fp = 0 ∀p ∈ M = f ∈ P fp ∈ U∀p ∈ P = f ∈ P fP ⊆ U = U : P . { } { } { } { } } • I ⊆ Ann P M , weil: =P / I • { Ann P (M ) = f ∈ P fp = 0 ∀p ∈ M = f ∈ P fp = 0 ∀p ∈ M = {f ∈ P fp ∈ I∀p ∈ M } = {f ∈ P fp ∈ I∀p ∈ P } • Die letzte Gleichheit gilt, weil man zu jedem p ∈ P ein p ∈ M bilden kann und man, wenn man mit den p-s ganz P durchläuft, damit dann auch alle p ∈ M erreicht. • Zu zeigen ist also, dass ein i ∈ I auch in Ann P (M ) = {f ∈ P fp ∈ I∀p ∈ P } liegt. • Sei also i ∈ I . Dann ist ip ∈ I∀p ∈ P , weil IP ⊆ I , weil I ein Ideal ist. • Also ist i auch in {f ∈ P fp ∈ I∀p ∈ P } = Ann P (M ) . • Beachte: Ann P (M ) ist ein Ideal. Denn: • Zu zeigen: P ⋅ Ann P (M ) ⊆ Ann P (M ) . • Seien p ∈P und f ∈ Ann P (M ) . Dann ist pf ∈ Ann P (M ) , weil (pf )M = p(fM ) = p ⋅ 0 = 0 . • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 14-18’: • Der Unterschied zwischen ‘Colon-Ideal’ und ‘Colon-Modul ist: • Colon-Ideal: M : N = Modul f ∈ P fN ⊆ M f ist Polynom Colon-Ideal • Colon-Modul: M : I Ideal = f ∈Pr fI ⊆ M f ist Vektor aus Polynomen Colon-Modul Page: 18 • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 15-18’: • Gesucht sind alle w ∈ P r , so dass wf ∈ M∀f ∈ I , also alle w ∈ P r , so dass es eine Darstellung wf = h1v 1 + + hs v s gibt. • wf = h1v 1 + f ⋅P r + hs v s ∈ f ⋅ P r ∩ M ∈M • Jedes u j ist von der Form u j = fw j , weil u j ∈ f ⋅ P r . t • M : I ist dann M : I = ∩ M : (f ) = ∩ M : (f i ) f ∈I i =1 • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 16-18’: • Nichtnullteiler-Probe: f ∈ P ist NNT für M ⇔ 0 : (f ) = 0 , weil: { ( )} { } • 0 : (f ) = m ∈ M m(f ) ⊆ 0 = m ∈ M m(f ) = 0 M M {} • ‘ ’: • Da f NNT, gilt nur für m = 0 fm = 0 . • Somit ist m ∈ M m(f ) = 0 = 0 { } {} • ‘ ⇐ ’: • Wenn m ∈ M m(f ) = 0 = 0 , dann ist nur für m = 0 fm = 0 . { } {} • Somit ist f NNT von M. 2004-07-13 • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 03-20’: ~ • ker (ϕ) soll im 1. Fall als U / U gegeben werden. Die Definitionsmenge von ϕ ist ~ P r / U . Also ist U ⊆ P r . • Analoges gilt bei im(ϕ) • Unter ‘3’ ist das Urbild einer vorgegebenen Menge gesucht. • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 04-20’: • u~ ∈ P r ϕ (u~ + U ) = 0 r ∈P / U ∈P s / V { = u~ ∈ P r Φ (u~) ∈ V } • Die w i -s sind die von Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 02-20’. Daher auch die Beziehung zwischen Φ und ϕ . • Φ (u~) = Φ(f1e1 + + f r er ) = Φ (f1e1 ) + + Φ(f r er ) = f1Φ (e1 ) + + f r Φ (er ) = f1w 1 + + f r w r . • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 06-20’: ~ • V = w 1, ,w r ,v 1, ,v β , weil: Page: 19 • im(ϕ) = w1 , , w r = ϕ (e1 +U ) = ϕ (er +U ) ~ ~ und im(ϕ) = V / V = V / v 1, ,v β ~ • also: V = im(ϕ) + V = w 1, ,w r + v 1, ,v β = w 1, ,w r ,v 1, ,v β • Ergäzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 07-20’: ~ ~ • Gesucht ist U / U := ϕ −1 V / V . Da U ja schon bekannt ist, ist also nur noch das ~ U ⊆ P r gesucht. • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 09-20’: • Die Frage ist, auf was man die ei ∈ P t mit Hilfe von ψ abbilden soll, damit ϕ ψ = ψ ist, bei gegebenen ϕ und ψ . • Mit ψ (ei ) = (f i .1, , f i .r ) + U ist ψ (ei ) = (f i .1e1 + ,+f i .r er ) + U gemeint, also die Linearzerlegung des Bildes. • Es soll also sein ϕ(ψ (ei )) = ψ (ei ) ⇔ ϕ((f i .1e1 + ,+f i .r er ) + U ) = ψ(ei ) und gesucht sind also die passenden fi . j -s. ( ) • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 10-20’: ~ • Das B = w 1, ,w r ,v 1, ,v β ⊆ P s ist das V von Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 06-20’. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 12-20’: • Hom (A, f ) : A g f g M N f • Hom(f , A ) : A g f g M N f • Ergänzungen zur universelen Eigenschaft (Tafelbilder ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 16-20’ bis ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 18-20’): N′ ψ ′2 ′ ′ λ = ψ1 ⊕ ψ 2 ψ2 N M2 ψ ′1 ψ1 ϕ2 M1 ϕ1 M3 Page: 20 2004-07-15 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-15; 01-14’: • Ein Eliminations-Ideal ist nichts anderes als das Teilideal von I, das nur die Polyome aus I enthält, in denen die Variablen x i aus P nicht vorkommen. Die entsprechenden Polynome verschwinden also. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-15; 03-14’: • Definition ‘affine variety’: An affine variety over an algebraically closed field K is a subset of some affine space K n over K which can be described as the vanishing set of finitely many polynomials in n variables with coefficients in K, and which cannot be written as the union of two smaller such sets. (http://planetmath.org/encyclopedia/AffineVariety.html) • ‘iff’ = ‘if and only if’ • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-15; 04-14’ und ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-15; 05-14’: • V ist eine affine variety. Nach der Definition kann man hier nun Polynome in 2 Variablen finden, so dass p1 = (1;1) , p2 = (1;0) und p3 = (2;0 ) die Elemente des vanishing sets dieser Polynome sind. • Diese Polynome findet man, indem man Geraden durch je 2 Punkte legt: y x • Die Geradengleichungen lauten: • blau: x = 1 ⇔ x − 1 = 0 • rot: y = 0 • gelb: y = − x + 2 ⇔ y + x − 2 = 0 • Nun bildet man aus je 2 Geradengleichungen das Produkt: • blau-rot: (x − 1)y • blau-gelb: (x − 1)(y + x − 2) • rot-gelb: y (y + x − 2) • Ein Produkt ist = 0, wenn eine der beiden Geradengleichungen = 0 ist. Logisch ausgedrückt: Die eine oder die andere. • Also sind alle Produkte = 0 (logische Und-Verknüpfung; es ergibt sich der GesamtAusdruck (Geradengleichung 1 = 0 oder Geradengleichung 2 = 0) und (Geradengleichung 1 = 0 oder Geradengleichung 3 = 0) und (Geradengleichung 2 = 0 oder Geradengleichung 3 = 0)), wenn mindestens 2 Geradengleichungen = 0 sind. • Wenn 2 Geradengleichungen = 0 sind, so gilt insbesondere, dass sie gleich sind. • 2 Geradengleichungen sind dort gleich, wo ihr Schnittpunkt ist. Page: 21 • Die Schnittpunkte sind p1 , p2 und p3 . • Also sind die Polynome an diesen 3 Punkten = 0, also liegen sie im vanishing set dieser Polynome. (Man überlegt sich kurz, dass es auch keine weiteren gibt.) • Also lässt sich die Koordinaten-Information in diese 3 Polyome codieren. Hat man die 3 Polynome, so kann man die Koordinaten-Information decodieren, indem man das vanishing set dieser 3 Polynome berechnet. • Das nächste Ziel ist es, wenn man die Polynome gegeben hat, daraus die Polynome der projizierten Punkte zu berechnen. Aus ihnen kann man dann die KoordinatenInformation der projizierten Punkte gewinnen. • “ q ∈ A1 is a ...”: • Wenn (p, q ) ∈ Z (I ) , dann ist (p, q ) ∈V (I wurde ja gerade so konstruiert.). • Da auf die y-Achse projiziert wird, fällt die erste Koordinate eines Punktes aus A 2 beim Projizieren einfach weg; es überlebt also nur das q. • “ f ∈ K [y ] is in ...”: • Das f hat 2 Argumente (obwohl es ∈ K [y ] ist), weil das f eigentlich aus I kommt. • q ∈ π(V ) bedeutet, dass q überhaupt erstmal ein projizierter Punkt ist, dass es also einen Punkt (p, q ) ∈V gibt, der auch tatsächlich auf q abgebildet wird. Dies sorgt dafür, dass die Bedingung f (p, q ) = 0 nur für projizierte Punkte erfüllt sein muss; bei anderen ist es egal. • (p, q ) ∈ π −1 (q ) bedeutet, dass (p, q ) der Punkt ist, der auf q abgebildet wird, und nicht z. B. r ,q . ≠p • “Hence f ∈ K [y ] is ...”: • Wenn f aus dem vanishing ideal I (π(V )) ist, dann ist f in I, weil f (p, q ) = 0 für alle (p,q ) ∈V , und in K [y ] , weil es das vanishing ideal aller Punkte q ∈ π(V ) ist. hat nur eine Koordinate • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-15; 07-14’: • Ein Minimalpolynom zu einer Abbildung f ist das normierte, kleinste Polynom, dass, wenn man f in dieses Polynom einsetzt, die 0-Abbildung ergibt. Insbesondere kann f natürlich auch selber ein Polynom sein. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-15; 10-14’: • Wenn der Leitterm von f in P̂ liegt, dann soll ganz f in P̂ liegen. • Dazu müssen aber alle, also auch die kleineren Terme von f, in P̂ liegen. • Also können nur größere Terme als LT (f ) nicht in in P̂ liegen. • Wenn also ein Term, der ein x i aus Y enthält (also durch x i teilbar ist) und somit nicht in P̂ liegt, so muss er größer sein als alle Terme aus P̂ , denn sonst könnte man ein Polynom aus dem größeren Term (aus P̂ ) und dem kleineren Term (aus Ncht- P̂ ) bilden, das dann nach Definition der Elimination-Ordnung zwar in P̂ liegen müsste, es aber offensichtlich nicht tut, denn es ist ja ein x i aus Y enthalten. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-15; 11-14’: • Die Terme x1, , x i müssen also größer als die Terme x i +1, , x n sein. Page: 22 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-15; 14-14’: • I ∩ J = U ∩ P , weil: f = c1f1 + + c s fs = d 1g 1 + + d t g t ( ⇔ f ∈ I ∩ J ) ⇔ c1f1 + + c s f s − d 1g 1 − − dt gt = 0 ⇔ c1f1 + + c s f s − d 1g 1 − − d t g t + d 1g 1y + ⇔ c1f1 + ⇔ c1f1 + + c s f s + (− d 1 + d 1y )g 1 + + c s f s + (− d 1 )g 1 (1 − y ) + + d t g t y = fy =fy + (− d t + d t y )g t = fy + (− d t )g t (1 − y ) = fy ∈ U 2004-07-20 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-20; 01-19’: • Wäre eine der ersten i Komponenten von v ungleich 0, z. B. v j , so wäre, weil σ eine ≤i 0 0 0 0 Komponenteneliminationsordnung ist, v j > v λ = LT (v ) , was aber nicht sein kann, 0 0 0 0 =t ′e j =teλ 0 0 weil sonst v j 0 der Leitterm wäre. 0 • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-20; 03-19’: • LT (g ) ∈ F , weil: Page: 23 0 0 • t = t ′ LT (g ) 0 0 = teλ ; ∈F • Weil t ′ nur ein 1-dimensionaler Term ist und LT(g ) und ein Vektor ist, ist LT(g ) dafür verantwortlich, in welcher Zeile der Vektor t ′ LT (g ) den Eintrag hat. 0 0 • Wegen t ′ LT(g ) = t 0 ist der Eintrag bei LT (g ) auch in Zeile λ > i und somit 0 = teλ ; ∈F LT(g ) ∈ F . • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-20; 05-19’: • N := v1 vs 0 −1 0 , , 0 0 −1 =:v 1 =:v s 0 • Sei a = 0 ~ ∈N . a1 as • Dann ist Page: 24 v1 vs 0 0 a1 0 + + as 0 0 0 v1 vs 0 0 −1 0 1 0 = a1 0 + + as + a1 0 + + as 0 0 0 −1 v1 vs 0 −1 0 a1 = a1 0 + + as 0 + 1 0 0 −1 ∈N ∈N as ~ ∈N ∈N ∈N ∈N v1 0 vs 0 + • Also ist z := a1 0 0 • Dann gibt z1 z= ∈N . + as zr 0 v1 −1 0 = b1 0 b1, , bs es vs 0 + + bs 0 0 −1 Erzeuger von N Erzeuger von N v1 − b1 = 0 + 0 mit vs 0 + . 0 − bs mit s 0 - en unten • Also sind die bi = 0 . z1 • Also ist z = zr 0 =0. 0 mit s 0 - en unten Page: 25 v1 0 vs 0 • Nach Definition von z ist also a1 + + as = 0. 0 0 • Also ist a1v 1 + + as v s = 0 . • Also ist (a1, , as ) ∈ Syz(V ) . • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-20; 07-19’: • Ergänzungen zur 2. Anwendung: s t wj v • ai i + b j ∈ Lˆ = L ∩ 0 ⊕ ⊕ 0 ⊕ P ⊕ ⊕ P w 0 i =1 j =1 j r Stück r Stück 0 • Weil u i := 0 uˆ i ∈ Lˆ , ist auch u i ∈ L . i - ter Erzeuger von Lˆ 0 • Damit gibt es a i und bi mit s i =1 • Wegen der unteren r Zeilen ( ai t j =1 vi + 0 t j =1 bj wj = . wj 0 uˆ i b j w j = uˆ i ) ist uˆ i ∈ N . s • Wegen der oberen r Zeilen ist i =1 ai v i + t j =1 0 bjw j = ⇔ 0 s i =1 ai v i = − t j =1 b j w j = −uˆ i , ∈M also − ûi und somit auch uˆ i ∈ M . • Also uˆ i ∈ M ∩ N . 0 • Die Rückrichtung (beliebiges Element aus M ∩ N führt zu einem 0 û i -s in L̂ ) lässt sich analog zeigen. • Ergänzungen zur 3. Anwendung: • M : w = {h ∈ P hw ∈ M } = h ∈ P P hw = 0 modulo M , also in P r / M = Ann P r / M (w ) Page: 26 0 • Weil u i = 0 fi ∈ Nˆ , ist auch u i ∈ N 0 • Also gibt es ai und b mit s i =1 vi ai +b 0 w 1 = 0 . fi =u i • Wegen der unteren Zeile ist f i = b ∈ P . ∈P s • Wegen den oberen r Zeilen ist i =1 0 a i v i + bw = ⇔ bw = − s i =1 0 ai v i ∈ M . ∈M • Also ist b ∈ M : w . P • Wegen f i = b ist f i ∈ M : w . P 0 • Die Rückrichtung (beliebiges Element aus M : w führt zu einem P 0 fi -s in L̂ ) lässt sich analog zeigen. • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-20; 09-19’: • I (M ) ist ein Ideal (und kein Untermodul), weil I (M ) ein Ideal des Rings R × M ist. • Man hat also einen Ring gefunden, in dem ein zum Modul M isomorphes Objekt ein Ideal ist. Man hat M gewissermaßen ‘idealisiert’. • Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-20; 13-19’: r r′ • (r , s ) ~ (r ′, s ′) ⇔ = ⇔ rs ′ = r ′s ⇔ r ′s − s ′r = 0 s s′ ′ ′ • Woher das ‘ s ’ kommt, ist an dieser Stelle noch nicht offensichlich. • Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-20; 19-19’: ∞ r • M :r (f ) = M ⋅ P [y ] + (fy − 1) ⋅ P [y ] ∩ P r , weil: P ( ) • Nach Satz auf Tafelbild ‘University; Computational Commutative Algebra 1 ∞ (Algebra 2); SS 2004; 2004-07-20; 17-19’ gilt M :r (f ) = M f ∩ P r . P • Nach Satz auf Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-20; 16-19’ gilt M f ≅ P [y ] / (fy − 1) . Page: 27 Computational Commutative Algebra 1 – Book Notes 1.1 Polynomial Rings • Definition 1.1.3: • Ein R-Algebren-Homomorphismus ist eine Abbildung ρ : S → T , die, wenn man r ∈ R und s ∈ S hat und diese nach T konvertieren will, weil man in T rechnen will, es einem ermöglicht, r nicht erst mit ϕ : R → S in S umrechnen zu müssen, sondern r mit ψ : R → T gleich in T umrechnen zu können, die also in gewisser Hinsicht kompatibel mit ψ ist. • Mit anderen Worten: ρ(ϕ(r ) ⋅ s ) = ρ(ϕ(r )) ⋅ ρ(s ) = ψ (r ) ⋅ ρ(s ) R ϕ ψ S ρ T • Definition 1.1.4: • Ein Körper K hat nur die Ideale K und {0}, denn: • Sei r ∈ I . • Wegen K ⋅ I ⊆ I und der Existenz von r −1 ist auch r −1r = 1∈ I . • Wieder wegen K ⋅ I ⊆ I und 1∈ I ist K ⋅1 ⊆ I , also K ⊆ I . • Da sowieso I ⊆ K , ist I = K . 1.2 Unique Factorization • Proposition 1.2.2: • Da in K [x ] jedes Ideal ein Hauptideal ist, lässt sich ein Element finden, welches das Ideal (a, f ) alleine erzeugt, also (a, f ) = (e ) . • Weil a und f ganz offensichtlich Elemente dieses Ideals sind, müssen sie Vielfache von e sein, denn nur so kann man sie erreichen. • Weil f nach Voraussetzung eine Nicht-Einheit ist und K ein Körper ist, also jedes Element (außer 0) eine Einheit ist, muss f ein echtes Polynom sein. • Weil f irreduzibel ist, kann nur eine Zahl aus dem Körper ein Teiler von f sein – oder f. • f kann das Ideal nicht erzeugen, denn auch a ist in dem Ideal und a ist kein Vielfaches von f, müsste es aber sein, wenn f der Erzeuger des Ideals ist. • Also wird das Ideal durch eine Zahl e (ungleich 0) aus dem Körper erzeugt. • Weil I ein Ideal ist ( R ⋅ I ⊆ I , hier R = K [x ] ) ist auch e −1e ∈ I ⇔ 1∈ I • Lemma 1.2.11: • 1 = cont (f ) = g ⋅ cont (h ) ausführlich: • cont (f ) = 1 , da f o. B. d. A primitve ist Page: 28 • cont (f ) = cont gh =f = cont (g ) ⋅ cont (h ) Gauß's Lemma = weil deg(g )= 0 und somit g eine Zahl ist g ⋅ cont (h ) • also: g ⋅ cont (h ) = 1 • also: cont (h ) = g −1 • Also ist g invertierbar und somit eine Einheit. Widerspruch zur Annahme, g sei keine Einheit. 1.3 Monomial Ideals and Monomial Modules • Proposition 1.3.4: • Ergänzung zum Beweis ‘b) c)’: Hier sollte erstmal geklärt werden, was ‘maximal’ überhaupt bedeutet. ‘Maximal’ bedeutet nämlich nur, dass es kein größeres gibt und nicht, dass es Obermenge von allen anderen sein muss. Sehe auch Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-0513; 01-10’. a)’: Angenommen, das maximale Element (nenne es • Ergänzung zum Beweis ‘c) ~ ∆ ) der erwähnten Menge von Monoidealen ist nicht ∆ . Dann gibt es ein Element δ , ~ das in ∆ , aber nicht in ∆ liegt. Nehme dieses Element zur endlichen Erzeugermenge ~ von ∆ hinzu und erhalte eine neue Erzeugermenge, die ein Ideal erzeugt, das echt ~ größer als ∆ ist und dennoch durch eine endliche Teilmenge von Elementen aus ∆ ~ erzeugt wird, also in der erwähnten Menge von Monoidealen liegt. Doch dann ist ∆ nicht mehr das maximale, denn dieses ist ja größer. Widerspruch. Also ist ∆ das maximale Element und somit endlich erzeugt. • Proposition 1.3.5: • Ergänzung zu 'n = 1 ’: Jedes Monoideal ist von der Form (a ) , denn: Betrachte z. B. das Monoideal (8,12,15 ) . Da die Operation ‘+’ ist und in N die Zahl 1 liegt, gilt für das Monoideal (8 ) , dass (8 ) = {8,9,10, }, denn es muss ja gelten 8 + n ∈ (8 )∀n ∈ N (siehe Definition ‘Monoideal’). Also sind auch 12,15 ∈ (8 ) und somit (8 ) = (8,12,15 ) . • Ergänzungen zu 'n > 1 ’: v 1.1 v 1.1 v 2.1 v 1. 2 v v • Die Kette ⊆ 1.2 , 2.2 ⊆ wird letztendlich stationär, weil die Kette v 1. n v 1. 2 v 1. n v 1.2 v 2.2 ⊆ , ⊆ v 1. n v 2. n v 1. n v 2. n nach Induktionsvoraussetzung letztendlich stationär wird und weil die ersten Komponenten v 1.1,v 2.1, nicht fallend sind, also gilt v 1.1 ≤ v 2.1 ≤ . Wie oben erläutert, gilt dann (v 1,1 ) = (v 1,1,v 2,1 ) = , weil die Operation v 1. 2 ja ‘+’ ist und v 1.1 die kleinste Zahl ist. Mit v 1. n v 1.2 v 2.2 ⊆ , ⊆ v 1. n v 2. n Page: gilt dann 29 insgesamt v 1.1 v 1. 2 v 1.1 v 2.1 v v ⊆ 1.2 , 2.2 ⊆ v 1. n v 1. n v 2. n • v i = w mi ∉ (w1, , w mi −1 ) ⊇ (v 1, . , v i −1 ) : • v i = w mi : nach Definition ( • w mi ∉ w1, ) , w mi −1 : • Angenommen w mi ∈ (w1, w mi ∈ w1 , ∈∆ n2 \ ∆ n1 , , w mi −1 ) . w mi −1 ∈∆ nm i −1+1 \ ∆ nm i −1 w mi ∈ ∆ nmi −1+1 w mi ∈ ∆ nmi −1+1 ⊆ • ⊆ ∆ n mi w m i ∈ ∆ n mi w mi ∉ ∆ nmi +1 \ ∆ nmi • Aber w mi wurde so gewählt, dass w mi ∈ ∆ nmi +1 \ ∆ n mi . Widerspruch. • (w , • Der 1 ) , w mi −1 ⊇ (v 1, Widerspruch , v i −1 ) : weil {v1, ist nun, dass { } , v i −1} ⊆ w1, , w mi −1 = w1, ( v i = w mi ∉ w1, , w m1 , , w mi −1 ) ⊇ (v 1, =v 1 , w mi −1 = v i −1 , v i −1 ) , also insbesondere v i ∉ (v 1, ,v i −1 ) für alle i. Der Widerspruch liegt darin, dass, wie eben gezeigt (v 1 ) ⊆ (v 1,v 2 ) ⊆ irgendwann stationär wird; mit anderen Worten (v 1 ) ⊆ (v 1,v 2 ) ⊆ ⊆ (v 1,v 2 , ,v i −1 ) = (v 1,v 2 , ,v i −1,v k ) = . Dann gibt es aber ein i, so dass v i ∈ (v 1,v 2 , ,v i −1 ) im Widerspruch zu ‘ v i ∉ (v 1, ,v i −1 ) für alle i’. • Corollary 1.3.6 (Dickson’s Lemma): • Die interessante Aussage ist, dass die Aussage nicht nur für Monoideale, die eine echte Teilmenge von T n sind, gilt, sondern auch für das Monoideal T n selbst. • Damit ist auch ganz das Ideal R [x1, , x n ] durch das endliche Erzeugendensystem von T n erzeugt, weil man hier zusätzlich die Operation ‘+’ hat und sich jedes Polynom in R [x1, , x n ] als Summe von Termen (= Monomen), die ja aus T n kommen, schreiben lässt. Weil es ein endliches Erzeugendsystem für T n gibt, kann man jeden Term erzeugen. Weil es ‘+’ gibt, kann man sie so aneinander reihen, dass man die Darstellung für das darzustellende Polynom erzeugen kann. 1.4 Term Orderings • Definition 1.4.7: • t 1 ≥ DegRecLex t 2 , wenn deg(t 1 ) > deg(t 2 ) oder wenn in t 1 weniger ‘kleine’ Variablen vorkommen als in t 2 . • So ist x1 x 2 > x1x 3 , weil zwar deg(x1x 2 ) = deg(x1 x 3 ) , aber die kleine Variable x 3 in Page: 30 x1 x 2 0-mal vorkommt, aber in x1 x 2 > x1x 3 1-mal. • analog x12 x 2 > x1x 22 , weil die hier kleine Variable x 2 in x12 x 2 nur 1-mal vorkommt, aber in x1 x 22 2-mal. 1.5 Leading Terms • Theorem 1.5.7 (Macaulay’s Basis Theorem): • siehe Tafelbilder ab ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-11; 14-20’ • Ergänzung zum Beweis der linearen Unabhängigkeit: Hier steht s i =1 nicht s i =1 c i mi ∈ M und c i mi = 0 (der ‘normale’ Ansatz zum Beweis der linearen Unabhängigkeit), weil M die Restklasse 0 ist. • Proposition 1.5.10 und 1.5.11: • Der Unterschied zwischen R [x i , , x n ] und (x i , ., x n ) ist, dass in R [x i , , x n ] nur die Polynome (hier kommt es aber nur auf die Monome an) sind, die nur aus x i , , x n bestehen, während in Polynomen in (x i , ., x n ) auch die Variablen x1, , x i −1 vorkommen können ( R [x1, , x n ] ⋅ I ⊆ I ). Das Besondere an Polynomen in (x i , ., x n ) ist, dass in jedem ihrer Monome jedoch mindestens eine der Variablen aus x i , , x n liegen muss. 1.6 The Algorithm Division • Example 1.6.6: x1 − x 2 = (2 x + 1) − (x1 + x 2 + 1) ∈ (g 1, g 2 ) , weil: (x1 + x 2 )g1 + g 2 + (x1 + x 2 + 1) = x1g1 + (x1 + 1)g 2 + (2x1 + 1) =f =f ⇔ (x1 + x 2 )g 1 + g 2 − x1g 1 − (x1 + 1)g 2 = (2 x1 + 1) − (x1 + x 2 + 1) ⇔ x 2 g 1 − x1g 2 = x1 − x 2 Es gibt also eine Linearkombination von g 1 und g 2 , also x1 − x 2 ∈ (g 1, g 2 ) 1.7 Gradings • Definition 1.7.6.b: • Mit F := ⊕ R (γ i ) ist gemeint: I = {1, i ∈I r } , F = R r und die Graduierung der i-ten Komponente eines Polynomvektors aus F ist um γ i verschoben bzgl. der StandardGraduierung. R (γ1 ) • quasi: F = R (γ r ) Page: 31 0 0 • also ist z. B. deg 1 0 ( ) = deg 1R (γ i ) = 0 + (− γ i ) = − γ i 0 = ei • Definition 1.7.8: Der Sinn dieser Definition ist der folgende: Man hat nun Grade für 0 bestimmte Elemente von Moduln definiert (z. B. deg 2 1 2x x 2 0 0 0 ( = x12 x 2 ∈T 2 ) 01 0 =ˆ 0 = e2 ∈P 4 2 1 1 0 ∈N2 ). 0 = e2 0 2 x12 x 2 Einige Elemente haben jedoch keinen direkten Grad (z. B. ), da sie Summe x1 0 aus 2 Elementen sind, die jedoch dann wieder direkt einen Grad haben (z. B. 0 0 0 2 2 2 x1 x 2 2 x1 x 2 0 = + ) und die selber Elemente dieses Moduls sind, also nicht x1 0 x1 0 0 0 ‘außerhalb’ liegen ( M = ⊕ M s ). Dasselbe möchte man jetzt auf Submoduln dieser s∈Σ Moduln übertragen. Dazu sind aber nicht alle Submoduln geeignet, weil ihre erzeugenden Elemente keinen direkten Grad haben (z. B. das Ideal I := (x − 1) ) und nur im Modul selbst, nicht aber im Submodul in Komponenten mit eigenem Grad zerfallen ( I ∩ Pd = (0 ) für alle Grade d). Diese möchte man nicht betrachten. Stattdessen möchte man nur Submoduln betrachten, die diesbezüglich abgeschlossen sind, das heißt deren Elemente im Submodul selber in homogene Komponenten zerfallen ( N = ⊕ (N ∩ M s ) . s∈Σ Solche Submoduln werden also aus Elementen erzeugt, die im Submodul selber liegen und auch direkt einen Grad haben (denn sie liegen in N und in M s ). Solche Submoduln sind geeignet um das Grad-Framework für Moduln auf sie zu übertragen, denn jedes Element aus ihnen zerfällt in Elemente, die direkt einen Grad haben und auch im Submodul liegen. Falls der Submodul ein Ideal ist (also M = R 1 und N = I ), so verdient es den Namen ‘homogenes Ideal’ weil es aus Elementen erzeugt wird, die direkt einen Grad haben, die also homogene Komponenten sind. • Remark 1.7.9: • Verdeutlichung der Definition (M / N )s := M s / N s am Beispiel M := R [x ] und N := x 2 • Dann haben die Elemente in M / N das Aussehen a1 x + a0 . ( ) Page: 32 { } • Es ist M 0 = {a0 a0 ∈ R}, M1 = {a1 x a1 ∈ R} , ..., N 0 = { } , N1 = { }, N 2 = a2 x 2 a2 ∈ R , (M / N )0 = {a0 a0 ∈ R} = M 0 / N 0 , ..., (M / N )1 = {a1x a1 ∈ R} = M1 / N1 , (M / N )2 = { } = M 2 / N 2 . • Proposition 1.7.10: Beim Beweis von ‘c) a)’ stellt man sich am besten R als den Polynomring (über einem weiteren Ring) vor. Dann wird klar, warum die rβ -s erst noch in ihre homogenen Komponenten zerlegt werden müssen. ′ ′ • Korollar 1.7.11: aβ nβ − n muss gleich 0 sein, weil: n ist homogen vom Grad s. aβ ist β∈B ′ ″ der einzige Anteil von aβ , so dass deg aβ nβ = s . Mit anderen Worten: Alle in aβ ″ zusammengefassten Komponenten von aβ führen dazu, dass deg aβ i ⋅ nβ ≠ s , wobei aβ ″ i eine dieser Komponenten ist. Betrachte nun 0 = β∈B der Unterschiedlichen Grade kein Summand in β∈B ′ aβ n β − n + ″ aβ n β den Teil β∈B β∈B β∈B ′ aβ nβ − n ′ wegkürzen. Da aber trotzdem insgesamt 0 rauskommt, muss Damit ist n = β∈B ″ aβ nβ . Wegen aβ nβ − n = 0 sein. ′ aβ n β . • Proposition 1.7.12: • Nach Definition gilt: P ist Primideal :⇔ (fg ∈ P; f , g ∈ R f ∈ P ∨ g ∈ P ) . • Es ist also zu zeigen: (fg ∈ P; f , g ∈ R f ∈ P ∨ g ∈ P ) ⇔ (fg ∈ P; f , g ∈ R und homogen f ∈ P ∨ g ∈ P ) , wobei P zusätzlich ein homogenes echtes Ideal in R ist. • Im folgenden Beweis wird folgendes Lemma benutzt: Sei I ein homogenes Ideal und f = fγ 1 + + fγ s die Decomposition von f in homogene Komponenten in R. Dann gilt: f ∈ I ⇔ ∀i : fγ i ∈ I .: • ‘ ⇐ ’: Klar. Gilt wegen der Abgeschlossenheit von Idealen bzgl. ‘+’. (Gilt auch bei nicht homogenen Idealen.) • ‘ ’: Weil I homogen ist, gilt nach Definition von ‘homogenes Ideal’: I = ⊕ I ∩ R γ . γ∈Γ =:I γ Also gibt es eine Decomposition von f in I. Weil I ⊆ R ist und die Decomposition eindeutig ist, muss die Decomposition von f in I die gleiche wie in R sein. Also liegen alle f γ i nicht nur in R γ i , sondern auch in I γ i . Weil I γ i ⊆ I ist (wegen I γ i = I ∩ Rγ i ), liegen die f γ i -s also auch in I, was zu zeigen war. • ‘ ': Klar. Wenn fg ∈ P; f , g ∈ R f ∈ P ∨ g ∈ P für beliebige f, g gilt, dann erst recht für homogene. • '⇐ ’: (fg ∈ P; f , g ∈ R und homogen f ∈ P ∨ g ∈ P ) • Annahme, es gilt und fg ∈ P; f , g ∈ R , aber nicht f ∈ P ∨ g ∈ P . Dann gilt f ∉ P ∧ g ∉ P . • Seien f = f γ1 + + f γ s und g = g γ1 + + g γ s , wobei γ 1 < < γ s Page: 33 • Laut dem Lemma ~ g ∉ P ⇔ ∃j : g γ ~j ∉ P . gilt ~ f ∉ P ⇔ ∃i : fγ~ ∉ P I =P) (setze i und analog • Wähle aus den fγ ~i ∉ P bzw. g γ ~j ∉ P jeweils die beiden mit kleinstem Grad aus: f γ i ∉ P bzw. g γ j ∉ P . (Mit anderen Worten: ∀γ ~i ≠ γ i : γ i < γ ~i . Analoges für bei den g-s.) • In fg = f γ1 + ( )( + f γ s g γ1 + + g γs ) taucht der Summand f γi g γ i auf. Dieser hat Grad γ i + γ j . Es können aber noch andere Summanden diesen Grad haben. • Die Summe genau der Summanden mit Grad γ i + γ j ist die homogene Komponente (fg )γ i + γ j vom Grad γ i + γ j vom Element fg . Die Summe/ homogene Komponente sieht so aus: (fg )γ i + γ j = f γ i g γ i + fγk g γl . {(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j } • Die Summanden von liegen alle in P, denn: fγk g γl {(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j } • Es muss γ k < γ i oder γ l < γ j gelten, denn wären beide größer, dann wäre auch ihre Summe γk + γl > γi + γ j , ! (k, l )(k, l ) ≠ (i , j ) ∧ γ k + γ l = γ i + γ j doch die Summe läuft über . • Da γ i und γ j jeweils minimal gewählt wurden, so dass f γ i ∉ P bzw. g γ j ∉ P , liegt f γ k oder g γ l in P (je nachdem, ob γ k < γ i oder γ l < γ j ). • Da P ein Ideal ist und somit gilt R × P ⊆ P , liegt der Summand f γ k g γ l auf jeden Fall in P, da ja f γ k oder g γ l in P liegt. • Da jeder Summand von fγk g γl in P liegt, liegt auch die ganze Summe {(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j } in P. • Wende nun wieder das Lemma an: Weil fg ∈ P , ist auch jede homogene Komponente in P, insbesondere (fg )γ i + γ j . • (fg )γ + γ i j = fγi g γi + fγk g γl ⇔ f γ i g γ i = (fg )γ i + γ j − fγk g γl {(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j } {(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j } ∈P ∈P ∈P , wegen Abgeschlossenheit von P bzgl. '+ ' • Also ist f γ i g γ i ∈ P . • Wegen der Voraussetzung ‘ fg ∈ P; f , g ∈ R und homogen also f γ i ∈ P oder g γ i ∈ P . (Setze hier f = f γ i und g = g γ i .) f ∈ P ∨ g ∈ P ’ folgt jetzt • Aber f γ i und g γ j waren ja beide nicht in P. • Also hat die anfängliche Annahme ‘ f ∉ P ∧ g ∉ P ’ zu einem Widerspruch geführt und muss daher falsch gewesen sein. Somit gilt das Gegenteil f ∈ P ∨ g ∈ P und somit (fg ∈ P; f , g ∈ R f ∈ P ∨ g ∈ P ) ⇐ (fg ∈ P; f , g ∈ R und homogen f ∈ P ∨ g ∈ P ) . • Proposition 1.7.15 (Nakayama’s Lemma): • Es reicht M2 ⊆ M1 zu zeigen, weil nach Voraussetzung bereits M2 ⊇ M1 gilt. Page: 34 • Angenommen, M2 ⊆ M1 gilt nicht. • Dann gibt es in M2 \ M1 ein homogenes Element, weil: • Zunächst einmal gibt es ein Element, weil ja angenommen wird, dass M2 ⊆/ M1 . • Weil M1 und M2 Σ -graded sind, lässt sich nach Definition jedes Element aus M1 bzw. M2 eindeutig in homogene Elemente, die ebenfalls in M1 bzw. M2 liegen, decomposen. ~ ∈ M \ M ein (nicht notwendiger Weise homogenes) Element, z. B. • Sei nun m 2 1 ~ ∈M \ M ~ ∈ M .) x + 1 . (Beachte: m m 2 1 2 ~ nicht in M , denn wären • Dann ist zumindest eine homogene Komponente von m 1 ~ ~ ~ ist ja alle homogenen Komponenten von m in M 1 , so wäre auch m ∈ M 1 , denn m die Summe seiner homogenen Komponenten. ~ ∈ M , dann kann m ~ nicht in M \ M . Widerspruch. • Wenn aber m 1 2 1 ~ • Wähle m als die homogene Komponente von m , die nicht in M 1 liegt. Noch zu zeigen: m ist in M2 . ~ lässt sich in nicht in M decomposen und m ist ja eine • Dies ist der Fall, denn m 2 ~ homogene Komponente von m . • Weil M2 Σ -graded ist und m ∈ M2 ist, lässt sich m nach Corollary 1.7.11 schreiben als m = rβnβ , wobei rβ ∈ R und nβ ∈ M2 homogene Erzeuger von M2 und β∈B deg(rβ ) ∗ deg(nβ ) = deg(m ) . =:s • Betrachte nun den Teil der Summe, mit deg(rβ ) > 0 (also rβ ∈ R+ ). Dann ist m = m′ + r n mit einem passenden m′ , dass die Komponenten mit deg(rβ ) = 0 β β β∈B deg(r β )> 0 enthält. • Wegen deg(rβ ) ∗ deg(nβ ) = deg(m ) und deg(rβ ) > 0 ist deg(nβ ) < deg(m ) . • Weil m minimalen Grad in M 2 \ M 1 hatte, können die nβ -s nicht in M 2 \ M 1 liegen. Weil alle nβ ∈ M2 müssen alle nβ -s auch in M1 liegen. • Es ist m = m′ + ∈M 2 β∈B deg(rβ )> 0 rβ nβ . Da M2 ⊆ M1 + R+M2 , besitzt im Besonderen m eine ∈R + ∈M 2 ∈R + M 2 entsprechende Darstellung, das bedeutet, dass man von m′ ∈ M1 ausgehen kann. • Da außerdem rβ nβ , gilt m = m′ + rβ nβ , also ( ) β∈B deg rβ > 0 ∈R+ ∈M1 ∈M1 ( ) β∈B deg rβ > 0 ∈M1 ∈M1, weil M1 ein Modul ist und somit R ⋅M1 ⊆ M1 ∈M1 ∈M1 wegen der Abgeschlossenheit von M1 bzgl. '+ ' m ∈ M1 . • Dies ist ein Widerspruch, denn wenn m ∈ M1 , kann m nicht in M 2 \ M 1 liegen, was aber Voraussetzung gewesen ist. • Also ist M 2 \ M 1 leer und damit M2 ⊆ M1 . • Corollary 1.7.16: • a): • M ⊆ N + R+ ⋅ M , weil: Page: 35 • mi steht für eine Restklasse, nämlich für Menge der Vektoren mi + R+ ⋅ M • Dann erzeugt {m1, , m s } die Menge der Vektoren N + R+ ⋅ M . (Daher kommt also ‘ N + R+ ⋅ M ’.) • Es gilt nun ‘ M ⊆ N + R+ ⋅ M ’, weil zu jedem m ∈ M seine Restklasse m ∈ M / R+ ⋅ M gebildet werden kann. Weiterhin kann jedes Element aus M / R+ ⋅ M (also insbesondere die m -s) in eine Menge von Vektoren, nämlich m + R+ ⋅ M verwandelt werden. Insgesamt findet man also jedes m ∈ M in ein N + R+ ⋅ M wieder. • b): • Die entscheidende Frage ist: Warum ist M / (R+ ⋅ M ) ein R0 -Modul?: v1 • Wie bei einem Vektorraum, hat ein ‘Vektor’ eines Moduls die Form v = , vn wobei die Komponenten v i aus dem zu Grunde liegenden Ring sind. • Damit M / (R+ ⋅ M ) ein R0 -Modul ist, müssen also die Komponenten in R0 liegen. • Dies ist auch der Fall, denn durch ‘ / (R+ ⋅ M ) ’ werden in jeder Komponente gerade die Teile, die in R1, R2, liegen, herausgeschnitten, weil sie in der Restklasse 0 liegen. Nur die, die in R 0 liegen, bleiben übrig. x2 0 • Beispiel: x + 1 wird durch ‘ / (R+ ⋅ M ) ’ zu 1 . 2x + 3 3 2. Gröbner Bases g i • “Suppose a vector ...”: g →g~ g und g~ sind modulo M in derselben Äquivalenzklasse, g − g~ ∈ M ⇔ g und g~ sind modulo M in derselben weil: g~ = g − t g i ⇔ tg i = g − g~ ∈M ∈M ∈M Äquivalenzklasse. 2.1 Special Generation • Proposition 2.1.1: Hier ist M = g 1, , g s (siehe Tafelbilder ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-25; 10-14’ und ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-25; 11-14’). • Proposition 2.1.3: • A2 B1 , weil: • B1 bedeutet, dass jeder Leitterm aus M sich darstellen lässt durch t ⋅ g i , wobei t ein Monom ist. • A2 sagt aus, dass der Leitterm jedes Elements aus M (also jeder Leitterm von M) Page: 36 gleich dem max{LT (fi g i )} ist, wobei f i ein Polynom ist. • Nun ist aber LT (f i g i ) = LT (fi ) ⋅ LT (g i ) (laut Proposition 1.5.3.d). =:t i • Also max{LT (fi g i )} = max{t i ⋅ LT (g i )} = t ⋅ LT (g i ) , wobei t eines der t i -s und somit ein Monom ist. • Dies ist genau die Aussage von B1 . 2.2 Rewrite Rules • Erläuterungen zur Einleitung: • Fernziel der Computeralgebra ist ja im Moment in M / U rechnen zu können. • Die Elemente in M / U haben die Form m = m + U und für zwei Elemente aus M / U gilt: m1 = m2 ⇔ m1 ≡ m2 mod U . • Wenn nun M = P (oder auch M = P r ) und U = g 1, , g s ist (Stichwort: Polynome), möchten wir für jedes Polynom f ∈ M (oder auch Polynomvektor) einen ‘schönen’ Representanten finden, also einen, in dem keine Vielfachen von g 1, , g s mehr drin stecken. • Eine Methode wäre der Divisionsalgorithmus aus Kapitel 1.6, der ja nach jedem Zwischenschritt folgendes liefert: f : g i = h1 + + ht + Rest = f mod g i Monom =:h − h1g i f − h1g i − ht g i Rest = f mod g i = f − hg i wobei der entstandene Rest f − hg i modulo g i in der selben Restklasse wie f liegt (d. h./ denn: f mod g i = f − hg i mod g i ), aber schon etwas weniger = f − hg i , s. o. =f − hg i , weil f − hg i sich ja nicht mehr durch g i teilen lässt von den g i -s enthält als f, also ein schönerer Representant ist. • Man stellt jedoch, wenn man einige Beispiele durchrechnet, fest, dass der entstehende Rest f − hg i immer ein bestimmtes Aussehen hat, welches man, wenn man aus f und g i direkt angeben kann, ohne den Divisionsalgorithmus benutzen zu müssen.: (x =:f 4 ( 3 )( 2 =:g ) + x − x + 1 : x − x + 1 = x 2 + 2x Rest : − 2 x + 1 − x −x +x 4 3 2 ) • 2x − 2x + 1 3 ( 2 = f mod g 2 − 2x 3 − 2x 2 + 2x ) − 2x + 1 Page: 37 • Schreibt man nun statt ‘ x 2 − x + 1’ ‘ x 2 − (x − 1) ’, so stellt man fest, dass man den =:a =:b Rest − 2 x + 1 gleich kriegen kann, indem man in f ‘ x 2 ’ wiederholt durch ‘ (x − 1) ’ ersetzt: 2 x 4 + x 3 − x 2 + 1 → (x − 1) + (x − 1)x − (x − 1) + 1 = x 2 − 2x + 1+ x 2 − x − x + 1 + 1 = 2 x 2 − 4 x + 3 → 2(x − 1) − 4 x + 3 = 2x − 2 − 4 x + 3 = −2 x + 1 • Woran liegt das?: • Man zerlegt g ja in a und b, genauer g = a − b . Daher liegen a und b in derselben Äquivalenzklasse bzgl., d. h. modulo g. (Dies wiederum ist der Fall, denn 2 Elemente liegen nach Definition in derselben Äquivalenzklasse, wenn ihre Differenz im ‘Unterraum’ liegt. Da g im von g aufgespannten ‘Unterraum’ liegt und g = a − b ist nun a ≡ b mod g .) • Da man f mod g (= Rest) betrachten möchte und a ≡ b mod g , darf man also in f jedes vorkommen von a durch b ersetzen. • Da man a als das Leitmonom von g definiert hat und b als ‘das Übrige von g’, welches vom Grad her echt kleiner ist, konvertiert man f nach und nach in kleiner werdende Polynome, die modulo g alle in derselben Äquivalenzklasse bleiben. • Dieses Verfahren muss irgendwann stoppen, so dass man ein ‘schönstes’, weil kleinstes Polynom findet, mit dem man f modulo g representieren kann. • Proposition 2.2.2.d): • alternativer Beweis: • Prinzipiell braucht man die Fallunterscheidung gar nicht machen und kann mit folgenden Überlegungen beweisen: gi • m1 → m 2 ⇔ m2 = m1 − ctg i ∧ t ⋅ LT (g i ) ∉ Supp(m2 ) • Sei c der Koeffizient von t ⋅ LT (g i ) in m1 , also m1 = + ct LT(g i ) + . • Der Koeffizient von t ⋅ LT(g i ) in m2 ist wegen t ⋅ LT(g i ) ∉ Supp(m2 ) gleich 0, also m2 = . • Sei c ′ der Koeffizient von t ⋅ LT(g i ) in m3 , also m3 = + c ′t LT (g i ) + . • Dann sind m1 + m3 = + (c + c ′)t LT (g i ) + und m2 + m3 = + c ′t LT (g i ) + . • Wegen m1 + m3 − (c + c ′)t LT (g i ) = • Wegen m2 + m3 − c ′t LT (g i ) = gi enthält t LT (g i ) nicht mehr =: m 4 gilt m1 + m3 → m 4 . g enthält t LT (g i ) nicht mehr ~ gilt m + m →i m ~ . =: m 4 2 3 4 ~ , denn: • Nun ist aber m 4 = m 4 m4 = m1 + m3 − (c + c ′)t LT (g i ) = m2 + ct LT (g i ) + m3 − (c + c ′)t LT(g i ) = m2 + ct LT (g i ) ~ = m2 + m3 − c ′t LT (g i ) = m 4 gi gi also: m1 + m3 → m 4 und m2 + m3 → m 4 • Ergänzung zum Beweis im Buch: • tLT (g i ) verschwindet im Fall c ′ = −c aus m2 + m3 − c ′tg i , weil tLT (g i ) nicht in m2 Page: 38 (siehe im Buch 3 Zeilen höher) vorkommt und weil tLT (g i ) in m3 gerade mit dem Koeffizienten c ′ vorkommt (siehe im Buch 2 Zeilen höher). Also m2 + m3 − c ′tg i = m2 + c ′tLT (g i ) + − c ′t (LT (g i ) + ) . Also verschwindet tLT (g i ) = m3 =g i aus m2 + m3 − c ′tg i . • Weil nun m1 + m3 = m2 + m3 − c ′tg i = (m2 + m3 ) − c ′tg i , gi bedeutet das, dass G m2 + m3 → m1 + m3 und somit auch m2 + m3 → m1 + m3 . G • Außerdem gilt trivialer Weise: m1 + m3 → m1 + m3 . G G • Wähle nun m 4 = m1 + m3 , dann gilt m1 + m3 → m 4 und m2 + m3 → m 4 . • Bemerkung zum m 4 = m1 + m3 − (c + c ′)tg i = Fall c ′ ≠ −c : m1 − ctg i + hier wird tLT (g i ) ausgelöscht gi m1 + m3 → m 4 , m3 − c ′tg i . weil Also hier wird tLT (g i ) wird ausgelöscht also wird tLT (g i ) insgesamt ausgelöscht, kommt also in m4 nicht mehr vor gi gi m1 + m3 → m 4 . m2 + m3 → m 4 analog. • Proposition 2.2.5: • Ergänzung zum Beweis ‘ C 2 C 3 ’: G G ′ ′ • m2 − m2 ∈ M , weil m1 → m2 und m1 → m2 . • Das heißt, dass sich m2 schreiben lässt als m2 = m1 − f1g 1 − − fs g s , wobei die f i die sich aus den jeweiligen Reduktionsschritten ergebenden (angesammelten) ′ Polynome sind. Analoges gilt für m2 . • Etwas umgeschrieben erhält man m1 = m2 + f1g 1 + + f s g s und ′ ′ ′ ′ ′ ′ m1 = m2 + f1 g 1 + + fs g s , also m2 + f1g 1 + + fs g s = m2 + f1 g 1 + + fs g s . ′ ′ ′ • Etwas umgeschrieben erhält man m2 − m2 = f1 − f1 g 1 + + fs − fs g s . ∈ g1, ,g s =M ′ • Also m2 − m2 ∈ M . • Ergänzung zum Beweis ‘ C 4 • gegeben C 4 G • m →0 G • m →0 C1 ’: m ∈M : G m↔0 m∈ nach Proposition 2.2.2.g) M = g1, ,g s G • m →0 ⇐ m ∈ M : G • m ∈M m↔0 • m ↔ m2 ↔ ↔ mt −1 =:m1 → 0 ' ← 'kann an dieser Stelle nicht sein, da sich 0 nicht reduzieren lässt =:mt • Sei daher 1 ≤ l ≤ t − 2 (statt 1 ≤ l ≤ t − 1 ) der größte Index mit ml ← ml +1 . Oder anders: ml +1 → ml . • Dann gilt ml +1 → ml +2 → → 0 , weil ja l die letzte Stelle war, wo der Pfeil nach Page: 39 G links zeigt. Also gilt ml +1 → 0 • Andererseits gilt ml +1 → ml . G G • Nach C 4 gibt es nun ein n, so dass 0 → n und ml → n . • Da sich aber 0 nicht echt reduzieren lässt, ist n = 0 . G • Also ml → 0 . • Erhalte nun die echt kürzere Sequenz m ↔ m2 ↔ =:m1 G ↔ ml → 0 . • Gilt nun überall ‘ → ’ ist man fertig, ansonsten fängt man mit dieser neuen Sequenz wieder vorne an. G • Auf jeden Fall erhält man am Ende m → 0 , nämlich dann, wenn es keine ‘ ← ’ mehr gibt. • Proposition 2.2.6: • einfacherer Beweis zu b): gi • m1 → m2 bedeutet m2 = m1 − ctg i . G • Demnach bedeutet m1 → m2 m 2 = m1 − G • Dann bedeutet m1 → 0 0 = m1 − • Da in i i i fi g i . f i g i ⇔ m1 = i fi g i . f i g i irgendwo durch ein bestimmtes ctg α der Leitterm von m zu 0 gemacht wird (wobei natürlich LT (m ) = LT (ctg α ) ), lässt sich dieses aus der Summe herausziehen: m1 = i + ctg α . fi g i jetzt ohne den Summanden ctg α • also: m1 − ctg α = i fi g i jetzt ohne den Summanden ctg α • Dass LT (m ) > LT (f i g i ) für alle fi g i in dieser Summe, ist offensichtlich. • Proposition 2.2.8: • Ergänzung zum Beweis ‘ A 2 C 2 ’: • Angenommen, es gibt ein m ∈ M , dass ungleich 0 ist und trotzdem irreduzibel ist. G • Der Widerspruch ist m → m ′ , obwohl m irreduzibel angenommen wurde. • Ergänzung zum Beweis ‘ C1 G m ∈ M \ {0} m → 0 C1 m= 2.2.6.c ) i A 2 ’: f i g i ∧ LT (m ) = max LT {f i g i } i 2.3 Syzygies • Proposition 2.3.6: • Diese recht abstrakt scheinende Proposition hat folgende Aussagen: Page: 40 • LT λ (f1, , f s ) ≤ degG ((f1, , fs )) : klar, denn: =m • λ((f1, , fs )) = f1g 1 + + f s g s • degG ((f1, , f s )) = max {LT (f i g i )} 1≤ i ≤s • Es ist offensichtlich, dass LT (f1g 1 + • LT (λ((f1, , fs ))) < degG ((f1, , f s )) : • bedeutet, LT (f1g 1 + + fs g s ) < max{LT (f i g i )} 1≤ i ≤ s + f s g s ) ≤ max{LT (f i g i )} . 1≤ i ≤s = für ein oder mehrere 1≤ k ≤s LT (f k g k ) = LT (f k ) ⋅ LT (g k ) dass • Das wiederum bedeutet, dass sich in f1g 1 + + fs g s der größte Term wegkürzt, also der Term LT(f k ) ⋅ LT(g k ) . (Dazu muss es natürlich mindestens 2 solcher k-s geben, damit sich die Koeffizienten zu 0 addieren können.) • Also ist LF(f1g 1 + + f s g s ) , also der Vektor aus den L M(f k ) dieser k-s, eine Syzygie für (LM(g 1 ), ,LM(g s )) , weil sich – wie gesagt – die Koeffizienten zu 0 addieren. • LT (λ((f1, , f s ))) = degG ((f1, , fs )) : • Hier kürzt sich der größte Term also nicht weg. • Also ist Λ (LF((f1, , fs ))) = LM(f k ) ⋅ LM(g k ) = LT (f1g 1 + + f s g s ) = LT (λ((f1, , fs ))) . k - s von eben • Ist (f1, , fs ) ∈ Syz (G ) , dann ist auch LF(f1, , fs ) ∈ Syz (LM(G )) , weil: • f1g 1 + + f s g s = 0 • Insbesondere addieren sich die Koeffizienten des größten Terms zu 0. • Also ist LF(f1, , fs ) ∈ Syz(LM(G )) , denn nur LF(f1, , fs ) ist verantwortlich für das 0-Werden des größten Terms von f1g 1 + + fs g s • Proposition 2.3.11: • Ergänzung zum Beweis: • Angenommen, es gibt m-s in Syz(G ) , die nicht als Linearkombination der mi -s dargestellt werden können. Wähle ein kleinstes m. • Weil (m1, , m t ) Syz(LM(G )) erzeugt und LF(m ) ∈ Syz(LM(G )) (weil LF(m ) für das 0-Werden der Leitmonome von einigen g i -s verantwortlich ist und weil m ∈ Syz(G ) , d. h. insbesondere diese Leitmonome werden auch tatsächlich 0),, besitzt LF(m ) eine Darstellung LF(m ) = c j t j mi j . • Dann ist m′ := m − c j t j mi j dargestelt werden. • Dann aber auch m := m′ + kleiner als m und kann somit mit (m1, , mt ) c j t j mi j . Widerspruch. • Proposition 2.3.12: • Ergänzung zum Beweis: • A2 D1 : • Sei f ∈ Syz(LM(G )) homogen. Zu zeigen: Es gibt eine Liftung für f in Syz(G ) . () • Bilde λ f = f1g1 + + fS g S . Page: 41 () • Falls λ f = 0 ist f ∈ Syz (G ) und f ist seine eigene Liftung. () λ (f ) ∈ M • Sei also λ f ≠ 0 . • Wegen () λ f = h1g1 + gibt es nach eine A2 (weitere) Darstellung + hS g S . () • Also λ f = f1g 1 + + fS g S = h1g1 + + hS g S ⇔ (f1 − h1 )g1 + + (fS − hs )g S = 0 , d. h. ((f1 − h1 ), , (fS − hs )) ∈ Syz(G ) . • Wegen degG h = LT(h1g1 + + hS g S ) = LT(f1g1 + + fS g S ) () wegen Voraussetzung A 2 : LT (h1g1 + + hS gS )=max {hi g i }= degG h () 1≤ i ≤ s < weil f ∈Syz (LM(G )), siehe auch Proposition 2.3.6.b ( ) degG (m ) () ist LF f − h = LF f = f . weil f ∈Syz (LM(G )) • Also ist f − h die gesuchte Liftung von f in Syz(G ) . • D1 A2 : • Sei m ∈ M = g1, , g s . Angenommen, es gibt keine Darstellung von m mit m= s i =1 fi g i ∧ LT (m ) = max{LT (fi g i )} . • Da die g i -s ein Erzeugendensystem bilden, gibt es aber auf jeden Fall eine s Darstellung m = i =1 fi g i . Also liegt das Problem bei LT (m ) = max{LT(fi g i )}. • Wähle unter allen Darstellung m = s i =1 () fi g i eine, so dass degG f minimal ist. • Wegen LT (m ) ≤ max{LT(fi g i )}, folgt, dass wegen der Widerspruchs-Annahme LT(m ) < max{LT(fi g i )} sein muss. () • Dann ist jedoch LF f ∈ Syz (LM(G )) (nach Proposition 2.3.6.b). () • Nach Voraussetzung D1 gibt es nun eine Liftung f ′ von LF f ( ) (f ). () in Syz(G ) . (Liftung bedeutet – wie immer – LF f ′ = LF f .) ( ) • Deswegen ist degG f − f ′ < degG • Nach Wahl von f dürfte f − f ′ keine Darstellung m = s i =1 • Tut es aber: s i =1 (fi − fi ′)g i = s i =1 fi g i − s i =1 fi ′g i = s i =1 (fi − fi ′)g i erlauben. fi g i = m . Widerspruch. =0, weil f ′∈Syz (G ) 2.4 Gröbner Bases of Ideals and Modules 2.4.2 Normal Forms Page: 42 • Proposition 2.4.10.d): • Supp(NFN (m )) ∩ LT{N} = { } , weil: Gäbe es in NFN (m ) noch einen Term, der in LT{N} = (LT(h1 ), , LT(ht )) liegt, so wäre dieser Term ein Vielfaches des Leitterms eines hi ’s und der Divisionsalgorithmus zur Berechnung der Normalform hätte noch nicht gestoppt. • NFN (m ) ∈ M , denn m = f1h1 + + f t ht + NFN (m ) ⇔ NFN (m ) = m − (f1h1 + + f t ht ) ∈M • Wegen Supp(NFN (m )) ∩ LT{M } = { } ist NFN (m ) irreduzibel bzgl. G • Wegen C 2 : n ∈ M irreduzibel bzgl. → ∈N (g1 , ∈M , denn N ⊆ M ∈M ,g s ) → . n = 0 (Kapitel 2.2) folgt n := NFN (m ) = 0 . ∈M • Also m = f1h1 + + f t ht + ∈N 0 =NFN (m ) . ∈N 2.5 Algorithm Buchberger’s • Proposition 2.5.2: • Der Beweis ist dem von ‘Proposition 2.3.12, A 2 D1 sehr ähnlich.: • Zu zeigen: Es gibt eine Liftung für σ ij ∈ Syz(LM(G )) in Syz(G ) . • Bilde 0 S ij = λ(σ ij ) = λ 0 1 t ij ci 0 0 1 − t ji cj 0 . 0 = 0g 1 + + 0g i −1 + 1 t ij g i + 0g i +1 + ci + 0g j −1 + − 1 t ji g j + 0g j +1 + cj + 0g s • Falls λ(σ ij ) = 0 ist σ ij ∈ Syz(G ) und σ ij ist seine eigene Liftung. • Sei also λ(σ ij ) ≠ 0 . • Weil G eine Gröbner-Basis ist und S ij = λ(σ ij )→ 0 G eine (weitere) Darstellung λ(σ ij ) = h1g 1 + λ(σ ij ) ∈ M gibt es nach A 2 + hS g S . Page: 43 • Also λ(σ ij ) = 0g 1 + = h1g 1 + + 0g i −1 + 1 t ij g i + 0g i +1 + ci + 0g j −1 + − 1 t ji g j + 0g j +1 + cj + 0g s + hS g S ⇔ (− h1 )g 1 + + (− hi −1 )g i −1 + + (− h j −1 )g j −1 + − ( ) , 1 t ij − hi g i + (− hi +1 )g i +1 + ci 1 t ji − h j g j + (− h j +1 )g j +1 + cj + (− hs )g s = 0 d. h. σ ij − h ∈ Syz(G ) . • Wegen degG h () = wegen Voraussetzung A 2 : LT (h1g1 + + hS gS )=max {hi g i }= degG h + 0g i −1 + < weil ij ∈Syz (LM(G )), siehe auch Proposition 2.3.6.b ( + hS g S ) () 1≤ i ≤ s = LT 0g 1 + LT (h1g 1 + 1 t ij g i + 0g i +1 + ci + 0g j −1 + − degG (σ ij ) ) ist LF σ ij − h = LF(σ ij ) = 1 t ji g j + 0g j +1 + cj + 0g s σ ij . weil σ ij ∈Syz (LM(G )) • Also ist σ ij − h die gesuchte Liftung von σij in Syz(G ) . 3.2 Elementary Operations on Modules • Proposition 3.2.15: • Beweis von a): • N :P M = {r ∈ R r ⋅ M ⊆ N } • s (N : i =1 P gi ) = {r ∈ R r ⋅ s i =1 gi ⊆ N } • also zu zeigen {r ∈ R r ⋅ M ⊆ N } = {r ∈ R r ⋅ g s i =1 ⊆N i } • ‘ ⊆ ’: • Seien g i′ ∈ g i für beliebiges i und r ∈ {r ∈ R r ⋅ M ⊆ N }. • Da auch g i′ ∈ M , ist rg i′ ⊆ N , also (weil i beliebig war) r ∈ • ‘ ⊇ ’: • Seien m = f1g1 + • Dann ist + fs g s und r ∈ rm = s {r ∈ R r ⋅ g i =1 + r f1g1 ∈ g1 { ∈N , weil r ∈ r ∈R r ⋅ g1 ⊆ N i s {r ∈ R r ⋅ g i =1 i } ⊆N . } ⊆N . + ∈N , r fs g s also ∈gs } { ∈N , weil r ∈ r ∈R r ⋅ gs ⊆ N } Page: 44 r ∈ {r ∈ R r ⋅ M ⊆ N }. • Proposition 3.2.22: • Der Beweis verläuft analog zum Beweis von 3.2.15. 3.4 Elimination • Theorem 3.4.5: • Beweis: • ‘ ⊆ ’: tei ∈ LTσˆ M ∩ Pˆ r ( ) tei ∈ LTσ (M ) ∧ tei ∈ Pˆ r ( ⊇ LTσˆ M ∩ Pˆ r • ‘ ⊇ ’: tei ∈ LTσ (M ) ∩ Pˆ ( LTσˆ M ∩ Pˆ r ) tei ∈ LTσ (M ) ∧ tei ∈ Pˆ r ) 3.5 Localization Saturation LTσ (M ) ∩ Pˆ ∃g i ∈ Pˆ r : tei = LTσ r (g i ) da σ Eliminatio nsordnung and • Proposition 3.5.12: • Beweis: • ‘ ⊆ ’: v ∈ N :M I ∞ ∩ N :M J ∞ ⇔ ∃i , j : I i v ⊆ N ∧ J j v ⊆ N ( ) ( ) ⇔ ∃i , j : f i v ∈ N ∧ g j v ∈ N∀f ∈ I, g ∈ J v ∈ N :M (I + J ) wobei die (f + g )i + j v = (f + g )i + j v ∈ N∀f ∈ I, g ∈ J , ∞ letzte f i + j g 0v + f i + j −1g 1v + bis auf Konstanten bei den Summanden ( ) ∈N wegen f k f i v ∈N für 1≤ k ≤ j + Folgerung f i g jv + offensichtlich ∈N gilt, weil + f 1g i + j −1v + f 0 g i + j v ( ) ∈N wegen g k g i v ∈N für 1≤ k ≤ j ∈N ∈N • ‘ ⊇ ’: v ∈ N :M (I + J ) ⇔ ∃k : (I + J ) v ⊆ N ⇔ ∃k : (f + g ) v ∈ N∀f ∈ I, g ∈ J ∞ k k f +0 k v ∈N ∧ 0 + g ∈J ( k v ∈ N :M I ∈I ∞ ) ∩ (N : M J∞ v ∈ N∀f ∈ I, g ∈ J f k v ∈ N ∧ g k v ∈ N∀f ∈ I, g ∈ J ) Page: 45 Remarks Der erste Teil dieser Datei bezieht sich auf die ‘Computanional Commutative Algebra 1 (Algebra 2)’-Vorlesung von Prof. Martin Kreuzer im Sommersemester 2004. Zu dieser Vorlesung gibt es eine Fotoreihe der Tafeln (Dateien: University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; *). Der zweite Teil dieser Datei bezieht sich auf das Buch ‘Computanional Commutative Algebra 1’ von Martin Kreuzer und Lorenzo Robbiano (Version vom 2000-07-03). Außerdem gibt es eine weitere Datei ‘University; Algebra 1 (basics), Computational Commutative Algebra 1; Overview’, welche eine Übersicht über die Grundlagen der ‘Algebra 1’-Vorlesung von Prof. Martin Kreuzer im Wintersemester 2003/2004 und über die ‘Computanional Commutative Algebra 1 (Algebra 2)’-Vorlesung von Prof. Martin Kreuzer im Sommersemester 2004 und das Buch ‘Computanional Commutative Algebra 1’ von Martin Kreuzer und Lorenzo Robbiano (Version vom 2000-07-03) enthält. http://www.TL-Software.de.tf thleopold@hotmail.com Thomas Leopold, 2004-10-13 Page: 46