2014 - LRZ

Transcription

2014 - LRZ
Jahresbericht 2014
Juni 2015
LRZ-Bericht 2015-01
Jahresbericht 2014 des Leibniz-Rechenzentrums
Inhaltsverzeichnis
Abbildungsverzeichnis .................................................................................................................... vii
Tabellenverzeichnis .......................................................................................................................... x
Vorwort
1
........................................................................................................................................1
Highlights - Die wichtigsten Ereignisse am LRZ 2014 ................................................................2
1.1
Einführung des neuen LRZ-Logos und Corporate Designs ...................................................2
1.2
Eduroam im WLAN der SWM .................................................................................................2
1.3
Anbindung der Staatlichen Museen und Archive an das MWN .............................................3
1.4
SuperMUC Status and Results Workshop, User Forum und Berichtsband ...........................3
1.5
PRACE ISC Award: 1,4 Petaflops mit SeisSol auf SuperMUC ..............................................4
1.6
Science Veröffentlichung über genetische Algorithmen .........................................................4
1.7
Zweiter Extreme Scaling Workshop .......................................................................................4
1.8
Vorbereitungen für die Phase 2 des SuperMUC ....................................................................4
1.9
Einsparungen beim Energieverbrauch von HPC Systemen ..................................................4
1.10 Überwachungssoftware Persyst .............................................................................................4
1.11 Power Data Aggregation Monitor (PowerDAM)......................................................................5
1.12 Webfrontend für Remote Visualisierung .................................................................................5
1.13 Erneuerung der VMware- und Linux-Cluster-Infrastruktur .....................................................5
1.14 Erhöhung der Redundanz im Münchner Wissenschaftsnetz .................................................5
1.15 Starkes Wachstum bei Exchange am LRZ .............................................................................5
1.16 Desktop-Management TUM-PC .............................................................................................6
1.17 Security Incident and Event Management System ................................................................6
1.18 Die wichtigsten öffentlichen Auftritte des LRZ ........................................................................7
2
Forschung und Projekte ................................................................................................................9
2.1
Forschungskoordination und Projektmanagement .................................................................9
2.2
Energieeffizientes Rechenzentrum ........................................................................................9
2.2.1
Einsparungen beim Energieverbrauch von HPC Systemen......................................9
2.3
Energieseminar ......................................................................................................................9
2.4
Projekte, an denen sich das LRZ beteiligt ............................................................................10
2.4.1
2.4.2
2.4.3
2.4.4
2.4.5
Automatic Online Tuning (AutoTune) ......................................................................10
Dynamical Exascale Entry Platform / Extended Reach (DEEP/-ER) ......................12
European Exascale Software Initiative 2 (EESI2) ...................................................13
European Grid Infrastructure (EGI-InSPIRE) ..........................................................15
Ein flexibles Framework zur Energie- und Performanceanalyse
hochparalleler Applikationen im Rechenzentrum (FEPA) .......................................16
2.4.6 GÉANT GN3plus .....................................................................................................17
2.4.7 Intel® Parallel Computing Center (IPCC) ................................................................20
2.4.8 Software-Initiative des KONWIHR ...........................................................................22
2.4.9 Mont-Blanc & Mont-Blanc 2 .....................................................................................24
2.4.10 Mr. SymBioMath ......................................................................................................25
2.4.11 PRACE Second Implementation Phase Project (PRACE-2IP) ...............................26
2.4.12 PRACE Third Implementation Phase Project (PRACE-3IP) ...................................28
i
ii
Inhaltsverzeichnis
2.4.13 Safe And Secure European Routing (SASER) ....................................................... 30
2.4.14 Simulation und Optimierung des Energiekreislaufs von RechenzentrumsKlimatisierungsnetzen unter Berücksichtigung von SupercomputerBetriebsszenarien (SIMOPEK) ............................................................................... 33
2.4.15 Virtuelles Alpen-Observatorium II (VAO-II) ............................................................. 35
2.4.16 Virtual Earthquake and Seismology Research Community in Europe eScience Environment (VERCE) .............................................................................. 36
2.4.17 Webbasiertes Customer Network Management (WebCNM) .................................. 38
2.4.18 Standardisierungsaktivitäten im Bereich der parallelen Programmierung.............. 39
2.5
Mitarbeit in Initiativen zur Förderung und Weiterentwicklung von HPC-Technologien in Europa
39
2.5.1
2.5.2
3
Darstellung des LRZ in der Öffentlichkeit ................................................................................. 40
3.1
Allgemeine Öffentlichkeit und Medien - PR ......................................................................... 40
3.2
Hochleistungsrechnen ......................................................................................................... 41
3.2.1
3.2.2
3.2.3
3.3
Einführung von ISO/IEC 20000 ........................................................................................... 45
4.1.1
4.1.2
4.1.3
4.1.4
4.2
Incident Management ............................................................................................. 45
Change- und Configuration Management .............................................................. 45
Weitere ITSM-Prozesse .......................................................................................... 45
Sonstige Aktivitäten ................................................................................................ 45
Service-Management-Plattform Action Request System .................................................... 46
IT-Sicherheit ................................................................................................................................. 47
5.1
Sicherheitsmanagement ...................................................................................................... 47
5.2
Antivirus ............................................................................................................................... 47
5.3
WSUS .................................................................................................................................. 47
5.4
Virtuelle Firewalls ................................................................................................................. 47
5.5
Technische Aspekte des Sicherheitsmanagements ............................................................ 49
5.5.1
5.5.2
5.5.3
5.5.4
6
Vorträge .................................................................................................................. 42
Veranstaltungen ...................................................................................................... 42
Booklet .................................................................................................................... 44
IT-Service Management ............................................................................................................... 45
4.1
5
Supercomputing Konferenzen ................................................................................ 41
SuperMUC Status and Results Workshop, User Forum und Berichtsband .......... 41
Ergebnisse auf GCS Webseiten ............................................................................. 42
Zentrum für Virtuelle Realität und Visualisierung (V2C) ...................................................... 42
3.3.1
3.3.2
3.3.3
4
ETP4HPC ............................................................................................................... 39
PROSPECT e.V. ..................................................................................................... 39
Secomat .................................................................................................................. 49
Security Information & Event Management ............................................................ 50
Sicherheits- und Netzmanagement: Nyx ................................................................ 50
Self-Service Portal; Sperr- und Entsperrmechanismen .......................................... 51
IT-Basisdienste ............................................................................................................................ 52
6.1
E-Mail ................................................................................................................................... 52
6.1.1
6.1.2
6.1.3
6.1.4
6.2
Migration der lokalen Mailserver im MWN .............................................................. 52
Inhaltsbasierte „Prequeue-Filterung“ von Spam- und Virenmails ........................... 52
Verschlüsselte Übertragung von E-Mails................................................................ 52
Statistiken zur Mailnutzung ..................................................................................... 53
Exchange ............................................................................................................................. 55
Jahresbericht 2014 des Leibniz-Rechenzentrums
6.2.1
6.2.2
6.2.3
6.3
Webhosting ...........................................................................................................................56
6.3.1
6.3.2
6.4
8
Arbeitsgruppe Bibliotheksdienste ............................................................................68
System- und Softwaremanagement ........................................................................68
Projekt Rosetta (Langzeitarchivierung) ...................................................................68
Bibliotheksverbund Bayern (BVB) ...........................................................................68
Münchner Digitalisierungszentrum (MDZ) ...............................................................69
Virtuelle Realität und Visualisierung ..........................................................................................72
7.1
Kooperationen ......................................................................................................................72
7.2
Forschung und Lehre ...........................................................................................................72
IT-Server-Infrastruktur ..................................................................................................................74
8.1
Linux-Server .........................................................................................................................74
8.1.1
8.1.2
8.1.3
8.1.4
8.2
9
Benutzerverwaltung für LRZ-Dienste ......................................................................59
CampusLMU und TUMonline ..................................................................................65
MWN Active Directory..............................................................................................65
DFN-AAI/Shibboleth ................................................................................................66
Bibliotheksdienste .................................................................................................................68
6.6.1
6.6.2
6.6.3
6.6.4
6.6.5
7
Rechnerpools ...........................................................................................................58
TUM-PC ...................................................................................................................58
MWN-MAC ...............................................................................................................59
Benutzerverwaltung und Verzeichnisdienste .......................................................................59
6.5.1
6.5.2
6.5.3
6.5.4
6.6
Performance-Tuning in der neuen Webhosting-Betriebsumgebung .......................56
Verlagerung und Upgrade TUM-Typo3-Projekt .......................................................57
Desktop-Management ..........................................................................................................57
6.4.1
6.4.2
6.4.3
6.5
Migration auf Exchange 2013 ..................................................................................55
Exchange für die Hochschule München ..................................................................55
Nutzung des Exchange-Dienstes ............................................................................55
Virtuelle Server ........................................................................................................74
Analyse von Log- und Diagnosedaten.....................................................................74
Monitoring ................................................................................................................74
Managed Hosting für hochschulstart.de ..................................................................74
Windows ...............................................................................................................................75
Hochleistungssysteme und SuperMUC .....................................................................................76
9.1
Höchstleistungsrechner SuperMUC .....................................................................................76
9.1.1
9.1.2
9.1.3
9.1.4
9.1.5
9.1.6
9.1.7
9.1.8
9.2
Linux-Cluster.........................................................................................................................84
9.2.1
9.2.2
9.2.3
9.3
SuperMUC Phase 2 .................................................................................................76
Das neue Intel Xeon Phi System SuperMIC............................................................77
Das neue Remote-Visualisierungs-System für SuperMUC Benutzer .....................78
Betrieb des Höchstleistungsrechners SuperMUC ...................................................79
Auslastung ...............................................................................................................79
Rechenzeit nach Fachgebieten ...............................................................................81
Jobgröße ..................................................................................................................82
Datentransfer ...........................................................................................................83
Betrieb......................................................................................................................84
Nutzung des Linux-Clusters ....................................................................................84
Antrag zur Ersetzung veralteter Komponenten des Linux-Clusters ........................86
Applikations- und Benutzerunterstützung im Bereich HPC ..................................................87
9.3.1
9.3.2
9.3.3
Supportanfragen ......................................................................................................87
Benutzerverwaltung für die Hochleistungssysteme.................................................88
Software für HPC Systeme ......................................................................................88
iii
iv
Inhaltsverzeichnis
9.3.4
9.4
Application Labs .................................................................................................................. 88
9.4.1
9.4.2
9.4.3
9.4.4
10
Kurse und Ausbildung ............................................................................................. 88
AstroLab (πCS Astro) ............................................................................................. 88
BioLab (πCS Bio) .................................................................................................... 89
GeoLab (πCS Geo) ................................................................................................ 89
Energie und Umwelt................................................................................................ 90
Datenhaltung ................................................................................................................................ 91
10.1 Überblick Datenhaltung ....................................................................................................... 91
10.2 Archiv- und Backupsystem .................................................................................................. 91
10.2.1
10.2.2
10.2.3
10.2.4
Konfiguration ........................................................................................................... 91
Schwerpunkte in den Aktivitäten ............................................................................. 96
Statistik ................................................................................................................... 96
Plattform für digitale Langzeitarchivierung.............................................................. 98
10.3 Datenbanken ..................................................................................................................... 101
10.4 Onlinespeicher ................................................................................................................... 101
10.4.1
10.4.2
10.4.3
10.4.4
Konfiguration und Entwicklung im Überblick ........................................................ 101
Hochverfügbarer Speicher für virtuelle Server ..................................................... 103
MWN Storage Cloud ............................................................................................. 104
Sync+Share Lösung für die Münchner Universitäten ........................................... 105
10.5 Daten- und Archivräume .................................................................................................... 105
11
Münchner Wissenschaftsnetz – Internetzugang .................................................................... 107
11.1 Struktur und Betrieb des Münchner Wissenschaftsnetzes (MWN) ................................... 107
11.1.1
11.1.2
11.1.3
11.1.4
Struktur des Backbone Netzes ............................................................................. 112
Planung von WDM-Systemen im MWN-Backbone .............................................. 113
Struktur der Gebäudenetze im MWN.................................................................... 114
Struktur des Rechenzentrumsnetzes (LRZ-Netz) ................................................. 115
11.2 Anschluss ans MWN und wesentliche Änderungen im Netz............................................. 117
11.2.1 Wesentliche Netzänderungen im Jahr 2014 ......................................................... 117
11.2.2 Netzausbau (Verkabelung); Netzinvestitionsprogramm ....................................... 118
11.2.3 Redundante LWL-Verkabelung und zweiter zentraler Netzknoten auf dem
Campus Garching ................................................................................................. 119
11.2.4 Anbindung Studentenwohnheime ......................................................................... 120
11.3 DNS und Sicherheit im DNS .............................................................................................. 123
11.3.1 DNS-Amplification-Attacks und offene Resolver .................................................. 125
11.3.2 DNSSEC ............................................................................................................... 126
11.4 DHCP ................................................................................................................................. 126
11.5 Radius ................................................................................................................................ 127
11.6 Switch-Infrastruktur / Switch-Erneuerung .......................................................................... 128
11.7 Telefonie ............................................................................................................................ 128
11.7.1
11.7.2
11.7.3
11.7.4
VoIP-Anlage und Betrieb ...................................................................................... 128
Zugang über UMTS .............................................................................................. 129
Verbesserung der Mobilfunkversorgung in den LRZ-Gebäuden ......................... 129
Ausschreibung BayKOM ....................................................................................... 129
11.8 Unterstützung von Infrastrukturdiensten ............................................................................ 129
11.8.1
11.8.2
11.8.3
11.8.4
Server Load Balancer (SLB) ................................................................................. 129
IPv6 ....................................................................................................................... 130
Wellenlängenmultiplexer ....................................................................................... 131
NeSSI .................................................................................................................... 132
Jahresbericht 2014 des Leibniz-Rechenzentrums
11.9 Netzmanagement und –monitoring ....................................................................................133
11.9.1
11.9.2
11.9.3
11.9.4
11.9.5
11.9.6
Netzmanagement ..................................................................................................133
Netzdokumentation ................................................................................................135
MWN-WLAN-Visualisierung mit OpenStreetMap für Endbenutzer .......................135
Inhaltliche Aktualisierung der Netzdokumentation ................................................136
Überwachung der Dienstqualität ...........................................................................136
Reporting für Netzverantwortliche .........................................................................137
11.10 Internetzugang und LAN.....................................................................................................137
11.11 WLAN und Eduroam ...........................................................................................................140
11.11.1 Eduroam ................................................................................................................142
11.11.2 Vorkonfigurierte Profile für eduroam (CAT) ...........................................................143
11.11.3 Eduroam off Campus .............................................................................................144
11.11.4 Gastkennungen .....................................................................................................145
11.11.5 Unterstützung von Veranstaltungen ......................................................................145
11.12 VPN 145
11.12.1 Technik ..................................................................................................................146
11.12.2 VPN-Software ........................................................................................................146
11.12.3 Telearbeitsplätze von LRZ-Mitarbeitern ................................................................146
11.12.4 Entwicklung des Datenverkehrs über die VPN-Server ..........................................146
12
Kurse, Ausbildung und Benutzerbetreuung ............................................................................149
12.1 Kurse und Veranstaltungen ................................................................................................149
12.1.1 Kursübersicht, Statistik 2014 .................................................................................149
13
Software-Bezug und Lizenzen ...................................................................................................154
13.1 Microsoft .............................................................................................................................154
13.1.1 Mietlizenzen für LRZ und Akademie......................................................................154
13.1.2 Zugang der Universitätskliniken zum Bundesvertrag ............................................154
13.1.3 Plausibilisierungen oder: „Damokles-Schwert der Software-Audits“ .....................154
13.2 Adobe .................................................................................................................................154
13.2.1 CLP ........................................................................................................................154
13.2.2 ETLA Desktop ........................................................................................................155
13.3 Ansys ..................................................................................................................................155
13.4 SPSS ..................................................................................................................................155
13.5 VMware...............................................................................................................................155
13.6 Software Asset Management .............................................................................................155
13.7 Verlängerung und Ausbau bestehender Verträge ..............................................................155
13.8 Tagesgeschäft ....................................................................................................................156
13.8.1 Abläufe und Änderungen bei der Versorgung der Kunden des LRZ .....................156
13.8.2 Betrieb von Lizenzservern für Kunden des LRZ ....................................................157
14
Gebäude und Infrastruktur ........................................................................................................158
14.1 Gebäudemanagement ........................................................................................................158
14.2 Energieeffizienz ..................................................................................................................158
15
Personal ....................................................................................................................................160
v
vi
16
Inhaltsverzeichnis
Zahlen und Fakten ..................................................................................................................... 161
16.1 Personal ............................................................................................................................. 161
16.2 E-Mail und Exchange ......................................................................................................... 162
16.3 Poster und Schriften .......................................................................................................... 162
16.4 Benutzerverwaltung und Shibboleth .................................................................................. 162
16.5 Höchstleistungsrechner ..................................................................................................... 163
16.6 Hochleistungs-Linux-System ............................................................................................. 164
16.7 Hochleistungs-Graphik-System ......................................................................................... 166
16.8 Datenspeicher .................................................................................................................... 167
16.9 Das Münchner Wissenschaftsnetz (MWN) ........................................................................ 169
16.10 Netzkomponenten im MWN ............................................................................................... 170
16.10.1 Router ................................................................................................................... 170
16.10.2 Switches ................................................................................................................ 171
16.10.3 WLAN-Komponenten ............................................................................................ 172
16.10.4 Netz-Server ........................................................................................................... 173
Jahresbericht 2014 des Leibniz-Rechenzentrums
vii
Abbildungsverzeichnis
Abbildung 1: Das neue Logo des LRZ ..........................................................................................................2
Abbildung 2: eduroam-WLAN-Standorte am Marienplatz, die von den Stadtwerken München
betrieben werden .......................................................................................................................3
Abbildung 3: Anstieg der Exchange-Nutzung im MWN.................................................................................6
Abbildung 4: Anstieg der Anzahl verwalteter TUM-PCs in 2014 ...................................................................6
Abbildung 5: Stand des LRZ bei den Münchner Wissenschaftstagen ..........................................................7
Abbildung 6: Präsentation beim Akademientag im November 2014 .............................................................8
Abbildung 7: Open Lab Day des V2C am 16. Dezember 2014.....................................................................8
Abbildung 8: GÉANT-TrustBroker-Workflow nach der DAME-Protokollspezifikation ................................ 17
Abbildung 9: SP-side account linking with ORCID ..................................................................................... 18
Abbildung 10: Stand des LRZ bei den Münchner Wissenschaftstagen ..................................................... 40
Abbildung 11: Einband des Berichtsbandes 2014 ..................................................................................... 41
Abbildung 12: Webseiten des Gauß-Zentrums mit Ergebnissen von Projekten am SuperMUC ............... 42
Abbildung 13: Studierende präsentieren ihre Projekte am Open Lab Day ................................................ 43
Abbildung 14: Präsentation einer Gletschervisualisierung am Akademientag in der BAdW ..................... 43
Abbildung 15: Entwicklung der virtuellen Firewalls seit 2007..................................................................... 48
Abbildung 16: Web-Schnittstelle Adaptive Security Device Manager (ASDM) .......................................... 48
Abbildung 17: secomat1 ............................................................................................................................. 49
Abbildung 18: secomat2 ............................................................................................................................. 49
Abbildung 19: secomat3 ............................................................................................................................. 49
Abbildung 20: secomat4 ............................................................................................................................. 49
Abbildung 21: Entwicklung der Exchange-Nutzung seit 2011.................................................................... 56
Abbildung 22: Webserver-Antwortzeit [ms] in alter (KW37) und neuer (KW39) Betriebsumgebung ......... 57
Abbildung 23: Entwicklung des TUM-PCs in 2014 ..................................................................................... 59
Abbildung 24: Serverlandschaft und Einbindung des LRZ-SIM-Systems .................................................. 64
Abbildung 25: Computerkonten im MWN-ADS in 2014 ............................................................................. 66
Abbildung 26: Bavarikon 2 - Produktion. Eines von drei Netzen................................................................ 70
Abbildung 27: Dreigliedrige Netzsegmentierung für MDZ-Dienste ............................................................ 71
Abbildung 28: Das V2C mit seinen einzelnen Komponenten..................................................................... 72
Abbildung 29: Virtuelle Serverinstanzen am LRZ ...................................................................................... 74
Abbildung 30: Blick auf das neu installierte SuperMUC Phase 2-System (Foto: Andreas Heddergott) .... 77
Abbildung 31: Racks des SuperMIC .......................................................................................................... 77
Abbildung 32: Netzwerk-Topologie des Intel Xeon Phi Systems ............................................................... 78
Abbildung 33: Rechenzeitabgabe (in Core-Stunden). Bis 3. Quartal 2012 nur Migrationssystem
(Fat-Nodes), ab 4. Quartal 2013 Thin und Fat-Nodes ............................................................ 80
Abbildung 34: Prozentuale Auslastung (Verhältnis der tatsächlichen zur maximal möglichen
Rechenzeitabgabe) ................................................................................................................. 80
Abbildung 35: Verteilung der Rechenzeit nach Fachgebieten ................................................................... 81
Abbildung 36: Zeitliche Entwicklung der Nutzung von SuperMUC durch Fachgebiete ............................. 82
Abbildung 37: Zeitliche Entwicklung SuperMUC-Nutzung in Abhängigkeit von der Jobgröße .................. 83
viii
Inhaltsverzeichnis
Abbildung 38: Ca. 460 TByte wurden 2014 per GridFTP von und zum SuperMUC übertragen ................ 83
Abbildung 39: Kumulativer Anteil von Jobs in Abhängigkeit von der Wartezeit ......................................... 86
Abbildung 40: Entwicklung der Anzahl von Supportanfragen im Bereich HPC.......................................... 87
Abbildung 41: Überblick Archiv- und Backupsysteme ................................................................................ 92
Abbildung 42: Hochleistungs-Archiv- und Backupsystem Ende 2014 ....................................................... 93
Abbildung 43: LTO-Archiv- und Backupsystem Ende 2014 ....................................................................... 94
Abbildung 44: Desaster Recovery-Archiv- und Backupsystem Ende 2014 ............................................... 95
Abbildung 45: Datenverkehr (TB pro Monat) .............................................................................................. 97
Abbildung 46: Datenumfang (TB pro Monat) .............................................................................................. 97
Abbildung 47: Speicherbelegung seit 1995 ................................................................................................ 98
Abbildung 48: Objektanzahl im LRZ-Archiv (Zweitkopie nicht berücksichtigt) ........................................... 99
Abbildung 49: Datenvolumen im LRZ-Archiv (Zweitkopie nicht berücksichtigt) ......................................... 99
Abbildung 50: Workflow im Google Projekt .............................................................................................. 100
Abbildung 51: Archivierte Daten in TByte ................................................................................................. 101
Abbildung 52: Links: Entwicklung Datenvolumen und Anzahl Festplatten Rechts: Entwicklung der
Anzahl an Filerköpfen ........................................................................................................... 102
Abbildung 53: Primärsysteme, Replikation und Backup........................................................................... 102
Abbildung 54: Hochverfügbares NAS-System für VMware ...................................................................... 103
Abbildung 55: Durchschnittliche Anzahl simultan zugreifender Kennungen ............................................ 104
Abbildung 56: Nutzung der MWN Storage Cloud für TUM Projekte ........................................................ 104
Abbildung 57: Daten- und Archivraum DAR0 ........................................................................................... 105
Abbildung 58: Brandabschnitte im Rechnerwürfel ................................................................................... 106
Abbildung 59: Räumliche Ausdehnung des Münchner Wissenschaftsnetzes (nicht maßstabsgerecht) . 108
Abbildung 60: MWN Unterbezirke und Ausdehnung ................................................................................ 109
Abbildung 61: Standorte und Verbindungen im MWN (Teil 1) ................................................................. 110
Abbildung 62: Standorte und Verbindungen im MWN (Teil 2) ................................................................. 111
Abbildung 63: Struktur des Kernnetzes .................................................................................................... 112
Abbildung 64: Grundlegende Struktur der DWDM-Infrastruktur zwischen Martinsried und Garching ..... 114
Abbildung 65: Entwicklung bei der Anzahl der Switchports ..................................................................... 115
Abbildung 66: Struktur des LRZ-Netzes ................................................................................................... 116
Abbildung 67: Statistik für alle DNS-Server (Autoritativ) .......................................................................... 124
Abbildung 68: Statistik für alle DNS-Resolver .......................................................................................... 124
Abbildung 69: Funktionsweise der DNS Amplification Attack .................................................................. 126
Abbildung 70: DHCP-Infrastrkutur auf den DNS-Servern ........................................................................ 127
Abbildung 71: RADIUS-Struktur im MWN ................................................................................................ 128
Abbildung 72: Durchsatz innerhalb von 7 Tagen am SLB 1..................................................................... 130
Abbildung 73: Struktur des Querverbindungsnetzes ................................................................................ 132
Abbildung 74: Topologie des Münchner Wissenschaftsnetzes Ende 2014 ............................................. 134
Abbildung 75: Eduroam-WLAN-Standorte der Stadtwerke München ...................................................... 136
Abbildung 76: Device-Report mit Interface-Alias ...................................................................................... 137
Abbildung 77: Entwicklung der Nutzung des WiN-Anschlusses des MWN seit 2004 .............................. 138
Jahresbericht 2014 des Leibniz-Rechenzentrums
ix
Abbildung 78: Anbindung des MWN ans Internet .................................................................................... 139
Abbildung 79: Anzahl der jährlich installierten Accesspoints ................................................................... 140
Abbildung 80: Anzahl aktiver WLAN-Verbindungen am 5.11.2014 (5-Minuten-Mittel) ............................ 141
Abbildung 81: Entwicklung der Belegung über das Jahr 2014 (Tagesmittel) .......................................... 141
Abbildung 82: Nutzung des WLAN aufgeteilt nach SSIDs ....................................................................... 143
Abbildung 83: Eduroam Nutzung durch MWN-Nutzer und Gäste ............................................................ 143
Abbildung 84: Dr. Dietmar Unger, Leiter IT bei den SWM und Prof. Dr. Helmut Reiser, LRZ,
nehmen das eduroam im M-WLAN in Betrieb ...................................................................... 144
Abbildung 85: Datenverkehr in Terabytes über die VPN-Server im Referenzmonat November ............. 147
Abbildung 86: Anzahl der maximal gleichzeitig an den VPN-Servern angemeldeten Nutzer .................. 147
Abbildung 87: Monatliches Datenvolumen der VPN-Server in Gigabyte im Jahr 2014 ........................... 148
Abbildung 88: Wasseranschlüsse für die Racks des SuperMUC Phase 2 .............................................. 159
Abbildung 89: Entwicklung des Dienstreiseaufkommens 2000-2014 ...................................................... 161
x
Inhaltsverzeichnis
Tabellenverzeichnis
Tabelle 1: Durchschnittliche eingehende und ausgehende Datenübertragungsrate der letzten
12 Monate ............................................................................................................................... 49
Tabelle 2: Angenommene und abgewiesene E-Mails ................................................................................ 53
Tabelle 3: Nutzung des Relaydienstes ....................................................................................................... 53
Tabelle 4: Nutzung des Mailhostings .......................................................................................................... 54
Tabelle 5: Nutzung der POP/IMAP-Server ................................................................................................. 54
Tabelle 6: Nutzung des Weiterleitungs-Service ......................................................................................... 55
Tabelle 7: Nutzung von E-Mail-Verteilerlisten ............................................................................................ 55
Tabelle 8: Nutzung des Exchange-Dienstes in 2014 ................................................................................. 56
Tabelle 9: Clients im MWN-ADS ................................................................................................................ 58
Tabelle 10: Vergabe von Kennungen für LRZ-Plattformen ........................................................................ 60
Tabelle 11: Vergabe von Kennungen an Studierende ............................................................................... 61
Tabelle 12: vom Team Bibliotheksdienste verwaltete Systeme ................................................................. 68
Tabelle 13: SuperMUC-Installationsphasen ............................................................................................... 76
Tabelle 14: Verteilung der Rechenzeit nach Fachgebiet............................................................................ 81
Tabelle 15: Anzahl Nutzer und Projekte ..................................................................................................... 84
Tabelle 16: Auslastung und Rechenzeitabgabe in den Jahren 2013 und 2014 ......................................... 84
Tabelle 17: Verteilung der Rechenzeit nach Institutionen in den Jahren 2013 und 2014 .......................... 85
Tabelle 18: Statistik für 2014 ...................................................................................................................... 96
Tabelle 19: Anzahl der im MWN eingesetzten Switches .......................................................................... 115
Tabelle 20: Wesentliche Netzänderungen 2014 ...................................................................................... 117
Tabelle 21: Die Ende 2014 an das MWN angeschlossenen Wohnheime ................................................ 120
Tabelle 22: Übersicht über die wichtigsten Domains im MWN................................................................. 125
Tabelle 23: Nutzung der Server Load Balancer (SLB) ............................................................................. 130
Tabelle 24: Anzahl der IPv6-Endgeräte 2010 - 2014 ............................................................................... 131
Tabelle 25: WDM-Verbindungen .............................................................................................................. 131
Tabelle 26: Prozentuale Verteilung des Datenverkehrs am WiN Zugang ................................................ 139
Tabelle 27: Datenverkehr in Terabytes über die VPN-Server im Referenzmonat November.................. 147
Tabelle 28: Kurse zu PC-Software 2014 .................................................................................................. 149
Tabelle 29: Kurse zum Hochleistungsrechnen 2014 ................................................................................ 150
Tabelle 30: Führungen durch das LRZ und Vorführungen am V2C ......................................................... 150
Tabelle 31: Weitere Veranstaltungen in den Räumen des LRZ ............................................................... 150
Tabelle 32: Die umsatzstärksten Softwarepakete .................................................................................... 156
Tabelle 33: Tabellarische Personal-Übersicht .......................................................................................... 161
Tabelle 34: E-Mail und Exchange ............................................................................................................. 162
Tabelle 35: Poster und Schriften .............................................................................................................. 162
Tabelle 36: Benutzerverwaltung und Shibboleth ...................................................................................... 162
Tabelle 37: Höchstleistungsrechner SuperMUC ...................................................................................... 163
Tabelle 38: Hochleistungs-Linux-Systeme (ohne SuperMUC) ................................................................. 164
Tabelle 39: Hochleistungs-Graphik-System ............................................................................................. 166
Jahresbericht 2014 des Leibniz-Rechenzentrums
xi
Tabelle 40: Bruttokapazitäten Online-Speicher (NAS + SAN) ................................................................. 167
Tabelle 41: Kapazitäten der Nearline-Speicher........................................................................................ 168
Tabelle 42: Das MWN in Zahlen .............................................................................................................. 169
Tabelle 43: Netzkomponenten im MWN: Router ...................................................................................... 170
Tabelle 44: Netzkomponenten im MWN: Switches .................................................................................. 171
Tabelle 45: Netzkomponenten im MWN: WLAN-Komponenten .............................................................. 172
Tabelle 46: Netzkomponenten: Server ..................................................................................................... 173
xii
Inhaltsverzeichnis
Jahresbericht 2014 des Leibniz-Rechenzentrums
1
Vorwort
2014 war für das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften ein Jahr der
Neuerungen und der Konsolidierung zugleich. Mit den Staatlichen Museen und Archiven wurden neue
Kunden im Münchner Wissenschaftsnetz gewonnen, andererseits wurden viele existierende Dienste weiter
ausgebaut und effektiviert.
Spektakuläre Ergebnisse konnten im dritten Betriebsjahr des SuperMUC erzielt werden: Die Berechnung
des Stammbaums des Lebens der Käfer schaffte es auf das Titelblatt des renommierten Journals „Science“
im November, für die Erdmantelsimulation SeisSol gab es Preise (PRACE Award 2014, Georg Michael
Memorial Award, Gordon Bell Finalist), und mehr als zehn unterschiedliche Anwendungen konnten die volle
Parallelität des Rechners mit ca. 150.000 Rechenkernen nutzen! Die wichtigsten Ereignisse des Jahres
finden Sie in Kapitel 1 zusammengefasst.
Das LRZ partizipiert weiter an der rasanten Entwicklung der IT-Technik und treibt diese selbst in zahlreichen Eigenentwicklungen voran. Besonders zu nennen sind hier alle Anstrengungen, die gesamte Rechnerinfrastruktur extrem energieeffizient zu betreiben, wobei modernste Kühlungsinfrastruktur und Rechnertechnik mit neu entwickelten Methoden und Werkzeugen kombiniert werden.
Alle Anstrengungen des LRZ sind nur möglich durch den hochmotivierten Einsatz aller Mitarbeiterinnen
und Mitarbeiter des LRZ, denen ich für ihr Engagement ausdrücklich danke. Belohnt werden wir alle durch
das ungebrochene Publikumsinteresse an der Arbeit des LRZ, von der Presse bis hin zu dem stets überfüllten „Tag der offenen Tür“.
Auch international ist das LRZ anerkannt, das liegt nicht zuletzt an der großzügigen finanziellen Förderung
der Arbeit des LRZ durch alle Förderer, speziell durch die Bayerische Staatsregierung und das Bayerische
Staatsministerium für Bildung und Kultus, Wissenschaft und Kunst, dem wir zu großem Dank verpflichtet
sind.
Mein besonderer Dank gilt unserer Mutterorganisation, der Bayerischen Akademie der Wissenschaften,
den Mitgliedern der Kommission für Informatik und des Lenkungsausschusses, die das LRZ stets fachkundig gestützt haben. Persönlich danke ich vor allem den Mitgliedern des Direktoriums, den Kollegen HansJoachim Bungartz, Heinz-Gerd Hegering und Dieter Kranzlmüller sowie meinem Stellvertreter Victor Apostolescu.
Die wichtigsten Partner des LRZ sind seine „Kunden in der Wissenschaft“, mit denen uns ein vertrauensvolles Verhältnis verbindet.
Ich danke für die konstruktive Zusammenarbeit in 2014 und freue mich auf neue Vorhaben in 2015.
Univ-Prof. Dr. Arndt Bode Vorsitzender des Direktoriums
des Leibniz-Rechenzentrums
2
Highlights - Die wichtigsten Ereignisse am LRZ 2014
1 Highlights - Die wichtigsten Ereignisse am LRZ 2014
1.1 Einführung des neuen LRZ-Logos und Corporate Designs
Am Beginn des neuen Jahres führte das LRZ sein neues Logo und Corporate Design ein, das im Laufe
des Jahres überall das bisherige Logo ersetzte und dem LRZ nun durchgängig vom Briefkopf bis zur Internet-Präsenz ein zeitgemäßes Image verleiht.
Abbildung 1: Das neue Logo des LRZ
1.2 Eduroam im WLAN der SWM
Die Stadt München betreibt seit 2013 in Kooperation mit den Stadtwerken München ein offenes City-WLAN
(M-WLAN). Anfang 2014 wurde in einer engen Kooperation zwischen den Stadtwerken, dem LRZ und dem
DFN Verein eduroam auf den städtischen Access Points freigeschaltet und in Betrieb genommen. Die Stadt
München und ihre Stadtwerke München (SWM) unterstützen damit die Initiative „eduroam off campus“.
Innerhalb des eduroam-Netzes authentisieren sich die Nutzer mit der Kennung ihrer heimatlichen Einrichtung. Das heißt in allen Organisationen, überall in Europa und dem Rest der Welt, die eduroam unterstützen, ist der Zugang absolut identisch. Für einheimische und auswärtige Wissenschaftler und Studierende
ist die Nutzung denkbar einfach: Einmal im heimischen Netz eingerichtet wählt sich das eigene Gerät,
Laptop, Tablet-PC, Smartphone, automatisch im auswärtigen Netz ein, sobald ihm irgendwo der Zugang
zum eduroam-Netz angeboten wird.
Mit der Unterstüzung von „eduroam off campus“ möchte die Stadt München die Studierenden und Wissenschaftler unterstützen und die Campus-Bereiche der Universitäten und Hochschulen in die Innenstadt hinein ausdehnen. Gestartet wurde mit den Access Points am Marienplatz, dem Odeonsplatz, dem Sendlinger
Tor sowie dem Stachus. Mitte des Jahres wurden über diese Access Points bereits mehr als 50.000 eduroam Nutzer in zwei Monaten registriert. Derzeit werden zehn weitere Standorte mit M-WLAN und damit
eduroam erschlossen.
Das LRZ pflegt eine Karte (http://www.lrz.de/services/netz/mobil/mobil_ap/map/, s.a. Abschnitt 11.11.3) mit
den Zugangspunkten zum WLAN des MWN, auf der nun auch verzeichnet ist, wo die Stadtwerke München
den eduroam-Zugang bieten, wie z.B. am Marienplatz.
Jahresbericht 2014 des Leibniz-Rechenzentrums
3
Abbildung 2: eduroam-WLAN-Standorte am Marienplatz,
die von den Stadtwerken München betrieben werden
1.3 Anbindung der Staatlichen Museen und Archive an das MWN
Die staatlichen Museen Bayerns arbeiten seit mehreren Jahren daran, ihre IT-Infrastruktur zu vereinheitlichen, zu modernisieren und spezifische Dienste zu zentralisieren. Die Voraussetzung dafür ist eine angemessene Netzanbindung, die durch eine Mitnutzung des MWN und anderen Diensten des LRZ erfolgen
soll.
2014 wurden das Neue Museum in Nürnberg, das Bayerische Armeemuseum in Ingolstadt und das Deutsche Theatermuseum in München an das MWN angebunden.
1.4 SuperMUC Status and Results Workshop, User
Forum und Berichtsband
Während der ersten zwei Betriebsjahre konnten mit SuperMUC, dem Höchstleistungsrechner am LRZ, bereits sehr beeindruckende Ergebnisse erzielt werden. Mehr
als einhundert Projekte reichten Berichte für den SuperMUC Berichtsband ein, der im
Juni zur International Supercomputing Conference ISC‘14 in Leipzig veröffentlicht
wurde.
Das LRZ informierte seine Benutzer im Rahmen eines „Status and Results Workshops“ auch über die Pläne für SuperMUC Phase 2, durch die die Rechenleistung
von SuperMUC nochmals verdoppelt wird. Außerdem wurden die neue Insel “SuperMIC” mit Intel Xeon Phi Beschleunigerkarten sowie das neue Remote-Visualisierungscluster vorgestellt.
4
Highlights - Die wichtigsten Ereignisse am LRZ 2014
1.5 PRACE ISC Award: 1,4 Petaflops mit SeisSol auf SuperMUC
Bei der Eröffnung der International Supercomputing Conference (ISC’14) in Leipzig wurde die Arbeit „Sustained Petascale Performance of Seismic Simulations with SeisSol on SuperMUC“ mit dem “PRACE ISC
Award” der Partnership for Advanced Computing in Europe (PRACE) ausgezeichnet. Den Autoren der TU
und LMU München gelang es erstmals, unterstützt durch die Experten des LRZ, über einen längeren Zeitraum eine Rechenleistung von 1,4 Petaflops auf dem SuperMUC zu erzielen. Diese Arbeit wurde außerdem
für den Gordon Bell-Preis vorgeschlagen. Ferner erhielt Alexander Breuer aus der Arbeitsgruppe von Prof.
Bader den George Michael Memorial Award für die Arbeiten an SeisSol.
1.6 Science Veröffentlichung über genetische Algorithmen
Wissenschaftlern des internationalen 1KITE-Projektes (1.000 Insect Transcriptome Evolution) ist es mit
einer bisher unerreichten Datenmenge von 1.478 Genen, der Entwicklung völlig neuer Analyseverfahren
und der Verwendung von Höchstleistungsrechnern wie dem SuperMUC gelungen, den Stammbaum der
Insekten aufzuklären. Mit der Veröffentlichung dieser Arbeit auf der Titelseite der Fachzeitschrift Science
(November 2014) werden die Grundlagen für ein besseres Verständnis der Evolution dieser Tiergruppe
gelegt. Dieses Wissen ist deshalb von so großer Bedeutung, weil unsere terrestrischen Lebensräume sowohl in kultureller als auch in kommerzieller Hinsicht entscheidend von Insekten geprägt werden. Die Ergebnisse werden dazu beitragen, ganz neue und auch effizientere Wege bei der Nutzung biologischer
Ressourcen, in der Landwirtschaft oder in der Schädlingsbekämpfung zu beschreiten (http://www.sciencemag.org/content/346/6210/763).
1.7 Zweiter Extreme Scaling Workshop
Im Juni 2014 fand der zweite „Extreme Scaling Workshop“ am LRZ statt, in dem ausgewählte Benutzergruppen die Skalierung ihrer Applikationen bis zur vollen Systemgröße des SuperMUC testen konnten.
Hierbei erreichten drei Applikationen eine Skalierung bis zu achtzehn Inseln (147.456 Cores), fünf Applikationen konnten bis sechzehn Inseln skaliert werden und zwei bis zwölf bzw. acht Inseln. Die Ergebnisse
des Workshops wurden in einem speziellen Teil der Herbstausgabe des GCS Magazins "InSiDe" dargestellt.
1.8 Vorbereitungen für die Phase 2 des SuperMUC
Der 2013 auf Wasserkühlung ertüchtigte Höchstleistungsrechner-Bereich im Obergeschoss des Rechnergebäudes wurde für die „Phase 2“ des SuperMUC vorbereitet. Seit dem Jahresende 2014 wird dort die
neue Hardware installiert. Auch die Elektroversorgung wurde verändert, um der neuen Hardware eine getrennte Versorgungsumgebung bieten zu können.
1.9 Einsparungen beim Energieverbrauch von HPC Systemen
Aus einer Forschungskooperation zwischen LRZ und IBM hervorgegangen, arbeitet der SuperMUC als
erstes System weltweit im Produktiveinsatz mit einer Energie-bewussten Systemmanagement-Software.
Diese analysiert die Anwendungen einzelner Benutzer und passt die Leistung der Prozessoren über die
Taktfrequenz so an, dass der Energieverbrauch ohne merkliche Abstriche der Anwendungsperformance
verringert wird. In Zukunft sollen alle HPC-Systeme des LRZ mit energie-bewussten Managementsystemen
betrieben werden, wozu auch gehört, dass Rechen-Knoten vollautomatisch je nach Bedarf ab- und wieder
angeschaltet werden; für das Linux Cluster am LRZ konnte eine Implementierung des letzteren Konzeptes
im Laufe des Jahres 2014 in Betrieb genommen werden.
1.10 Überwachungssoftware Persyst
Innerhalb des vom BMBF geförderten Projektes "Flexibles Framework zur Energie- und Performanceanalyse hochparalleler Applikationen im Rechenzentrum“ konnte die skalierbare Überwachungssoftware Persyst zur systematischen Effizienzanalyse von Applikationen fertiggestellt werden. Hierbei werden auch die
Energieverbräuche der Applikationen erfasst, und es ist möglich, die vom Prozessor und Memory benötigten Energien von den restlichen Energieströmen in das IT-Equipment zu trennen. Damit steht nun dem
LRZ eine Infrastruktur zur Überwachung der beiden wichtigsten Betriebsparameter Applikationsperformance und Energieeffizienz zur Verfügung.
Jahresbericht 2014 des Leibniz-Rechenzentrums
5
1.11 Power Data Aggregation Monitor (PowerDAM)
PowerDAM ist ein am LRZ entwickeltes Softwarewerkzeug, um wichtige Sensorwerte von Rechenzentrumsinfrastrukturkomponenten und IT-Systemen einzusammeln, in einer zentralen Datenbank abzulegen
und auszuwerten. Das Tool ermöglicht somit einerseits die Bestimmung und Anzeige der aktuellen Energieeffizienz eines Rechenzentrums. Andererseits erlaubt PowerDAM eine weitere Optimierung der Energieeffizienz wichtiger Komponenten in der Elektro- und Kühlinfrastruktur anhand von zeitlichen Verlaufsdarstellungen der abgespeicherten Messwerte und deren Korrelation mit Parametern wie beispielsweise
Außentemperatur und -feuchte sowie IT-Leistungsaufnahme bzw. zu kühlende Wärmelast.
1.12 Webfrontend für Remote Visualisierung
Über ein vom LRZ erstelltes Webfrontend ist Nutzern ab sofort ein unkomplizierter Zugriff auf den LRZRemote Visualisierungsdienst möglich: https://rvs.lrz.de/
1.13 Erneuerung der VMware- und Linux-Cluster-Infrastruktur
Die VMware-Virtualisierungsinfrastruktur des LRZ wurde 2014 grundlegend erneuert: mit insgesamt 94
neuen Blade-Systemen und insgesamt 1.880 Kernen, 24 TB RAM und 500 TB Hintergrundspeicher verfügt
das LRZ über eine sehr leistungsfähige Plattform. Durch eine neue, direkte Anbindung an das LRZ-Backbone mit 320 Gbit/s können selbst anspruchsvollste Anwendungen ausgeführt werden. Die Migration erfolgte im November 2014 unterbrechungsfrei im laufenden Betrieb.
2014 stellte das LRZ einen Großgeräte-Antrag auf Ersetzung technologisch veralteter Segmente des LinuxClusters, mit dem auch eine Erhöhung der Energieeffizienz durch Warmwasserkühlung sowie der Sekundärnutzung der Abwärme durch Bereitstellung von Kühlinfrastruktur auf Basis von Adsorptionskühlung erreicht werden soll. Der erste Teil des Antrages (landesfinanziertes Großgerät nach Art. 143c GG) wurde
bereits genehmigt und mit der Installation auf Basis von gleicher Technologie wie bei SuperMUC Phase 2
wurde schon begonnen.
1.14 Erhöhung der Redundanz im Münchner Wissenschaftsnetz
In den letzten Jahren wurden Standorte mit vielen Nutzern redundant, d.h. mit mehreren Leitungen ans
MWN angeschlossen, um damit die Sicherheit gegenüber Komponenten- oder Faserausfällen zu erhöhen.
In Jahr 2014 konnte die redundante Anbindung der Hochschule München in Betrieb genommen werden.
Damit sind Ende 2014 die LMU und die TU München in der Innenstadt, die Hochschule München sowie
die Standorte Großhadern, der Campus Garching sowie der Campus Weihenstephan redundant angebunden.
1.15 Starkes Wachstum bei Exchange am LRZ
Beim Exchange-Dienst war auch in 2014 wieder ein starkes Wachstum zu verzeichnen. Im Zeitraum November 2013 bis November 2014 stieg die Nutzerzahl um ca. 10.000 auf 40.000 (+33 %) und der durch
die Postfächer belegte Speicherplatz um ca. 4,5 auf knapp 11 TByte (+75 %). Abbildung 3 zeigt die Entwicklung seit Mitte 2011.
2014 führte das LRZ die Migration von „Exchange 2010“ auf die aktuelle Version „Exchange 2013“ durch,
bei der alle Postfächer in die neue Umgebung verschoben werden mussten
Die Hochschule München wurde 2014 an den Exchange-Produktionsbetrieb des LRZ angebunden. Dazu
wurden zuvor einige zusätzlich benötigte Eigenschaften implementiert wie spezielle Sichtbarkeitsregeln für
Adressbücher.
6
Highlights - Die wichtigsten Ereignisse am LRZ 2014
Exchange-Nutzung 2011 bis 2014
50000
45000
40000
35000
30000
25000
20000
15000
10000
5000
0
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
Anzahl Postfächer
Speicherplatz [TByte]
Abbildung 3: Anstieg der Exchange-Nutzung im MWN
1.16 Desktop-Management TUM-PC
Im Jahr 2014 stieg die Anzahl der vom LRZ betreuten Microsoft Windows-Systeme auf rund 1.200 an,
davon werden rund 240 Systeme in mehreren Pools für externe Kunden kostenpflichtig betreut. Im MWNADS sind zum Ende des Jahres 2014 über 9.500 Systeme direkt angebunden. Die Anzahl der Kennungen
im MWN-ADS beträgt rund 132.000.
In Kooperation mit der TU München wurde das Projekt TUM-PC in die Produktion überführt. Ziel des Projektes ist es, den Teiladministratoren der TUM die Möglichkeit zu geben, ohne großen Aufwand WindowsRechner zu installieren und die installierten Softwarepakete automatisch zentral pflegen zu lassen. Hierbei
sorgt das LRZ für die Bereitstellung des notwendigen Softwareverteilungssystems und die Pflege der Softwarepakete. Zum Jahresende waren rund 1.000 Rechner der TUM in das System eingebunden, die von
über 64 Einrichtungen an der TUM genutzt werden.
Abbildung 4: Anstieg der Anzahl verwalteter TUM-PCs in 2014
1.17 Security Incident and Event Management System
Für das LRZ-CSIRT, also das Computer Security Incident Response Team, das sich am LRZ um IT-Sicherheitsvorfälle kümmert, wurde in diesem Jahr ein neues, web-basiertes Security Incident Management
System, das im Rahmen einer studentischen Abschlussarbeit konzipiert und implementiert wurde, in Be-
Jahresbericht 2014 des Leibniz-Rechenzentrums
7
trieb genommen. Dieses Werkzeug bietet zum einen eine bedienfreundliche Möglichkeit zur Vorfallsmeldung und stellt zum anderen die Einhaltung des am LRZ festgelegten Security-Incident-Prozesses sicher.
Integrierte Automatismen, etwa zur Benachrichtigung des Vorfallmelders oder der für das betroffene ITSystem zuständigen Abteilungs- und Gruppenleiter oder zur Festlegung maximaler Reaktionszeiten, die
Messung der Bearbeitungsdauer eines Vorfalls, sowie Filter-, Such- und Reportingmöglichkeiten runden
den großen Funktionsumfang ab.
1.18 Die wichtigsten öffentlichen Auftritte des LRZ
Neben zahlreichen, in den folgenden Kapiteln dokumentierten, wissenschaftlichen Auftritten stellt sich das
LRZ regelmäßig einer breiteren Öffentlichkeit vor.
Am 11. Oktober 2014 beteiligte sich das LRZ wie in den Vorjahren am „Tag der offenen Tür“ auf dem
Forschungscampus Garching. Weit über eintausend Besucher nutzten wieder die Gelegenheit, das LRZ
und sein Zentrum für Virtuelle Realität und Visualisierung V2C kennen zu lernen.
Auch bei den Münchner Wissenschaftstagen vom 8. bis 11. November 2014 war das LRZ mit einem eigenen „Marktstand der Wissenschaft“ vertreten und führte eine „Force-Feedback-Molekulardynamik-Simulation“ vor, bei der die Besucher mit eigenen Händen die Kraft der Moleküle spüren und auf der portablen
Stereoprojektionsanlage des LRZ sehen konnten (s. Abbildung 5).
Abbildung 5: Stand des LRZ bei den Münchner Wissenschaftstagen
Am Akademientag im November 2014 zeigte die Kommission für Glaziologie eine am LRZ entwickelte
portable Version der Visualisierung des Vernagtferners mit Hilfe eines Datenhelms.
8
Highlights - Die wichtigsten Ereignisse am LRZ 2014
Abbildung 6: Präsentation beim Akademientag im November 2014
Diese Visualisierung war auch einer von insgesamt 16 Beiträgen beim „Open Lab Day“ des V2C am 16.
Dezember 2014, bei dem verschiedene Studien- und wissenschaftliche Arbeiten den Erkenntnisgewinn
durch Virtuelle Realität vorstellten. Das große Interesse am V2C zeigen die insgesamt über 2.500 Besucher
und Nutzer bei über 300 Terminen im Jahr 2014.
Abbildung 7: Open Lab Day des V2C am 16. Dezember 2014
Jahresbericht 2014 des Leibniz-Rechenzentrums
9
2 Forschung und Projekte
2.1
Forschungskoordination und Projektmanagement
Bereits in den letzten Jahren wurden gezielte Maßnahmen getroffen, um die zahlreichen am LRZ stattfindenden Forschungsaktivitäten besser zu unterstützen und in den Vordergrund zu rücken. Mit dem für 2014
angekündigten Start des neuen europäischen Forschungsrahmenprogramms Horizon 2020 war zu erwarten, dass auch die Anzahl der Projektanträge deutlich ansteigen wird. Aus diesen Gründen ist dieser Aufgabenbereich im Jahr 2014 durch weiteres Personal verstärkt worden, so dass zukünftig nicht nur die Forschungstätigkeiten und die administrative Projektbetreuung, sondern auch das Management der Projektfinanzen, die Antragsstellung sowie die Öffentlichkeitsarbeit bezogen auf die Projektergebnisse besser unterstützt werden können.
Diese Verstärkung versetzte das LRZ in die Lage, neben den über zwanzig laufenden Projekten, sich an
zwölf Anträgen für EU-Projekte sowie an weiteren Projekten anderer Fördergeber zu beteiligen. Darüber
hinaus wurden im Rahmen der Partnerschaftsinitative Computational Science (πCS) zehn Informationsworkshops mit Arbeitsgruppen in den Bereichen Astrophysik, Lebenswissenschaften und Geowissenschaften der beiden Münchner Universitäten sowie des Helmholtzzentrums für Gesundheit und Umwelt (HMGU)
durchgeführt, außerdem mit Professoren der Universitäten in Wien, Linz und Innsbruck sowie dem
UNISDR. Für die hausinterne Koordination der entsprechenden Teams sowie der Projektaktivitäten fanden
sechs Koordinationstreffen in zweimonatigem Turnus statt.
Neben der Intensivierung der internen Aktivitäten im Bereich des Wissenschaftsmanagements wurden
auch die externen Kontakte ausgeweitet, so etwa durch mehrere Schulungen, durch die Teilnahme an der
Jahrestagung des Netzwerks Wissenschaftsmanagement und durch Kontakte zu den entsprechenden Referaten der Münchner Universitäten sowie durch die Zusammenarbeit mit der Bayerischen Forschungsallianz (BayFOR).
Zur Vereinfachung der Projektadministration wurde das Projektverwaltungssystem P*NK der Firma MeditCon eingeführt. Zunächst auf den Einsatz für die Verwaltung der Projektfinanzen von BMBF-Projekten (zur
Erstellung der Zahlungsnachweise) beschränkt, kamen im Laufe des Jahres weitere Projekttypen (z.B. EUProjekte) sowie die Nutzung zur Erfassung der Mitarbeiterzeiten hinzu. Da hierzu auch einige Dinge speziell
für das LRZ neu implementiert werden mussten, war diese Einführung mit einem signifikanten Zeitaufwand
verbunden.
2.2 Energieeffizientes Rechenzentrum
2.2.1 Einsparungen beim Energieverbrauch von HPC Systemen
Aus einer Forschungskooperation zwischen LRZ und IBM hervorgegangen, arbeitet der SuperMUC als
erstes System weltweit im Produktiveinsatz mit einer energie-bewussten Systemmanagement-Software.
Diese analysiert die Anwendungen einzelner Benutzer und passt die Leistung der Prozessoren über die
Taktfrequenz so an, dass der Energieverbrauch ohne merkliche Abstriche der Anwendungsperformance
verringert wird. In Zukunft sollen alle HPC-Systeme des LRZ mit energie-bewussten Managementsystemen
betrieben werden, wozu auch gehört, dass Rechenknoten vollautomatisch je nach Bedarf ab- und wieder
angeschaltet werden; für das Linux Cluster am LRZ konnte eine Implementierung des letzteren Konzeptes
im Laufe des Jahres 2014 in Betrieb genommen werden.
2.3
Energieseminar
Im Rahmen des Kompetenzteams Energie wurde im Jahr 2014 eine Seminarreihe zum Thema Energieeffizienz gestartet. Die Motivation für die abteilungsübergreifende Veranstaltung ergab sich aus dem Wunsch,
die Informationsflüsse zwischen den Mitarbeitern, die mit der Thematik betraut sind, zu verbessern.
In insgesamt 10 Vorträgen an 5 Terminen konnten die Teilnehmer ihre Arbeiten vorstellen und in anschließenden Diskussionsrunden Tipps und Anregungen austauschen. Die Qualität der Vorträge war dabei –
nicht zuletzt wegen eines für den besten Vortrag ausgelobten Preises – durchweg hoch.
Auf einstimmigen Wunsch der Teilnehmer hin wird das Seminar in leicht veränderter Form auch wieder im
Jahr 2015 stattfinden.
10
Forschung und Projekte
2.4 Projekte, an denen sich das LRZ beteiligt
Die Drittmittelprojekte des LRZ werden nachfolgend in alphabetischer Reihenfolge aufgeführt.
2.4.1 Automatic Online Tuning (AutoTune)
Das Ziel des seit Oktober 2011 von der EU geförderten FP7
Projektes „Automatic Online Tuning“ (AutoTune) ist die Erweiterung des von der TUM entwickelten Periscopetools um Tuning-Plugins zur automatischen Optimierung von Applikationen
im HPC-Umfeld hinsichtlich Performancesteigerung und Energieeffizienz. Das Periscope Tuning Framework (PTF) benutzt
die wichtigsten Grundsätze des Periscopetools: auf Fachwissen
basierende Formalismen zur automatischen Analyse, Suche auf Basis von Programmabschnitten, und
eine verteilte skalierbare Architektur. PTF hat eine Plugin-basierte Architektur und wurde im Laufe der
Zeit mit unterschiedlichen Plugins erweitert: ein Parallel-Patterns Plugin, ein hybrides Manycore-HMPPPlugin, ein Dynamic Voltage Frequency Scaling (DVFS) Plugin, ein MPI-Parameter-Plugin, ein MasterWorker-MPI-Plugin, und ein Compiler-Flag-Selection-Plugin.
Das LRZ war für die Entwicklung des DVFS Plugins verantwörtlich, welches für den Energieverbrauchsoptimiertierung durch Frequenz-Skalierung sorgt. Verschiedene Optimierungsaspekte bezüglich
der Leistungsaufnahme, Laufzeit und Energie sind im Plugin auch vorhanden, darunter das Total Cost
of Ownership, Power Capping, und das Energy-Delay-Product. Das Plugin basiert auf drei Modelle, je
ein Model für Laufzeit, Leistungsaufnahme, und Energie.
Weiter hat das LRZ die Enopt-Bibliothek entwikelt, um die Frequenzen zu setzen, sowie den Energieverbrauch auf einzelner Abschnitte zu messen. Mittels Enopt greift PTF auf die Energiezähler zu und
setzt die CPU-Frequenzen. Darüber hinaus sind die Anwendungen auch nur mit Enopt instrumentierbar.
Das LRZ hat zum Projekt die Expertise für das Monitoring sowie für die Anwendungsoptimierung beigesteuert und stellte sein HPC-System SuperMUC als Test-Umgebung für die entwickelte Tools zur Verfügung.Im Rahmen des vom LRZ geleiteten Arbeitspaket „Dissemination & Exploitation“ wird dazu eine
geignete Plattform („AutoTune Demonstration Centre“) aufgeführt. Damit soll die Verbreitung im HPCUmfeld und Pflege des im AutoTune entwickelten Softwarepakets nach Projektende realisiert werden.
Highlights in 2014
Workshop: “Energy Days” hat am LRZ im Januar 2014 stattgefunden.
Roll-Out vom ersten Release des PTF-Prototyps und Plugins.
Evaluierung des DVFS (Dynamic Voltage and Frequency Scaling) Plugins.
Optimierung von SeisSol (Geophysik Anwendung) hinsichtlich Energieverbrauch, ‚Power Capping‘,
und ‚Total Cost of Ownership‘.
Projektverlängerung um 6 Monate aufgrund des Wegfalls des Industriepartners CAPS Enterprise.
Memorandum of Understanding (MoU) des AutoTune Demonstration Center wurde von den Partnern
unterschrieben.
Konferenzen & Veranstaltungen
ICS 2014, “CPU Frequency Tuning for Optimizing the Energy to Solution”, Juni 2014, München,
Deutschland.
Energie Tag Workshop, “Enopt library” Januar 2014, Garching bei München, Deutschland.
Webinar mit IBM, “Enopt library”, September 2014, Garching bei München, Deutschland.
Supercomputing 2014, “AutoTune”, Vortrag auf dem LRZ Messestand, November 2014, New Orleans,
USA
Publikationen
Schöne R., Treibig J., Dolz M., Guillen C., Navarrete C., Knobloch M., Rountree B., Tools and methods
for measuring and tuning the energy efficiency of HPC systems. In: Scientific Programming, Volume
22, Issue 4, Januar 2014
Jahresbericht 2014 des Leibniz-Rechenzentrums
11
Navarrete C., Guillen C., Hesse W., Brehm M., Autotuning the energy consumption. In: Parallel Computing: Accelerating Computational Science and Engineering (CSE), Advances in Parallel Computing
25, IOS Press, 2014.
Steckbrief
Projektlaufzeit
Partnerinstitutionen
15.10.2011 – 14.4.2015
Technische Universität München
Leibniz-Rechenzentrum
CAPS enterprise
Universität Autònoma de Barcelona
National Unviersity of Ireland Galway, ICHEC
Universität Wien
IBM (associated partner)
Kontaktperson
Dr. Matthias Brehm
Förderorganisation
European Commission FP7
Website
www.autotune-project.eu
12
Forschung und Projekte
2.4.2 Dynamical Exascale Entry Platform / Extended Reach (DEEP/-ER)
The DEEP project is an innovative European response to the
Exascale challenge. The consortium develops a novel, Exascale-enabling supercomputing architecture with a matching
software stack and a set of optimized grand-challenge simulation applications. DEEP takes the concept of compute acceleration to a new level: instead of adding
accelerator cards to Cluster nodes, an accelerator Cluster, called Booster, will complement a conventional HPC system and increase its compute performance. Together with a software stack focused on
meeting Exascale requirements - comprising adapted programming models, libraries and performance
tools - the DEEP architecture will enable unprecedented scalability. The Cluster-level heterogeneity of
DEEP attenuates the consequences of Amdahl’s law allowing users to run applications with kernels of
high scalability alongside kernels of low scalability concurrently on different sides of the system, avoiding
at the same time over and under subscription. An extrapolation to millions of cores would take the DEEP
concept to an Exascale level.
DEEP-ER advances the Cluster-Booster architecture developed in DEEP from a hardware point of view
in terms of processor technology, network interconnect, and storage. On the software side of the project
focuses on two central research topics: highly scalable parallel I/O and resiliency.
With its expertise in energy efficiency, LRZ contributes to hardware design, system software, and operations. With the start of the DEEP-ER project, LRZ is also involved with a demonstration application code
from the field of earthquake simulations. LRZ also manages the project’s dissemination activities ensuring the projects’ visibility to the HPC community, the European Commission and the general public
through a variety of communication channels.
Highlights in 2014
The first DEEP hardware was installed at the Jülich Supercomputing Centre
An image video was produced by the project, that received quite some attention at SC14 in New Orleans as well as online.
Events and Conferences
ISC’14, June 22 – 26 2014, Leipzig/Germany
SC14, November 16 – 21 2014, News Orleans / United States
Fast Facts
Project duration
Partner institutions
1/12/2011 – 31/8/2015 (DEEP)
1/10/2013 – 30/9/2016 (DEEP-ER)
Astron
Barcelona Supercomputing Center
CERFACS
CGG
CINECA
The Cyprus Instiute
École polytechnique fédérale de Lausanne
Eurotech
Jülich Supercomputing Centre
Fraunhofer ITWM
German Research School for Simulation Sciences
INRIA
Intel
Katholieke Universiteit Leuven
ParTec
Universität Heidelberg
Universität Regensburg
Contact person
Axel Auweter (DEEP)
Dr. Ferdinand Jamitzky (DEEP-ER)
Funding agency
European Commission FP7
Website
www.deep-project.eu
www.deep-er.eu
Jahresbericht 2014 des Leibniz-Rechenzentrums
13
Seagate
2.4.3 European Exascale Software Initiative 2 (EESI2)
One of the main objectives of the EESI2 project is to provide recommendations on strategic European actions with a particular focus on software
key issues improvement, cross cutting issues advances, and gap analysis.
The objective of EESI2 is to build on the work done within the EESI1 project
and to extend this role of external and independent representative synthesis by key issues.
Highlights in 2014
Publication of an EESI-2 special study to measure and model how investments in HPC can ceate
financial ROI and scientific innovation in Europe.
Events and Conferences
Big Data and Extreme-scale Computing (BDEC) meeting in Fukuoka, Japan, February 26 to February
28, 2014
Fast Facts
Project duration
Partner institutions
1/09/2012 – 31/03/2015
Total
PRACE AISBL
Leibniz Supercomputing Centre (LRZ)
Barcelona Supercomputing Center (BSC)
French Alternative Energies and Atomic Energy
Commission (CEA)
National Center for Scientific Research (CNRS)
GENCI
German Research School for Simulation Sciences (GRS)
French Institute for Research in Computer Science and Control (INRIA)
Jülich Supercomputing Centre (JÜLICH)
National Supercomputing and e-Science Support Center in the Netherlands (SARA)
Science and Technology Facilities Council
(STFC)
University of Bristol
School of Mathematics at the University of Edinburgh
University of Manchester
Department of Innovation Engineering (DII) of
the University of Salento
French National Research Agency (ANR)
Moscow State University
CAPS Entreprise
German Aerospace Center (DLR)
Électricité de France (EDF)
14
Forschung und Projekte
Intel
Numerical Algorithms Group (NAG)
UK Campus
Ter@tec
Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU)
Finnish IT Center for Science (CSC)
Technische Universität Dresden
German Climate Computing Centre (DKRZ)
CINECA
European Centre for Research and Advanced
Training in Scientific Computing (CERFACS)
Contact person
Dr. Michael Ott
Funding agency
European Commission FP7
Website
http://www.eesi-project.eu/pages/menu/project.php
Jahresbericht 2014 des Leibniz-Rechenzentrums
15
2.4.4 European Grid Infrastructure (EGI-InSPIRE)
The EU project EGI-InSPIRE establishes a sustainable European Grid Infrastructure (EGI). EGI provides access to high-throughput computing resources with the
use of grid and cloud computing techniques. EGI is linking research computing centres all over Europe to provide respective computing resources to a broad range of
scientific areas.
In EGI the LRZ acts as the competence centre for the grid middleware Globus. It provides 2nd and 3rd
level support to all EGI sites with a Globus installation as well as researchers using Globus software.
Highlights in 2014
In 2014 Germany decided to leave the EGI. Therefore, the German participation in the support effort was
greatly reduced. However, this process went along with further negotiations about a reorientation of EGI
in general which opened a pathway for Germany to rejoin EGI in 2015.
A webinar for the usage of Grid-Software Gsissh-Term was presented. This webinar can be viewed
online via YouTube: https://www.youtube.com/watch?v=YkxEYIjZww4
Fast Facts
Project duration
Partner institutions
1.5.2010 – 30.4.2014
EGI.eu
CERN
EMBL
37 European scientific institutions representing
the respective national grid infrastructures
9 partners from the Asia-Pasific area
Contact person
Dr. Helmut Heller
Funding agency
European Commission
Website
https://www.egi.eu/about/egi-inspire/
16
Forschung und Projekte
2.4.5 Ein flexibles Framework zur Energie- und Performanceanalyse
hochparalleler Applikationen im Rechenzentrum (FEPA)
Das Ziel von FEPA ist die Realisierung einer Monitoringssoftware zur systematischen Effizienzanalyse
von Applikationen in Abhängigkeit von den Charakteristiken großer HPC-Systemen. Neben der gezielten
Optimierung bezüglich Performance und Energieverbrauch von Applikationen sollen im Projekt
Erkenntnisse gewonnen werden, die eine Senkung des Energieverbrauchs durch angepasste
Ausführungs-Modalitäten (Frequenzanpassung, Nutzung weniger Kerne/Sockel, etc.) bei vertretbaren
Laufzeit-Zugeständnissen ermöglichen. Die Voraussetzungen dazu bilden unter anderem die
entwickelten Monitoring-Systeme aus den Vorgängerprojekten ISAR und TIMaCS und entwicklen ein
integriertes Monitoring Tool. Ein weiteres Ziel des FEPA-Projekts ist die Umsetzung eines PerformanceEngineering-Prozesses. Im Rahmen dieses Projektes soll u.a. das am LRZ eingesetzte Monitoring-Tool
„PerSyst“ weiterentwickelt werden.
Der Energieverbrauch eines HPC-Systems hängt von der Kühlungsinfrastruktur, sowie von den Eigenschaften der genutzten Applikationen (z. B. Art und Intensität der Nutzung von Instruktionen, Caches
und Hauptspeicher) ab. Für eine kombinierte Performance- und Energieverbrauch -Optimierung der
Applikationen müssen deren Entwickler Hintergrundwissen über die verwendeten Architekturen und
Möglichkeiten der Energieoptimierung erwerben und anwenden. Um die Anwender bei diesen Optimierung zu unterstützen und allgemein die Energie- und Performance-Effizienz des HPC-Systems zu verbessern, benötigen Rechenzentren (wie das LRZ) geeignete Monitoring-Systeme, die den Administratoren, Benutzern und den Mitarbeitern der Applikationsunterstützung jeweils die nötigen Informationen
liefern.
Das im LRZ eingesetzte Monitoring-Tool PerSyst realisiert eine systemweite Performance-Überwachung
und korreliert deren Ergebnisse mit den auf dem HPC-System laufenden Applikationen. Die gewonnenen PerSyst-Daten sind durch eine Weboberfläche, die am LRZ entwickelt wurde, zugänglich.
Highlights in 2014
Roll-Out der GUI für die Visualisierung der Performance Daten.
Konzeption und Implementierung sogenannter Strategy-Maps für die automatische Analyse.
Konferenzen & Veranstaltungen
Energy Days Workshop, “Energy Aware Scheduling” Januar 2014, Garching bei München, Deutschland.
Supercomputing 2014, “The PerSyst Tool”, LRZ Messestand-Vortrag. November 2014, New Orleans,
USA.
Publikationen
Guillen C., Hesse W., Brehm M., The PerSyst Monitoring Tool – A Transport System for PerformanceData Using Quantiles. In Euro-Par 2014: Parallel Processing Workshops - Euro-Par 2014 InternationalWorkshops, Porto, Portugal, August 25-26, 2014, Revised Selected Papers, Part II Lecture Notes in
Computer Science, Springer, 2014
Steckbrief
Projektlaufzeit
Partnerinstitutionen
1.7.2013 – 30.6.2016
Friedrich-Alexander-Universität
Leibniz-Rechenzentrum
NEC Deutschland GmbH
Kontaktperson
Dr. Matthias Brehm
Förderorganisation
BMBF (Call: HPC-Software für skalierbare
Parallelrechner)
Jahresbericht 2014 des Leibniz-Rechenzentrums
17
2.4.6 GÉANT GN3plus
GÉANT is the pan-European data network for the research education community. It interconnects national
research and education networks (NRENs) across
Europe in the Research & Education (R&E) community. GÉANT currently connects over 50 million users
at 10,000 institutions across Europe, enables collaboration on projects ranging from biological science to
earth observation, humanists, and arts. GN3plus is a
project funded by the European Commisson to develop new network functionalities. The project members belong to the European NRENs or the head organization, GÉANT Association.
Highlights in 2014
Identity Management:
Based on the definition of different core and management workflows and hence derived requirements
the GÉANT-TrustBroker project team designs the core services necessary to fully automate the SAML
metadata exchange between IDPs and SPs. From a user’s point-of-view this component is similar to a
standard Centralized Discovery Service as often seen in SAML- and webservice-based. Additionally,
IDP and SP software has to be extended in order to integrate the exchanged SAML metadata and attribute conversion rules shared by other IDP administrators automatically.
Abbildung 8: GÉANT-TrustBroker-Workflow nach der DAME-Protokollspezifikation
For the user-initiated GNTB core workflow, as seen in above figure, the Dynamic Automated Metadata
Exchange (DAME) protocol was specified and submitted as an Internet-Draft (I-D) to the Internet Engineering Task Force (IETF) for standardization and presented at the 90th IETF meeting held in Toronto
as well as at the European Workshop on Identity and Trust in Vienna. To demonstrate the functionality
of the GNTB core service and the workflows, a proof-of-concept was implemented in LRZ’s Shibboleth
testbed.
If an employee wants to change his affiliation but is going to continue using a service as part of his
research, he might want to link his first account to a neutral second account in order to still have access
to the service and his data. There are two options to link an account: Either a central service is used or
the linking is done on the service provider side.
For a central account linking, the architecture was designed, i.e., a database was created for the account
information in JRA3. A service provider in the backend of the central service requests the user information from the user’s identity provider. This user information is needed for link establishment. The service provider, based on the Python implementation of SAML PySAML2, can handle requests in SAML
18
Forschung und Projekte
(used in R&E) and OpenID Connect (used in industry). Furthermore, the frontend of the linking service
was created.
Abbildung 9: SP-side account linking with ORCID
For the account linking at the SP side, a linking service based on the SAML implementation SimpleSAMLphp was designed. It can link SAML account information with account information from ORCID,
a unique registry for researchers, as shown in the figure. This SP-side account linking service can easiliy
be expanded for use cases with OpenID Connect.
Network and Service Management:
Originally showcased at the Symposium 2013, CMon has received a lot of positive feedback from potential users. In 2014 CMon interfaced with the automatic provisioning system AutoBAHN (AB) to automatically monitor dynamic circuits. Several installations at different NRENs are currently in test operation
and aim to go productive in 2015. The roadmap for 2015 focuses on the integration with perfSonar (for
monitoring data) as well as perfSonar UI.
Another service of GÉANT, which needs to be monitored, is the Multi-Domain VPN (MDVPN). Not only
the link state is important, but also connection quality according to service level agreements. LRZ proposed to adapt and extend the well-known open-source monitoring tool Nagios in order to fullfill all the
requirements needed for service quality monitoring (SQM) in SA4. Near the end of 2014, a working
prototype was presented by LRZ, which received very positive feedback from the other project members.
Cloud Services:
In SA7, where LRZ became a new participant at the end of 2014, LRZ started the creation of specific
documents relative to the role a NREN will take, e.g., cloud service provider or broker, as well as the
compilation of the relevant standards oriented on the cloud service's lifecycle to better support NRENs
in different phases.
Events and Conferences
TF-EMC2, GÉANT-TrustBroker project overview, 11/02/2014, Zurich (Switzerland)
FIM4R, GÉANT-TrustBroker, 24/04/2014, Frascati (Italy)
TNC2014, GÉANT TrustBroker: Dynamic inter-federation identity management, 19/05/2014, Dublin
(Ireland)
IFIP SEC 2014, Géant–TrustBroker: Dynamic, Scalable Management of SAML–Based Inter–federation
Authentication and Authorization Infrastructures, 03/06/2014, Marrakech (Marocco)
EUNIS 2014, Géant-TrustBroker: Simplifying Identity & Access Management for International Research Projects and Higher Education Communities, 13/06/2014, Umea (Sweden)
IARIA INFOCOMP 2014, A SAML Metadata Broker for Dynamic Federations and Inter-Federations,
24/07/2014, Paris (France)
90th IETF meeting, Integration of Dynamic Automated Metadata Exchange into SAML 2.0 Web
Browser SSO Profile, 20-25 July 2014, Toronto (Canada)
European Workshop on Identity and Trust, Round table about GÉANT-TrustBroker and Internet-Draft
DAME, 04/12/2014, Vienna (Austria)
Jahresbericht 2014 des Leibniz-Rechenzentrums
19
Project Meeting of JRA3 with presentations, 29-30 April 2014, Stockholm, Sweden
Project Meeting of JRA3 with presentations, 25-26 November 2014, Rome, Italy
CMon Team Meeting at LRZ, 3-5 December 2014, Garching, Germany
GÉANT Secure Code Training, 28-31 October 2104, Berlin, Germany
GÉANT Summer School for Developers, 23-26 September 2014, Poznań, Poland
Publications
Pöhn, D., Metzger, S., Hommel, W., Project GÉANT-TrustBroker – Dynamic Identity Management
across Federation Borders, In: Networking with the World, The 30th Trans European Research and
Education Networking Conference - Selected Papers, Dublin, Ireland, May, 2014.
Pöhn, D., Metzger, S., Hommel, W., GÉANT –TrustBroker: Dynamic, Scalable Management of SAML–
Based Inter–federation Authentication and Authorization Infrastructures, In: ICT Systems Security and
Privacy Protection, 428, S. 307–320, Springer, Berlin; Heidelberg, Deutschland, June, 2014.
Pöhn, D., Metzger, S., Hommel, W., GÉANT -TrustBroker: Simplifying Identity & Access Management
for International Research Projects and Higher Education Communities, In: Proceedings of the 20th
congress of the European University Information Systems Organisation (EUNIS 2014), Umea, Sweden,
June, 2014.
Pöhn, D., Metzger, S., Hommel, W., A SAML Metadata Broker for Dynamic Federations and Inter-Federations, In: Proceedings of INFOCOMP 2014 the Fourth International Conference on Advanced Communications and Computation, S. 132-137, Paris, France, July, 2014.
Fast Facts
Project duration
Partner institutions
24/10/2013 – 31/03/2015
01/04/2013 – 30/04/2015
Leibniz Supercomputing Centre
Contact person
PD Dr. Wolfgang Hommel
Funding agency
European Commission FP7
Website
www.geant.net
TERENA/GÉANT Association
NORDUnet
SURFnet
Leibniz Supercomputing Centre / DFN
GARR
PSNC
20
Forschung und Projekte
2.4.7 Intel® Parallel Computing Center (IPCC)
Intel® Parallel Computing Centers,
as described by Intel, are universities, institutions, and labs that are
leaders in their fields, focusing on
modernising applications to increase
parallelisation efficiency and scalability through optimisations that leverage cores, caches, threads, and vector capabilities of microprocessors and coprocessors of Intel. The
main target architecures for these centres are the Intel MIC (many integrated cores), the Intel Xeon Phi
coprocessor.
The IPCC at LRZ and Technische Universität München (TUM) is geared up to optimise four different
acclaimed applications from different areas of science and engineering: earthquake simulation and seismic wave propagation with SeisSol, simulation of cosmological structure formation using Gadget, the
molecular dynamics code ls1 mardyn developed for applications in chemical engineering, and the software framework SG++ to tackle high-dimensional problems in data mining or financial mathematics (using sparse grids). All these codes have already demonstrated very high scalability on SuperMUC (even
up to petascale), but are in different stages of developement with respect to running on the Intel MIC
architecture. While particularly targeting Xeon Phi coprocessors, the project simultaneously tackles fundamental challenges that are relevant for most supercomputing architectures – such as parallelism on
multiple levels (nodes, cores, hardware threads per core, data parallelism) or compute cores that offer
strong SIMD capabilities with increasing vector width, e.g. Intel Haswell architecture.
Within this project, LRZ contributes on optimising Gadget, a numerical simulation code for cosmological
structure formation, for the Intel Haswell and the MIC architectures. Gadget has already established itself
as a community code and been already scaled efficiently on the entire SuperMUC but Xeon Phi was
basically an “unknown territory”; no MIC version of Gadget existed at the project start. This will bring the
opportunity to sqeeze out best possible performance with such a code from the SuperMUC-Haswell
extension or the SuperMUC successor.
The far-reaching goal is to establish a model process and collection of experiences as well as best
practices for similar codes in the computational sciences. All successful code optimizations and improvements will be integrated in the regular software releases of the four research codes.
Highlights in 2014
Hosted and organised the Intel Xeon Phi Workshop at LRZ for all HPC users in Oct. 2014.
Participated and presented first results in the EMEA IPCC User Forum Meeting in Berlin.
Successfully finished all the scheduled work packages for the first year.
Showcased the outcomes together with other partners to Intel.
Events and Conferences
Intel Xeon Phi Workshop hosted and organized by LRZ, open to all LRZ users, Oct. 2014
International Supercomputing Conference, ISC 2014, June 2014, Leipzig, Germany
EMEA IPCC User Forum Conference, Berlin, September 2014.
SC'14 LRZ booth, New Orleans, November 2014.
Publications
V. Karakasis, L. Iapichino, N. J. Hammer, A. Karmakar, K. Dolag: First steps towards optimising the
Gadget cosmological simulation code for massively parallel architectures. Poster to be presented at the
International Exascale Applications and Software Conference (EASC 2015), Edinburgh, April 2015.
Jahresbericht 2014 des Leibniz-Rechenzentrums
21
Fast Facts
Project duration
Partner institutions
23/07/2014 – 22/07/2016
Technische Universität München
Leibniz Supercomputing Centre
Intel (funding partner)
Contact person
Astro Lab (astrolab@lists.lrz.de)
Funding agency
Intel Inc.
Website
https://software.intel.com/en-us/ipcc
22
Forschung und Projekte
2.4.8 Software-Initiative des KONWIHR
Die Software-Initiative des Kompetenznetzwerks für technisch-wissenschaftliches Hoch- und Höchstleistungsrechnen in Bayern zielt darauf ab,
in enger Zusammenarbeit zwischen Forschungsgruppen und Rechenzentren, die effiziente Nutzung von HPC-Ressourcen durch die Anwendungswissenschaftler zu verbessern. Zudem sollen die Rechenressourcen auch für Forschergruppen ohne fundierte HPC-Kenntnisse
zugänglicher und leichter nutzbar werden. Zur Bearbeitung der einzelnen Projekte arbeitet ein Mitarbeiter der Partnerorganisation zu halber Arbeitszeit am LRZ, wobei aufkommende Probleme in einem wöchentlichen Treffen mit LRZ-Mitarbeitern diskutiert und Lösungsansätze entwickelt werden. In diesem
Jahr werden am LRZ drei Projekte aus den Lebenswissenschaften gefördert.
Projektpartner sind Prof. Rost der TU München und PD Dr. Ege vom Haunerschen Kinderspital des
Klinikum der der Ludwig-Maximilians-Universität München und PD Dr. Gerald Mathias von der LudwigMaximilians-Universität München.
Implementierung hochparalleler Rechenverfahren zur Datenreduktion in der Mikrobiomanalyse
Der Hintergrund dieses KONWIHR-Projekts ist das EU-Projekt HERA (Host-environment interactions in
the protection from asthma and allergies), welches Umwelteinflüsse auf die Herausbildung von Asthmaerkrankungen und Allergien im Kindesalter untersucht. Hierbei wird das Metagenom, also die Gesamtheit der genomischen Information der Mikroorganismen der Kinder, mittels einer DNA-Analyse erhoben
und dessen Einfluss auf die Entstehung von Asthmaerkrankungen untersucht. Die für eine solche Metagenomanalyse notwendigen Programme wurden in der Toolbox QIIME („quantitative insights into
microbial ecology“) zusammengefasst. Das Ziel des Projekts besteht in der Portierung sämtlicher Anwendungen von QIIME auf die Rechenressourcen am LRZ sowie der Anbindung der Rechensysteme
an gängige Workflowtools wie Taverna oder Galaxy.
Implementierung von Workflows aus der Bioinformatikauf auf den Rechensystemen des LRZ am
Beispiel von Sequenzvariantenanalysen
Es sollen Workflows zur Sequenzvariantenanalyse auf den Rechensystemen am LRZ implementiert
werden. Der Fokus liegt dabei auf der Anwendung PredictProteine, die vom Rostlab bereits seit dem
Jahr 1992 als Webservice angeboten wird. Der Webservice legt dabei alle bisher berechneten Ergbenisse in einerm großen Datenarchiv ab. Auf diesem Datenarchiv sollen nun Metaanalysen auf den HPCSystemen des LRZ durchgeführt werden.
Iphigenie
Das dritte Projekt Iphigenie hat die Skalierbarkeit und Last-Balancierung des gleichnamigen MolekularDynamik-Codes zum Ziel. Ebenso wird der Einsatz von Intel Xeon Phi Beschleuniger-Karten evaluiert.
Der Code erlaubt bereits die Kopplung von molekularmechanischen und quantenchemischen Simulationen auf vielen Rechenknoten des SuperMUC.
Highlights in 2014
Kickoff-Meeting, 29.10.2014
Steckbrief
Projektlaufzeit
Partnerinstitutionen
1.11.2014 – 31.10.2015
Kontaktperson
Kinderklinik und Kinderpoliklinik im
Dr. von Haunerschen Kinderspital
Dr. Christoph Bernau, Dr. Helmut Satzger
Ludwig-Maximilians-Universität München
Leibniz-Rechenzentrum
Förderorganisation
Bayerische Forschungsallianz (Kompetenznetzwerk für technisch-wissenschaftliches Hoch- und
Höchstleistungsrechnen in Bayern)
Jahresbericht 2014 des Leibniz-Rechenzentrums
Website
bayfor.org/konwihr, genomezentral.srv.lrz.de,
www.predictprotein.org
23
24
Forschung und Projekte
2.4.9 Mont-Blanc & Mont-Blanc 2
Energy efficiency is already a primary concern for the design of any computer system and it is unanimously recognized that future Exascale systems will be strongly constrained by their power consumption.
Since October 2011, the aim of the European project called Mont-Blanc
has been to design a new type of computer architecture capable of setting
future global HPC standards, built from energy efficient solutions used in
embedded and mobile devices. This project is coordinated by the Barcelona Supercomputing Center
(BSC) and has a budget of over 14 million, including over 8 million Euros funded by the European Commission. Two years later, the European Commission granted additional 8 million Euro funds to extend
the Mont-Blanc project activities in the project Mont-Blanc 2 until September 2016.
This three year extension will enable further development of the OmpSs parallel programming model to
automatically exploit multiple cluster nodes, transparent application check pointing for fault tolerance,
support for ARMv8 64-bit processors, and the initial design of the Mont-Blanc Exascale architecture.
Improving the energy efficiency of future supercomputers is one of LRZ’s main research goals. Also,
Hardware prototyping of novel architectures has proven to be successful for the technology watch preceding the selection of large supercomputers. Yet, advances in hardware are only justified if the need
for programmability and thus the productivity of application development is still satisfied. Therefore,
LRZ’s contribution to Mont-Blanc is twofold: application experts successfully ported BQCD, an application from the field of quantum chromodynamics to the new system and analysed the productivity of the
platform based on ARM processor technology and the OmpSs programming model compared to traditional computer architectures and programming models. On the hardware side, LRZ’s computer architecture experts are responsible for system monitoring. In particular the fine-grained power measurements of the Mont-Blanc system require additional scalability of the system monitoring which the LRZdeveloped monitoring solution provides.
Highlights in 2014
Bring-up the first Mont-Blanc prototype hardware at the Barcelona Supercomputing Centre
Presentation of the project at the two major interanational supercomputing conferences (ISC and SC)
as part of the joint “European Exascale Projects” booth in the exhibition area.
Events and Conferences
7th Workshop on UnConventional High Performance Computing Keynote, “High Performance Computing on ARM Hardware – The Mont-Blanc Project”, August 26, 2014, Porto, Portugal
Fast Facts
Project duration
Partner institutions
1/10/2011 – 30/06/2015 (Mont-Blanc)
1/10/2013 – 30/09/2016 (Mont-Blanc 2)
Bull
ARM
Allinea
Jülich Supercomputing Centre
GENCI
CNRS
CINECA
Barcelona Supercomputing Center
University of Bristol
CEA
INRIA
HLRS
Universidad de Cantabria
Contact person
Axel Auweter
Funding agency
European Commission FP7
Website
www.montblanc-project.eu
Jahresbericht 2014 des Leibniz-Rechenzentrums
2.4.10
25
Mr. SymBioMath
The project High Performance, Cloud and Symbolic Computing in Big-Data
Problems applied to Mathematical Modeling of Comparative Genomics
(Mr.SymBioMath) links different research domains coming up with a coordinated multi-disciplinary approach for the development of tools targeting BigData and computationally intensive scientific applications. Generic solutions for
Big-Data storage, management, distribution, processing and final analysis will
be developed. While these solutions target a broad range of scientific applications, as a concrete proof-of-concept they will be implemented in the Comparative Genomics field of bioinformatics and biomedical domains.
All of these applications are well suited to apply high-performance and cloud computing approaches and
present a high potential for commercialisation. Visualization techniques for different output devices ranging
from from Virtual Reality environments to mobile devices will be developed to enhance the human understanding of the result data sets.
Publications
Tukora B., C. Anthes, P. Heinzlreiter, D. Kranzlmüller, Large-scale Dynamic Visualization of Multiple Comparative Genomic Data. Poster in: Proceedings of the IEEE Information Visualization Conference (InfoVIs
'14), Paris, France, November 2014
Fast Facts
Project duration
Partner institutions
1/02/2013 – 31/1/2017
University of Malaga
RISC Software GmbH
Johannes Kepler University Linz
Integromics S.L.
Servicio Andaluz de Salud – Hospital Carlos Haya
of Spain
Leibniz-Rechenzentrum
Contact person
Dr. Christoph Anthes
Funding agency
European Commission Industry-Academia Partnerships and Pathways (IAPP)
Website
http://www.mrsymbiomath.eu/
26
Forschung und Projekte
2.4.11 PRACE Second Implementation Phase Project (PRACE-2IP)
The purpose of the PRACE Research Infrastructure is to provide a sustainable high-quality infrastructure for Europe that can meet the most demanding needs of European HPC user communities through the provision of user
access to the most powerful HPC systems available worldwide at any given
time. In tandem with access to Tier-0 systems, the PRACE project will foster the coordination between national HPC resources (Tier-1 systems) to
best meet the needs of the European HPC user community.
To ensure that European scientific and engineering communities have access to leading edge supercomputers in the future, the PRACE-2IP project evaluates novel architectures, technologies, systems,
and software. Optimizing and scaling of applications for Tier-0 and Tier-1 systems is a core service of
PRACE.
PRACE-2IP is organised in twelve interrelated Work Packages that produce the project results in parallel. To structure the work they are grouped in four pillars: Tier-1 integration, Technology & Industry,
Applications and Training and Dissemination. Actions directly visible to the users of PRACE include
regular training events, scientific conferences and publishing a PRACE magazine focusing on the results
from Tier-0 and Tier-1 projects. A special focus will be on the establishment of PRACE Advanced Training Centres (PATC) in Europe.
With its expertise from previous PRACE projects, LRZ lead WP11 “Prototyping” and the Technology &
Industry Pillar, and contributed to WP2 “Framework for Resource Interchange”, WP6 “European HPC
Infrastructure Operation and Evolution“, WP7 “Scaling Applications for Tier-0 and Tier-1 Users”, and
WP10 “Advancing the Operational Infrastructure” in PRACE 2IP.
Highlights in 2014
During the final project review of the PRACE 2IP project the European Commision attested ‘excellent’ work to WP11.
Publications
Torsten Wilde, Axel Auweter, Michael K. Patterson, Hayk Shoukourian, Herbert Huber, Arndt
Bode,Detlef Labrenz, Carlo Cavazzoni: DWPE, A New Data Center Energy-Efficiency Metric Bridging
the Gap Between Infrastructure and Workload; In Proceedings of 2014 International Conference on High
Performance Computing & Simulation (HPCS 2014), July 2014, p.893 – 901; ISBN: 978-1-4799-5311-0
Hayk Shoukourian, Torsten Wilde, Axel Auweter, Arndt Bode: Monitoring Power Data: A first step towards a unified energy efficiency evaluation toolset for HPC data centers; in Elsevier Environmental
Modelling & Software (Thematic issue on Modelling and evaluating the sustainability of smart solutions), Volume 56, June 2014, Pages 13–26; DOI: http://dx.doi.org/10.1016/j.envsoft.2013.11.011
Fast Facts
Project duration
01/09/2011 – 31/08/2014
Contact person
Torsten Wilde
Funding agency
Partner institutions
FZJ – Forschungszentrum Jülich GmbH (Germany, Coordinator)
GCS – Gauss Centre for Supercomputing
(GCS) e.V. (Germany)
GENCI – Grand Equipement National de Calcul Intensif (France)
Jahresbericht 2014 des Leibniz-Rechenzentrums
European Commission FP7
Website
http://www.prace-ri.eu/prace-2ip/
27
EPSRC – The Engineering and Physical Sciences Research Council (United Kingdom)
BSC – Barcelona Supercomputing Center –
Centro Nacional de Supercomputacion
(Spain)
CSC-Tieteellinen Laskenta OY (Finland)
ETHZ – Eidgenössische Technische Hochschule Zuerich (Switzerland)
NCF – Stichting Nationale Computerfaciliteiten (The Netherlands)
JKU – Johannes Kepler Universitaet Linz
(Austria)
SNIC – Vetenskapsradet (Sweden)
CINECA Consorzio Interuniversitario (Italy)
PSNC – Instytut Chemii Bioorganicznej Pan
WPoznaniu (Poland)
SIGMA – UNINETT AS (Norway)
GRNET – Greek Research and Technology
Network S.A. (Greece)
UC-LCA – Faculdade de Ciencias e Tecnologia da Universidade de Coimbra (Portugal)
NUI Galway – National University of Ireland,Galway (Ireland)
UYBHM – Istanbul Technical University,Ayazaga Campus (Turkey)
CaSToRC – The Cyprus Institute (Cyprus)
NCSA – National Centre for Supercomputing
Applications (Bulgaria)
VSC-TUO – VSB – Technical University of
Ostrava (Czech Republic)
IPB – Institute of Physics Belgrade (Serbia)
NIIF – Nemetzi Informacios Infrasrtuctura
Fejesztese Intezet (Hungary)
28
Forschung und Projekte
2.4.12 PRACE Third Implementation Phase Project (PRACE-3IP)
The purpose of the PRACE Research Infrastructure is to provide a sustainable high-quality infrastructure for Europe that can meet the most demanding needs of European HPC user communities through the provision of user access to the most powerful HPC systems available worldwide at any given time. In tandem with access to Tier-0 systems, the
PRACE project will foster the coordination between national HPC resources (Tier-1 systems) to best meet the needs of the European HPC
user community
PRACE-3IP is designed to continue, extend and complement the previous and on-going work in the
implementation phase of the PRACE Research Infrastructure. This involves providing a long-term,
high-quality infrastructure for European Tier-0 systems, managing the coordination between the
shared portion of the national HPC resources (Tier-1 systems), and strengthening the established
relationships with industrial users. PRACE-3IP will add a new key activity to the PRACE RI: the use
of Pre-Commercial Procurement (PCP).The following four activities are central to PRACE-3IP:
•
Pre-Commercial Procurement: Pilot exercise for a joint procurement and joint ownership of
innovative HPC prototypes, focusing on high-energy efficiency.
•
Deployment of HPC services for European industry: Proposes a broad set of services suitable for use by industry, including access to HPC resources, knowledge transfer through application support, training and expertise.
•
Application scaling and support to address major socio-economic challenges: Tackles major socio-economic challenges and the use of simulation and modelling to deal with them.
•
Training and outreach for growth: Establishes broad training and outreach activities specifically designed to engage more user communities, including industry, in the use of HPC systems.
The work of PRACE-3IP and its objectives are structured into eight Work Packages that address the
requirements of the European HPC ecosystemRZ contributed to WP2 “Policies and Procedures”,
WP6 “Operation of the Distributed Research Infrastructure”, and WP7 “Application Enabling and
Support”.
Highlights in 2014
In 2014 the following reports were prepared:
Final Report on Applications Enabling (http://www.prace-ri.eu/IMG/pdf/d7.1.2_3ip.pdf)
Second Annual Technology Report (http://www.prace-ri.eu/IMG/pdf/d6.3.2_3ip.pdf )
Second Annual Operations Report (http://www.prace-ri.eu/IMG/pdf/d6.1.2_3ip.pdf )
Fast Facts
Project duration
01/07/2012 – 31/012015
Contact person
Torsten Wilde
Partner institutions
FZJ – Forschungszentrum Jülich GmbH (Germany, Coordinator)
GCS – Gauss Centre for Supercomputing
(GCS) e.V. (Germany)
Jahresbericht 2014 des Leibniz-Rechenzentrums
Funding agency
European Commission FP7
Website
http://www.prace-ri.eu/prace-3ip/
29
GENCI – Grand Equipement National de Calcul Intensif (France)
EPSRC – The Engineering and Physical Sciences Research Council (United Kingdom)
BSC – Barcelona Supercomputing Center –
Centro Nacional de Supercomputacion
(Spain)
CSC-Tieteellinen Laskenta OY (Finland)
ETHZ – Eidgenössische Technische Hochschule Zuerich (Switzerland)
NCF – Stichting Nationale Computerfaciliteiten (The Netherlands)
JKU – Johannes Kepler Universitaet Linz
(Austria)
SNIC – Vetenskapsradet (Sweden)
CINECA Consorzio Interuniversitario (Italy)
PSNC – Instytut Chemii Bioorganicznej Pan
WPoznaniu (Poland)
SIGMA – UNINETT AS (Norway)
GRNET – Greek Research and Technology
Network S.A. (Greece)
UC-LCA – Faculdade de Ciencias e Tecnologia da Universidade de Coimbra (Portugal)
NUI Galway – National University of Ireland,Galway (Ireland)
UYBHM – Istanbul Technical University,Ayazaga Campus (Turkey)
CaSToRC – The Cyprus Institute (Cyprus)
NCSA – National Centre for Supercomputing
Applications (Bulgaria)
VSC-TUO – VSB – Technical University of
Ostrava (Czech Republic)
IPB – Institute of Physics Belgrade (Serbia)
NIIF – Nemetzi Informacios Infrasrtuctura
Fejesztese Intezet (Hungary)
UCPH – Københavns Universitet (Denmark)
IUCC – Inter University Computation Center
(Israel)
PRACE – Partnership for Advanced Computing in Europe AISBL (Belgium)
ULFME – University of Ljubljana, Faculty of
Mechanical Engineering (Slovenia)
30
Forschung und Projekte
2.4.13 Safe And Secure European Routing (SASER)
Der Betrieb komplexer Netzinfrastrukturen, die aus Tausenden einzelner aktiver Netzkomponenten bestehen, ist ohne dedizierte Werkzeuge
für das Netzmanagement undenkbar. Heutige Netzmanagement-Plattformen beschränken sich auf funktionale Eigenschaften der Netzinfrastruktur wie Bandbreitenmanagement, Hardware-Störungslokalisierung
und Netzkomponenten-Konfiguration. Eine dedizierte Behandlung von
Sicherheitseigenschaften, wie sie im Rahmen von SASER möglich wird,
kann mit bestehender Netzmanagement-Software nicht erreicht werden.
In dem vom Leibniz-Rechenzentrum bearbeiteten Teilprojekt von SASER sollen deshalb Konzepte und
Implementierungen erarbeitet werden, um bestehende Netzmanagement-Plattformen an die durch
SASER geschaffene, sicherheitsorientierte Netzinfrastruktur anzupassen. Die konkreten Themenbereiche umfassen:
•
•
•
Erweiterung der technischen Schnittstellen zwischen zentralen Netzmanagement-Plattformen
und Netzkomponenten um das Monitoring und die Steuerung von Sicherheitsparametern.
Konzepte und Algorithmen für die dynamische Steuerung dieser Sicherheitsparameter unter Berücksichtigung der ermittelten aktuellen Bedrohungslage und der zu erreichenden Zielsetzungen.
Erfassung von sicherheitsrelevanten Kennzahlen und Aufbereiten der aktuellen Sicherheitslage
zu Sicherheitsberichten.
Highlights in 2014
Im Jahr 2014 wurden das Teilprojekt TP-2 („Umsetzung der dynamischen Steuerungsalgorithmen“) erfolgreich abgeschlossen und das Teilprojekt TP-3 („Security-Monitoring und Security-Reporting“) gestartet. TP-2 umfasst die Unterstützung sicherheitsspezifischer Randbedingungen bei der dynamischen
Steuerung von Netzinfrastrukturen im praktischen Betrieb; hierzu gehört zum einen die Korrelation von
klassischen Netzmanagement-Events (z.B. Ausfälle von Komponenten, Bandbreitenengpässe, weitere
Quality-of-Service-Verletzungen usw.) mit Sicherheitsmeldungen aus zusätzlichen Quellen, beispielsweise den von Intrusion Detection Systemen gelieferten Informationen über mit einer gewissen Wahrscheinlichkeit zuverlässig erkannte Angriffe. Zum anderen müssen Zielvorgaben berücksichtigt werden,
die sich beispielsweise aus Verträgen zwischen Netzbetreiber und Kunden (Service Level Agreements),
in die neben herkömmlichen Quality-of-Service-Parametern wie Bandbreiten-Garantien und Maximallatenzzeiten auch neue, sicherheitsspezifische Parameter aufgenommen wurden.
In Rahmen der Vorbereitung der Live-Demonstration zum SASER-Mid-Term-Review wurden einige weitere funktionale Anforderungen identifiziert und Schnittstellenabsprachen getroffen, die erfolgreich implementiert werden konnten. Darunter fallen insbesondere Managementfunktionen, wie beispielsweise
das manuelle Erzeugen, Umbenennen und Einsortieren weiterer Netzelemente. Weiterhin wurde die
Integration von Security-Meldungen vorangetrieben. In TP-1 wurde definiert, dass Sicherheitsmeldungen im standardisierten XML-Format IDMEF vorliegen sollen. Um solche Security-Meldungen nutzbar
zu machen und den Administratoren grafisch aufbereitet anzuzeigen, wurde eine IDMEF-Unterstützung
entwickelt. Dies ermöglicht Administratoren, Zusammenhänge zwischen Netzverkehranomalien und
Security-Events zu erkennen, um geeignet darauf reagieren zu können, da viele Security-Events Auswirkungen auf die klassischen Kennzahlen des Netzmanagements (wie beispielsweise Bandbreite oder
Datendurchsatz) haben; umgekehrt haben aber auch Netzprobleme oftmals Einfluss auf das Sicherheitsziel „Verfügbarkeit“. Ein Proof-of-Concept der implementierten Konzepte konnte in der Live-Demo
(Demo 5) im Rahmen des SASER-Mid-Term-Reviews präsentiert werden. Das Feedback zum Demonstrator war durchwegs positiv und konstruktiv.
TP-3 umfasst das Monitoring und Reporting von Security-Events, wobei es wichtig ist, dass die Informationen nutzbar für die Administratoren aufbereitet werden, was insbesondere Trendanalysen, Visualisierungen und Schaubilder umfasst. In diesem Teilprojekt wurde intensiv mit der TU München und der FH
Potsdam zusammengearbeitet; gegen Ende 2014 wurde damit begonnen, eine enge Zusammenarbeit
mit den finnischen Partnern von VTT zu etablieren, welche in einen gemeinsamen Demonstrator fließen
soll. Bei der Kooperation mit der FH Potsdam und der TU München wurde initial festgelegt, dass im
besonderen Fokus Amplification Attacken stehen sollen, da diese sowohl auf die Sicherheit als auch auf
die Stabilität der Netze großen Einfluss haben können. Daher wurden zum einen Konzepte entwickelt,
mit denen man zuverlässig Amplification Angriffe erkennen kann. Die Ergebnisse dieser Arbeiten werden
Jahresbericht 2014 des Leibniz-Rechenzentrums
31
2015 auf zwei wissenschaftlichen Konferenzen vorgestellt. Zum anderen mussten Visualisierungen konzipiert werden, die dazu beitragen, die Erkennung durch die zuständigen Administratoren zu verbessern
oder erst zu ermöglichen.
Konferenzen & Veranstaltungen
Workshop: „Software Defined Networking – Wie SDN die Welt verändern wird“, 22.01.2014, München
21. DFN Workshop „Sicherheit in vernetzten Systemen“, 18.–19.02.2014, Hamburg (eigener Vortrag;
Titel: Security Knowledge Management auf Basis einer Dokumentenvorlage für Sicherheitskonzepte)
Workshop Trusted Cloud, 02.–03.06.2014, Berlin
7. DFN-Forum Kommunikationstechnologien, 16.–17.06.2014, Hamburg (eigener Vortrag; Titel: Herausforderungen und Anforderungen für ein organisationsweites Notfall-Passwortmanagement)
SASER Mid-Term-Review, 24.–25.06.2014, Berlin (projektintern)
SASER Data Visualization Workshop, 03.09.2014, Potsdam (projektintern)
CELTIC-Plus Flagship Preparation Meeting, 07.–08.10.2014, Stuttgart
Planungstreffen für eine finnisch-deutsche SASER-Demo, 26.–28.11.2014, Oulu, Finnland (projektintern)
Eigene Publikationen
Hommel, Wolfgang, Stefan Metzger, Daniela Pöhn und Felix von Eye: Improving higher education network security by automating scan result evaluation with Dr. Portscan. In: Sukovskis, Uldis (Herausgeber):
ICT Role for Next Generation Universities, EUNIS 2014 – 20th EUNIS Congress, Umea, Schweden, Juni
2014.
Hommel, Wolfgang, Stefan Metzger, Helmut Reiser und Felix von Eye: Security Knowledge Management auf Basis einer Dokumentenvorlage für Sicherheitskonzepte. In: Paulsen, Christian (Herausgeber):
Sicherheit in vernetzten Systemen: 21. DFN Workshop, Seiten B-1–B-19, Norderstedt, Deutschland,
Januar 2014. Books on Demand.
von Eye, Felix, Wolfgang Hommel und Helmut Reiser: Herausforderungen und Anforderungen für ein
organisationsweites Notfall-Passwortmanagement. In: Müller, Paul, Bernhard Neumair, Helmut Reiser
und Gabi Dreo Rodosek (Herausgeber): 7. DFN-Forum Kommunikationstechnologien – Beiträge der
Fachtagung, Nummer 231 in GI-Edition – Lecture Notes in Informatics (LNI): Proceedings, Seiten 109–
119, Bonn, Deutschland, Juni 2014. Gesellschaft für Informatik.
von Eye, Felix, Wolfgang Hommel und David Schmitz: A Secure Logging Framework with Focus on
Compliance. In: Savola, Reijo (Herausgeber): International Journal on Advances in Security, Band 7,
Seiten 37–49. IARIA, Dezember 2014. URL: http://www.iariajounals.org/security/sec_v7_n34_2014_
paged.pdf.
Betreute Abschlussarbeiten
Böttger, Timm: Detection of Amplification Attacks in Amplifier Networks. Masterarbeit, Technische Universität München, München, Mai 2014.
Bernhard, Andreas: Netzbasierte Erkennung von Systemen und Diensten zur Verbesserung der IT–Sicherheit. Bachelorarbeit, Ludwig–Maximilians–Universität, München, März 2014.
Bosh, Zoya: Evaluation von Open–Source–Werkzeugen zum Management von Sicherheitsdokumenten.
Bachelorarbeit, Ludwig–Maximilians–Universität, München, Mai 2014.
Peschel, Michael: Webbasiertes Management von Sicherheitskonzepten. Bachelorarbeit, Ludwig–Maximilians–Universität München, München, Juli 2014.
Söhner, Manuel: Privileged User Password Management in Shared Environments. Masterarbeit, Technische Universität München, München, April 2014.
Scherf, Achim: Sicherheitsrisiken durch Spionage ausländischer Nachrichtendienste. Masterarbeit, Ludwig–Maximilians–Universität, München, August 2014.
Simon, Christian: Härtungs– und Sicherheitskonzepte für Web– und Applikationsserver. Masterarbeit,
Ludwig–Maximilians–Universität, München, März 2014.
Tarabai, Omar: A Penetration Testing Framework for the Munich Scientific Network. Interdisziplinäres
Projekt, Technische Universität München, München, Januar 2014.
Wörner, André: Konzeption und Implementierung eines Webfrontends für die mandantenfähige Konfiguration eines Delta–Reporting Portscan–Werkzeugs. Bachelorarbeit, Ludwig–Maximilians–Universität,
München, April 2014.
32
Forschung und Projekte
Steckbrief
Projektlaufzeit
Partnerinstitutionen
01.08.2012 – 31.07.2015
Nokia Solutions and Networks Management International GmbH
Coriant R&D GmbH
Technische Universität Berlin
Technische Universität München
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Fraunhofer Gesellschaft HHI
Ruhr Universität Bochum
Zuse Institut Berlin (ZIB)
Technische Universität Braunschweig
Universität Tübingen
Universität Würzburg
FH Potsdam, IxDS GmbH
Fraunhofer AISEC
Technische Universität Dortmund
Kontaktperson
PD Dr. Wolfgang Hommel
Felix von Eye
Förderorganisation
Bundesministerium für Bildung und Forschung
Website
www.saser.eu
Jahresbericht 2014 des Leibniz-Rechenzentrums
33
2.4.14 Simulation und Optimierung des Energiekreislaufs von Rechenzentrums-Klimatisierungsnetzen unter Berücksichtigung von Supercomputer-Betriebsszenarien (SIMOPEK)
Die Reduzierung des Energieverbrauches und die
Wiederverwendung von Abwärme sind heute wichtige
Themen bei der Konzeption und dem Betrieb von großen
Rechenzentren. Das Hauptziel des vom BMBF
geförderten Vorhabens SIMOPEK ist die ganzheitliche
Betrachtung und Optimierung der Energieeffizienz von
Höchstleistungsrechenzentren.
Erstmalig sollen Methoden und Softwarekomponenten zur Modellierung und Simulation aller
Energiekreisläufe eines Rechenzentrums entwickelt werden, die sowohl ein hochdynamisches
Lastverhalten der Verbraucher als auch neue technische Komponenten und Konzepte zur
Wiederverwertung der erzeugten Abwärme berücksichtigen.
Als konkreter Demonstrator wird im Projekt das Leibniz-Rechenzentrum, genauer die beiden
Höchstleistungsrechner SuperMUC und CooLMUC betrachtet. Diese werden mit "High Temperature
Liquid Cooling" (HTLC) betrieben. Der entsprechende Energiekreislauf wird im Detail untersucht und
optimiert. Im Projekt wird so zum ersten Mal ein Rechenzentrum ganzheitlich betrachtet, nämlich als
Einheit aus seiner Infrastruktur, externen Einflussfaktoren, Rechenzentrumszielen, Betriebsszenarien
und Rechnerverhalten. Einsparungen in Höhe mehrerer Millionen Euro über Fünfjahreszeiträume
(Rechnerlebenszeit) scheinen in der Praxis möglich.
Konzepte zur Übertragbarkeit von Projektergebnissen auf andere Rechenzentren (beispielsweise der
Gauss-Allianz) werden im Projekt gemeinsam erarbeitet. Zudem ist geplant, Weiterentwicklungen von
SIMOPEK auch für die Planung neuer Rechenzentren einzusetzen, wobei insbesondere eine
Berücksichtigung von variablem Lastverhalten der Hochleistungsrechner, von verschiedenen
Kühlungstechnologien sowie von innovativen Konzepten zur Abwärmenutzung ermöglicht werden soll.
Eine Ausweitung auf weitere Anwendungen im Energiemanagement ist ebenfalls geplant. Für eine Reihe
der im Projekt entwickelten Module soll der Quelltext öffentlich zugänglich gemacht werden.
Highlights in 2014
Konferenzen & Veranstaltungen
SIMOPEK Workshop, ISC'14, 2014-06-23, Leipzig
Publikationen
Hayk Shoukourian, Torsten Wilde, Axel Auweter, Arndt Bode: Monitoring Power Data: A first step towards a unified energy efficiency evaluation toolset for HPC data centers; published by Elsevier in: Environmental Modelling & Software (Thematic issue on Modelling and evaluating the sustainability of
smart solutions), Volume 56, June 2014, Pages 13–26; DOI: http://dx.doi.org/10.1016/j.envsoft.2013.11.011
Hayk Shoukourian, Torsten Wilde, Axel Auweter, Arndt Bode: Predicting the Energy and Power Consumption of Strong and Weak Scaling HPC Applications; published in Supercomputing frontiers and
innova-tions (an international journal): Vol 1, No 2 (2014), p.20 –41, open access (http://superfri.org/superfri/article/view/9/8)
Torsten Wilde, Axel Auweter, Michael K. Patterson, Hayk Shoukourian, Herbert Huber, Arndt Bode,
Detlef Labrenz, Carlo Cavazzoni: DWPE, a new data center energy-efficiency metric bridging the gap
between infrastructure and workload; published by IEEE in: Proceedings of 2014 International Conference on High Performance Computing & Simulation (HPCS 2014), July 2014, p.893 – 901; ISBN: 9781-4799-5311-0
34
Forschung und Projekte
Steckbrief
Projektlaufzeit
Partnerinstitutionen
1.7.2013 – 30.6.2016
Leibniz-Rechenzentrum
Fraunhofer SCAI
SorTech AG
Kontaktperson
Torsten Wilde
Förderorganisation
Bundesministerium für Bildung und Forschung
(BMBF)
Website
www.simopek.de
Jahresbericht 2014 des Leibniz-Rechenzentrums
35
2.4.15 Virtuelles Alpen-Observatorium II (VAO-II)
Auf Initiative der Umweltforschungsstation Schneefernerhaus (UFS) auf der Zugspitze bündelt das Netzwerk „Virtuelles Alpenobservatorium“ (VAO) die Forschungsaktivitäten der alpinen Höhenforschungsstationen in Italien, Frankreich,
der Schweiz, Österreich, Norwegen und Deutschland. Der Einfluss des Klimawandels auf die sensible Alpenregion spielt bei den Forschungen eine zentrale Rolle.
Die Untersuchung geophysikalischer und chemischer Prozesse unter den aufgrund der exponierten Lage für qualitativ hochwertige Messungen hervorragenden
Bedingungen trägt dazu bei, die vielfältigen Vorgänge im Erdsystem besser zu
verstehen.
Das LRZ entwickelt im Rahmen des Alpenobservatoriums/VAO-II zusammen mit dem DLR, der UFS
und der Universität Augsburg das "Alpen-Datenanalysezentrum" (Alpen-DAZ), in dem die Daten der
internationalen Klimaforschungsstationen gesammelt und analysiert werden. Auf der Grundlage des bestehenden Datenanalysezentrums auf der UFS wird eine moderne und innovative informationstechnische Architektur zur Vernetzung mit anderen Forschungsinstituten, zur Datenarchivierung und zum
Computing on Demand (CoD) für die Simulationsrechnung entwickelt.
Highlights in 2014
Aufgrund von verwaltungstechnischen Hürden konnte das Projekt nur mit Verzögerung starten. So fand
zwar im März unter internationaler Beteiligung das Kickoff-Treffen in Freising statt, der offizielle Beginn
des Alpen-DAZ-Teilprojekts war aber erst im August, die Aufnahme der Arbeiten sogar erst im Dezember
möglich.
Konferenzen & Veranstaltungen
VAO-II Kickoff, 5.-6. März, Kardinal-Döpfner-Haus, Freising
Steckbrief
Projektlaufzeit
Partnerinstitutionen
1.8.2014 – 31.9.2017
Umweltforschungsstation Schneefernerhaus
Technische Universität München
Umweltbundesamt
Leibniz-Rechenzentrum
Helmholtzzentrum für Gesundheit und Umwelt
Ludwig-Maximilians-Universität München
Karlsruher Institut für Technologie
Bayerisches Landesamt für Umwelt
Universität Augsburg
Deutsche Gesellschaft für Luft- und Raumfahrt
Kontaktperson
Dr. Anton Frank
Förderorganisation
Bayerisches Staatsministerium für Umwelt und
Verbraucherschutz
Website
www.schneefernerhaus.de/station/virtuelles-alpenobservatorium/internationale-vernetzung.html
36
Forschung und Projekte
2.4.16 Virtual Earthquake and Seismology Research Community in
Europe e-Science Environment (VERCE)
VERCE is developing an e-science environment for data-intensive
seismic applications to enable innovative data analysis and data
modelling methods that fully exploit the increasing wealth of open
data generated by the observational and monitoring systems of the
global seismology community. The VERCE environment builds
upon a service-oriented architecture and a data-intensive platform delivering services, workflow tools,
and software as a service to integrate the distributed European public data and computing infrastructures
(HPC, grid and cloud) with private resources and the European integrated data archives of the seismology community.
The LRZ is leading WP2 “Integration and evaluation of the platform services”, which has the curial role
of quality assessing and testing of software modules to be integrated into the platform. WP2 is performing
regular release cycles with a fixed frequency of six months to ensure that only fully functional and compatible software is integrated into the VERCE e-science environment.
Highlights in 2014
In June the 3rd review meeting took place at the LRZ. All project partners, the reviewers as well as a
representative of the EC joined here to review the current status of the project and discussed further
steps for the coming months. In addition, LRZ supported the VERCE project with their supercomputing
and visualization facilities and thus enabled the project to perform a live demonstration of preparing,
performing, and visualizing a seismological simulation using the VERCE e-science environment.
VERCE also conducted successfully two web-training sessions in July where LRZ was actively involved
in both, the frontend and backend. An introduction to the resources hosted at LRZ and our in-house tools
and services were given. LRZ’s excellent background support and supercomputing facilities from both
the DRG and HPC groups were paramount to the success of the training.
Events and Conferences
•
2-4 April, ICRI Conference, Athens, Greece
o A. Frank
o OTHER: VERCE's official poster for dissemination
•
27 April - 02 May 2014, EGU, Vienna, Austria
o S.H.Leong, A. Frank
o OTHER: EGU2014: A data management system to enable urgent natural disaster
computing
•
7-9 May 2014, SCI-BUS Meeting, Cesme, Turkey
o S.H. Leong, A. Spinuso, M. Atkinson
o PRES: Technical: Science Gateway & wish list (Leong)
•
19-23 May 2014, EGI Community Forum, Helsinki, Finland
o S.H.Leong, A.Frank
Publications
S. H. Leong, D. Kranzlmüller, and A. Frank. A data management system to enable urgent natural disaster computing. In EGU General Assembly Conference Abstracts, volume 16 of EGU General Assembly
Conference Abstracts, page 4699, May 2014.
A. Spinuso, A. Krause, C.R. Garcia, E. Casarotti, F. Magnoni, I.A. Klampanos, L. Frobert, L. Krischer, L.
Trani, M. David, S.H. Leong and V. Muraleedharan, The VERCE Science Gateway: enabling user
friendly seismic waves simulations across European HPC infrastructures. In EGU General Assembly
Conference Abstracts, volume 16 of EGU General Assembly Conference Abstracts, May 2014
Jahresbericht 2014 des Leibniz-Rechenzentrums
37
A. Spinuso, A. Krause, C.R. Garcia, E. Casarotti, F. Magnoni, J. Matser, L. Krischer, L. Trani, M. David, S.H. Leong and V. Muraleedharan, THE VERCE SCIENCE GATEWAY: INTERACTIVE FORWARD
MODELING AND METADATA MANAGEMENT. In Second European Conference on Earthquake Engineering and Seismology (2ECEES), August 2014.
Fast Facts
Project duration
Partner institutions
1/10/2011 – 31/9/2015
Institut de Physique du Globe de Paris
Université Joseph Fourier de Grenoble
The University of Edinburgh
Koninklijk Nederlands Meteorologisch Instituut
Euro-Mediterranean Seismological Centre
Istituto Nazionale di Geofisica e Vulcanologia
Ludwig-Maximilians-Universität München
The University of Liverpool
Leibniz-Rechenzentrum
Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen
Consorzio Interuniversitario Cineca
Contact person
Dr. Anton Frank
Funding agency
European Commission
Website
www.verce.eu
38
Forschung und Projekte
2.4.17 Webbasiertes Customer Network Management (WebCNM)
Customer Network Management (CNM) bezeichnet allgemein die kontrollierte Weitergabe von Managementinformationen durch den Anbieter eines Kommunikationsdienstes an die Dienstnehmer sowie das
Bereitstellen von Interaktionsschnittstellen zwischen Dienstnehmer und Diensterbringer. CNM ermöglicht es den Dienstnehmern, sich über den Zustand und die Qualität der abonnierten Dienste zu informieren und diese in eingeschränktem Maße selbst zu managen.
Im X-WiN (Deutsches Forschungsnetz) wird mittels dieses Konzepts seit 2002 den DFN-Anwendern
(Hochschulen und Forschungseinrichtungen Deutschlandweit) der Zugriff auf IP-Dienst-Abrechnungsdaten und eine Übersicht der Topologie- sowie deren Status- und Kennzahlinformationen angeboten.
Die bisherige Architektur des CNM, die insbesondere im X-WIN seit 2002 eingesetzt wird, basierte auf
C++/Java/CORBA. Im Rahmen dieses Projektes wurde ein im vorrangegangenen GN3-Projekt entwickelter Prototyp des CNM-Systems mit einer webbasierten Client/Server-Architektur, das sogenannte
WebCNM, so angepasst und mit allen bis dahin fehlenden allgemeinen und X-WiN-spezifischen Funktionen erweitert, dass er in Zukunft das alte CNM-System für das X-WiN voll ersetzen kann.
Desweiteren wurde die komplette operative und datenmäßige Administration, die Kundenbetreuung und
alle anderen Aufgaben, die seit 2002 hierbei vom LRZ erledigt wurden, an die DFN-Geschäftsstelle
Stuttgart übergeben.
Ereignisse 2014
Die 2013 begonnene Anpassung des in GN3 entwickelten WebCNM wurden sowohl bezüglich X-WiNspezifischer Funktionalitäten wie z.B. User-Autorisierung- und IP-Dienst-Unterstützung als auch bezüglich generischer Funktionalitäten, die für den Einsatz im X-WIN noch fehlten, fortgesetzt: Wesentliche
hinzugefügte generische Funktionalitäten sind die Unterstützung von Status-Events, sowohl SNMP-Interface-Status als auch die experimentelle Integration des X-WiN-DiData-Trouble-Ticketsystems, die Korelation, Anzeige und Filterung von und nach Statuswerten im Kartenbaum, die gleichzeitige Anzeige
von aktuellen oder historischen Knotenmetriken, Linkmetriken und Status für Knoten und Links.
Weiter wurden sowohl die vom WebCNM-Client aus intern steuerbaren als auch die externen, d.h. rein
CLI-basierten, Verwaltungs- und Managementschnittstellen im CNM-Backend vom CORBA-Backend
auf das WebCNM-Backend portiert, sowie erweitert: So sind nun z.B. einerseits im Admin-Editor des
WebCNM-Clients sowohl herkömmliche Datenbank-basierte als auch Dotfile-basierte Karten einheitlich
verwaltbar, andererseits wurde im Backend ein generischer Perl-intern als auch von der CLI aus nutzbares Objekt-Framework für die Verwaltung der Topologie und Karten entwickelt, das somit das alte
CORBA-Object-Framework nahtlos ersetzt und ablöst.
Zuletzt wurde ein CNM-Server, der nur WebCNM beinhaltet - bezogen sowohl auf Nutzer- als auch auf
Managementfunktionalität, auf einer neuen virtuellen Maschine bei der DFN-Geschäftstelle Stuttgart eingerichtet. Dieser ersetzt ab 01.12.2014 das bisherige am LRZ gehostete Java-CNM und wird direkt von
der DFN-Geschäftstelle Stuttgart kunden- und datentechnisch betreut und gemanagt.
Events and Conferences
60. DFN-Betriebstagung, März 2014, Berlin
Steckbrief
Projektlaufzeit
Partnerinstitutionen
04/2013 – 12/2014
DFN-Verein Berlin
Leibniz-Rechenzentrum
Kontakt
Dr. David Schmitz
PD Dr. Wolfgang Hommel
Jahresbericht 2014 des Leibniz-Rechenzentrums
39
Fördergeber
Deutsches Forschungsnetz DFN
Website
http://www.cnm.dfn.de
2.4.18
Standardisierungsaktivitäten im Bereich der parallelen Programmierung
Unter Beteiligung des LRZ wurde eine technische Spezifikation (ISO/IEC TS 18508) für zusätzliche parallele Semantik der Programmiersprache FORTRAN im Laufe des Jahres weiter vorangetrieben. Die Erweiterungen zielen darauf ab, den Programmierer bei der effizienten Nutzung moderner Parallelrechner
mit typischerweise stark hierarchischer und/oder heterogener Struktur besser zu unterstützen.
2.5 Mitarbeit in Initiativen zur Förderung und Weiterentwicklung
von HPC-Technologien in Europa
2.5.1 ETP4HPC
Das LRZ ist Gründungsmitglied der European Technology Platform for High Performance Computing
(ETP4HPC). Ziel der ETP4HPC ist es, sowohl die Anwendung als auch die Herstellung von HPC-Technologien in Europa zu fördern.
Ende Februar wurde mit der europäischen Kommission ein contractual Public Private Partnership (cPPP) – Vertrag zur gemeinsamen Förderung von neuen HPC-Technologien, der Paneuropäischen HPC-Infrastruktur sowie zur Förderung von HPC-Anwendungen in Industrie und
Wissenschaft abgeschlossen. Weitere wichtige Aktivitäten der ETP4HPC im Berichtsjahr waren:
• Die Erstellung und Einreichung eines EU-Antrages zur Koordination und Unterstützung
der cPPP-Aktivitäten
• Die Erstellung eines Positionspapiers zum H2020-Förderprogramm in den Jahren 2016
und 2017
• Arbeiten zur Aktualisierung der Strategic Research Agenda (SRA)
2.5.2 PROSPECT e.V.
Das LRZ ist gemeinsam mit dem FZ Jülich und dem Barcelona Supercomputing Center Gründungsmitglied
von PROSPECT e.V. und im Vorstand vertreten (Prof. Bode). PROSPECT dient der Förderung von HPCTechnologien durch W issenschaft und W irtschaft. Der Fokus der Arbeiten lag in 2014 auf den Themen
datenintensive Anwendungen in der Wissenschaft und aktuelle Entwicklungen im internationalen HPCÖkosystem.
40
Darstellung des LRZ in der Öffentlichkeit
3 Darstellung des LRZ in der Öffentlichkeit
3.1 Allgemeine Öffentlichkeit und Medien - PR
Die öffentlich wahrnehmbaren Höhepunkte am LRZ betrafen im Jahr 2014 vor allem neue Spitzenleistungen auf dem Höchstleistungsrechner SuperMUC. Es gelang erstmals, über längere Zeit eine Erdbebensimulation mit mehr als einem Petaflops zu rechnen. Diese Leistung wurde in der HPC-Welt gewürdigt und
für den Gordon-Bell-Preis vorgeschlagen. Die entsprechende wissenschaftliche Veröffentlichung war dann
„Gordon Bell Finalist“, konnte den ersten Platz aber leider nicht erzielen. Im November erschien die Wissenschaftszeitschrift „Science“ mit einem Titelbild zu einer Publikation über Insektengenome, deren
Stammbaum von insgesamt 200 Wissenschaftlern genauer entschlüsselt werden konnte. Auch hierfür waren die Simulationen auf dem SuperMUC eine notwendige Voraussetzung. Beide Ergebnisse wurden mit
Pressemitteilungen bekannt gemacht und führten zu weiteren Veröffentlichungen in den Medien. Die BR
Rundschau und das BR Rundschau Magazin berichteten ausführlich über die Erforschung des Insektenstammbaums. Dem BR-Redakteur Christoph Arnowski waren LRZ und SuperMUC bereits von seinem Bericht anlässlich der Inbetriebnahme 2012 bekannt. Hier zahlt sich die konstant positive Wahrnehmung des
LRZ in den Medien und der Öffentlichkeit aus. Auch in der Süddeutschen Zeitung und im Münchner Merkur
wurden Artikel und Interviews mit dem Leiter des LRZ veröffentlicht.
Die hervorragenden Ergebnisse, die mit dem SuperMUC erzielt wurden, sowie seine weltweit vorbildliche
Energieeffizienz waren auch Themen für internationale Medien. Valéry Marchive von LeMagIT/TechTarget
und Robert Roe von Scientific Computing World besuchten das LRZ und ließen sich von seinem Leiter
über SuperMUC und Energiethemen informieren.
LRZ und SuperMUC werden auch gern als Hintergrund zur Erläuterung wissenschaftlicher Themen genutzt, so vom Bayerischen Rundfunk für ein Interview mit Prof. Mainzer, TU München, für einen Beitrag
über Robotik und Künstliche Intelligenz und vom Auswärtigen Amt für Aufnahmen mit Prof. Knoll, TU München, über Neurorobotics im Human Brain Project.
Abbildung 10: Stand des LRZ bei den Münchner Wissenschaftstagen
Jahresbericht 2014 des Leibniz-Rechenzentrums
41
Am LRZ selbst fand am 11. Oktober der Tag der offenen Tür gemeinsam mit dem Campus Garching der
TU München statt, den wieder weit über eintausend Besucher nutzten, das LRZ und sein V2C kennen zu
lernen. Am V2C fand am 16. Dezember der „Open Lab Day“ statt.
Am 9. Oktober konnte das LRZ seine Dienstleistungen für Studenten bei der Erstsemesterbegrüßung der
LMU mit einem Infostand vorstellen.
Das LRZ beteiligte sich in diesem Jahr an den Münchner Wissenschaftstagen vom 8. bis 11. November
mit einem eigenen „Marktstand der Wissenschaft“ und führte eine „Force-Feedback-MolekulardynamikSimulation“ vor, bei der die Besucher mit eigenen Händen die Kraft der Moleküle spüren konnten.
3.2
Hochleistungsrechnen
3.2.1 Supercomputing Konferenzen
Das LRZ hat sich wieder auf den Supercomputing-Konferenzen ISC14 in Leipzig und SC14 in New Orleans
präsentiert. Auf der ISC14 in Leipzig traten die drei Gauss-Mitgliedszentren mit einem gemeinsamen Stand
auf. Das LRZ hat für beide Konferenzen neue Videoanimationen erstellt. Darin werden neben dem GCS
und den beteiligten Zentren insbesondere auch wissenschaftliche Projektaktivitäten auf den Rechnern des
LRZ vorgestellt. Schwerpunkte dieser wissenschaftlichen Projekte lagen in den Bereichen Astrophysik,
Geophysik und Lebenswissenschaften.
Das LRZ war ebenfalls mit einem eigenen Stand auf den Münchner Wissenschaftstagen präsent, einer
viertägigen Großveranstaltung mit dem Ziel, wissenschaftliche und technische Themen auf allgemeinverständliche Weise einem breiten Publikum zu vermitteln. Die Besucher hatten dabei die einzigartige Möglichkeit, über einen 3D-Monitor live mit einer Molekül-Simulation zu interagieren und die dabei entstehenden Kräfte mittels eines Force-Feedback-Sensors direkt zu spüren.
3.2.2 SuperMUC Status and Results Workshop, User Forum und
Berichtsband
Während der ersten zwei Betriebsjahre konnten mit SuperMUC bereits eine sehr große Menge von Ergebnissen erzielt werden. Mehr als 100 Projekte reichten Berichte für den SuperMUC-Berichtsband ein, der im
Juni zur International Supercomputing Conference ISC14 in Leipzig veröffentlicht wurde. Hiervon wurden
28 Projekte ausgewählt, ihre Ergebnisse auf dem SuperMUC Status and Results Workshop am 8. und
9. Juli 2014 zu präsentieren. Dabei wurde bewusst auf eine Gruppierung der Vorträge in thematischen
Blöcken verzichtet, so dass ein Austausch von Informationen über die Fachgebietsgrenzen hinweg stattfinden konnte.
High Performance Computing in Science und Engineering –
Garching/Munich 2014 (2014)
Editors: S. Wagner, A. Bode, H. Satzger, and M. Brehm
ISBN: 978-3-9816675-0-9
Der Berichtsband ist auch als PDF und E-Book verfügbar: Siehe
www.lrz.de/services/compute/supermuc/magazinesbooks
Abbildung 11: Einband des Berichtsbandes 2014
42
Darstellung des LRZ in der Öffentlichkeit
Die Teilnehmer beteiligten sich mit großem Interesse an den Diskussionen der einzelnen Vorträge und
insbesondere auch im User Forum. Die Benutzer erhielten hier die Gelegenheit, ihre Anforderungen und
Vorschläge für den weiteren Betrieb des SuperMUC und auch für zukünftige Rechensysteme mit den Verantwortlichen am LRZ zu diskutieren. Während des gesamten Workshops konnten die Benutzer direkt mit
System Administratoren und Applikationsexperten von IBM, Intel und LRZ interagieren. Das LRZ informierte im Rahmen des Workshops auch über die Pläne für SuperMUC Phase 2. Außerdem wurden die
neue Insel “SuperMIC” mit Intel Xeon Phi Beschleunigerkarten sowie das neue Remote-Visualisierungscluster vorgestellt.
Eine Übersicht über die Vorträge des Workshops sowie die Folien ausgewählter Vorträge sind verfügbar
unter http://www.lrz.de/services/compute/supermuc/magazinesbooks/supermuc_results_2014/ .
3.2.3 Ergebnisse auf GCS Webseiten
Zusätzlich zu dem Berichtsband werden die Ergebnisse von am SuperMUC durchgeführten Projekten auch
auf den Seiten des Gauß-Zentrums www.gauss-centre.eu dargestellt.
Abbildung 12: Webseiten des Gauß-Zentrums mit Ergebnissen von Projekten am SuperMUC
3.3 Zentrum für Virtuelle Realität und Visualisierung (V2C)
2014 wurden mehrere Vorträge über die Forschungsergebnisse am V2C gehalten. Es fanden einige öffentliche Veranstaltungen, auch außerhalb des V2C, an denen am LRZ erstellte Projekte auf V2C Hardware
präsentiert wurden, statt. Insgesamt wurde über 2.500 Gästen und Anwendern an über 300 Terminen die
Möglichkeit gegeben, das V2C zu besuchen.
3.3.1
Vorträge
Im Rahmen von Fachvorträgen auf internationalen Tagungen in Vietnam, Frankreich und Schottland wurde
das V2C sowie verschiedenste Forschungsergebnisse vorgestellt.
3.3.2 Veranstaltungen
Das LRZ war mit dem Schwerpunkt V2C Gastgeber bei mehreren Veranstaltungen.
Jahresbericht 2014 des Leibniz-Rechenzentrums
43
In Zusammenarbeit mit der CAD-Stelle des Staatlichen Bauamts München 2 (StBaM2) wurden VR Umsetzungen von Entwürfen und Planungen mit Architekten und Entscheidungsträgern im V2C diskutiert.
Das Zwischenreview des Projekts VERCE, welches sich mit Simulationen im Bereich der Seismologie beschäftigt, wurde am LRZ abgehalten. In einem gesonderten Zeitfenster der Veranstaltung war es Teilnehmern des Projekts und den Gutachtern möglich, Ausschnitte des Ablaufs von der Simulation bis hin zur VR
Visualisierung im V2C zu beobachten.
Im Rahmen des EU Projektes MrSymBioMath fand im September eine Summer School mit 30 Teilnehmern
statt. Das Thema der Summer School war Maschinelles Lernen und Visualisierung. Viele Expertenvorträge
brachten die Themengebiete fokussiert auf das Anwendungsgebiet der Bioinformatik dem interessierten
Publikum näher.
Im Dezember hatten die Studierenden der Lehrveranstaltung Virtual Reality die Möglichkeit, ihre in der
Lehrveranstaltung erstellen Projekte am Open Lab Day der Öffentlichkeit zu präsentieren. Das LRZ konnte
über 100 Gäste begrüßen. Die Süddeutsche Zeitung berichtete.
Abbildung 13: Studierende präsentieren ihre Projekte am Open Lab Day
Das V2C beteiligte sich auch an Veranstaltungen außerhalb der gewohnten Räumlichkeiten.
Abbildung 14: Präsentation einer Gletschervisualisierung am Akademientag in der BAdW
44
Darstellung des LRZ in der Öffentlichkeit
Das gemeinsame Projekt „senseparation“ des Studiengangs Kunst und Multimedia der LMU, Interface Culture der Universität für Gestaltung (UfG), Linz, Österreich und des LRZ beschäftigt sich mit separierter
Sinneswahrnehmung. Ein dunkler Raum mit Audio und haptischem Feedback wird über Netzwerk mit einer
virtuellen Umgebung innerhalb der 5-seitigen Projektionsinstallation des V2C verbunden. Dieses Projekt
wurde auf der abArt in der Mohr Villa in München und am Ars Electronica Festival in Linz präsentiert.
Am Akademientag im November war es der Kommission für Glaziologie möglich, publikumswirksam eine
am LRZ entwickelte portable Version der Visualisierung des Vernagtferners mit Hilfe eines Datenhelms zu
präsentieren.
3.3.3 Booklet
Eine vollständig überarbeitete Neuauflage des Booklets, welches das V2C und die dort angesiedelten Projekte vorstellt, wurde im Dezember herausgegeben. Die 64 Seiten starke Broschüre enthält einen Überblick
über Virtuelle Realität und Visualisierung im Allgemeinen, die im V2C verwendeten Technologien und die
verwendete Hardware. 22 Anwendungsbeispiele werden vorgestellt.
Jahresbericht 2014 des Leibniz-Rechenzentrums
45
4 IT-Service Management
Der professionelle Betrieb von IT-Dienstleistungen erfordert klar definierte Regelungen, wie die drei Komponenten People, Processes & Technology zusammenspielen. Eine bewährte Möglichkeit zur Strukturierung stellt dabei eine Orientierung an Rahmenwerken wie ISO/IEC 20000, FitSM oder ITIL dar. Nachfolgend werden die organisatorischen Maßnahmen und Werkzeuge zu ihrer technischen Umsetzung beschrieben, mit denen das LRZ eine kontinuierliche Verbesserung seiner IT-Dienstleistungen verfolgt.
4.1 Einführung von ISO/IEC 20000
Die Zuverlässigkeit und Verfügbarkeit von IT-Services ist in erheblichem Maß von der effektiven Kommunikation, Kooperation und Koordination zwischen den Mitarbeitern eines IT-Service-Providers abhängig.
Ein optimales Management von IT-Diensten muss folglich über die Überwachung und Steuerung der technischen Komponenten hinausgehen und auch die betrieblichen Abläufe bzw. die Prozesse des IT-ServiceProviders kontrollieren und lenken. Die Ausgestaltung eines solchen, prozessorientierten IT-Service-Managements (ITSM) ist Gegenstand verschiedener so genannter ITSM-Rahmenwerke wie der IT Infrastructure Library (ITIL) oder des internationalen Standards ISO/IEC 20000. Das LRZ ist bemüht, ein Managementsystem nach ISO/IEC 20000 zu etablieren.
4.1.1 Incident Management
Für das 2011 eingeführte Incident Management nach ISO/IEC 20000 lag der Fokus 2014 auf der weiteren
kontinuierlichen Verbesserung. Die Zahl der Incidents stieg im Vergleich zum Vorjahr mit durchschnittlich
ca. 750 gemeldeten Störungen und Service Requests pro Monat leicht an.
Mittels erfasster Kennzahlen lässt sich eine leichte Verbesserung in Hinblick auf die Nutzung des LRZServicedesk-Portals und die Einhaltung der intern definierten Ziele für die Reaktions- und Lösungszeiten
nachweisen.
Eine Anhebung der Erstlösungsrate, also des Anteils der direkt durch den Servicedesk gelösten Incidents,
stellt allerdings, angesichts des Umfangs des LRZ-Dienstangebots und der dadurch resultierenden Vielfalt
eingehender Incidents, weiterhin eine massive Herausforderung dar.
4.1.2 Change- und Configuration Management
Im Change- und Configuration-Management wurden die Vorarbeiten aus 2013 aufgegriffen und weitere
Dienste in den Produktivbetrieb überführt. Die vorhandenen Verfahren zu Standard-Changes wurden entsprechend ausgeweitet. Es wurden weitere Anpassungen am zentralen ITSM-Tool vorgenommen und
Schulungen für alle beteiligten Personen durchgeführt.
Die 2014 gesammelten Erfahrungen sind die Basis für das Vorgehen bei der Erweiterung des ChangeManagement-Geltungsbereichs 2015.
Die Ausweitung des Change-Management-Geltungsbereiches wird von einer schrittweisen Erweiterung der
Configuration-Management-Database (CMDB) um die Dokumentation der entsprechenden Dienste und
Dienstkomponenten begleitet.
4.1.3 Weitere ITSM-Prozesse
Das LRZ ist dabei, ein Service-Portfolio-Management auf Basis von FitSM einzuführen, um eine transparentere Steuerung des LRZ-Dienstleistungsangebotes zu erreichen und dieses zukünftig in einer einheitlicheren, strukturierteren und kundenorientierteren Weise zu beschreiben.
4.1.4 Sonstige Aktivitäten
Parallel zu den Einführungsprojekten wird am LRZ auch weiterhin das Zertifizierungs- und Lehrgangskonzept für IT-Service-Management nach ISO/IEC 20000 erfolgreich fortgesetzt. Nachdem in den letzten Jahren das Schulungsprogramm sehr erfolgreich gelaufen ist, beschränkt sich mittlerweile die Ausbildung zum
Foundation-Zertifikat nach ISO/IEC 20000 größtenteils auf neu hinzu gekommene Mitarbeiter. Als schulungsbegleitende Prozesssimulation konnte weiterhin „Fort Fantastic“ von BuGaSi Labs, einer Ausgründung der Hochschule Bochum, genutzt werden. Ergänzend wurde das Schulungskonzept für Informationssicherheit nach ISO/IEC 27000 erfolgreich fortgesetzt. Das Qualifikationsprogramm für FitSM wurde mit
einer englischsprachigen „advanced level“ Schulung im Bereich Service Planning and Delivery weiter geführt.
46
IT-Service Management
4.2 Service-Management-Plattform Action Request System
Das Action Request System (ARS) von BMC wird am LRZ seit 20 Jahren zur Unterstützung des IT Service
Managements eingesetzt, insbesondere für das Change Management, Beschaffungswesen, Asset-Management und die IP-Adressverwaltung. Es befindet sich in Ablösung durch die iET ITSM Suite und andere
Werkzeuge.
Das KOM-Change-Record Formular unterstützt den Change-Management-Prozess in der Abteilung Kommunikationsnetze. 2014 wurden insgesamt 1.154 KOM-Change-Record-Tickets abgeschlossen. Im Bereich Asset Management wurden 2014 insgesamt 3.874 Einzelteile und 974 Geräte im System neu erfasst.
Für das Beschaffungswesen (Stabeg) wurden 35 neue Einträge angelegt. Im Rahmen der IP-Adress-Verwaltung wurden 20 Subnetze neu vergeben.
Jahresbericht 2014 des Leibniz-Rechenzentrums
47
5 IT-Sicherheit
Informationssicherheit ist eine Querschnittsaufgabe, die sich durch alle Abteilungen und Dienste zieht. Im
Folgenden wird auf ausgewählte technische Sicherheitsmaßnahmen eingegangen, die das LRZ zum
Schutz vor Schadsoftware und Angriffen aus dem Internet sowie zum Security-Monitoring innerhalb des
Münchner Wissenschaftsnetzes einsetzt.
5.1 Sicherheitsmanagement
Der Arbeitskreis Sicherheit (AK-Security) hat sich auch in diesem Jahr mit einigen wichtigen Themen im
Bereich der Informationssicherheit beschäftigt. Beispielsweise wurde die bereits im Vorjahr begonnene Erstellung einer Leitlinie, die den administrativen Zugriff auf LRZ-Server regeln soll, fortgeführt und Ende des
ersten Quartals erfolgreich abgeschlossen. Neben der Verpflichtung, definierte Zugangspfade nutzen zu
müssen, wird hierin etwa auch die Auswertung und regelmäßige Auditierung festgelegter Zugangsmaschinen festgelegt. In diesem Zusammenhang sollte auch die generelle Sicherheit von LRZ-Servermaschinen
erhöht werden. Eine aus Mitgliedern des AK-Security zusammengesetzte Arbeitsgruppe hat begonnen,
effektive und meist mit geringem Aufwand umsetzbare Härtungsmaßnahmen zusammenzutragen. Dieser
daraus entstandene Hardening Guide soll auch zukünftig weiter ergänzt und auf einem aktuellen Stand
gehalten werden. Um die Zugangsmöglichkeiten auch netzseitig entsprechend existierender Anforderungen zu beschränken, galt es das bereits vorhandene Netzzonenkonzept zu aktualisieren, was auch dazu
führte, die bisherige Vorgehensweise bei der IP-Adressvergabe in diesen neu festgelegten Netzzonen zu
überprüfen und bei Bedarf anzupassen.
Im Zuge des Aufbaus eines Informationssicherheitsmanagementsystems (ISMS) am LRZ war das Ziel,
konkrete Sicherheitsmaßnahmen auf Basis einer strukturierten Identifikation, Analyse und Bewertung existierender Bedrohungen und Risiken zu ergreifen. Dazu erarbeitete der AK-Security in diesem Jahr eine
entsprechende Leitlinie für das Risikomanagement, welche zukünftig durch eine prozessorientierte Vorgehensweise und konkrete Verfahrensbeschreibungen umgesetzt werden soll. Für das LRZ-CSIRT, das sich
im Gegensatz zu dem eher proaktiv agierenden AK-Security mit der reaktiven Sicherheit und damit der
strukturierten Bearbeitung von auftretenden Sicherheitsvorfällen auseinandersetzt, wurde im Rahmen einer
studentischen Arbeit ein elektronisches Security Incident Management System entwickelt, welches neben
einer sehr benutzerfreundlichen Meldemöglichkeit für LRZ-Mitarbeiter auch die Dokumentation ergriffener
Gegenmaßnahmen und eine nachgelagerte Auswertung der Vorfallsbearbeitung erlaubt. In diesem Jahr
nahm ein Mitglied des LRZ-CSIRT an einem vom DFN-CERT angebotenen IT-Forensik-Workshop teil, mit
dem Ziel, dort vorgestellte Vorgehensweisen und eingesetzte Werkzeuge in den Security-IncidentResponse-Prozess und die Bearbeitung von Sicherheitsvorfällen am LRZ einfließen zu lassen.
5.2 Antivirus
Auf der Grundlage eines Landesvertrages über die Antiviren-Software der Fa. SOPHOS betreibt das LRZ
eine Service-Infrastruktur zur automatischen Verteilung und Installation von SOPHOS-Virensignaturen für
alle Nutzer im Münchner Wissenschaftsnetz, verbunden mit entsprechenden Beratungsleistungen zur Nutzung für Endbenutzer und CID-Betreiber in Bayern. Der Dienst wird täglich von rund 25.000 Clients im
MWN genutzt. Der gesamte First-Level-Support wird von den Auszubildenden am LRZ geleistet.
5.3 WSUS
Zur Versorgung von Clients im MWN mit Sicherheitsupdates für Windows-Betriebssysteme und Microsoft
Applikationen wie Internet Explorer oder Office wird der „Windows Software Update Service“ (WSUS) als
MWN-weiter Dienst angeboten. Der Service ist seit längerem mit guten Erfahrungen innerhalb des LRZ in
Gebrauch und kann auch von allen Endkunden im MWN über das LRZ benutzt werden. Der Dienst wird
täglich aktiv von rund 8.500 Rechnern genutzt.
5.4 Virtuelle Firewalls
Das LRZ betreibt 5 Cisco Firewall Service Module (FWSM), die sich auf verschiedene Backbone-Router
im Münchner Wissenschaftsnetz (MWN) verteilen, und zwei ASA5580-40 zentral am LRZ (technische Details siehe Jahresbericht 2009). Derzeit werden damit rund 132 Kunden (123 im Vorjahr) mit virtuellen Firewalls (VFW) bedient.
48
IT-Sicherheit
Abbildung 15: Entwicklung der virtuellen Firewalls seit 2007
Die folgende Abbildung zeigt die Web-Schnittstelle zur Administration einer virtuellen Firewall.
Abbildung 16: Web-Schnittstelle Adaptive Security Device Manager (ASDM)
Nach über 2 1/2 Jahren konnte endlich der Betrieb des Firewall-Clusters, bestehend aus den beiden
ASA5580-40, im Active-Active-Modus aufgenommen werden. Vorausgegangen waren mehrere instabile
Betriebssystem-Versionen des Herstellers und ein aufwändiger Migrationsprozess der vorhandenen Konfiguration. Im Vergleich zum Active-Passive-Modus, der zu Beginn verwendet wurde, erlaubt der ActiveActive-Modus eine deutlich höhere Bandbreite und einen unterbrechungsfreien Betrieb. Damit konnte dem
SuperMUC deutlich mehr Firewall-Kapazität zur Verfügung gestellt werden. Das Firewall-System ist redundant auf zwei Brandabschnitte aufgeteilt und an die Hausrouter angeschlossen.
Da die bis jetzt eingesetzten Firewall-Module auf den Routern von Cisco nicht mehr unterstützt werden und
außerdem dringend benötigte Funktionen (z.B. VPN) fehlen, muss eine neue Lösung für die Firewalls im
MWN gefunden werden. Im vergangenen Jahr wurde der Markt nach in Frage kommenden Produkten
eruiert. Im Vorfeld fand eine Befragung der LRZ-Kunden zu den Erfahrungen mit den bisherigen Systemen
statt, deren Ergebnis in eine Anfrage an verschiedene renommierte Firewall-Hersteller einfloss. Die Anfrage
enthielt eine Beschreibung der LRZ-Umgebung und die Spezifikation der LRZ-Anforderungen. Nach Auswertung der Antworten konnten drei Hersteller herausdestilliert werden, deren Produkte dann über ein halbes Jahr ausgiebig mit mehreren repräsentativen Testkunden auf ihre Tauglichkeit überprüft wurden. Bei
den drei Produkten handelte es sich um Palo Altos PA5060, Fortinets Fortigate FG3600 (beide kommerziell) und pfSense in den Versionen 2.1.2 und 2.1.3 (open-source) als Virtual Appliance auf bestehender
VMware-Infrastruktur. PfSense konnte die meisten LRZ-Anforderungen zufriedenstellend erfüllen und
setzte sich damit gegen seine kommerziellen Konkurrenten durch. Es wurde eine vergleichende Bewertung
mit ausführlichem Testbericht erstellt.
Jahresbericht 2014 des Leibniz-Rechenzentrums
49
5.5 Technische Aspekte des Sicherheitsmanagements
Für die technischen Aspekte des Sicherheitsmanagements setzt das LRZ eine Reihe von Werkzeugen ein,
die nachfolgend näher vorgestellt werden.
5.5.1 Secomat
Das automatische proaktive Intrusion Prevention System (IPS) Secomat (vormals NAT-o-MAT) besteht
derzeit aus einem Cluster mit 4 Nodes (Geschichte siehe Jahresbericht 2007 und 2009). Jeder Node kann
eine theoretische Datenübertragungsrate von 10Gbit/s bewältigen. Die eingesetzte Technik zur Lastverteilung spaltet jedoch nur einmal 10Gbit/s auf die 4 Nodes auf. Diese Obergrenze wird vom MWN-Backbone
vorgegeben, da es auf dem 10-Gbit/s-Ethernet-Standard basiert.
Die folgenden Abbildungen zeigen Datenübertragungsraten, Benutzer und gesperrte Benutzer des Secomat-Clusters im Zeitraum von einer Woche in der vorlesungsfreien Zeit.
Abbildung 17: secomat1
Abbildung 18: secomat2
Abbildung 19: secomat3
Abbildung 20: secomat4
In der Spitze verarbeitete der Secomat 28.000 gleichzeitige Benutzer. Die folgende Tabelle zeigt die durchschnittliche Datenübertragungsrate der letzten 12 Monate.
Tabelle 1: Durchschnittliche eingehende und ausgehende Datenübertragungsrate der letzten 12
Monate
Durchschnittliche Datenübertragungsrate
der letzten 12 Monate
MWN eingehend
ca. 3,7 Gbit/s
MWN ausgehend
ca. 0,8 Gbit/s
50
IT-Sicherheit
Der Secomat-Cluster zeigt sich im Betrieb zuverlässig. Probleme macht im Großen und Ganzen hauptsächlich Skype, das sich vermutlich aufgrund der Distanz zwischen Secomat und Skype-Client im MWN so
verhält, als sei es nicht hinter einem NAT-Gateway (laut Dokumentation soll Skype erkennen können, ob
es sich hinter einem NAT-Gateway befindet). Das führt dazu, dass Skype-Clients mit privaten IP-Adressen
zu sogenannten „Supernodes“ werden und dann wegen ihres auffälligen Kommunikationsverhaltens durch
den Secomat gesperrt werden. Die Sperrungen können am Secomat leider nicht verhindert werden, da
sich das auffällige Kommunikationsverhalten der Skype-Clients nicht zuverlässig von Netzmissbrauch wie
z.B. Portscans unterscheiden lässt. Deshalb muss das Verhalten des Skype-Clients auf dem Client-PC
beeinflusst werden. Je nach Betriebssystem gibt es dafür unterschiedliche Lösungen. Zur Unterstützung
der Kunden bietet das LRZ über sein Webportal eine ausführliche FAQ an.
5.5.2 Security Information & Event Management
Die Auswertung der im Rahmen des LRZ-Security-Monitorings detektierten sicherheitsrelevanten Ereignisse findet am LRZ mithilfe einer Security Information und Event Management (SIEM) Lösung statt. Das
bislang nun mehrere Jahre erfolgreich eingesetzte Open-Source-SIEM der Firma Alienvault, OSSIM, wurde
in diesem Jahr durch eine neue Software der Firma IBM (QRadar) ersetzt. QRadar wurde im Rahmen einer
Produktevaluation und -auswahl als geeignete Lösung für den Einsatz am LRZ ermittelt. Notwendig wurde
die Ersetzung zum einen aufgrund des nahezu flächendeckenden Einsatzes von IPv6 im MWN, was OSSIM bislang nicht unterstützt, und zum anderen durch die beschränkte Leistungskapazität der OpenSource-Lösung. Die Installation der neuen SIEM-Lösung bereitete keine unlösbaren Probleme, die Anbindung der Datenquellen, insbesondere sowohl der am X-WiN-Übergang betriebenen Intrusion-DetektionSensoren als auch der X-WiN-Router, welche die Netflow-Daten an die SIEM-Lösung weiterleiten, war mit
geringem Aufwand umzusetzen. Höchste Priorität hatte bei der Inbetriebnahme die schnellstmögliche Ersetzung der von OSSIM bereitgestellten Auswertungs-, Korrelations- und automatischen Alarmierungsmechanismen. Besonders der letzte Punkt verursachte einiges an Aufwand, da QRadar, im Gegensatz zu
OSSIM, leider keine Möglichkeit bietet, um bei Auftreten bestimmter Ereignisse Skripte anzustoßen, die
automatisiert für das betreffende System zuständige Netzverantwortliche, den Switchport, an dem das System angeschlossen ist, oder den zu einer VPN-IP-Adresse zugeordneten Nutzer ermitteln. Nachdem nun
die Basis für die Erkennung ausgewählter Angriffe oder mit Malware infizierter Systeme, insbesondere das
immer noch im MWN zu beobachtende Trojanische Pferd Zeus, vorhanden ist, lassen sich weitere Auffälligkeiten nach demselben Prinzip mit vergleichsweise geringem Aufwand erkennen und entsprechende
Reaktionen auslösen. Beispielsweise wurde nach diesem Prinzip die Ransomware, die mitunter Festplatten oder auf einem System vorhandene Dateien verschlüsseln kann oder weitere Schadsoftware aus dem
Internet nachladen kann, in die automatische Reaktionskette aufgenommen.
Die weitaus größeren Leistungskapazitäten von QRadar erlauben nun auch nahezu eine Echtzeit-Auswertung von Netflow-Daten, um Anomalien im Kommunikationverhalten zu identifizieren. Dabei werden sowohl
ein- als auch ausgehende Kommunikation analysiert, wobei der Schwerpunkt auf der Erkennung von Angriffsmustern im ausgehenden Verkehr liegt. Zu den zu erkennenden Mustern zählen etwa (Distributed)
Denial-of-Service-Angriffe, bei denen ans Münchner Wissenschaftsnetz angeschlossene Systeme beteiligt
sind, als auch Port- und Netzscans oder die plötzlich auftretende Kommunikation auf ausgewählten, aber
für ein System untypischen Ports, etwa E-Mail-Ports, was meist ein Indiz für den Versand von SPAM-EMails, hervorgerufen durch eine Kompromittierung des Systems oder Infektion mit einem entsprechenden
Schadprogramm, ist. Neben der technischen Umsetzung der Erkennung von Verkehrsanomalien, sollen
zukünftig auch weitere Datenquellen an das SIEM-System angebunden werden, um die bislang weitestgehend isolierte Auswertung sicherheitsrelevanter Ereignisse durch entsprechende regelbasierte Korrelation
noch weiter zu verbessern und dadurch die Anzahl von Falsch-Alarmierung weiter zu senken.
5.5.3 Sicherheits- und Netzmanagement: Nyx
Das Sicherheits- und Netzmanagementwerkzeug Nyx, mit dem einzelne Rechner im MWN lokalisiert werden können, liefert nach Eingabe einer bestimmten MAC- oder IP-Adresse den Switchport, an dem der
Rechner angeschlossen ist. Außerdem wird, falls hinterlegt, die Bezeichnung der Netzwerkdose ausgegeben, zu welcher dieser Switchport gepatcht ist. Dies ist gerade auch im Hinblick auf das schnelle Auffinden
von Rechnern und Geräten wichtig.
Das Nyx-System wurde im letzten Jahr weiterentwickelt. Besonders zu nennen ist hier der Umbau auf ein
Code-Verwaltungssystem und entsprechende Anpassungen des Codes für neue Geräte. Insbesondere
können nun auch Geräte mit beliebigen SNMP-Communities ausgelesen werden.
Jahresbericht 2014 des Leibniz-Rechenzentrums
51
5.5.4 Self-Service Portal; Sperr- und Entsperrmechanismen
Das durch die Security Information & Event Management (SIEM) Lösung unterstützte LRZ Security-Monitoring erlaubt eine zum Großteil automatische Reaktion bei Erkennen sicherheitsrelevanter Auffälligkeiten.
Ein in diesem Zusammenhang umgesetzter Eskalationsmechanismus weist die zuständigen Netzverantwortlichen im ersten Schritt lediglich auf die erkannte Auffälligkeit hin. Bei wiederholtem Auftreten derselben
Auffälligkeit wird eine private IP-Adresse am Secomat automatisch gesperrt, was in diesem Fall gleichzusetzen ist mit einer Beschränkung des Internetzugangs. Nutzer, deren Kommunikation über das SecurityGateway Secomat stattfindet, werden bei der Sperrung ihrer IP-Adresse auf eine spezielle Webseite umgeleitet, auf der zum einen der Grund für die Sperrung und zum anderen nützliche Hinweise und Informationen zur Behebung des Problems aufgeführt sind. Die Freischaltung einer gesperrten IP-Adresse erfolgte
bisher durch Mitarbeiter des LRZ Abuse-Response-Teams (LRZ AR-Team), an das sich der Nutzer per EMail unter Angabe der durchgeführten Maßnahmen (Entfernen der Schadsoftware durch eine Anti-VirenSoftware, Neuinstallation des betroffenen Systems) wenden musste.
Um hier zum einen die Mitarbeiter des LRZ AR-Teams von derartigen Routinetätigkeiten zu entlasten und
zum anderen Nutzern auch eine zeitnahe Freischaltung außerhalb der üblichen Bürozeiten, etwa am Wochenende, zu ermöglichen, wurde in diesem Jahr ein Self-Service zur Verfügung gestellt, welcher über die
dem Nutzer einer gesperrten IP-Adresse angezeigte Webseite zugänglich ist. Eine Freischaltung erfolgt
jedoch erst dann, wenn der Nutzer, wie bisher auch, die von ihm ergriffenen Maßnahmen in einem übersichtlich gestalteten Web-Formular beschreibt. Um zu verhindern, dass ein Nutzer die Freischaltung einer
IP-Adresse ohne wirksame Maßnahmen ergriffen zu haben beliebig oft wiederholt, ist diese derzeit nur
zweimal pro Monat möglich. Desweitern wird durch nachgelagerte, automatische Plausibiltätsüberprüfungen versucht, sicherzustellen, dass die ergriffenen Maßnahmen oder deren Kombination auch tatsächlich
ausreichend und wirksam sind. So ist ein systemweiter Scan mit einer Anti-Viren-Software, welche nicht
auf dem aktuellen Stand ist, als nahzu nutzlos anzusehen; gleiches gilt, wenn die gefundenen Dateien nicht
gelöscht oder vollständig gesäubert wurden und das etwa durch eine Wiederholung des Scans bestätigt
ist. Zu Statistikzwecken wird das LRZ AR-Team per E-Mail über eine durch den Nutzer selbst per SelfService vorgenommene Freischaltung informiert.
52
IT-Basisdienste
6 IT-Basisdienste
6.1 E-Mail
6.1.1 Migration der lokalen Mailserver im MWN
Im Bereich der klassischen Maildienste konnte in 2014 die seit mehreren Jahren andauernde Migration von
Maildomains auf die neue, Postfix-basierte Infrastruktur abgeschlossen werden. Damit konnten auch die
letzten physischen Server abgeschaltet werden und die klassischen Maildienste werden jetzt durchgehend
von virtuellen Servern erbracht. Die Infrastruktur besteht nun aus zwei großen Blöcken:
•
Postrelays, Postforwarder und Postout zur Versorgung der fünf vom LRZ betriebenen Message
Stores mit 512 verschiedenen Maildomains
• Mailrelays und Mailout zur Versorgung der 139 lokalen Mailserver im MWN mit 422 Maildomains
Daneben gibt es eine Reihe weiterer Mailserver für Spezialzwecke, wie z.B. für Mailinglisten oder die Verteilung von administrativen E-Mails.
6.1.2 Inhaltsbasierte „Prequeue-Filterung“ von Spam- und Virenmails
Die inhaltsbasierte Filterung von E-Mails ist sehr rechenintensiv. Daher wird sie normalerweise erst durchgeführt, nachdem eine E-Mail vollständig übertragen, d.h. vom Mailserver angenommen und in der Queue
abgespeichert ist. Stellt man dann fest, dass es sich um eine Virenmail oder um eine Spammail handelt,
kann man sie nicht mehr ablehnen, da man sonst Backscatter erzeugt. Sie muss daher entweder in Quarantäne gelegt oder an den Empfänger ausgeliefert werden. Diese Art der Filterung nennt man PostqueueFilterung. Es ist aber wünschenswert, dass eine E-Mail, die einen Virus enthält oder sicher als Spammail
erkannt wird, erst gar nicht angenommen sondern gleich abgewiesen wird. Dazu muss sie sofort, noch
bevor sie endgültig angenommen wurde, untersucht werden. Dies nennt man dann Prequeue-Filterung.
In 2013 wurden die Mailrelays, die wesentlich weniger E-Mails als die Postrelays verarbeiten müssen, auf
Prequeue-Filterung umgestellt. Nachdem es damit keine Probleme gab, erfolgte dieser Schritt in 2014 auch
bei den Postrelays. Die Postrelays wurden dafür im Vergleich zu den Mailrelays von 2 auf 4 CPUs und von
2 auf 8 GByte Hauptspeicher aufgerüstet. In der Regel können damit alle ankommenden E-Mails sofort
verarbeitet werden. Im Durchschnitt wird etwa alle 10 Tage ein Teil der ankommenden E-Mails ein paar
Minuten lang verzögert angenommen, da alle Verarbeitungskapazitäten ausgeschöpft sind.
6.1.3 Verschlüsselte Übertragung von E-Mails
Nachdem das Bayerische Landesamt für Datenschutzaufsicht (BayLDA) im September 2014 zahlreiche
Unternehmen abgemahnt hat, da ihre Mailserver kein TLS zur verschlüsselten Übertragung von E-Mails
bereitgestellt haben, hat sich das LRZ mit dem Thema intensiv auseinander gesetzt.
Ähnlich wie bei dem Projekt „E-Mail made in Germany“ der großen Provider Telekom, GMX, WEB.DE, 1&1
und Strato, sollen auch beim LRZ nicht nur alle Übertragungswege zwischen den Mailprogrammen der
Nutzer und den Mailservern des LRZ als auch den Mailservern im Internet mit TLS verschlüsselt werden,
sondern auch dafür gesorgt werden, dass sich kein Angreifer in die Übertragungswege einschalten und
damit die übertragenen Daten mitlesen kann (MITM = man-in-the-middle-Angriff). Im Gegensatz zu den
oben genannten Providern, die dafür ein proprietäres Protokoll einsetzen und damit alle anderen Betreiber
von Mailservern, die sich die teure Zertifizierung nicht leisten können, von der Teilnahme ausschließen,
setzt das LRZ auf den offenen Standard DANE (DNS-based Authentication of Named Entities), an dem
jeder Mailserver weltweit teilnehmen kann. Im Herbst wurde mit der kryptographischen Signatur der Domain lrz.de (DNSSEC) und der Veröffentlichung der TLSA-Records der LRZ-Mailserver im DNS dafür die
Voraussetzung geschaffen. Seither kann jeder Mailserver im Internet überprüfen, ob er für den Versand
einer E-Mail auch mit dem richtigen Mailserver am LRZ verbunden ist, vorausgesetzt die Domain des Empfängers ist signiert. Bis Ende des Jahres waren neben den Domains lrz.de und stusta.de eine Reihe von
Domains der TUM – insbesondere die Domain tum.de, aber auch einige Subdomains dazu – signiert.
Jahresbericht 2014 des Leibniz-Rechenzentrums
53
6.1.4 Statistiken zur Mailnutzung
6.1.4.1
Spam- und Virenabwehr
Das Gros der Spam- und Virenmails wird bereits von den Post- bzw. Mailrelays, die für die Annahme von
E-Mails aus dem Internet zuständig sind, durch die dort implementierten Abwehrmechanismen abgewiesen. Bevor die E-Mails angenommen werden, werden sie auch einer inhaltlichen Überprüfung unterzogen
und mit Viren infizierte E-Mails sowie eindeutig als Spam erkennbare E-Mails werden ebenfalls abgewiesen. E-Mails, bei denen nur vermutet wird, dass es sich um Spammails handelt, werden angenommen,
entsprechend markiert und an den Nutzer weitergeleitet. Die Markierung kann dann dazu verwendet werden, die betreffenden E-Mails auszufiltern (durch Konfiguration von Regeln im Webmailer Roundcube oder
im eigenen Mailprogramm).
Das durchschnittliche E-Mail-Aufkommen an den Post- und Mailrelays lag 2014 bei ca. 800.000 E-Mails
pro Tag. Davon wurden durch die Spam- und Virenabwehr gut drei Viertel direkt abgewiesen und nur ein
knappes Viertel zugestellt – Details siehe nachfolgende Tabelle.
Tabelle 2: Angenommene und abgewiesene E-Mails
Anzahl E-Mails
pro Tag
in Prozent
Von den Post- und Mailrelays abgewiesene E-Mails
aufgrund allgemeiner Abwehrmechanismen
(z.B. Nutzung von Blacklists)
als Spammails erkannt
als Virenmails erkannt
604.000
5.500
290
75,51 %
0,69 %
0,04 %
Von den Post- und Mailrelays angenommene E-Mails
„gute“ E-Mails
als mögliche Spammails markiert
186.000
4.050
23,25 %
0,51 %
ca. 800.000
100,00 %
Behandlung eingehender E-Mails
Gesamt
6.1.4.2
Relaydienst
Am Übergang vom Internet in das Münchner Wissenschaftsnetz (MWN) ist der Port für das SMTP-Protokoll
für fast alle Rechner gesperrt. Nur einige ausgewählte Mailserver – neben den Post- und Mailrelays des
LRZ sind das in der Regel große Fakultätsmailserver – können daher E-Mails direkt aus dem Internet annehmen. Alle anderen Mailserver im MWN müssen diese speziellen Mailserver als Relayserver benutzen.
Der Vorteil ist, dass sich ein lokaler Mailserver im MWN nicht um Viren- und Spamfilterung kümmern muss,
das wird bereits durch den Relayserver erledigt.
Den Relayservice des LRZ, d.h. die Mailrelays, nehmen zurzeit 139 (Vorjahr 149) Mailserver im MWN mit
insgesamt 422 (Vorjahr 416) verschiedenen Maildomains in Anspruch. Die Anzahl der lokalen Mailserver
hat letztes Jahr nur leicht abgenommen, da die TUM weniger Mailserver auf das zentrale Exchange-System
migriert hat wie im Vorjahr.
Tabelle 3: Nutzung des Relaydienstes
Einrichtung
Mailserver im MWN
Domains
Ludwig-Maximilians-Universität München
34
(34)
115
(116)
Technische Universität München
66
(74)
180
(191)
andere Hochschulen und hochschulnahe Einrichtungen
39
(41)
127
(109)
Gesamt
139
(149)
422
(416)
54
6.1.4.3
IT-Basisdienste
Mailhosting (virtuelle Mailserver)
Das LRZ bietet Hochschul- und hochschulnahen Einrichtungen, die keinen eigenen Mailserver betreiben
wollen, an, den Maildienst am LRZ zu „hosten“. Es wird dann ein virtueller Mailserver eingerichtet, in dem
sich der Name der betreffenden Einrichtung widerspiegelt (z.B. jura.uni-muenchen.de) und Angehörige
dieser Einrichtungen erhalten entsprechende Mailadressen. Ein virtueller Mailserver kann wiederum mehr
als eine virtuelle Maildomain haben, z.B. im Zuge einer Umbenennung der zugehörigen Einrichtung. Die
zu den virtuellen Mailservern gehörenden Mailboxen können sich sowohl auf dem POP/IMAP-Server
mailin.lrz.de als auch auf dem vom LRZ betriebenen Exchange-Server befinden. Die Entscheidung, an
welchen Server eine E-Mail auszuliefern ist, übernimmt der sogenannte Forwarder, der sich die notwendige
Information dafür aus der jeweiligen Benutzerverwaltung holt.
Ende 2014 waren am LRZ 210 (Vorjahr: 213) virtuelle Mailserver eingerichtet. Eine Aufteilung auf die
Hauptnutzer ist der folgenden Tabelle zu entnehmen.
Tabelle 4: Nutzung des Mailhostings
virtuelle
Mailserver
Einrichtung
Domains
Ludwig-Maximilians-Universität München
Technische Universität München
über LRZ-Benutzerverwaltung
über TUMonline
87
(89)
144
42
(43)
72+20 (98)
139+20 (107)
Bayer. Akademie der Wissenschaften (inklusive LRZ)
38
(40)
77
(77)
2
(0)
7
(1)
andere Hochschulen und hochschulnahe Einrichtungen
41
(41)
53
(48)
Gesamt
210
(213)
492+20 (475)
Hochschule München
(144)
Die Angabe +20 bedeutet, dass sich Ende des Jahres 20 Domains in Migration von der LRZ-Benutzerverwaltung nach TUMonline befanden und die Domains daher in beiden Benutzerverwaltungen existierten.
6.1.4.4
Nutzung der POP/IMAP-Messagestores
Die Anzahl der Mailboxen an den POP/IMAP-Servern war aufgrund der verstärkten Nutzung des
Exchange-Dienstes erneut rückläufig. Ende 2014 gab es 94.503 Mailboxen (Vorjahr: 103.248). Nachfolgend eine Aufteilung nach Server bzw. Benutzergruppen:
Tabelle 5: Nutzung der POP/IMAP-Server
POP/IMAP-Server für …
Anzahl Benutzer
… Mitarbeiter der vom LRZ bedienten Einrichtungen (Mailserver „mailin“):
Ludwig-Maximilians-Universität München
8.517
Technische Universität München
7.187
Bayer. Akademie der Wissenschaften (inklusive LRZ)
303
Hochschule München
279
andere bayerische Hochschulen
52
andere wissenschaftliche Einrichtungen
2.575
18.913
… Mitarbeiter und Studenten der TU München (Mailserver „mytum“)
18.418
… Studenten der Ludwig-Maximilians-Universität München (CampusLMU)
(inkl. Mitarbeiter, die ihre CampusLMU-Mailadresse behalten haben)
54.975
… Studenten anderer Münchner Hochschulen
Gesamt
2.197
94.503
Jahresbericht 2014 des Leibniz-Rechenzentrums
6.1.4.5
55
Weiterleitungs-Service
Der oben bereits erwähnte Forwarder, der für die Verteilung von E-Mails an den richtigen Message Store
zuständig ist, übernimmt neben individuell eingerichteten Weiterleitungen auch einen Weiterleitungsservice
für ganze Domains, zu denen es keine Mailboxen gibt. Bei der LMU handelt es sich dabei um die Domain
lmu.de, bei der TUM um die Domain alumni.tum.de.
Tabelle 6: Nutzung des Weiterleitungs-Service
Einrichtung
Weiterleitungen
Ludwig-Maximilians-Universität München
Technische Universität München
Gesamt
6.1.4.6
22.464
6.106
28.570
Nutzung von E-Mail-Verteilerlisten
Das LRZ bietet seinen Nutzern die Möglichkeit eigene E-Mail-Verteilerlisten einzurichten (auf Basis von
Mailman). Ende 2014 gab es 1.051 Listen (Vorjahr: 922), die sich wie folgt verteilten:
Tabelle 7: Nutzung von E-Mail-Verteilerlisten
Einrichtung
E-Mail-Verteilerlisten
Ludwig-Maximilians-Universität München
266
Technische Universität München
554
Bayer. Akademie der Wissenschaften (inklusive LRZ)
159
andere Hochschulen und hochschulnahe Einrichtungen
Gesamt
72
1.051
6.2 Exchange
6.2.1 Migration auf Exchange 2013
Im Berichtsjahr wurde eine neue Exchange-Umgebung auf Basis der aktuellen Exchange-Version 2013
aufgebaut und das bisherige System dorthin migriert. Besonders aufwendig war dabei die Migration der
Postfächer, da für Exchange 2013 neue Datenbanken notwendig waren und alle Postfächer – mit einem
Umfang von insgesamt ca. 11 TByte – in die neue Umgebung verschoben werden mussten. Allein dieser
Teil der Migration zog sich über ca. zwei Monate hin. Erfreulich war, dass die Migration für unsere Benutzer
weitgehend problemlos verlief.
6.2.2 Exchange für die Hochschule München
Nach den umfangreichen Vorarbeiten im letzten Jahr, insbesondere Anbindung des Identity Management
Systems der Hochschule München an das Identity Management System des LRZ und Abschluss einer
Vereinbarung zur Auftragsdatenverarbeitung, konnte in 2014 der Benutzerbetrieb aufgenommen werden.
Ab März wurden zunächst die Mailboxen von Mitarbeitern der zentralen IT und der Verwaltung nach
Exchange umgezogen. Nach weiteren Mitarbeiterumzügen erhielten im September auch alle Erstsemester
eine Exchange-Mailbox und im Laufe des Dezembers wurde der Dienst schließlich für alle Studenten freigegeben. Bevor die ersten Studenten aufgenommen wurden, wurden auf Wunsch der Hochschule München noch spezielle Sichtbarkeitsregeln für die Adressbücher implementiert, durch die gesteuert werden
kann, welche Personengruppen welche anderen Gruppen im Adressbuch sehen bzw. nicht sehen können.
6.2.3 Nutzung des Exchange-Dienstes
Wie schon in den Vorjahren war beim Exchange-Dienst auch im Jahr 2014 wieder ein starkes Wachstum
zu verzeichnen. Die Nutzerzahl stieg um ca. 11.500 auf knapp 42.000 (+ 38 %) und der durch die Mailboxen
56
IT-Basisdienste
belegte Speicherplatz um ca. 5 auf 12 TByte (+ 70 %). Die folgende Grafik zeigt die Entwicklung seit Mitte
2011.
Exchange-Nutzung 2011 bis 2014
50000
45000
40000
35000
30000
25000
20000
15000
10000
5000
0
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
Anzahl Postfächer
Speicherplatz [TByte]
Abbildung 21: Entwicklung der Exchange-Nutzung seit 2011
Ende 2014 haben sich die Nutzer dabei wie folgt auf die teilnehmenden Einrichtungen verteilt:
Tabelle 8: Nutzung des Exchange-Dienstes in 2014
Einrichtung
Ludwig-Maximilians-Universität München
Technische Universität München
Hochschule München
Exchange-Nutzer
1.879
33.213
5.354
Katholische Stiftungsfachhochschule
350
Bayer. Akademie der Wissenschaften (inklusive LRZ)
984
Gesamt
41.780
6.3 Webhosting
6.3.1 Performance-Tuning in der neuen Webhosting-Betriebsumgebung
Im Berichtsjahr fanden, wie auch schon im Jahr davor, umfangreiche Arbeiten im Bereich der Datenablage
und Verwaltung der gehosteten Webserver statt. Obwohl die Leistungsfähigkeit der Systeme zufriedenstellend war, wurde eine Reihe von Maßnahmen zur Verbesserung durchgeführt. Dies diente neben den damit
verbundenen üblichen Verbesserungen der Sicherheit unter anderem auch dazu, den Betrieb robust gegenüber dem stetig ansteigenden Leistungsbedarf zu machen.
Weder die auf den Webservern eingesetzten Eigenentwicklungen der Anwender noch die Software anderer
Entwickler (vorwiegend Freie Software) sind in jedem Fall robust gegenüber größeren Upgrades der zugrunde liegenden Infrastruktur, wie sie 2014 geplant waren. Daher wurden für alle rund 1.200 Webserver
nach und nach Testumgebungen bereitgestellt, um die Auswirkungen des Upgrades im Vorfeld testen und
Fehler und Probleme beheben zu können. Für viele der Webserver mussten individuelle Lösungen gefunden werden, um den Webserver in der neuen Betriebsumgebung wieder voll funktionsfähig zu machen.
Dabei wurden die Betreiber intensiv betreut und unterstützt.
Jahresbericht 2014 des Leibniz-Rechenzentrums
6.3.1.1
57
Update Apache Webserver und PHP
Auf allen Webservern der Webfarm wurde eine neue Version des Apache-Webservers ausgerollt (Update
von Apache 2.2. auf 2.4.). Parallel dazu wurde auch auf allen Webservern der Webfarm eine neue PHPVersion eingespielt (Update PHP 5.3. auf 5.5).
6.3.1.2
Ausbau von Memcached
Für die Moodle-Instanzen der LMU wurden, wie auch schon im Jahr davor für TUM-Moodle, MemcachedServer eingerichtet, was zusammen mit den von den Betreibern der Moodle-Instanzen durchgeführten
Moodle-Updates einen weiteren Performance-Gewinn brachte.
6.3.1.3
Optimierung der Zugriffe auf das Dateisystem
Die Konfigurationen der Webserver wurden systematisch daraufhin untersucht, ob zeitaufwändige Zugriffe
auf das Dateisystem vermieden werden können. Viele einzelne, bisher dezentral liegende Konfigurationen
konnten dadurch zusammengeführt werden.
6.3.1.4
Grafische Darstellung der Performance-Gewinne
An der folgenden Abbildung wird der Gewinn durch die genannten Maßnahmen besonders deutlich erkennbar. Die Abbildung zeigt die Anwortzeiten eines Webservers über einen Zeitraum von 5 Wochen. Zwischen
Woche 37 und 38 gab es eine Testphase – hier ist die Kurve flach - danach wurde die alte Betriebsumgebung kurzfristig reaktiviert, und schließlich vollständig in die neue Umgebung geschwenkt. Die Antwortzeiten waren mit 100 bis 200 Millisekunden ohnehin schon vor der Umstellung sehr gut, konnten aber durch
die Maßnahmen um mehr als einen Faktor 10 gesteigert werden. Dadurch ist insbesondere bei den weiterhin wachsenden Diensten wie TUM-Moodle oder LMU-Moodle für ausreichend Wachstumsmöglichkeit
gesorgt.
Abbildung 22: Webserver-Antwortzeit [ms] in alter (KW37) und neuer (KW39) Betriebsumgebung
6.3.2 Verlagerung und Upgrade TUM-Typo3-Projekt
Das IT-Service-Zentrum der TUM betreibt im Rahmen des Webhostings am LRZ rund 400 Webserver für
Institute, Einrichtungen und Lehrstühle der TUM. Die Webserver werden mit dem Content Management
System Typo3 betrieben, für das seit Mitte 2014 ein großes Upgrade ansteht. Zusammen mit dem ITSZ
wurde ein Konzept für eine Betriebsumgebung entwickelt und umgesetzt, um die für dieses Upgrade notwendige Einzelbehandlung eines jeden der 400 Webserver möglichst ohne Ausfälle und Risiken durchführen zu können. Die Typo3-Upgrades selber werden vom ITZS organisiert und durchgeführt.
6.4 Desktop-Management
Für das Deployment und Management von Windows Desktop- und Serversystemen kommt am LRZ Microsoft System Center Configuration Manager (SCCM) zum Einsatz. Der SCCM ermöglicht ein Betriebssystemrollout als Bare-Metal Variante (auf einem leeren System) sowie als in-place Upgrade oder Neuinstallation über ein bereits vorhandenes System. Im letzteren Fall werden dabei auch Einstellungen und Nutzerdaten migriert. Des Weiteren ist es möglich, Software auf den gemanagten Clients zu installieren, aktualisieren oder deinstallieren. Ein integriertes Reporting gibt Aufschluss über die Erfolgsrate des Rollouts
und etwaige aufgetretene Fehler. Über den SCCM werden sowohl Mitarbeiter-PCs und -Laptops als auch
Serversysteme und virtuelle Maschinen installiert und verwaltet.
Um das verfügbare Software Repository stets aktuell zu halten und an die Bedürfnisse der Nutzer auszurichten, wurden im vergangenen Jahr fortlaufend Software-Pakete aktualisiert sowie neue Software in das
58
IT-Basisdienste
Repository eingepflegt. Dabei wurden die Methoden weiter verfeinert. Insgesamt stehen derzeit über 500
Software-Pakete aus den unterschiedlichsten Anwendungsbereichen (Office, Internet, Architektur, Musik,
Biologie, Wirtschaft, uvm.) für die Verteilung zur Verfügung. Unterstützt werden alle aktuellen Windows
Betriebssysteme. Insgesamt, d.h. MWN-weit, werden vom SCCM rund 2.000 (1.400) Client-Systeme und
160 (135) Serversysteme verwaltet.
Im Rahmen des MWN-ADS wird noch der Light-Desktop/Server angeboten, bei dem Institutionen im MWN
Rechner in die Infrastruktur integrieren können und so die Vorteile des zentral gepflegten MWN-ADS für
das Desktop- und Server-management mitnutzen können, ohne selbst eine ADS-Infrastruktur betreiben zu
müssen. Die komplette Administration der integrierten Light-Desktop/Server liegt dabei aber in voller Verantwortung der lokalen Administratoren der jeweiligen Institutionen.
6.4.1 Rechnerpools
Das LRZ hat unterschiedliche Modelle für die Bereitstellung von aktuellen Windows-Arbeitsplätzen für verschiedene Kundengruppen entwickelt. Die Lösungen reichen dabei vom vollwertigen Mitarbeiterarbeitsplatz über Terminalserverlösungen für Mitarbeiter bis zum virtuellen Desktop für Testzwecke. Für Studenten werden sowohl vollwertige Rechnerpools als auch auf Terminalserverlösungen basierende Pools angeboten. Diese Fullmanaged Desktops (MWN-PC) werden vom LRZ von der OS Installation, über die Softwarepflege bis zum Monitoring betreut. Bei den vom LRZ betreuten Systemen an der LMU, HMT (Hochschule Musik und Theater), BAdW oder TUM wird der First Level Support von Vorortbetreuern der jeweiligen Mandanten wahrgenommen, die bei Problemen oder Änderungswünschen als Ansprechpartner zum
LRZ agieren. Das bisherige Modell wurde an der TUM sukzessive in das Betriebsmodell „TUM-PC“ überführt.
Für die Abrechnung der Druckaufträge in den Pools der HMT, TUM und am LRZ wird die Druckkostenabrechnung Papercut verwendet. In 2014 wurde die Fakultät Soziologie der LMU in das Abrechnungssystem
als weiterer Mandant aufgenommen. Die Papercut-Lösung ermöglicht ein voneinander unabhängiges Agieren der jeweiligen Einrichtungen und erfüllt die Erfordernisse des Datenschutzes. Die Teileinheiten können
das Geld für die Druckkosten selbstständig, ohne Zutun des LRZ, einnehmen und verrechnen.
Die verschiedenen Rechnergruppen setzen sich zahlenmäßig Ende 2014 wie in Tabelle 9 zusammen:
Tabelle 9: Clients im MWN-ADS
Mandanten
Light Desktop
LRZ
Pool und Kurs
38 (51)
BAdW
TUM
5.995 (5.241)
203 (154)
LMU
743 (458)
20 (20)
HMT
Summen
Fullmanaged Desktop
211
(214)
201
(201)
1237
(289)
1649
(704)
54 (52)
6338
(5.818)
315
(277)
6.4.2 TUM-PC
Ein wichtiges Ziel ist es, den SCCM für eine Nutzung durch Teiladministratoren des MWNs freizugeben.
Obwohl der SCCM keine Mandantenfähigkeit im eigentlichen Sinn aufweist, konnte hierzu für die Teiladministratoren eine Möglichkeit geschaffen werden, über die SCCM Console ihre jeweiligen Systeme zu
verwalten, ohne selbst eine komplette Softwareverteilungsinfrastruktur zu betreiben.
Darum wurde in enger Kooperation mit der TUM und einem externen Dienstleister in 2013 das Projekt
TUM-PC ins Leben gerufen. Im Rahmen des kostenpflichtigen TUM-PCs nutzen nun verschiedene Teiladministratoren an der TUM die Methoden des SCCMs am LRZ, um Ihre Rechner an den jeweiligen Instituten
zu installieren und zu verwalten. Ende 2014 waren bereits 64 Einrichtungen der TUM im System registriert.
Dem externen Dienstleister kommt hierbei eine besondere Rolle zu. Er übernimmt die allgemeine Vorortbetreuung an der Einrichtung, begleitet Vorort die Anbindung der Einrichtungen an den SCCM und fungiert
als fachlich kompetenter Ansprechpartner gegenüber dem LRZ.
Mit dem TUM-PC können nun die teilnehmenden Einrichtungen Software-Pakete vom LRZ, die sich bereits
im Software Repository befinden, jederzeit mitbenutzen - entsprechende Lizenzierung durch den Kunden
Jahresbericht 2014 des Leibniz-Rechenzentrums
59
vorausgesetzt. Software, die nicht vorhanden ist, in der Regel Spezialsoftware von Fakultäten, wird für den
Kunden, je nach Aufwand, kostenpflichtig paketiert. Das LRZ übernimmt zudem die aus Sicherheitsgründen
regelmäßig erforderliche Aktualisierung von Standardsoftware, wie z.B. Java, Mozilla Firefox oder Adobe
Flash. Der TUM-PC ist des Weiteren in die definierte Infrastruktur für verwaltete Systeme am LRZ eingebettet. Dies beinhaltet das zentrale Patchmanagement, die Antivirenlösung, vordefinierte Gruppenrichtlinien und das Monitoring der einzelnen Systeme.
1200
1000
800
600
400
200
0
Jan
Feb
Mrz
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
Abbildung 23: Entwicklung des TUM-PCs in 2014
6.4.3 MWN-MAC
In 2014 wurden die Arbeiten für den Aufbau eines Client-Management-Systems für Apple-Clients basierend
auf der Caspersuite der Firma JAMF für MAC OSX und iOS Systeme fortgesetzt. Die Caspersuite bietet
dabei die Möglichkeit der zentralen Verteilung von Software wie auch der Konfiguration der Clients. Für die
Erstellung der notwendigen Software-Pakete wurde in 2014 AutoPkg erfolgreich getestet und in die Umgebung übernommen. AutoPkg beschleunigt das Erzeugen der notwendigen Software-Pakete auf Basis von
„Recipes“, die von einer breiten Community erzeugt und bereitgestellt werden. Mit dem Angebot MWNMAC soll der zunehmenden Verbreitung von Apple Geräten auf dem Campus Rechnung getragen und das
kostenpflichtige Angebot des MWN-PCs erweitert werden.
6.5 Benutzerverwaltung und Verzeichnisdienste
6.5.1 Benutzerverwaltung für LRZ-Dienste
Im Zentrum der Benutzerverwaltung steht das LRZ-Identity-Managementsystem (LRZ-SIM) mit seinen Verzeichnisdiensten. Nach einem Überblick über die derzeit vergebenen LRZ-Kennungen und ihre Verteilung
auf die Hochschulen und LRZ-Plattformen wird über Entwicklungen von LRZ-SIM im Frontend, in den angebundenen Diensten und Plattformen sowie im LRZ-SIM-Serverbetrieb berichtet. Danach folgen der
Stand der Verzeichnisdienste-Kopplungen mit den beiden Münchner Universitäten sowie die Entwicklungen beim MWN Active Directory als zentralem Infrastrukturdienst im gesamten Münchner Wissenschaftsnetz. Das Kapitel schließt mit Neuigkeiten zur Authentifikations- und Autorisierungsföderation des DFN
(DFN-AAI), in der das LRZ als Dienstleister und Identity-Provider für die Münchener Universitäten fungiert.
6.5.1.1
Für LRZ-Systeme vergebene Kennungen
6.5.1.1.1
An Hochschuleinrichtungen vergebene Kennungen
Die folgende Tabelle gibt einen Überblick über die vom LRZ an Hochschuleinrichtungen vergebenen Berechtigungen, und zwar pro Dienst bzw. Plattform und mit Stand von Ende 2014. Für die LMU und die TU
München sind dabei außer den via Master User vergebenen Berechtigungen auch die Kennungen aufgelistet, die direkt an den Hochschulen vergeben und via CampusLMU bzw. TUMonline importiert wurden.
60
IT-Basisdienste
691
1.154
236
75
110
96
37
63
Bayer. Akademie der
Wissenschaften
422
119
293
396
–
24
17
28
6
–
11.555 10.364
1.879
4.739
881
118
394
539
160
55
2.728
–
–
–
–
–
–
– 1.228
571
151 1.110
507
197
LMU München
von CampusLMU
importiert
TU München
von TUMonline
importiert
34.744
–
–
8.585
8.559
–
20.576
– 33.213* 20.576
TSM
Webserver
WebDNS
Linux-Cluster
263
NeSSI
(NV-Portal)
PC/OnlineSpeicher
620
persönliche
Homepages
Mail
LeibnizRechenzentrum
Exchange
Einrichtung
VPN / WLAN
Tabelle 10: Vergabe von Kennungen für LRZ-Plattformen
–
–
–
–
–
–
Hochschule München
409
374
5.354*
–
39
–
76
5
6
3
andere bayerische
Hochschulen
810
288
–
2
240
10
9
12
10
3
5.303
3.068
350
1.858
33
53
66
76
46
20
26
1
–
–
14
–
1
1
3
–
–
–
–
–
428
–
–
–
–
–
112
15
–
47
32
–
–
9
1
–
83.162 23.051 41.780 31.500 3.131
851
824 1.876
776
341
Öffentlich-rechtliche
Einrichtungen
sonstige Einrichtungen
GridKooperationsprojekte
Nutzer des SuperMUC
Gesamt
*
inkl. Studierende (17.661 an der TU München bzw. 4.410 an der Hochschule München)
Nicht in der Tabelle enthalten sind die Kennungen für den Höchstleistungsrechner SuperMUC, da es hier
häufig Kooperationen gibt und daher keine klare Zuordnung zu einer Einrichtung möglich ist. Ende 2014
waren für diesen Rechner insgesamt 3.876 Kennungen vergeben, davon 1.060 für Projekte aus dem GridBereich.
6.5.1.1.2
An Studierende vergebene Kennungen
An der Ludwig-Maximilians-Universität und der Technischen Universität werden Kennungen für Studierende direkt an den Hochschulen vergeben und anschließend von dort ans LRZ übernommen (via CampusLMU bzw. TUMonline). Für Studierende anderer Münchner Hochschulen erfolgt die Vergabe individuell
und direkt durch das LRZ.
Ende 2014 hatten 95.382 Studierende eine Kennung am LRZ (Vorjahr: 91.922), die u.a. für die Dienste
VPN, WLAN und Mail genutzt werden konnte. Studierenden der LMU München, der TU München und der
Hochschule für Musik und Theater München stehen außerdem 40 GByte Online-Speicher in der MWN
Storage Cloud zur Verfügung (ab 2015: 50 GByte). Hier die Aufteilung auf die Hochschulen mit den meisten
Kennungen:
Jahresbericht 2014 des Leibniz-Rechenzentrums
61
Tabelle 11: Vergabe von Kennungen an Studierende
Hochschule
Ludwig-Maximilians-Universität München
53.248
Technische Universität München
39.937
Hochschule für Musik und Theater München
1.585
Hochschule für Fernsehen und Film München
348
Akademie der Bildenden Künste München
158
Hochschule für Philosophie München
52
Verwaltungs- und Wirtschaftsakademie München
11
FernUniversität Hagen
17
sonstige Hochschulen
26
Gesamt
6.5.1.2
Anzahl
Kennungen
95.382
Identity Management und Verzeichnisdienste
Das LRZ Identity-Management-System LRZ-SIM (LRZ Secure Identity Management) ist die Zentrale, ohne
die kaum noch ein Zugang zu den vielfältigen Dienstangeboten des LRZ denkbar ist. Hier laufen die für die
Authentifizierung notwendigen Kennungsdaten aus dem LRZ und den IDM-Systemen der Hochschulen
zusammen, hier sind die Zugriffsberechtigungen für den überwiegenden Teil der LRZ-Dienste zentral hinterlegt und über Authentifizierungs-Server abrufbar und nutzbar.
LRZ-SIM basiert auf einem Cluster von Verzeichnisdiensten (NetIQ eDirectory und OpenLDAP), deren
Datenbestände durch Konnektoren (sog. Treiber des NetIQ Identity Managers) live synchronisiert, transformiert und in die LDAP-Authentifizierungsserver sowie in die direkt angebundenen Plattformen provisioniert werden. Eine kurze Übersicht über die Infrastruktur folgt in Abschnitt 6.5.1.2.3. Als universelles Webfrontend dient das LRZ Id-Portal (Identity-Management-Portal, https://idportal.lrz.de) sowohl für die Benutzer als auch für die Master User, die LRZ-Betreuer, den Servicedesk und die Plattform-Administratoren.
6.5.1.2.1
Benutzerverwaltung und Id-Portal
Nachdem im Vorjahr ein Schwerpunkt der Weiterentwicklung von LRZ-SIM auf dem Datenschutz und der
Ausrichtung an Compliance-Vorgaben lag, wurden im Berichtsjahr Konzepte entwickelt und großteils umgesetzt, die den Aufwand in der Benutzer- und Projektverwaltung durch Umstellung von papiergebundenen
auf elektronische Verfahren reduzieren.
So ist es seit Dezember 2014 für LRZ-Benutzer nicht mehr erforderlich, die Benutzungsrichtlinien auf Papier beim zuständigen Master User zu unterschreiben. Die Zustimmung erfolgt nun vielmehr auf elektronischem Weg im Id-Portal. Dies ist nicht nur eine wesentliche Arbeitserleichterung für die Master User, sondern garantiert auch, dass die Zustimmung vor jeglicher Dienstnutzung tatsächlich abgegeben wird. Weiterhin müssen die Master User ebenfalls keine Erklärung mehr gegenüber dem LRZ unterschreiben und
einschicken. Stattdessen erhält jeder neue Master User automatisch eine Mail mit der Zusammenfassung
seiner Aufgaben und mit Hinweisen zu seiner Arbeit, sobald ihm der zuständige LRZ-Betreuer auf Veranlassung des Einrichtungsleiters in LRZ-SIM die Master-User-Rechte zuteilt.
Kontinuierliche Detailverbesserungen im Id-Portal tragen dazu bei, dass die Master User ihre Arbeit bei der
Vergabe und dem Entzug von Kennungen und einzelnen Dienstberechtigungen einfacher erledigen können, sei es durch klarere Hinweistexte, sei es durch eine geeignetere Vorauswahl von Dienstberechtigungen oder auch Warnungen, wenn die Deprovisionierung aufgrund weiterer Zuständigkeiten (TSM-Nodes,
Netzverantwortlichkeit) nicht sofort möglich ist.
Für Dienste- und Plattform-Administratoren bietet das Id-Portal seit Mitte 2014 eine neue Gruppenverwaltung, und zwar separat für jeden Dienst, der Gruppen benötigt. Diese Gruppenverwaltung beinhaltet zusätzlich eine Webschnittstelle für die automatisierte Pflege von Gruppen. Mit der Gruppenverwaltung wur-
62
IT-Basisdienste
den auch die Vergabemöglichkeiten von Berechtigungen und Kontingenten durch Plattform-Administratoren ausgeweitet. Dies wird zunehmend wichtiger für Dienste, bei denen eigene Antrags- und Genehmigung-Workflows vorgeschaltet sind, etwa bei der demnächst produktiv gehenden LRZ-Compute-Cloud.
Ein noch in Arbeit befindliches Entwicklungsprojekt wird die Betreuer spürbar entlasten, und zwar sollen
die jährlichen LRZ-Projektverlängerungen künftig auf elektronischem Weg erfolgen, was viel der bisherigen
Arbeit beim Kontrollieren und Übertragen der Angaben auf den Papierformularen einsparen wird. Allerdings
weist das Projekt einige Komplexität auf, da auch die Verlängerungsmöglichkeiten für Einrichtungsleiter
ohne LRZ-Kennung sowie die Delegation der Verlängerungsrechte vorgesehen werden müssen.
6.5.1.2.2
Entwicklungen bei der Anbindung von Plattformen und Diensten
Der große Mehrwert des Identity Managements für das gesamte LRZ ist die zentrale Aggregation, Pflege
und Verwaltung von Benutzerdaten und Zugriffsberechtigungen (Access Management). Davon profitieren
momentan 44 angebundene Plattformen und Dienste, mit jeweils wieder einer teils beträchtlichen Zahl von
Einzelsystemen.
Seit Frühjahr 2014 können Mitarbeiter der Hochschule München (HM) und seit dem Wechsel zum Wintersemester auch HM-Studierende das Exchange-Angebot des LRZ mit ihrer von der HM vergebenen Kennung nutzen. Dies wird durch die Datenkopplung des Identity-Management-Systems der HM mit LRZ-SIM
ermöglicht. Die Kopplung läuft über einen selbst entwickelten Konnektor nunmehr produktiv und stabil.
Nach der LMU- und TUM-Anbindung (siehe Abschnitt 6.5.2) ist das die dritte große Live-Anbindung eines
Quellsystems für Benutzer- und Berechtigungsdaten an LRZ-SIM.
Für die Exchange-Nutzung durch die HM gab es bedeutende Erweiterungen in LRZ-SIM selbst: Das Directory-Schema deckt nun alle Exchange-relevanten Aspekte in den Benutzerdaten ab, insbesondere getrennte Gruppen für Mailboxbesitzer und Sendeberechtigte. Die von Benutzern im HM-Portal eingestellte
Sichtbarkeit ihrer Kennungsdaten für bestimmte Benutzergruppen wird von der HM übernommen. Auch die
automatische Antwortmöglichkeit bei Funktionsmailboxen und bei Mailboxen von ausgeschiedenen HMAngehörigen kann über diese neue IDM-Anbindung gesteuert werden.
Darüber hinaus wurden in der HM-Anbindung technische Optimierungen umgesetzt wie die bevorzugte
Abarbeitung von denjenigen Eventtypen, die in der Benutzerwahrnehmung besonders dringend sind: Das
Neuanlegen von Kennungen und die Änderung von Passwörtern. Ein nächtlicher Abgleich aller Funktionsobjekte garantiert die Konsistenz mit den im HM-Portal vorgenommenen und angezeigten Einstellungen.
Die aufwendige und für Exchange notwendige Datenübertragung von LRZ-SIM ins MWN Active Directory
(MWN-ADS) wurde entscheidend beschleunigt, indem die Kennungen der großen Mandanten über eigene
parallele Kanäle provisioniert werden (siehe dazu Abbildung 24, provisionierte Systeme). Große Mandanten wie die Hochschule München sind somit nicht mehr beeinträchtigt durch zeitliche Verzögerungen, die
hohe Datenaufkommen in anderen Mandanten verursachen.
Für folgende weitere Dienste – neben MWN-ADS und Exchange – erfolgten im Laufe des Jahres 2014
ebenfalls Anpassungen in LRZ-SIM:
•
•
•
•
•
Um die Verwaltung und ggf. Freigabe von Speicherplatz im Archiv- und Backup-System (TSM) zu
ermöglichen, werden die TSM-Administratoren automatisch benachrichtigt, sobald Kennungen und
vor allem Projekte gesperrt, gelöscht oder zu einer anderen Einrichtung verlagert werden.
Die Anbindung des IT-Service-Managementsystems iET ITSM durch einen eigenen Treiber hat
sich bewährt. Verbesserungen konnten bei der Auswahl der primären Einrichtungszugehörigkeit
erreicht werden. Damit einher geht die passendere Wahl der primären Kontaktdaten von Kunden,
die mehr als eine Kennung in LRZ-SIM besitzen.
Für das Universe-Cluster bietet LRZ-SIM seit diesem Jahr Plattenplatz-Kontingentierung und die
Möglichkeit der Gruppenverwaltung.
Die SIM-seitigen Arbeiten für die Anbindung der LRZ-Compute-Cloud sind weitgehend abgeschlossen und produktionsreif. Berücksichtigt werden kann auch eine gemischte Berechtigungsvergabe
durch Administratoren auf Projektebene und Master User auf Kennungsebene. Es wird angestrebt,
die Zustimmung zu den Cloud-Benutzungsrichtlinien über Formulare im Id-Portal abzubilden - ähnlich wie schon die Zustimmung zu den Exportkontrollverordnungen bei HPC-Nutzung.
Das Visualisierungszentrum (V2C) ist prototypisch an LRZ-SIM angebunden. Wie bei der Compute-Cloud vergeben in erster Linie die Administratoren die Berechtigung auf bereits existierende,
importierte oder von Master Usern verwaltete Kennungen.
Jahresbericht 2014 des Leibniz-Rechenzentrums
63
Im HPC-Bereich wurde der schon im Vorjahr definierte Lebenszyklus von SuperMUC-Projekten in allen
Punkten umgesetzt. So ist eine zeitnahe Deprovisionierung garantiert, um einerseits Platten- und Archivplatz zu sparen und andererseits aber denjenigen Projekten, die auch nach der aktiven Phase ihre Forschungsergebnisse aufbewahren wollen, langfristig den Archivplatz bereitstellen zu können. Um nach Ablaufen der SuperMUC-Zugangsberechtigung noch Zugriff auf die Daten zu gewährleisten, wurde ein neues
SSH-Gateway angebunden. Auch die differenzierten Mails – je nach Projekttyp, Projektstatus und Ablaufdatum – sind nun in allen Phasen aktiviert.
Erst in Planung befindet sich die Möglichkeit, zusätzlich zum TSM-Speicher auf Wunsch auch die Homeund Share-Speicherbereiche nach der aktiven Projektphase zu erhalten. Welche Services diesen sog.
„Data-only“-Projekten angeboten werden und wie diese Verwaltung in LRZ-SIM aussehen soll, ist noch
offen.
Bei den SuperMUC- und Grid-Projekten fand die nun jährliche Bereinigungsaktion statt. Es wurden alle
Projekte und Kennungen inkl. belegtem Speicherplatz gelöscht, deren Karenzzeit bereits mehr als ein Jahr
gedauert hatte. Außerdem wurden die Ländernamen in den Personen- und Einrichtungsanschriften vereinheitlicht, die nicht nur für Statistiken, sondern auch wegen der Exportkontrollverordnungen von Interesse
sind.
Schließlich wurde ein weiterer Infoservice zur Entlastung des Grid-Supports aufgesetzt: Grid-Benutzer, die
zum ersten Mal ein Benutzerzertifikat eingetragen bekommen (im Self Service oder über den Grid-Support),
erhalten eine automatische Mail mit dem Hinweis, dass sie ihre Kennung für Grid-Dienste zuerst durch
Zustimmung zu den Exportkontrollverordnungen auf einem eigenen Portal aktivieren müssen.
6.5.1.2.3
Server- und Dienstbetrieb
Die für LRZ-SIM und die oben beschriebene IDM-Dienste implementierte Infrastruktur ist in Abbildung 24
mit den vielfältigen Datenflüssen und Verflechtungen schematisch dargestellt. Die Pfeile geben die Hauptdatenflussrichtung an. Grüne Pfeile symbolisieren Push-Verfahren (Events, Trigger), blaue Pfeile Pull-Verfahren (Requests). Nicht dargestellt ist die Rückprovisionierung von Quotas und Verbrauchs/Belegungsdaten und weiteren Berechtigungen aus den angebundenen Systemen. Rote Beschriftungen zeigen, an welchen Komponenten die hauptsächlichen Weiterentwicklungen in 2014 stattgefunden haben.
64
IT-Basisdienste
Abbildung 24: Serverlandschaft und Einbindung des LRZ-SIM-Systems
Zusätzliche LDAP-Authentifizierungsserver wurden eingerichtet, um den unterschiedlichen Anforderungen
der angebundenen Dienste – i.e. hoher Durchsatz bei großer Request-Last von den Compute-Clustern
gegenüber kurzen Antwortzeiten für Einzelrequests z.B. von Mailsystemen – besser gerecht zu werden.
Diese Ressourcenanpassung war auch deshalb notwendig, weil das dedizierte Eduroam-Active-Directory
aufgegeben und die LRZ-Radius-Authentifizierung komplett auf die LRZ-SIM-Authentifizierungsserver umgestellt wurde.
Für Recovery-Zwecke bei den OpenLDAP-Servern wurde eine Möglichkeit zum schnellen Kopieren der
ganzen Replika-Datenbank als Alternative zur zeitintensiven Resynchronisierung bereitgestellt. Bei den
OpenLDAP-Replikas innerhalb des SuperMUC konnte ein sporadisch aufgetretenes Aktualisierungsproblem der Replikadaten gelöst werden.
Da bei der MWN-ADS-Provisionierung Staus in der Event-Verarbeitung ein wiederkehrendes Problem darstellen, wurden Monitoring-Skripte entwickelt, die solche Staus in den IDM-Treibern ermitteln. Automatische Mails informieren die jeweiligen Servicedesks, damit diese bei Benutzeranfragen gezielter Hilfe und
Auskunft zum Status einzelner Kennungen geben können.
Jahresbericht 2014 des Leibniz-Rechenzentrums
65
Um die Stabilität und Sicherheit des LRZ-SIM-Systems im Dienstbetrieb zu gewährleisten, werden immer
möglichst zeitnah die aktuellen Versionen sowohl der Directory-Software (NetIQ eDirectory und OpenLDAP) als auch der IDM-Komponenten (NetIQ Identity Manager) installiert. Die 2014 bekannt gewordenen,
gravierenden Sicherheitslücken in Linux-Basiskomponenten wie der OpenSSL-Bibliothek (Heartbleed),
dem SSLv3-Protokoll (Poodle) und der Bash-Shell mussten auf den zentralen IDM- und Authentifizierungsservern besonders rasch geschlossen werden.
Mit der konsequenten Umstellung aller Administrator-Zugänge zu den Directory-Servern auf SIM-Kennungen mittels SSSD (System Security Services Daemon) konnten alle Root-Passwörter gelöscht werden.
Erlangung von Root-Rechten ist damit nur noch über den zuvor erfolgten Login mit einer persönlichen
Kennung möglich. Für die Administratoren der angebundenen Systeme wurde eine Möglichkeit geschaffen,
das Passwort ihrer sog. LDAP-Proxyuser im Self Service oder per Programmierschnittstelle regelmäßig zu
ändern.
6.5.2 CampusLMU und TUMonline
Annähernd zwei Drittel der aktiven Kennungen im Bestand von LRZ-SIM entstammen den zentralen Verzeichnisdiensten von LMU und TUM (vgl. Tabellen in Abschnitt 6.5.1.1). Die Daten dieser Benutzer werden
von IDM-Treibern automatisch und ohne lange Wartezeiten in LRZ-SIM synchronisiert. Darin enthalten sind
Attribute, die die Berechtigungen für die vom LRZ erbrachten Dienste bei den einzelnen Kennungen regeln.
6.5.2.1
CampusLMU-Anbindung
Schon seit Längerem steuert CampusLMU über sogenannte Entitlement-Attribute erweiterte Berechtigungen
sowohl in LRZ-SIM selbst (Linux-Berechtigung für die Physik, Mail-Berechtigung für die Biologie I) als auch
im MWN-ADS (Gruppenerzeugung und Mitgliedschaft in Gruppen). Mit den Entitlements sind in LRZ-SIM
außerdem Projektzuordnungen verbunden. Nachdem schon bisher bei Eintrag oder Änderung von Entitlements das Verschieben von LMU-Kennungen in das richtige Projekt automatisch geschah, konnte nun
auch bei Wegfall eines Entitlements das Zurückverschieben in die Sammelprojekte sowie die KontingentAnpassung oder der Kontingent-Entzug vollständig automatisiert werden.
Weitere Maßnahmen der Datensparsamkeit in LRZ-SIM wurden umgesetzt, so die Löschung aller Geburtsdaten von LMU-Angehörigen aus allen LRZ-Verzeichnisdiensten mit Ausnahme des Directory-Teilbaums,
auf dem der Shibboleth LMU-IdP basiert (siehe Abschnitt 6.5.4 zur DFN-AAI weiter unten).
6.5.2.2
TUMonline-Anbindung
Als Grundversorgung aller TUM-Angehörigen werden Berechtigungen für Mail/Exchange, VPN und den
Onlinespeicher von TUMonline zusammen mit der TUM-Kennung ans LRZ provisioniert. Diesen TUM-Kennungen können die jeweiligen Dienste-Administratoren bereits jetzt weitere Dienstberechtigungen wie Zugriff auf das Netzverantwortlichen-Portal, das WebDNS-Portal oder Zugriff auf das Cacti-Monitoring hinzufügen. Ziel wird es aber sein müssen, noch mehr LRZ-Dienste auf diese primäre TUM-Kennung zu bringen,
beispielsweise persönliche Homepages, primäre Linux-Cluster-Nutzung und/oder persönliche TSM-Nodes.
Die Abstimmung und Planung mit der TUM hierzu und auch zur Konsolidierung von Kennungen hat bereits
begonnen. Darüber hinaus ermöglicht die regelmäße Erstellung der Master-User-Liste und deren Versand
an die TUM u.a. die Bündelung mit den Aufgaben der TUMonline-Beauftragten.
2014 wurden zwei Einrichtungen in die TUM eingegliedert, zum einen die Hochschule für Politik und zum
anderen das, bisher an der BAdW angesiedelte, Deutsche Geodätische Forschungsinstitut (DGFI). Diese
Eingliederungen hatten insofern größere Auswirkung, als die Mitglieder zwar automatisch TUMonline-Kennungen erhielten, die bisher von Master Usern verwalteten Projekte mit Kennungen und Mailadressen zumindest für eine Übergangszeit erhalten und mit umgezogen werden mussten. Dabei stellte der Mandantenwechsel im MWN-ADS eine besondere Herausforderung dar.
6.5.3 MWN Active Directory
Als weiteren großen Infrastrukturdienst betreibt das LRZ für das MWN ein mandantenfähiges Active Directory (MWN-ADS). Das MWN-weit erreichbare ADS bildet unter anderem die Basis für zentrale Dienste wie
Exchange oder den zentralen Fileservice MWN-Speicher.
Dieses MWN Active Directory ist so angelegt, dass einzelne, große Institutionen wie LMU, TUM oder die
BAdW voneinander getrennt agieren können. Ziel ist es dabei, Synergien bei der Administration von Desktop-PCs zu erschließen und Mehrwerte im Funktionsumfang für Anwender und Administratoren nutzen zu
66
IT-Basisdienste
können. Mit dem MWN-ADS können alle Clients ab Windows 2000 verwaltet, Mac OS X und Linux-Systeme
an eine zentrale Nutzerverwaltung angebunden werden.
Jede Organisationseinheit erhält eine vordefinierte Unterstruktur (Organisational Unit, OU) im MWN-ADS.
Die Unterstruktur wird wiederum in Fakultäten und Lehrstühle weiter untergliedert. Auf diesen Ebenen können von einem sog. „Teil-Administrator“ des Kunden Computerkonten, Gruppenrichtlinien, Gruppen oder
Funktionskennungen eingetragen und verwaltet werden. Die Einrichtung dieser Organisationsstrukturen
wird stetig in Absprache mit den teilnehmenden Kunden angepasst. Damit es nicht zu Namenskonflikten
innerhalb des MWN-ADS kommt, wurde ein verbindliches Namenskonzept für Objekte im MWN-ADS entwickelt. Zur Erfüllung ihrer Aufgaben wird den Teil-Administratoren ein Set an Werkzeugen über zwei Terminalserver zur Verfügung gestellt. Die Benutzerkonten und zentralen Gruppen werden über die beiden
Metaverzeichnisse (LZRBVW, TUMonline) am LRZ gepflegt. Dabei kommen Softwarelösungen der Firma
NetIQ zum Einsatz.
Derzeit sind 9 (7) voneinander abgetrennte Mandanten im MWN-ADS eingerichtet mit rund 132.000
(115.000) Kennungen. In 2014 kamen neu, als eigenständige Mandanten, die Akademie der bildenden
Künste (AD) und die Staatliche Museen (SM) als Exchange-Nutzer hinzu.
Aus den Mandanten TUM, LMU, HMT (HS Musik und Theater), BVB (Bibliotheksverbund Bayern) und
BAdW sind rund 9.000 (6.000) Rechner ins MWN-ADS integriert. Es wurden bisher 710 (603) Teiladmins
aus 405 (361) Einrichtungen registriert und in 2014 haben sich an der Infrastruktur rund 49.000 (45.000)
verschiedene Nutzer angemeldet. Dabei wurden Dienste wie der MWN-Speicher, die Groupware Exchange
oder die Anmeldung an ins MWN-ADS integrierten Clientrechnern genutzt.
Die Provisionierung der Benutzerkonten aus den Metaverzeichnissen in das Active Directory erfolgt durch
den „Identity Manager Driver for Scripting“ von NetIQ, der Attributsänderungen an vom LRZ selbstentwickelte PowerShell Skripten auf ADS-Seite übergibt. Dadurch wird eine enorme Flexibilität beim Verarbeiten
und der Fehlerbehandlung von Ereignissen erreicht.
Auch in 2014 wurden die Skripte weiter angepasst und weiter verfeinert. Ein großes Augenmerk wurde
dabei auf die weitere Optimierung der Laufzeit einzelner Events gelegt, damit die Verarbeitung von Massenevents gerade zum Semesterwechsel beschleunigt wird. Hier kommt die Parallelisierung der einzelnen
Treiber zum Tragen. So werden nun die Events der TUM auf insgesamt 8 und die der LRZ-Benutzerverwaltung auf drei unabhängige Kanäle verteilt. So konnte die Verarbeitung der Events der TUM zum Semesterwechsel WS 14/15 auf ein Fünftel der Zeit reduziert werden.
9000
8000
7000
6000
5000
4000
3000
2000
1000
0
Jan
Feb
Mrz
BADW
Apr
LM
Mai
Jun
TUM-PC
Jul
Aug
TUM-Rest
Sep
Okt
Nov
Dez
sonstige
Abbildung 25: Computerkonten im MWN-ADS in 2014
6.5.4 DFN-AAI/Shibboleth
Föderiertes Identity Management (FIM) auf Basis der Software Shibboleth ermöglicht es Benutzern, Webdienste, die außerhalb ihrer eigenen Hochschule oder Einrichtung angesiedelt sind, mit der lokalen Hochschulkennung zu nutzen. Den organisatorischen Rahmen für einen solchen Diensteverbund bildet die einrichtungsübergreifende Infrastruktur für Authentifizierung und Autorisierung des DFN (DFN-AAI). Wesentliche Vorteile dieser Authentifizierungsmethode sind für den Benutzer gegenüber konventioneller LDAPAnmeldung:
Jahresbericht 2014 des Leibniz-Rechenzentrums
67
a) der bessere Schutz der persönlichen Daten, die nur bedarfsgetrieben und nur nach expliziter Genehmigung durch den Benutzer an genau den gewünschten Webdienst weitergegeben werden
(kein User-Provisioning auf Vorrat),
b) die erhöhte Sicherheit vor Phishing und Account-Missbrauch, da die Passworteingabe ausschließlich bei der Authentifizierungskomponente der Heimateinrichtung, dem sogenannten Identity Provider (IdP), stattfindet und nicht bei den vielen fremden Webdiensten (Service Provider, SPs).
6.5.4.1
Identity-Provider-Dienstbetrieb
Das LRZ betreibt in der DFN-AAI neben dem eigenen Identity Provider auch die IdPs für die LMU und die
TUM. Als Datenbasis nutzt der LMU-IdP das SIM-Import/Export-Directory, der TUM-IdP den TUM-eigenen
Authentifizierungsserver (siehe Abbildung 24 links unten).
In allen drei Identity-Providern wurde die Internationalisierung aller Webformulare und Seiten mit englischen Varianten fertiggestellt.
Einige Standard-Attribute wurden bzgl. der gelieferten Werte in Abhängigkeit des anfragenden Webdiensts
eingeschränkt. Beispielsweise werden von den Entitlements jeweils nur noch die dienstrelevanten Werte
übermittelt und der Rest unterdrückt.
Auch bei den Identity-Providern bestand – wie bei den Directory-Servern – rascher Handlungsbedarf nach
Bekanntwerden der SSL-Sicherheitslücken. In den Applikationscontainern der IdPs (Tomcat) konnte
SSLv3 wegen der Poodle-Sicherheitslücke sofort deaktiviert werden. Der Austausch der Serverzertifikate
wegen des Heartbleed-Bugs hatte bei einigen Service-Providern für Unregelmäßigkeiten gesorgt, blieb
jedoch, was die Authentifizierung betraf, ohne nennenswerte Auswirkungen auf die Benutzer. IdP-seitig
war allerdings der Umstieg auf die Java-VMs von Oracle notwendig, weil nur damit der reibungslose Abruf
der Metadaten aus den verschiedenen Föderationen weiterhin gewährleistet war.
6.5.4.2
Anpassungen für spezielle Service Provider
Betreiber von Webdiensten profitieren durch die „Shibbolethisierung“ und Beitritt in die DFN-AAI oder die
jeweilige hochschullokale Föderation von den Vorteilen der AAI-Lösung bzgl. Datenschutz, Datensicherheit
und Single Sign-on. Dafür waren, ähnlich wie in den Vorjahren, Abstimmungen und Anpassungen hinsichtlich der von den IdPs ausgelieferten Attribute erforderlich, oder auch eine Zusammenarbeit bei der Fehlersuche in der Anbindung.
Mit der LMU ist die Kooperation beim Aufbau eines zentralen Moodle-E-Learning-Systems (ELAB) hervorzuheben. Bei einigen schon länger betriebenen Webdiensten der LMU aus dem Bereich der virtuellen
Lehre, die in den Anfangszeiten der DFN-AAI eine Vorreiterrolle einnahmen, stand der Wechsel der Serverzertifikate an. Die neuen Zertifikate mussten rechtzeitig und parallel auch in der Metadatenverwaltung
der DFN-AAI publiziert werden. Insgesamt war die Nutzung des LMU-IdP etwas rückläufig, da die UniBibliothek seit Februar 2014 den Zugriff auf elektronische Zeitschriften, Medien etc. auf ein Zugangsverfahren mit Authentifizierung gegen den LMU-Verzeichnisdienst ("E-Medien-Login", EZProxy) umgestellt
hat. Grund hierfür war in erster Linie das mit Shibboleth-Zugängen verbundene Support-Aufkommen, das
die UB nicht mehr leisten konnte.
An der TUM ist eine ganze Reihe von neuen Service-Providern zu verzeichnen, die in die lokale Metadatenverwaltung aufgenommen wurden und erweiterte Attributsätze vom TUM-IdP bekommen: Dienste für
die Buchung und Zuteilung von Lehrveranstaltungen an Studierende, ein Webportal für Data-Mining-Wettbewerbe, Dienste für Vorlesungsaufzeichnungen, Server für Übungen zu Informatikvorlesungen, die OpenAccess-Managementplattform QOAM in der Uni-Bibliothek, und schließlich als externer Dienstleister
das Webshop-Portal StudiSoft der Uni Würzburg. Bei manchen SPs waren bisher nicht genutzte Attribute
aus den TUM-Verzeichnisdiensten für die Auslieferung per Shibboleth zu konfigurieren, z.B. gewisse Studiengangdetails (features of study) und organisatorische Zugehörigkeiten.
Schließlich wurden im LRZ-IdP Attributfreigaben eingebaut für das TeamDrive-System der Universität der
Bundeswehr, für die Nutzung der DFN-Webkonferenzen durch LRZ-Praktikanten, sowie auch für GéantKooperationspartner.
Die Inter-Föderation eduGAIN, ein weltweiter Zusammenschluss von nationalen AAI-Föderationen, ist mittlerweile stark gewachsen. Daher werden von DFN-Seite die gesammelten eduGAIN-Metadaten nun getrennt nach Identity- und Service-Providern bereitgestellt, um dem Größenproblem bei der Übertragung,
bei der lokalen Vorhaltung im Hauptspeicher und bei der Startup-Zeit des Shibboleth-Servlets zu begegnen.
68
IT-Basisdienste
6.6 Bibliotheksdienste
6.6.1 Arbeitsgruppe Bibliotheksdienste
Mit den Projekten „Rosetta“ zur Langzeitarchivierung und Bavarikon 2 zum Neuaufbau des Kulturportals
Bayern wurde es notwendig, eine abteilungsübergreifende Arbeitsgruppe „Bibliotheksdienste“ zu bilden.
Durch die ständige Kommunikation mit den Kooperationspartnern Bibliotheksverbund Bayern (BVB) und
Münchner Digitalisierungszentrum (MDZ) sowie Einbindung des Teams in deren größere Projekte können
Anfragen schneller bearbeitet werden und ungünstige Entscheidungen bzgl. der Nutzung der LRZ-Dienste
verhindert werden. Neben der direkten Abarbeitung von Aufgaben ist das Team auch in die Beratung und
Planung von Projektarbeitsschritten aktiv eingebunden. Diese enge Kooperation wird weiter ausgebaut um
die Antwortzeiten für Service-Requests in allen Themengebieten des Dienstleistungsumfangs zu optimieren, soweit die personellen Ressourcen es ermöglichen.
6.6.2 System- und Softwaremanagement
Durch die unterschiedlichen Voraussetzungen der Hersteller von Bibliothekssoftware ist es notwendig, Systeme unter Solaris 10, Suse Linux Enterprise und RedHat Enterprise Linux zu betreiben. Alle Hersteller
bieten Neu- und Weiterentwicklungen ihrer Bibliothekssoftware unter Linux (RHEL oder SLES), meist aber
nicht mehr für Solaris an. Daher war es wichtig System- und Softwaremanagementtools zu finden, die
RHEL und SLES unterstützen. Es wurde spacewalk (https://fedorahosted.org/spacewalk/) zum Softwareund Patchmanagement installiert. Für die Systemverwaltung und für das Konfigurationsmanagement
wurde Ansible (http://www.ansible.com) untersucht. Beide Tools sollen ab 2015 produktiv eingesetzt werden.
Tabelle 12: vom Team Bibliotheksdienste verwaltete Systeme
Betriebssystem
Solaris
SLES
RHEL + CentOS
Windows
Serversysteme
(incl. VMs)
153
173
19
20
6.6.3 Projekt Rosetta (Langzeitarchivierung)
Für das Projekt zur Langzeitarchivierung „Rosetta“, bei dem das LRZ mit dem BVB und dem MDZ kooperiert, hat Ende 2013 der Hersteller des Software Ex Libris mit der Bayerischen Staatsbibliothek einen Vertrag ausgehandelt, der die Nutzung der Software für alle bayerischen Universitätsbibliotheken zulässt. Für
3 Bibliotheken würde der Pilotbetrieb eingerichtet.
Außerdem wurde Ende 2014 zusammen mit dem Hersteller ein iterativer Prozess zur Optimierung der
Performance der Software inclusive ihrer Systemumgebung etabliert. Eine deutlich verbesserte Antwortzeit
des Web Frontends während der Ingests konnte schon erzielt werden.
6.6.4 Bibliotheksverbund Bayern (BVB)
6.6.4.1
Aufteilung Server- und Storagekomponenten auf Brandabschnitte
Die Aufteilung der Kernkomponenten für den Betrieb der Bibliothekssysteme auf zwei Brandabschnitte
konnte 2014 abgeschlossen werden. Voraussetzung dafür war die Installation eines Fibrechannel-basierten Storageclusters (Hersteller EMC, Baureihe VNX 5400), und die Migration der Daten. Der Storagecluster
von EMC besteht aus 4 Storageprozessoren mit je 16GB Cache, 22 SSDs (200GB) und 308 SAS Disks
(600GB, 15k). Die SSDs werden als FAST-Cache (Autotiering) betrieben. Die in der Abnahme gemessenen
Performancewerte konnten überzeugen, auch im Betrieb konnte eine Performancesteigerung festgestellt
werden.
Nach der Migration der Daten wurden die Solaris- und Datenbankclustersysteme auf die Räume verteilt.
Die Migration konnte weitgehend ohne Unterbrechungen durchgeführt werden.
Jahresbericht 2014 des Leibniz-Rechenzentrums
6.6.4.2
69
Migration Multimediaserver
Die Migration des Multimediaservers (Software: Digitool von Ex Libris) für die Bibliotheken des Verbundes
von SPARC/Solaris auf RHEL wurde in Kooperation mit der Verbundzentrale des BVB und der Herstellerfirma durchgeführt.
6.6.4.3
Schulung BVB Anwendungsbetreuer
Zur Vorbereitung der anstehenden Migrationen, z.B. der Lokalsysteme, sowie zu speziellen Themen wurde
es notwendig, den Anwendungsbetreuern der Verbundzentrale des BVB spezielle Fortbildungen zu diesen
Themen anzubieten. Folgende Vorträge/Workshops wurden durchgeführt:
•
•
•
•
Grundlagen zu IPv6
Unterschiede Solaris – Linux
Solr und SolrCloud
TLS und Zertifikate
6.6.5 Münchner Digitalisierungszentrum (MDZ)
6.6.5.1
Projekt Bavarikon 2
Für den Relaunch des Kulturportals Bayern, Bavarikon 2, arbeitete das Bibliotheksteam eng mit Wissenschaftlern, Entwicklern und Projektleitern des MDZ zusammen. Die Kooperation begann zunächst mit regelmäßigen Jour Fixes und intensivierte sich über die Zeit hinweg auch mit außerordentlichen Projekttreffen
und Beratungsgesprächen am MDZ und LRZ.
Die gemeinsame Zusammenarbeit fruchtete in der Formierung einer Kommunikationsschnittstelle zwischen MDZ und LRZ, um die abteilungsübergreifenden Anforderungen am LRZ zu kanalisieren und deren
Umsetzung nach einheitlichem Standard koordinieren zu können. Für „Bavarikon 2“ konnte somit ein Netzkonzept erarbeitet werden, welches drei voneinander isolierte Umgebungen für Entwicklung, Staging und
Produktion vorsieht (siehe Abbildung 26: Bavarikon 2 - Produktion. Eines von drei Netzen).
Die Produktionsumgebung wird quasi readonly betrieben, das redundant ausgelegte Frontend ist vom
WWW über einen Loadbalancer erreichbar, um hohen Lastanforderungen gerecht zu werden. Alle Maschinen stehen in einem privaten Netz, welches nochmals über eine ASA-Firewall nach außen abgegrenzt ist.
Zusätzlichen Schutz bieten die lokal betriebenen Systemfirewalls. Die inhaltliche Redaktion geschieht in
der Staging-Umgebung, deren Topologie sich von der Produktivumgebung ableitet. Dazu befindet sich im
Staging-Bereich ein Content Management System (CMS), über das dedizierte Redakteure inhaltliche Veränderungen vornehmen können. Das CMS ist nur für einen bestimmten Personenkreis vom WWW aus
erreichbar. Die dritte Umgebung ist die Entwicklungsumgebung, die der Staging-Umgebung als Vorlage
dienen soll. Hier werden Entwicklungen, neue Softwareversionen und Systempatches getestet, bevor sie
auf das Staging und die Produktion angewendet werden.
Das in Kooperation mit dem MDZ ausgearbeitete und implementierte Konzept berücksichtigte also Verfügbarkeitskriterien, um die Funktion der Applikation auch bei hohen Anfrageaufkommen zu gewährleisten.
Des Weiteren wurden grundlegende Sicherheitsaspekte mit einkalkuliert, um Angriffe aus dem Internet zu
erschweren. Der Eintrittspunkt der weltweiten Kommunikation wurde minimal gehalten. Die Sicherheit der
Applikation wurde im Rahmen eines Penetrationstests festgestellt und verbleibende Verwundbarkeiten behoben.
Neben der architektonischen Konzeption wurde auch beschlossen, das Betriebskonzept der Bibliotheksdienste, wie es seit einigen Jahren für den Bibliotheksverbund Bayern herangereift ist, auch für Bavarikon
2 anzuwenden. Dies umfasst die generelle Reduktion von Rechten einzelner Benutzer sowie ihr zentrales
Management. Die Konfiguration und die Verwaltung der Maschinen werden von einer zentralen Instanz
gesteuert. Analoges gilt für die Verteilung von Systemsoftware und das Monitoring der Maschinen und den
darauf laufenden Diensten. Die Umsetzung des Projektes ist größtenteils abgeschlossen.
Mit dem voraussichtlichen Launch von Bavarikon 2 ist die Kooperation jedoch nicht beendet. Es ist geplant,
nach einer Reflexionsphase den Istzustand des Projektes zu erfassen und weitere Schritte zur kontinuierlichen Verbesserung zu initiieren. Dies umfasst neben weiteren Sicherheitsevaluationen auch die fortlaufende Verbesserung des Betriebskonzepts. Es ist angedacht, die Zusammenarbeit zwischen der Systemverwaltung der Bibliotheksdienste und den Administratoren des MDZ voranzutreiben, um in Zukunft Probleme gemeinsam an einer gemeinsamen Schnittstelle lösen zu können. Bavarikon 2 hat somit Vorbildfunktion und dient als Nucleus zur Restrukturierung der vielen, am LRZ gehosteten MDZ-Dienste.
70
IT-Basisdienste
Abbildung 26: Bavarikon 2 - Produktion. Eines von drei Netzen
Inhaltlich wird das Angebot unter Zuhilfenahme eines MDZ-eigenen Daten-Workflowtools und der Einbettung von streambaren Medien verbessert werden. Für die Zukunft ist geplant, die dreidimensionale Erfassung von Objekten und ihre Einspeisung in Bavarikon 2 voranzutreiben. Dazu sollen auch die Expertisen
des Visualisierungszentrums des LRZ genutzt werden.
6.6.5.2
Betriebskonzept MDZ
Mit dem sporadischen Auftreten von Sicherheitsvorfällen wurde seitens des MDZ der Wunsch nach einer
Restrukturierung und sichereren Verwaltung der MDZ-Dienste bekundet. Eine weitere Sprungfeder für die
Ausarbeitung eines neuen Konzepts sind die Entwicklungsarbeiten an einem Semantic Media Wiki, welches das MDZ in Kürze in Betrieb nehmen wird. Daraufhin wurden dem Kunden diverse Netzkonzeptionen
unterbreitet, die verschiedene Verfügbarkeits- und Sicherheitsaspekte berücksichtigen. Da es sich bei den
MDZ-Diensten um eine Mischung öffentlicher Angebote aber auch hoch performanter Backend-Dienste
handelt, wurde die Etablierung einer dreigliedrigen Netzsegmentierung beschlossen. Dies umfasst ein eigenes Netz für öffentliche Dienste, ein weiteres privates Netz für Backend-Dienste und ein drittes Netz für
Entwicklungsarbeiten (siehe Abbildung 27: Dreigliedrige Netzsegmentierung für MDZ-Dienste).
Eine eigens dafür konfigurierte virtuelle Firewall kontrolliert den Datenverkehr der drei Netze untereinander
und nach außen. Bisher wird die Firewall ausschließlich von dem Team Bibliotheksdienste des LRZ verwaltet. Die Maschinen in den Netzen verfügen ebenfalls über eine Systemfirewall. Aktuelle Entwicklungen
bei den Bibliotheksdiensten sehen vor, das Firewallmanagement der lokalen Firewalls von einer zentralen
Instanz aus zu kontrollieren.
Für das Einspielen betriebssystemkritischer Patches ist ein Baselinemanagement geplant, welches eine
konkrete inhaltliche und zeitliche Trennung zwischen Entwicklungs- und Produktinstanzen vorsieht.
Jahresbericht 2014 des Leibniz-Rechenzentrums
71
Abbildung 27: Dreigliedrige Netzsegmentierung für MDZ-Dienste
Die Benutzerverwaltung soll den Bibliotheksdienste-Standards angegliedert werden und sieht den sicheren
Login per LRZ-SIM und ssh-Authentifizierungsschlüsseln vor, womit die Verwaltung von Benutzern und
deren Rechten an nur noch einer Stelle erfolgt.
Alle zum Betriebskonzept gehörenden Komponenten werden in einem Tikiwiki der Bibliotheksdienste dokumentiert, auf dessen Seiten, je nach Rechtevergabe, auch die Systembetreuer des MDZ zugreifen können.
72
Virtuelle Realität und Visualisierung
7 Virtuelle Realität und Visualisierung
Das Zentrum für Virtuelle Realität und Visualisierung (V2C) ist in den vollständigen Benutzerbetrieb übergegangen und wurde auch dieses Jahr für viele Forschungsprojekte und Veranstaltungen genutzt.
Abbildung 28: Das V2C mit seinen einzelnen Komponenten
7.1 Kooperationen
Mit interessierten Instituten der LMU und TUM wurde der Kontakt intensiviert und einige Projekte konnten
erfolgreich realisiert werden. Die Anwender kommen aus den Bereichen Archäologie, Kunstpädagogik,
Kunst, Zoologie, Genetik, Architektur, Maschinenbau, Anlagentechnik, Strömungsmechanik, Glaziologie,
Hydrometeorologie, Unterhaltung, Lehre, Informationsvisualisierung, Interaktion und Navigation, Big Data,
Scan Vergleich, Rekonstruktion, Paläontologie, Vernetzte Virtuelle Umgebungen, Seismologie, Geoingenieurswesen, Mensch-Maschine Interaktion sowie der Medizin.
Die Zusammenarbeit mit der University of Tokyo und der Tohoku University wurde fortgesetzt. Die erfolgreiche Zusammenarbeit im gemeinsamen Projekt der UfG, der LMU und des LRZ wurde in der Dezemberausgabe der Akademie Aktuell ausführlich beschrieben.
7.2 Forschung und Lehre
Im Bereich Virtuelle Realität und Visualisierung wurden in Zusammenarbeit mit der LMU eine Bachelorarbeit erfolgreich abgeschlossen. Die Lehrveranstaltung „Virtual Reality“ mit 60 Teilnehmern wurde im Sommersemester an der LMU abgehalten. Die besten Projekte der Lehrveranstaltung wurden an einem „Open
Lab Day“ der Öffentlichkeit vorgestellt.
Publikationen zum Thema Eingabeinterfaces zur Navigation wurden an der CHI in Toronto und auf der
öffentlichen Datenbank CoRR veröffentlicht.
Jahresbericht 2014 des Leibniz-Rechenzentrums
73
Das Thema des Collaborative Design Platform Protocols in Zusammenarbeit mit der Architekturinformatik
der TUM wurde an der ISMAR in München und der ACM VRST in Edinburgh präsentiert.
EnergyVis, ein Werkzeug zur Darstellung von Sensordaten in VR Umgebungen mit dem Zweck der Analyse
zur Steigerung der Energieeffizienz, wurde auf der ACOMP in Saigon, Vietnam präsentiert.
Das im Februar 2013 begonnene Europäische Projekt „High Performance, Cloud and Symbolic Computing
in Big-Data Problems applied to Mathematical Modeling of Comparative Genomics“ (Mr.SymBioMath;
http://www.mrsymbiomath.eu) wurde erfolgreich fortgesetzt. Es beschäftigt sich mit der Verarbeitung großer Datenmengen innerhalb der Anwendungsbereiche der Bioinformatik und Biomedizin und ist daher interdisziplinär angelegt.
Eine Anwendung für die flexible Darstellung von Genomvergleichen wird zurzeit am LRZ entwickelt und
wird zur Visualisierung der Ergebnisse von Genomvergleichen eingesetzt. Typischerweise wird der Vergleich von zwei Genomen als Dotplot dargestellt, wobei je ein Genom auf der x- und auf der y-Achse aufgetragen wird. Für einen Abschnitt, der in beiden Genomen auftritt, wird entsprechend ein Punkt eingezeichnet. Die innovativen Aspekte dieser Anwendung beziehen sich vor allem auf den gleichzeitigen Vergleich von mehreren Genomen sowie auf die dreidimensionale Darstellung.
Hier wurden erste Forschungserbnisse an der IEEE InfoVis in Paris vorgestellt.
74
IT-Server-Infrastruktur
8 IT-Server-Infrastruktur
8.1 Linux-Server
8.1.1 Virtuelle Server
Im Jahr 2014 gab es eine Ausschreibung zur Erneuerung der Virtualisierungs-Infrastruktur auf Basis von
Blade-Systemen. Inklusive Nachbeschaffung sind 94 Blade-Server mit insgesamt 1.880 Kernen, 24 TByte
RAM und 675 TByte Hintergrundspeicher im Einsatz.
Die zwischenzeitlich über 1.200 unter Windows und Linux betriebenen virtuellen Server wurden unterbrechungsfrei auf die neue Hardware migriert.
Ein Teilbereich des VMware-Clusters wird für speicherintensive HPC-Anwendungen auf Blade-Servern mit
bis zu 512 GByte RAM genutzt.
Abbildung 29: Virtuelle Serverinstanzen am LRZ
8.1.2 Analyse von Log- und Diagnosedaten
Die im LRZ eingesetzte Analyseplattform „Splunk“ wurde in 2014 breitflächig auf alle zentralen Serversysteme verteilt. Die proaktive Erkennung von Trends und Fehlern ist somit sichergestellt.
8.1.3 Monitoring
Neben den vorhandenen Monitoring-Tools wird die Überwachungssoftware OMD zum Mittel erster Wahl
für die nahtlose Erfassung sämtlicher systemkritischer Prozesse.
8.1.4 Managed Hosting für hochschulstart.de
Auch dieses Jahr war geprägt vom reibungslosen Wirkbetrieb des „Dialogorientierten Serviceverfahrens“
für die „Stiftung Hochschulzulassung“. Das LRZ betreibt auf Basis von Managed Hosting die Plattform zur
deutschlandweiten Studienplatzvergabe.
Jahresbericht 2014 des Leibniz-Rechenzentrums
75
8.2 Windows
Am LRZ werden derzeit rund 160 physische oder virtuelle Windows Server betrieben. Der Anteil der virtuellen Systeme liegt bei rund 90%. Es hat sich in den vergangenen Jahren wiederholt gezeigt, dass es unter
Umständen nicht sinnvoll ist, bestimmte Systeme zu virtualisieren. So werden die Mailbox-Server für die
Exchange-Infrastruktur mit physischer Hardware betrieben, um den Storage direkt anbinden zu können.
Aus Performancegründen werden noch ein SQL-Cluster und alle Domain Controller des MWN-Active Directory mit physischer Hardware betrieben, da die Leistungsfähigkeit der virtuellen Maschinen zu gering
ist. Auch verhindern bestimmte Anwendungen wie z.B. für das Gebäudemanagement am LRZ oder Überwachungskomponenten, die möglichst unabhängig von weiterer Infrastruktur betrieben werden müssen,
eine Virtualisierung.
Die momentan unterstützten Betriebssystemversionen am LRZ reichen von Windows Server 2008 bis zur
aktuellen Version Windows Server 2012 R2. Windows Server ist dabei das Basisbetriebssystem für verschiedene höherwertige Dienste am LRZ wie Active Directory, Exchange oder Terminalserver.
Installation, Pflege und Reporting der Systeme erfolgten über den zentralen Microsoft System Center Configuration Manager 2012 R2 (SCCM) am LRZ, der auch für die Clientsysteme Verwendung findet. Für Monitoring und Alerting findet der Microsoft System Center Operation Manager 2012 R2 (SCOM) von Microsoft
Verwendung, der mit seinen vorgefertigten Management Packs gezielt nicht nur das Betriebssystem, sondern auch die auf den Servern betriebenen Dienste wie Active Directory, Exchange oder MS SQL überwacht. Unterstützt wird das Monitoring der Hardware bei den physischen Servern durch die DELL Openmanage Suite, wodurch Hardwareprobleme direkt an den SCOM gemeldet werden.
76
Hochleistungssysteme und SuperMUC
9 Hochleistungssysteme und SuperMUC
9.1 Höchstleistungsrechner SuperMUC
9.1.1 SuperMUC Phase 2
Mit der Inbetriebnahme von Phase 2 des SuperMUC kommen zur jetzigen Peak-Performance von 3,2
Petaflops weitere 3,6 Petaflops an Rechenleistung hinzu (siehe Tabelle 13), die von insgesamt 86.016
Cores in 6.144 Intel Haswell-Prozessoren E5-2697 v3 erbracht werden. Das Kommunikationsnetz von
Phase 2 basiert auf Mellanox FDR14- und ConnectIB-InfiniBand-Technologie. Der bisherige Hauptspeicher
von 288 Terabyte wird um weitere knapp 200 Terabyte erweitert. Außerdem werden weitere 7,5 Petabyte
SAN/DAS User Storage zur Verfügung gestellt.
Tabelle 13: SuperMUC-Installationsphasen
System Part
Architecture
Processor Type
No. of Cores
Peak
TFlops
Memory
TBytes
el.
Power
kW
(avg.)
147,456
8,200
3,185.0
78.0
340.0
2,100
86,016
3,578.3
196.6
1,000
241,672
6,841.3
536.6
3,100
SuperMUC-Installationsphasen:
SuperMUC Phase 1 Infiniband Multicluster FDR10
Intel Sandy Bridge
Intel Westmere-EX
SuperMUC Phase 2 Infiniband Multic(2Q2015)
luster FDR14
Intel Haswell
Subtotal
Auch die Phase 2 des SuperMUC wird mit bis zu 45°C warmem Wasser gekühlt werden. Der Stromverbrauch konnte für Phase 2 noch einmal gegenüber dem der Phase 1 halbiert werden. Damit bleibt SuperMUC einer der energieffizientesten Supercomputer der Welt.
Bis Ende Dezember 2014 wurden fast alle Hardware-Komponenten der Phase 2 des Systems angeliefert
und mit dem Aufbau und der Integration begonnen. Da die Management-Infrastruktur bereits läuft, sind
viele notwendige Vorarbeiten zur Systeminstallation bereits durchgeführt worden. Erste Tests der neuen
I/O Infrastruktur sowie von einigen Compute-Knoten wurden durch IBM/Lenovo ebenfalls schon durchgeführt. Abbildung 30 zeigt einen Blick auf das neu installierte SuperMUC Phase 2 – System am LRZ.
Jahresbericht 2014 des Leibniz-Rechenzentrums
Abbildung 30: Blick auf das neu installierte SuperMUC Phase 2-System
(Foto: Andreas Heddergott)
9.1.2 Das neue Intel Xeon Phi System SuperMIC
Abbildung 31: Racks des SuperMIC
77
78
Hochleistungssysteme und SuperMUC
In Zusammenarbeit mit IBM wurde 2014 das neue Intel Xeon Phi-basierte System SuperMIC mit einer Peak
Performance von 75 TFlop/s am LRZ in Betrieb genommen. SuperMIC besteht aus einem iDataPlex Rack
mit 32 Knoten. Jeder Knoten enthält zwei Ivy-Bridge Host Prozessoren E5-2650 mit jeweils 8 Cores @ 2.6
GHz und zwei Intel Xeon Phi Coprozessoren 5110P mit jeweils 64 Cores @ 1.1 GHz basierend auf Intels
neuer „Many Integrated Core“ (MIC) Architektur. In der folgenden Abbildung ist die Anbindung des Intel Phi
Systems an die restliche SuperMUC Infrastruktur dargestellt. Schwierig gestaltete sich die Bereitstellung
der NAS Home-Filesysteme auf den Coprozessoren selbst. Die auftretenden Probleme konnten aber mit
Hilfe der IBM-Betriebsunterstützung gelöst werden. Eine Anbindung an das parallele GPFS Filesystem ist
in der zweiten Hälfte 2015 geplant.
Abbildung 32: Netzwerk-Topologie des Intel Xeon Phi Systems
Einer der Hauptvorteile dieser neuen Architektur ist die Möglichkeit, die Coprozessoren mit den StandardProgrammiersprachen C, C++ und Fortran programmieren zu können. Auch die Parallelisierung kann mit
Standard-Parallelisierungstechniken wie MPI und OpenMP erfolgen. So müssen nicht – wie bei der
GPGPU-Programmierung – komplizierte Sprachen wie CUDA oder OpenCL erlernt werden, um Programme auf Intel MIC portieren zu können.
Interessierte Benutzer können über das LRZ Service-Desk Portal Zugang auf SuperMIC beantragen; Voraussetzung hierfür ist ein SuperMUC Account, der aber ggf. immer über ein Test-Projekt generiert werden
kann.
9.1.3 Das neue Remote-Visualisierungs-System für SuperMUC Benutzer
In Zusammenarbeit mit IBM wurde 2014 ein neues Remote-Visualisierungs-System in Betrieb genommen.
Für SuperMUC Benutzer stehen nun 7 dedizierte Server zur Verfügung (Dual-Socket Xeon E5-2690, Sandy
Bridge). Jeder Server ist mit 128 GByte RAM und einer NVIDIA K20X GPU ausgestattet. Über das ModulSystem ist der komplette Software-Stack des SuperMUC auf den Visualisierungs-Servern verfügbar. Das
System wird über eine eigene SLURM-Instanz verwaltet, die jeweils einen Server für einen Benutzer dediziert reserviert.
Jahresbericht 2014 des Leibniz-Rechenzentrums
79
Aktuell sind folgende Softwarepakete für Remote Visualisierung vorhanden: Amira, Avizo, Blender, Maestro, Ensight, Paraview, PyMol, R, Vapor, Visit, VMD.
Zusätzlich wurde eine Browser-Applikation erstellt, die ohne Installation sofort funktioniert und es erlaubt,
das Remote-Visualisierungs-System des LRZ besonders unkompliziert (1-click) zu nutzen:
https://rvs.lrz.de/
9.1.4 Betrieb des Höchstleistungsrechners SuperMUC
Ein Schwerpunkt der Aktivitäten der Abteilung Hochleistungssysteme bestand in der weiteren Optimierung
des Betriebs des Höchstleistungsrechners SuperMUC und in der Aufnahme des Betriebs der mit Intel
Many-Integrated-Cores bestückten Partition (SuperMIC). Insgesamt ist nun ein stabiler und sehr produktiver Betrieb des SuperMUC erreicht worden und es konnten so herausragende Ergebnisse für die Wissenschaft erzielt werden. Das System ist sehr gut ausgelastet. Es gibt in allen Jobklassen immer wartende
Jobs. Um für einige Großprojekte den benötigten Durchsatz zu erreichen, mussten für diese Projekte temporär sogar dedizierte Ressourcen bereitgestellt werden. Für die verbleibenden, durch die Vorlaufphase
beim Starten paralleler Programme bedingten Leerstände wurden Konzepte entwickelt, die die zukünftige
Nutzung auch dieser Ressourcen durch kleine, ggf. auch vorzeitig beendbare Jobs zulassen.
Aus Gründen der Risiken für die Systemstabilität des Phase 1 Systems wurde entschieden, das Xeon Phi
System nicht in die Infiniband-Fabric des SuperMUC zu integrieren. Stattdessen wurde die Topologie des
SuperMIC-Verbindungsnetzwerkes im Laufe des August 2014 mittels zusätzlicher Mellanox-Switche auf
einen isoliert betriebenen Fat Tree umgearbeitet. Darüber hinaus wurde – in intensiver Zusammenarbeit
mit IBM sowie mit Unterstützung durch Intel – der gesamte Software-Stack aktualisiert, mit zahlreichen
Fehlerbehebungen und systemseitigen Verbesserungen.
Einen weiteren Schwerpunkt bildete im zweiten Halbjahr die Vorbereitung der Installation, Inbetriebnahme
und Abnahme der zweiten Phase von SuperMUC. Hierzu wurden die notwendigen Abnahmeprozeduren
mit IBM verhandelt und das Betriebskonzept erstellt. Bis Ende Dezember wurden fast alle Hardware-Komponenten der Phase 2 des Systems angeliefert und mit dem Aufbau und der Integration begonnen. Da die
Management-Infrastruktur bereits läuft, sind viele notwendige Vorarbeiten zur Systeminstallation bereits
durchgeführt worden. Erste Tests der neuen I/O Infrastruktur sowie von einigen Compute-Knoten wurden
durch IBM/Lenovo ebenfalls schon durchgeführt. Darüber hinaus wurden auf Haswell-EP-basierten Testknoten erste Analysen des Verhaltens der Architektur sowie des Energieverbrauchs von Applikationen
durchgeführt. Nach wie vor sieht der Zeitplan den regulären Nutzerbetrieb auf dem Phase 2 System frühestens im zweiten Quartal 2015.
An Problemen traten im Berichtszeitraum Out-of-Memory Situationen bei Mellanox-Infiniband-Treibern auf,
die aber kaum Auswirkungen auf Benutzerbetrieb hatten, da eine Hochverfügbarkeitslösung für diese Komponenten besteht. Das Problem konnte Anfang 2015 durch einen Upgrade endgültig behoben werden.
Ende 2014 kam es zu zwei längeren Unterbrechungen, verursacht durch einen Fehler bei der gebäudeseitigen Kühlungsinfrastruktur, bzw. durch einen Defekt an der dynamischen unterbrechungsfreien Stromversorgung. Diese Vorfälle zeigen, dass weiterhin an der Erhöhung der Zuverlässigkeit der LRZ-Rechenzentrumsinfrastruktur gearbeitet werden muss. Weiterhin wurde eine erhöhte Ausfallrate von Boards nach
Stromabschaltungen beobachtet. Hierzu wird eine intensive Untersuchung durch den Hersteller durchgeführt.
9.1.5 Auslastung
Abbildung 33 zeigt die Rechenzeitabgabe des SuperMUC im Vergleich zur maximal möglichen Abgabe
(ohne Berücksichtigung von Wartungen). Das System ist nun ständig voll ausgelastet. Leerstände von
Prozessoren gibt es praktisch nur durch Jobs, die auf freie werdende Knoten warten. Insgesamt wurden
im Jahr 2014 etwa 1.1 Mrd. Core-Stunden an Rechenzeit abgegeben. Gegenüber dem Jahr 2013 konnte
damit eine 10%ige Steigerung erreicht werden, was insbesondere darauf zurückzuführen ist, dass im Jahr
2013 umfangreiche Infiniband- Kabeltauschaktionen durchgeführt werden mussten.
In Abbildung 34 ist die Entwicklung der prozentualen Auslastung sowohl für die Fat als auch für die Thin
Nodes dargestellt. Der angestrebte Auslastungswert von 85% wurde 2014 noch nicht ganz erreicht.
80
Hochleistungssysteme und SuperMUC
Abbildung 33: Rechenzeitabgabe (in Core-Stunden).
Bis 3. Quartal 2012 nur Migrationssystem (Fat-Nodes), ab 4. Quartal 2013 Thin und Fat-Nodes
Abbildung 34: Prozentuale Auslastung
(Verhältnis der tatsächlichen zur maximal möglichen Rechenzeitabgabe)
Jahresbericht 2014 des Leibniz-Rechenzentrums
81
9.1.6 Rechenzeit nach Fachgebieten
Eine Aufschlüsselung der Rechenzeitabgabe nach Fachgebieten ist in Tabelle 14 angegeben und wird in
Abbildung 35 dargestellt.
Tabelle 14: Verteilung der Rechenzeit nach Fachgebiet
Fachgebiet
Computational Fluid Dynamics
Astrophysics/Cosmology
Biophysics/Biology/Bioinformatics
Physics - others
Chemistry
Geophysics
Physics - High Energy Physics
Physics - Solid State
Engineering - others
Support/Benchmarking
Informatics/Computer Sciences
Engineering - Electrical Engineering
Meteorology/Climatology/Oceanography
Medicine
Crystallography
Mathematics
Engineering - Structural Mechanics
Anteil an Rechenzeit
31.15%
29.67%
10.67%
8.93%
5.77%
3.12%
2.63%
2.33%
2.18%
1.31%
0.91%
0.44%
0.33%
0.32%
0.17%
0.03%
0.03%
Abbildung 35: Verteilung der Rechenzeit nach Fachgebieten
82
Hochleistungssysteme und SuperMUC
Etwa jeweils 30% der Rechenzeit von SuperMUC werden von Programmen aus dem Bereich der Fluiddynamik und der Astrophysik benutzt. Die Rechenzeitnutzung durch Applikationen aus dem Bereich Lebensund Biowissenschaften ist in den letzten Jahren stetig gestiegen und konnte sich mit ca. 10% als drittstärkste Nutzungsgruppe etablieren. Weitere wichtige Benutzergruppen kommen aus der Physik (9%),
Chemie (6%), Geowissenschaften (3%) und der Hochenergiephysik (3%).
Der zeitliche Verlauf der Entwicklung der Nutzung durch unterschiedliche Fachgebiete ist in der folgenden
Abbildung wiedergegeben. Bemerkenswert sind die stärkere Nutzung durch die Fluiddynamik und der
Rückgang der Nutzung durch die Hochenergiephysik, insbesondere QCD.
Abbildung 36: Zeitliche Entwicklung der Nutzung von SuperMUC durch Fachgebiete
9.1.7 Jobgröße
Abbildung 37 zeigt die zeitliche Entwicklung der Nutzung des SuperMUC in Abhängigkeit von der Jobgröße
(Anzahl verwendeter Rechenkerne) dargestellt. Mehr als zwei Drittel der Rechenzeit wird an Jobs abgegeben, welche mehr als 1.024 Rechenkerne verwenden. Aus Abbildung 37 geht zudem hervor, dass mehr
als die Hälfte aller Jobs mehr als 2.048 Rechenkerne verwenden. Im Normalbetrieb werden derzeit nur
Jobs mit bis zu 32.768 Rechenkernen auf dem SuperMUC Phase 1 - System ausgeführt. Anwendungen
mit höheren Rechenkernanforderungen werden nur in dedizierten Blockbetriebszeiten oder nach Wartungen auf dem System verarbeitet. Die im Normalbetrieb von einer Anwendung maximal nutzbare Anzahl
von Rechenkernen soll aber nach Inbetriebnahme der Phase 2 deutlich erhöht werden.
Jahresbericht 2014 des Leibniz-Rechenzentrums
83
Abbildung 37: Zeitliche Entwicklung SuperMUC-Nutzung in Abhängigkeit von der Jobgröße
9.1.8 Datentransfer
Durch die Intensivierung der Kollaboration zwischen den deutschen und europäischen Rechenzentren im
Rahmen von GCS und PRACE steigt auch die Anforderung, große Datenmengen zwischen den europäischen Rechenzentren und Wissenschaftsinstitutionen, aber auch weltweit zu transferieren. Daher steigt
die Nachfrage nach einer Software, die die vorhandene Bandbreite der vorhandenen Hochgeschwindigkeitsnetzwerke bestmöglich ausnutzt. Die besten Übertragungsraten liefert momentan das Datentransfertool GridFTP der Grid-Middleware Globus. Im Jahr 2014 wurden ca. 460 TByte per GridFTP von und
zum SuperMUC übertragen. Der Großteil der Daten, 79%, wurde zu den LRZ-Rechnern hochgeladen, nur
21% wurden heruntergeladen. Das Kommandozeilentool globus-url-copy wurde für 72% der Daten verwendet, 13% der Daten wurden mit dem Cloud-basierten point & click Dienst Globus Transfer übertragen.
Festzuhalten ist die gegenüber 2013 deutliche Zunahme der Nutzung der Kommandozeilenversion, welche
sehr leicht skriptbar ist.
Abbildung 38: Ca. 460 TByte wurden 2014 per GridFTP von und zum SuperMUC übertragen
84
9.2
Hochleistungssysteme und SuperMUC
Linux-Cluster
9.2.1 Betrieb
Da die Cluster-Systeme hardwareseitig keine Konfigurationsänderungen erfuhren, beschränkten sich die
Änderungen im Wesentlichen auf Pflegemaßnahmen (Tausch defekter Komponenten).
Größeren Umfang hatten die Änderungen an den betriebenen Software-Komponenten: Alle Systeme wurden im Laufe des Jahres auf das Service Pack 3 von SLES11 angehoben; bei den UV und ICE Systemen
wurde hierbei der Support von SGI zur Unterstützung herangezogen. Die Warteschlangen-Software
SLURM wurde auf eine aktuellere Version verbessert, die deutlich mehr Funktionalität sowohl auf Nutzerseite (z. B. Unterstützung von Array-Jobs) als auch auf der administrativen Seite (z. B. stabilisierte Schlummerfunktion für nicht genutzte Knoten) bietet. Die HPC-Software (Compiler, MPI, Bibliotheken und Tools)
wurde den üblichen Fehlerbehebungs- und Versions-Updates unterzogen.
9.2.2 Nutzung des Linux-Clusters
In den Jahren 2013 und 2014 wurde das Linux Cluster von folgenden Benutzern und Projekten für ihre
Simulationen eingesetzt:
Tabelle 15: Anzahl Nutzer und Projekte
Jahr
Benutzer
Projekte
2013
2014
2013 und 2014 zusammen
553
448
759
145
132
176
Die aus diesen Zahlen abzulesende stärkere Fluktuation bei den Benutzern gegenüber der Anzahl Projekte
lässt sich auf die Nutzung des Clusters durch Studierende im Rahmen ihrer Ausbildung an den Lehrstühlen
zurückführen.
Die Rechenzeitabgabe in Core-Stunden und Auslastung, d.h. Belegung von Rechenknoten der einzelnen
Clustersegmente durch Benutzerjobs, die nominale Verfügbarkeit der Clustersegmente, die Auslastung
sowohl bezogen auf die kalendarisch maximal mögliche Nutzung als auch unter Berücksichtigung der Wartungs- und Ausfallszeiten sind in Tabelle 16 für die Jahre 2013 und 2014 angegeben 1.
Tabelle 16: Auslastung und Rechenzeitabgabe in den Jahren 2013 und 2014
Cluster Segment
ICE
MPP
SERIAL
UV
Gesamt
Anzahl Jobs [Tausend]
(Mittelwert pro Jahr)
Abgegebene Rechenzeit [Mio Core-h]
(Mittelwert pro Jahr)
Anteil an der Gesamtrechenzeit
29.7
69.3
469.0
568.1
1136.2
3.8
20.7
6.3
14.6
45.6
8%
46%
14%
32%
100%
Verfügbarkeit des Segmentes
98%
98%
98%
97%
98%
Auslastung (bezogen auf kalendarisch maximal
mögliche Nutzung)
Auslastung (excl. Wartungs- und Ausfallszeiten)
80%
81%
81%
75%
79%
82%
83%
82%
77%
81%
Die Auslastung der Clustersysteme entspricht den üblicherweise für solche Systeme erwarteten Werten.
Die etwas schlechtere Auslastung des UV–Segmentes ist darauf zurückzuführen, dass hier überwiegend
größere Jobs gerechnet werden und die resultierenden Leerstände nicht durch Backfill kompensiert werden
konnten.
1
Weitere Statistiken zur Nutzung des Linux-Clusters: http://www.lrz.de/services/compute/statistik-linux/
Jahresbericht 2014 des Leibniz-Rechenzentrums
85
Die nach Hochschulen und ggf. Fachbereichen aufgeschlüsselte Nutzung des Linux-Clusters am LRZ ist
in der folgenden Tabelle dargestellt. Schwerpunkte sind dabei in den Bereichen Geowissenschaften, Physik, Chemie, Biowissenschaften und Ingenieurwissenschaften zu erkennen.
Tabelle 17: Verteilung der Rechenzeit nach Institutionen in den Jahren 2013 und 2014
Institution
Fakultät oder Fachbereich
Bayerische Akademie der Wissenschaften
Kooperationsprojekte des LRZ
Leibniz-Rechenzentrum
Bayerische Hochschulen und Fachhochschulen soweit nicht gesondert erfasst
Anteil an
Nutzung
0.7%
0.3%
0.4%
18.3%
Georg-Simon-Ohm-Hochschule Nürnberg
Katholische Universität Eichstätt
Universität Augsburg
Universität Bamberg
Universität Bayreuth
Universität Erlangen
Universität Regensburg
Universität Würzburg
Hochschule München
0.9%
Hochschule München
Ludwig-Maximilians-Universität München
33.6%
Department Chemie Bereich Anorganische Chemie
Department Chemie Bereich Physikalische Chemie
Department für Geographie,LMU
Department Pharmazie
Fakultät für Biologie
Fakultät für Geowissenschaften
Fakultät für Mathematik, Informatik und Statistik
Fakultät für Physik
Genzentrum
Institut für Statistik
Kinderklinik und Kinderpoliklinik im
Dr. von Haunerschen Kinderspital
Klinikum der Universität München
Lehrstuhl für Experimentalphysik - Laserphysik
Medizinische Fakultät
Sektion Physik
Öffentlich-Rechtliche und Gemeinnützige Körperschaften
Hochschulnahe Einrichtungen
Technische Universität München
Department Chemie
Department für Biowissenschaftliche Grundlagen
Department für Ernährungs- und Lebensmittelwissenschaften
Forschungsneutronenquelle Heinz Maier-Leibnitz (FRM II)
Department für Pflanzenwissenschaften
Fakultät für Informatik
Fakultät für Physik
Forschungsdepartment Ingenieurwissenschaften für
Lebensmittel und biogene Rohstoffe
Institut für Astronomische und Physikalische Geodäsie,
Photogrammetrie, Kartographie
Anteil an
Nutzung
0.2%
0.9%
2.1%
0.1%
3.7%
0.4%
9.5%
1.4%
0.9%
0.3%
3.0%
0.1%
1.7%
1.1%
10.3%
0.1%
2.4%
1.3%
0.3%
0.1%
0.1%
0.1%
3.1%
9.6%
0.5%
0.5%
46.0%
10.9%
3.8%
2.4%
3.4%
0.1%
0.5%
0.3%
0.2%
0.7%
86
Hochleistungssysteme und SuperMUC
Institut für Energietechnik
Institut für Luft- und Raumfahrt
Institut für Maschinen- und Fahrzeugtechnik
Institut für Methodische Grundlagen
Institut für System- und Schaltungstechnik
Institut für Verfahrenstechnik
Institut für Werkstoffe und Verarbeitung
Physik-Department Experimentalphysik
Physik Department Theoretische Physik
TUM School of Management
Zentrum Mathematik
Gesamtergebnis (100% = 45.6 Mio Core-h/Jahr)
6.8%
13.5%
0.6%
0.1%
0.6%
0.3%
0.1%
0.6%
0.1%
0.1%
1.0%
100%
100.0%
Die Bedienqualität am Linux-Cluster lässt sich aus Abbildung 39 entnehmen. Hier ist der kumulative Anteil
an Jobs dargestellt, die nach einer bestimmten Anzahl von Stunden zur Ausführung kommen. In den parallelen Jobklassen kommen zwar etwa 50% aller Jobs nach 4 Stunden zur Ausführung, aber am MPPSegment müssen 35% länger als 24 Stunden auf die Ausführung warten. Deutlich schlechter als für die
parallelen Jobs sieht es für die seriellen Jobs aus. Hier kommen nur 20% innerhalb der ersten Stunde zur
Ausführung, 40% müssen länger als einen Tag warten und 20% müssen sogar länger als drei Tage warten.
Die Rechenkapazitäten am Linux-Cluster sollen deshalb im Jahr 2015 erneuert und deutlich ausgebaut
werden, damit sich die Bedienqualität sowohl für parallele als auch serielle Jobs verbessert (siehe Kap.
9.2.3).
Abbildung 39: Kumulativer Anteil von Jobs in Abhängigkeit von der Wartezeit
9.2.3 Antrag zur Ersetzung veralteter Komponenten des Linux-Clusters
Einen Schwerpunkt im Berichtszeitraum bildete der Antrag auf Ersetzung technologisch veralteter Segmente des Linux-Clusters, mit dem auch eine Erhöhung der Energieeffizienz durch Warmwasserkühlung
Jahresbericht 2014 des Leibniz-Rechenzentrums
87
sowie der Sekundärnutzung der Abwärme durch Bereitstellung von Kühlinfrastruktur auf Basis von Adsorptionskühlung erreicht werden soll. Der erste Teil des Antrages (landesfinanziertes Großgerät nach Art. 143c
GG) wurde bereits genehmigt. Die Installation des landesfinanzierten HPC-Clusters auf Basis von SuperMUC Phase 2 – Technologie wurde noch im Dezember 2014 begonnen. Für die Phase 2 (Forschungsgroßgerät nach Art. 91b GG) wurden von den Gutachtern weitere Nutzungsnachweise eingefordert. Hierzu
hat das LRZ im Herbst eine Benutzerumfrage durchgeführt. Die Mehrheit der Befragten betont, dass die
Nutzung des Linux-Clusters einen unverzichtbaren Bestandteil des Arbeitsablaufes ihrer Forschungsaktivitäten darstellt.
Aus der Umfrage wird auch ersichtlich, dass in Zukunft in vielen wissenschaftlichen Applikationen große
Datenmengen generiert werden. Durch die hohe Parallelisierung der Anwendungen wird I/O (Input/Ouput)
immer mehr zum Flaschenhals. Die Anbindung an ein paralleles Dateisystem (z.B. Lustre, GPFS) wird es
erlauben, auch die Ein- und Ausgabezeiten von Anwendungen zu analysieren und zu optimieren. Außerdem müssen diese Daten meist aufbereitet und visualisiert werden. Hierzu steht eine Anbindung des Clusters an Remote-Visualisierungssysteme bereit.
Das Linux-Cluster bietet mit seiner Größe und Hardware für diese Aufgaben eine optimale Plattform. Dies
gilt vor allem für die relativ neuen Benutzergruppen aus dem Bereich der Bio- und Lebenswissenschaften.
Im Verlauf des zweiten Halbjahres 2014 wurde speziell auf die Biologie im Forschungszentrum Martinsried
zugegangen, um die dortigen Anforderungen an Rechenleistung (HPC und Cloud), Speicherkapazität und
Netzanbindung kennenzulernen und besser unterstützen zu können.
9.3
Applikations- und Benutzerunterstützung im Bereich HPC
9.3.1 Supportanfragen
Zum ersten Mal ist ein deutlicher Rückgang der Anzahl von Supportanfragen im Bereich HPC zu verzeichnen – obwohl die Anzahl der Benutzer und die Anzahl der eingesetzten Hardwaresysteme und Softwarekomponenten weiter ansteigen. In den Jahren zuvor hat das Wachstum zu einer hohen Arbeitsbelastung
vor allen in den Gruppen Applikationsunterstützung und HPC-Systeme geführt. Die Gründe für diesen
Rückgang sind sicherlich vielfältig, wesentlich dürften jedoch folgende Prunkte sein:
•
•
•
•
Weitgehend etablierter Routinebetrieb am SuperMUC und am Linux-Cluster
Gute Stabilität der eingesetzten Hard- und Softwarekomponenten
Umfangreiche Web-Dokumentation des LRZ, Kurse und Schulungen
Einheitliche Betriebssystem- und Programmierumgebung
1400
1166
1200
1000
838
800
600
574
625
2008
2009
1225
1076
934
400
200
0
2010
2011
2012
2013
2014
Abbildung 40: Entwicklung der Anzahl von Supportanfragen im Bereich HPC
88
Hochleistungssysteme und SuperMUC
9.3.2 Benutzerverwaltung für die Hochleistungssysteme
Neben den klassischen Arbeiten der Benutzerverwaltung wie Organisation der Begutachtung der Rechenzeitanträge, Verwaltung der Benutzeraccounts und Rechenzeitabrechnung kamen im Berichtsjahr durch
die stark gestiegene Anzahl von Anträgen noch umfangreiche technische Begutachtungsaufgaben für die
Rechenzeitvergaben über die Calls von PRACE, GAUSS und KONWIHR hinzu.
9.3.3 Software für HPC Systeme
Das umfangreiche Software-Portfolio des LRZ wird laufend gepflegt und aktualisiert. Insbesondere die Bereiche Materialwissenschaften, Chemie und Lebenswissenschaften stellen hohe Anforderungen, weil hier
viele Anwender die Applikationen nicht selber entwickeln, sondern auf fertig bereitgestellte Programme
angewiesen sind. Speziell im Bereich der Lebenswissenschaften wurden weitere Anstrengungen unternommen, Bioinformatik- und Workflow-Tools sowohl auf den Hochleistungsrechnern als auch auf der LRZ
Test-Cloud zur Verfügung zu stellen.
Insbesondere im Bereich der Quantenchemie erfolgten Aktualisierungen, Erweiterungen und neue Releases von Wien2K, Turbomole, Quantum Espresso, CPMD, CP2K, GROMACS, GAUSSIAN, sowie zusätzliche Pakete wie GAMESS, VASP und Schrodinger. Im Bereich der CFD (Computational Fluid Dynamics)
sind neue Versionen von Ansys, OpenFoam, CFX und Fluent erschienen, mit Verbesserungen im Bereich
der parallelen Verarbeitung.
9.3.4 Kurse und Ausbildung
Der hohe Stand des Aus- und Weiterbildungsangebots mit den etablierten Kursen zu Programmiersprachen und Programmentwicklung, Parallelisierung und Optimierung, Fluid-Dynamik sowie Life-Sciences und
Visualisierung wurde auch in diesem Jahr weiter ausgebaut. Eine Reihe von Kursen wurde im Rahmen des
PRACE Advanced Training Centre (PATC) Programms angeboten, teilweise auch in Zusammenarbeit mit
den Kollegen des Regionalen RechenZentrums Erlangen (RRZE).
9.3.4.1
Intel MIC & GPU Programming Workshop
Als PATC Kurs wurde am LRZ vom 28.-30. April 2014 ein Intel MIC & GPU Programming Workshop mit
Schwergewicht auf der MIC-Programmierung veranstaltet. Den Kursteilnehmern wurden von LRZ-, RRZEund Intel-Dozenten verschiedene Programmiermodelle (CUDA, OpenCL, OpenACC, Python, Intel Offload,
MKL, MPI, Intrinsics etc.) und Optimierungstechniken vorgestellt. In Hands-On Sessions auf dem LRZGPU-Cluster und erstmals auch auf dem neuen SuperMIC-Cluster am LRZ konnten die Teilnehmer das
vermittelte Wissen selbst testen.
9.4
Application Labs
In diesem Jahr hat das LRZ vier Applications Labs gegründet:
• Astro- und Plasmaphysik
• Lebenswissenschaften
• Geowissenschaften
• Energie und Umwelt
Ziel ist es, eine stärkere Zusammenarbeit mit und besseren High Level Support für Wissenschaftlicher in
diesen für das LRZ strategischen HPC-Anwendungsfeldern zu etablieren. Die Application Labs zielen darauf ab, die Kooperation und Kommunikation zwischen dem LRZ und den Wissenschaftlern aus den verschiedenen Anwendungsgebieten zu verbessern. Die bessere Verzahnung von Anwendungsgebieten und
Rechenzentren gewinnt zunehmend an Bedeutung, da die jeweiligen Wissenschaftsdisziplinen sehr unterschiedliche Hardwareanforderungen haben.
9.4.1 AstroLab (πCS Astro)
Als erste größere Aktivität des Astrolabs ist hierbei die weitreichende Zusammenarbeit mit PD Dr. Dolag
(LMU Sternwarte) und seiner Gruppe zu nennen, welche sich in den letzten Jahren entwickelt hat. Aus
dieser ergab sich die konkrete Zusammenarbeit bei folgenden Projekten: SuperCAST, Magneticum, das
Pilot-Projekt Magneticum-Daten, ein IPCC-Projekt zur Gadget Portierung / Optimierung auf Intel-Xeon-Phi
Jahresbericht 2014 des Leibniz-Rechenzentrums
89
und ITN-Exasim. Es konnte ein Doktorand für ein Projekt zu Skalierungsoptimierung von GADGET gewonnen werden. Dieses findet im Rahmen der Zusammenarbeit des LRZ mit dem Excellence Cluster Universe
statt. LRZ Mitarbeiter aus dem Astrolab-Team waren an der Vorbereitung und Durchführung des vom
Excellence Cluster Universe organisierten GPGPU Workshop für die Astrophysiker (14./15. April 2014)
beteiligt.
Des Weiteren wurde eine Zusammenarbeit mit den Astrophysikern der Arbeitsgruppe von Prof. Mohr (LMU
Sternwarte) begonnen, die sich mit den Themen Optimierung einer Datenbank-Anwendung für astrophysikalische Datenauswertung mit Efficient Job Scheduling, sowie Memory Optimised Job Chaining befasst.
Im Rahmen des ersten SuperMUC Review Workshops wurde ein Technical User Forum Meeting mit wissenschaftlichen Nutzern aus dem Gebiet der Astrophysik veranstaltet, welcher sehr gut besucht war.
Im November fand ein erstes Treffen in Vorbereitung einer zukünftigen Zusammenarbeit mit Lehrstuhl von
Prof. Sonnendrücker (TUM Mathematik/IPP) erfolgreich statt. Die Arbeitsgruppe von Prof. Bader (TUM
Informatik) hat unter Beteiligung des LRZ-Astrolabs im Rahmen der EU-Horizon2020-Initiative einen Antrag
für das Projekt ExaHyPE gestellt. In ersten Hälfte des Dezembers 2014 wird das LRZ Astrolab den ersten
High Level Support Call veröffentlichen, bei dem Wissenschaftler Unterstützung des LRZ bei zukünftigen
Projekten beantragen können.
9.4.2 BioLab (πCS Bio)
Bei den Anforderungen aus dem Bereich der Lebenswissenschaften ist der deutlich höhere Hauptspeicherbedarf pro Core bzw. Nodes sowie eine exponentiell steigende Datenmenge zu nennen. Um sich auf diese
Bedürfnisse einzustellen zu können, ist eine engere Zusammenarbeit mit den Wissenschaftlern der entsprechenden Disziplinen unumgänglich. Beispielsweise werden für die neuen Sequenzierungsmethoden
in der Bioinformatik sehr rasch immer neuere Applikationen entwickelt, während andere Methoden bereits
wieder aufgegeben werden. Zudem werden viele Applikationen, die sich mit einer speziellen Art von Analysen befassen, zu sogenannten 'Toolboxes' zusammengefasst und von den Entwicklern als fertige virtuelle
Images zur Verfügung gestellt. In diesem Umfeld erweist sich häufig der Einsatz von virtuellen Maschinen
als besonders hilfreich, die diese Images laden können und somit die Applikationen ohne Portierungsaufwand umgehend verwenden können. In diesem Zusammenhang wurden auf der LRZ-Cloud z.B. mehrere
Pilotprojekte mit der Toolbox QIIME (Quantitative Insights Into Microbial Ecology) durchgeführt, die Analysemethoden für Gensequenzierungsdaten zur Verfügung stellt. Die Nutzer von QIIME kamen dabei vom
Klinikum der Universiät München sowie dem Pettenkofer Institut.
Im Rahmen der Software-Initiative von KONWIHR werden in diesem und dem kommenden Jahr drei Projekte aus dem Bereich Lebenswissenschaften gefördert. Die Software-Initiative zielt darauf ab, in enger
Zusammenarbeit zwischen Forschungsgruppen und Rechenzentren, die effiziente Nutzung von HPC-Ressourcen durch die Anwendungswissenschaftler zu verbessern. Zudem sollen die Rechenressourcen auch
für Forschergruppen ohne fundierte HPC-Kenntnisse zugänglicher und leichter nutzbar werden. Die Software-Initiative ergänzt daher die Tätigkeiten der Application Labs am Leibniz-Rechenzentrum.
Die teilnehmenden drei Projekte stammen in diesem Jahr von Forschergruppen der Ludwig-MaximiliansUniversität sowie der Technischen Universität München. Das erste Projekt in der diesjährigen KONWIHRInitiative wird von der Gruppe um Leibniz-Preisträgerin Prof. Dr. v. Mutius vom Haunerschen Kinderhospital
durchgeführt, welches Teil des Universitätsklinikums der LMU ist. Das Projekt beschäftigt sich mit der Analyse des Mikrobioms bei Asthmapatienten im Kindesalter. Das zweite Projekt ist ebenfalls Im Bereich Genomanalyse anzusiedeln und wird von der Gruppe von Professor Rost der Fakultät für Mathematik und
Informatik an der TUM bearbeitet. Es behandelt die Analyse des Effekts von Sequenzvariationen auf die
Proteinbildung. Im letzten Projekt, das von PD Gerald Mathias der Fakultät für Physik an der LMU eingebracht wurde, wird eine Software weiterentwickelt, welche das Verhalten von Proteinen in ihrer Lösungsmittelumgebung simuliert
9.4.3 GeoLab (πCS Geo)
Mit dem Application Lab der Geowissenschaften πCS Geo sind in 2014 mehrere Projekte assoziiert. So
wurden innerhalb des EU-geförderte VERCE-Projektes (Seismologie) Fortschritte in der Entwicklung der
VERCE-Plattform für eine benutzerfreundliche Nutzbarkeit von HPC-Ressourcen für Seismologen erzielt.
Innerhalb des DEEP-ER EU-Projektes (Exascale) wurde die HPC-Applikation SeisSol, maßgeblich in der
LMU/Geophysik und TUM/Informatik entwickelt, mit der Unterstützung des LRZ weiter verbessert und auf
die Nutzung auf dem DEEP-ER Exascale-Prototyp vorbereitet. Mit Unterstützung des LRZ Extreme Scaling
Workshop auf SuperMUC konnte eine rekordverdächtige Rechenleistung von 1,42 PFlops/s erreicht werden, mit der die TUM/Informatik den PRACE-Award 2014 gewann und als Finalist dem Gorden Bell Award
90
Hochleistungssysteme und SuperMUC
greifbar nahe kam. Ein erstes Open-Source Release von SeisSol wurde im August 2014 veröffentlicht. Im
Bereich der Hydrometeorologie ist das Drihm-Projekt IT-seitig durch das LRZ unterstützt worden. Des Weiteren wird im Rahmen des Alpenobservatoriums/VAO-II seit Projektstart im Dezember 2014 das LRZ Alpen-Datenanalysezentrum (Alpen-DAZ) weiter gefördert. Für den Bereich der Klimaforschung konnte der
inzwischen erfolgreiche Projektantrag KlimEx gestellt werden mit Projektstart April 2015. Außerdem wurde
mit dem Antrag EnCompAS ein Antrag für ein Exzellenszentrum für Umweltwissenschaftliche Berechnungssoftware im Rahmen der Horizon 2020 Ausschreibung der EU vorbereitet, welcher inzwischen fristgerecht eingereicht worden ist. Der ebenfalls eingereichte EU Projektantrag Polde ist leider inzwischen
abgelehnt worden. Weitere Vorarbeiten für Projektanträge sind geleistet worden.
Das Potential einer direkten Zusammenarbeit eines geowissenschaftlichen Fachbereichs mit dem LRZ ist
meist groß, aber oftmals nicht bekannt. Um dieses Potential zu vermitteln, wurden im Jahr 2014 mehrere
Informationsveranstaltungen durchgeführt. Hauptzielgruppe dieser Werbeinitiative sind lokal ansässige geowissenschaftliche Arbeitsgruppen mit dem Ziel, sie für Zusammenarbeiten zu gewinnen und/oder existierende Kooperationen auszubauen. Seitens des LRZ wurden dabei LRZ-Infrastruktur, LRZ-Dienste und Projekt-Highlights präsentiert, während die Gäste einen Kurzabriss aktueller Forschungsarbeiten, Prozesse
und eingesetzte Software-Tools präsentierten. Daraus konnten individuelle Anforderungen an die IT-Infrastruktur und IT-Dienste abgeleitet und Ansätze für zukünftige Kooperationen innerhalb des πCS Geo aufgezeigt werden. Fachlich und methodisch gesehen sind die Geowissenschaften insgesamt ein weites Feld.
Zunehmend unerlässlich ist eine interdisziplinäre Arbeitsweise, um gegenwärtigen und kommende Forschungszielen gerecht zu werden. Erwartungsgemäß ist das in den Arbeitsgruppen vorhandene IT-KnowHow, die verwendeten Software-Tools, Arbeitsprozesse und Ressourcen sehr heterogen. Es zeigt sich,
dass es in dem einen Bereich bereits um die Optimierung und Integration existierender Tools und Workflows geht, während in anderen Bereichen die Spezifikation der Anforderungen und grundlegende Nutzung
der Ressourcen bereits eine Herausforderung ist. Unabhängig davon ermöglicht eine effiziente Erschließung der LRZ-IT-Infrastruktur oftmals ganz neue Forschungsperspektiven (und Herausforderungen).
9.4.4 Energie und Umwelt
Aufgrund der hohen gesellschaftlichen Relevanz, aber auch durch die zunehmende Bedeutung dieses Bereichs in der Wissenschaft, wurden in 2014 einige Anstrengungen unternommen, das Thema „Umwelt und
Energie“ am LRZ in den Vordergrund zu rücken. Zu diesem Zweck wurden Wissenschaftler aus den entsprechenden Bereichen an das LRZ eingeladen, um ihnen das Dienstleistungsangebot zu präsentieren
und um weitergehenden Kooperationsmöglichkeiten zu diskutieren. Aus diesen Veranstaltungen resultierten mehrere Forschungsanträge bei unterschiedlichen Fördergebern. So wurde beim Bay. Umweltministerum neben dem VAO-Antrag (s.Abschnitt 2.4.15) eine Skizze für eine Untersuchung von Extremwetterereignissen aufgrund des Klimawandels (KlimEx) unter Federführung der LMU (Prof. Ludwig) eingereicht. Daneben beteiligte sich das LRZ an zwei Anträgen im europäischen Forschungsrahmenprogramm
Horizon 2020. Ebenfalls unter Federführung der LMU (Prof. Dingwell) wurde das Projekt GIGANTIS zu ITUnterstütung der europäischen Solid Earth Community EPOS beantragt, unter Leitung der BOKU Wien
(Prof. Wenzel) das Projekt POLDE, das die Gebäudesicherheit nach Erdbeben im Fokus hat. Weitere Anträge, die in 2015 eingereicht werden sollen, befanden sich bereits in Vorbereitung.
Außerdem beteiligte sich das LRZ an einem Workshop der von der TUM ins Leben gerufenen internationalen Expertengruppe zur Bewahrung des Erdsystems (ISEP), präsentierte Forschungsergebnisse auf der
General Assembly der European Geoscience Union, nahm teil am „3rd Annual Forum of the EU Strategy
for the Danube Region“ sowie an einer Veranstaltung der BayFOR zum Thema „Energie und Umwelt“, um
weitere Kontakte in diesem Bereich zu knüpfen.
In dem sehr weit gefassten Bereich „Energie“ wurden 10 Lehrstühle kontaktiert, um auszuloten, ob die
Services des LRZ für die jeweiligen Forschungsvorhaben hilfreich sein könnten. Bei zwei Lehrstühlen ergaben sich Anknüpfungspunkte, woraufhin die Zusammenarbeit durch detailliertere gegenseitige Vorstellungen vertieft wurde.
•
•
Im Juli 2014 stellte die Arbeitsgruppe von Prof. Jacobsen im Rahmen eines Research Days ihre
Arbeiten dem LRZ vor. Daraufhin entwickelte sich mit dem Lehrstuhl Prof. Hans-Arno Jacobsen,
TUM Informatics 13, eine aktive Zusammenarbeit in den Bereichen Cloud Computing und verteilte
Datenbanken sowie Nutzung des Linux Clusters.
Der „Geothermal Energy Group“ von Prof. Einsiedl, vertreten durch Dr. Kai Zosseder, eröffneten
die Rechenmöglichkeiten am LRZ den Zugang zu neuen Fragestellungen. Dazu wurden einige
Forschungsanträge gemeinsam erarbeitet, die jedoch noch auf eine Genehmigung der Fördergeber warten.
Jahresbericht 2014 des Leibniz-Rechenzentrums
91
10 Datenhaltung
10.1 Überblick Datenhaltung
In gewisser Hinsicht begann das Jahr mit einem Schlussstrich: Nach 23 Jahren Betrieb wurden im Januar
die letzten AFS-Fileserver abgeschaltet. AFS wurde am LRZ über viele Jahre als zentrales, verteilt genutztes Filesystem eingesetzt. Schon seit einigen Jahren hat ein neuer Dienst, der MWN-Speicher, die wesentlich Funktionen von AFS ersetzt. Der MWN-Speicher wird von einem deutlich breiteren Kundenkreis genutzt, nicht nur am LRZ intern und der BADW, sondern auch an großen Teilen der TUM und zunehmend
auch an der LMU.
Im Laufe des Jahres wurde einiges an neuer Hardware installiert und in Betrieb genommen. Die gesamte
virtuelle Speicherinfrastruktur wurde durch neu beschaffte, modernere und leistungsstärkere Systeme ersetzt. Der Bestand an Bandlaufwerken im Archiv- und Backupsystem wurde um 16 LTO6-Laufwerke auf
insgesamt 142 Laufwerke erweitert.
Der Gesamtumfang der in den Bandbibliotheken des LRZ gespeicherten Daten wuchs im Jahr 2014 von
35 auf 42 PetaByte (PiB) an. Die Daten stammen vorwiegend von Sicherungssystemen zweiter Ordnung
sowie von der Archivierung großer Datenmengen. Der Einsatz von Bändern als Datenträger ist bei solch
großen Datenmengen gestern wie heute unverzichtbar.
Die Benutzerbetreuung wurde deutlich intensiviert. Verschiedene Workshops wurden zum Thema Archiv
und Backup am LRZ und an Kundenstandorten abgehalten, Großkunden wurden individuell betreut. Besonderes Augenmerk wurde auf die Unterstützung der digitalen Geisteswissenschaften gelegt. Ein neues
Web-Portal für die Nutzer der Archiv- und Backupsystems wurde Mitte des Jahres freigegeben.
Ebenfalls seit Mitte des Jahres wurden Chancen und Risiken für ein neues Dienstangebot geprüft. Durch
den neuen Dienst soll der vielfache Wunsch nach einem Sync&Share-Angebot ähnlich Dropbox erfüllt werden. Verschiedene Produkte wurden eingehend untersucht. Inzwischen läuft ein Prototyp im internen Probebetrieb. Noch in der ersten Jahreshälfte 2015 soll der Dienst für einen erweiterten Nutzerkreis freigegeben werden.
10.2 Archiv- und Backupsystem
10.2.1 Konfiguration
Das Archiv- und Backupsystem des LRZ besteht aus drei großen Systemen mit Bandrobotern, nämlich
•
•
•
dem Hochleistungssystem HABS, das Anfang 2006 mit damals sehr leistungsstarken Bandlaufwerken installiert und seitdem viermal (Ende 2007, 2010, Mitte 2012 und zuletzt Ende 2013) erweitert wurde,
einem System mit LTO-Bandlaufwerken in mehreren Bibliotheken (LABS), das 2010 neu installiert
wurde und 2014 um 16 LTO6-Laufwerke aufgestockt wurde.
und einem Desaster Recovery System (DRABS), das zusammen mit der HABS Erweiterung in
2012 beschafft wurde, und das eine zweite Kopie der Archivdaten vorhält.
Das letztgenannte System ist, um die Ausfallsicherheit zu erhöhen, räumlich getrennt am Rechenzentrum
Garching der Max-Plack-Gesellschaft (RZG) installiert. Ebenfalls aus Gründen der Ausfallsicherheit befinden sich die Komponenten der drei Systeme in getrennten Speichernetzen (SAN Fabrics). An die SAN
Fabrics sind die Storageserver, alle Bandlaufwerke der Libraries und alle Systeme mit hohem Datenverkehr, insbesondere die NAS-Filerköpfe und die Backupserver angeschlossen. Die SAN Fabrics sind Grundlage für einen effizienten Transport von großen Datenmengen. Dadurch wird die Last am LAN reduziert
und eine dynamische Zuordnung der Speicherkomponenten zu den Verbrauchern ermöglicht.
Die wesentlichen Komponenten des Systems sind:
•
•
•
•
•
•
21 Rechner (vorwiegend Intel Nehalem EP und EX), 388 Cores, 3.952 Gigabyte RAM
6 Fibre Channel Switches (8 Gbit/16 Gbit) und 2 Fibre Channel Direktoren (8/16 Gbit)
1 Fibre Channel Router (16 Gbit)
56 10GE LAN Ports mit 100 Gbit/s Uplink zum LRZ-Backbone
18 Storage Server mit insgesamt 2.700 TB (brutto) an Hintergrundspeicher, verteilt auf 2.424 Disks
und 38 SSDs mit 70 Gigabyte/s theoretischem Gesamtdurchsatz
5 Tape Libraries mit insgesamt 61.500 Slots
92
Datenhaltung
•
142 Bandlaufwerke (LTO-4, LTO-5, LTO-6, T10K) mit 26,5 GByte/s theoretischem Gesamtdurchsatz
Archive and Backup System, Dec 2014
IBM
SUN
Brocade
DELL
Brocade 6510
Brocade 6510
Library IBM TS3500
7 tape devices IBM LTO5
8 tape devices IBM LTO6
19,137 slots
1 TSM Server
TSM
DRABS –
Desaster Recovery Archive
and Backup System (RZG)
10 GBit Ethernet
2-8 TSM Servers
TSM
TSM
8 machines
IBM X3850x5
IBM X3550 M3
2-8 TSM Servers
TSM
TSM
Library SUN SL8500
26 tape devices SUN T10K-B
10,000 slots
IBM StorWize
V7000
10 TB SSD
3 TSM Servers
TSM
12 machines
3 TSM Servers
SUNFire X4270
TSM
Disk Cache + DB
Disk Cache
IBM DS3500
1927 TB
DB
SAN
Brocade
DCX
8510-4
Brocade
DCX
8510-4
Disk Cache + DB
Brocade 5300
Brocade 5300
DELL PowerVault
MD36XXf
280 TB
Library IBM TS3500
15 tape devices IBM LTO5
10 tape devices IBM LTO6
17,333 slots
HABS –
High Performance Archive and Backup System
SAN
SUN 6780
486 TB
Brocade 5300
Brocade 5300
Library SUN SL8500
16 tape devices IBM LTO4
16 tape devices IBM LTO5
26 tape devices IBM LTO6
10,000 slots
Library IBM TS3500 L52
10 tape devices IBM LTO4
8 tape devices IBM LTO5
5,039 slots
LABS –
LTO Archive and Backup System
Abbildung 41: Überblick Archiv- und Backupsysteme
Softwareseitig wird die gesamte Architektur mit dem Tivoli Storage Manager von IBM betrieben. Auf den
21 Rechnern des Systems laufen jeweils mehrere Instanzen des Tivoli Storage Manager, insgesamt waren
Ende 2014 60 TSM-Server in Betrieb. Die Gesamtanzahl der aktiven TSM-Server ist damit nach einer
Reihe vorangegangener Stilllegungen etwas gesunken (vormals 66 Server). Die Reduzierung wurde möglich, da die bei den TSM-servern ab Version 6 eingesetzte DB2-Datenbank deutlich leistungsfähiger ist als
die zuvor genutzte TSM-DB-Implementierung.
Die Abbildungen auf den folgenden Seiten zeigen die drei Teilkonfigurationen des HABS, LABS bzw.
DRABS im Detail.
Jahresbericht 2014 des Leibniz-Rechenzentrums
93
High Performance Archive and Backup System 2014
Cur.
Max.
Tape
Disk
tape capacity:
tape capacity:
devices:
capacity:
29.150 TB, 10.000 T10K + 4600 LTO-5 + 4900 LTO-6
53.000 TB, 10.000 T10K cartridges + 17.300 LTO-6 cartriges
26 x T10K-B + 15 x LTO-5 + 10 x LTO-6 drives
10 TB SSD, 117 TB SAS, 2090 TB NL-SAS
Linux Compute
Cluster
Munich Scientific
Network
Router MWN
10 Gbit
SuperMUC Network
Switches
HP E6600-24XG Switch
24 x 10 GbE Ports
4 x 10 Gbit Ethernet HPC special
Pentium 4
HP E6600-24XG Switch
24 x 10 GbE Ports
11 x 10 Gbit Ethernet
1 x 10 Gbit Ethernet HPC special
12 x 10 Gbit Ethernet
4 x IBM X3850 X5
Pentium
4
S1Server
OPTERON
Worker
S127x 2 coreSn
Sn
XEON
X7550
7
4 x 8 Core
10 Gbit
1 x IBM X3550 M3
3 x IBM X3850 X5
4 x Intel Xeon X7550 2.0 GHz
256-512 GB Memory
8 x FC 8 Gbit
4 x 10 GbE Trunk
SLES 11 SP3
TSM Server 6.3
OPTERON
Worker
Server
OPTERON
2 x 2 core
XEON
X7550
2x2
core
4 x 10 Core
4 x Intel Xeon E7-4860 2.27 GHz
512 GB Memory
8 x FC 8 Gbit
4 x 10 GbE Trunk
SLES 11 SP3
TSM Server 6.3
Mgmt. Server
XEON E5606
1 x 4 core
2 x Intel Xeon E5606
2.13 GHz
16 GB Memory
4 x FC 8 Gbit
2 x 1 GbE
SLES 11 SP3
TSM Server 6.3
72 x 8 Gbit FC
National
Supercomputer
SuperMUC
4 x 8 Gbit FC
Storage Area Network
FC-Direktor
48 Port 8Gb + 64 Port 16Gb
FC-Direktor
48 Port 8Gb + 64 Port 16Gb
26 x 4 Gbit FC
104 x 8 Gbit FC
25 x 8 Gbit FC
Dell MD3620f
SAS 39 TB
Dell MD3620f
SAS 39 TB
Dell MD3620f
SAS 39 TB
Dell MD3660f
NL-SAS
163 TB
IBM DS3500
NS-SAS
212 TB
IBM DS3500
NS-SAS
212 TB
IBM DS3500
NS-SAS
212 TB
IBM DS3500
NS-SAS
212 TB
IBM DS3500
NS-SAS
229 TB
IBM DS3500
NS-SAS
229 TB
IBM DS3500
NS-SAS
229 TB
IBM DS3500
NS-SAS
196 TB
IBM DS3500
NS-SAS
196 TB
IBM V7000
SSD 5TB
IBM V7000
SSD 5TB
IBM TS3500 tape library
15 LTO-5 + 10 LTO-6 FC tape drives
Max library capacity:
Cur. library capacity:
43.000 TB uncompressed
19.150 TB uncompressed
STK SL8500 tape library
26 FC tape drives Titanium B
Max library capacity:
Cur. library capacity:
10.000 TB uncompressed
10.000 TB uncompressed
Abbildung 42: Hochleistungs-Archiv- und Backupsystem Ende 2014
1310 disks
total cap.:
2217 TB
94
Datenhaltung
LTO Archive and Backup System 2014
Cur.
Max.
Tape
Disk
tape capacity:
tape capacity:
devices:
devices:
21.616 TB, 5.397 LTO-4 + 6811 LTO-5 + 2833 LTO-6 cartridges
41.250 TB, 16.500 LTO-6 cartridges
26 x LTO4 + 24 LTO5 + 26 LTO6 drives
222 TB FC-AL, 262 TB SATA
Router MWN
10 Gbit
HP E6600-24XG Switch
24 x 10 GbE Ports
HP E6600-24XG Switch
24 x 10 GbE Ports
Munich Scientific
Network
28 x 10 Gbit Ethernet
12 x Sun Fire X4270
Pentium 4
Pentium 4
Pentium 4
Sn
Sn
Pentium
4
Sn
Sn
Pentium
4
Sn
Sn
Pentium
4
Sn
Sn
Pentium
4
Sn
Sn
Pentium
4
SnX4270 Sn
Sun
Fire
S1
Sn
Sn
Sn
9 Worker / 3 Mgmt.
7
2 XEON x 4 Core
2 x INTEL X5560 2.8 GHz
72/16 GB Memory
4 x FC 8 Gbit
2 x 10 GbE (Failover)
SLES 11 SP3
TSM Server 6.3
56 x 8 Gbit FC
Storage Area Network
8 GBit FC-Switch 80 Port
8 GBit FC-Switch 80 Port
8 GBit FC-Switch 80 Port
8 GBit FC-Switch 80 Port
26 x 4 Gbit FC
34 x 8 Gbit FC
48 x 8 Gbit FC
5.000 slots total
capacity: 7.500 TB
IBM TS 3500 tape library
10 x LTO-4 + 8 x LTO-5
10.000 slots total
capacity: 15.000 TB
SUN SL8500 tape library
16 x LTO-4 + 16 x LTO-5 + 26 x LTO-6
SUN 6780
FC-AL 65 TB
SATA 87 TB
Max library capacity:
Cur. library capacity:
1152 disks, total capacity: 484 TB
41.250 TB uncompressed
21.616 TB uncompressed
SUN 6780
FC-AL 65 TB
SATA 87 TB
Abbildung 43: LTO-Archiv- und Backupsystem Ende 2014
SUN 6780
FC-AL 61 TB
SATA 87 TB
Jahresbericht 2014 des Leibniz-Rechenzentrums
95
Desaster Recovery Archive and Backup System 2014
Cur. tape capacity:
Max. tape capacity:
Tape devices:
25.750 TB,
6.000 LTO-5 + 6700 LTO-6 cartridges
47.800 TB, 19.137 LTO-6 cartriges
7 x LTO-5 + 8 x LTO-6 drives
Munich Scientific Network
Router MWN
1 Gbit
HP 1GE Switch
48 x 1 GbE Ports
2 x 1 Gbit Ethernet
1 x IBM X3650 M4
1 x Intel E5-2630 v2 2.6 GHz
32 GB Memory
2 x FC 8 Gbit
2 x 1 GbE Trunk
Worker Server
XEON E5-2630 v2
1 x 6 Core
SLES 11 SP3
TSM Server 6.3
16 x 8 Gbit FC
Storage Area Network
FC-Switch
24 Port 16Gb
FC-Switch
24 Port 16Gb
15 x 8 Gbit FC
IBM TS3500 tape library
7 LTO-5 + 8 LTO-6 FC tape drives
Max library capacity:
Cur. library capacity:
47.800 TB uncompressed
25.750 TB uncompressed
Abbildung 44: Desaster Recovery-Archiv- und Backupsystem Ende 2014
96
Datenhaltung
10.2.2 Schwerpunkte in den Aktivitäten
10.2.2.1 Neue Bandlaufwerke für LABS
Die Bandlaufwerke der Archiv- und Backupsysteme werden nicht nur für die erste Speicherung der eingehenden Daten auf Kassetten genutzt. Im Rahmen der Qualitätssicherung und der Konsolidierung des Datenbestands werden die Daten auf den Kassetten regelmäßig umkopiert. Außerdem werden die Laufwerke
natürlich benötigt, um die Daten auf den Kassetten zu lesen, wenn entsprechende Anfragen eingehen. An
einer der beiden Bandbibliotheken traten hier lange Wartezeiten auf. Um die Bandbreite zu erhöhen, wurden für diese Library weitere 16 LTO6-Laufwerke beschafft und Ende 2014 in die Library eingebaut.
10.2.2.2 DATWeb Release 3
DATWeb ist eine Eigenentwicklung des LRZ. Das System bietet ein Management-Portal für lokale und
zentrale TSM-Administratoren. Es ermöglicht unter anderem, sich ein Gesamtbild über den aktuellen Datenbestand zu machen und Accounting-Daten abzurufen.
Mit Release 3 wurde 2014 ein in weiten Teilen neu geschriebenes System in Betrieb genommen, das die
veraltete Version 2 ablöste. Das neue Release ist modular aufgebaut und stützt sich auf eine eigene Datenbank.
10.2.2.3 Umstrukturierung der Systemkonfiguration in RZG und LRZ
In 2013 musste das Desaster Recovery Konzept von einem sogenannten Server-to-Server Backup auf ein
LAN-less Verfahren umgestellt werden, bei dem die Server im LRZ direkt über das Speichernetzwerk die
Daten in die am Rechenzentrum der Max Planck-Gesellschaft (RZG) stehende Bandbibliothek kopieren.
Durch diese Umstellung wurden Ende 2014 die bisher am RZG benötigten Server und Speicherressourcen
frei. Für eine Weiternutzung im LRZ Backup- und Archivsystem wurde diese Systeme ans LRZ umgezogen
und in die am LRZ vorhandene Konfiguration integriert.
10.2.2.4 Transfer von 2 PB in RZG-eigene Library
Das RZG betreibt seit 2013 am LRZ eine eigene Library mit zugehöriger TSM-Serverkonfiguration. Da der
Platz in den LRZ eigenen Libraries anderweitig gebraucht wurde, wurden die dort noch vorhandenen Daten
des RZG auf die RZG-eigene Library im Archivraum DAR2 (siehe Abschnitt 10.5) umgezogen. Im Vorfeld
des eigentlichen Umzugs wurden mittels TSM Export/Import ca. 500 TB über das hausinterne Netz transferiert. Beim finalen Transport der Daten vom DAR0 in den DAR2 wurde eine „Transferleistung“ von 34
TBit/s ganz ohne Netzwerk erreicht. Die 1.259 Kassetten wurden aus der Library im DAR0 exportiert, per
Transportwägelchen in den DAR2 verbracht und dort in die RZG-Library importiert. Die importierten Kassetten verbleiben im Besitz des RZG, das LRZ erhält im Gegenzug neue Kassetten mit gleichem Label
vom RZG. Eine Vereinbarung zum Austausch von Datenträgern wurde vom RZG unterzeichnet.
10.2.3 Statistik
Tabelle 18: Statistik für 2014
Ende 2014 waren in den
5
Libraries des Archiv- und Backupsystems
42
Petabyte, verteilt auf
19
Milliarden Dateien gespeichert. Täglich wurden auf die Systeme durchschnittlich
100
9.400
450
Terabyte neu geschrieben. Die Daten stammen von rund
Rechnern im MWN aus über
Einrichtungen der Münchner Hochschulen.
Ende 2014 befanden sich knapp 50.000 Kassetten in den Fächern der fünf Libraries. Die Gesamtanzahl
der Kassetten ist allerdings nur bedingt als Indikator für das Aufnahmevermögen tauglich, da die Kapazitäten der Kassetten je nach Technologie stark variieren.
Jahresbericht 2014 des Leibniz-Rechenzentrums
97
Jeder Rechner oder jeder Rechnerverbund, der auf das Archiv- und Backupsystem zugreifen will, muss
unter TSM als sogenannter „Node“ registriert sein. Die Anzahl der Nodes entspricht damit in etwa der Anzahl der Systeme, die ihre Daten im Archiv- und Backupsystem ablegen. 2014 wurden 1.229 Nodes neu
registriert und 827 alte Nodes inklusive ihrer gespeicherten Daten gelöscht. Durch das explizite Löschen
von Nodes sowie durch automatische Löschprozesse nicht mehr benötigter Daten wird dafür gesorgt, dass
das Archiv- und Backupsystem nicht zum Datengrab wird.
Um die Datenflut soweit wie möglich zu begrenzen, ist es notwendig, den Kunden des Archiv- und Backupsystems den Umfang ihrer abgelegten Daten immer wieder bewusst zu machen und sie zum sinnvollen Umgang mit den vom LRZ zur Verfügung gestellten – für sie vorläufig noch kostenlosen – Ressourcen
anzuhalten. Ein eigens für diesen Zweck bereitgestelltes Webportal (DATWeb) erlaubt es den Kunden, sich
direkt und umfassend über den eigenen Datenbestand zu informieren. Gleichzeitig werden die Nutzer in
regelmäßigen Abständen von diesem Server über die von ihnen verbrauchten Speicherressourcen via EMail informiert. Integriert sind Werkzeuge, die der betrieblichen Überwachung und Analyse der Systeme
dienen. Nutzer mit besonders auffälligem Datenprofil werden direkt angesprochen.
Abbildung 45: Datenverkehr (TB pro Monat)
Abbildung 46: Datenumfang (TB pro Monat)
98
Datenhaltung
Alle Kontaktdaten werden zusätzlich regelmäßig auf ihre Aktualität überprüft. Entsprechend den Benutzungsrichtlinien werden Daten, zu denen sich keine Ansprechpartner mehr ermitteln lassen, nach Ablauf
einer festgelegten Frist gelöscht.
Den Zuwachs von Speicherbelegung und Dateneingang im Laufe des Jahres 2014 zeigen Abbildung 45
und Abbildung 46.
Der Archiv-Anteil am Datenbestand ist relativ statisch, d.h. es gibt nur wenige Änderungen an den Dateien
im Archiv. Archivdaten werden in der Regel einmal ins Archiv übertragen und dort sehr lange aufbewahrt,
im Fall der Langzeitarchivierung für Jahrzehnte.
Datensicherungen werden in relativ kurzen Abständen regelmäßig durchgeführt. Backup-Daten werden
daher häufig neu ins System geschrieben. Veraltete Backup-Daten werden automatisch aus dem Bestand
gelöscht. Durch diese Dynamik erklärt sich die im Vergleich zur Archivierung deutlich höhere Dateneingangsrate bei geringerer Steigerung des Datenumfangs.
Abbildung 47: Speicherbelegung seit 1995
Die Entwicklung seit der Installation des ersten unabhängigen Archiv- und Backupsystems im Jahr 1995
zeigt Abbildung 47. Das halblogarithmische Diagramm zeigt das kontinuierliche Wachstum des Datenbestands über die Jahre hinweg.
10.2.4 Plattform für digitale Langzeitarchivierung
10.2.4.1 Kooperation BSB-LRZ
Veröffentlichungen in digitaler Form nehmen im Wissenschaftsbetrieb wie auch im gesellschaftlichen Leben einen immer höheren Stellenwert ein. Oft wird, wie z. B. bei Dissertationen und bei amtlichen Publikationen, inzwischen auf ein gedrucktes Pendant ganz verzichtet. Während die Digitalisierung für die Nutzer
den Zugang und den Umgang mit der Information beschleunigt und insgesamt erleichtert, entstehen aus
organisatorischer, rechtlicher und technischer Sicht neue Herausforderungen. Die Objekte sollen nicht nur
verwaltet und gespeichert, sondern auch langfristig zugänglich gemacht werden. Diese Aufgabe wird erschwert durch den raschen technologischen Wandel im Bereich der Hard- und Software und der Datenträger.
Seit 2004 besteht eine Kooperation zwischen der Bayerischen Staatsbibliothek (BSB) und dem LeibnizRechenzentrum, die inzwischen durch drei DFG-geförderte Projekte (BABS, BABS2 und vd16digital), die
BSB-Google-Partnerschaft und die Einführung des Managementsystems zur Langzeitarchivierung Rosetta
der Firma Exlibris ausgeweitet wurde. Dabei tritt das LRZ für die BSB als Dienstleister für Langzeitarchivierung (LZA), Bereitstellung von Online-Speicher, Attended Housing von Clusterknoten und Hosting von
virtuellen Servern auf. Die langfristige Speicherung der Daten übernimmt bei allen Projekten ein NAS-System und das Archiv- und Backupsystem des LRZ mit dem Softwarepaket Tivoli Storage Manager (TSM).
TSM verfügt über alle wesentlichen Funktionalitäten, die für Langzeitarchivsysteme Voraussetzung sind.
Jahresbericht 2014 des Leibniz-Rechenzentrums
99
Das Gesamtsystem deckt damit alle wichtigen Bereiche eines für die langfristige Nutzung angelegten Archivs ab und folgt dem allgemeinen Referenzmodell Open Archival Information Systems (OAIS).
10.2.4.2 Datenwachstum
Abbildung 48 und Abbildung 49 zeigen die Entwicklung der Anzahl der Archivobjekte und des Datenvolumens des Langzeitarchivs von Januar 2006 bis Januar 2015. Der starke Anstieg der Dateianzahl ab März
2009 ist durch den Produktivbeginn der Archivierung der Google-Digitalisate (siehe Projekt Google) zu
erklären. In Abbildung 49 ist dieser Anstieg weniger auffällig, da die Größe der einzelnen Google-Digitalisate im Vergleich zu den übrigen Digitalisaten eher gering ist. Bisher wurden mehr als 1,27 Milliarden Objekte mit einem Datenvolumen von mehr als 580 TB am LRZ archiviert. Der Datenzuwachs im Jahr 2014
betrug ca. 100 Mio. Dateien mit einem Volumen von ca. 61 TB. Die aus Sicherheitsgründen erstellte Zweitkopie verdoppelt in der Praxis die Objektanzahl und das Datenvolumen.
Abbildung 48: Objektanzahl im LRZ-Archiv (Zweitkopie nicht berücksichtigt)
Abbildung 49: Datenvolumen im LRZ-Archiv (Zweitkopie nicht berücksichtigt)
100
Datenhaltung
Die gespeicherten Daten werden aufbereitet, archiviert und für eine Webpräsenz bereitgestellt. Dies geschieht auf über 100 Servern, die zum überwiegenden Teil auf der virtuellen Serverplattform des LRZ betrieben werden. Beispiele für solche Systeme sind unter anderem das Kulturportal Bayern bavarikon, die
Verkündungsplattform Bayern, der Web Server der Bayerischen Landesbibliothek oder Server, die die Volltextindizierung der Digitalisate steuern.
10.2.4.3 Zentrum für digitale Geisteswissenschaften
Im Juli 2013 unterzeichneten die BSB und die BADW einen Kooperationsvertrag über die Gründung eines
neuen Zentrums für digitale Geisteswissenschaften. Auch in den Geistes- und Kulturwissenschaften werden computerbasierte Verfahren und Werkzeuge immer wichtiger, etwa bei digitalen Editionen oder der
quantitativen Text- und Datenanalyse. Die BSB und die BADW bündeln in dem neuen Zentrum für digitale
Geisteswissenschaften ihr Know-how in diesem Bereich und errichten kostensparende, hoch effiziente
Strukturen. Das zukunftsweisende Konzept des neuen Zentrums soll Synergien freisetzen und durch die
Zusammenarbeit mit weiteren Partnern ausgebaut werden. Insbesondere kann das LRZ als IT Service
Provider für beide Einrichtungen koordinierend tätig werden.
10.2.4.4 Projekt Google
Im Rahmen einer 2007 entstandenen Public Private Partnership digitalisiert Google über eine Million urheberrechtsfreie Druckwerke aus dem Bestand der BSB. Die BSB erhält Kopien der Digitalisate, die am LRZ
gespeichert, archiviert und über den OPAC der BSB weltweit zugänglich gemacht werden. Das LRZ ist in
diesem Projekt als Dienstleister für die Langzeitarchivierung der Digitalisate, das Housing von Clusterknoten für die Formatmigration als Vorbereitung für die Web-Bereitstellung, das Hosting des Speichersystems
und das Hosting virtueller Server für Archivierung und Web-Bereitstellung zuständig.
Konkret stellt das LRZ als interne und externe Schnittstelle virtuelle Server bereit, die sich um Download,
Verarbeitung, Archivierung und Bereitstellung der Daten im Internet kümmern. Die Originaldateien, die die
BSB von Google erhält, werden im Archiv- und Backupsystem des LRZ abgelegt. Die Dateien, die im Internet angeboten werden, werden am LRZ auf einem NAS-System gespeichert. Die Umwandlung aller
originalen Bilddateien („Master“) in jeweils zwei Bilddateien mit niedrigerer Auflösung geschieht am LRZ
auf dem Linux-Cluster. In Abbildung 50 sind die Infrastruktur sowie der Workflow schematisch dargestellt.
Linux-Cluster, 34 Quadcore CPUs, slurm
Abbildung 50: Workflow im Google Projekt
Jahresbericht 2014 des Leibniz-Rechenzentrums
101
Bis Ende 2014 wurden rund eine Million Bücher heruntergeladen und verarbeitet. Der Bestand an Archivdaten im Google-Projekt ist 2014 um 10 TB auf 193 TB angewachsen. Die Anzahl an archivierten Objekten
ist von einer Milliarde auf über 1,16 Milliarden Dateien gestiegen. Der von Zeit zu Zeit stagnierende Datenzuwachs wird dadurch verursacht, dass keine neuen Digitalisate in das Archiv eingepflegt, sondern nur
eine Vielzahl an Objekten im Archiv durch überarbeitete und verbesserte Versionen (z.B. Bildqualität und
OCR) ausgetauscht werden.
Abbildung 51: Archivierte Daten in TByte
Seit dem Jahr 2012 steht ein Teil der digitalisierten Bücher auch in Farbe zur Verfügung. Für diese Exemplare verdoppelt sich der Speicherbedarf. Es ist notwendig, diese Bücher erneut von Google zu holen und
in den Langzeitarchivierungsprozess einzupflegen.
10.3 Datenbanken
Beim Betrieb der Hochleistungsrechner (früher SGI, jetzt SuperMIG und SuperMUC) und des VMwareClusters fallen große Mengen Leistungs- und Abrechnungsdaten an, die intern ausgewertet und teilweise
auch den Nutzern zur Verfügung gestellt werden. Die zur Auswertung allein nur für diese beiden Bereiche
bereitgestellte Datenbankinfrastruktur umfasst derzeit sechs eigene Datenbankserver für HPC und einen
für das VMware-Cluster. Die Arbeiten daran beinhalten den Aufbau sowie die laufende Pflege dieser Datenbanksysteme sowie den hausinternen Support bei Fragen und Problemen mit den darauf laufenden
Anwendungen.
10.4 Onlinespeicher
10.4.1 Konfiguration und Entwicklung im Überblick
Die NAS-Systeme am LRZ haben sich als Speicherplattform aufgrund ihrer Stabilität, Ausfallsicherheit und
hohen Datensicherheit durch die Spiegelung auf ein Replikationssystem seit vielen Jahren bewährt und als
strategische Plattform etabliert. Die rapide wachsenden Datenmengen erfordern eine gute Skalierbarkeit
der eingesetzten Systeme. Abbildung 52 zeigt die Entwicklung der am LRZ betriebenen NAS-Infrastruktur
seit ihrer Einführung im Jahr 2005.
102
Datenhaltung
Abbildung 52: Links: Entwicklung Datenvolumen und Anzahl Festplatten
Rechts: Entwicklung der Anzahl an Filerköpfen
In der linken Abbildung ist in den Jahren 2011 und 2013 ein sehr deutlicher Zuwachs zu erkennen. Diese
Steigerung wurde durch die Inbetriebnahme des Speichersystems der Home-Verzeichnisse des SuperMUC durch die Beschaffungsphasen 1 und 2 bedingt. Die NAS-Datenkapazität stieg dabei in Phase 1 von
2.000 TB auf über 9.000 TB und in Phase 2 auf über ca. 15.000 TB an. Die Anzahl der Festplatten wuchs
in Phase 1 um den Faktor 2 auf 6.000 und in Phase 2 auf ca. 9.000 an. Im Jahr 2005 betrug das Bruttospeichervolumen der gesamten NAS-Infrastruktur überschaubare 54 TB auf etwa 350 Festplatten. Die Anzahl an Filerköpfen stieg im Zeitraum von 2005 bis 2012 von 5 auf 42 Filerköpfe an (Steigerungsfaktor:
10,5). Durch Konsolidierungsmaßnahmen konnte die Anzahl wieder auf 34 reduziert werden.
Abbildung 53 zeigt die Konfiguration der Speicherinfrastruktur aller Primärspeichersysteme inklusive der
Replikations- und Backupsysteme. Zwischen Primär- und Replikationsspeichersystemen werden die Daten
in der Regel asynchron gespiegelt. Im VMware-Umfeld, wo die Verfügbarkeit eine besonders große Rolle
spielt, erfolgt eine zusätzliche Spiegelung zwischen den auf unterschiedliche Brandabschnitte aufgeteilten
Produktivsystemen. Zur weiteren Erhöhung der Datensicherheit werden die Daten von den meisten Replikationssystemen zusätzlich über NDMP (Network Data Management Protocol) bzw. der SnapDiff-Methode
von TSM auf Magnetbänder gesichert. Die Primär- und Replikationssysteme befinden sich in getrennten
Brandabschnitten des Rechnergebäudes.
Abbildung 53: Primärsysteme, Replikation und Backup
Jahresbericht 2014 des Leibniz-Rechenzentrums
103
Ein Cluster von Filerköpfen (supernasNN rechts in Abbildung 53) liefert den Speicher für die Homeverzeichnisse der Nutzer des Höchstleistungsrechners SuperMUC. Das Cluster besteht aus 14 Storage-Controllern (FAS 6820) der Firma NetApp und verfügt in der zweiten Ausbaustufe, die 2013/2014 umgesetzt
wurde, über ein Speichervolumen von 5.000 TB Brutto. Das zugehörige Replikationssystem (nasrepNN)
verfügt über 6 Storage Controller (FAS 6820), denen eine Kapazität von 4.224 TB Brutto zur Verfügung
steht.
10.4.2 Hochverfügbarer Speicher für virtuelle Server
Um die notwendige hohe Verfügbarkeit bei der Speicherversorgung der VMware-Infrastruktur zu erreichen,
wurden die Daten synchron gespiegelt und zusätzlich repliziert. Das hierfür eingesetzte Speichersystem
nas3170a/b erreichte die Grenzen seiner Leistungsfähigkeit, was sich durch hohe Latenzen und DiensteBeeinträchtigung bemerkbar macht. Aus diesem Grund wurde im Frühjahr 2013 ein Antrag auf Modernisierung der virtuellen Server- und Speicherinfrastruktur eingereicht, der im Herbst bewilligt wurde. Die Geräte wurden im Dezember 2013 beschafft und installiert. Eine Inbetriebnahme erfolgte im Februar 2014.
Um eine möglichst hohe Dienstgüte und Dienstverfügbarkeit zu erreichen, wurde das System auf drei unterschiedliche Brandabschnitte im Rechnergebäude (NSR0, DAR0 u. DAR1) verteilt. Abbildung 54 zeigt
die neue NAS-Infrastruktur bestehend aus vier Filerköpfen (nasVM01 bis nasVM04; linke Seite) und dem
bereits vorhandenen Replikationssystem (nasrep01 bis narep06; rechte Seite). Die Konfiguration lehnt sich
an die bewährte Konfiguration des Vorgängersystems an und steigert zugleich die Flexibilität und Leistungsfähigkeit des geplanten Gesamtsystems. Dies wird durch die Verwendung der neuen Betriebssystemgeneration Ontap Cluster Mode erreicht. Ontap Cluster Mode ermöglicht einen globalen Namensraum
und erweiterte Skalierbarkeit über mehrere Hardwareeinheiten, d.h. mehrere Filerköpfe hinweg. Dadurch
wird die bisherige Limitierung auf einen Filerkopf beim VMware-Speicher weitgehend aufgehoben.
Abbildung 54: Hochverfügbares NAS-System für VMware
Die aktiven Datastores (Formen mit durchgehender Linie in den blauen „Speicher-Tonnen“ in Abbildung
54), welche an VMware angebunden sind, werden auf die Festplatten der vier Speichersysteme lastoptimiert verteilt. Die Daten der betriebskritischen VMs werden zwischen den beiden Produktivsystemen asynchron jede Stunde gespiegelt (Formen mit gestrichelten Linie in den grünen „Speicher-Tonnen“) und zusätzlich auf ein weiteres System (Formen mit gestrichelter Linie in der orangenen „Speicher-Tonne“) alle
zwei bis vier Stunden repliziert. Durch diese gegenseitige Spiegelung ist es bei Ausfall eines kompletten
Brandabschnitts möglich, die VMware-Infrastruktur in kurzer Zeit wieder herzustellen. Die VMs, welche ihre
104
Datenhaltung
Daten aktiv im ausgefallenen Raum gespeichert hatten, können aus dem asynchronen Spiegel wieder hergestellt werden. Der maximale Datenverlust beträgt eine Stunde (oder kürzer, falls das Spiegelintervall
kleiner gewählt wurde). Im Herbst 2014 wurde das neue Speichersystem an die 2014 neu beschaffte
VMware-Umgebung ohne Unterbrechung im Nutzerbetrieb umgehängt.
Im Rahmen des Hostings für das dialogorientierte Serviceverfahren der Stiftung für Hochschulzulassung
ist eine analog aufgebaute Konfiguration (zwei NetApp FAS 3170, 74 TB) mit synchroner Spiegelung in
Betrieb.
10.4.3 MWN Storage Cloud
Das LRZ stellt Speicherkapazitäten für alle Studierenden und Mitarbeiter der Hochschulen bereit und verwendet dazu seit Mitte 2008 eine einfach zu bedienende, sichere und zentral administrierte Speicherlösung. Durch eine enge Kopplung mit Verzeichnisdiensten verfügen alle Mitarbeiter und Studierenden sowohl über persönlichen Speicherplatz als auch über den Zugang zu Projektablagen. Gemeinsamer Projektspeicherplatz ermöglicht eine neue Art der Kooperation zwischen verschiedenen Einheiten, die bisher
wegen der dezentralen Strukturen nicht möglich war. Eine weitere Aufgabe des Angebots ist die Versorgung anderer hochschulweiter Dienste mit sicherem, hochverfügbarem Speicherplatz. Die sogenannte
MWN Storage Cloud (auch MWN-Speicher) wird – vor allem von Seiten der TU München - sehr gut angenommen, was die stetig steigende Anzahl der eindeutigen Benutzerkennungen (ohne Funktions- und lokale
Benutzerkennungen) mit simultanen Zugriffen zeigt (siehe Abbildung 55). Die simultanen Zugriffe haben
sich innerhalb der letzten vier Jahre (2011 bis 2014) von 1.100 auf 4.000 vervierfacht. Deutlich zu erkennen
sind in den Diagrammen die betriebsschwachen Zeiten an den Wochenenden und zwischen Weihnachten
und Neujahr.
Abbildung 55: Durchschnittliche Anzahl simultan zugreifender Kennungen
Abbildung 56: Nutzung der MWN Storage Cloud für TUM Projekte
Jahresbericht 2014 des Leibniz-Rechenzentrums
105
Hauptnutzer der MWN Storage Cloud war auch 2014 die TU München. Hier hat sich die Speicherbelegung
allein im Jahr 2014 von 168 TB auf 318 TB nahezu verdoppelt. Abbildung 56 zeigt die zunehmende Nutzung
des Projektspeichers durch Lehrstühle und Arbeitsgruppen an der TUM von den zögerlichen Anfängen bis
zur intensiven Nutzung heute.
Aber auch die LMU nutzt zunehmend diesen Speicher, wenn auch noch nicht in dem Maße wie die TUM.
Die organisationsübergreifende Bereitstellung von Speicherplatz ist eine Herausforderung, die weit über
die Grenzen des Münchner Wissenschaftsnetzes hinausgeht.
10.4.4 Sync+Share Lösung für die Münchner Universitäten
Die veränderte Arbeitsweise wissenschaftlicher Mitarbeiter und Studenten und die zunehmende Verwendung von Smartphones und Tablets (aber auch Notebooks) führen zu veränderten Anforderungen, die die
MWN Storage Cloud nicht alle erfüllen kann. Der Wunsch nach zusätzlicher Funktionalität (wie z.B. das
Synchronisieren von Datenbeständen über verschiedene Geräte hinweg, Offline Arbeiten, Datenaustausch
mit externen Kollegen) ist vielfach zu hören. Für den organisationsinternen Datenaustausch bzw. den gemeinsamen Online-Zugriff auf Daten (shared folder) ist die MWN Storage Cloud gut geeignet. Für den
Austausch mit Externen, also Personen, die keine Kennung im lokalen Verzeichnisdienst haben und auch
nicht bekommen können, gibt es aktuell nur unzureichende Lösungen. Dies führt dazu, dass Dienste wie
Dropbox, OneDrive und/oder iCloud verwendet werden, obwohl diese Dienste nicht dem deutschen Datenschutzrecht unterliegen.
Aus diesem Grund hat sich das LRZ entschlossen, einen eigenen, sicheren Sync+Share-Dienst anzubieten. Im Sommer 2014 wurden als erster Schritt diverse Sync&Share-Produkte, wie z.B. PowerFolder, OwnCloud, Filr und TeamDrive evaluiert. Anfang November fiel die Entscheidung für PowerFolder. Bereits 4
Wochen später ging eine Pilot-Installation in Betrieb, die von 120 Personen aktiv genutzt wurde, etwa für
die erfolgreiche Vorbereitung eines EU-Projektantrags mit über 30 externen beteiligten Wissenschaftlern.
Für 2015 ist geplant, nach einer anfänglichen Phase im Friendly User Modus im Laufe des Sommers den
Regelbetrieb für die TUM und der LMU auf einem entsprechend skalierbaren System aufzunehmen. Mit
dem neuen Dienst LRZ Sync+Share können dann Daten und Dokumente bequem, sicher und zuverlässig
gespeichert und gleichzeitig auf mehreren Geräten (Desktop, Laptop, Tablet, Smart Phone) auf dem gleichen Stand und weltweit im Zugriff gehalten werden. Die Daten können auch mit anderen Personen weltweit geteilt und ausgetauscht werden. Durch LRZ Sync+Share wird organisationsübergreifendes, interdisziplinäres und kooperatives Arbeiten stark vereinfacht werden.
10.5 Daten- und Archivräume
Im Rechnergebäude des LRZ steht für die Geräte des Archiv- und Backupbereichs nahezu ein gesamtes
Stockwerk des Altbaus mit 560 m2 Nutzfläche zur Verfügung, der sogenannte DAR0 (Daten- und ArchivRaum). Der Raum würde, wie alle anderen Brandabschnitte in diesem Stockwerk auch, im Brandfall mit
Argon geflutet werden, d.h. Daten und Geräte würden keinen Schaden nehmen. Die sicherheitstechnischen
und klimatischen Randbedingungen sind im Prinzip gut geeignet für die langfristige, sichere Aufbewahrung
großer Datenmengen.
Abbildung 57: Daten- und Archivraum DAR0
106
Datenhaltung
Die Dimensionierung erlaubte bisher eine optimale Aufstellung der Geräte. Den meisten Raum nehmen
fünf Bandbibliotheken ein. Neben den Bandbibliotheken wird der Raum allerdings zunehmend für die Aufstellung der umfangreichen NAS-Plattenbasis (Replikatsysteme) genutzt. Anders als leistungsstarke Server haben Platten eine relativ geringe Leistungsaufnahme. Die durch die Platten verursachte Wärmeentwicklung und die damit einhergehende Veränderung der klimatischen Verhältnisse im Archivraum werden
als vertretbar erachtet. Wie an vielen anderen Stellen auch, musste hier ein vernünftiger Kompromiss zwischen Kosten und Nutzen gefunden werden.
Mit einer durchschnittlichen Leistungsaufnahme von unter 70 KW ist der Raum DAR0 ein Aushängeschild
für Green IT. Der geringe Energiebedarf ist darauf zurückzuführen, dass in dem Raum primär Bandbibliotheken und Plattensysteme stehen, deren Stromverbrauch verglichen mit den energiehungrigen Prozessoren der Serverracks in den anderen Räumen sehr gering ist.
DAR = DAR0 + DAR1 + DAR2
Diese Gleichung steht für die substantielle Erweiterung des Daten- und Archivraums im Zuge der Erweiterung des Rechnergebäudes. Während der „alte“, 2006 in Betrieb genommene DAR0 und der neue DAR2
primär für die Archiv- und Backupsysteme vorgesehen sind, wird der sogenannte DAR1 neben hochverfügbaren Plattenspeichern auch hochverfügbare Server beherbergen. In diesem Raum wurden über 50
Geräteschränke zur Trennung von kalter und warmer Luft speziell „eingehaust“. Die Trennung der Luftströme erhöht die Energieeffizienz der Klimatisierung erheblich. Hochverfügbarkeit geht oft einher mit
Hochsicherheit. Künftig soll daher der DAR1 als getrennte Sicherheitszone mit eigener Schließberechtigung betrieben werden.
Abbildung 58: Brandabschnitte im Rechnerwürfel
Durch die Gebäudeerweiterung wurde auch die Anzahl der Brandabschnitte insgesamt erhöht. Dadurch ist
es möglich, die Komponenten vieler wichtiger Dienste redundant aufzustellen, was vorher nicht immer
möglich war. Hochverfügbare Datenspeicher konnten so auf die Räume verteilt werden, dass der Dienst,
für den sie benötigt werden, bei Abschaltung kompletter Brandabschnitte nicht beeinträchtigt wird. Bei der
Aufstellungsplanung wurden dabei noch weitere Faktoren berücksichtigt, wie eine redundante Einbindung
in die Klimainfrastruktur oder eine unterbrechungsfreie Stromversorgung (grüne Bereiche in Abbildung 58).
Jahresbericht 2014 des Leibniz-Rechenzentrums
107
11 Münchner Wissenschaftsnetz – Internetzugang
Das Münchner Wissenschaftsnetz (MWN) verbindet vor allem Standorte der Ludwig-Maximilians-Universität München (LMU), der Technischen Universität München (TUM), der Bayerischen Akademie der Wissenschaften (BAdW), der Hochschule München (HM) und der Hochschule Weihenstephan-Triesdorf miteinander. Es wird aber auch von anderen wissenschaftlichen Einrichtungen (u. a. Max-Planck-Gesellschaft,
Fraunhofer-Gesellschaft, Kunst-Hochschulen, Museen) mit genutzt. Das Münchner Wissenschaftsnetz bildet die Grundlage für die Kommunikation und Kooperation innerhalb und zwischen den angeschlossenen
Institutionen sowie mit Kooperationspartnern in Deutschland, Europa und auch international.
Die besonders hervorzuhebenden Aktionen und Ereignisse im Jahr 2014 waren:
•
Planung einer neuen WDM-Infrastruktur im Backbone (vgl. Abschnitt 11.1.2)
•
Weiterentwicklung des Redundanzkonzeptes am Campus Garching und Aufbau eines zweiten
Routers (vgl. Abschnitt 11.2.3)
•
Ausweitung von eduroam über die Campus Bereiche hinaus durch Unterstützung von eduroam im
City-Netz der Stadt München (vgl. Abschnitt 11.11.3)
•
Erheblicher Ausbau des WLAN und Erweiterung um zwei weitere Controller (vgl. Abschnitt 11.11)
•
Neuentwicklung des Portals für Netzverantwortliche NESSI (Network Self Service Interface) (vgl.
Abschnitt 11.8.4)
•
Inbetriebnahme des neuen Security Incident and Event Management auf der Basis von QRadar
(vgl. Abschnitt 5.5.2)
11.1 Struktur und Betrieb des Münchner Wissenschaftsnetzes
(MWN)
Die Standorte der angeschlossenen Institutionen sind insbesondere über die gesamte Münchner Region
(i. W. Münchner Stadtgebiet, Garching, Großhadern/Martinsried und Weihenstephan) verteilt, es gibt aber
auch weitere Standorte in Bayern. Abbildung 59 gibt einen Überblick über die räumliche Ausdehnung des
MWN. Die Lage von Standorten, die außerhalb des Münchner Stadtgebietes liegen, ist in der Abbildung
nicht maßstabsgetreu dargestellt, sondern lediglich schematisch (Himmelsrichtung) angedeutet.
Derzeit sind an das MWN mehr als 440 als Unterbezirke bezeichnete Gebäudegruppen angebunden und
es werden bis zu 180.000 Geräte über das MWN versorgt, wobei während des Semesters die Anzahl der
mobilen Geräte überwiegt. Die Größe der zu versorgenden Areale ist sehr unterschiedlich; sie reicht von
einem einzelnen Gebäude bis zu einem gesamten „Campusbereich“ (z.B. Garching, Weihenstephan) mit
mehr als 30 Gebäuden und mehr als 12.500 angeschlossenen Endgeräten. Derzeit sind 52 Studentenwohnheime mit insgesamt knapp 12.500 Wohnheimplätzen am MWN angeschlossen.
Abbildung 60 zeigt die Ausdehnung und Größe des MWN auf einer Karte. Die Nadeln repräsentieren dabei
die Unterbezirke. Sind mehere Unterbezirke an einem Ort, so werden diese in einem Kreis zusammengefasst und die Zahl gibt an, wie viele Unterbezirke zusammengefasst wurden.
Das LRZ ist für das gesamte Backbone-Netz und einen Großteil der angeschlossenen Institutsnetze zuständig. Eine Ausnahme bilden die internen Netze der Medizinischen Fakultäten der Münchner Universitäten (u. a. Rechts der Isar (TUM), Großhadern und Innenstadt-Kliniken (LMU)) sowie der Informatik der
TUM. Sie werden von den jeweiligen Rechenzentren der Fakultäten selbst betrieben und betreut. Das LRZ
ist jedoch für die Anbindung dieser Netze an das MWN zuständig.
Das MWN ist mehrstufig realisiert:
• Das Backbone-Netz verbindet mittels Routern die einzelnen (Hochschul-)Standorte (Areale) und Gebäude innerhalb der Areale.
• Innerhalb eines Gebäudes dient das Gebäudenetz mittels Switches zur Verbindung der einzelnen Rechner und der Bildung von Institutsnetzen.
• Eine Sonderstellung nimmt das Rechenzentrumsnetz ein, das die zentralen Rechner im Rechnerwürfel
des LRZ miteinander verbindet.
108
Münchner Wissenschaftsnetz – Internetzugang
Abbildung 59: Räumliche Ausdehnung des Münchner Wissenschaftsnetzes
(nicht maßstabsgerecht)
Etwas genauer lässt sich diese Realisierung wie folgt beschreiben:
•
Die Router werden über das Backbone-Netz miteinander verbunden und bilden den inneren Kern
des MWN. Die Verbindungsstrecken des Backbone-Netzes sind je nach Nutzungsgrad verschieden ausgeführt. Im Normalfall sind die Strecken Glasfaserverbindungen, die langfristig von der
Deutschen Telekom und M-net angemietet sind. Auf den Glasfaserstrecken wird mit 10 Gbit/s übertragen. Die Verbindung der Strecken übernehmen neun Backbone-Router, die untereinander aus
Redundanzgründen mehrere Ringe bilden. Netze mit einer geringen Zahl von Endgeräten werden
überwiegend mit SDSL-Verbindungen (bis zu 25 Mbit/s) von M-net oder der Telekom oder über
Jahresbericht 2014 des Leibniz-Rechenzentrums
109
WLAN-Verbindungen auf Basis von IEEE 802.11a, g oder n (bis zu 150 Mbit/s) angebunden. Das
Backbone-Netz wird genauer im folgenden Abschnitt beschrieben.
Abbildung 60: MWN Unterbezirke und Ausdehnung
•
Die Switches eines Gebäudes oder einer Gebäudegruppe werden mittels Glasfaser noch zum
größten Teil mit 1 Gbit/s, aber auch mit 10 Gbit/s an die Router herangeführt.
•
In den Gebäuden geschieht die Anbindung von Datenendgeräten über Ethernet. Die Anbindung
wird entweder über „Twisted-Pair“-Kupferkabel (100/1000 Mbit/s) und Lichtwellenleiter (100 Mbit/s
oder 1 Gbit/s) oder zu einem sehr geringen Teil noch über Koaxial-Kabel (10 Mbit/s) realisiert.
Server-Rechner werden in der Regel mit 1 Gbit/s zum Teil auch mit 10 Gbit/s angeschlossen. Die
Gebäudenetze werden in Abschnitt 11.1.3 erläutert.
•
Die zentralen Rechner im LRZ (der Höchstleistungsrechner SuperMUC, die Linux-Cluster, die Server des Backup- und Archivsystems und die zahlreichen Server-Systeme) sind untereinander mit
mehrfach 10 Gbit/s mittels Switches verbunden. Diese Netzstruktur der zentralen Rechner ist über
einen Router (mehrfach 10 Gbit/s) mit dem MWN-Backbone verbunden. Die Struktur des Rechenzentrumsnetzes beschreibt Abschnitt 11.1.4.
•
Im MWN wird ausschließlich das Protokoll IP benutzt.
Abbildung 59 und Abbildung 60 zeigen die für das Backbone-Netz verwendeten Strecken, deren Übertragungsgeschwindigkeiten und Endpunkte. Hieraus lässt sich die Ausdehnung des Netzes ablesen. Die Areale des MWN werden zu Dokumentationszwecken auch mit Kürzeln aus ein oder zwei Zeichen (Unterbezirke) benannt (eine Liste der in der Abbildung verwendeten Unterbezirke findet sich im MWN-Netzkonzept
(s. https://www.lrz.de/services/netz/mwn-netzkonzept/mwn-netzkonzept.pdf).
110
Münchner Wissenschaftsnetz – Internetzugang
Abbildung 61: Standorte und Verbindungen im MWN (Teil 1)
Jahresbericht 2014 des Leibniz-Rechenzentrums
Abbildung 62: Standorte und Verbindungen im MWN (Teil 2)
111
112
Münchner Wissenschaftsnetz – Internetzugang
11.1.1 Struktur des Backbone Netzes
Während Abbildung 61 und Abbildung 62 die topologische Struktur, die Standorte und deren Verbindungen
zeigt, stellt Abbildung 63 die technische Struktur des Kernnetzes dar. Den Kern des Backbones bilden
Cisco Nexus 7010 Switch/Router, die untereinander mit 10 GBit/s verbunden sind. Die Anbindung der
Standorte erfolgt über LWL (Lichtwellenleiter). Das LRZ selbst ist über einen virtuellen Router (bestehend
aus zwei Cisco Nexus 7010) an das Backbone angebunden. Die meisten Telekom-Glasfasern enden im
zentralen Netzraum des TUM-Stammgeländes. Die M-net Glasfasern enden im zentralen Netzraum des
LMU-Stammgeländes.
Abbildung 63: Struktur des Kernnetzes
Das Router-Backbone bildet mehrere Zyklen, die der Redundanz dienen. Alle Router haben eine mindestens doppelte Anbindung an das Backbone. Im Jahr 2014 wurde begonnen, den zentralen Netzknoten am
Campus Garching (im Maschinenwesen) auf zwei Standorte aufzuteilen. Dazu wurde ein zweiter Router
in Katalysezentrum installiert der mit dem Router im Maschinenwesen ein virtuelles System (vPC) bildet.
Die Router im Backbone koordinieren sich über Punkt-zu-Punkt Verbindungen mittels OSPF (Open Shortest Path First). Der Verkehr fließt von der Quelle zum Ziel über die Leitungen mit der kleinsten „Hop“Anzahl (Weg, der über die wenigsten Router führt).
Ausnahmen zu dieser generellen Regel bilden der über „Policy-Based-Routing“ geführte Verkehr, der in
einem eigenen VLAN (Virtual LAN) fließt, und spezielle VLANs, die über das gesamte MWN gezogen wurden. Dies ist nötig, um die besonderen Anforderungen von MWN-Mitnutzern (MPG-Institute, Staatsbibliothek, etc.) zu erfüllen.
Einige Institutionen (LMU-Medizin, TUM-Informatik) haben doppelte Anbindungen an das MWN. Mittels
BGP (Border-Gateway-Protocol) wird hier die redundante Wegeführung realisiert.
Ebenfalls über BGP sind die Anbindungen ins Internet ausgeführt. Dabei dient die M-Net Anbindung nur
als „Notfall“ Backup. Normalerweise werden die Daten über die beiden 10GBit/s Bündel zu den DFN SuperCores in Erlangen und Frankfurt geleitet.
Jahresbericht 2014 des Leibniz-Rechenzentrums
11.1.2
113
Planung von WDM-Systemen im MWN-Backbone
Das Max-Planck-Institut für Neurobiologie in Martinsried kam 2013 mit der Bitte auf das LRZ zu, zu prüfen
ob und wie man eine 100 Gbit/s-Verbindung von Martinsried nach Garching zum RZG (Rechenzentrum
Garching der Max-Planck-Gesellschaften) realisieren könnte. In Martinsried werden mehrere hochauflösende Rasterlektronenmikroskope aufgebaut. Alle Bilddaten dieser Geräte werden ans RZG übertragen,
dort gespeichert, und auf dem dortigen Hochleistungsrechner werden aus den Daten dreidimensionale
Bilder berechnet. Um die Datenmengen in angemessener Zeit übertragen zu können, sind Verbindungen
mit 100 Gbit/s erforderlich. Da es in Martinsried keine nennenswerte Datenhaltung mehr geben wird, ist
eine ausfallsichere Verbindung zwingend notwendig, um den Betrieb in Martinsried auch aufrecht erhalten
zu können, falls eine Verbindung längere Zeit ausfallen sollte.
Da im MWN nur einzelne, angemietete Glasfasern zur Verfügung stehen und diese die beschränkende
Ressource darstellen, war der Gedanke naheliegend, diese mittels eines DWDM-Systems (DWDM =
Dense Wavelength Division Multiplex) gleichzeitig für das MWN-Backbone und für die MPG Anwendungen
zu nutzen.
In Zusammenarbeit von MPG und LRZ wurde überlegt, wie man redundant über mehrere Wege solch ein
System ins MWN einbringen könnte. Danach wurde eine erste technische Auswahl durchgeführt, sowie ein
Anforderungskatalog erstellt. Auf dieser Basis wurde eine EU-weite Ausschreibung (Teilnehmerwettbewerb) vorbereitet und durchgeführt. Diese Ausschreibung wurde von T-Systems mit Produkten des Herstellers ADVA gewonnen und die Geräte wurde zum Jahreswechsel 2014 / 2015 beschafft.
Aus Kostengründen wurde erst einmal darauf verzichtet, die 100 GE Strecke komplett redundant zu realisieren. Vielmehr sollte die redundante Strecke, in der Startkonfiguration, ein Fallback auf 10 GE gewährleisten. Im Zuge der DWDM Einführung sollten auch im MWN-Backbone die Strecken zwischen Garching
und der Innenstadt München auf 2 x 10 GE aufgerüstet werden. Da keine durchgehenden Glasfasern von
Martinsried nach Garching vorhanden sind, werden die DWDM-Strecken in Teilabschnitte aufgeteilt:
Rechter-Ast: Martinsried-Neurobiologie (MN) – Großhadern (I), Großhadern (I) – LMU-Stammgelände (G),
LMU-Stammgelände (G) – Garching-Maschinenwesen (MW), Garching-Maschinenwesen (MW) – RZG
Linker-Ast: Martinsried-Biochemie (MB) – Großhadern (I), Großhadern(I) – TUM-Stammgelände (B),
TUM-Stammgelände (B) – Garching-Katalysezentrum (KaTUM), Garching-Katalysezentrum (KaTUM) –
RZG
Eine schematische Darstellung der Wegeführung mit den notwendigen Komponenten kann der Abbildung
64 entnommen werden.
Der Einbau der WDMs bedeutet einen grundlegenden und kritischen Umbau des gesamten Backbones
und wird deshalb im Rahmen eines Major Changes im ersten Quartal 2015 durchgeführt werden.
114
Münchner Wissenschaftsnetz – Internetzugang
Abbildung 64: Grundlegende Struktur der DWDM-Infrastruktur zwischen Martinsried und Garching
11.1.3 Struktur der Gebäudenetze im MWN
In den Gebäuden, die durch das MWN miteinander verbunden werden, existiert grundsätzlich eine strukturierte Verkabelung, bestehend aus Kupferkabeln (Twisted Pair (TP) der Kategorie 5/6/7) oder MultimodeLichtwellenleiter-Kabeln (50/125 µm). In einigen Bereichen ist allerdings nur eine alte Vier-Draht-Verkabelung verfügbar, die keine Verbindungen mit Gigabit-Ethernet gestattet und beim Betrieb mit modernen Switches Probleme bereitet. Inzwischen wurden Mittel zur Ersetzung durch eine 8-Draht-Verkabelung nach
Kategorie 6a genehmigt und bereits einzelne Gebäudeteile saniert. Bis die alte Verkabelung vollständig
ersetzt ist, wird es allerdings noch einige Jahre dauern. Zu einem sehr geringen Anteil ist in einigen Gebäuden auch noch Ethernet-Koax-Kabel (Yellow Cable) vorhanden.
Als aktive Komponenten zur Verbindung mit den Endgeräten werden (Layer-2-) Switches eingesetzt. Derzeit sind in den Gebäude- und Etagenverteilern vor allem Geräte der Serien HP 4200 und HP 5400 im
Einsatz. Hierbei handelt es sich um modulare Switches, in die maximal 8 (HP 4200) bzw. 12 (HP 5400)
Linecards eingebaut werden können. Damit ergibt sich eine maximale Anzahl von 192 Gigabit-Ports beim
Jahresbericht 2014 des Leibniz-Rechenzentrums
115
HP 4200 und 288 beim HP 5400. Beim HP 5400 können außerdem bis zu 96 10GE-Ports in einem Chassis
zur Verfügung gestellt werden. Linecards mit höheren Geschwindigkeiten (40 Gbit/s oder 100 Gbit/s) sind
derzeit noch nicht verfügbar. In Gebäuden mit nur sehr wenigen Anschlüssen kommen auch Switches mit
fester Portanzahl (stackable Switches) zum Einsatz. Switches dieser Bauform kommen ebenfalls in Serverräumen zum Einsatz.
2014 wurden 19 HP 4100 mit ca. 1.500 Ports ersetzt.
Zum Jahresende 2014 wurden vom LRZ insgesamt 1.469 Switches betrieben. Einen Vergleich zu den
Vorjahren zeigt Tabelle 19:
Die Verteilung nach Switch-Typen ist in Abschnitt 16.10.2 zu finden.
Tabelle 19: Anzahl der im MWN eingesetzten Switches
Ende 2014 Ende 2013 Ende 2012 Ende 2011 Ende 2010 Ende 2009
Anzahl Switches
davon HP-Switches
1.469
1.406
1.310
1.247
1.126
990
1.468
1.405
1.309
1.246
1.125
989
1
1
1
1
1
1
92.868
89.616
81.090
77.562
67.040
60.363
7.689
7.384
7.687
7.599
6.842
6.493
davon Cisco-Switches
Anzahl TP-Ports
Anzahl Glasfaser-Ports
Die Verteilung nach Switch-Typen ist Abschnitt 0 zu finden.
Switchports
120.000
100.000
80.000
60.000
40.000
20.000
0
2007
2008
2009
2010
2011
2012
2013
2014
Abbildung 65: Entwicklung bei der Anzahl der Switchports
11.1.4 Struktur des Rechenzentrumsnetzes (LRZ-Netz)
Ein wichtiger Punkt für eine möglichst nahtlose und störungsfreie Diensterbringung durch das LRZ sind
geeignete Redundanzmechanismen, die sich natürlich auch im zugrundeliegenden Netz widerspiegeln
müssen.
116
Münchner Wissenschaftsnetz – Internetzugang
Abbildung 66 stellt die Struktur des Kernnetzes im Rechnergebäude des LRZ dar. Das Grundprinzip hierbei
ist, dass jede kritische Komponente und jede Verbindung mindestens doppelt vorhanden ist. Über geeignete Mechanismen ist dafür zu sorgen, dass bei Ausfall einer Komponente oder einer Verbindung der Datenverkehr vollautomatisch über redundante Wege und Komponenten abgewickelt werden kann. Um auch
gegen Infrastrukturprobleme oder größere Schäden wie z.B. Brände gewappnet zu sein, sind alle Komponenten konsequent auf zwei verschiedene Brandabschnitte in zwei Gebäudeteilen verteilt. In Abbildung 66
sind alle Komponenten (bis auf die SuperMUC Switches) links von der Mitte im NSR 0 im Altbau des Rechnerwürfels, die Komponenten rechts von der Mitte im DAR I im Erweiterungsbau untergebracht.
Abbildung 66: Struktur des LRZ-Netzes
Das Zentrum des Rechenzentrums-Netzes bilden eine Reihe von Switches (HP) mit einer Bandbreite von
2x10 GBit/s (2x10 GE) und ein vPC (Virtual-Port-Channel)-Paar von Cisco Switches. Das vPC Protokoll ist
eine Virtualisierungstechnologie, die Layer 2 Geräte, wie Switches oder Endgeräte (Server, o.ä.), ein Cisco
Nexus Paar wie ein Gerät (Switch) auf Layer 2 Ebene erscheinen lassen. vPC gehört zur Familie der Multichassis EtherChannel (MCEC) Technologien. Die am LRZ eingesetzten vPC Geräte sind Cisco Nexus
7010. Die Chassis des vPC Paars (cvr1-1wr, cvr1-2wr) sind räumlich getrennt, in zwei verschiedenen
Brandabschnitten des Rechnergebäudes untergebracht, genauso wie die zentralen HP-Switches und die
Firewalls. Das vPC Paar wirkt für den Nutzer wie ein einzelnes Gerät. So können z.B. Verbindungen (sog.
Port-Channels) geschaltet werden, die auch beim vollständigen Ausfall eines der beiden Chassis weiterhin
funktionieren. Die Layer 3 (Routing)-Redundanz wird mittels des Hot-Standby-Routing-Protocols (HSRP)
realisiert. Die Verbindung zum MWN erfolgt von jedem der Nexus-Geräte aus, separat aber redundant,
über Routing-Protokolle.
Die Anbindung der Systeme und Dienste erfolgt über den Verbund von Zentralswitches. Das vPC NexusPaar und die zentralen HP Switches sind mehrfach redundant miteinander verbunden (siehe Abbildung
66). Die dadurch entstehenden Schleifen werden durch den Einsatz des Spanning-Tree-Protokols (STP)
verhindert. STP schaltet beim Ausfall einer Verbindung automatisch im Bereich von Millisekunden auf eine
andere Leitung um. Die verschiedenen physischen, aber auch die virtualisierten Server sind dann auch
Jahresbericht 2014 des Leibniz-Rechenzentrums
117
wieder jeweils redundant über zwei verschiedene Zentralswitches und über zwei auch räumlich getrennte
Verbindungen am Netz angeschlossen.
Der SuperMUC und das SuperNAS sind über zwei dedizierte Cisco Nexus 7010 redundant angebunden
(siehe Abbildung 66). Eines dieser Geräte übernimmt auch die Verbindung des SuperMUC-Systems an
den europäischen PRACE-Verbund. Das Linux-Cluster wird über einen Cisco Nexus 7018 Switch versorgt.
Für diese Systeme ist derzeit keine netztechnische Redundanz erforderlich bzw. wäre in der Realisierung
zu teuer.
11.2 Anschluss ans MWN und wesentliche Änderungen im Netz
In einem Netz mit so vielen Standorten wie dem MWN ergeben sich naturgemäß sehr viele Änderungen in
der Netzstruktur. Dies wird verursacht durch Änderungen in der Nutzung von Standorten, neuen Strandorten, der Aufgabe von Standorten sowie Sanierungen an Gebäuden und Netzen. Diese Veränderungen
werden in den nächsten Abschnitten erläutert. Daneben gibt es aber auch struktuelle Änderungen, um die
Redundanz und damit die Stabilität und Ausfallsicherheit des Netzes zu erhöhen oder neue Kundengruppen ans Münchner Wissenschaftsnetz anzubinden. Im Berichtsjahr wurden einige staatliche Museen, auch
außerhalb des Großraums München, neu ans MWN angebunden (vgl. Abschnitt 11.2.1.1), außerdem
wurde die Redundanz am Campus Garching verbessert (vgl. Abschnitt 11.2.3).
11.2.1 Wesentliche Netzänderungen im Jahr 2014
Im Jahr 2014 gab es folgende, in chronologischer Reihenfolge aufgeführte, wesentliche Netzveränderungen:
Tabelle 20: Wesentliche Netzänderungen 2014
Abschlußdatum
Netzänderung
20.01.14
Neuanschluss und Netzinbetriebnahme des Infraschall-Labors im Messbunker in Garching
06.02.14
Wiederinbetriebnahme des Versuchsgut Grünschwaige für die Hochschule Weihenstephan-Triesdorf
11.02.14
Erhöhung der Bandbreite des Klinikums Großhadern auf 10 Gbit/s
20.02.14
Neuanschluss Lazarettstr. 67; TUM Munich School of Engineering (MSE)
21.02.14
Wiederanschluss des „Schachthauses“ am Botanischen Garten nach Renovierung
06.03.14
Erhöhung der Bandbreite der Pinakotheken auf 1 Gbit/s
14.03.14
Neuanschluss des Studentenwohnheims Haidpark
17.03.14
Rückbau Datennetz Lothstraße 17 wegen Umbau
19.03.14
Neuanschluss des Munich Institute for Astro- and Particle Physics (MIAP) auf dem Gelände es IPP in Garching
16.04.14
Neuanschluss der forstwissenschaftlichen Versuchsstation im Kranzberger Forst mittels
LTE
29.04.14
Erhöhung der Bandbreite der Limnologischen Station der TUM in Iffeldorf auf 100 Mbit/s
09.05.14
Neuanschluss des Neubaus „Gartenhaus“ der juristischen Fakultät der LMU in der Veterinärstraße
26.05.14
Redundante Anbindung der Hochschule München ans MWN
03.06.14
Garching, Parkring, Business Campus, TUM: Ersetzung der 1 Gbit/s Strecke durch eine
dark-fibre-Strecke
25.06.14
Erhöhung der Bandbreite für die Backup-Internet Verbindung über M-net auf 10 Gbit/s
118
Abschlußdatum
Münchner Wissenschaftsnetz – Internetzugang
Netzänderung
01.07.14
Neuanschluss des Neubaus Brau- und Getränketechnologie der Hochschule Weihenstephan-Triesdorf (HSWT)
09.07.14
Neuanschluss des Gebäudes E (Neubau) der HSWT in Triesdorf
22.07.14
Neuanschluss des Neuen Museums Nürnberg ans MWN
24.07.14
Neuanschluß der Anmietung der TUM Schleißheimer Str. 90A in Garching
29.07.14
Erhöhung der Anbindung von Oberschleißheim (Veterinärmedizin der LMU) auf 10 Gbit/s
04.08.14
Neuanschluss des Max-Planck-Instituts für Psychatrie in der Kraepelinstraße mit 10 Gbit/s
29.08.14
Neuanschluss des Bayerischen Armeemuseums in Ingolstadt
01.09.14
Wiederanschluss des Lehrstuhls E14, TUM Physik-Department
21.10.14
Erhöhung der Bandbreite des IMETUM in Garching auf 10 Gbit/s
24.10.14
Erhöhung der Bandbreite in der Augustenstr. 46 (TUM Verwaltung) auf 1 Gbit/s
27.10.14
Neuanschluss des Neubaus Internationales Getränkewissenschaftliches Zentrum in Weihenstephan (iGZW)
31.10.14
Erhöhung der Bandbreite für den Campus der Tierklinik in Schwabing auf 10 Gbit/s
03.11.14
Neuanschluss der DKFA (Deutschkurse für Ausländer) nach Umzug in die Agnesstraße
05.11.14
Neuanschluss des Innvoations- und Gründerzentrums Biotechnologie (IZB) in Martinsried
06.11.14
Neuanschluss des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) im
Klinikum Großhadern
11.11.14
Erhöhung der Bandbreite für die Botanik der LMU, Menzingerstraße auf 10 Gbit/s
27.11.14
Erhöhung der Bandbreite für das Gebäude der Tierwissenschaften (Geb. 4317) in Freising-Weihenstephan auf 10 Gbit/s
28.11.14
Erhöhung der Bandbreite für das Gebäude der LMU in der Seestraße auf 10 Mbit/s per
Fibre-DSL
02.12.14
Erhöhung der Bandbreite des Theresianums (Geb. 0506) am Stammgeländer der TUM
auf 10 Gbit/s
11.2.1.1 Museen: IT-Beirat der staatlichen Museen
Im Jahr 2012 wurde ein IT-Beirat der staatlichen Museen eingesetzt, um die IT-Infrastruktur zu optimieren
und die Rezentralisierung von IT-Diensten zu ermöglichen. Basis für eine solche Zentralisierung von Museums-IT-Diensten ist eine angemessene Netzanbindung. Da viele Museen in München bereits am MWN
angeschlossen sind und die zentrale IT ebenfalls in München angesiedelt ist, war relativ schnell klar, dass
das MWN für diese Zwecke mitgenutzt werden soll. Im Jahr 2014 wurden deshalb das Bayerische Armeemuseum in Ingolstadt, das Neue Museum Nürnberg sowie das Deutsche Theatermuseum in München neu
ans MWN angebunden.
11.2.2
Netzausbau (Verkabelung); Netzinvestitionsprogramm
Mit dem Netzinvestitionsprogramm in Bayern (NIP) wurde zwar eine flächendeckende Vernetzung erreicht,
diese ist jedoch an der TUM in München und Garching noch zu einem sehr geringen Teil in Koax ausgeführt. Bis Ende 2008 sollte diese Koax-Verkabelung durch eine strukturierte Verkabelung (Kupfer oder
Glasfaser) ersetzt werden. Das Ziel wurde aber nicht erreicht, da einige Gebäude noch auf eine endgültige
Generalsanierung warten bzw. es unklar ist, welche spätere Nutzung dort vorgesehen ist.
Jahresbericht 2014 des Leibniz-Rechenzentrums
119
11.2.2.1 TU München
Derzeit gibt es noch Koax in Bau 0503, 0106 (N6) und zum Teil in Gebäude 5402 (CH2 in Garching); hier
soll aber Koax im Rahmen anderer Maßnahmen ersetzt werden.
Für das Gebäude 0503 auf dem TUM Stammgelände steht die große Baumaßnahme der kompletten
Gebäudesanierung ab 2015 an. Im Rahmen dieser Sanierungsmaßnahme wird auch die Datenverkabelung
erneuert und die Koaxverkabelung komplett zurückgebaut. Aktuell befindet sich das Projekt in der Ausschreibungsphase.
Mit einer strukturierten Verkabelung der Kategorie 6A wurden folgende TUM-Gebäude im Jahr 2014
ertüchtigt:
Garching
Ottobrunn
Straubing
Neubau Entrepreneurship-Center
Neubau Algentechnikum auf dem Ludwig Bölkow-Campus
Wissenschaftszentrum Straubing - Neuverkabelung ehemaliges VHS-Gebäude
11.2.2.2 LMU
Im Bereich der LMU München sind alle Gebäude mit einer strukturierten Verkabelung versehen. Es gibt
jedoch teilweise Defizite in der Verwendung der installierten Medien (nur vier-drahtiger Anschluss (Cablesharing) oder Installation von Kategorie 5 - Kabeln bzw. Anschlusskomponenten). Dies betrifft noch 24
Gebäude (NIP V–2.Bauabschnitt). Die Kosten für die Sanierung dieser Gebäude in Höhe von ca. 10 Mio. €
wurden vom Landtag zum großen Teil bereits freigegeben.
Diese Gebäude werden ab 2015 im Rahmen des 2. Bauabschnittes der NIP V-Maßnahme mit einer
Verkabelung der Kategorie 6A modernisiert.
11.2.2.3 Weihenstephan (TU München)
Auf dem Campus Weihenstephan der TU München sind alle Gebäude mit einer strukturierten Verkabelung
versehen, entweder Kupfer (Kategorie 6-Kabel) oder Glasfaser (Multimode).
11.2.2.4 LWL-Netze auf den Campus-Geländen
Auf den Campusgeländen TUM-Stamm/Nordgelände, LMU-Stammgelände, TUM-Garching, TUM-Weihenstephan und LMU Großhadern/Martinsried sind privat verlegte Glasfaserstrecken installiert, die teilweise schon über 15 Jahre existieren. Hier muss in den nächsten Jahren dringend nachgerüstet werden,
da bei einem Teil der Strecken die heute benötigten Glasfasertypen (OM4, Singlemode) nicht vorhanden
sind, diese aber aufgrund der gestiegenen Übertragungsraten notwendig werden. Einige Gebäude sind
sogar nur mit Multimode Glasfasern erschlossen. Damit ist eine Anbindung mit mehr als 1 Gbit/s praktisch
nicht möglich.
11.2.3
Redundante LWL-Verkabelung und zweiter zentraler
Netzknoten auf dem Campus Garching
Im Jahr 2013 wurde in enger Kooperation von TUM und LRZ ein Konzept zum Ausbau der LWL-Infrastruktur am Campus Garching zur Erhöhung der Redundanz erstellt. Von der TUM wurden erhebliche finanzielle
Mittel aufgewendet, um die privat verlegte LWL-Infrastruktur am Campus Garching nach diesem Konzept
auszubauen.
Die wesentliche Anforderung für diese Nachrüstung war die redundante Anbindung der Areale der Informatik, der Physik, der Chemie sowie des Maschinenwesens unter Einbeziehung des LRZ. Eine redundante
LWL-Anbindung mit zwei Strecken erfordert eine unabhängige Wegeführung für die entsprechenden Faserpaare. Dies lässt sich im Normalfall nicht ohne massive Tiefbauarbeiten realisieren. In Garching konnte
jedoch der bestehende Hochschulkanal für diesen Zweck verwendet werden. Dieser Versorgungskanal ist
zweizügig. Es gibt einen sogenannten warmen sowie einen kalten Kanal, die baulich so voneinander getrennt sind, dass weder ein Brand von einem Kanal auf den anderen übergreifen kann, noch „normale“
Erdarbeiten beide Kanäle so beinträchtigen können, dass beide LWL-Strecken beschädigt werden.
Diese Maßnahme war die Voraussetzung, um auch das Konzept für den zentralen Netzknoten in Garching,
der sich im Maschinenwesen befindet, zu überarbeiten und auch hier ein ausfallsicheres Setup vergleichbar
120
Münchner Wissenschaftsnetz – Internetzugang
dem im Rechnerwürfel des LRZ aufzubauen (vgl. Abschnitt 11.1.4). Es wurde ein redundanter Kernnetzknoten im neu errichteten Katalysezentrum bei der Chemie eingerichtet. An dem Standort erfolgte 2014
der Aufbau eines zweiten Routers (Cisco Nexus 7010) für den Campus Garching. Damit gibt es einen
zweiten, räumlich getrennten zentralen Netzknoten am Campus Garching. Die Router im Maschinenwesen
und im Katalysezentrum sind mittels vPC (virtual Port-Channel) verbunden. Damit ist es möglich, von den
Gebäudeswitches redundante Anbindungen zum MWN Backbone aufzubauen.
Derzeit laufen beide gemieteten Glasfasern aus der Innenstadt noch am Knoten im Maschinenwesen auf,
d.h. falls es dort z.B. zu einem Brand kommen würde, und beide Fasern beschädigt würden, wäre keine
Verbindung in die Innenstadt mehr möglich. Aus diesem Grund ist es für 2015 geplant, den Endpunkt der
LWL aus dem Stammgelände der TU nach Garching vom Maschinenwesen in das Katalysezentrum umzuverlegen.
11.2.4
Anbindung Studentenwohnheime
Das LRZ ermöglicht Wohnheimen eine feste Anbindung über Standleitung, DSL-Technik oder Funk an das
MWN und damit an das Internet. Die Kosten der Anbindung hat der Heimträger zu übernehmen, für die
Netznutzung werden aber keine Gebühren erhoben. Für kommerzielle Heime, ohne öffentliche Förderung,
ist der Zugang ins Internet über das MWN nur über eine VPN-Verbindung möglich.
Zum Jahresende 2014 sind 12.468 Wohnheimplätze in 52 Heimen an das MWN angeschlossen, davon 34
über eine Glasfaserleitung (LWL) mit 100 Mbit/s bis zu 2 Gbit/s, 2 über FibreDSL mit 10 Mbit/s, 9 über
Funkstrecken, 2 über DSL, eines über Mikrowellenfunk, eines über 100 MBit/s Laserlink sowie 2 über einen
VPN-Tunnel. In 2 Heimen wird nur das WLAN vom LRZ betrieben.
Die nachfolgende Tabelle zeigt die Wohnheime, die Ende 2014 am MWN angeschlossen sind.
Tabelle 21: Die Ende 2014 an das MWN angeschlossenen Wohnheime
Name
Adresse
Träger
Plätze
Anschluss
Studentenstadt Freimann
Christoph-ProbstStraße 10
Studentenwerk
2.440
LWL zu MPI Freimann
Studentenviertel auf
dem Oberwiesenfeld
Helene-MayerRing 9
Studentenwerk
1.853
LWL zu ZHS
Kreittmayrstraße
Kreittmayrstraße
14
Studentenwerk
45
LWL zu TUM
Adelheidstraße (mit
Deutschkurse für Ausländer)
Adelheidstraße 13
Studentenwerk
374
LWL zu TUM
John-Mott-Haus
Theo-Prosel-Weg
16
CVJM München
e.V.
67
Funk zu Winzererstr.
Oberschleißheim
Oberschleißheim
Am Schäferanger
9-15
Studentenwerk
171
LWL zu Rinderklinik
Ökumenisches Studentenheim
Steinickeweg 4
Verein evangelischer Studentenwohnheime
78
Funk zu TUM-Uhrenturm
Hugo-Maser-Haus
Arcisstr. 31
Verein evangelischer Studentenwohnheime
72
Funk zu TUM-Uhrenturm
Jahresbericht 2014 des Leibniz-Rechenzentrums
Name
Adresse
121
Träger
Plätze
Anschluss
St. Albertus Magnus
Haus
Avenariusstraße
15 (Pasing)
St. Albertus Magnus-Stiftung (Kath.)
108
SDSL M-net
Wohnheimsiedlung
Maßmannplatz
Heß-Straße 77
Wohnheimsiedlung
Maßmannplatz e.V.
124
Funk zu HM Dachauerstraße
Jakob Balde Haus
Theresienstraße
100
Studienseminar
Neuburg-Donau
110
LWL zu TUM
Internationales Haus
Adelheidstraße 17 Studentenwerk
93
über Adelheidstr. 13
angeschlossen
Stettenkaserne
Schwere Reiter
Str. 35
Studentenwerk
242
M-net LWL
Heidemannstraße
Paul-HindemithAllee 4
Studentenwerk
310
M-net LWL
Felsennelkenanger
Felsennelkenanger 7-21
Studentenwerk
531
M-net LWL
Heiglhofstraße
Heiglhofstraße
64/66
Studentenwerk
415
Telekom LWL
Sauerbruchstraße
Sauerbruchstraße
Studentenwerk
259
M-net LWL
Garching I
Garching, Jochbergweg 1-7
Studentenwerk
110
Telekom LWL
Garching II
Garching, Enzianstraße 1, 3
Studentenwerk
114
LWL zu TU-Heizkraftwerk
Dominohaus
Garching, Unterer
Strassäcker 21
Dominobau
82
LWL zu TU-Heizkraftwerk
Türkenstraße
Türkenstraße 58
Studentenwerk
97
LWL zu Theresienstraße
Intern mit Funk vernetzt
Weihenstephan II
Giggenhauser Str.
25, 85354 Freising
Studentenwerk
226
LWL über Weihenstephan IV
Lange Point (Weihenstephan III)
Lange Point 1-35,
85354 Freising
Studentenwerk
384
LWL zu HSWT
Heizhaus
Weihenstephan IV
Giggenhauser Str.
Studentenwerk
27-33
237
LWL zur Telefonzentrale
122
Name
Münchner Wissenschaftsnetz – Internetzugang
Adresse
Träger
Plätze
Anschluss
Vöttinger Straße (Weihenstephan I)
Vöttinger Straße
49, 85354 Freising
Studentenwerk
113
LWL zu alter DVS
Stiftung Maximilianeum
Max-Planck-Str. 1
Stiftung Maximilianeum
26
Funk zu KH Rechts
der Isar
Studentenheim "Paulinum"
Rambergstraße 6,
80799 München
Studentenwohnheim Paulinum e.V.
(Kath.)
58
Funk zu TUM-Uhrenturm
Albertia, Ottonia, Erwinia
Gabelsbergerstr.
24
Stud.-Verbindungen
Albertia, Ottonia, Erwinia
25
Funk zu Richard
Wagner Str. 18
Wohnheim Richard
Wagner-Str. 16
Richard-WagnerStr. 16
Ingeborg van-Calker
Stiftung
33
LWL zu Richard
Wagner-Str. 18
Hochschulhaus Garching
Enzianstr. 5
Evangelische Studentenwohnheime
95
LWL zu Wohnheim
Garching II
Spanisches Kolleg
Dachauerstraße
145
Katholische Kirche
35
Funk 802.11a zur
HM
Chiemgaustraße
Traunsteiner
Straße 1-13
Studentenwerk
436
Telekom-LWL zu
TUM
Am Anger I
Unterer Anger 2
Orden der Armen
Schulschwestern
50
M-net FibreDSL
Am Anger II
Unterer Anger 17
Orden der Armen
Schulschwestern
85
M-net FibreDSL
Wohnheim Stiftsbogen
Schröfelhofstraße
4
Studentenwerk
588
LWL zu Campus
Großhadern
Priesterseminar St. Johannes der Täufer
Georgenstraße 14
Katholisches Ordinariat
28
Funk zu Georgenstr. 11
Johannes-Hanselmann-Haus
Kaulbachstr. 25
Ev. Waisenhausverein
117
LWL zu Staatsbibliothek
Marie-Antonie-Haus
Kaulbachstr. 49
Studentenwerk
96
LWL zu Ludwigstr.
28
Studentenwohnanlage
Biederstein
Biedersteiner Str.
24-30a
Studentenwerk
168
LWL zu Amalienstr.
17
Sophie-Barat-Haus
Franz-Josef-Str. 4
Katholisches Ordinariat
106
LWL zu Ordinariat
Jahresbericht 2014 des Leibniz-Rechenzentrums
Name
Adresse
Johann-Michael-Sailer-Haus
Preysingstr. 93a
Heinrich-Groh-Str.
123
Träger
Katholisches Ordinariat
Plätze
Anschluss
26
LWL zu Ordinariat
Heinrich-Groh-Str.
Studentenwerk
17
59
LML zu Amalienstr.
17
Moosacher Straße
Moosacher Str.
81
Studentenwerk
160
100 MBit/s Laserlink
Josef-Wirth-Weg 19
Josef-Wirth-Weg
19
Studentenwerk
190
100 MBit/s Mikrowellenfunk
Oskar von Miller Forum
Oskar von Miller
Ring 25
Oskar von Miller Forum
80
LWL zu Amalienstr.
17
Herzogliches Georgianum
Prof. Huber Platz
1
Erzdiözese München-Freising
45
ADSL, intern WLAN
Rosenheim I
Marienberger Str.
36-38
Rosenheim
Studentenwerk
113
über Tunnel und
Secomat
Rosenheim II
Westendorfer Str.
47a-m
Rosenheim
Studentenwerk
342
über Tunnel und
Secomat
Frauendorfer Haus
Notburgastr. 1923
Studentenwerk
137
LWL zu Amalienstr.
17
Lothstraße
Lothstr. 62
Studentenwerk
62
LWL zu Dachauer
Str. 98b
Studentenwohnheim
Freimann
Josef-Wirth-Weg
21
Grammer Immobilien
449
LWL zu Amalienstr.
17
Haidpark
Admirabogen 3749
Münchner Arbeiterwohlfahrt
204
Nur WLAN vom
LRZ
Summe insgesamt
12.468
52 Wohnheime
11.3 DNS und Sicherheit im DNS
Der Domain Name Service (DNS) im Internet dient dazu, lesbare Namen anstelle von IP-Adressen verwenden zu können. Im weltweiten Verbund dienen die Domain-Nameserver zur Auflösung (Resolving) der
Domainnamen, d.h. sie liefern für einen Verbindungsaufbau die IP-Adresse zum verwendeten Domainnamen. Die Namen sind hierarchisch strukturiert, wobei die einzelnen Stufen durch Punkte getrennt geschrieben werden. Die höchste Ebene (Top Level Domain) steht dabei ganz rechts und bezeichnet häufig das
Land (z.B. "de" für Deutschland). Die zweite Stufe steht dann für die Organisation bzw. Firma (z.B. lrz.de).
Im Bereich des MWN bietet das LRZ die Möglichkeit, über seine Nameserver den DNS-Dienst für Einrichtungen im MWN zu erbringen. Daneben betreiben einige Fakultäten und Institute für ihre Bereiche auch
eigene Nameserver. Ziel ist aber die weitgehende Zentralisierung des Dienstes über die hochverfügbaren
124
Münchner Wissenschaftsnetz – Internetzugang
und gut gepflegten Server des LRZ. Der DNS-Dienst wird mandantenfähig angeboten. Über eine Webschnittstelle (Webdns) können Netzverantwortliche die Ihnen zugewiesenen Namensräume selbstständig
verwalten.
Der Webdns-Dienst wird inzwischen von 345 Nutzern zur Pflege der DNS-Einträge verwendet. Die Anzahl
der über Webdns verwalteten DNS-Zonen stieg von 2.467 auf 2.566.
Die Registrierung von Second-Level-Domains erfolgt jetzt über den Reseller InternetX, da dieser gegenüber der früher in Anspruch genommenen Firma Dopoly bessere Verwaltungsmöglichkeiten erlaubt und
außerdem noch günstigere Preise bietet. Es wurden 92 neue Domains unter verschiedenen Toplevel-Domains (z.B. de, org, eu, bayern [neu]) für Institute und Organisationen registriert, 32 wurden von anderen
Providern transferiert.
Die folgenden Bilder zeigen die Frequenz der Anfragen für den authoritativen und den Resolving-Dienst in
Anfragen pro Sekunde (qps, queries per second).
Abbildung 67: Statistik für alle DNS-Server (Autoritativ)
Abbildung 68: Statistik für alle DNS-Resolver
Die folgende Tabelle zeigt eine Übersicht über die wichtigsten Domains im MWN. Die reale Anzahl der
Zonen und Einträge ist um einiges höher, kann aber nicht exakt ermittelt werden, da viele Instituts-Server
keine Auflistungs-Abfragen beantworten. Dies ist auch der Grund, warum einige Zahlen gegenüber 2013
kleiner ausfallen.
Die Spalte A-Records bezeichnet die IPv4 Einträge, AAAA-Records die für IPv6 und MX-Records beinhaltet
die Mail-Server.
Jahresbericht 2014 des Leibniz-Rechenzentrums
125
Tabelle 22: Übersicht über die wichtigsten Domains im MWN
Zone
Zonen
Sub-Domains
A-Records
AAAARecords
Aliase
MX-Records
Mail-Do- WWWmains Records
uni-muenchen.de
369
2.157
9.843
2.932
3.867
3.532
1.619
1.284
lmu.de
113
1.316
4.376
957
2.483
3.062
1.422
1416
tu-muenchen.de
266
1.954
19.632
1.471
1.733
7.564
7.167
259
tum.de
424
5.992
17.923
3.061
4.330
2.282
1.867
1.463
49
78
2.991
0
230
538
225
30
fh-weihenstephan.de
2
28
45
0
27
2
2
5
hswt.de
0
40
143
0
72
3
3
8
badw-muenchen.de
23
64
45
0
33
92
44
48
badw.de
23
73
2
0
128
86
43
29
lrz-muenchen.de
17
127
303
21
166
23
12
2
lrz.de
97
655
30.536
3.397
1.966
46
23
12
mhn.de
61
1.050
1.610
82
1.230
282
106
126
mwn.de
47
207
206.908
177
310
39
19
68
Gesamt
1.491
11.959
294.357
12.098
16.575
17.551
12.552
4.750
fh-muenchen.de
Insgesamt sind 634 Second-Level-Domains auf den Nameservern des LRZ konfiguriert.
11.3.1
DNS-Amplification-Attacks und offene Resolver
Eine sogenannte DNS-Reflection-Attack bzw. DNS-Amplification-Attack (Reflection-Attack mit Verstärkung) dient dazu, das Angriffsziel durch enormes IP-Verkehrsaufkommen zu überlasten. Der Angreifer verschickt dazu DNS-Anfragen (viele, bevorzugt klein und verteilt) mit gefälschter Absenderadresse (der Adresse des Angriffsziels) an einen oder mehrere offene Resolver, d.h. an DNS-Server, die rekursive Anfragen aus dem Internet beantworten. Der Resolver antwortet auf die Anfragen an die gefälschte Absenderadresse (das Angriffsziel) und speichert die Daten in seinem Cache. Diese (möglichst großen) Einträge
können auf autoritativen Servern des Angreifers oder auf kompromittierten autoritativen Servern liegen, es
können aber auch beliebige „normale“ Einträge (z.B. DNSKEY) sein, die der Angreifer vorher ausfindig
gemacht hat. Sowohl große DNS-Records als auch viele Anfragen von einer Adresse (z.B. durch NAT)
können legitim sein. Der Angreifer kann den Effekt noch dadurch verstärken, dass er von vielen Rechnern
(einem sog. Botnet) aus die Anfragen mit der gefälschten Absenderadresse startet. Abbildung 69 stellt das
Prinzip des Angriffs dar. Selbst wenn Heuristiken zur Angriffserkennung greifen, kann der Angreifer den
Angriff verfeinern (mehr unterschiedliche Records, mehr offene Resolver etc.).
Solange IP-Spoofing nicht verhindert wird, gibt es keine grundsätzliche Lösung für das Problem. Die Wirkung von Gegenmaßnahmen beschränkt sich darauf, den Angriff abzuschwächen oder den Aufwand für
den Angreifer zu erhöhen. Offene Resolver sind ein essentieller Bestandteil des Angriffs, gleichzeitig gibt
es fast nie gute Gründe für den Betrieb eines offenen Resolvers, verständlicherweise sind offene Resolver
daher nicht gern gesehen.
Durch Scans nach offenen Resolvern in 2013 und der Aufforderung an die zuständigen Netzverantwortlichen, die Konfiguration zu bereinigen, konnte die Anzahl stark verringert werden. Seit Februar 2014 werden
keine eigenen Scans mehr durchgeführt, da dies zentral durch den DFN durchgeführt wird. Es werden
allerdings nur noch sehr wenige offene Resolver gefunden. Die Netzverantwortlichen werden dann aufgefordert, ihre Konfiguration zu bereinigen.
126
Münchner Wissenschaftsnetz – Internetzugang
Abbildung 69: Funktionsweise der DNS Amplification Attack
11.3.2
DNSSEC
Im Jahr 2014 wurden große Schritte zur kryptographischen Absicherung der DNS-Inhalte durch den Standard DNSSEC vollzogen. Nachdem in den Jahren davor nur einzelne Testdomains mit den neuen Fähigkeiten ausgestattet waren, wurde im Jahr 2014 ein sogenannter DNSSEC-Signing-Proxy in Betrieb genommen. Dieser ist in der Lage, auf WebDNS verwaltete Zonen transparent mit DNSSEC-Signaturen auszustatten. Die sichere Delegation wurde unter anderem für die Domains lrz.de, tum.de und lmu.de erfolgreich
durchgeführt. Damit nimmt das LRZ im Bereich der Hochschuldomains einen Spitzenplatz bei der DNSSEC-Abdeckung ein.
Alle Resolver, die das LRZ betreibt, validieren seit Anfang 2014 DNSSEC, d.h. wenn ein Nutzer aus dem
MWN einen Namen in einer DNSSEC signierten Zone abfragt, so überprüfen die LRZ-Resolver die digitalen
Signaturen. Ein Spoofing von DNS Einträgen kann damit wirkungsvoll verhindert werden.
Durch DNSSEC werden weitere Schritte zur Absicherung ermöglicht. Beispielsweise wurden Ende 2014
die Zertifikatsinformationen der eingehenden Mailserver (postrelay/mailrelay) in der Zone lrz.de mit dem
Standard TLSA/DANE veröffentlicht. Dadurch können DANE-fähige Absender eine verifizierte TLS-Verbindung mit den LRZ-Servern aufbauen und Man-in-the-Middle-Angriffe verhindern.
Es ist bereits jetzt ein hohes Interesse seitens der Universitäten an der sicheren Delegation ihrer DNSInhalte festzustellen. Im Jahr 2015 werden daher auch weitere Subdomains signiert werden. Dazu sind
weitere Schritte bei der Automatisierung geplant, um den Arbeitsaufwand möglichst gering zu halten und
Fehler durch manuelle Arbeitsschritte zu vermeiden.
11.4 DHCP
Seit ca. 10 Jahren betreibt das LRZ einen DHCP-Dienst, der von allen Münchner Hochschulen für die
automatische IP-Konfiguration von institutseigenen Rechnern genutzt werden kann. Außerdem wird dieser
Dienst für einige zentrale Anwendungen verwendet, wie z.B. für die WLAN-Zugänge im MWN oder die
Netzanschlüsse in Hörsälen und Seminarräumen. Insgesamt wird der DHCP-Dienst von 238 Instituten genutzt und verwaltet dabei 1.003 Subnetze mit über 176.000 IP-Adressen. Falls gewünscht, tragen die
DHCP-Server die Namen der Clients auch automatisch in die zugeordnete Zone auf den zuständigen DNSServern ein (Dynamic DNS).
Der DHCP-Dienst läuft auf denselben Servern wie DNS (Standorte: LMU-Stammgelände, TU-Stammgelände, LRZ Garching und Weihenstephan). Jeden größeren Router-Standort bedient ein eigenes FailoverPaar, wobei die Paare je auf 2 DNS-Server verteilt sind. Die Server sind räumlich getrennt und über mehrere Routen erreichbar, sollte also einer der Server oder eine Route zum Server ausfallen, übernimmt ein
Jahresbericht 2014 des Leibniz-Rechenzentrums
127
anderer Server bzw. eine andere Route. Die Konfiguration der Server wird zentral in einem SubversionRepository verwaltet und automatisch auf Fehler überprüft. Das Monitoring erkennt nicht nur Ausfälle eines
Servers, sondern auch einen Synchronisationsausfall der Failover-Peers und Netze ohne verfügbare IPAdressen.
Abbildung 70: DHCP-Infrastrkutur auf den DNS-Servern
Durch Übermitteln einer CSV-Datei kann ein Bereich von Adressen statisch definiert werden.
Der DHCPv6-Dienst wird ebenfalls auf den DNS-Servern betrieben. Da das LRZ den DHCPv6-Dienst stateless betreibt, kann der Dienst über Anycast erreicht werden. Fällt einer der Server aus, schwenkt die
Anycast-Route automatisch zu einem anderen Server, der DHCP-Dienst ist also mehrfach redundant.
11.5 Radius
Über Radiuszonen können einzelne Institutionen für ihre Beschäftigten bzw. Studierenden die Berechtigung für den Wählzugang und andere Netzdienste, wie VPN, Eduroam oder Authentifizierung am Netzrand
selbst verwalten. RADIUS steht für „Remote Authentication Dial-In User Service“. Ein Schema der physischen Struktur des RADIUS-Dienstes zeigt Abbildung 71.
Die Funktionsweise ist folgende:
Nutzer verbinden sich zu einem RAS (Remote Access Server), das kann ein VPN-Server, ein EinwahlServer, ein WLAN-Access-Point, ein Access-Switch, etc. sein. Diese RAS-Geräte schicken die Authentifizierungs-Anfragen an den RADIUS-Proxy-Dienst weiter, der über eine virtuelle IP-Adresse an unseren
SLBs (Server-Load-Balancer) erreichbar ist. Der RADIUS-Proxy seinerseits wählt anhand der Zonenbezeichnung (siehe weiter unten) den Authentifizierungs-Service aus, der die eigentliche Benutzerauthentifizierung durchführt. Das kann ein weiterer RADIUS-Server, eine lokale User-Datei, ein LDAP-Server oder
ähnliches sein. War die Authentifizierung erfolgreich, wird eine entsprechende Freigabe an den RAS geschickt, andernfalls wird die Zugangsanfrage abgelehnt.
Die von uns eingesetzte RADIUS Software (FreeRADIUS) unterscheidet zwischen Autorisierung und Authentifizierung. So hat nicht jeder Nutzer, der authentifiziert wird, auch automatisch Zugang zu allen RAS
Geräten.
128
Münchner Wissenschaftsnetz – Internetzugang
Abbildung 71: RADIUS-Struktur im MWN
Zum Jahresende 2014 waren 49 Radiuszonen konfiguriert. Eine Auflistung der Radiuszonen findet sich im
Jahresbericht 2012.
11.6 Switch-Infrastruktur / Switch-Erneuerung
Das LRZ setzt seit Mitte 2001 Switches vom Typ HP 4100 ein. Zum 01.01.2014 waren hiervon noch 154
Geräte im Einsatz. Dieser Switch-Typ entspricht aber schon seit einigen Jahren nicht mehr dem aktuellen
Stand der Technik:
●
Die Kapazität der Backplane ist auf 4,5 Gbit/s pro Slot begrenzt. Daher gibt es für diesen SwitchTyp keine Module mit 10GE-Ports.
● Es fehlen wichtige Funktionalitäten moderner Switches, wie z.B. die automatische Erkennung von
Schleifen im Netz.
Außerdem wird die Software dieses Switch-Typs bereits seit einigen Jahren nicht mehr weiterentwickelt.
Darüber hinaus wird dieser Switch nicht mehr von der Firma HP angeboten, d.h. der Nachkauf von Komponenten zur Erweiterung von Switches ist nicht mehr möglich. Daher wurde bereits im Jahr 2011 damit
begonnen, diese Switches durch eine aktuelle Gerätegeneration (HP 5400) zu ersetzen. 2014 wurde diese
Ersetzung fortgesetzt und es wurden dabei weitere 19 Switches ausgetauscht.
11.7 Telefonie
Die Telefonie im LRZ umfasst einerseits den Betrieb der Voice-over-IP Anlage als auch die Mobilkommunikation und den Zugang von Rechnern mittels UMTS ins MWN. Daneben war das vergangene Jahr gekennzeichnet durch die Vorbereitung der bayernweiten Ausschreibung für Telefondienste und Planungen
um die Mobilfunkversorgung im LRZ zu verbessern.
11.7.1
VoIP-Anlage und Betrieb
Die seit dem Umzug des LRZ nach Garching installierte VoIP-Telekommunikations-Anlage auf Basis der
offenen Software Asterisk unter Linux arbeitet weiterhin zufriedenstellend.
Jahresbericht 2014 des Leibniz-Rechenzentrums
129
Die Übertragung der Sprachdaten zwischen Telefonen im LRZ und der TK Anlage erfolgen verschlüsselt.
Ausgenommen sind aktuell noch die Telefone im Exzellenz-Cluster der TUM und die der LRZ-Telearbeiter.
Für einige Telearbeiter wurde die Verschlüsselung testweise aktiviert und funktioniert wie gewünscht. Es
ist geplant, die Übertragung der Sprachdaten für alle an der TK Anlage angeschlossenen Geräte zu aktivieren.
Im April wurde 40 Telefone für das zum Exzellenz-Cluster gehörende MIAPP angebunden.
Insgesamt wurden durch die VoIP-Telefonanlage im Jahr 2014 ca. 150.000 (ab April 2013 ca. 155.000)
Gespräche mit einer durchschnittlichen Länge von 3:20 (2013 2:24) Minuten oder insgesamt ca. 505.000
(2014 hochgerechnet 495.000) Gesprächsminuten vermittelt.
Dies entspricht einer Gesprächsvolumenzunahme von ca. 10.000 Gesprächsminuten im Vergleich zum
Jahr 2013, wobei die durchschnittliche Dauer der Gespräche erheblich gestiegen ist.
Es konnten ca. 351 (2013 ca. 342) Gesprächsminuten direkt über SIP zu externen Teilnehmern abgewickelt
werden. Der Wert hat sich im Vergleich zum Vorjahreswert etwas reduziert. Zu den über SIP erreichbaren
Zielen gehören die Universitäten Eichstätt, Würzburg, Ulm und Wien.
Weitere Informationen zur VoIP-Telefonanlage, wie z.B. Aufbau und Vermittlungsstatistik, können den Jahresberichten ab 2006 entnommen werden.
11.7.2
Zugang über UMTS
Der UMTS-Zugangspunkt wird weiterhin vom LRZ übernommen, wodurch die Nutzer der Verträge aus
BayKOM weiterhin den Weg ins Internet mit MWN-IP-Adressen nutzen können. Der Zugang ist auch mit
LTE möglich.
11.7.3
Verbesserung der Mobilfunkversorgung in den
LRZ-Gebäuden
Um die Erreichbarkeit von Personen in den Gebäuden des LRZ insbesondere im Rechnergebäude zu erhöhen sollte eine Versorgung des Bereiches mit GSM geprüft und umgesetzt werden.
Aus diesem Grund wurde im Keller des Bestandsgebäudes des Rechnerwürfels prototypisch eine FemtoZelle von Vodafone installiert. Eine Ausweitung der GSM Versorgung auf diesem Weg ist allerdings nicht
möglich, da auf Grund der festgelegten Frequenzen nur max. 4 Femto-Zellen betrieben werden können.
Nach der Prüfung wurde beschlossen, eine Umsetzung für die drei großen Mobilfunkanbieter umzusetzen.
Die Umsetzung muss im Rahmen einer Baumaßnahme ausgeführt werden, die hoffentlich bis Ende 2015
abgeschlossen ist.
11.7.4
Ausschreibung BayKOM
Der Freistaat Bayern wird seine Kommunikationsdienste im Rahmen von BayKOM 2017 neu ausschreiben.
Dazu wurden 2014 verschiedene ressortübergreifende Fachgruppen gebildet, um die entsprechenden
Leistungsverzeichnisse zu erarbeiten. Das LRZ wurde gebeten, stellvertretend für das Wissenschaftsministerium, bzw. die bayerischen Universitäten und Hochschulen an der Fachgruppe Telefonie (Festnetz
und Mobilfunk) mitzuarbeiten.
11.8 Unterstützung von Infrastrukturdiensten
Um Netzdienste anbieten zu können, bedarf es einer Menge von Infrastrukturdiensten, mit denen der Nutzer nur selten direkt in Kontakt kommt. In diesem Abschnitt werden diese Basisdienste wie Server Load
Balancer, IPv6, Wellenlängen- und IP-Multiplexsysteme sowie NESSI vorgestellt.
11.8.1 Server Load Balancer (SLB)
Die Dienste am SLB erfreuen sich weiterhin großer Beliebtheit. Das Wachstum der letzten Jahre hat etwas
nachgelassen, die Anzahl der verarbeiteten Verbindungen blieb gleich (ca. 60.000).
In der Tabelle ist die Anzahl der konfigurierten Server angegeben, die Anzahl der aktiven Server ist deutlich
kleiner. Bei den Pools handelt es sich um Zusammenfassungen von Rechnern zu einer Gruppe. Da die
Rechner auf verschiedenen Ports mehrere Dienste anbieten können, weicht diese Zahl deutlich von der
Anzahl der konfigurierten Nodes (insgesamt 179 (Vorjahr: 149)) ab.
130
Münchner Wissenschaftsnetz – Internetzugang
Tabelle 23: Nutzung der Server Load Balancer (SLB)
2011
2012
2013
2014
Virtuelle Server
280
212
240
244
Gruppen (Pools)
177
182
175
147
Pool Members
492
292
365
384
Durch den Abbau von Testsystemen ist die Anzahl der Pools gesunken. Die Anzahl der Anfragen intern
und extern ist jedoch deutlich gestiegen. So wurden u.a. umfangreiche Tests mit dem PowerFolder-Dienst
durchgeführt, ebenso umfangreiche Konfigurationen für die BSB. Insgesamt wurden 6 neue Serverangebote für externe Kunden eingerichtet und 2 Serverangebote abgebaut. Die Dienstgüteanforderungen vieler
Dienste steigen und damit auch die Notwendigkeit für Loadbalancing-Dienste.
Abbildung 72: Durchsatz innerhalb von 7 Tagen am SLB 1
Im Jahr 2014 ergaben sich keine nennenswerten Betriebsunterbrechungen (<5 min), jedoch mussten einige sicherheitsrelevante Fehler behoben werden. Dies bedingte auch eine Notfall-Wartung mit SoftwareUpdate. Dabei wurden u.a. die verwendbaren SSL-Ciphers angepasst.
Es wurden Vorbereitungen getroffen, um die Software auf das nächste Major-Release (Version 11) zu
aktualisieren. Da sich gundlegende Schnittstellen ändern, ist dies ein sehr aufwändiger Prozess und bedarf
umfangreicher Vorarbeiten und einer sehr genauen Planung. Deshalb wurde auch ein Testsystem aufgesetzt, um künftige Updates sowie Weiterentwicklungen von Anwendungen besser planen, testen und umsetzen zu können.
11.8.2
IPv6
Im Jahr 2014 verlief der Betrieb von IPv6 im MWN unauffällig. Die Endsystemanzahl mit nativem IPv6
(kumulativ über eine Woche) erhöhte sich durch organisches Wachstum erneut deutlich von 59.000 auf
90.600.
Jahresbericht 2014 des Leibniz-Rechenzentrums
131
Tabelle 24: Anzahl der IPv6-Endgeräte 2010 - 2014
Anzahl der IPv6-Endgeräte
(aus Nyx-Datenbank)
2010
2011
2012
2013
2014
4.800
16.500
25.100
59.000
90.600
Die geplante Ausstattung der Managementnetze mit IPv6 wurde begonnen. Erste Experimente zum Einsatz
von IPv6 in einem MPLS Layer3-VPN für die Max-Planck-Gesellschaft wurden erfolgreich durchgeführt und
die Generalverwaltung angebunden.
11.8.3 Wellenlängenmultiplexer
Das LRZ setzt seit 1997 Wellenlängenmultiplexer (Wavelength-Division-Multiplexer, WDM) auf den angemieteten Glasfaserleitungen der lokalen Provider (Telekom und M-net) ein. Hierdurch lassen sich auf Leitungsebene getrennte Strukturen aufbauen. WDM-Systeme werden derzeit im MWN dazu verwendet, um
die verfügbaren Glasfaserleitungen parallel zum Produktionsnetz für folgende Dienste zu nutzen:
•
•
Kopplung von Nebenstellenanlagen (TK-Kopplung)
Realisierung von standortübergreifenden Intranets (z.B. Max-Planck-Gesellchaft, Universitätsverwaltung)
• Realisierung von Testnetzen parallel (ATM-Pilotprojekte, Fiber-Channel-Kopplung von Speichernetzen
usw.)
Im MWN werden vom LRZ aktuell auf vier Verbindungen WDM-Systeme eingesetzt (s. Tabelle 25).
Tabelle 25: WDM-Verbindungen
Verbindung
TU-Nordgelände
LMU-Stammgelände
–
TU-Nordgelände
Garching
–
TU-Nordgelände
Großhadern
–
LMU-Stammgelände
Martiusstraße 4
–
WDM-Typ
Zweck
MRV LambdaDriver 800
Verbindung der Backbone-Router (1 x 10 Gbit/s)
ATM-Testnetz Erlangen -- IRT (1 x 2,4 Gbit/s
(OC48))
MRV LambdaDriver 800
Verbindung der Backbone-Router (1 x 10 Gbit/s)
Intranet der Max-Planck-Gesellschaft (1 x 10 Gbit/s)
MRV LambdaDriver 800
Verbindung der Backbone-Router (1 x 10 Gbit/s)
Intranet der Max-Planck-Gesellschaft (1 x 10 Gbit/s)
Pan Dacom T-3009-LC
(passiver WDM)
Anbindung des Gebäudes Martiusstr. 4 ans MWN (1
x 1 Gbit/s)
Intranet der LMU-Verwaltung ( 1 x 1 Gbit/s)
Fiber-Channel-Kopplung der LMU-Verwaltung ( 2 x
4 Gbit/s)
Die Hochschule München setzt darüber hinaus noch auf einigen internen Verbindungen WDMs zur Kopplung von TK-Anlagen ein. Die Telefonanlagen sowie deren abgesetzten Telefonanlagenteile der Technischen Universität und der Ludwig-Maximilians-Universität werden zum größten Teil mittels IP, d.h. über
das Standardprotokoll im MWN, miteinander gekoppelt.
Im Jahr 2014 wurde geplant, die Intranet-Kopplung zwischen den Max-Planck-Instituten in Martinsried und
dem Rechenzentrum der Max-Planck-Gesellschaft in Garching quantitativ und qualitativ zu erweitern. So
sollte die Übertragungsgeschwindigkeit zwischen diesen Standorten von 10 Gbit/s auf 100 Gbit/s erhöht
132
Münchner Wissenschaftsnetz – Internetzugang
werden. Außerdem sollte eine redundante Verbindung zwischen Martinsried und Garching geschaffen werden (vgl. Abschnitt 11.1.2). Da die bisher eingesetzten WDMs hierfür nicht geeignet sind, müssen diese
ersetzt werden. Für die Redundanz der Intranet-Kopplung müssen außerdem zusätzliche WDMs installiert
werden. Mit dem Einsatz einer neuen WDM-Generation ist es dann auch möglich, die Backbone-Router
des MWN mit höheren Geschwindigkeiten untereinander zu verbinden (entweder n x 10 Gbit/s oder 1 x
100 Gbit/s). Für die Beschaffung der neuen WDM-Komponenten wurde in der zweiten Jahreshälfte von der
Max-Planck-Gesellschaft eine Ausschreibung durchgeführt. Die Entscheidung fiel dabei auf Geräte des
Herstellers ADVA (FSP 3000). Bis Ende 2014 wurden die Geräte bereits größtenteils geliefert. Die Installation und Inbetriebnahme der neuen WDM-Generation soll bis Ende März 2015 abgeschlossen werden.
Abbildung 73: Struktur des Querverbindungsnetzes
Den zentralen Mittelpunkt des Querverbindungsnetzes bildet die Telefonanlage in der Obersten Baubehörde. Dort gibt es neben den Verbindungen zu den Hochschulen auch noch eine ganze Reihe weiterer
Kopplungen zu Telefonanlagen staatlicher Einrichtungen, wie z.B. Ministerien, Finanz- und Polizeibehörden, Theater usw. Auch diese Verbindungen erfolgen nicht über das öffentliche Telefonnetz, sondern über
eigene Leitungen.
11.8.4
NeSSI
Das „Portal für Netzverantwortliche“ NeSSI (Network Self Service Interface) erlaubt den Netzverantwortlichen, Informationen aus ihrem Netzbereich abzufragen (z.B. Mac-Adressen, per DHCP vergebene Adressen).
2014 wurde NeSSI neu konzipiert und dann neu programmiert. Ziel war es dabei, die Funktionalitäten in
separate Module aufzuteilen, um eine größere Flexibiltät im Hinblick auf zukünftige Funktionen zu erreichen.
Als erste derartige neue NeSSI-Funktion, die den bisherigen Funktionsumfang erweitert, steht den Netzverantwortlichen jetzt die Möglichkeit zur Verfügung, IP-Adressen, die aufgrund erkannter, sicherheits-relevanter Auffälligkeiten durch Mitarbeiter des LRZ Abuse-Response-Teams (AR-Team) gesperrt wurden,
wieder freizuschalten. Notwendig hierzu ist lediglich eine kurze Beschreibung der durchgeführten Maßnahmen. Dies wird zum einen die Mitarbeiter des LRZ AR-Teams von derartigen Routinetätigkeiten entlasten
und zum anderen eine schnellere Wiederinbetriebnahme eines nach einem Malware-Befall erfolgreich bereinigten oder beispielsweise neu installierten IT-Systems ermöglichen.
Neben der Funktionserweiterung und einer besser strukturierten, modular aufgebauten Implementierung
galt es auch, Sicherheits- und Datenschutzaspekte zu berücksichtigen. Bei allen innerhalb des NeSSIPortals angebotenen Funktionen musste gewährleistet werden, dass Netzverantwortliche nur die Daten
Jahresbericht 2014 des Leibniz-Rechenzentrums
133
einsehen oder etwa IP-Adressen freischalten können, die ihrem Zuständigkeitsbereich zugeordnet sind.
Der nun modulare Aufbau erleichtert die Anbindung weiterer Datenquellen und insbesondere auch die
schrittweise weitere Ergänzung des Funktionsumfangs. So könnte beispielsweise die Verwaltung von Ausnahmelisten für das LRZ Security-Monitoring oder ein Schwachstellen-Scanner-Modul, den Funktionsumfang des Netzverantwortlichen-Self-Services weiter ergänzen.
11.9 Netzmanagement und –monitoring
Zur Verwaltung und zum Betrieb des Münchner Wissenschaftsnetzes und seiner Subnetze setzt das LRZ
eine Reihe von Standard-Softwaresystemen und komplementäre Eigenentwicklungen ein. In den folgenden Abschnitten wird auf die Werkzeuge zum Netzmanagement, die LRZ-Netzdokumentation und das
mandantenfähige Netz-Performancemanagement eingegangen.
11.9.1 Netzmanagement
Das Netzmanagement bildet die Basis für die Qualität der Netzdienstleistungen des LRZ im MWN. Wesentliche Komponenten des Netzmanagements sind das Konfigurations-, das Fehler- und das Performance-Management. Die Aufgaben des Konfigurations- und Fehler-Managements werden im MWN durch
den Netzmanagement-Server erfüllt. Die Aufgaben des Performance-Managements werden im ServiceLevel-Management-Werkzeug InfoVista umgesetzt (siehe Abschnitt 11.9.5).
11.9.1.1 Netzmanagement-Software und Netzmanagement-Server
Im Jahr 2008 wurde der IBM Tivoli Network Manager IP (ITNM) als neue Netzmanagement-Software ausgewählt. Der Auswahlprozess und die Gründe für die Wahl von ITNM sind im Jahresbericht 2008 zusammengefasst. Die Produktivführung des IBM Tivoli Network Manager wurde 2010 durchgeführt. Seitdem
übernimmt ITNM die Überwachung des MWN und wird laufend an Änderungen im MWN angepasst.
Die Layer-2-Topologie-Discovery des Netzmanagementsystem IBM Tivoli Network Manager IP (ITNM)
wurde im Jahr 2014 weitgehend (sofern von den Komponenten unterstützt) auf das Link Layer Discovery
Protocol (LLDP) umgestellt und die Auswertung des Cisco Discovery Protocol (CDP) in ITNM deaktiviert.
Für diese Umstellung musste erst ein Fehler des LLDP-Abfrage-Agenten durch den IBM-Support behoben
werden. Der LLDP-Agent lieferte bei mehreren an einem Port angeschlossenen Geräten (dieser Fall tritt
bei der Verwendung von nicht-SNMP-fähigen Switchen auf) immer nur ein Ergebnis zurück. Das führte bei
der Verwendung von LLDP zu einer teilweise unvollständigen Topologie. Desweiteren musste der Algorithmus zur Topologie-Erstellung bei LLDP noch an einige Besonderheiten der im MWN eingesetzten Komponenten angepasst werden. Diese Anpassung wurde ohne den IBM-Support nur LRZ-intern durchgeführt.
Das "Out of Memory"-Problem bei der Discovery, das schon in den Jahren 2011 - 2013 wegen zu vielen
MAC-Adressen in den Forwarding-Tabellen der Switches aufgetreten ist, hat sich 2014 weiter verschärft.
Deswegen wurde ein Workaround für dieses Problem entwickelt. In der In-Memory-Datenbank des Discovery Prozesses wird nach der ersten Phase der Topologie-Erstellung der Teil der Daten gelöscht, der
nicht mehr benötigt wird. Dadurch wird genügend Hauptspeicher frei, um die zweite Phase der TopologieErstellung problemlos in der 4 GB großen Hauptspeichergrenze des Discovery-Prozesses durchzuführen.
In der folgenden Abbildung ist die Topologie des gesamten MWN (ca. 4.010 Netzkomponenten) am Ende
des Jahres 2014 zu sehen.
134
Münchner Wissenschaftsnetz – Internetzugang
Abbildung 74: Topologie des Münchner Wissenschaftsnetzes Ende 2014
Die wichtigsten darüber hinaus 2014 an ITNM durchgeführten Arbeiten sind:
•
Mehrere Fixpacks und Security-Patches wurden eingespielt. Insbesondere vor dem Einspielen von
Fixpacks und Patches werden auch immer Komplett-Backups der ITNM Installation erstellt.
• Eine Lösung für die fehlerhafte Discovery von IPv6-Adressen (siehe Jahresbericht 2013) wurde
mit Hilfe des IBM-Supports entwickelt und implementiert.
• Eine Web-Seite mit dem Status der WLAN-Accesspoints im MWN wurde entwickelt und umgesetzt.
• Regeln für die Alarmverarbeitung der neuen HP 5900 Switches, der NetApp Switches und der
Broadcom Switches wurden entwickelt und implementiert.
• Das SSLv3-Protokoll wurde wegen eines bekannten Sicherheitsproblems in der Web-Schnittstelle
von ITNM deaktiviert.
• Die Performance des Discovery-Prozesses wurde bzgl. des Zeitverbrauchs verbessert. Dazu wurden verschiedene Einstellungen bzgl. der Thread-Zahlen der Abfrage-Agenten getestet. Generell
brachte in den meisten Fällen eher eine niedrigere Thread-Zahl Zeit-Vorteile als eine höhere. Damit
konnte die Zeit vom Start bis zum Ende der Topologie-Erstellung von ca. 3 Stunden auf ca. 2
Stunden verkürzt werden.
• Verschiedene Fehler in den SNMP-MIBs der Geräte machen es immer wieder nötig, die von ITNM
nicht vollständig richtig erkannte Layer-2-Netz-Topologie des MWN durch manuelle Eingriffe zu
korrigieren oder zu ergänzen.
Ende 2014 wurden vom IBM Tivoli Network Manager ca. 4.010 (im Vorjahr 3.830) Netzkomponenten und
Server (mit netzrelevanten Diensten) überwacht. Das ist eine Steigerung von ca. 180 Geräten gegenüber
2013.
Der Netzmanagement-Server, auf dem der IBM Tivoli Network Manager installiert ist, hat außerdem noch
folgende Funktionen:
•
Arbeitsserver für die Geräteadministratoren
Jahresbericht 2014 des Leibniz-Rechenzentrums
•
•
•
135
Zentrales Repository für die Gerätekonfigurationen
Notfallzugriff auf Geräte über serielle Verbindungen und analoge Modems
Server für diverse Skripte, die für den Betrieb und das Management des MWN benötigt werden
11.9.1.2 WWW-Server zum Netzmanagement
Auf einem separaten Webserver sind seit 2002 aktuelle Informationen über die Topologie für die Nutzer
des Münchner Wissenschaftsnetzes und die Performance des MWN-Backbone abrufbar. Unter
http://wwwmwn.lrz.de werden Performance-Daten zu den wichtigsten Elementen des MWN (Backbone, XWiN Anbindung, IPv6 Verkehr, Secomat, Demilitarisierte Zone (DMZ) des LRZ, Modem- und ISDN-Zugang,
usw.) dargestellt. Die Performance-Daten werden dazu jeweils in Form von MRTG-Statistiken oder InfoVista-Reports bereitgestellt. MRTG (siehe http://www.mrtg.org) ist ein Werkzeug zur Überwachung des
Verkehrs auf Netzwerkverbindungen, kann aber auch zur Überwachung anderer Kennzahlen eingesetzt
werden. Der WWW-Server zum Netzmanagement dient als Schnittstelle zu den Kunden im MWN, um die
Netz-Dienstleistung MWN des LRZ transparenter zu machen. 2014 waren auch hier einige Anpassungen
bzgl. Interface-Änderungen notwendig.
11.9.2 Netzdokumentation
In der LRZ-Netzdokumentation werden für den Betrieb des MWN relevante Informationen (Netzkomponenten, Subnetze, Ansprechpartner, Räume, ...) gespeichert. Die Netzdokumentation basiert auf einer relationalen Datenbank, auf die über ein Web-Interface zugegriffen werden kann.
Im LRZ wurde 2013 beschlossen, den Betrieb der Oracle-Datenbank, in der auch die Sollzustandsdaten
der Netzdokumentation gespeichert sind, mittelfristig einzustellen. Deshalb musste Oracle als relationale
Datenbank für die Netzdokumentation ersetzt werden. Als zukünftige relationale Datenbank für die Netzdokumentation wurde PostgreSQL gewählt (siehe auch Jahresbericht 2013). Die Migration des Anwendungscodes von Oracle nach PostgreSQL wurde 2013 begonnen und im April 2014 nach ausführlichen
Tests des neuen Anwendungscodes durch die Umstellung der Netzdokumentation auf PostgreSQL beendet. Mit der Migration zu PostgreSQL als Datenbank wurde auch gleichzeitig eine Migration des verwendeten Zeichensatzes von ISO-8859-15 zu UTF-8 durchgeführt. Dadurch erfolgte eine Angleichung an die
Standard-Einstellung bei Linux-Servern, was dazu dient, bisher bestehende Probleme bei der Zeichensatzumwandlung zukünftig zu vermeiden.
Außerdem wurden 2014 folgende Erweiterungen und Verbesserungen durchgeführt:
•
•
•
•
•
•
•
Das neue LRZ Logo wurde für die Netzdokumentation übernommen und das Aussehen der Webseiten wurde an das neue Logo angepasst.
Die veraltete und von mehreren Nutzern nutzbare Benutzerkennung nduser wurde endgültig deaktiviert. Künftig ist nur noch eine Benutzer-individuelle Anmeldung möglich.
In allen Bemerkungs- und Beschreibungsfeldern kann mit regulären Ausdrücken gesucht werden.
Bei Subnetzbereichen kann nach den Reservierungsterminen gesucht werden.
Alle IPv4-Subnetze können in mehrere Subnetzbereiche unterteilt werden. Bisher war das nur für
/24 oder kleinere Netze möglich.
Die Netzdokumentation wurde um die Unterstützung der neuen HP 5900 Switches erweitert (Abfrage der VLAN-Daten von diesen Switchen, Integration des neuen Namens-Schemas der SwitchPorts, ...).
Bei den Subnetzbereichen wurde ein neues Feld (IPAM-Gruppen) eingeführt, um die zukünftige
IP-Adressvergabe durch das Tool Nixu Namesurfer zu unterstützen.
11.9.3 MWN-WLAN-Visualisierung mit OpenStreetMap für Endbenutzer
2013 wurde bereits die MWN-Visualisierung mit OpenStreetMap für Endbenutzer in die Netzdokumentation
integriert (siehe Jahresbericht 2013). 2014 wurden in diese Karte auch die Standorte eingetragen, an denen
die Stadtwerke München (SWM) die SSID Eduroam ausstrahlen (s. Abbildung 75). Diese Karte mit allen
MWN- und SWM-WLAN-Standorten für Endbenutzer ist weiter unter der URL http://www.lrz.de/services/netz/mobil/mobil_ap/map zugänglich. Basierend auf dieser Integration wurden die Eduroam-WLANStandorte auch in die Eduroam-Karte des DFN-Vereins (http://airoserv4.dfn.de) und damit in die globale
Eduroam-Karte (http://monitor.eduroam.org/eduroam_map.php?type=all) exportiert.
136
Münchner Wissenschaftsnetz – Internetzugang
Abbildung 75: Eduroam-WLAN-Standorte der Stadtwerke München
11.9.4 Inhaltliche Aktualisierung der Netzdokumentation
Um die Aktualität der Informationen zu den Netzverantwortlichen zu sichern, wurde 2014 wieder eine Benachrichtigung und Überprüfung der Kontaktinformationen durchgeführt. Jeder der 894 Netzverantwortlichen erhielt per E-Mail die Liste der Subnetze und Subnetzbereiche, für die er zuständig ist, und die in der
Netzdokumentation gespeicherten persönlichen Daten. Diese Daten sollten entweder bestätigt oder eventuelle Fehler korrigiert werden. In der E-Mail wurde auch auf das NeSSI-Interface für Netzverantwortliche
hingewiesen. An die 242 Netzverantwortlichen, die auch nach zwei Monaten noch nicht geantwortet hatten,
wurde per Skript automatisiert eine E-Mail zur Erinnerung geschickt.
Bei 232 Einträgen zu Netzverantwortlichen waren kleinere oder größere Änderungen während der Aktualisierung notwendig. Bei allen anderen Netzverantwortlichen blieben die Einträge unverändert. Neben dieser
jährlichen Aktualisierung werden aktuelle Änderungen im MWN laufend in die Netzdokumentation übernommen.
11.9.5 Überwachung der Dienstqualität
Das Service-Level-Management-Werkzeug InfoVista dient dazu, die Qualität von IT-Diensten zu überwachen und in Form von graphischen Reports darzustellen. Es wird seit dem Jahr 2000 zur Überwachung der
Dienstqualität im Münchner Wissenschaftsnetz (MWN) eingesetzt. Das InfoVista-System wird ständig an
die Entwicklungen im MWN angepasst bzw. Veränderungen im Netz werden in InfoVista übernommen.
Im Jahr 2014 wurde ein neuer Switch-Device-Report erstellt, der statt der Interface-Beschreibung den Interface-Alias bei den Interface-Verkehrszahlen anzeigt (s. Abbildung 76). Der Interface-Alias eines SwitchPorts muss manuell vom Administrator eingetragen werden, was bisher meistens nicht durchgeführt wurde.
Erst bei den neuen HP 5900 Switches, die im VMware-Cluster und im Cloud-Bereich eingesetzt werden,
wird der Interface-Alias durchgehend gesetzt. Damit ist dann eine einfache Zuordnung eines Switch-Ports
zu einem Dienst bzw. einer Dienst-Komponente möglich.
Jahresbericht 2014 des Leibniz-Rechenzentrums
137
Abbildung 76: Device-Report mit Interface-Alias
Um die Aktualität der in InfoVista bereitgestellten Daten sicherzustellen, wurden alle konfigurierten Instanzen und Reports für Switches überprüft und falls notwendig korrigiert bzw. durch neue Switch-Instanzen
und -Reports ersetzt.
11.9.6 Reporting für Netzverantwortliche
Die Institute im MWN haben mit den Switch-Reports für Netzverantwortliche über die WWW-Schnittstelle
VistaPortal (https://vistaportal.lrz.de) zu InfoVista eine Übersicht über das Gerät und auch über die PortAuslastung der Switche, an denen sie angeschlossen sind. Durch die Reports wird die Diensterbringung
des LRZ transparenter, außerdem kann die Fehlersuche im Institut dadurch erleichtert werden. Die Reports
können im HTML-, GIF-, PNG-, PDF-, Text- oder Excel-Format abgerufen werden.
Das Web-Interface VistaPortal wurde bereits im Jahr 2013 auf die Version 4.2 aktualisiert. Dazu mussten
alle bestehenden VistaPortal-Anwender von der Umstellung informiert und nach deren LRZ-Kennung gefragt werden. Alle Anwender, die auf diese E-Mail-Umfrage eine Rückmeldung geliefert haben, wurden
auch im neuen VistaPortal freigeschaltet. Die Konfiguration für die Anwender ohne Rückmeldung wurde
dann 2014 endgültig gelöscht.
Desweiteren war es in 2014 notwendig, die Java-Archive-Files von VistaPortal mit einem LRZ-EntwicklerZertifikat zu signieren. Ohne diese Signierung würde die VistaPortal-Webanwendung wegen der Verschärfung der Sicherheitsrichtlinien in Java nicht mehr mit neueren Versionen des Java-Plugins ausgeführt werden können. Von der Firma InfoVista wird diese Signierung der Java-Archive-Files leider nicht bereitgestellt. Die Signierung der Java-Archive-File musste nach einem halben Jahr erneuert werden, weil das
entsprechende DFN-PCA-Zertifikat vom DFN wiederrufen wurde.
Zu den bereits in den Jahren 2003 – 2013 instanziierten Reports für Netzverantwortliche kamen 2014 noch
Reports für die Zentralabteilung der TUM in Weihenstephan und für das Bayerische Zentrum für Angewandte Energieforschung hinzu.
11.10
Internetzugang und LAN
Der Zugang zum weltweiten Internet wird über das Deutsche Wissenschaftsnetz (WiN) realisiert, die nutzbare Bandbreite liegt bei 23,6 Gbit/s.
138
Münchner Wissenschaftsnetz – Internetzugang
Die monatliche Nutzung (übertragene Datenmenge) des WiN-Anschlusses seit Januar 2004 zeigt Abbildung 77. Die Datenmenge pro Monat liegt während der Vorlesungzeiten deutlich über einem Petabyte.
Allerdings zeigen sich im Jahr 2014 nicht mehr die starken Wachstumsraten wie in den Jahren davor. Dies
liegt auch daran, dass der Large Hadron Collider am Cern sich seit Ende 2013 in einer Umbauphase befindet und dort deshalb deutlich weniger Daten produziert werden. Mit dem Umbau, der bis März 2015
dauern wird, werden sich Leistung und Intensität um den Faktor 10 erhöhen. Damit wird ab 2015 die zu
verarbeitende Datenmenge wieder deutlich zunehmen.
Um diese hohen Bandbreitenanforderungen im MWN zu erfüllen, hat der DFN das MWN direkt an seinen
sogenannten Super-Core angebunden. Der Super-Core verbindet die Standorte Frankfurt, Erlangen, Berlin
und Hannover mit einem 100 Gbit/s Ring. An diesem sind weitere Kern-Router des DFN angebunden, an
denen wiederum die normalen Kunden-Router angebunden sind. Das MWN wurde mit zwei Trunks über
zwei unabbhängige Pfade einmal direkt an Erlangen und einmal direkt an Frankfurt angebunden. Die Tunks
selbst bestehen aus je zwei 10 Gbit/s-Schnittstellen, die Bandbreite ist pro Trunk auf je 11,3 Gbit/s beschränkt. Das MWN ist außerdem noch über M-net mit dem Internet verbunden. Diese Anbindung wurde
aufgrund des Bandbreitenwachstums und der höheren Bandbreite in das Wissenschaftsnetz im Berichtsjahr von 1 Gbit/s auf eine Bandbreite von 10 Gbit/s erhöht.
Damit wird ein dreistufiges Ausfallkonzept mit Backups für den Internetzugang umgesetzt (s.u).
Abbildung 77: Entwicklung der Nutzung des WiN-Anschlusses des MWN seit 2004
Seit September 2003 ist der X-WiN-Anschluss vertragstechnisch ein so genannter Clusteranschluss, bei
dem die vom MWN versorgten teilnehmenden Institutionen als eigenständige Partner mit eigenem Tarif
bezogen auf den eingehenden Datenverkehr aufgefasst werden. Zu diesem Zweck wurden die laufenden
Messungen kumuliert, um eine Verteilung des Datenverkehrs zu bekommen. Die prozentuale Verteilung
des Datenvolumens am WiN-Zugang (Messzeitraum November 2014) zeigt Tabelle 26.
Jahresbericht 2014 des Leibniz-Rechenzentrums
139
Tabelle 26: Prozentuale Verteilung des Datenverkehrs am WiN Zugang
Institution
Anteil
LRZ und BAdW
44,3 %
IPv6 Verkehr
26,1 %
TUM
23,9 %
LMU
5,2 %
Hochschule München
0,4 %
Hochschule Weihenstephan
0,1 %
Studentenwerk, Wohnheime
13,0 %
Sonstige
1,7 %
Gesamtergebnis
100.0%
Die Statstik wird seit 2014 nicht mehr mit einem Accounting-System sondern mit QRadar (vgl. Abschnitt
5.5.2) ermittelt. Der IPv6 Verkehr (aller MWN-Nutzer) wird hierbei gesondert aufsummiert.
Die technische Realisierung der Anbindung des MWN an das Internet zeigt Abbildung 78:
Abbildung 78: Anbindung des MWN ans Internet
Der Standardzugang zum Internet ist über das vom DFN betriebene Wissenschaftsnetz (WiN) realisiert.
Der WiN-Anschluss des LRZ wie weiter oben bereits beschrieben über zwei Trunks direkt an den SuperCore des DFN. Derzeit ist ein zweistufiges Ausfallkonzept für den Internetzugang umgesetzt:
1. Falls eine Glasfaser oder eine Komponenten zwischen den MWN-Routern und dem WiN ausfallen
sollte, gibt es mindestens eine verbleibende alternative Strecke ins WiN, allerdings mit reduzierter
Bandbreite.
2. Sollten alle vier Leitungen oder aber die beiden DFN-Router gleichzeitig ausfallen, wird ohne merkliche Unterbrechungen für den Benutzer auf eine über M-net realisierte Backup-Verbindung umgeschaltet. Die Backup-Verbindung zum Internet wird über eine LWL-Strecke mit 10 Gbit/s zum
140
Münchner Wissenschaftsnetz – Internetzugang
nächsten Anschlusspunkt von M-net geführt. Die LWL-Strecke kostet einen monatlichen Grundbetrag, das Datenvolumen wird nach Verbrauch berechnet.
Die Wahrscheinlichkeit eines derartig umfangreichen Hardware-Aussfall ist ausgesprochen gering. Trotzdem ist der M-net Backup auch weiterhin erforderlich und war in 2014 auch einige Male aktiv. In diesen
Fällen handelte es sich i.d.R. um Routing-Probleme innerhalb des IPv6 Routings im WiN. Ohne den Backup
über M-net wären in diesen Fällen ganze IPv6 Netzbereiche nicht mehr erreichbar gewesen.
Die Backup-Konzepte funktionieren für alle Systeme mit Provider-unabhängigen IP-Adressen (Standardfall
im MWN). Das LRZ-Netz kann nämlich mit einem Großteil seiner IP-Adressen als autonomes System im
Internet agieren. Einige Standorte (Krankenhaus Rechts der Isar, Hochschule München, Beschleunigerlabor, Zoologische Staaatsammlung, kath. Stiftungsfachhochschule) bzw. Systeme (Bibliotheksverbund Bayern), die aus historischen Gründen noch providerabhängige IP-Adressen (i.d.R. vom DFN vergeben) verwenden, können die Backup-Strecke über M-net nicht nutzen.
Im Jahr 2014 wurde die M-net Backup-Strecke in 3 Fällen aktiv. In der Regel handelte es sich dabei um
sehr kleine Störungen (z.B. im Routing oder bei IPv6) und der Backup war nur für wenige Minuten aktiv.
11.11
WLAN und Eduroam
Das LRZ versorgt primär öffentliche Bereiche (Seminarräume, Hörsäle, Bibliotheken, Foyers, Uni-Lounges)
mit Wireless LAN, eine Flächendeckung für Bürobereiche kann bis auf weiteres nicht realisiert werden.
Trotzdem sind Ende 2014 bereits 2.696 Accesspoints in Betrieb. Im Berichtsjahr 2014 wurden 350 Accesspoints neu installiert und 171 gegen neuere Modelle ausgetauscht, 18 nicht mehr benötigte wurden abgebaut.
Zuwachs an Access Points
350
312
300
255
250
332
281
259
210
200
140
150
160
160
171
136
89
100
50
311
14
63
37
0
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
neu aufgebaute APs
ausgetauschte APs
Abbildung 79: Anzahl der jährlich installierten Accesspoints
Die Nutzung stieg erneut stark an, insbesondere bedingt durch die weiter zunehmende Anzahl von Smartphones und Tablets. Die im Jahr 2013 gemessene Zahl von 18.958 gleichzeitigen Verbindungen stieg 2014
auf maximal 26.390 an, insgesamt wurden dabei über 300.000 verschiedene Geräte beobachtet. Sehr
nachgefragt wurde das WLAN auch bei 635 Kongressen und Tagungen innerhalb des Jahres 2014.
Jahresbericht 2014 des Leibniz-Rechenzentrums
141
Abbildung 80: Anzahl aktiver WLAN-Verbindungen am 5.11.2014 (5-Minuten-Mittel)
Abbildung 81: Entwicklung der Belegung über das Jahr 2014 (Tagesmittel)
Die am stärksten frequentierten Accesspoints waren mit bis zu 220 gleichzeitigen Verbindungen belegt.
Ältere hoch belastete Accesspoints wurden durch die aktuellste Geräte-Generation ersetzt, etliche Hörsäle
wurden durch die Installation zusätzlicher Accesspoints verstärkt.
Als Zugangskomponenten werden Accesspoints der Typen AP-135 von Alcatel-Lucent sowie MSM310,
MSM320, MSM422, MSM460 und MSM466 der Firma HP eingesetzt. Bei den ab 2011 eingesetzten
MSM460 und MSM466 sowie den ab 2013 eingesetzten AP-135 werden Datenraten bis zu 450 Mbit/s
(IEEE802.11n) unterstützt. Erste Accesspoints mit dem neuen Standard 802.11ac, die Datenraten von
mehr als 1 Gbit/s unterstützten, sind testweise im Einsatz.
Der Betrieb wird über zwei Controller OAW-4650-EU gesteuert, welche im Rechnergebäude des LRZ in
verschiedenen Brandabschnitten installiert sind. Sie sind im sog. Master / Master-Standby-Setup konfiguriert d.h. ein Gerät ist aktiv, das zweite übernimmt nur bei Ausfall des Master-Controllers. Im Jahr 2014
wurden zwei weitere Controller beschafft und „näher“ bei den zu verwaltenden Access Points positioniert.
Ein Controller wird am Campus Garching, der andere am Stammgelände der TU betrieben. Diese beiden
sind künftig für die Verwaltung der Access Points zuständig. Die beiden Controller im LRZ werden als
ausfallsicheres Cluster betrieben, sie verwalten die Lizenzen und die Sub-Controller. Bei einem Ausfall
eines Controllers kann das Cluster im LRZ transparent den Betrieb der APs übernehmen.
Wegen der Mischung von Alcatel-Lucent und HP-Accesspoints wird an den meisten Standorten der sogenannte Bridge-Modus verwendet. Nur in Neubauten laufen die Accesspoints im Tunnel-Modus, wobei die
142
Münchner Wissenschaftsnetz – Internetzugang
Daten über den Controller geroutet werden und auch alle Vorteile, die der Controller bietet (z.B. Load Balancing, Load Sharing, usw.), genutzt werden können.
Im Laufe des Jahres 2014 wurden folgende Bereiche neu mit WLAN ausgestattet:
Studentenwohnheim der Ingeborg-von-Calker-Stiftung
Mensa Martinsried
TUM Protein Modelling
TUM Klinikum rechts der Isar Hörsaalgebäude
TUM Exzellenzcluster MIAPP
TUM Katalysezentrum
TUM Zentrum für Softskills
LMU Veterinärstr. 13
LMU Königinstr. 8
LMU Königinstr. 14
LMU Königinstr. 16
Hochschule Weihenstephan-Triesdorf, Kleine Kustermannhalle
Hochschule für Politik, Ludwigstr. 8
Historisches Kolleg
LMU Kaulbachstr. 45
Studentenwohnheim Haidpark
Studentenwohnheim Türkenstraße
11.11.1
Eduroam
Das LRZ nimmt seit Anfang 2005 am Eduroam (früher DFN-Roaming) teil. Damit ist es Wissenschaftlern
möglich, mittels einer vorhandenen Kennung ihrer Heimat-Hochschule einen einfachen Zugang ins Internet
zu erhalten, wenn sie sich im Bereich des MWN aufhalten. Als Zugangspunkte dienen die vorhandenen
WLAN-Accesspoints.
Die SSID eduroam wird auf allen Accesspoints im MWN zur Verfügung gestellt. Neben der SSID eduroam
wird zusätzlich eduroam-a angeboten, welche die Verbindungen auf das 5GHz-Frequenzband einschränkt.
Dadurch lassen sich Probleme mit manchen Linux-Clients verhindern, welche bei Verfügbarkeit von zwei
Frequenzbändern ständig zwischen diesen wechseln und dadurch keine stabile Verbindung erlauben. Außerdem ist noch die SSID eduroam-ipv6 konfiguriert, welche Verbindungen nur über IPv6 erlaubt.
Abbildung 82 zeigt die Jahresnutzungsstatistik in Abhängigkeit der genutzten SSID. Die roten Bereiche
zeigen die Nutzerzahlen von eduroam. Mittlerweile nutzt der größte Teil der Anwender diese SSID und hier
zeigt sich auch das größte Wachstum bei den Nutzerzahlen.
Eduroam erfreut sich so großer Beliebtheit, weil diese Technik nach einmaliger Konfiguration an allen teilnehmenden Einrichtungen genutzt werden kann. Dies zeigt auch die in Abbildung 83 dargestellte Nutzungsstatisitk aus dem Wintersemester 2014, in der die Anzahl der im eduroam angemeldeten Geräte
pro Woche dargestellt wird. Während des Semesters waren pro Woche mehr als 50.000 Geräte im eduroam aktiv. Gleichzeitig verwendeten bis zu knapp 17.000 Nutzer aus dem WMN das eduroam in anderen besuchten Einrichtungen. Die Anzahl der Besucher im MWN lag in der Spitze ebenfalls bei knapp
17.000. Die Besucher kamen aus über 40 unterschiedlichen Top-Level Domains. Addiert man die MWNNutzer, die eduroam im MWN und außerhalb nutzen, so ergibt sich eine Geräteanzahl von mehr als
70.000.
Jahresbericht 2014 des Leibniz-Rechenzentrums
143
Abbildung 82: Nutzung des WLAN aufgeteilt nach SSIDs
Abbildung 83: Eduroam Nutzung durch MWN-Nutzer und Gäste
11.11.2
Vorkonfigurierte Profile für eduroam (CAT)
Über die Kollaborationsplattform eduroam CAT (https://cat.eduroam.org/) wurden Profile für die einfache
und sichere Eduroam-Einrichtung im MWN erzeugt. Sie werden den Nutzern über eine Webseite zum
Download angeboten. Mittels der Profile wird automatisch das nötige Wurzel-Zertifikat Deutsche Telekom
Root CA 2 installiert und eine korrekte Eduroam-Konfiguration inklusive der Prüfung des Radius-Servers
angelegt. Der Nutzer muss lediglich seine Kennung und sein Passwort angeben, alles weitere für eine
sichere Eduroam-Verbindung übernimmt das CAT-Tool.
144
Münchner Wissenschaftsnetz – Internetzugang
Für die folgenden Systeme sind CAT-Profile verfügbar:
Windows 7
Windows 8
Windows Vista
Linux
IOS (IPhone und iPad)
MAC OS X
Für Android wird bisher keine Profilerzeugung möglich, dies soll aber Anfang 2015 möglich werden.
11.11.3
Eduroam off Campus
Im Rahmen des ZKI gibt es seit 2011 eine Kommission „eduroam off campus (EoC)“ in der das LRZ mitarbeitet. Das Ziel dieser Kommission ist es, die Beschränkung von eduroam auf Campus-Bereiche aufzuheben, eduroam auch in anderen Bereichen anzubieten und damit Studenten und Wissenschaftlern den Zugang mit der Kennung ihrer Heimatuniversität möglich zu machen.
Die Stadt München betreibt seit 2013 in Kooperation mit den Stadtwerken München ein offenes City-WLAN
(M-WLAN). Anfang 2014 wurde in einer engen Kooperation zwischen den Stadtwerken, dem LRZ und dem
DFN Verein eduroam auf den städtischen Access Points freigeschaltet und in Betrieb genommen
(http://www.swm.de/dms/swm/pressemitteilungen/2014/04/allgemein20140417/Pressemitteilung%20vom%2017.04.2014.pdf). Damit möchte die Stadt München die Studierenden und Wissenschaftler
unterstützen und die Campus-Bereiche der Universitäten und Hochschulen in die Innenstadt hinein ausdehnen. Gestartet wurde mit den Access Points am Marienplatz, dem Odeonsplatz, dem Sendlinger Tor
sowie dem Stachus. Mitte des Jahres wurden über diese Access Points bereits mehr als 50.000 eduroam
Nutzer in zwei Monaten registriert.
Abbildung 84: Dr. Dietmar Unger, Leiter IT bei den SWM und
Prof. Dr. Helmut Reiser, LRZ, nehmen das eduroam im M-WLAN in Betrieb
Jahresbericht 2014 des Leibniz-Rechenzentrums
145
Ende des Jahres 2014 wurden neben den vier Standorten weitere neun in Betrieb genommen:
•
•
•
•
•
•
•
•
•
Giesinger Bahnhof
Harras
Lehel
Marienhof
Münchner Freiheit
Neuperlach Zentrum (PEP)
Orleansplatz
Rotkreuzplatz
Wettersteinplatz
Die Standorte der Access Points der SWM wurden mit in die Übersichtskarte der Access Points im MWN
(s. Abbildung 75) aufgenommen und mit einem eigenen Symbol versehen.
11.11.4
Gastkennungen
Für Gäste, die nur kurze Zeit an den Institutionen im MWN verbringen, wurde 2013 die Möglichkeit der
Vergabe von Gastkennungen eingerichtet. Diese können von den Master Usern an den Instituten über das
gewohnte ID-Portal für die Dauer von einem bis sieben Tagen eingetragen werden. Mit einer Gastkennung
kann das WLAN im MWN über die SSID eduroam genutzt werden. 2014 wurden insgesamt von 116 Master
Usern 2.133 Kennungen für Gäste eingerichtet.
11.11.5
Unterstützung von Veranstaltungen
Immer mehr nachgefragt wird die WLAN-Unterstützung für externe Teilnehmer bei Konferenzen und Tagungen, innerhalb des Jahres 2014 waren es 635 Veranstaltungen (+287 gegenüber 2013).
Bisher wurde auf den Access Points im Veranstaltungsbereich und auf die Dauer der Veranstaltung beschränkt eine SSID con freigeschaltet, über welche unverschlüsselte WLAN-Verbindungen ins Internet
ermöglicht wurden. Diese Lösung ist aber aus Gründen der Sicherheit und wegen des hohen Einrichtungsaufwands unbefriedigend. Deshalb wurde 2014 ein neues Konzept erarbeitet und ein neues Verfahren
prototypisch eingeführt.
Beim neuen Verfahren können die Verantwortlichen Veranstaltungen über ein Webportal
(https://wlan.lrz.de/conferences/new/) anmelden. Nach der Prüfung auf Kostenpflichtigkeit (bei kommerziellen Veranstaltungen) und erfolgter Genehmigung wird eine Login-Kennung generiert, welche für die
Dauer der Veranstaltung gültig ist. Mit dieser Kennung können alle Teilnehmer über die SSID mwn-events
mit WPA2 gesicherte Verbindungen in das Internet herstellen. Für die wichtigsten Plattformen stehen zur
einfachen und sicheren Einrichtung der Rechnerkonfiguration Profile zum Download bereit. Das neue Verfahren wurde im Rahmen der Testphase bereits 120 Mal erfolgreich eingesetzt, ab 2015 wird die Freischaltung über con nicht mehr angeboten.
Nur in Ausnahmefällen werden auch feste Netzanschlussdosen (100 Mbit/s oder 1 Gbit/s, TP oder LWL)
zur Verfügung gestellt. Für Geräte, die keine eingebaute Funkschnittstelle haben, werden vom LRZ Wireless-Client-Bridges (WCB) bereitgestellt. Die Realisierbarkeit des Dienstes hängt aber von der vorhandenen Infrastruktur ab, nicht in allen Gebäuden und Räumen sind die Voraussetzungen erfüllt. Allerdings ist
dies meistens der Fall.
11.12
VPN
Im MWN werden Virtual-Private-Networks in folgenden Szenarien eingesetzt:
•
Zugang über vom LRZ betreute WLANs.
•
Zugang über öffentliche Anschlussdosen für mobile Rechner.
•
Zugang zu internen MWN-Diensten (z.B. Online-Zeitschriftenangebot der Universitätsbibliotheken) für
Bewohner von Studentenwohnheimen.
•
Zugang zu internen MWN-Diensten über das Internet.
146
11.12.1
Münchner Wissenschaftsnetz – Internetzugang
Technik
Die VPN-Hardware besteht aus zwei Appliances vom Typ „Adaptive Security Appliance ASA5585-X“, vier
Appliances vom Typ „Adaptive Security Appliance ASA5540“ und einer Appliance vom Typ „VPN-Concentrator 3030“ der Firma Cisco. Der VPN-Concentrator 3030 dient für die Anbindung von einigen externen
Einrichtungen außerhalb des MWN über IPsec LAN-to-LAN Tunnel. Vier der sechs ASA-Appliances sind
zu einem VPN-Cluster zusammengefasst, zwei werden für Tests und für Beta-Software verwendet. Dieser
VPN-Cluster wird von IPsec-Clients unter der Adresse ipsec.lrz.de, von SSL-VPN-Clients unter der Adresse asa-cluster.lrz.de angesprochen. Die Nutzer werden beim Anmelden mit der am geringsten ausgelasteten Appliance verbunden. Der VPN-Concentrator 3030 ist über zwei 100 MBit/s Anschlüsse (öffentlich
und privat) angeschlossen. Die zwei ASA5585X sind mit jeweils 10 GBits/s angeschlossen, die vier
ASA5540 mit jeweils 1GBit/s. Die verfügbare Bandbreite für verschlüsselte Verbindungen (AES/3DES) beträgt 50 MBit/s beim VPN-Concentrator 3030 350 MBit/s pro ASA5540 und 1 GBit/s bei den ASA5585-X.
Authentifizierung, Autorisierung der Nutzer sowie Accounting werden über das Radius-Protokoll abgehandelt.
11.12.2
VPN-Software
Berechtigte Nutzer können die aktuellen Versionen der VPN-Software vom Web- oder VPN-Server des
LRZ herunterladen. Für Linux und Mac OS X stehen neben den Cisco-IPsec und AnyConnect-Client der
„Open Source“ VPN-Client vpnc (IPsec) und openconnect (SSL-VPN) zur Verfügung, der erfahrenen Nutzern erweiterte Möglichkeiten bietet. Diese Clients sind inzwischen in den Linux-Standarddistributionen wie
z.B. Debian, SuSE und Ubuntu enthalten.
11.12.3
Telearbeitsplätze von LRZ-Mitarbeitern
Mitarbeiter an einem Heimarbeitsplatz nutzen interne Ressourcen des LRZ während ihrer Arbeit zu Hause.
Dazu erhalten sie einen VPN-Router, an den sie Rechner und VoIP-Telefon anschließen können. Der VPNRouter ist so konfiguriert, dass er automatisch eine Verbindung zum VPN-Server im LRZ aufbaut. Über
diese Verbindung, einen verschlüsselten IPsec LAN-to-LAN Tunnel, wird ein Subnetz mit der Subnetzmaske 255.255.255.248 geroutet. Damit stehen sechs IP-Adressen für Router, Rechner, ggf. Laptop und
IP-Telefon zur Verfügung. Bei dem VPN-Router handelt es sich um das Modell WRV54G von Linksys. Das
Telefon ist an der VoIP-Telefonanlage des LRZ angeschlossen und so konfiguriert, dass der Mitarbeiter
am Heimarbeitsplatz mit der gleichen Telefonnummer wie an seinem Arbeitsplatz am LRZ erreichbar ist.
Da insbesondere der VPN-Router veraltet ist, bedarf es einer alternativen Lösung.
Neue Telearbeiter erhalten deshalb nun einen Remote-Access-Point RAP3. Dieses Gerät baut einen
IKEv2/IPsec Tunnel zum WLAN-Controller im LRZ auf. Am RAP3 sind ein PoE Anschluss für das Telefon
und ein Ethernetanschluss für einen Rechner vorhanden. Zudem werden noch die WLAN-SSIDs aus dem
MWN ausgestrahlt. Diese Lösung wird sukzessive auch auf die anderen Telearbeitsplätze ausgerollt.
11.12.4
Entwicklung des Datenverkehrs über die VPN-Server
Im Jahr 2014 stieg der Datendurchsatz über die VPN-Server wieder leicht an. In Spitzenzeiten waren bis
zu 4.400 Nutzer parallel angemeldet. Im Monat November, dem Monat mit dem höchsten Datenaufkommen
wurden über 600.000 Verbindungen aufgebaut. Der im Jahr 2009 eingeführte SSL-VPN Client (Cisco
AnyConnect) hat inwischen einen Anteil von 90% aller Verbindungen erreicht.
Jahresbericht 2014 des Leibniz-Rechenzentrums
147
Tabelle 27: Datenverkehr in Terabytes über die VPN-Server im Referenzmonat November
70
Jahr
Ausgehend
Eingehend
Gesamt
2005
0,7
3,2
3,9
50
2006
1,7
6,2
7,9
40
2007
3,1
11,4
14,5
30
2008
3,8
12,7
16,5
20
2009
4,6
20,7
25,3
10
2010
8,0
28,8
36,7
0
2011
11,4
44,9
56,3
2012
12,0
51,6
63,6
2013
10,5
43,1
53,6
2014
11,7
48,4
60,1
60
Ausgehend
Eingehend
Gesamt
Abbildung 85: Datenverkehr in Terabytes
über die VPN-Server im Referenzmonat
November
5000
4500
4000
3500
3000
2500
2000
1500
1000
500
0
Jan
Feb
Mrz
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
Abbildung 86: Anzahl der maximal gleichzeitig an den VPN-Servern angemeldeten Nutzer
148
Münchner Wissenschaftsnetz – Internetzugang
70.000
Eingehend
60.000
Ausgehend
Summe
50.000
40.000
30.000
20.000
10.000
0
Jan
Feb
Mrz
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
Abbildung 87: Monatliches Datenvolumen der VPN-Server in Gigabyte im Jahr 2014
Jahresbericht 2014 des Leibniz-Rechenzentrums
149
12 Kurse, Ausbildung und Benutzerbetreuung
12.1 Kurse und Veranstaltungen
Das LRZ bietet seinen Kunden regelmäßig an die 30 Kurse an, die sich in die Bereiche PC-Software,
Hochleistungsrechnen und weitere Veranstaltungen einteilen lassen. Die in Tabelle 28 bis Tabelle 30 aufgeführten Veranstaltungen wurden von fast 6.500 Teilnehmern besucht. Zusätzlich haben externe Anbieter
weitere Kurse angeboten.
12.1.1 Kursübersicht, Statistik 2014
Wie schon in den vergangenen Jahren wurden die Kurse, die vom LRZ zum Thema Hochleistungsrechnen
angeboten wurden, gut angenommen. Bei der Planung konnte stets davon ausgegangen werden, dass alle
Teilnahmewilligen, die einen Platz im Kurs erhalten, diesen auch wahrnehmen würden. Dies darf beim
übrigen Kursangebot leider nicht als selbstverständlich vorausgesetzt werden. Gerade bei den Kursen zu
PC-Software ist der Unterschied zwischen der Zahl der Anmeldungen und der Zahl der Teilnehmer nach
wie vor groß. Dies hat hohen Verwaltungsaufwand für diese Kurse zur Folge, müssen doch bei jeder Absage auf einen erteilten Kursplatz wieder alle organisatorischen Schritte für die Nachrücker durchlaufen
werden.
Es zeigte sich, dass das Interesse an Kursen zu den aktuellen Microsoft Office-Produkten nach wie vor
groß war. Dabei wird vom Kursprogramm des LRZ einerseits Aktualität erwartet, die Akzeptanz der Anwender in Bezug auf neue Programmversionen andererseits hinkt dieser Erwartungshaltung häufig hinterher. Oft werden aus den unterschiedlichsten Gründen Programmversionen auch einfach „übersprungen“.
Gerade bei den Microsoft Produkten neigen Anwender und Systemverantwortliche dazu, nur immer jede
übernächste Version zu akzeptieren und zu installieren; und dies meist mit guten Gründen und einem zeitlichen Versatz – während auf die ersten Service Packs gewartet wird.
Viele PC-Kurse verwenden als Kursunterlage Handbücher vom RRZN in Hannover. Diese Schriften sind
oftmals verbilligte Nachdrucke der Schulungsunterlagen vom Herdt-Verlag. Die Ersparnis ist besonders für
Studenten von Bedeutung. Eine regelmäßig aktualisierte Liste der verfügbaren Schriften ist ebenfalls im
Internet vorhanden. In Zusammenarbeit mit dem Herdt-Verlag und dem RRZN ist auch ein noch günstigerer
Erwerb der Schriften als PDF-Variante im Testbetrieb.
Tabelle 28: Kurse zu PC-Software 2014
Dauer (Stunden)
Anzahl der Kurse
Anzahl der angemeldeten Teilnehmer
Word 2013 (Kompaktkurs)
9
3
136
Word 2013 (Fortsetzungskurs)
9
1
21
Excel 2013 (Kompaktkurs)
9
5
453
Excel 2013 (Fortsetzungskurs)
9
3
241
PowerPoint 2013 (Kompaktkurs)
7
4
150
Access 2013 (Kompaktkurs)
11
1
41
Photoshop Elements 11
Einführungskurs
9
1
56
Einführung in SPSS
8
2
50
Insgesamt
71
20
1.148
Kurstitel
150
Kurse, Ausbildung und Benutzerbetreuung
Tabelle 29: Kurse zum Hochleistungsrechnen 2014
Dauer (Stunden)
Anzahl der Kurse
Anzahl der angemeldeten Teilnehmer
Introduction to GASPI
18
1
5
PRACE PATC Course: NodeLevel Performance Engineering
16
1
23
Advanced Fortran Topics
48
1
24
Alinea DDT Workshop
9
1
9
C/C++ Workshop
15
1
38
Extreme Scaling Workshop
27
1
10
Insgesamt
133
6
109
Kurstitel
Tabelle 30: Führungen durch das LRZ und Vorführungen am V2C
Anzahl der Veranstaltungen
Anzahl der angemeldeten
Teilnehmer
Führung durch das LRZ
86
2.702
Besichtigung des Zentrums für
virtuelle Realität und Visualisierung
305
2.505
Insgesamt
391
5.207
Veranstaltungstitel
Auch im Jahr 2014 wurde – zusätzlich zum regulären Kursprogramm – die vorhandene, moderne Infrastruktur im Hörsaal, den Seminar- und Kursräumen für andere Veranstaltungen genutzt. Softwarefirmen
hatten die Gelegenheit, neue Produkte bzw. neue Versionen bekannter Produkte zu präsentieren. Dabei
standen wieder Beispiele für die Nutzung in Forschung und Lehre im Vordergrund.
Tabelle 31: Weitere Veranstaltungen in den Räumen des LRZ
Titel
Datum
DRIHM-Meeting
20.01.2014
piCS Workshop Geoscience
21.01.2014
VAO-II Alpen-DAZ
29.01.2014
CSC-Board Visit
28.01.2014
Münchener Kreis
29.01.2014
3M-Meeting
30.01.2014
SeisSol-Meeting
31.01.2014
Lenkungsausschuss-Sitzung SuperMUC
13.02.2014
Rechenzentrum Darmstadt
10.02.2014
piCS Workshop
11.02.2014
Fujitsu
12.02.2014
SfH Service Management
14.02.2014
USM – LRZ Non-relational Database Meeting
20.02.2014
Jahresbericht 2014 des Leibniz-Rechenzentrums
151
FitSM Foundation und ITSM Workshop
25.02. – 26.02.2014
Einführung Duale Hochschule Karlsruhe
26.02.2014
Megware – LRZ-Treffen
27.02.2014
SeisSol PRACE-PaperWP141
28.02.2014
OCIP-Meeting
03.03. – 05.03.2014
Parallel Programming of High Performance Systems
10.03. – 14.03.2014
BSB Fedora
17.03. – 21.03.2014
Peter Kacsuk: Research Laboratory / MTA-STAKI, Hungary
18.03.2014
Meeting SCI-BUS/SHWA/ER-Flow
19.03.2014
CAD-Stelle Bayern, Staatliches Bauamt München
19.03.2014
Deutsche Börse (Cloud Computing)
20.03.2014
RZG Technical Meeting
24.03.2014
Eclipse Kurs
25.03.2014
Girls’ Day
27.03.2014
Intel (Vortrag Hr. Klemm)
31.03.2014
Advanced Parallel Programming
31.03. – 04.04.2014
Citrix Veranstaltung
01.04. – 02.04.2014
FedSM work meeting
03.04. – 04.04.2014
Mellanox CEO Meeting
Open Foam
11.04.2014
12.04. – 14.04.2014
Ansys und Cadfem
24.04.2014
FAST-Treffen
23.04.2014
MIC & GPU Programming
28.04.2014
ISO/IEC 27001 Foundation
28.04. – 29.04.2014
SASER-Demo mit NSU und TUM
LRZ CEA Meeting
29.04.2014
05.05. – 06.05.2014
Workshop HP Networking ProVision
06.05.2014
Rechenzentrumslösungsberater Microsoft Deutschland
09.05.2014
Flow AirS Workshop TU
13.05.2014
Microstaxx HP-Networking Technology Day
15.05.2014
Audi-Kooperations-Treffen
16.05.2014
Workshop “Internet of Things”
21.05.2014
BGCE Research Day
22.05.2014
Alinea Workshop
02.06.2014
Extreme Scaling Workshop
Australian National University
ISAM Mathematical Writing Course
Compact Course Stabilized Finite Elements in fluid Dynamics for Simulation and Optimization
03.06. – 05.06.2014
20.06.2014
24.06. – 25.06.2014
25.06.2014
152
Kurse, Ausbildung und Benutzerbetreuung
Lehrveranstaltung Prof. Mainzer, “Geist-Gehirn-Maschine”
26.06.2014
Prof. Renner, Hochschule München
07.07.2014
KONWIHR
08.07.2014
Rotary Club
08.07.2014
SuperMUC Review Workshop
09.07.2014
NEC – LRZ-Meeting
10.07.2014
Jacobsen Research Day
16.07.2014
Besuch Lehrstuhl Prof. Ruhl (LMU)
17.07.2014
ISO/IEC 2000 Kurs
22.07. – 23.07.2014
IPCC Meeting
23.07.2014
Delegation Beihang University
23.07.2014
Immunoinformatik Prof. Antes
08.08.2014
Clean Tech Campus – LRZ
11.08.2014
GNU Hacker Meeting
15.08.2014
ICT-Glow 2014 Symposium
04.09.2014
IESP Besuch
09.09.2014
Mr.SymBioMath 2nd Summerschool
15.09. – 17.09.2014
Iterative Gleichungslöser und Parallelisierung HPARIS14
15.09. – 19.09.2014
PRACE-4IP HM Meeting
29.09.2014
Tag der offenen Tür
11.10.2014
Wissenschaft und Dialog
20.10. – 21.10.2014
Vorlesung Strategisches IT-Management Prof. Haucke TU
23.10.2014
GCS Lenkungsausschuss-Sitzung
20.10.2014
Software-Architecture
27.10.2014
KONWIHR
28.10.2014
Autotune Plenary Meeting
03.11.2014
Architectures for managing Big Data in the Enterprise
03.11. – 05.11.2014
HPCCIW-Kurs
03.11. – 07.11.2014
Jugend präsentiert
05.11. - 07.11.2014
Mellanox-Treffen
05.11.2014
Vortrag Prof. Dr. Matiyaesvich (TU)
05.11.2014
CIMA Cooperation-Meeting
06.11.2014
Daten-Schutztag
12.11. – 13.11.2014
FitSM-SPD-Pilot-Training
20.11. – 21.11.2014
Study Visit Jahrestagung – Netzwerk Wissensmanagement
Open FOAM Kurs
20.11.2014
24.11. – 25.11.2014
27.11.2014
Gastvortrag TU Strategisches IT-Management
27.11.2014
Intel Long Range Planung (CPU)
01.12.2014
Jahresbericht 2014 des Leibniz-Rechenzentrums
153
Introduction to OpenFOAM
01.12. – 03.12.2014
BayFOR-Meeting
02.12. – 03.12.2014
GEANT – CMon Team F2F Meeting
04.12. – 05.12.2014
PATC Kurs: Node Level Engineering
04.12. – 05.12.2014
BGCE-Research Day
11.12.2014
Kontron Meeting
11.12.2014
Open-Lab-Day
16.12.2014
EnCompHS Proposal-Preparation Meeting
17.12. – 18.12.2014
Fort Fantastic-Hochschule Kempten
19.12.2014
Exkursion Hochschule Kempten ans LRZ mit Fort Fantastic
22.12.2014
154
Software-Bezug und Lizenzen
13 Software-Bezug und Lizenzen
Mit der Bündelung der Nachfrage über Instituts- und Hochschulgrenzen hinweg wird auch Verhandlungsmacht gebündelt. So können oft wesentlich günstigere Konditionen für den Bezug von Lizenzen für Forschung und Lehre erreicht werden. Die Endkunden in den Instituten sparen dadurch nicht nur Zeit, sondern
vor allem viel Geld. Das LRZ verhandelt deswegen, wo möglich, in Absprache oder in Kooperation mit
Instituten und Hochschulen, teilweise aufs MWN beschränkt, teilweise überregional, geeignete Abkommen
mit Händlern und Herstellern. Welche Software von welchen Nutzern zu welchen Konditionen über das
LRZ bezogen werden kann, ist auf der Webseite www.lrz.de/services/swbezug dargestellt.
13.1 Microsoft
13.1.1 Mietlizenzen für LRZ und Akademie
2014 wurde entschieden, die Versorgung der Arbeitsplatzrechner der BAdW mit Microsoft-Lizenzen von
Kauf- auf Mietlizenzen umzustellen. Gründe sind u.a.:
•
Die Mietlizenzen werden pro Mitarbeiter gezählt, die Kauflizenzen pro Gerät – es sind aber mehr
Geräte als Mitarbeiter vorhanden, u.a. wegen Kursräumen, Laptops, Poolrechnern und Laboren
• Die Lizenzierung von virtuellen Desktops wird dadurch erleichtert und billiger
• Die Lizenzierung wird generell einfacher
Durch den Bundesrahmenvertrag des LRZ mit Microsoft sind diese Vorteile nun realisierbar geworden.
Durch Beitritt zu diesem Vertrag kann auch eine relativ kleine Einrichtung wie die BAdW (dreistellige Mitarbeiterzahl) die beste Preisstufe bei Mietlizenzen erhalten. Die LRZ-Mitarbeiter sind durch den Beitritt der
Akademie mit abgedeckt, nicht jedoch die des Walter-Meißner-Instituts, da dieses von Microsoft nicht als
Verwaltungseinrichtung für Hochschulen angesehen wird. Die bisher gekauften Lizenzen bleiben im Eigentum der BAdW. 2014 wurden im Hinblick auf den kommenden Vertrag fast ausschließlich nur noch solche
Kauflizenzen erworben, die im neuen Vertrag nicht enthalten sein werden (z.B. Serverlizenzen oder spezielle Zugriffslizenzen). Der Vertragsabschluß ist für Anfang 2015 vorgesehen.
13.1.2 Zugang der Universitätskliniken zum Bundesvertrag
Im Juni 2014 hat das LRZ einen Rahmenvertrag mit Microsoft Irland geschlossen, der den deutschen Universitätskliniken Zugang zu Mietlizenzen wie im Bundesvertrag für Hochschulen ermöglicht. Hintergrund:
Microsoft behandelt Universitätskliniken nicht wie Hochschulen. Mit diesem Vertrag können sie jedoch die
gleichen Konditionen und Rabatte erhalten, es handelt sich quasi um einen Klon des Bundesvertrags.
13.1.3 Plausibilisierungen
oder: „Damokles-Schwert der Software-Audits“
In diesem Jahr begann Microsoft, einzelne deutsche Universitäten zu Plausibilisierungen der SoftwareLizenzierung ihrer Server und Arbeitsplätze aufzufordern. Damit konkretisiert sich der bereits in den letzten
Jahren beobachtete Trend, dass große Hersteller Audits und Plausibilisierungen an Hochschulen verlangen. Im Softwarelizenz-Bereich vertragskonform zu bleiben wird jedoch durch die stark zunehmende Komplexität im Lizenzrecht vor allem in virtualisierten Infrastrukturen zunehmend erschwert. Einige deutsche
Hochschulen sprechen mit Microsoft über Pilotprojekte zur Einführung einer Lizenzverwaltung, aus denen
eventuell auch Microsoft selbst lernen kann, dass ihr Lizenzrecht für Hochschulen zu kompliziert und nicht
umsetzbar ist. Die Universität Bonn hat ein solches Projekt gestartet.
13.2 Adobe
13.2.1 CLP
CLP (Cumulative License Program), der bundesdeutsche Rahmenvertrag für Kauflizenzen, wurde vom
LRZ mit Adobe Ende 2014 für zwei weitere Jahre verlängert, allerdings veröffentlicht Adobe im CLP-Programm kaum noch neue Versionen und kündigte zuletzt an, im ersten Quartal 2015 die meisten Produkte
aus dem CLP-Programm abzukündigen.
Jahresbericht 2014 des Leibniz-Rechenzentrums
155
13.2.2 ETLA Desktop
Neben dem CLP gibt es noch einen weiteren bundesweiten Rahmenvertrag des LRZ mit Adobe, bekannt
als ETLA (Enterprise Term License Agreement). Dieser Vertrag allein wird aber künftig, nachdem CLP von
Adobe nun „entkernt“ wird, nicht genügen, um alle Universitäten und Hochschulen mit Adobe-Lizenzen zu
versorgen, da er nur flächendeckende Versorgung („Flatrate“) über alle Mitarbeiter regelt. Viele Produkte
werden aber lediglich von einem kleinen Anteil der Mitarbeiter benötigt („Einzelplatzlizenzen“) und sie für
die gesamte Einrichtung zu lizenzieren wäre unwirtschaftlich (Einzelplatzlizenzen wurden bisher über CLP
abgedeckt). Adobe will, dass künftig Einzellizenzen nur noch zur Miete („Creative Cloud“) erhältlich sind,
und zwar in Form von für Hochschulen ungeeigneten "VIP"-Verträgen.
Die seit 2013 laufenden Gespräche zwischen Adobe und Hochschulvertretern aus Deutschland, Österreich
und der Schweiz zur Anpassung der neuen Lizenzstrategie von Adobe an die europäische Hochschullandschaft („ETLA Desktop“: Ziel ist, dass einzelne Lizenzen nach Bedarf und ohne die Nachteile von „VIP“
gemietet werden können) sind im November 2014 gescheitert, da Adobe entgegen vorheriger Ankündigungen keinen Vertragsentwurf außerhalb von VIP anbieten wollte. Seitdem müssen wir den Lehrstühlen Alternativen zu Adobe-Produkten empfehlen.
13.3 Ansys
Die Versorgung mit Ansys-Lizenzen im MWN wurde von Miete auf Kauf mit Wartung umgestellt und die
Versorgungsgüte konnte für die Ansys-Anwender im MWN bei gleichbleibenden oder sinkenden Preisen
verbessert werden. Die Umstellung auf Kauflizenzen bot sich an, da die Konditionen für den Kauf im Vergleich zu den Vorjahren deutlich günstiger geworden waren. Der Break-Even gegenüber fortgesetzter Miete
wird dabei vorausichtlich nach weniger als drei Jahren erreicht.
13.4 SPSS
Der bestehende Landesvertrag zu SPSS mit IBM läuft zum 1.1.2016 aus. IBM konnte bisher kein bezahlbares Angebot für die Verlängerung der Wartung der seinerzeit gekauften Lizenzen machen sondern
möchte scheinbar nur Neulizenzen verkaufen, und zwar über einen von IBM exklusiv bestimmten Händler,
die Firma Asknet. Die Gespräche mit Asknet, die wir gemeinsam mit Vertretern der Arbeitskreises Software-Lizenzen des ZKI und den Rahmenvertragshaltern der anderen Bundesländer führen, gestalten sich
ziemlich komplex.
13.5 VMware
Zur Verlängerung und Harmonisierung der Wartung der VMware-Lizenzen bayerischer Hochschuleinrichtungen hat die Vergabestelle der Universität Würzburg die Ausschreibung eines Händlers organisiert, an
der sich u. a. das LRZ und die TUM beteiligt haben.
13.6 Software Asset Management
In Abstimmung mit Vertretern der Arbeitskreises Software-Lizenzen des ZKI wurden schon 2013 Anbieter
für Softwareprodukte zur Verwaltung von Lizenzen evaluiert und das Produkt Spider der Fa. Brainwaregroup für ein Pilotprojekt ausgewählt. Spider war deutlich günstiger als die Konkurrenz, kann hochschulübergreifendes Vertragsmanagement und bei der Preisberechnung werden Mitarbeiter, nicht Geräte, gezählt, was dem Hochschulumfeld besser entspricht. Im Pilotprojekt werden die Module Vertragsmanagement und Lizenzmanagement für die hochschulinterne Lizenzverwaltung getestet. Die Teilnehmerzahl in
diesem deutschlandweiten Projekt ist 2014 gestiegen und es wurde 2014 die Basis gelegt, um Rahmenund überregionale Verträge in das jeweilige Vertragsmanagement der einzelnen Hochschulen einpflegen
zu können. Ab dem nächsten Jahr soll auch die Zuordnung, welche Lizenzen auf welchen Geräten eingesetzt werden, nach und nach eingepflegt werden. Das LRZ plant, das Produkt für das hausinterne Software
Asset Management einzusetzen.
13.7 Verlängerung und Ausbau bestehender Verträge
2014 wurden mehrere auslaufende Verträge abgelöst oder planmäßig verlängert:
•
Labview-„Flatrates“ (Academic Teaching Site License) der Firma National Instruments im MWN
156
Software-Bezug und Lizenzen
•
•
SAS (neben SPSS eine weitere häufig nachgefragte Statistik-Software)
Matlab (LMU, Hochschule München; nicht TU München, wo weiterhin ein Flatrate-Vertrag direkt
mit Mathworks besteht)
• Intel (Lizenzen für Compiler und Tools)
• ESRI-Landeslizenz (Verlängerung der ESRI-Landeslizenz um weitere drei Jahre unter Berücksichtigung der aktuellen Bedarfe der Teilnehmer und Änderungen im Produktportfolio (z.B. CloudDienste))
• Corel-„Flatrate“ für BAdW/LRZ
• Amira: bei Amira hat sich sowohl die Nachfragesituation im MWN als auch die Paketierung von
Seiten des Anbieters in den letzten 1-2 Jahren geändert, so daß die bestehende Campuslizenz
zunehmend unwirtschaftlich wird. Vermutlich wird 2015 nicht mehr verlängert.
• Erdas
• Scientific Workplace: Die Campuslizenz für SWP konnte im Preis deutlich heruntergehandelt werden, da die Nutzung in den letzten Jahren zurückgegangen ist.
• Mindmanager (Downloadzahlen in 2014: LMU 61, TUM 338)
Die NAG-Landeslizenz (für numerische Bibliotheken) wurde nicht mehr verlängert, da die beteiligten Hochschulen finanziell nicht mehr im erforderlichen Umfang beitragen möchten.
13.8 Tagesgeschäft
13.8.1 Abläufe und Änderungen bei der Versorgung der Kunden des LRZ
Das LRZ stellt den Münchner Hochschulen unter anderem Kauflizenzen aus den Bereichen
• Microsoft-Lizenzen im Rahmen der Select-Plus-Verträge
• Adobe- und Corel-Bestellungen im Rahmen des Adobe CLP-Vertrags
zur Verfügung. Dies sind bisher die umsatzstärksten Bereiche. Wo es sinnvoll ist, eine flächendeckende
Pauschalversorgung mit Mietlizenzen einzuführen, sollte das auch gemacht werden. Dadurch kann der
anfallende Arbeitsaufwand sowohl in den Instituten als auch im LRZ reduziert werden. Der mit Kauflizenzen
erzielte Umsatz ist also kein Erfolgsindikator. Die TUM ist Bundesrahmenvertrag des LRZ mit Microsoft
schon vor einiger Zeit beigetreten und musste daher in 2014 nur noch spezielle Lizenzen über das SelectPlus Programm kaufen.
Bei Bestellungen zu Microsoft und Adobe/Corel-Kauflizenzen kümmert sich das LRZ im Tagesgeschäft
lediglich um Authentifizierung/Autorisierung der Besteller, Verteilung der Software, Beratung und Unterstützung bei der Bestellung, Lizenzierung und Aktivierung. Die kaufmännische Abwicklung erfolgt über Handelspartner. Dabei kommen jährliche Umsätze im sechsstelligen Bereich zustande. Die zuletzt angestiegenen Adobe-Bestellungen lassen sich auf „Vorratskäufe“ zurückführen, da 2015 vorerst kein geeigneter Bezugsweg für Adobe-Lizenzen bereitsteht (s. o.).
Tabelle 32: Die umsatzstärksten Softwarepakete
Hersteller /
Beschreibung
Lizenzzahlen 2014
Name
Microsoft
Applikationen, System- und ServerSoftware (Kauflizenzen)
Adobe
Bruttowert
der
2014 beschafften
Lizenzen
11.851
424.780 €
Kauflizenzen
6.773
452.885 €
Corel
Kauflizenzen
161
7.414 €
Systat
Datenanalyse und
Datenpräsentation
44
13.272 €
Jahresbericht 2014 des Leibniz-Rechenzentrums
157
Tabelle 32 listet die wertmäßig umsatzstärksten Softwarepakete (nur Kauflizenzen) auf. Miet- und Subskriptionsmodelle (SPSS, Matlab, Novell, SAS) sowie Flatrate Verträge (ESRI, Sophos) werden nicht in
dieser Tabelle erfasst.
Für Einrichtungen mit zentralem Einkauf besteht die Möglichkeit, die am meisten nachgefragten Kauflizenzen beim LRZ online zu bestellen. Zu diesen Einrichtungen zählen die Münchner Universitätskliniken, die
Universität Augsburg, einige Fachhochschulen aus dem südbayerischen Raum, einige Institute von LMU
und TUM sowie einige kleinere Einrichtungen.
Bei den meisten anderen Produkten tritt das LRZ in Vorleistung und beteiligt die Institute an den Kosten.
Produkte aus Landesverträgen des LRZ (Novell, Sophos, ESRI, auch Microsoft Premier Support) werden
den bayerischen Universitäten und Hochschulen nach einem festen Kostenschlüssel bereitgestellt (ESRIProdukte werden an der LMU teilweise noch mit den Instituten einzeln abgerechnet). Produkte aus den
Bundesrahmenverträgen (Microsoft, Adobe ETLA) werden dagegen direkt zwischen den ausgeschriebenen Händlern und den Lizenznehmern abgewickelt, ohne dass das LRZ involviert werden muss.
Über den Microsoft-Bundesrahmenvertrag versorgten sich Universitäten und Hochschulen allein in Bayern
im Jahr 2014 mit Software-Lizenzen im Wert von brutto fast 2 Mio. Euro, Tendenz steigend. Im Bundesgebiet sind bis Jahresende 147 Hochschulen diesem Vertrag beigetreten.
13.8.2 Betrieb von Lizenzservern für Kunden des LRZ
Das LRZ betreibt derzeit für ca. 35 unterschiedliche Softwarepakete Lizenzserver, die für die Benutzer im
MWN Netzwerklizenen zur Verfügung stellen. Das angebotene Spektrum der Netzwerklizenzen beinhaltet
vor allem technisch-wissenschaftliche Software wie Matlab, Mathematica, Ansys, Tecplot, etc. Einen weiteren Schwerpunkt bilden Lizenzen für Pakete zur Softwareentwicklung wie Compiler, Debugger und Tools
zur Performanceanalyse.
Für Kurse und Praktika in den CIP-Pools der berechtigten Einrichtungen im MWN werden die Teaching
Lizenzen der FE-Software Ansys über den Lizenzserver vom LRZ kostenfrei zur Verfügung gestellt. Seit
Beginn des Wintersemesters 2014/2015 sind zudem für alle Studenten und Mitarbeiter der beteiligten
Hochschulen die Ansys Teaching Lizenzen des Lizenzservers auch allg. kostenfrei verfügbar.
Der zentrale Betrieb der Lizenzserver am LRZ erspart den Mitarbeitern an den Lehrstühlen und Instituten
im MWN den redundanten Betrieb eigener Lizenzserver und damit viel Arbeit. Im Bedarfsfall unterstützt
das LRZ die Anwender bei der Anbindung ihrer Rechner an die Lizenzserver am LRZ.
158
Gebäude und Infrastruktur
14 Gebäude und Infrastruktur
14.1 Gebäudemanagement
Das Hauptanliegen der Gebäudetechnik, dem IT-Betrieb des LRZ eine verlässliche Betriebsumgebung zu
bieten, wurde auch 2014 erreicht. Einige Stromunterbrechungen auf Versorgerseite und anhaltende Mängelproblematiken auf Kühlungs- und Leittechnikseite stellten die besonderen Herausforderungen des Jahres dar. Die Infrastruktur an Kühlung als wichtigste Aufgabe des Infrastrukturmanagements konnte mit großem Einsatz des Gebäudebetriebspersonals stabil betrieben werden, obwohl mehrere Personalwechsel
innerhalb der Haustechnik den Verlust von Know-How spürbar werden ließen.
Im Einzelnen gab es noch immer viel Arbeit mit Restleistungen und Mängeln aus dem Bauabschnitt 2
(„Erweiterungsbau“) aus den Jahren 2009-2011. Dies betraf vornehmlich die Bereiche der Gebäudeleittechnik (GLT), des Wasserkühlsystems und der Luftkühlung.
•
Die GLT hat für Überwachung und Steuerung der Gebäudetechnik rund um die Uhr zentrale Bedeutung. Erst 2014 konnten die wichtigsten Funktionen der GLT zuverlässig erbracht und Störungsmeldungen wirksam zugestellt werden. Trotzdem kommt es hier immer wieder zu betriebsgefährdenden Rückschlägen. Diese sind teils Inbetriebnahme-Mängeln, teils den verwendeten
GLT-Steuerungskomponenten mit ihren nicht robusten Kommunikationsprotokollen geschuldet.
Diese scheinen eher für allgemeine Haus- und Gebäudetechnik als für unseren Effizienz-betonten
RZ-Betrieb mit bescheidener Redundanz entworfen.
•
Im Bereich der Wasserkühlsysteme konnten Kühltürme und Wasseraufbereitung einem einigermaßen stabilen Betrieb zugeführt werden.
Leider musste wegen der unergiebigen Niederschlagssituation auf die Kühlleistung des Grundwasserbrunnens weitgehend verzichtet werden.
Die Luftkühlungssysteme leiden noch immer darunter, dass unter dem Zeit- und Preisdruck in der
Erstellungsphase 2009-2011 notwendige Inbetriebnahme-Aufwände unterblieben oder nur inkompetent erledigt wurden.
Auf Elektroversorgungsseite wurde der Gesamtwirkungsgrad durch die zeitweilige Abschaltung redundanter Komponenten, v.a. dynamischer USVs, erhöht.
Größere Revisionen waren an den Batterieanlagen der stat. USVs und am Austausch verkalkter
Rückkühlregister fällig.
•
•
•
•
An Maßnahmen waren 2014 wichtig:
•
Der 2013 auf Wasserkühlung ertüchtigte HRR-Bereich wurde für die Phase 2 des SuperMUC vorbereitet und nimmt gegen Jahresende die ersten Racks in Betrieb (s. Abbildung 88). Hier wurde
auch die Elektroversorgung verändert, um der Phase 2 eine getrennte Versorgungsumgebung zu
bieten zu können und einen großen Teil des Jahres 2014 den elektrischen Wirkungsgrad der Phase
1 erhöhen zu können (durch Abschaltung einzelner USVs).
14.2 Energieeffizienz
Die im Jahr 2013 begonnene Erweiterung der Messinstrumentierung für die Kühlungs- und Stromversorgungsinfrastruktur konnte in 2014 abgeschlossen werden.
Auf der Basis der ausgebauten Instrumentierung konnte die Betriebseffizienz verbessert werden: es gelang
einerseits, Störungen beim Betrieb der Klima-und Kälteaggregate zu verringern bzw. in ihren Auswirkungen
durch frühere Erkennung und Fehlerisolation zu dämpfen. Andererseits ermöglicht die Verbesserung des
Umfangs und der Qualität der Anlagendaten eine präzisere Ermittlung der Kenngrößen, die im Rahmen
der Maßnahmen zur Steigerung der Energieeffizienz benötigt werden.
Um die Leistungsfähigkeit der Kühlungsinfrastruktur zu optimieren, ist mit einer Detailanalyse der Kenndaten für die Rückkühlwerke begonnen worden und eine Revision der Steuer- und Regelungscharakteristik
der Kälteerzeugungsgewerke eingeleitet worden. Diese Maßnahmen zur Optimierung der Rechenzentrumsinfrastruktur sollen im nächsten Jahr fortgeführt werden.
Jahresbericht 2014 des Leibniz-Rechenzentrums
Abbildung 88: Wasseranschlüsse für die Racks des SuperMUC Phase 2
159
160
Personal
15 Personal
Die Anzahl der Mitarbeiter im LRZ ist im Jahre 2014 weiter leicht angestiegen. Leider konnten wie im Vorjahr aufgrund der guten Konjunkturlage im IT-Bereich erneut offene Stellen teilweise gar nicht bzw. erst
nach mehrfachen Ausschreibungen erfolgreich besetzt werden. So waren Ende 2014 am LRZ 160 Mitarbeiter und 42 wissenschaftliche und studentische Hilfskräfte beschäftigt. Wie in den Vorjahren wurden wieder zwei Auszubildende (ein IT-System-Elektroniker und ein Fachinformatiker der Richtung Systemintegration) am LRZ eingestellt. Zwei Auszubildende konnten ihre Ausbildung erfolgreich abschließen und einer
davon konnte befristet übernommen werden.
Ein Mitarbeiter des LRZ, Herr PD. Dr. Helmut Reiser, wurde zum außerplanmäßigen Professor an der LMU
ernannt. Zahlreiche Vorträge auf Konferenzen und Fachtagungen, viele wissenschaftliche Veröffentlichungen sowie der erfolgreiche Abschluss mehrerer Promotionen belegen zudem die Kompetenz des LRZ.
Jahresbericht 2014 des Leibniz-Rechenzentrums
161
16 Zahlen und Fakten
16.1 Personal
Tabelle 33: Tabellarische Personal-Übersicht
Personalstand (31.12.2014)
160
Mitarbeiter
42
Stud. und wiss. Hilfskräfte
9
Wiss. Mitarbeiter
1
Verwaltungsangestellte
2
Auszubildende
4
Praktikanten
16
Stud. und wiss. Hilfskräfte
7
Wiss. Mitarbeiter
2
Verwaltungsangestellte
1
Auszubildender
3
Praktikanten
11
Stud. und wiss. Hilfskräfte
208
Inland
149
Ausland
357
Insgesamt
Neueinstellungen
Abgänge
Dienstreisen
Entwicklung des Dienstreiseaufkommens
400
Anzahl der Reisen
350
300
250
200
150
100
50
0
2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
Anzahl der Reisen gesamt
Auslandsreisen
Inlandreisen
Abbildung 89: Entwicklung des Dienstreiseaufkommens 2000-2014
162
Zahlen und Fakten
16.2 E-Mail und Exchange
Tabelle 34: E-Mail und Exchange
E-Mail und Exchange
gerundet
Exchange-Postfächer
42.000 mit 12 TByte
POP/IMAP-Postfächer
94.500 mit 10 TByte
E-Mail-Verteilerlisten
1.050
Eintreffende E-Mails/Tag
800.000
•
davon angenommen
190.000 (24 %)
•
davon abgelehnt (Spam- und Virenmails)
610.000 (76 %)
Server für E-Mail-Dienste
30
Server für Exchange
12
16.3 Poster und Schriften
Tabelle 35: Poster und Schriften
Großformat Poster - Schriften
Großformat Poster insgesamt
4.115
•
am LRZ abgegeben
1.377
•
Bibliothek der LMU
1.518
•
Bibliothek der TUM
1.092
•
Biozentrum der LMU
Schriften - Umsatz
128
3.349
16.4 Benutzerverwaltung und Shibboleth
Tabelle 36: Benutzerverwaltung und Shibboleth
Benutzerverwaltung und Shibboleth
Master User
2.158
LRZ-Projekte
1.877
•
Davon SuperMUC-Projekte
614
Authentifizierungen pro Woche an den Shibboleth IdPs
•
TUM Identity Provider
100.000
•
LMU Identity Provider
30.000
Server für Benutzerverwaltung, Directories und DFN-AAI
30
Jahresbericht 2014 des Leibniz-Rechenzentrums
163
16.5 Höchstleistungsrechner
Tabelle 37: Höchstleistungsrechner SuperMUC
SuperMUC Phase 1
Anzahl Rechenkerne
159.496
Gesamthauptspeicherkapazität
342 TByte
Spitzenleistung
3,3 PFlop/s
Plattenspeicherkapazität
15.000 TByte
Anzahl Infinibandkabel
11.900
Gesamtlänger der Infinibandkabel
195 km
Direktwarmwasserkühlungsinfrastruktur mit
Eingangstemperatur
45°C
7,9 m3
Kühlwasservolumen (nur Rechnerraum)
Gesamtrohrlänge (nur Rechnerraum)
38,9 km
8 m2
Gesamt-CMOS-Fläche aller Intel-Prozesoren in der Anlage
Maximale elektr. Leistungsaufnahme der Anlage
Typische Leistungsaufnahme der Anlage
3,9 MW
< 2,3 MW
Gesamtgewicht der Anlage
Anzahl
Komponenten
Gesamter
Hauptspeicher
(in GB)
18 Thin 297216
Node Inseln
Eine Fat 52480
Node Insel
Knights 2432
Corner
Testsystem
200 t
Systemdaten
Typ der Komponenten
Prozessoren der
Komponenten
Aufgabe
Hochtemperatur-wassergekühl- Je Insel 516 iDataP- Höchstleistungsrechner
tes IBM System x iDataPlex mit lex Knoten mit jeweils für Benutzer aus den
Fat-Tree Verbindungsnetz auf zwei 8-Core Intel Hochschulen in Deutschder Basis von Mellanox FDR10 Sandy
Bridge-EP land sowie Tier-0 System
Infiniband Technologie.
(Xeon E5-2680) So- für europäische Nutzer
Die Inseln sind untereinander ckeln und 32 GByte aus dem PRACE Projekt;
für die Nutzungsberechtiebenfalls mit einem Fat-Tree ver- Hauptspeicher.
gung ist eine spezielle Bebunden, allerdings mit einer um
gutachtung durch den wisden Faktor 4 reduzierten Bandsenschaftlichen Lenkungsbreite.
ausschuss oder PRACELuftgekühltes IBM BladeCenter 205 x3850 Blades mit Begutachtung notwendig.
HX5 mit Fat-Tree Verbindungs- jeweils vier 10-Core Typ: Parallel-Rechner
netz auf der Basis von Mellanox Westmere-EX (Intel
QDR Infiniband Technologie.
Xeon E7-4870) Sockeln und 256 GByte
Hauptspeicher
Luftgekühltes IBM System mit Je Knoten zwei 8- Evaluation der Intel ManyMellanox FDR 14 Dual-Rail Inter- Core Ivy-Bridge Pro- Core Architektur, Portieconnect und 32 Rechenknoten zessoren und zwei rung und Optimierung von
60-Core Knight’s Cor- Applikationen.
ner Beschleuniger mit
insgesamt 76 GByte
Hauptspeicher
164
Zahlen und Fakten
16.6 Hochleistungs-Linux-System
Aus mehreren heterogenen Segmenten zusammengesetztes Linux-Cluster, der aus ca. 1.100 Komponenten mit insgesamt 23.5 TByte Hauptspeicher besteht, die mit 1 oder 10 GBit Ethernet, Myrinet, NUMALink
oder Infiniband vernetzt sind. Er dient zur Bearbeitung üblicher, auf Linux verfügbarer Anwendungsprogramme und für Programme, die mittels MPI und/oder OpenMP parallelisierbar sind.
Tabelle 38: Hochleistungs-Linux-Systeme (ohne SuperMUC)
Systemdaten
Anzahl
Anzahl der
Hauptder
Prozesso–
Typ der Komponenspei–cher
Komporen der
ten
der Komnenten
Kompoponente
nente
Aufgabe
1
SUN X4100
Opteron, 2600 MHz
2
4 GB
Komponente des Linux-Clusters:
SGE 6.2u2 Master-Server
1
SUN X4100
Opteron, 2600 MHz
4
8 GB
Komponente des Linux-Clusters:
Zentraler nagios-Überwachungsserver
8
MEGWARE
Xeon 8
E5462, 2800 MHz
16
15
SUN 4600
Opteron, 2800 MHz
64 GB
Attended Cluster-Housing-Knoten des Lehrstuhls für Mathematik der TU-München
35
MEGWARE
Xeon 4
X3230, 2667 MHz
8 GB
Attended Cluster-Housing-Knoten der Bayerischen Staatsbibliothek
124
MEGWARE
Xeon 4
X3230, 2667 MHz
8 GB
Komponente
des
Linux-Clusters:
LCG Tier-2 Rechen-Knoten
32
DELL
12
Xeon L5640, 2261
MHz
36 GB
Komponente
des
Linux-Clusters:
LCG Tier-2 Rechen-Knoten
68
MEGWARE
Xeon 8
L5420, 2500 MHz
16 GB
Komponente
des
Linux-Clusters:
LCG Tier-2 Rechen-Knoten
15
MEGWARE
Xeon 4
5060, 3200 MHz
4 GB
Komponente
des
Linux-Clusters:
LCG Tier-2 dCache-Knoten
13
MEGWARE
Xeon 4
5148, 2333 MHz
4 GB
Komponente
des
Linux-Clusters:
LCG Tier-2 dCache-Knoten
10
MEGWARE
Xeon 4
L5240, 3000 MHz
8 GB
Komponente
des
Linux-Clusters:
LCG Tier-2 dCache-Knoten
6
DELL
24
Xeon L5640, 2261
MHz
16 GB
Komponente
des
Linux-Clusters:
LCG Tier-2 dCache-Knoten
2
MEGWARE Quad- 16
Core Opteron, 2400
MHz
132 GB
Attended Cluster-Housing-Knoten des LMU
Exzellenz-Cluster
20
MEGWARE
Xeon 8
L5420, 2500 GHz
32 GB
Attended Cluster-Housing-Knoten des LMU
Exzellenz-Cluster
112
MEGWARE Xeon L 8
5420, 2500 GHz
16 GB
Attended Cluster-Housing-Knoten des LMU
Exzellenz-Cluster
32
GB Attended Cluster-Housing-Knoten des Lehrstuhls für Geodäsie der TU-München
Jahresbericht 2014 des Leibniz-Rechenzentrums
165
Systemdaten
Anzahl
Anzahl der
Hauptder
Prozesso–
Typ der Komponenspei–cher
Komporen der
ten
der Komnenten
Kompoponente
nente
Aufgabe
1
MEGWARE
Xeon 4
E5504, 2000GHz
12
Attended Cluster-Housing-Knoten der LMU,
LS Prof. Ruhl
12
MEGWARE
Xeon 6
X5500, 2660GHz,
Je 1 NVidia GPU
48
Attended Cluster-Housing-Knoten der LMU,
LS Prof. Ruhl
4
MEGWARE
AMD Opteron,
Je 1 NVIDIA GPU
48
16 GB
Attended Cluster-Housing-Knoten der LMU,
LS Prof. Ruhl
19
Sysgen
Intel Xeon
16
128 GB
Attended Cluster-Housing-Knoten der LMU,
LS Prof. Scrinzi
1
SGI UV 2000
320
Sandy Bridge CPUs (8)
(NVidia GPUs)
5000 GB
Attended Cluster-Housing-Knoten der LMU,
LS Prof. Frey
4
SGI UV 20
32
Sandy Bridge CPUs
256 GB
Attended Cluster-Housing-Knoten der LMU,
LS Prof. Frey
38
MEGWARE
Opteron, 2600 MHz
32 GB
Komponente
des
Linux-Clusters:
x86_64-Cluster Knoten für parallele MPIund 8-fach Shared Memory Jobs
234
MEGWARE Opteron, 4
2600 MHz
8 GB
Komponente
des
Linux-Clusters:
x86_64-Cluster Knoten für serielle und parallele 4-fach Shared Memory Jobs
64
SGI Altix ICE8200
512
Xeon E5540, 2533
MHz
1536 GB
X86_64-MPP-Rechner
2 Prozessorsockel pro Knoten
8 Prozessorkerne pro Knoten
3 GB pro Prozessorkern
1
SGI UV1000
Xeon E7-4780,
2400 MHz
2080
3328 GB
X86_64-SMP-Rechner. Er wird mit zwei separierten Partitionen betrieben.
183
MEGWARE
2928
CoolMUC,
AMD
Opteron
6128HE,
2000 MHz
2928 GB
X86_64-MPP-Rechner
2 Prozessorsockel pro Knoten
16 Prozessorkerne pro Knoten
1 GB pro Prozessorkern
63
MEGWARE
1904
Unterschiedliche Architekturen, teilw. Mit
Beschleunigern
11200 GB
Wird für die Informatik der TUM gehostet;
Einsatz für Forschung an aktuellen Systemen sowie auch an Kühltechnologien.
8
166
Zahlen und Fakten
16.7 Hochleistungs-Graphik-System
Tabelle 39: Hochleistungs-Graphik-System
System
Remote
Visualisierungs
Cluster
Hersteller
und System-Typ
Systemdaten
(Bei Systemen, die aus mehreren Komponenten
bestehen, stehen die Daten der einzelnen Komponenten in den Zeilen darunter)
Struktur
Anzahl der Typ der
Komponen- Kompoten
nenten
IBM Sys- serielles
8 (7 für Betem
x Batch-Clus- nutzerbeiDataplex ter
(unter
trieb)
dx360 M4 SLURM)
server
Anzahl der
Prozesso- Hauptspeiren der
cher der
Kompo- Komponente
nente
Intel Xeon 2 CPUs, 1
E5-2690,
GPU
2.9 GHz,
NVidia Kepler GPU
128 GB
Aufgabe
Remote Visualisierung
von SuperMUC
Datensätzen
Jahresbericht 2014 des Leibniz-Rechenzentrums
167
16.8 Datenspeicher
Die Tabelle gibt differenziert nach Speicherarchitektur einen Überblick über die Bruttokapazität der Plattenspeichersysteme des LRZ Ende 2014 und deren primäre Verwendung. Die tatsächliche Nutzspeicherkapazität ist um ein Viertel bis ein Drittel geringer, je nachdem wie redundant das System konfiguriert ist
(RAID, Checksummen, Hotspare).
Auf die NAS-Speicher wird im LAN/WAN über die Protokolle CIFS und NFS und zugegriffen. Die SANPlattensysteme sind mit den Rechnern und Bandlaufwerken über die Speichernetz-Infrastruktur verbunden.
Tabelle 40: Bruttokapazitäten Online-Speicher (NAS + SAN)
BRUTTOKAPAZITÄTEN ONLINE-SPEICHER (NAS+SAN)
Typ
Modell
Anwendung
Kapazität
NAS
2 x NetApp FAS 6280
MWN Storage Cloud, NFS-Dateidienste, LinuxMailsysteme
NAS
1 x NetApp FAS 6280
Replikationssystem für MWN Storage Cloud,
NFS-Dateidienste, Linux-Mailsysteme
912 TB
NAS
2 x NetApp FAS 6280
Speicher für Sync+Share (zukünftig auch für
MWN Storage Cloud, NFS-Dateidienste)
960 TB
NAS
1 x NetApp FAS 6280
Replikationssystem für Sync+Share
912 TB
NAS
4 x NetApp FAS6290
Speicher für VMWare (inkl. Replikation)
675 TB
NAS
2 x NetApp FAS 3170
Speicher für LZA-Projekte der BSB
730 TB
NAS
16 x NetApp FAS 6280
Projektspeicherplatz für SuperMUC
5.000 TB
NAS
6 x NetApp FAS 6280
Replikation Projektspeicherplatz für SuperMUC
und VMware
4.224 TB
NAS
2 x NetApp FAS 3170
Metrocluster für Hochschulstart.de
NAS Gesamt
9 x IBM DS3500
Cache für Archiv- und Backupsystem
SAN
3 x SUN 6780
DB+Cache für Archiv- und Backupsystem
SAN
2 x IBM StorWize SSD
DB für Archiv- und Backupsystem
SAN
4x Dell PowerVault
DB+Cache für Archiv- und Backupsystem
Gesamt NAS+SAN
74 TB
14.927 TB
SAN
SAN Gesamt
1.440 TB
1938 TB
486 TB
10 TB
281 TB
2.729 TB
17.642 TB
Unter Nearline-Systemen versteht man Speicher, die nicht in direktem Zugriff sind. Der Datenträger (in der
Regel eine Kassette) muss erst in ein Laufwerk geladen werden. Die Tabelle gibt die Mindestkapazitäten
differenziert nach Typ des Datenträgers an. Durch die Hardwarekomprimierung der Bandlaufwerke wird in
der Praxis eine deutlich höhere Speicherbelegung erreicht, als in der Tabelle angegeben.
168
Zahlen und Fakten
Tabelle 41: Kapazitäten der Nearline-Speicher
KAPAZITÄTEN DER NEARLINE-SPEICHER
Systemname
Bandbibliothek
Bandlaufwerke
Kassetten
Kapazität
DRABS
IBM TS3500
7 x IBM LTO 5
8 x IBM LTO 6
12.700
25.750 TB
SUN SL8500
26 x SUN T10K
10.000
10.000 TB
IBM TS3500
15 x IBM LTO 5
10 x IBM LTO 6
9500
19.150 TB
15.000
21.616 TB
47.200
76.516 TB
HABS
IBM TS3500
LABS
Gesamt
10 x IBM LTO 4
8 x IBM LTO 5
16 x IBM LTO 4
SUN SL8500
16 x IBM LTO 5
20 x IBM LTO 6
5
126
Jahresbericht 2014 des Leibniz-Rechenzentrums
169
16.9 Das Münchner Wissenschaftsnetz (MWN)
Tabelle 42: Das MWN in Zahlen
MWN in Zahlen
Netzkomponeten im Management
4.000
Switches
1.500
Access Points
2.700
Ports (Kupfer)
93.000
Ports (Glas)
7.700
Bandbreite des Internet-Zugangs (X-WiN)
23,6 Gbit/s
Bandbreite des Internet-Zugangs (M-net)
10 Gbit/s
Datenmenge pro Monat am Internet-Übergang
eingehend
1 bis 1,2 PB
ausgehend
0,5 bis 0,8 PB
Wohnheime
Angeschlossene Heime
Versorgte Wohnheimplätze
52
12.500
Dienste
WLAN
Maximum der gleichzeitigen Nutzer im 5 Minuten Mittel
26.300
Verschiedene Geräte im WLAN
300.000
Kongresse und Tagungen
635
VPN
Maximale Anzahl gleichzeitiger Verbindungen
Maximale Anzahl von Sessions pro Monat
Maximales Datenvolumen pro Monat
4.400
600.000
60 TB
DNS
Verwaltete Domains
Eingetragene IPv4 Adressen
2.570
294.000
DHCP
Verwaltete Adressen
176.000
IPv6; Geräte mit nativem IPv6
90.600
Netzverantwortliche in Instituten
894
170
Zahlen und Fakten
16.10
Netzkomponenten im MWN
16.10.1
Router
Tabelle 43: Netzkomponenten im MWN: Router
Einsatz
Aktive
Ports
100GE
Aktive
Ports
10GE
Aktive
Ports
1GE
Aktive
Ports FE
Cisco Nexus 7010
Backbone-Router
2
67
275
1
4
Cisco Nexus 7010
RZ-Router
0
163
4
0
3
Cisco Catalyst 6509
Firewall
0
3
26
0
1
Cisco 7206VXR
Anbindung Triesdorf
0
0
2
0
1
Cisco 2911
Anbindung FFB
0
0
2
0
2
Cisco 1921
Standortanbindung
0
0
4
0
20
Cisco 1811/1812
Standortanbindung
0
0
0
40
2
Cisco 1721
Standortanbindung
0
0
0
2
2
Cisco 891
Standortanbindung
0
0
0
4
1
Cisco 1921
Site2Site VPN
0
0
0
4
2
F5 BigIP 8900
Server Load Balancer
0
4
0
0
1
F5 BigIP 3400
Server Load Balancer
0
0
4
0
49
Router gesamt
2
237
317
51
Anzahl
Hersteller/Typ
10
Jahresbericht 2014 des Leibniz-Rechenzentrums
16.10.2
171
Switches
Tabelle 44: Netzkomponenten im MWN: Switches
verfügbare TP-Ports
Anzahl
2
verfügbare Glasfaserports
Hersteller/Typ
HP E8212zl
10/100/1000
10GE
100/1000
10GE
148
-
72
48
329
HP 5412zl / 5406zl
33.623
7
3.931
471
213
HP 4208vl / 4204vl
23.472
-
531
3
154
HP 4108gl / 4104gl
10.321
-
1.790
-
624
13
-
146
137
-
7
-
572
-
33
19
HP E6600-24XG/-24G-4XG
25
HP E6600-48G-4XG
HP 3500yl-24G-PoE+
5
HP 3500yl-48G-PoE+
15
HP 3800-48G / -24G
40
HP E2910al-48G / -24G
1.551
-
9
14
37
HP2900-48G / -24G
1.584
68
-
39
44
HP E2810-48G / -24G
1.437
-
27
-
11
HP3400cl-48G
523
-
5
6
-
13
-
7
2.158
-
26
-
362
-
12
-
6.462
-
112
-
1.031
-
19
-
3.315
-
93
-
HP 6400cl-6XG
3
HP 6410cl-6XG
70
HP 2848 / 2824
13
HP E2620-48 / -24
HP E2610-48 / -48pwr
223
HP E2610-24 / -24pwr
HP E2610-24/12pwr
HP E2615-8-PoE
105
HP E2915-8G-PoE
HP 2650 / HP 2626
94
HP 2626pwr / HP 2600-8pwr
12
HP 2510G-48 / HP 2510G-24
289
-
13
-
1
HP 2520G-48 / -24 /-24PoE
24
-
-
-
4
HP 2530-48/-24, HP25308Gpwr
123
-
-
-
2
HP 2524
50
-
-
-
1
Cisco Nexus7000
-
-
-
288
1.403
Switches gesamt
87.806
101
6.680
1.041
172
Zahlen und Fakten
16.10.3
WLAN-Komponenten
Tabelle 45: Netzkomponenten im MWN: WLAN-Komponenten
Anzahl
339
Hersteller/Typ
Verwendung
Standards
Radios
802.11a/g/n
2
Alcatel-Lucent AP-135
Access Point
2
Alcatel-Lucent
OAW-4650EU
Controller
834
HP MSM 310
Access Point
802.11b/g
1
10
HP MSM 310
Gebäudeanbindung
802.11b/g
1
82
HP MSM 320
Access Point
802.11a/b/g
2
1
HP MSM 320
Gebäudeanbindung
802.11a/b/g
2
440
HP MSM 422
Access Point
802.11a/g/n
2
4
HP MSM 422
Gebäudeanbindung
802.11a/g/n
2
533
HP MSM 460
Access Point
802.11a/g/n
2
37
HP MSM 466
Access Point
802.11a/g/n
2
4
HP MSM 466
Gebäudeanbindung
802.11a/g/n
2
1
HP MSC3200
Controller
6
HP M111
Wireless Client Bridge
2293
WLAN gesamt
2
802.11b/g
1
Jahresbericht 2014 des Leibniz-Rechenzentrums
16.10.4
173
Netz-Server
Tabelle 46: Netzkomponenten: Server
Anzahl
Hersteller/Typ
Verwendung
Betriebssystem
Prozessoren
Hauptspeicher
proprietär
2
24 GB
6
Cisco ASA5540
VPN-Server
proprietär
2
Cisco ASA5585-X
VPN-Server
propritär
1
Cisco 3030E
VPN-Server
proprietär
2
Cisco AS5350XM
Modem/ISDNServer, SIP-Gate- proprietär
way
2
Cisco ASA5580
Firewall
1
Meinberg Lantime M300 NTP-Server
Linux
1
256 MB
1
Meinberg Lantime
NTP-Server
Linux
1
32 MB
14
Dell PowerEdge R610
DNS/DHCPServer
Security-Server
VoIP-Server
Linux
96
268 GB
4
Dell PowerEdge R620
Netzmanagement Linux
32
64
2
Sun Fire X4100
Radius
Linux
4
4 GB
2
Sun Galaxy
VoIP
Linux
2
8 GB
2
Sun Fire X4150
Netzmanagement Linux
8
8 GB
1
Dell GX150
DSL-Server
Linux
1
256 MB
2
Sun Fire X2100
Bibliotheksproxy
Linux
2
2 GB
42
Server gesamt
Mit uns können Sie rechnen!
Leibniz-Rechenzentrum
Boltzmannstraße 1
85748 Garching b. München
Telefon:
Telefax:
+49 89 35831 - 8000
+49 89 35831 - 9700
E-Mail:lrzpost@lrz.de
Internet:www.lrz.de